WO2022181749A1 - データ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置 - Google Patents

データ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置 Download PDF

Info

Publication number
WO2022181749A1
WO2022181749A1 PCT/JP2022/007789 JP2022007789W WO2022181749A1 WO 2022181749 A1 WO2022181749 A1 WO 2022181749A1 JP 2022007789 W JP2022007789 W JP 2022007789W WO 2022181749 A1 WO2022181749 A1 WO 2022181749A1
Authority
WO
WIPO (PCT)
Prior art keywords
wavelength
data
spectral data
spectral
subject
Prior art date
Application number
PCT/JP2022/007789
Other languages
English (en)
French (fr)
Inventor
睦 川中子
慶延 岸根
和佳 岡田
友也 平川
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2023502526A priority Critical patent/JPWO2022181749A5/ja
Priority to CN202280015400.2A priority patent/CN116888456A/zh
Publication of WO2022181749A1 publication Critical patent/WO2022181749A1/ja
Priority to US18/453,300 priority patent/US20230393059A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/58Extraction of image or video features relating to hyperspectral data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N2021/3129Determining multicomponents by multiwavelength light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/251Colorimeters; Construction thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths

Definitions

  • the present invention relates to a data processing device, method, program, optical element, imaging optical system, and imaging device, and more particularly to technology for selecting two or more wavelengths suitable for identifying a desired subject among a plurality of subjects.
  • hyperspectral cameras that can perform spectral sensing using more than 100 wavelengths.
  • hyperspectral camera Since this type of hyperspectral camera measures many wavelengths, it is common to sense objects by searching for wavelengths where reflection and absorption change rapidly.
  • Patent Document 1 describes a bandpass filter design system that searches for design conditions for a bandpass filter arranged in an imaging optical system in an imaging apparatus.
  • spectral data detection algorithm information necessary for discerning a target event from a subject, photographing conditions when photographing a subject with a photographing device, image sensor information regarding an image sensor, etc. Based on these pieces of information, design conditions for the bandpass filter are searched using, for example, artificial intelligence.
  • the detection algorithm information is an algorithm for detecting spectral data necessary for actually capturing an image of a subject with an imaging device and determining a target event.
  • One embodiment according to the technology of the present disclosure is a data processing device, method, program, optical element, imaging optical system, and optical element capable of selecting two or more wavelengths suitable for identifying a desired subject among a plurality of subjects.
  • a data processing device comprising a processor, wherein the processor performs data acquisition processing for acquiring first spectral data of a first subject and second spectral data of a second subject; and a wavelength selection process of selecting a plurality of specific wavelengths from the wavelength range of the second spectrum data, wherein the wavelength selection process selects the plurality of specific wavelengths based on the difference in feature amount between the first spectrum data and the second spectrum data to select.
  • the feature quantity is preferably spectral reflectance or spectral intensity.
  • At least one specific wavelength is a wavelength that maximizes the difference in feature amount.
  • the data acquisition process acquires data from a device that acquires two-dimensional spectral data of wavelengths greater than the selected plurality of specific wavelengths.
  • the processor performs display processing for displaying a visible image showing the spectral data on the display based on the spectral data.
  • the data acquisition process specifies a first area of the first subject and a second area of the second subject on the display based on a user instruction, and Preferably, the first spectral data and the second spectral data of the second region are obtained.
  • the data acquisition processing preferably acquires the first spectral data and the second spectral data by calculating representative values of feature amounts in the first region and the second region. .
  • the representative value is preferably the mean value, median value or mode value.
  • the wavelength selection processing includes: a first wavelength at which the difference in the feature amount between the first spectral data and the second spectral data is maximum; It is preferable to select, as the specific wavelength, the second wavelength at which the difference in the feature amount between the first spectral data and the second spectral data is the maximum or maximum in different wavelength regions separated by the difference or more.
  • the predetermined difference is 5 nm or more.
  • the wavelength selection process includes, when there is a reference wavelength at which the feature amount of the acquired first spectrum data and the second spectrum data match, The third wavelength at which the difference in the feature amount between the first spectral data and the second spectral data is maximized, and the third wavelength at which the difference in the feature amount between the first spectral data and the second spectral data is maximized on the longer wavelength side than the reference wavelength. It is preferable to select four wavelengths as specific wavelengths.
  • the wavelength selection process includes, when there are two or more reference wavelengths at which the feature amounts of the acquired first spectrum data and the second spectrum data match, the two or more reference wavelengths It is preferable to select, as one of the plurality of specific wavelengths, the fifth wavelength that maximizes the difference in feature quantity between the first spectral data and the second spectral data among the wavelengths.
  • the wavelength selection process includes a process of identifiably displaying a first graph and a second graph showing the acquired first spectrum data and second spectrum data on the display; and accepting a plurality of wavelengths specified by the user in relation to the first graph and the second graph displayed on the display as the plurality of specific wavelengths.
  • the invention according to a fourteenth aspect is an optical element having a plurality of wavelength selective elements, wherein the plurality of wavelength selective elements are selected by the data processing apparatus according to any one of the first to thirteenth aspects.
  • the invention according to the fifteenth aspect is a photographing optical system in which the optical element according to the fourteenth aspect is arranged at or near the pupil position.
  • An invention according to a sixteenth aspect comprises the imaging optical system according to the fifteenth aspect; It is a photographing device.
  • a seventeenth aspect of the invention provides a data acquisition step of acquiring first spectral data of a first subject and second spectral data of a second subject; a wavelength selection step of selecting a specific wavelength, which includes a wavelength selection step of selecting a plurality of specific wavelengths based on the difference between the feature amounts of the first spectrum data and the second spectrum data, wherein the processor processes each step; is a data processing method for executing
  • the feature quantity is preferably spectral reflectance or spectral intensity.
  • At least one specific wavelength is a wavelength that maximizes the difference in feature amounts.
  • the data acquisition step preferably acquires data from a device that acquires spectral data of wavelengths greater than the selected plurality of specific wavelengths.
  • the data processing method preferably includes the step of displaying a visible image showing the spectral data on the display based on the spectral data.
  • the data acquisition step specifies a first area of the first subject and a second area of the second subject on the display based on a user instruction, and Preferably, the first spectral data and the second spectral data of the second region are obtained.
  • the data acquisition step acquires the first spectral data and the second spectral data by calculating representative values of the feature amounts of the first region and the second region. .
  • the representative value is preferably the mean value, median value or mode value.
  • the wavelength selection step includes: selecting a first wavelength at which the difference in feature amount between the first spectral data and the second spectral data is maximum; It is preferable to select, as the specific wavelengths, the second wavelengths at which the difference in the feature amount between the first spectral data and the second spectral data is the maximum or maximum in different wavelength regions separated by a difference or more.
  • the predetermined difference is preferably 5 nm or more.
  • the wavelength selection step if there is a reference wavelength at which the characteristic amounts of the acquired first spectral data and the second spectral data match, The third wavelength at which the difference in the feature amount between the first spectral data and the second spectral data is maximized, and the third wavelength at which the difference in the feature amount between the first spectral data and the second spectral data is maximized on the longer wavelength side than the reference wavelength. It is preferable to select each of the four wavelengths as the specific wavelength.
  • the wavelength selection step when there are two or more reference wavelengths at which the feature amounts of the acquired first spectral data and second spectral data match, the two or more reference wavelengths It is preferable to select, as one of the plurality of specific wavelengths, the fifth wavelength that maximizes the difference in feature quantity between the first spectral data and the second spectral data among the wavelengths.
  • the wavelength selection step includes displaying a first graph and a second graph showing the obtained first spectral data and second spectral data in a identifiable manner on a display; and accepting, as the plurality of specific wavelengths, the plurality of wavelengths indicated by the user in association with the first graph and the second graph displayed on the display.
  • a thirtieth aspect of the invention provides a function of acquiring first spectral data of a first subject and second spectral data of a second subject, and obtaining a plurality of specific wavelengths from the wavelength ranges of the acquired first spectral data and second spectral data. and a function of selecting a plurality of specific wavelengths on the basis of the difference in feature quantity between the first spectral data and the second spectral data.
  • FIG. 1 is a schematic diagram showing a first example of simultaneously photographing two objects to be classified and obtaining spectral information of each object.
  • FIG. 2 is a diagram showing an example of how a data cube is created from spectral information acquired by a hyperspectral camera.
  • FIG. 3 is a schematic diagram showing a second example of separately photographing two subjects to be classified and obtaining spectral information of each subject.
  • FIG. 4 is a diagram showing another example of how a data cube is created from spectral information acquired by a hyperspectral camera.
  • FIG. 5 is a diagram showing a first example of a visible image that can be created from a datacube containing a first subject and a second subject.
  • FIG. 6 is a graph showing first spectral data of a first subject and second spectral data of a second subject.
  • FIG. 7 is a diagram showing a second example of a visible image that can be created from a datacube containing one first subject and two second subjects.
  • FIG. 8 is a graph showing first spectral data of one first subject and two second spectral data of two similar second subjects.
  • FIG. 9 is a diagram showing a third example of a visible image that can be created from a datacube containing a first subject, a second subject and a third subject.
  • FIG. 10 is a graph showing first spectral data of a first subject, second spectral data of a second subject, and third spectral data of a third subject.
  • FIG. 10 is a graph showing first spectral data of a first subject, second spectral data of a second subject, and third spectral data of a third subject.
  • FIG. 11 is a functional block diagram showing the first embodiment of the data processing device according to the present invention.
  • FIG. 12 is a graph showing a first example of first spectral data A( ⁇ ) and second spectral data B( ⁇ ).
  • FIG. 13 is a graph showing a second example of first spectral data A( ⁇ ) and second spectral data B( ⁇ ).
  • FIG. 14 is a graph showing a third example of first spectral data A( ⁇ ) and second spectral data B( ⁇ ).
  • FIG. 15 is a graph showing a fourth example of first spectral data A( ⁇ ) and second spectral data B( ⁇ ).
  • FIG. 16 is a graph showing a fifth example of first spectral data A( ⁇ ) and second spectral data B( ⁇ ).
  • FIG. 17 is a functional block diagram showing a second embodiment of the data processing device according to the present invention.
  • FIG. 18 is a schematic diagram showing an example of a multispectral camera.
  • FIG. 19 is a flowchart illustrating an embodiment of a data processing method according to the invention.
  • FIG. 20 is a subroutine showing an embodiment of the processing procedure in step S10 shown in FIG.
  • FIG. 21 is a subroutine showing a first embodiment of the processing procedure in step S20 shown in FIG.
  • FIG. 22 is a subroutine showing a second embodiment of the processing procedure in step S20 shown in FIG.
  • FIG. 1 is a schematic diagram showing a first example of simultaneously photographing two objects to be classified and obtaining spectral information of each object.
  • the hyperspectral camera 1 is a camera that captures light that is illuminated by the light source 2 and reflected by the first subject 3 and the second subject 4 by spectrally dispersing it for each wavelength, and acquires spectral information 6 of a plurality of wavelengths. Since the first subject 3 and the second subject 4 to be classified are mixed, it is possible to acquire the spectral information 6 including the mutual influence (secondary reflected light, etc.).
  • the spectral information 6 is input to a computer 7 in which data processing software for the hyperspectral camera 1 is installed, as shown in FIG.
  • the data cube 8 is three-dimensional structure data in which two-dimensional spectral data indicating spectral reflectance or spectral intensity are arranged for each wavelength ( ⁇ ) to form a layer.
  • a snapshot type or a push bloom type can be applied as the hyperspectral camera 1.
  • a snapshot-type hyperspectral camera can simultaneously photograph a certain area with a two-dimensional image sensor, is excellent in real-time performance, and can photograph a moving subject.
  • Line scan type hyperspectral cameras require a certain amount of time to shoot because they move the subject to take pictures, and it is difficult to shoot moving objects.
  • a large number of spectroscopic data eg, spectroscopic data of 100-200 bands) can be acquired.
  • the spectroscopic data acquired by the hyperspectral camera or the like may be spectroscopic data of wavelengths larger than the number of specific wavelengths described later, and is acquired from equipment other than the hyperspectral camera (for example, a multispectral camera, etc.). Anything is fine.
  • FIG. 3 is a schematic diagram showing a second example of separately photographing two subjects to be classified and obtaining spectral information of each subject.
  • the first subject 3 and the second subject 4 are photographed separately by the hyperspectral camera 1 .
  • a hyperspectral camera 1 captures an image of a first subject 3 illuminated by a light source 2, acquires spectral information 6A of a plurality of wavelengths, similarly captures an image of a second subject 4 illuminated by the light source 2, and acquires spectral information 6A of a plurality of wavelengths. obtains the spectral information 6B. Since the spectral information 6A and 6B of the first subject 3 and the second subject 4 to be classified can be obtained at different timings, even in an environment where the first subject 3 and the second subject 4 cannot coexist, each Spectral information 6A and 6B can be acquired.
  • the spectral information 6A, 6B are input to the computer 7, respectively, as shown in FIG. 4, where they are processed and converted into data cubes 8A, 8B.
  • the data cube may be obtained directly from the hyperspectral camera 1 by providing the function of the computer 7 to the hyperspectral camera 1 .
  • FIG. 5 is a diagram showing a first example of a visible image that can be created from a datacube containing a first subject and a second subject.
  • the user designates a desired area A (first area) of the first subject 3 and a desired area B (second area) of the second subject 4 on the visible image shown in FIG.
  • the desired areas A and B are indicated by rectangles.
  • the representative value of the spectral data of the region A of the first subject 3 specified by the user is calculated for each wavelength ( ⁇ ) in the data cube 8.
  • the representative value of the spectral data of the area A of the first subject 3 is, for example, the average value, the median value, or the mode of the spectral data of the area A of the first subject 3 among the two-dimensional spectral data corresponding to a certain wavelength. can be a value.
  • the representative value of the spectral data of the region B of the second subject 4 specified by the user is calculated for each wavelength ( ⁇ ).
  • FIG. 6 is a graph showing the first spectral data of the first subject and the second spectral data of the second subject.
  • the horizontal axis is wavelength (nm), and the vertical axis is a graph showing spectral data.
  • the two-dimensional spectral data for each wavelength ( ⁇ ) calculated from the data cube 8 are discrete values.
  • the number of discrete spectral data is increased by linear interpolation, spline interpolation, or the like, and the first spectral data A ( ⁇ ) and the second spectral data A ( ⁇ ) shown in FIG. It is preferable to acquire spectral data B( ⁇ ).
  • the first spectral data A( ⁇ ) of the first subject 3 and the second spectral data B( ⁇ ) of the second subject 4 can be obtained.
  • FIG. 7 is a diagram showing a second example of a visible image that can be created from a data cube containing one first subject and two second subjects.
  • the two second subjects 4A and 4B shown in FIG. 7 are the same subject. That is, each type includes a plurality (two points) of subjects.
  • the two second subjects 4A and 4B are arranged at different positions, so the photographing conditions are different.
  • the illumination conditions of the light source, the photographing position within the photographing range, and the like are different.
  • the user designates the area A of the first subject 3 and areas B1 and B2 of the second subjects 4A and 4B on the visible image shown in FIG.
  • FIG. 8 is a graph showing the first spectral data of one first subject and two second spectral data of two similar second subjects.
  • FIG. 9 is a diagram showing a third example of a visible image that can be created from a data cube containing the first subject, the second subject and the third subject.
  • a first subject 3, a second subject 4, and a third subject 5 shown in FIG. 9 are different types of subjects to be classified.
  • the user designates an area A of the first subject 3, an area B of the second subject 4, and an area C of the third subject 5 on the visible image shown in FIG.
  • FIG. 10 is a graph showing the first spectral data of the first subject, the second spectral data of the second subject, and the third spectral data of the third subject.
  • FIG. 11 is a functional block diagram showing the first embodiment of the data processing device according to the present invention.
  • the data processing device 10-1 of the first embodiment can be configured by a personal computer, workstation, or the like having hardware such as a processor, memory, and input/output interface.
  • the processor is composed of a CPU (Central Processing Unit) and the like, and controls the respective parts of the data processing device 10-1. 1 can function.
  • CPU Central Processing Unit
  • the data processing device 10-1 of the first embodiment shown in FIG. 11 automatically selects two or more wavelengths suitable for separating the first subject 3 and the second subject 4 of different types shown in FIG. It is provided with a data acquisition section 20, an output section 40, and a user instruction reception section 60.
  • the data acquisition unit 20 is a part that performs data acquisition processing for acquiring the first spectral data of the first subject and the second spectral data of the second subject.
  • a data generator 26 is provided.
  • the data cube 8 shown in FIG. 2 is input to the display image generation unit 22 and the representative value calculation unit 24 respectively.
  • the display image generation unit 22 creates a visible image (display image) for visualizing the identification of the first subject 3 and the second subject 4 from the data cube 8, and performs display processing for displaying the display image on the display 50. This is the part to do.
  • the display image can be, for example, a pseudo-color image of B, G, and R from spectral data of bands corresponding to red (R), green (G), and blue (B) included in the data cube 8. .
  • the display image is not limited to a pseudo-color image, and may be a monochrome image as long as the first subject 3 and the second subject 4 can be specified.
  • the display image generated by the display image generation unit 22 is output to the display device 50 and displayed here as images representing the first subject 3 and the second subject 4 .
  • the image shown in FIG. 5 is an example of the image displayed on the display 50.
  • the user instruction receiving unit 60 is a part that receives user instructions for the area A of the first subject 3 and the area B of the second subject 4 specified on the display 50 . That is, the user instruction receiving unit 60-1 controls the area A of the first subject 3 and the area B of the second subject 4 in FIG. , and outputs the received information indicating the area A of the first subject 3 and the area B of the second subject 4 to the representative value calculation unit 24 .
  • the data cube 8 is added to the representative value calculation unit 24, and the representative value calculation unit 24 calculates based on the data cube 8 and information indicating the area A of the first subject 3 and the area B of the second subject 4. Then, a representative value of the feature amount (spectral reflectance or spectral data indicating spectral intensity) in the area A of the first subject 3 and the area B of the second subject 4 is calculated for each wavelength forming the data cube 8 .
  • the representative value of the spectral data of the area A of the first subject 3 can be the average value, the median value, or the mode of the spectral data of the area A of the first subject 3 in the two-dimensional spectral data.
  • the representative value of the spectral data of the area B of the second subject 4 can be the average value, the median value, or the mode of the spectral data of the area B of the second subject 4 among the two-dimensional spectral data. .
  • the spectrum data generation unit 26 inputs the representative value of the spectral data of the region A of the first subject 3 and the representative value of the spectral data of the region B of the second subject 4, which are calculated by the representative value calculation unit 24. First spectral data A( ⁇ ) of one subject 3 and second spectral data B( ⁇ ) of a second subject 4 are generated.
  • the representative value of the spectral data of the area A of the first subject 3 and the representative value of the spectral data of the area B of the second subject 4 calculated using the data cube 8 are layered in the data cube 8. It is a discrete value for each wavelength.
  • the spectral data generation unit 26 increases the number of data by linear interpolation, spline interpolation, or the like for discrete representative values for each wavelength, and for example, Preferably, the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) shown in 6 are obtained.
  • the spectral data of each subject for example, if the spectral data of the subject (including some subjects) is known, the spectral data may be obtained.
  • the wavelength selection unit 30-1 selects a plurality of wavelengths from the wavelength regions of the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) acquired by the data acquiring unit 20 (output from the spectral data generating unit 26). This is a portion for performing wavelength selection processing for selecting a specific wavelength.
  • FIG. 12 is a graph showing a first example of the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ).
  • the first spectral data A ( ⁇ ) and the second spectral data B ( ⁇ ) monotonously increase as the wavelength becomes longer, and in the range from 400 nm to 1000 nm in this example. Within the wavelength range, there is no wavelength at which the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) match.
  • the wavelength selection unit 30-1 selects a plurality of specific wavelengths based on the difference in the feature amount (spectral reflectance or spectral intensity) between the first spectral data A and the second spectral data B( ⁇ ). As at least one specific wavelength among the plurality of specific wavelengths, a specific wavelength that maximizes the difference (absolute value of the difference) between the first spectral data A and the second spectral data B( ⁇ ) is selected. In the example shown in FIG. 12, the first wavelength ⁇ 1 at the end of the wavelength band on the long-wave side is selected as the specific wavelength at which the spectral data difference is maximum.
  • the difference between the spectral data of the first spectral data A and the second spectral data B( ⁇ ) is obtained over the entire wavelength range, and the wavelength at which the spectral data difference is maximum is determined as the first wavelength ⁇ 1 (specified wavelength).
  • the wavelength selection unit 30-1 selects the first spectrum data A( ⁇ ) and the second spectrum data B in different wavelength regions separated by a predetermined wavelength difference or more from the first wavelength ⁇ 1 selected as described above.
  • the second wavelength ⁇ 2 at which the difference in the spectral data of ( ⁇ ) is the minimum, minimum, maximum, or maximum is selected as the second specific wavelength.
  • the predetermined difference is preferably 5 nm or more. Also, the predetermined difference may be appropriately set by the user.
  • the wavelength selection unit 30-1 can select a plurality of specific wavelengths (first wavelength ⁇ 1, second wavelength ⁇ 2) suitable for separating the first subject 3 and the second subject 4.
  • the sensing sensitivity can be calculated by the following equation.
  • the sensing sensitivity is 0.2.
  • the denominators of [Equation 1] are each set to 1 and the non-normalized sensing sensitivities are obtained, the sensing sensitivities are -10.
  • the sensing sensitivity is nearly equal to 0.07.
  • the wavelength selection unit 30-1 preferably selects a plurality of specific wavelengths (in this example, the first wavelength ⁇ 1 and the second wavelength ⁇ 2) so that the normalized sensing sensitivity is increased.
  • FIG. 13 is a graph showing a second example of the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ).
  • the first spectral data A ( ⁇ ) and the second spectral data B ( ⁇ ) monotonically increase as the wavelength increases.
  • the wavelength selector 30-1 determines that the difference between the spectral data of the first spectral data ( ⁇ ) and the second spectral data B( ⁇ ) is maximum on the short wavelength side of the reference wavelength. and a fourth wavelength ⁇ 4 at which the difference between the first spectral data ( ⁇ ) and the second spectral data B ( ⁇ ) on the longer wavelength side than the reference wavelength becomes maximum, respectively, the specific wavelength can be selected as
  • the wavelength selection unit 30-1 can also select, as the specific wavelength, a reference wavelength whose spectral data match the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ).
  • FIG. 14 is a graph showing a third example of the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ).
  • the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) have two intersections (two reference wavelengths with which the spectral data match).
  • wavelength selection section 30-1 selects first wavelength ⁇ 1 (first 5 wavelengths) can be selected as one of a plurality of specific wavelengths, and two reference wavelengths, the second wavelength ⁇ 2 and the third wavelength ⁇ 3, can be selected as specific wavelengths, respectively. Further, the wavelength selection unit 30-1 can select the fourth wavelength ⁇ 4, which is the shortest wavelength in the entire wavelength range, and the fifth wavelength ⁇ 5, which is the longest wavelength, as specific wavelengths.
  • the spectral data at the first wavelength ⁇ 1, the second wavelength ⁇ 2 and the third wavelength ⁇ 3 of the first spectral data A( ⁇ ) of the third example shown in FIG. and the spectral data at the first wavelength ⁇ 1, the second wavelength ⁇ 2, and the third wavelength ⁇ 3 of the second spectral data B( ⁇ ) are b( ⁇ 1), b( ⁇ 2), and b( ⁇ 3). It can be calculated by the following formula.
  • FIG. 15 is a graph showing a fourth example of the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ).
  • the first spectral data A( ⁇ ) monotonously increases as the wavelength increases
  • the second spectral data B( ⁇ ) is the first spectral data A( ⁇ ). does not intersect with , but has a maximum and a minimum.
  • a first wavelength ⁇ 1 at which the difference between the first spectral data A ( ⁇ ) and the second spectral data B ( ⁇ ) is maximum (and maximum) and minimum (and minimum) is present.
  • the wavelength selection unit 30-1 selects the first wavelength at which the difference between the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) becomes maximum (maximum).
  • ⁇ 1 can be selected as the specific wavelength
  • the second wavelength ⁇ 2 at which the difference between the spectral data of the first spectral data A ( ⁇ ) and the second spectral data B ( ⁇ ) is the smallest (minimum) is selected as the specific wavelength. be able to.
  • the wavelength selector 30-1 selects a third wavelength that is shorter than the first wavelength ⁇ 1 and that minimizes the difference between the spectral data between the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ).
  • ⁇ 3 in the fourth example shown in FIG. 15, the shortest wavelength in the entire wavelength range
  • the specific wavelength can be selected as the specific wavelength.
  • the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) do not intersect at two points as in the third example shown in FIG.
  • the first spectrum is obtained on the longer wavelength side than the first wavelength ⁇ 1, sandwiching the first wavelength ⁇ 1 at which the difference between the spectral data of the first spectral data A ( ⁇ ) and the second spectral data B ( ⁇ ) is maximum (and maximum).
  • FIG. 16 is a graph showing a fifth example of the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ).
  • the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) have one intersection point (one reference wavelength with which the spectral data match).
  • the wavelength selection unit 30-1 selects the reference wavelength as the specific wavelength, and the difference between the first spectral data ( ⁇ ) and the second spectral data B( ⁇ ) is the maximum on the short wavelength side of the reference wavelength. and a third wavelength ⁇ 3 at which the difference between the first spectral data ( ⁇ ) and the second spectral data B ( ⁇ ) on the longer wavelength side than the reference wavelength is maximum and maximum, and the third wavelength ⁇ 3 Four wavelengths ⁇ 4 can be selected as specific wavelengths.
  • the wavelength selection unit 30-1 selects four wavelengths of the first wavelength ⁇ 1, the second wavelength ⁇ 2, the third wavelength ⁇ 3, and the fourth wavelength ⁇ 4 as specific wavelengths. can do.
  • the specific wavelength selected by the wavelength selection unit 30-1 is not limited to the above example.
  • the plurality of specific wavelengths are the characteristic amounts (spectral reflectance or spectral intensity) of the first spectral data A( ⁇ ) of the first subject 3 and the second spectral data B( ⁇ ) of the second subject 4. Two or more specific wavelengths suitable for separating the first subject 3 and the second subject 4 based on the difference may be used.
  • One of the plurality of specific wavelengths is the wavelength at which the difference in spectral data between the first spectral data A( ⁇ ) of the first subject 3 and the second spectral data B( ⁇ ) of the second subject 4 is maximum. preferably included. Further, the difference in spectral data between the first spectral data A( ⁇ ) of the first subject 3 and the second spectral data B( ⁇ ) of the second subject 4 is the wavelength at which the spectral data difference is maximum and minimum, and The wavelength that becomes zero (reference wavelength) can also be one of the specific wavelengths.
  • the first spectral data A( ⁇ ) of the first subject 3 shown in FIG. 7 Two or more specific wavelengths are selected based on the difference in spectral data from the second spectral data B1( ⁇ ) of the subject 4A, and the first spectral data A( ⁇ ) of the first subject 3 and the second spectral data A( ⁇ ) of the second subject 4B are obtained. Two or more specific wavelengths are selected based on the difference in spectral data from the spectral data B2( ⁇ ), and the second spectral data B1( ⁇ ) of the second subject 4A and the second spectral data B2( ⁇ ) of the second subject 4B are obtained. ) to select two or more specific wavelengths based on the difference in spectral data.
  • the first spectrum data A( ⁇ ) of the first subject 3 and the second spectrum of the second subject 4 shown in FIG. 9 Two or more specific wavelengths are selected based on the difference in spectral data from the data B( ⁇ ), and the first spectral data A( ⁇ ) of the first subject 3 and the third spectral data C( ⁇ ) of the third subject 5 are selected. Two or more specific wavelengths are selected based on the difference in spectral data between the second spectral data B( ⁇ ) of the second subject 4 and the third spectral data C( ⁇ ) of the third subject 5. Two or more specific wavelengths are selected based on the difference.
  • information indicating a plurality of specific wavelengths selected by the wavelength selection section 30-1 can be output to the display 50 and an external device.
  • the display 50 for inputting information indicating a plurality of specific wavelengths can display a plurality of specific wavelengths and present them to the user.
  • a recording device that records a plurality of specific wavelengths
  • a printer that prints out a plurality of specific wavelengths
  • a design device that designs a bandpass filter etc. based on a plurality of specific wavelengths, etc. can be considered.
  • FIG. 17 is a functional block diagram showing a second embodiment of the data processing device according to the present invention.
  • a data processing apparatus 10-2 according to the second embodiment shown in FIG. 17 is a data processing apparatus 10-1 according to the first embodiment, for example, a first subject 3 and a second subject 4 of different types shown in FIG. In contrast to automatically selecting two or more specific wavelengths suitable for separating the data processing apparatus 10- different from 1.
  • the data processing device 10-2 of the second embodiment performs wavelength selection instead of the wavelength selection unit 30-1 and the user instruction reception unit 60-1 of the data processing device 10-1 of the first embodiment. It differs from the data processing apparatus 10-1 of the first embodiment in that a section 30-2 and a user instruction receiving section 60-2 are provided.
  • the wavelength selection unit 30-2 has a graph creation unit 32. Based on the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) acquired by the data acquiring unit 20, the graph creating unit 32 creates the first spectral data A A graph (first graph) showing ( ⁇ ) and a graph (second graph) showing the second spectral data B( ⁇ ) are created. A first graph and a second graph representing the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) created by the graph creating section 32 are output to the display 50 . As a result, a first graph and a second graph showing the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) are respectively displayed on the display 50 in an identifiable manner (see FIGS. 12 to 16). ).
  • User instruction accepting unit 60-2 accepts information indicating the area of each subject according to a user instruction from operation unit 70 in the same manner as user instruction accepting unit 60-1 shown in FIG. Information indicating a plurality of wavelengths designated by the user using the operation unit 70 is accepted in relation to the first graph and the second graph.
  • the user can use the first graph showing the first spectral data A( ⁇ ) of the first subject 3 and the second graph showing the second spectral data B( ⁇ ) of the second subject 4 shown in FIGS.
  • a plurality of wavelengths suitable for separating the first subject 3 and the second subject 4 are indicated on the graph.
  • the difference between the spectral data of the first spectral data A( ⁇ ) and the second spectral data B( ⁇ ) can indicate the wavelength at which the difference is maximized, minimized, maximized, or minimized. can.
  • the wavelength selection unit 30-2 performs a process of accepting information indicating a plurality of wavelengths accepted by the user instruction acceptance unit 60-2 as a plurality of specific wavelengths. Information indicating a plurality of specific wavelengths received by the wavelength selection section 30-2 can be output to the display 50 and an external device in the same manner as the wavelength selection section 30-1.
  • FIG. 18 is a schematic diagram showing an example of a multispectral camera.
  • the first wavelength ⁇ 1 and the second wavelength ⁇ 2 suitable for separating the first subject 3 and the second subject 4 are the data processing device 10-1 of the first embodiment shown in FIG. This is the specific wavelength selected by the data processing device 10-2 of the second embodiment.
  • the filter unit 120 is composed of a polarizing filter unit 122 and a bandpass filter unit 124 and is preferably arranged at or near the pupil position of the imaging optical system 110 .
  • the polarizing filter unit 122 includes a first polarizing filter 122A and a second polarizing filter 122B that linearly polarize light passing through the first pupil region and the second pupil region of the imaging optical system 110, respectively.
  • the polarization directions are different from each other by 90° from the two-polarization filter 122B.
  • the bandpass filter unit 124 is composed of a first bandpass filter 124A and a second bandpass filter 124B that select wavelength bands of light that passes through the first pupil region and the second pupil region of the imaging optical system 110, respectively. .
  • light transmitted through the first pupil region of the imaging optical system 110 is linearly polarized by the first polarizing filter 122A, and only light in the wavelength range including the first wavelength is transmitted by the first bandpass filter 124A.
  • the light passing through the second pupil region of the imaging optical system 110 is linearly polarized by the second polarizing filter 122B (linearly polarized in a direction different from that of the first polarizing filter 122A by 90°), and is further polarized by the second bandpass filter 124B. Only the light in the wavelength range including the second wavelength is transmitted.
  • the image sensor 130 is configured by regularly arranging a first polarizing filter and a second polarizing filter whose polarization directions are different from each other by 90° in a plurality of pixels composed of photoelectric conversion elements arranged two-dimensionally. .
  • the first polarizing filter 122A and the first polarizing filter of the image sensor 130 have the same polarizing direction
  • the second polarizing filter 122B and the second polarizing filter of the image sensor 130 have the same polarizing direction.
  • the signal processing unit 140 acquires a first narrow-band image whose wavelength is selected by the first band-pass filter 124A by reading out pixel signals from the pixels of the image sensor 130 in which the first polarizing filter is arranged, and outputs the image to the image sensor. By reading pixel signals from the pixels in which the second polarizing filters 130 are arranged, a narrow-band second image whose wavelength is selected by the second band-pass filter 124B is obtained.
  • the first image and the second image acquired by the signal processing unit 140 are images suitable for separating the first subject 3 and the second subject 4 .
  • By synthesizing the first image and the second image it is possible to create a synthesized image with an expanded dynamic range and enhanced sensing performance.
  • optical element The optical element according to the present invention has two specific wavelengths ( It is an optical element produced according to the wavelength combination of the first wavelength ⁇ 1 and the second wavelength ⁇ 2).
  • the optical element corresponds to the bandpass filter unit 124 arranged in the multispectral camera 100 shown in FIG. It has a selection element (first bandpass filter) and a first wavelength selection element (second bandpass filter) that transmits light in a wavelength band including the second wavelength specified by the data processing device.
  • the first band-pass filter and the second band-pass filter have the first wavelength and the second wavelength as the center wavelengths, respectively, and have a band width in which the wavelength bands of the transmission wavelengths do not overlap each other.
  • the imaging optical system according to the present invention corresponds to the imaging optical system 110 of the multispectral camera 100 shown in FIG.
  • This imaging optical system is an optical element corresponding to the bandpass filter unit 124, and is a first wavelength selection element (first bandpass filter) that transmits light in a wavelength band including the first wavelength specified by the data processing device. and a first wavelength selection element (second band-pass filter) that transmits light in a wavelength band including the second wavelength specified by the data processing device is located at or near the pupil position of the lenses 110A and 110B. It is arranged and configured in
  • the imaging device according to the present invention corresponds to, for example, the multispectral camera 100 shown in FIG.
  • the first optical image is an optical image transmitted through the first wavelength selection element of the optical element
  • the second optical image is an optical image transmitted through the second wavelength selection element of the optical element
  • the first optical image and the second optical image are the polarizing filter unit 122 (the first polarizing filter 122A and the second polarizing filter 122B) functioning as a pupil dividing section, respectively, and the first polarized light on each pixel of the image sensor 130.
  • Pupil division is performed by the first polarizing filter and the second polarizing filter corresponding to the filter 122A and the second polarizing filter 122B, and the image is captured by the image sensor .
  • the multispectral camera 100 can simultaneously acquire a first image corresponding to the first optical image having different wavelength bands and a second image corresponding to the second optical image.
  • the imaging device is not limited to those having the configuration such as the pupil dividing section of the multispectral camera 100 shown in FIG. Any device may be used as long as it captures the transmitted second optical image and acquires the first image and the second image corresponding to the first optical image and the second optical image.
  • a data processing method is a method of selecting a wavelength (specific wavelength) suitable for separating a plurality of subjects. It is a method executed by a processor that is the subject of processing.
  • FIG. 19 is a flow chart showing an embodiment of a data processing method according to the present invention.
  • the processor acquires the first spectral data of the first subject and the second spectral data of the second subject (step S10, data acquisition step).
  • the processor selects a plurality of specific wavelengths suitable for separating the first subject and the second subject from the wavelength ranges of the first spectral data and the second spectral data acquired in step S10 (step S20, wavelength selection step).
  • the plurality of specific wavelengths are selected based on the difference between the feature amounts (spectral reflectance or spectral intensity) of the first spectral data and the second spectral data.
  • FIG. 20 is a subroutine showing an embodiment of the processing procedure in step S10 shown in FIG.
  • the user photographs the first subject and the second subject with the hyperspectral camera 1 (step S11, see FIGS. 1 and 3).
  • the data cube 8 of the three-dimensional structure in which the two-dimensional spectral data are arranged for each wavelength and form layers is obtained (step S12).
  • the data cube 8 acquires the spectral information acquired by the hyperspectral camera 1 by performing data processing using a computer in which data processing software is installed (see FIGS. 2 and 4).
  • the processor generates a display image (for example, a visible image such as a pseudo-color image) representing the spectral data based on the two-dimensional spectral data included in the data cube 8 (step S13), and generates the display image. It is displayed on the display (step S14).
  • a display image for example, a visible image such as a pseudo-color image
  • the processor determines whether or not a user instruction for the area of the subject (first subject, second subject) on the display image displayed on the display has been received (step S15). If the user instruction for the subject area has not been received ("No"), the process returns to step S14, and if the user instruction for the subject area has been received ("Yes"), the process proceeds to step S16. transition.
  • step S16 the representative value of the spectral data in the subject area is calculated for each wavelength of the data cube 8.
  • the representative value of the spectral data in the subject area can be the average value, the median value, or the mode of the spectral data in the subject area.
  • the processor generates spectral data of each subject from the representative value for each wavelength calculated in step S16 (step S17).
  • FIG. 21 is a subroutine showing the first embodiment of the processing procedure in step S20 shown in FIG. In particular, FIG. 21 shows the case of automatically selecting a plurality of specific wavelengths by the processor.
  • the processor selects the wavelength at which the difference between the first spectral data of the first subject and the spectral data of the second spectrum of the second subject is maximum as one of the plurality of specific wavelengths (step S21). ).
  • the processor determines whether or not there is a reference wavelength at which the spectral data of the first spectral data and the spectral data of the second spectral data match (intersect) (step S22). If it is determined that the reference wavelength exists ("Yes"), the wavelength that maximizes the difference in spectral data on the short and/or long wavelength side of the reference wavelength is selected as the specific wavelength (step S23). Note that the reference wavelength can also be selected as the specific wavelength.
  • the second wavelength range is different from the specific wavelength selected in step S21 by a predetermined wavelength difference or more.
  • a wavelength that maximizes or minimizes the difference between the spectral data of the first spectral data and the second spectral data is selected as the specific wavelength (step S24).
  • the predetermined difference is preferably 5 nm or more. Also, the predetermined difference may be appropriately set by the user. A wavelength at which the difference between the first spectral data and the second spectral data is maximum or minimum can also be selected as the specific wavelength.
  • the processor determines whether or not there are two or more reference wavelengths at which the spectral data of the first spectral data and the spectral data of the second spectral data match (intersect) (step S25). If it is determined that there are two or more reference wavelengths ("Yes"), the wavelength that maximizes the difference in spectral data between the two or more reference wavelengths is selected as the specific wavelength (step S26).
  • the processor can automatically select a plurality of specific wavelengths suitable for separating a plurality of subjects.
  • FIG. 22 is a subroutine showing a second embodiment of the processing procedure in step S20 shown in FIG. FIG. 22 particularly shows a case where a plurality of specific wavelengths are selected by user's instruction.
  • the processor creates graphs (first graph and second graph) showing these spectral data (step S31). ).
  • the processor causes the display 50 to display the first graph and the second graph created in step S31 in a distinguishable manner (step S32).
  • the processor determines whether user instructions for a plurality of wavelengths have been received in relation to the first and second graphs displayed on the display 50 (step S33). While looking at the first and second graphs displayed on the display 50, the user can visually confirm the wavelength at which the difference in spectral data is maximized, and designate that wavelength with a pointing device or the like.
  • the processor can accept such user-instructed multiple wavelengths, and when it determines that it has accepted user-instructed multiple wavelengths (in the case of "Yes"), it selects the received multiple wavelengths as specific wavelengths.
  • the hardware structure of a processing unit that executes various types of processing of a processor that constitutes a data processing device is the following types of processors.
  • the circuit configuration can be changed after manufacturing such as CPU (Central Processing Unit), which is a general-purpose processor that executes software (program) and functions as various processing units, FPGA (Field Programmable Gate Array), etc.
  • Programmable Logic Device PLD
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (eg, multiple FPGAs, or combinations of CPUs and FPGAs).
  • a plurality of processing units may be configured by one processor.
  • a processor functions as multiple processing units.
  • SoC System On Chip
  • SoC System On Chip
  • the various processing units are configured using one or more of the above various processors as a hardware structure.
  • the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.
  • the present invention also includes a data processing program that, when installed in a computer, causes the computer to function as a data processing device according to the present invention, and a non-volatile storage medium in which this data processing program is recorded.

Abstract

複数の被写体間で所望の被写体の識別に適した2以上の波長を選択することができるデータ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置を提供する。プロセッサを備えるデータ処理装置(10-1)において、プロセッサは、第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを取得するデータ取得処理と、取得した第1スペクトルデータ及び第2スペクトルデータの波長域から複数の特定波長を選定する波長選定処理と、を行い、波長選定処理は、第1スペクトルデータと第2スペクトルデータの特徴量の差に基づいて複数の特定波長を選定する。

Description

データ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置
 本発明はデータ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置に係り、特に複数の被写体間で所望の被写体の識別に適した2以上の波長を選択する技術に関する。
 従来、ハイパースペクトルカメラとして、100以上の波長を用いてスペクトルセンシングを行うことができるものがある。
 この種のハイパースペクトルカメラでは、多くの波長を計測しているため、反射や吸収が急激に変化する波長を探すことで検出対象物をセンシングすることが一般的である。
 特許文献1には、撮影装置における撮影光学系中に配置されるバンドパスフィルタの設計条件を探索するバンドパスフィルタの設計システムが記載されている。
 このバンドパスフィルタの設計システムは、被写体から目的事象を判別する上で必要なスペクトルデータの検出アルゴリズム情報、被写体を撮影装置により撮影する際の撮影条件、撮像素子に関する撮像素子情報等を入力し、これらの情報に基づいてバンドパスフィルタの設計条件を、例えば人工知能を利用して探索する。
 尚、検出アルゴリズム情報は、実際に撮影装置により被写体を撮像して目的事象を判断する上で必要なスペクトルデータを検出するためのアルゴリズムである。
特開2019-40155号公報
 本開示の技術に係る一つの実施形態は、複数の被写体間で所望の被写体の識別に適した2以上の波長を選択することができるデータ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置を提供する。
 第1態様に係る発明は、プロセッサを備えるデータ処理装置において、プロセッサは、第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを取得するデータ取得処理と、取得した第1スペクトルデータ及び第2スペクトルデータの波長域から複数の特定波長を選定する波長選定処理と、を行い、波長選定処理は、第1スペクトルデータと第2スペクトルデータの特徴量の差に基づいて複数の特定波長を選定する。
 本発明の第2態様に係るデータ処理装置において、特徴量は、分光反射率又は分光強度であることが好ましい。
 本発明の第3態様に係るデータ処理装置において、少なくとも1つの特定波長は、特徴量の差が最大になる波長であることが好ましい。
 本発明の第4態様に係るデータ処理装置において、データ取得処理は、選定する複数の特定波長よりも多くの波長の2次元の分光データを取得する機器からデータ取得することが好ましい。
 本発明の第5態様に係るデータ処理装置において、プロセッサは、分光データに基づいて分光データを示す可視画像を表示器に表示する表示処理を行うことが好ましい。
 本発明の第6態様に係るデータ処理装置において、データ取得処理は、ユーザ指示に基づいて表示器上で第1被写体の第1領域及び第2被写体の第2領域を特定し、第1領域及び第2領域の第1スペクトルデータ及び第2スペクトルデータを取得することが好ましい。
 本発明の第7態様に係るデータ処理装置において、データ取得処理は、第1領域及び第2領域における特徴量の代表値を算出して第1スペクトルデータ及び第2スペクトルデータを取得することが好ましい。
 本発明の第8態様に係るデータ処理装置において、代表値は、平均値、中央値又は最頻値であることが好ましい。
 本発明の第9態様に係るデータ処理装置において、波長選定処理は、第1スペクトルデータと第2スペクトルデータの特徴量の差が最大になる第1波長と、第1波長から波長差が所定の差以上離れた異なる波長域において、第1スペクトルデータと第2スペクトルデータの特徴量の差が最大又は極大になる第2波長とを、特定波長として選定することが好ましい。
 本発明の第10態様に係るデータ処理装置において、所定の差は、5nm以上であることが好ましい。
 本発明の第11態様に係るデータ処理装置において、波長選定処理は、取得した第1スペクトルデータと第2スペクトルデータとの特徴量が一致する基準波長が存在する場合に、基準波長よりも短波側で第1スペクトルデータと第2スペクトルデータの特徴量の差が最大になる第3波長と、基準波長よりも長波側で第1スペクトルデータと第2スペクトルデータの特徴量の差が最大になる第4波長とを、特定波長として選定することが好ましい。
 本発明の第12態様に係るデータ処理装置において、波長選定処理は、取得した第1スペクトルデータと第2スペクトルデータとの特徴量が一致する基準波長が2以上存在する場合に、2以上の基準波長の間で第1スペクトルデータと第2スペクトルデータの特徴量の差が最大になる第5波長を、複数の特定波長のうちの一つとして選定することが好ましい。
 本発明の第13態様に係るデータ処理装置において、波長選定処理は、取得した第1スペクトルデータ及び第2スペクトルデータを示す第1グラフ及び第2グラフを表示器に識別可能に表示させる処理と、表示器に表示された第1グラフ及び第2グラフに関連してユーザ指示された複数の波長を、複数の特定波長として受け付ける処理と、を行うことが好ましい。
 第14態様に係る発明は、複数の波長選択素子を有する光学素子であって、複数の波長選択素子は、第1実施形態から第13態様のいずれかに記載のデータ処理装置により選定された複数の特定波長の波長帯域を透過させる、光学素子である。
 第15態様に係る発明は、第14態様に係る光学素子を、瞳位置又は瞳位置近傍に配置した撮影光学系である。
 第16態様に係る発明は、第15態様に係る撮影光学系と、撮影光学系により結像された、複数の波長選択素子をそれぞれ透過した複数の光学像を撮像する撮像素子と、を備えた撮影装置である。
 第17態様に係る発明は、第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを取得するデータ取得ステップと、取得した第1スペクトルデータ及び第2スペクトルデータの波長域から複数の特定波長を選定する波長選定ステップであって、第1スペクトルデータと第2スペクトルデータの特徴量の差に基づいて複数の特定波長を選定する波長選定ステップと、を含み、プロセッサが各ステップの処理を実行するデータ処理方法である。
 本発明の第18態様に係るデータ処理方法において、特徴量は、分光反射率又は分光強度であることが好ましい。
 本発明の第19態様に係るデータ処理方法において、少なくとも1つの特定波長は、特徴量の差が最大になる波長であることが好ましい。
 本発明の第20態様に係るデータ処理方法において、データ取得ステップは、選定する複数の特定波長よりも多くの波長の分光データを取得する機器からデータ取得することが好ましい。
 本発明の第21態様に係るデータ処理方法において、分光データに基づいて分光データを示す可視画像を表示器に表示するステップを含むことが好ましい。
 本発明の第22態様に係るデータ処理方法において、データ取得ステップは、ユーザ指示に基づいて表示器上で第1被写体の第1領域及び第2被写体の第2領域を特定し、第1領域及び第2領域の第1スペクトルデータ及び第2スペクトルデータを取得することが好ましい。
 本発明の第23態様に係るデータ処理方法において、データ取得ステップは、第1領域及び第2領域の特徴量の代表値を算出して第1スペクトルデータ及び第2スペクトルデータを取得することが好ましい。
 本発明の第24態様に係るデータ処理方法において、代表値は、平均値、中央値又は最頻値であることが好ましい。
 本発明の第25態様に係るデータ処理方法において、波長選定ステップは、第1スペクトルデータと第2スペクトルデータの特徴量の差が最大になる第1波長と、第1波長から波長差が所定の差以上離れた異なる波長域において、第1スペクトルデータと第2スペクトルデータの特徴量の差が最大又は極大になる第2波長とを、それぞれ特定波長として選定することが好ましい。
 本発明の第26態様に係るデータ処理方法において、所定の差は、5nm以上であることが好ましい。
 本発明の第27態様に係るデータ処理方法において、波長選定ステップは、取得した第1スペクトルデータと第2スペクトルデータとの特徴量が一致する基準波長が存在する場合に、基準波長よりも短波側で第1スペクトルデータと第2スペクトルデータの特徴量の差が最大になる第3波長と、基準波長よりも長波側で第1スペクトルデータと第2スペクトルデータの特徴量の差が最大になる第4波長とを、それぞれ特定波長として選定することが好ましい。
 本発明の第28態様に係るデータ処理方法において、波長選定ステップは、取得した第1スペクトルデータと第2スペクトルデータとの特徴量が一致する基準波長が2以上存在する場合に、2以上の基準波長の間で第1スペクトルデータと第2スペクトルデータの特徴量の差が最大になる第5波長を、複数の特定波長のうちの一つとして選定することが好ましい。
 本発明の第29態様に係るデータ処理方法において、波長選定ステップは、取得した第1スペクトルデータ及び第2スペクトルデータを示す第1グラフ及び第2グラフを表示器に識別可能に表示させるステップと、表示器に表示された第1グラフ及び第2グラフに関連してユーザ指示された複数の波長を、複数の特定波長として受け付けるステップと、を含むことが好ましい。
 第30態様に係る発明は、第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを取得する機能と、取得した第1スペクトルデータ及び第2スペクトルデータの波長域から複数の特定波長を選定する機能であって、第1スペクトルデータと第2スペクトルデータの特徴量の差に基づいて複数の特定波長を選定する機能と、をコンピュータにより実現させるデータ処理プログラムである。
図1は、分類したい2つの被写体を同時に撮影して各被写体の分光情報を取得する第1例を示す概略図である。 図2は、ハイパースペクトルカメラが取得した分光情報からデータキューブを作成する様子の一例を示す図である。 図3は、分類したい2つの被写体を別々に撮影して各被写体の分光情報を取得する第2例を示す概略図である。 図4は、ハイパースペクトルカメラが取得した分光情報からデータキューブを作成する様子の他の例を示す図である。 図5は、第1被写体と第2被写体を含むデータキューブから作成可能な可視画像の第1例を示す図である。 図6は、第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを示すグラフである。 図7は、1つの第1被写体と2つの第2被写体を含むデータキューブから作成可能な可視画像の第2例を示す図である。 図8は、1つの第1被写体の第1スペクトルデータ、2つの同種の第2被写体の2つの第2スペクトルデータを示すグラフである。 図9は、第1被写体、第2被写体及び第3被写体を含むデータキューブから作成可能な可視画像の第3例を示す図である。 図10は、第1被写体の第1スペクトルデータ、第2被写体の第2スペクトルデータ、及び第3被写体の第3スペクトルデータを示すグラフである。 図11は、本発明に係るデータ処理装置の第1実施形態を示す機能ブロック図である。 図12は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第1例を示すグラフである。 図13は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第2例を示すグラフである。 図14は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第3例を示すグラフである。 図15は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第4例を示すグラフである。 図16は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第5例を示すグラフである。 図17は、本発明に係るデータ処理装置の第2実施形態を示す機能ブロック図である。 図18は、マルチスペクトルカメラの一例を示す概略図である。 図19は、本発明に係るデータ処理方法の実施形態を示すフローチャートである。 図20は、図19に示したステップS10における処理手順の実施形態を示すサブルーチンである。 図21は、図19に示したステップS20における処理手順の第1実施形態を示すサブルーチンである。 図22は、図19に示したステップS20における処理手順の第2実施形態を示すサブルーチンである。
 以下、添付図面に従って本発明に係るデータ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置の好ましい実施形態について説明する。
 <分光情報取得の第1例>
 図1は、分類したい2つの被写体を同時に撮影して各被写体の分光情報を取得する第1例を示す概略図である。
 図1に示す第1例では、分類したい異なる種類の被写体(第1被写体3、第2被写体4)をハイパースペクトルカメラ1により同時に撮影する。
 ハイパースペクトルカメラ1は、光源2により照明され、第1被写体3及び第2被写体4で反射する光を、波長ごとに分光して撮影するカメラであり、複数の波長の分光情報6を取得する。分類したい第1被写体3と第2被写体4とが混在しているため、相互間で与える影響(二次反射光など)も含めた分光情報6を取得することができる。
 分光情報6は、図2に示すようにハイパースペクトルカメラ1のデータ処理ソフトがインストールされたコンピュータ7に入力され、ここでデータ処理されることで、データキューブ8と言われるデータに変換される。
 データキューブ8は、分光反射率又は分光強度を示す2次元の分光データが、波長(λ)毎に並べられて層を成している立体構造のデータである。
 尚、ハイパースペクトルカメラ1としては、スナップショット方式のもの、又はプッシュブルーム方式(ラインスキャン方式)のものを適用することができる。スナップショット方式のハイパースペクトルカメラは、二次元のイメージセンサにより一定領域を同時に撮影することができ、リアルタイム性に優れており、被写体が動体の場合にも撮影することができる。ラインスキャン方式のハイパースペクトルカメラは、被写体を移動させて撮影するため、撮影には一定の時間が必要であり、被写体が動体の場合には撮影が難しいが、スナップショット方式のものに比べて、多数の分光データ(例えば、100~200バンドの分光データ)を取得することができる。
 また、ハイパースペクトルカメラ等により取得される分光データは、後述する特定波長の数よりも多くの波長の分光データであればよく、ハイパースペクトルカメラ以外の機器(例えば、マルチスペクトルカメラ等)から取得されるものでもよい。
 <分光情報取得の第2例>
 図3は、分類したい2つの被写体を別々に撮影して各被写体の分光情報を取得する第2例を示す概略図である。
 図3に示す第2例では、第1被写体3と第2被写体4とをハイパースペクトルカメラ1により別々に撮影する。
 ハイパースペクトルカメラ1は、光源2により照明された第1被写体3を撮影し、複数の波長の分光情報6Aを取得し、同様に光源2により照明された第2被写体4を撮影し、複数の波長の分光情報6Bを取得する。分類したい第1被写体3と第2被写体4の分光情報6A、6Bを別々のタイミングで取得することができるため、現状では第1被写体3と第2被写体4とが混在できないような環境においても各分光情報6A、6Bを取得することができる。
 分光情報6A、6Bは、それぞれ図4に示すようにコンピュータ7に入力され、ここでデータ処理されることで、データキューブ8A、8Bに変換される。
 尚、コンピュータ7の機能をハイパースペクトルカメラ1に持たせることで、ハイパースペクトルカメラ1から直接データキューブを取得するようにしてもよい。
 <スペクトルデータの取得>
 図5は、第1被写体と第2被写体を含むデータキューブから作成可能な可視画像の第1例を示す図である。
 ユーザは、図5に示す可視画像上で、第1被写体3の所望の領域A(第1領域)及び第2被写体4の所望の領域B(第2領域)をそれぞれ指定する。図5上で、所望の領域A,Bは、矩形で示されている。
 図2に示したデータキューブ8の情報を使用し、ユーザにより指定された第1被写体3の領域Aの分光データの代表値を、データキューブ8における波長(λ)毎に算出する。
 第1被写体3の領域Aの分光データの代表値は、例えば、ある波長に対応する2次元の分光データのうちの第1被写体3の領域Aの分光データの平均値、中央値、又は最頻値とすることができる。
 同様に、図2に示したデータキューブ8の情報を使用し、ユーザにより指定された第2被写体4の領域Bの分光データの代表値を、波長(λ)毎に算出する。
 図6は、第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを示すグラフである。
 図6において、横軸は波長(nm)であり、縦軸は分光データを示すグラフである。
 データキューブ8から算出される波長(λ)毎の2次元の分光データは、離散的な値である。波長(λ)毎の分光データの数が少ない場合には、離散的な分光データを線形補間、スプライン補間等によりデータ数を増やし、図6に示した第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)を取得することが好ましい。
 このようにして、第1被写体3の第1スペクトルデータA(λ)、及び第2被写体4の第2スペクトルデータB(λ)を取得することができる。
 図7は、1つの第1被写体と2つの第2被写体を含むデータキューブから作成可能な可視画像の第2例を示す図である。
 図7に示す2つの第2被写体4A、4Bは、同じ被写体である。即ち、1種当たり複数(2点)の被写体が含まれている。
 スナップショット方式のハイパースペクトルカメラ等によりデータキューブを取得する場合、2つの第2被写体4A、4Bは配置位置が異なるため、撮影条件が異なる。即ち、光源による照明条件、撮影範囲内における撮影位置等が異なる。
 この場合、ユーザは、図7に示す可視画像上で、第1被写体3の領域A及び第2被写体4A、4Bの領域B1、B2をそれぞれ指定する。
 図8は、1つの第1被写体の第1スペクトルデータ、2つの同種の第2被写体の2つの第2スペクトルデータを示すグラフである。
 上記と同様にして、図8に示すように第1被写体3の第1スペクトルデータA(λ)、及び2つの第2被写体4A,4Bの第2スペクトルデータB1(λ)、B1(λ)を取得することができる。
 図9は、第1被写体、第2被写体及び第3被写体を含むデータキューブから作成可能な可視画像の第3例を示す図である。
 図9に示す第1被写体3、第2被写体4及び第3被写体5は、それぞれ分類したい異なる種類の被写体である。
 ユーザは、図9に示す可視画像上で、第1被写体3の領域A及び第2被写体4の領域B、及び第3被写体5の領域Cをそれぞれ指定する。
 図10は、第1被写体の第1スペクトルデータ、第2被写体の第2スペクトルデータ、及び第3被写体の第3スペクトルデータを示すグラフである。
 上記と同様にして、図10に示すように第1被写体3の第1スペクトルデータA(λ)、第2被写体4の第2スペクトルデータB、及び第3被写体5の第3スペクトルデータC(λ)を取得することができる。
 [データ処理装置の第1実施形態]
 図11は、本発明に係るデータ処理装置の第1実施形態を示す機能ブロック図である。
 第1実施形態のデータ処理装置10-1は、プロセッサ、メモリ、入出力インターフェース等のハードウェアを備えたパーソナルコンピュータ、ワークステーション等により構成することができる。
 プロセッサは、CPU(Central Processing Unit)等から構成され、データ処理装置10-1の各部を統括制御するとともに、例えば、図11に示すデータ取得部20、出力部40、及びユーザ指示受付部60-1として機能することができる。
 図11に示す第1実施形態のデータ処理装置10-1は、例えば、図1に示した種類の異なる第1被写体3と第2被写体4とを分離するのに適した2以上の波長を自動的に選択するもので、データ取得部20、出力部40、及びユーザ指示受付部60を備えている。
 データ取得部20は、第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを取得するデータ取得処理を行う部分であり、表示用画像生成部22、代表値算出部24、及びスペクトルデータ生成部26を備えている。
 表示用画像生成部22及び代表値算出部24には、例えば、図2に示したデータキューブ8がそれぞれ入力される。
 表示用画像生成部22は、データキューブ8から第1被写体3及び第2被写体4の特定を可視化する可視画像(表示用画像)を作成し、表示用画像を表示器50に表示させる表示処理を行う部分である。表示用画像は、例えば、データキューブ8に含まれる赤(R)、緑(G)及び青(B)に対応するバンドの分光データから、B、G、Rの疑似カラー画像とすることができる。尚、表示用画像は、疑似カラー画像に限らず、モノクロ画像であってもよく、要は第1被写体3及び第2被写体4を特定できるものであればよい。
 表示用画像生成部22により生成された表示用画像は、表示器50に出力され、ここで第1被写体3及び第2被写体4を表す画像として表示される。図5に示した画像は、表示器50に表示される画像の一例である。
 ユーザ指示受付部60は、表示器50上で特定された第1被写体3の領域A及び第2被写体4の領域Bをユーザ指示により受け付ける部分である。即ち、ユーザ指示受付部60-1は、表示器50及びマウス等のポインティングデバイスの操作部70とからなるユーザインターフェースにより、図5上の第1被写体3の領域A及び第2被写体4の領域Bを示す情報を受け付け、受け付けた第1被写体3の領域A及び第2被写体4の領域Bを示す情報を代表値算出部24に出力する。
 代表値算出部24には、データキューブ8が加えられており、代表値算出部24は、データキューブ8と、第1被写体3の領域A及び第2被写体4の領域Bを示す情報とに基づいて、第1被写体3の領域A及び第2被写体4の領域Bにおける特徴量(分光反射率又は分光強度を示す分光データ)の代表値を、データキューブ8を構成する波長毎に算出する。第1被写体3の領域Aの分光データの代表値は、2次元の分光データうちの第1被写体3の領域Aの分光データの平均値、中央値、又は最頻値とすることができ、同様に第2被写体4の領域Bの分光データの代表値は、2次元の分光データのうちの第2被写体4の領域Bの分光データの平均値、中央値、又は最頻値とすることができる。
 スペクトルデータ生成部26は、代表値算出部24により算出された、第1被写体3の領域Aの分光データの代表値、及び第2被写体4の領域Bの分光データの代表値を入力し、第1被写体3の第1スペクトルデータA(λ)、及び第2被写体4の第2スペクトルデータB(λ)を生成する。
 データキューブ8を使用して算出される、第1被写体3の領域Aの分光データの代表値、及び第2被写体4の領域Bの分光データの代表値は、データキューブ8の層になっている波長毎の離散的な値である。スペクトルデータ生成部26は、データキューブ8の層になっている波長の数が少ない場合には、波長毎の離散的な代表値を線形補間、スプライン補間等によりデータ数を増やして、例えば、図6に示した第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)を取得することが好ましい。尚、各被写体のスペクトルデータは、例えば、被写体(一部の被写体を含む)のスペクトルデータが既知の場合、そのスペクトルデータを入手するようにしてもよい。
 波長選定部30-1は、データ取得部20により取得された(スペクトルデータ生成部26から出力される)第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の波長域から複数の特定波長を選定する波長選定処理を行う部分である。
 <波長選定処理>
 次に、図12から図16に示す第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)のグラフを参照しながら、波長選定部30-1による波長選定処理について説明する。
 図12は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第1例を示すグラフである。
 図12のグラフに示すように第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)は、それぞれ波長が長くなるにしたがって分光データが単調増加し、また、本例の400nm~1000nmの波長域内では、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)とが一致する波長は存在しない。
 波長選定部30-1は、第1スペクトルデータAと第2スペクトルデータB(λ)の特徴量(分光反射率又は分光強度を示す分光データ)の差に基づいて複数の特定波長を選定する。複数の特定波長のうちの少なくとも1つの特定波長は、第1スペクトルデータAと第2スペクトルデータB(λ)の分光データの差(差の絶対値)が、最大となる特定波長を選定する。図12に示す例では、波長域の長波側の端部の第1波長λ1が、分光データの差が最大となる特定波長として選定される。
 この第1波長λ1は、第1スペクトルデータAと第2スペクトルデータB(λ)の分光データの差を全波長域にわたって求め、分光データの差が最大となる波長を、第1波長λ1(特定波長)として選定する。
 また、波長選定部30-1は、上記のようにして選定した第1波長λ1から波長差が所定の差以上離れた異なる波長域において、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が、最小、極小、最大又は極大になる第2波長λ2を2つ目の特定波長として選定する。
 第1波長λ1と第2波長λ2とは、ある程度、波長が離れている方が好ましいからである。所定の差としては、5nm以上であることが好ましい。また、所定の差は、ユーザが適宜設定できるようにしてもよい。
 これにより、波長選定部30-1は、第1被写体3と第2被写体4との分離に適した複数の特定波長(第1波長λ1、第2波長λ2)を選定することができる。
 いま、図12に示した第1例の第1スペクトルデータA(λ)の第1波長λ1及び第2波長λ2における分光データをa(λ1)、a(λ2)とし、第2スペクトルデータB(λ)の第1波長λ1及び第2波長λ2における分光データをb(λ1)、b(λ2)とすると、センシング感度は、次式により算出することができる。
Figure JPOXMLDOC01-appb-M000001
 以下のすべての実施例においても、[数1]式で示すように正規化されたセンシング感度で評価することが好ましい。正規化された場合、いずれの場合においても必ず-1~1になるため、分光データが変化した場合においても相対比較がしやすくなる。
 以下に示す[表1]は、分光データの1つのパターンAを示す。
Figure JPOXMLDOC01-appb-T000002
 [表1]に示したパターンAの分光データを、[数1]式に代入して、正規化されたセンシング感度を求めると、センシング感度=0.2になる。一方、[数1]式の分母をそれぞれ1とし、正規化されていないセンシング感度を求めると、センシング感度=-10になる。
 以下に示す[表2]は、分光データの他のパターンBを示す。
Figure JPOXMLDOC01-appb-T000003
[表2]に示したパターンBの分光データを、[数1]式に代入して、正規化されたセンシング感度を求めると、センシング感度≒0.07になる。一方、[数1]式の分母をそれぞれ1とし、正規化されていないセンシング感度を求めると、センシング感度=130になる。
 波長選定部30-1は、正規化されたセンシング感度が大きくなるように複数の特定波長(本例では、第1波長λ1、第2波長λ2)を選定することが好ましい。
 図13は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第2例を示すグラフである。
 図13のグラフに示すように第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)は、それぞれ波長が長くなるにしたがって分光データが単調増加するが、本例の400nm~1000nmの波長域内において、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)とは分光データが一致する波長(基準波長:本例では、600nm)が存在する。
 したがって、図13に示す第2例の場合、波長選定部30-1は、基準波長よりも短波側で第1スペクトルデータ(λ)と第2スペクトルデータB(λ)の分光データの差が最大になる第3波長λ3と、基準波長よりも長波側で第1スペクトルデータ(λ)と第2スペクトルデータB(λ)の分光データの差が最大になる第4波長λ4とを、それぞれ特定波長として選定することができる。また、波長選定部30-1は、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)とは分光データが一致する基準波長も特定波長として選定することができる。
 図14は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第3例を示すグラフである。
 図14のグラフに示すように第1スペクトルデータA(λ)と第2スペクトルデータB(λ)とは、2つの交点(分光データが一致する基準波長が2つ)が存在する。
 この場合、波長選定部30-1は、2つの基準波長の間で第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が最大になる第1波長λ1(第5波長)を、複数の特定波長のうちの一つとして選定することができ、また、2つの基準波長である第2波長λ2、第3波長λ3をそれぞれ特定波長として選定することができる。更に、波長選定部30-1は、全波長域の最短波長である第4波長λ4、及び最長波長である第5波長λ5をそれぞれ特定波長として選定することができる。
 図14に示した第3例の第1スペクトルデータA(λ)の第1波長λ1、第2波長λ2及び第3波長λ3における分光データをa(λ1)、a(λ2)、a(λ3)とし、第2スペクトルデータB(λ)の第1波長λ1、第2波長λ2及び第3波長λ3における分光データをb(λ1)、b(λ2)、b(λ3)とすると、センシング感度は、次式により算出することができる。
Figure JPOXMLDOC01-appb-M000004
 図15は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第4例を示すグラフである。
 図15のグラフに示すように第1スペクトルデータA(λ)は、それぞれ波長が長くなるにしたがって分光データが単調増加し、第2スペクトルデータB(λ)は、第1スペクトルデータA(λ)とは交差しないが、極大及び極小を有している。その結果、全波長域において、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が最大(かつ極大)及び最小(かつ極小)になる第1波長λ1、及び第2波長λ2が存在する。
 図15に示す第4例の場合、波長選定部30-1は、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が最大(極大)になる第1波長λ1を特定波長として選定することができ、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が最小(極小)になる第2波長λ2を特定波長として選定することができる。
 更に、波長選定部30-1は、第1波長λ1よりも短波長側で、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が最小になる第3波長λ3(図15に示す第4例では、全波長域のうちの最短波長)を特定波長として選定することができる。
 図15に示す第4例の場合、図14に示した第3例の場合のように第1スペクトルデータA(λ)と第2スペクトルデータB(λ)とが2点で交差しないが、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が最大(かつ極大)になる第1波長λ1を挟んで、第1波長λ1よりも長波長側で第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が最小(極小)になる第2波長λ2と、第1波長λ1よりも短波長側で第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が最小になる第3波長λ3とが存在する場合、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第1波長λ1、第2波長λ2、及び第3波長λ3における各分光データに基づいて、[数2]式を適用してセンシング感度を求めることができる。
 図16は、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)の第5例を示すグラフである。
 図16のグラフに示すように第1スペクトルデータA(λ)と第2スペクトルデータB(λ)とは、1つの交点(分光データが一致する基準波長が1つ)が存在する。
 この場合、波長選定部30-1は、基準波長を特定波長として選定し、基準波長よりも短波側で第1スペクトルデータ(λ)と第2スペクトルデータB(λ)の分光データの差が最大になる第2波長λ2と、基準波長よりも長波側で第1スペクトルデータ(λ)と第2スペクトルデータB(λ)の分光データの差が極大、及び最大になる第3波長λ3、及び第4波長λ4を特定波長として選定することができる。
 したがって、図16に示す第5例の場合、波長選定部30-1は、第1波長λ1、第2波長λ2、第3波長λ3、及び第4波長λ4の4つの波長をそれぞれ特定波長として選定することができる。
 尚、波長選定部30-1により自動的に選定される特定波長について、図12から図16に示す第1例から第5例の第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)を用いて説明したが、波長選定部30-1により選定される特定波長は、上記の例に限定されない。複数の特定波長は、第1被写体3の第1スペクトルデータA(λ)と第2被写体4の第2スペクトルデータB(λ)との特徴量(分光反射率又は分光強度を示す分光データ)の差に基づいて、第1被写体3と第2被写体4との分離に適した2以上の特定波長であればよい。
 複数の特定波長のうちの1つは、第1被写体3の第1スペクトルデータA(λ)と第2被写体4の第2スペクトルデータB(λ)との分光データの差が最大になる波長を含むことが好ましい。また、第1被写体3の第1スペクトルデータA(λ)と第2被写体4の第2スペクトルデータB(λ)との分光データの差が、分光データの差が極大、極小となる波長、及びゼロになる波長(基準波長)も特定波長の一つとすることができる。
 また、図7に示した第1被写体3と2つの第2被写体4A、4Bとをそれぞれ分離する場合には、図8に示した第1被写体3の第1スペクトルデータA(λ)と第2被写体4Aの第2スペクトルデータB1(λ)との分光データの差に基づいて2以上の特定波長を選定し、第1被写体3の第1スペクトルデータA(λ)と第2被写体4Bの第2スペクトルデータB2(λ)との分光データの差に基づいて2以上の特定波長を選定し、第2被写体4Aの第2スペクトルデータB1(λ)と第2被写体4Bの第2スペクトルデータB2(λ)との分光データの差に基づいて2以上の特定波長を選定する。
 即ち、図7に示した第1被写体3と2つの第2被写体4A、4Bとをそれぞれ分離する場合には、6以上の特定波長を選定することになる。
 同様に、図9に示した第1被写体3、第2被写体4及び第3被写体5をそれぞれ分離する場合も6以上の特定波長を選定することになる。
 図9に示した第1被写体3と第2被写体4とをそれぞれ分離する場合には、図10に示した第1被写体3の第1スペクトルデータA(λ)と第2被写体4の第2スペクトルデータB(λ)との分光データの差に基づいて2以上の特定波長を選定し、第1被写体3の第1スペクトルデータA(λ)と第3被写体5の第3スペクトルデータC(λ)との分光データの差に基づいて2以上の特定波長を選定し、第2被写体4の第2スペクトルデータB(λ)と第3被写体5の第3スペクトルデータC(λ)との分光データの差に基づいて2以上の特定波長を選定する。
 図11に戻って、波長選定部30-1により選定された複数の特定波長を示す情報は、表示器50、及び外部装置に出力することができる。
 複数の特定波長を示す情報を入力する表示器50は、複数の特定波長を表示し、ユーザに提示することができる。
 また、外部装置としては、複数の特定波長を記録する記録装置、複数の特定波長をプリント出力するプリンタ、複数の特定波長に基づいてバンドパスフィルタ等を設計する設計装置等が考えられる。
 [データ処理装置の第2実施形態]
 図17は、本発明に係るデータ処理装置の第2実施形態を示す機能ブロック図である。
 尚、図17において、図11に示した第1実施形態のデータ処理装置10-1と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図17に示す第2実施形態のデータ処理装置10-2は、第1実施形態のデータ処理装置10-1が、例えば、図1に示した種類の異なる第1被写体3と第2被写体4とを分離するのに適した2以上の特定波長を自動的に選定するのに対し、ユーザ指示に基づいて2以上の特定波長を手動で選定する点で、第1実施形態のデータ処理装置10-1と相違する。
 具体的には、第2実施形態のデータ処理装置10-2は、第1実施形態のデータ処理装置10-1の波長選定部30-1及びユーザ指示受付部60-1の代わりに、波長選定部30-2及びユーザ指示受付部60-2が設けられている点で、第1実施形態のデータ処理装置10-1と相違する。
 波長選定部30-2は、グラフ作成部32を有する。グラフ作成部32は、データ取得部20により取得された第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)に基づいて、図12から図16に示したように第1スペクトルデータA(λ)を示すグラフ(第1グラフ)、及び第2スペクトルデータB(λ)を示すグラフ(第2グラフ)を作成する。グラフ作成部32により作成された、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)を示す第1グラフ及び第2グラフは、表示器50に出力される。これにより、表示器50には、第1スペクトルデータA(λ)及び第2スペクトルデータB(λ)を示す第1グラフ及び第2グラフがそれぞれ識別可能に表示される(図12から図16参照)。
 ユーザ指示受付部60-2は、図11に示したユーザ指示受付部60-1と同様に操作部70からのユーザ指示により各被写体の領域を示す情報を受け付けるとともに、表示器50に表示された第1グラフ及び第2グラフに関連して、操作部70を使用してユーザ指示された複数の波長を示す情報を受け付ける。
 ユーザは、例えば、図12から図16等に示した第1被写体3の第1スペクトルデータA(λ)を示す第1グラフ、及び第2被写体4の第2スペクトルデータB(λ)を示す第2グラフが表示器50に表示された場合に、第1被写体3と第2被写体4との分離に適した複数の波長をグラフ上で指示する。この場合、第1スペクトルデータA(λ)と第2スペクトルデータB(λ)の分光データの差が、最大になる波長、最小になる波長、極大、あるいは極小になる波長等を指示することができる。
 波長選定部30-2は、ユーザ指示受付部60-2が受け付けた複数の波長を示す情報を、複数の特定波長として受け付ける処理を行う。波長選定部30-2が受け付けた複数の特定波長を示す情報は、波長選定部30-1と同様に表示器50及び外部装置に出力することができる。
 [マルチスペクトルカメラ]
 図18は、マルチスペクトルカメラの一例を示す概略図である。
 図18に示すマルチスペクトルカメラ(撮影装置)100は、レンズ110A,110B及びフィルタユニット120を含む撮影光学系110と、イメージセンサ130と、信号処理部140とから構成されており、特にフィルタユニット120に含まれるバンドパスフィルタユニット124は、例えば、図1に示す第1被写体3と第2被写体4との分離に適した第1波長λ1及び第2波長λ2をそれぞれ中心波長とする波長域の光を透過させる第1バンドパスフィルタ(第1波長選択素子)124A及び第2バンドパスフィルタ(第2波長選択素子)124Bから構成されている。
 尚、第1被写体3と第2被写体4との分離に適した第1波長λ1及び第2波長λ2は、図11に示した第1実施形態のデータ処理装置10-1、又は図17に示した第2実施形態のデータ処理装置10-2により選定された特定波長である。
 フィルタユニット120は、偏光フィルタユニット122とバンドパスフィルタユニット124から構成され、撮影光学系110の瞳位置又は瞳位置近傍に配置のされることが好ましい。
 偏光フィルタユニット122は、撮影光学系110の第1瞳領域及び第2瞳領域を透過する光をそれぞれ直線偏光させる第1偏光フィルタ122A及び第2偏光フィルタ122Bからなり、第1偏光フィルタ122Aと第2偏光フィルタ122Bとは、互いに偏光方向が90°異なる。
 バンドパスフィルタユニット124は、撮影光学系110の第1瞳領域及び第2瞳領域を透過する光の波長帯域をそれぞれ選択する第1バンドパスフィルタ124A及び第2バンドパスフィルタ124Bから構成されている。
 したがって、撮影光学系110の第1瞳領域を透過する光は、第1偏光フィルタ122Aにより直線偏光され、かつ第1バンドパスフィルタ124Aにより第1波長を含む波長域の光のみが透過する。一方、撮影光学系110の第2瞳領域を透過する光は、第2偏光フィルタ122Bにより直線偏光(第1偏光フィルタ122Aとは90°異なる方向に直線偏光)され、かつ第2バンドパスフィルタ124Bにより第2波長を含む波長域の光のみが透過する。
 イメージセンサ130は、2次元状に配列された光電変換素子からなる複数の画素に、偏光方向がそれぞれ90°異なる第1偏光フィルタと第2偏光フィルタとが規則的に配置されて構成されている。
 尚、第1偏光フィルタ122Aとイメージセンサ130の第1偏光フィルタとは偏光方向が同一であり、第2偏光フィルタ122Bとイメージセンサ130の第2偏光フィルタとは偏光方向が同一である。
 信号処理部140は、イメージセンサ130の第1偏光フィルタが配置された画素から画素信号を読み出すことで、第1バンドパスフィルタ124Aにより波長選択された狭長帯域の第1画像を取得し、イメージセンサ130の第2偏光フィルタが配置された画素から画素信号を読み出すことで、第2バンドパスフィルタ124Bにより波長選択された狭い帯域の第2画像を取得する。
 信号処理部140により取得した第1画像及び第2画像は、第1被写体3と第2被写体4との分離に適した画像になる。第1画像と第2画像とを合成することにより、ダイナミックレンジが拡大された、センシング性能を強化した合成画像を作成することができる。
 [光学素子]
 本発明に係る光学素子は、図11に示した第1実施形態のデータ処理装置10-1、又は図17に示した第2実施形態のデータ処理装置10-2により特定した2つの特定波長(第1波長λ1と第2波長λ2)の波長組合せにしたがって作製された光学素子である。
 即ち、光学素子は、図18に示したマルチスペクトルカメラ100に配置されるバンドパスフィルタユニット124に相当し、データ処理装置により特定された第1波長を含む波長域の光を透過させる第1波長選択素子(第1バンドパスフィルタ)と、データ処理装置により特定された第2波長を含む波長帯域の光を透過させる第1波長選択素子(第2バンドパスフィルタ)とを有する。
 第1バンドパスフィルタ及び第2バンドパスフィルタは、第1波長及び第2波長をそれぞれ中心波長とし、かつ互いの透過波長の波長帯域が重ならないバンド幅を有することが好ましい。
 [撮影光学系]
 本発明に係る撮影光学系は、図17に示したマルチスペクトルカメラ100の撮影光学系110に相当するものである。この撮影光学系は、バンドパスフィルタユニット124に相当する光学素子であって、データ処理装置により特定した第1波長を含む波長帯域の光を透過させる第1波長選択素子(第1バンドパスフィルタ)と、データ処理装置により特定した第2波長を含む波長帯域の光を透過させる第1波長選択素子(第2バンドパスフィルタ)とを有する光学素子が、レンズ110A、110Bの瞳位置又は瞳位置近傍に配置されて構成されている。
 [撮影装置]
 本発明に係る撮影装置は、例えば、図18に示したマルチスペクトルカメラ100に相当するものである。
 図18に示すマルチスペクトルカメラ100は、撮影光学系(本発明に係る光学素子が、瞳位置又は瞳位置近傍に配置された撮影光学系)110と、この撮影光学系110により結像された光学像(第1光学像及び第2光学像)を撮像するイメージセンサ(撮像素子)130と、を備える。
 第1光学像は、光学素子の第1波長選択素子を透過した光学像であり、第2光学像は、光学素子の第2波長選択素子を透過した光学像である。
 第1光学像と第2光学像とは、それぞれ瞳分割部として機能する偏光フィルタユニット122(第1偏光フィルタ122A、及び第2偏光フィルタ122B)、及びイメージセンサ130の各画素上の第1偏光フィルタ122A、及び第2偏光フィルタ122Bに対応する第1偏光フィルタ、及び第2偏光フィルタにより瞳分割され、イメージセンサ130により撮像される。これにより、マルチスペクトルカメラ100は、それぞれ波長帯域が異なる第1光学像に対応する第1画像と、第2光学像に対応する第2画像とを同時に取得することができる。
 尚、撮影装置は、図18に示したマルチスペクトルカメラ100の瞳分割部等の構成を有するものに限らず、少なくとも第1波長選択素子を透過した第1光学像と、第2波長選択素子を透過した第2光学像とを撮像し、第1光学像及び第2光学像に対応する第1画像及び第2画像を取得できるものであればよい。
 [データ処理方法]
 本発明に係るデータ処理方法は、複数の被写体の分離に適した波長(特定波長)を選定する方法であり、図11及び図17に示したデータ処理装置10-1、10-2の各部の処理の主体となるプロセッサにより実行される方法である。
 図19は、本発明に係るデータ処理方法の実施形態を示すフローチャートである。
 図19において、プロセッサは、第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを取得する(ステップS10、データ取得ステップ)。
 続いて、プロセッサは、ステップS10で取得した第1スペクトルデータ及び第2スペクトルデータの波長域から第1被写体と第2被写体との分離に適した複数の特定波長を選定する(ステップS20、波長選定ステップ)。複数の特定波長を選定する際に、第1スペクトルデータと第2スペクトルデータの特徴量(分光反射率又は分光強度を示す分光データ)の差に基づいて複数の特定波長を選定する。
 図20は、図19に示したステップS10における処理手順の実施形態を示すサブルーチンである。
 図20に示すように、ユーザはハイパースペクトルカメラ1により第1被写体及び第2被写体を撮影する(ステップS11、図1、図3参照)。
 続いて、2次元の分光データが、波長毎に並べられて層を成している立体構造のデータキューブ8を取得する(ステップS12)。データキューブ8は、ハイパースペクトルカメラ1により取得した分光情報を、データ処理ソフトがインストールされたコンピュータによりデータ処理することにより取得する(図2、図4参照)。
 続いて、プロセッサは、データキューブ8に含まれる2次元の分光データに基づいて分光データを示す表示用画像(例えば、疑似カラー画像等の可視画像)を生成し(ステップS13)、表示用画像を表示器に表示させる(ステップS14)。
 プロセッサは、表示器に表示された表示用画像上の被写体(第1被写体、第2被写体)の領域のユーザ指示を受け付けたか否かを判別する(ステップS15)。被写体の領域のユーザ指示を受け付けていない場合(「No」の場合)には、ステップS14に戻り、被写体の領域のユーザ指示を受け付けている場合(「Yes」の場合)には、ステップS16に遷移させる。
 ステップS16では、被写体の領域における分光データの代表値を、データキューブ8の波長毎に算出する。被写体の領域における分光データの代表値は、被写体の領域における分光データの平均値、中央値、又は最頻値とすることができる。
 次に、プロセッサは、ステップS16で算出した波長毎の代表値から、各被写体のスペクトルデータを生成する(ステップS17)。
 図21は、図19に示したステップS20における処理手順の第1実施形態を示すサブルーチンである。特に図21は、プロセッサにより自動的に複数の特定波長を選定する場合に関して示している。
 図21において、プロセッサは、第1被写体の第1スペクトルデータと第2被写体の第2スペクトルの分光データの差が最大になる波長を、複数の特定波長のうちの1つとして選定する(ステップS21)。
 次に、プロセッサは、第1スペクトルデータと第2スペクトルデータの分光データが一致(交差)する基準波長が存在するか否かを判別する(ステップS22)。基準波長が存在すると判定した場合(「Yes」の場合)には、基準波長よりも短波側及び/又は長波側で分光データの差が最大になる波長を特定波長として選定する(ステップS23)。尚、基準波長も特定波長として選定することができる。
 一方、基準波長が存在しないと判定した場合(「No」の場合)には、ステップS21で選定した特定波長から、その特定波長との波長差が所定の差以上離れた異なる波長域において、第1スペクトルデータと第2スペクトルデータの分光データの差が最大又最小になる波長を特定波長として選定する(ステップS24)。
 尚、所定の差としては、5nm以上であることが好ましい。また、所定の差は、ユーザが適宜設定できるようにしてもよい。また、第1スペクトルデータと第2スペクトルデータの分光データの差が極大又極小になる波長も特定波長として選定することができる。
 続いて、プロセッサは、第1スペクトルデータと第2スペクトルデータの分光データが一致(交差)する基準波長が2以上存在するか否かを判別する(ステップS25)。基準波長が2以上存在すると判定した場合(「Yes」の場合)には、2以上の基準波長の間で分光データの差が最大になる波長を特定波長として選定する(ステップS26)。
 以上のようにしてプロセッサは、複数の被写体の分離に適した複数の特定波長を自動的に選定することができる。
 図22は、図19に示したステップS20における処理手順の第2実施形態を示すサブルーチンである。図22は、特にユーザ指示により複数の特定波長を選定する場合に関して示している。
 図22において、プロセッサは、第1被写体の第1スペクトルデータと第2被写体の第2スペクトルデータに基づいて、これらのスペクトルデータを示すグラフ(第1グラフ、第2グラフ)を作成する(ステップS31)。
 続いて、プロセッサは、ステップS31で作成した第1グラフと第2グラフを表示器50に識別可能に表示させる(ステップS32)。
 プロセッサは、表示器50に表示された第1グラフ及び第2グラフに関連して、複数の波長のユーザ指示を受け付けたか否かを判別する(ステップS33)。ユーザは、表示器50に表示された第1グラフ及び第2グラフを見ながら、分光データの差が最大になる波長等を目視で確認し、その波長をポインティングデバイス等で指示することができる。
 プロセッサは、このようなユーザ指示された複数の波長を受け付けることができ、複数の波長のユーザ指示を受け付けたと判別すると(「Yes」の場合)、受け付けた複数の波長を特定波長として選定する。
 [その他]
 本実施形態において、例えば、データ処理装置を構成するプロセッサの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 また、本発明は、コンピュータにインストールされることにより、コンピュータを本発明に係るデータ処理装置として機能させるデータ処理プログラム、及びこのデータ処理プログラムが記録された不揮発性の記憶媒体を含む。
 更に、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1 ハイパースペクトルカメラ
2 光源
3 第1被写体
4、4A、4B 第2被写体
5 第3被写体
6、6A、6B 分光情報
7 コンピュータ
8、8A、8B データキューブ
10-1、10-2 データ処理装置
20 データ取得部
20-1 波長選定部
22 表示用画像生成部
24 代表値算出部
26 スペクトルデータ生成部
30-1、30-2 波長選定部
32 グラフ作成部
40 出力部
50 表示器
60 ユーザ指示受付部
60-1、60-2 ユーザ指示受付部
70 操作部
100 マルチスペクトルカメラ
110 撮影光学系
110A、110B レンズ
120 フィルタユニット
122 偏光フィルタユニット
122A 第1偏光フィルタ
122B 第2偏光フィルタ
124 バンドパスフィルタユニット
124A 第1バンドパスフィルタ
124B 第2バンドパスフィルタ
130 イメージセンサ
140 信号処理部
S10-S33 ステップ

Claims (31)

  1.  プロセッサを備えるデータ処理装置において、
     前記プロセッサは、
     第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを取得するデータ取得処理と、
     前記取得した前記第1スペクトルデータ及び前記第2スペクトルデータの波長域から複数の特定波長を選定する波長選定処理と、を行い、
     前記波長選定処理は、前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差に基づいて前記複数の特定波長を選定する、データ処理装置。
  2.  前記特徴量は、分光反射率又は分光強度である、請求項1に記載のデータ処理装置。
  3.  前記複数の特定波長のうちの少なくも1つの特定波長は、前記特徴量の差が最大になる波長である、
     請求項1又は2に記載のデータ処理装置。
  4.  前記データ取得処理は、
     前記選定する複数の特定波長よりも多くの波長の2次元の分光データを取得する機器からデータ取得する、
     請求項1から3のいずれか1項に記載のデータ処理装置。
  5.  前記プロセッサは、前記分光データに基づいて前記分光データを示す可視画像を表示器に表示する表示処理を行う、
     請求項4に記載のデータ処理装置。
  6.  前記データ取得処理は、ユーザ指示に基づいて前記表示器上で前記第1被写体の第1領域及び前記第2被写体の第2領域を特定し、前記第1領域及び前記第2領域の前記第1スペクトルデータ及び前記第2スペクトルデータを取得する、
     請求項5に記載のデータ処理装置。
  7.  前記データ取得処理は、前記第1領域及び前記第2領域における特徴量の代表値を算出して前記第1スペクトルデータ及び前記第2スペクトルデータを取得する、
     請求項6に記載のデータ処理装置。
  8.  前記代表値は、平均値、中央値又は最頻値である、請求項7に記載のデータ処理装置。
  9.  前記波長選定処理は、前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大になる第1波長と、前記第1波長から波長差が所定の差以上離れた異なる波長域において、前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大又は極大になる第2波長とを、前記特定波長として選定する、
     請求項1から8のいずれか1項に記載のデータ処理装置。
  10.  前記所定の差は、5nm以上である、請求項9に記載のデータ処理装置。
  11.  前記波長選定処理は、前記取得した前記第1スペクトルデータと前記第2スペクトルデータとの特徴量が一致する基準波長が存在する場合に、前記基準波長よりも短波側で前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大になる第3波長と、前記基準波長よりも長波側で前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大になる第4波長とを、前記特定波長として選定する、
     請求項1から10のいずれか1項に記載のデータ処理装置。
  12.  前記波長選定処理は、前記取得した前記第1スペクトルデータと前記第2スペクトルデータとの特徴量が一致する基準波長が2以上存在する場合に、2以上の前記基準波長の間で前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大になる第5波長を、前記複数の特定波長のうちの一つとして選定する、
     請求項1から11のいずれか1項に記載のデータ処理装置。
  13.  前記波長選定処理は、
     前記取得した前記第1スペクトルデータ及び前記第2スペクトルデータを示す第1グラフ及び第2グラフを表示器に識別可能に表示させる処理と、
     前記表示器に表示された前記第1グラフ及び前記第2グラフに関連してユーザ指示された複数の波長を、前記複数の特定波長として受け付ける処理と、を行う、
     請求項1から8のいずれか1項に記載のデータ処理装置。
  14.  複数の波長選択素子を有する光学素子であって、
     前記複数の波長選択素子は、請求項1から13のいずれか1項に記載のデータ処理装置により選定された前記複数の特定波長の波長帯域を透過させる、
     光学素子。
  15.  請求項14に記載の光学素子を、瞳位置又は瞳位置近傍に配置した撮影光学系。
  16.  請求項15に記載の撮影光学系と、
     前記撮影光学系により結像された、前記複数の波長選択素子をそれぞれ透過した複数の光学像を撮像する撮像素子と、
     を備えた撮影装置。
  17.  第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを取得するデータ取得ステップと、
     前記取得した前記第1スペクトルデータ及び前記第2スペクトルデータの波長域から複数の特定波長を選定する波長選定ステップであって、前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差に基づいて前記複数の特定波長を選定する前記波長選定ステップと、を含み、
     プロセッサが各ステップの処理を実行するデータ処理方法。
  18.  前記特徴量は、分光反射率又は分光強度である、請求項17に記載のデータ処理方法。
  19.  前記少なくとも1つの特定波長は、前記特徴量の差が最大になる波長である、
     請求項17又は18に記載のデータ処理方法。
  20.  前記データ取得ステップは、
     前記選定する複数の特定波長よりも多くの波長の分光データを取得する機器からデータ取得する、
     請求項17から19のいずれか1項に記載のデータ処理方法。
  21.  前記分光データに基づいて前記分光データを示す可視画像を表示器に表示するステップを含む、
     請求項20に記載のデータ処理方法。
  22.  前記データ取得ステップは、ユーザ指示に基づいて前記表示器上で前記第1被写体の第1領域及び前記第2被写体の第2領域を特定し、前記第1領域及び前記第2領域の前記第1スペクトルデータ及び前記第2スペクトルデータを取得する、
     請求項21に記載のデータ処理方法。
  23.  前記データ取得ステップは、前記第1領域及び前記第2領域の前記特徴量の代表値を算出して前記第1スペクトルデータ及び前記第2スペクトルデータを取得する、
     請求項22に記載のデータ処理方法。
  24.  前記代表値は、平均値、中央値、又は最頻値である、請求項23に記載のデータ処理方法。
  25.  前記波長選定ステップは、前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大になる第1波長と、前記第1波長から波長差が所定の差以上離れた異なる波長域において、前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大又は極大になる第2波長とを、それぞれ前記特定波長として選定する、
     請求項17から24のいずれか1項に記載のデータ処理方法。
  26.  前記所定の差は、5nm以上である、請求項25に記載のデータ処理方法。
  27.  前記波長選定ステップは、前記取得した前記第1スペクトルデータと前記第2スペクトルデータとの特徴量が一致する基準波長が存在する場合に、前記基準波長よりも短波側で前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大になる第3波長と、前記基準波長よりも長波側で前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大になる第4波長とを、それぞれ前記特定波長として選定する、
     請求項17から26のいずれか1項に記載のデータ処理方法。
  28.  前記波長選定ステップは、前記取得した前記第1スペクトルデータと前記第2スペクトルデータとの特徴量が一致する基準波長が2以上存在する場合に、2以上の前記基準波長の間で前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差が最大になる第5波長を、前記複数の特定波長のうちの一つとして選定する、
     請求項17から27のいずれか1項に記載のデータ処理方法。
  29.  前記波長選定ステップは、
     前記取得した前記第1スペクトルデータ及び前記第2スペクトルデータを示す第1グラフ及び第2グラフを表示器に識別可能に表示させるステップと、
     前記表示器に表示された前記第1グラフ及び前記第2グラフに関連してユーザ指示された複数の波長を、前記複数の特定波長として受け付けるステップと、を含む、
     請求項17から24のいずれか1項に記載のデータ処理方法。
  30.  第1被写体の第1スペクトルデータ及び第2被写体の第2スペクトルデータを取得する機能と、
     前記取得した前記第1スペクトルデータ及び前記第2スペクトルデータの波長域から複数の特定波長を選定する機能であって、前記第1スペクトルデータと前記第2スペクトルデータの特徴量の差に基づいて前記複数の特定波長を選定する機能と、
     をコンピュータにより実現させるデータ処理プログラム。
  31.  非一時的かつコンピュータ読取可能な記録媒体であって、請求項30に記載のプログラムが記録された記録媒体。
PCT/JP2022/007789 2021-02-26 2022-02-25 データ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置 WO2022181749A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023502526A JPWO2022181749A5 (ja) 2022-02-25 データ処理装置、方法、プログラム及び記録媒体
CN202280015400.2A CN116888456A (zh) 2021-02-26 2022-02-25 数据处理装置、方法及程序、以及光学元件、摄影光学系统及摄影装置
US18/453,300 US20230393059A1 (en) 2021-02-26 2023-08-21 Data processing apparatus, data processing method, data processing program, optical element, imaging optical system, and imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021030058 2021-02-26
JP2021-030058 2021-02-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/453,300 Continuation US20230393059A1 (en) 2021-02-26 2023-08-21 Data processing apparatus, data processing method, data processing program, optical element, imaging optical system, and imaging apparatus

Publications (1)

Publication Number Publication Date
WO2022181749A1 true WO2022181749A1 (ja) 2022-09-01

Family

ID=83049143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/007789 WO2022181749A1 (ja) 2021-02-26 2022-02-25 データ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置

Country Status (3)

Country Link
US (1) US20230393059A1 (ja)
CN (1) CN116888456A (ja)
WO (1) WO2022181749A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090133A1 (ja) * 2022-10-27 2024-05-02 富士フイルム株式会社 処理装置、検査装置、処理方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003130811A (ja) * 2001-10-25 2003-05-08 Dainippon Screen Mfg Co Ltd 波長選択機能を利用した検査対象物の検査
JP2007178407A (ja) * 2005-12-28 2007-07-12 Yamatake Corp 検査対象物の異物混入検査方法及びこれに用いる異物混入検査装置
JP2014075699A (ja) * 2012-10-04 2014-04-24 Canon Inc 動画再生装置、表示制御方法、プログラム及び記憶媒体
JP2018189565A (ja) * 2017-05-09 2018-11-29 株式会社キーエンス 画像検査装置
JP2020165666A (ja) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 分光検査方法および分光検査装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003130811A (ja) * 2001-10-25 2003-05-08 Dainippon Screen Mfg Co Ltd 波長選択機能を利用した検査対象物の検査
JP2007178407A (ja) * 2005-12-28 2007-07-12 Yamatake Corp 検査対象物の異物混入検査方法及びこれに用いる異物混入検査装置
JP2014075699A (ja) * 2012-10-04 2014-04-24 Canon Inc 動画再生装置、表示制御方法、プログラム及び記憶媒体
JP2018189565A (ja) * 2017-05-09 2018-11-29 株式会社キーエンス 画像検査装置
JP2020165666A (ja) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 分光検査方法および分光検査装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090133A1 (ja) * 2022-10-27 2024-05-02 富士フイルム株式会社 処理装置、検査装置、処理方法、及びプログラム

Also Published As

Publication number Publication date
CN116888456A (zh) 2023-10-13
JPWO2022181749A1 (ja) 2022-09-01
US20230393059A1 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
US9134121B2 (en) Determining material properties using speckle statistics
JP6524617B2 (ja) 撮像装置および方法
US8023724B2 (en) Apparatus and method of information extraction from electromagnetic energy based upon multi-characteristic spatial geometry processing
US20230370700A1 (en) Data processing apparatus, data processing method, data processing program, optical element, imaging optical system, and imaging apparatus
JP2008518229A (ja) マルチスペクトル及びハイパースペクトル撮像を行うシステム
US20130201342A1 (en) Estimating a visible vector representation for pixels in an infrared image
WO2022181749A1 (ja) データ処理装置、方法及びプログラム並びに光学素子、撮影光学系及び撮影装置
JP5500879B2 (ja) 画像処理装置および画像処理方法
JP2019502097A (ja) 標的空間スペクトル検出を使用するタグ読み取り
JPH0690032B2 (ja) 距離画像取得装置
NL2015804B1 (en) Hyperspectral 2D imaging device.
JPWO2022163671A5 (ja)
US11460617B2 (en) Imaging apparatus and image processing apparatus
WO2020250773A1 (ja) 撮像装置
Kim et al. Aperture-encoded snapshot hyperspectral imaging with a lensless camera
JP2009076012A (ja) 物体識別装置
WO2024047944A1 (ja) 校正用部材、筐体装置、校正装置、校正方法、及びプログラム
WO2023053770A1 (ja) 情報処理装置、方法及びプログラム並びに撮像装置
WO2024090134A1 (ja) 光学部材、処理装置、処理方法、及びプログラム
US11982899B2 (en) Image processing device, imaging device, image processing method, and image processing program
US20240129603A1 (en) Imaging method and program
WO2024024174A1 (ja) レンズ装置、マルチスペクトルカメラ、制御装置、制御方法、及びプログラム
US20220365391A1 (en) Image processing device, imaging device, image processing method, and image processing program
WO2022270355A1 (ja) 撮像システム、撮像システムに用いられる方法、および撮像システムに用いられるコンピュータプログラム
Namratha et al. Study on Hyper Spectral Imaging

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22759783

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 202280015400.2

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2023502526

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22759783

Country of ref document: EP

Kind code of ref document: A1