WO2004015381A1 - 可視並びに不可視領域の色度計測が可能なシステム - Google Patents

可視並びに不可視領域の色度計測が可能なシステム Download PDF

Info

Publication number
WO2004015381A1
WO2004015381A1 PCT/JP2003/009410 JP0309410W WO2004015381A1 WO 2004015381 A1 WO2004015381 A1 WO 2004015381A1 JP 0309410 W JP0309410 W JP 0309410W WO 2004015381 A1 WO2004015381 A1 WO 2004015381A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
image
pseudo
visible
invisible
Prior art date
Application number
PCT/JP2003/009410
Other languages
English (en)
French (fr)
Inventor
Kazuji Matsumoto
Masahiro Hara
Original Assignee
Hamamatsu Photonics K.K.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics K.K. filed Critical Hamamatsu Photonics K.K.
Priority to AU2003252261A priority Critical patent/AU2003252261A1/en
Priority to EP03784482A priority patent/EP1530033A4/en
Priority to CA002495174A priority patent/CA2495174A1/en
Publication of WO2004015381A1 publication Critical patent/WO2004015381A1/ja
Priority to US11/052,470 priority patent/US20050182328A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/30Measuring the intensity of spectral lines directly on the spectrum itself
    • G01J3/36Investigating two or more bands of a spectrum by separate detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/465Measurement of colour; Colour measuring devices, e.g. colorimeters taking into account the colour perception of the eye; using tristimulus detection

Definitions

  • the present invention relates to a system capable of measuring chromaticity (color value and color value) in visible and invisible regions.
  • invisible light for example, light having a wavelength of 200-400 nm
  • visible light light having a wavelength in the range of 400-700 nm
  • invisible light for example, light having a wavelength of 200-400 nm
  • visible light light having a wavelength in the range of 400-700 nm
  • visible light light having a wavelength in the range of 400-700 nm
  • visible light light having a wavelength in the range of 400-700 nm
  • the “desired information desired to be obtained from the subject sample” refers to a physical state or a chemical state between the standard sample representing the subject group to which the subject sample belongs and the subject sample. It is information on differences that should be observed and that can be optically differentiated.
  • the difference in chemical state between the standard sample and the subject sample is, for example, that a chemical substance that exists only in a predetermined concentration range in the standard sample is contained in the subject sample. Differences due to the presence or absence of a specific chemical substance concentration distribution region, for example, when there is a region that is distributed at a high concentration that exceeds the concentration range described above.
  • the present invention has been made in view of the above-described problems, and quantitatively converts desired information desired to be obtained from an object sample using an invisible color value and a color display of a pseudo color image. It is an object of the present invention to provide a system capable of sufficiently measuring the chromaticity of visible and invisible regions that can be evaluated.
  • the reference characteristics (color matching function) were created based on the actual appearance, and the concept of color values (color values, color specification values) was completed. Because of its reference characteristics, it has become possible to communicate via color values in the visible region.
  • the “desired information desired to be obtained from the subject sample” refers to the physical state or the chemical state between the standard sample representing the subject group to which the subject sample belongs and the subject sample. It is information on differences that should be observed and that can be optically differentiated.
  • the difference in the physical state between the standard sample and the subject sample is, for example, a structure in the case where a structure that does not exist in the standard sample exists in the subject sample. And differences due to the presence or absence of geometric features, such as cases where the geometric features normally found in the standard sample are not seen in the subject sample.
  • the difference in chemical state between the standard sample and the subject sample is, for example, that the standard sample contains a chemical substance that exists only in a predetermined concentration range in the subject sample. Differences due to the presence or absence of a specific chemical substance concentration distribution region, for example, when there is a region that is distributed at a high concentration that exceeds the concentration range described above.
  • the present invention has been made in view of the above-described problem, and quantitatively converts desired information desired to be obtained from a subject sample using an invisible color value and a color display of a pseudo color image. It is an object of the present invention to provide a system capable of sufficiently measuring the chromaticity of visible and invisible regions that can be evaluated.
  • the present inventors have conducted intensive studies to solve the above-mentioned problems, and as a result, it has been found that the above-mentioned conventional imaging system can quantitatively evaluate desired information to be obtained from a subject sample.
  • a major factor that could not be achieved was that the criteria for dividing the spectrum of emitted light in all wavelength ranges (including the invisible region) emitted from the subject sample into multiple Information I found that there was something that had not been decided.
  • the present inventors divide the above-mentioned emission light spectrum into a plurality of wavelength regions, and apply a specific color to each wavelength region.
  • the coloring criterion criterion for determining the sensitivity function to be used
  • a sensitivity function such as a color matching function
  • the present inventors set the criterion for dividing the spectrum of the radiated light emitted from the subject sample into a plurality of wavelength regions, and the criterion for determining the sensitivity function to be used.
  • the method used in the color system for displaying the color of the visible light force image with respect to the pseudo force image is used. Found that it can be applied.
  • the present inventors can digitize the color information of the pseudo force image as a relative value with respect to a specific reference associated with desired information to be obtained from a subject sample. And arrived at the present invention.
  • the present invention provides a spectroscopic optical unit that receives emitted light in all wavelength ranges emitted from a subject sample and separates the emitted light into three or more component lights having different center wavelengths from each other. And a photoelectric conversion unit that photoelectrically converts three or more component lights, respectively, and generates three or more electrical signals respectively corresponding to the three or more component lights.
  • An image processing unit for generating a pseudo-color image and calculating a numerical value defined based on a color system for performing color display of the pseudo-color image; and an image for outputting the pseudo-color image and Z or numerical value
  • the image processing unit generates at least three pseudo-color basic image signals by independently applying three or more sensitivity functions to all three or more electrical signals.
  • Image signal Generation processing means and matrices for three or more pseudo-color basic image signals A vector transformation processing means for generating three or more pseudo-color image signals by performing a beta conversion by applying the matrix M, and an image forming processing means for generating a pseudo-color image by combining three or more pseudo-color image signals. And at least three colorimetric processing means for calculating a numerical value defined based on a color system using three or more pseudo-color image signals, and a sensitivity function of three or more determines a group of subjects to which a subject sample belongs. It is based on the correlation between the difference in the physical or chemical state to be observed that occurs between the constituent objects and the difference in the waveform that occurs between the spectral spectra of the objects that form the group of objects.
  • Matritas M is a matrix for approaching the optimum sensitivity characteristics, and as a result, the color reproduction error that occurs when three or more pseudo-color image signals are generated is minimized.
  • a system capable of measuring chromaticity in the visible and invisible regions, characterized in that it is determined to be a minimum.
  • the subject samples and the "subjects of the same type" in the subject group to which the subject samples belong indicate subjects belonging to the same category as the subject samples to be measured.
  • the “category” here means that there is a difference that can be optically differentiated in the spectral spectrum obtained from the standard sample and the subject sample in order to obtain the information to be obtained from the subject sample. It is determined by whether or not. If there is the above difference, it is possible to make the subjects belong to the same category.
  • the sensitivity function of three or more is a physical function generated between the subjects constituting the subject group. It is determined based on the correlation between the difference in the state or chemical state to be observed and the difference in the waveform that occurs between the spectral spectra of the objects constituting the object group. Have been. Therefore, the spectral spectrum measured for a subject sample belonging to the subject group is photoelectrically converted into an electric signal, and a signal obtained by independently multiplying the sensitivity function by three or more is converted to desired information desired from the subject sample. Are closely related. [0300] Therefore, the color information constituting the pseudo color image finally obtained is closely related to the desired information obtained from the subject sample.
  • the color information of the pseudo-color image finally obtained is quantified by a method used in a color system for displaying the color of a visible light image. Therefore, the color information of the digitized pseudo-color image is closely related to the desired information to be obtained from the subject sample. As a result, in the present invention, desired information desired to be obtained from the object sample can be sufficiently quantitatively evaluated using the color display of the pseudo color image.
  • pseudo color images are separately output from image output units (monitors and printers) having different display conditions for pseudo color images, and the colors of these pseudo color images are separately output. Even if the display state is perceived as having a different color sensation or color perception, the information desired from the subject sample must be accurately grasped as numerical values defined based on the color system. Can be.
  • the present invention provides a spectroscopic optical unit that receives emitted light in all wavelength ranges emitted from a subject sample and splits the emitted light into three or more component lights having different center wavelengths from each other. Is provided for each of the three or more component lights. By wavelength-converting each of the three or more component lights, the sensitivity function is optically applied to each of the three or more component lights to obtain A wavelength conversion optical unit that generates three or more pseudo-force component light corresponding to each of the above component lights, and photoelectrically converts the three or more pseudo-force component light into three or more pseudo-color component lights.
  • a photoelectric conversion unit for respectively generating three or more pseudo-color basic image signals corresponding to each of them; and three or more pseudo-force basic image signals, by processing one basic image signal, generation of a sample pseudo-color image, and generation of the pseudo-color image.
  • the image processing unit multiplies three or more pseudo-color basic image signals by a matrix M, A vector conversion processing means for generating three or more pseudo color image signals by conversion, an image formation processing means for generating three or more pseudo color image signals to generate a pseudo color image, and three or more pseudo color images And a colorimetric processing means for calculating a numerical value defined based on the colorimetric system using the image signal, and at least three sensitivity functions are provided between each subject constituting the subject group to which the subject sample belongs.
  • the matrix M is a matrix for approximating the optimal sensitivity characteristics, and is determined so as to minimize the color reproduction error that occurs when generating three or more pseudo-force image signals.
  • the present invention provides a system capable of measuring chromaticity in the visible and invisible regions, characterized in that:
  • the desired information to be obtained from the sample of the subject is converted into the color of the pseudo color image. Quantitative evaluation can be sufficiently performed using the label.
  • FIG. 1 is an explanatory diagram showing a basic configuration of a first embodiment of a system capable of measuring chromaticity in visible and invisible regions according to the present invention.
  • FIG. 2 is a flowchart for explaining the operation of the system shown in FIG. 1 that can measure chromaticity in the visible and invisible regions.
  • FIG. 3 is a flowchart for explaining the operation of the system shown in FIG. 1 that can measure chromaticity in the visible and invisible regions.
  • FIG. 4 is a flowchart for explaining the operation of the system shown in FIG. 1 that can measure chromaticity in the visible and invisible regions.
  • FIG. 5 is a flowchart for explaining the operation of the system capable of measuring the chromaticity in the visible and invisible regions shown in FIG.
  • FIG. 6 is a diagram showing a display example of an image output to the image output unit by the system capable of measuring chromaticity in the visible and invisible regions shown in FIG.
  • FIG. 7 is a diagram illustrating a display example of an image output to an image output unit by the system capable of measuring chromaticity in the visible and invisible regions illustrated in FIG.
  • FIG. 8 is a diagram showing a display example of an image output to the image output unit by the system capable of measuring chromaticity in the visible and invisible regions shown in FIG.
  • FIG. 9 is a diagram illustrating a display example of an image output to the image output unit by the system capable of measuring chromaticity in the visible and invisible regions illustrated in FIG.
  • FIG. 10 is a diagram showing a display example of an image output to the image output unit by the system capable of measuring chromaticity in the visible and invisible regions shown in FIG.
  • FIG. 11 is a diagram illustrating a display example of an image output to the image output unit by the system capable of measuring chromaticity in the visible and invisible regions illustrated in FIG.
  • FIG. 12 is a diagram showing a display example of an image output to the image output unit by the system capable of measuring the chromaticity of the visible and invisible regions shown in FIG.
  • FIG. 13 is a diagram illustrating a display example of an image output to the image output unit by the system capable of measuring chromaticity in the visible and invisible regions illustrated in FIG.
  • FIG. 14 is a diagram illustrating a display example of an image output to the image output unit by the system capable of measuring chromaticity in the visible and invisible regions illustrated in FIG.
  • Fig. 15 shows an example of a method for determining the optimal sensitivity function used in the image signal generation processing in the image processing unit of the system capable of measuring chromaticity in the visible and invisible regions shown in Fig. 1. It is a flowchart of FIG.
  • Figure 16 shows an image of the system that can measure chromaticity in the visible and invisible regions shown in Figure 1.
  • 9 is a flowchart for explaining an example of a method of determining an optimum matrix M used in a beta transform process in an image processing unit.
  • FIG. 17 is an explanatory diagram showing a basic configuration of a second embodiment of the system capable of measuring chromaticity in the visible and invisible regions according to the present invention.
  • FIG. 18 is a flowchart for explaining the operation of the system shown in FIG. 17 that can measure chromaticity in the visible and invisible regions.
  • FIG. 19 is a graph showing an example of the sensitivity function used in the image signal generation processing in the image processing unit of the system capable of measuring the chromaticity in the visible and invisible regions according to the present invention.
  • FIG. 20 is a graph showing an example of a sensitivity function used in the image signal generation processing in the image processing unit of the system capable of measuring the chromaticity in the visible and invisible regions according to the present invention.
  • FIG. 21 is a graph showing an example of a sensitivity function used in an image signal generation process in an image processing unit of a system capable of measuring chromaticity in the visible and invisible regions according to the present invention.
  • FIG. 20 is a graph showing an example of a sensitivity function used in the image signal generation processing in the image processing unit of the system capable of measuring the chromaticity in the visible and invisible regions according to the present invention.
  • FIG. 21 is a graph showing an example of a sensitivity function used in an image signal generation process in an image processing unit of a system capable of measuring chromaticity in the visible and
  • FIG. 22 is a graph showing an example of a sensitivity function used in an image signal generation process in the image processing unit of the system capable of measuring chromaticity in the visible and invisible regions according to the present invention.
  • FIG. 23 is a graph showing the reflectance profile of each sample measured by the system capable of measuring the chromaticity in the visible and invisible regions of Example 1.
  • FIG. 24 is a graph showing the reflectance profile of each sample measured by the system capable of measuring the chromaticity in the visible and invisible regions of Example 1.
  • FIG. 25 is a graph showing a profile of the sensitivity function (plus only) obtained by the system capable of measuring the chromaticity in the visible and invisible regions according to the first embodiment.
  • FIG. 26 is a graph showing a profile of an optimum sensitivity function (ideal sensitivity characteristic) obtained by the system capable of measuring chromaticity in the visible and invisible regions according to the first embodiment.
  • FIG. 27 is a graph showing the relationship between the a * value and the b * value of the LW color system obtained for each sample by the system capable of measuring the chromaticity in the visible and invisible regions of Example 1. .
  • Fig. 28 shows the system that can measure chromaticity in the visible and invisible regions of Example 1. Obtained is a graph showing the relationship between L iv * a iv * b iv * a iv * values and b ⁇ values of the color system.
  • Fig. 29 shows the relationship between the a and b iv * values of the L iv * a iv * b iv * color system determined by the system capable of measuring chromaticity in the visible and invisible regions of Example 1. It is a graph shown.
  • Figure 3 ⁇ shows the relationship between the a * and b * values of the L * a * b * color system obtained for each sample using the system capable of measuring chromaticity in the visible and invisible regions of Example 1. It is a graph shown.
  • Fig. 31 shows the relationship between the a and b iv * values of the L iv * a iv * b iv * color system obtained by the system capable of measuring chromaticity in the visible and invisible regions of Example 1. It is a graph shown. 3 2, obtained by the system capable chromaticity measurement in the visible and the invisible region in Example 1, L iv * a iv * b iv * and a iv * values and b iv * value of color system It is a graph which shows a relationship.
  • FIG. 1 is an explanatory diagram showing a basic configuration of a first embodiment of a system capable of measuring chromaticity in visible and invisible regions according to the present invention.
  • the system 1 capable of measuring chromaticity in the visible and invisible regions of the first embodiment includes a camera unit 2, an image processing unit 4, a monitor 5 as an image output unit, and a printer 6. It consists of:
  • the camera unit 2 includes a spectroscopic optical unit 2a, a photoelectric conversion unit 2b, and an A / D conversion unit 2c.
  • the camera unit 2 may be integrated with a pre-processing unit 4a in an image processing unit 4 described later.
  • the spectroscopic optical unit 2a receives the radiated light L1 in all wavelength regions radiated from the subject sample, and converts the radiated light L1 into three or more component lights having different center wavelengths from each other. The light is split into two.
  • the spectroscopic optical unit 2a has a configuration capable of generating three or more component lights having different center wavelengths as described above. However, there is no particular limitation, but in the case of performing spectral processing, since a sensitivity characteristic can be reset using a sensitivity function described later, there is a configuration capable of separating light into 16 or more component lights. Preferably.
  • the spectral optical unit 2a in particular, an interference filter and an optical fiber plate mounted on the spectral imaging sensor described in Japanese Patent No. 271338 (Not shown).
  • Japanese Patent No. 27133838 an interference filter and an optical fiber plate for mainly handling visible color are described, but the invention is applied to the spectral optical unit 2a of the present embodiment.
  • the difference is that the interference filter and the optical fiber plate cover not only the visible region but also the entire electromagnetic wave wavelength region.
  • the interference filter and the optical fiber plate applied to the spectroscopic optical unit 2a include at least 16 interference filters as a group, and a spectral filter in which a large number of these filters are two-dimensionally arranged.
  • the optical fiber plate is an optical fiber plate in which a plurality of light guide paths optically and individually coupled to the respective interference filters are integrated.
  • the photoelectric conversion unit 2b photoelectrically converts the three or more component lights generated by the spectroscopic optical unit 2a, and outputs three or more electric signals respectively corresponding to the three or more component lights. Is to be generated.
  • the optical fiber comprises a plurality of light receiving elements (not shown) optically coupled independently to each light emitting end of each light guide path of one plate.
  • Each of the light receiving elements is connected to a photoelectric conversion element (not shown) that generates an electric charge according to the input light intensity, and a signal output terminal of the photoelectric conversion element. It is configured as a set of switch elements (not shown) that output the charges accumulated in the photoelectric conversion elements in accordance with the scanning signals from the processing unit.
  • the spectral configuration described in Japanese Patent No. 27133838 is disclosed. Imme A single sensor is preferred.
  • this spectral imaging sensor has a configuration in which the A conversion unit 2c and the preprocessing unit 4a are integrated.
  • the AZD conversion unit 2c includes an amplifier (not shown) including an integration circuit that individually converts a charge (current signal) output from each of the light receiving elements into a voltage signal; And an A / D converter (not shown) that individually converts a voltage signal (analog value) output from the digital signal into a digital value and outputs the digital value.
  • the specific configuration of the camera unit 2 other than the above-described configuration is not particularly limited as long as it has a configuration that can continuously acquire a narrow-band image that has been separated. As other preferred embodiments, those described in JP-A-2-22627 are preferred. Further, the camera unit 2 may have a configuration provided in a camera of a so-called single plate, three plate or four plate type.
  • the spectroscopic optical unit 2a receives the radiated light L1 in all the wavelength regions radiated from the subject sample, and has, for example, three or more (or four or more) having different center wavelengths. It has the same configuration as a normal color camera that splits the light into component lights.
  • the camera unit 2 having the above-described configuration of the spectral imaging type is suitable for a case where a band of the isthmus band is collected for the purpose of observing a fine spectral characteristic, and this single plate, three plate or four plate is used.
  • the camera unit 2 having a camera configuration of a type called a plate is used for the purpose of acquiring and observing an image having a wider band characteristic (for example, having a half bandwidth of 80 nm or more).
  • the data is not provided by the preprocessing unit 4a for applying the sensitivity function described later.
  • an interference filter such as a “two-dimensional colorimetric system” described in, for example, Color Forum Japan, pages 95-94, is also provided on the turret.
  • a camera unit 2 having a configuration of a type of arranging and rotating and sequentially taking in a bandpass image may be provided.
  • the monitor 5 and the printer 6 as image output units respectively output the pseudo-force image formed by the image processing unit 4 and a numerical value defined based on Z or a color system.
  • the monitor 5 and the printer 6 include a pseudo color basic image signal (described as “raw invisible color image (signal)” in the operation description to be described later) and a pseudo color A signal based on a numerical value for color display of an image signal (referred to as “basic invisible color image (signal)” in the operation description to be described later) is DZA-converted to generate an analog signal, which is then monitored 5 and Z Alternatively, a D / A converter (not shown) for sending to the printer 6 is provided.
  • the camera unit 2 and the image processing unit 4 may be integrated, or may be separated from each other, and may have any shape.
  • the image processing unit 4 mainly includes a preprocessing unit 4a that performs preprocessing for applying a sensitivity function to three or more digital signals (three or more electrical signals) output from the camera unit 2, It is composed of a main unit 4b that performs processing after preprocessing.
  • the image processing unit 4 controls the pre-processing unit 4a and the main unit 4b, processes three or more digital signals output from the camera unit 2, converts them into pseudo color image signals,
  • a central control device (not shown) for generating a pseudo-force image of the image and calculating a numerical value defined based on a color system for displaying the color of the pseudo-force image Is provided.
  • the central control unit has a CPU, a ROM, and a RAM (all not shown).
  • the CPU of the central control unit consists of a microprocessor, etc., and performs various arithmetic processing (image signal generation processing (preprocessing), beta conversion processing, image formation processing, colorimetric processing, processing for determining the sensitivity function, It performs processing for determining the matrix M and controls the entire system that can measure chromaticity in the visible and invisible regions.
  • programs for the above-described various processes are stored in the ROM of the central control device in advance, and the RAM reads various data during control and arithmetic processing. Used for writing. Further, the central control unit has, for example, an input / output port (not shown) connected to the CPU.
  • Each component of the camera unit 2 is electrically connected to the input / output port via a control circuit that controls each component.
  • the monitor 5 and the printer 6 are independently connected to the input / output port via a control circuit for controlling the D / A converter. Therefore, various signals and the like generated by the CPU processing are supplied to the camera unit 2, the monitor 5, and the printer 6 via the input / output port.
  • the central control unit has a storage device (not shown), and this storage device is connected to the CPU via an input / output port. Then, the CPU accesses the storage device and controls various processes of the system 1 capable of measuring the chromaticity of the visible and invisible regions by using the following data stored in the storage device as needed. I do.
  • the matrix conversion is performed by multiplying three or more pseudo color basic image signals output after the image signal generation process by Matritas M.
  • data for generating three or more pseudo color image signals is stored.
  • data for generating a pseudo-color image by synthesizing three or more pseudo-color image signals output to the vector conversion process in an image forming process to be described later. Is stored.
  • a vector is used in a color specification process described later.
  • Data for calculating a number defined based on a color system is stored by performing a numerical calculation process using three or more pseudo color image signals output to the conversion process.
  • sensitivity functions are stored in a physical space between a standard sample representing a subject group and a subject sample. Determined based on the correlation between the observed difference in the state or chemical state and the difference between the standard waveform of the spectral spectrum of the standard sample and the waveform of the spectral spectrum of the sample Is stored.
  • the main power supply (not shown) of the system 1 capable of measuring chromaticity in the visible and invisible regions is turned ON to activate the image processing unit 4.
  • the CPU of the central control unit in the image processing unit 4 outputs a drive signal to the camera unit 2, the monitor 5, and the printer 6.
  • the camera unit 2 is separated, and the image processing unit 4 includes software for controlling a processing function in addition to a normal personal computer and the above-described calculation of the present invention.
  • the monitor 5 and the printer 6 may be ordinary commercially available ones, with additional hardware.
  • the “pseudo color basic image signal” is referred to as a “raw invisible color image (signal)”.
  • the “pseudo color image signal” is referred to as “basic invisible color image (signal)”.
  • the light L 1 in all wavelength ranges emitted from the subject sample 10 is received by the spectral optics unit 2a.
  • the image received at this time is the subject Overview P of sample 10. Or any of the partial areas E1.
  • the continuous emission spectrum X of the received image. s . Is decomposed into n (11 ⁇ 3) component lights having different center wavelengths ⁇ ° 51 , ⁇ ° 52 ... ⁇ ° 5 ⁇ by n ( 11b3 ) optical filters.
  • the radiated light L1 is not particularly limited, and may be, for example, any of transmitted light transmitted through the subject sample 10 and reflected light from the subject sample 10.
  • ⁇ component lights having different center wavelengths ⁇ ° 31 , ⁇ ° 52 ... ⁇ ° are respectively photoelectrically converted, and further, the AZD conversion unit 2c Then, it is converted into n (nD3) digitized bandpass images (signals) X s ⁇ 52 ... ⁇ 3 ⁇ corresponding to the n component lights (ST2).
  • n (nC33) band-pass images (signals) X S1 , ⁇ 52 ... ⁇ 5 ⁇ are input to the image processing unit 4 and processed.
  • image signal generation processing preprocessing
  • sensitivity functions to be used is not particularly limited as long as it is three or more, and the sensitivity function described below is determined according to information to be acquired from a subject. You may decide the optimal number at the same time when you decide on.
  • three raw invisible color images (signals), ⁇ 2 and ⁇ 3 are subjected to vector conversion processing, and three basic invisible color images (signals) R iv , G iv and B iv are formed (ST4). That is, the three basic invisible color images (signals) R iv , G iv, and B iv are represented by three raw invisible color images (signals), ⁇ 2 and ⁇ 3 as shown in the following equation (1). Generated by multiplying the matrix M.
  • This processing is performed for all three raw invisible color images (signals), ⁇ 2 and ⁇ 3 .
  • a vector transformation is performed on pixel intensities to create basic invisible color images (signals) R iv , G iv, and B iv .
  • the optical characteristics are determined using the determined sensitivity function.
  • determination of the sensitivity function using an optical filter can produce only positive sensitivity characteristics. Therefore, if the obtained optimal psychic function contains a minus, it is necessary to convert from a plus-only sensitivity function to a minus-sensitive function. In this case, a vector conversion process using the matrix M is performed for the conversion.
  • the matrix M used for this vector conversion processing is determined as follows. That is, when the optimum sensitivity function (ideal sensitivity characteristic) is determined as shown later, M is applied to the sensitivity characteristic that has only the plus characteristic to match this sensitivity characteristic. It will be possible to get closer.
  • the method uses a sensitivity characteristic that is close to the optimum sensitivity function that can be actually created, and calculates color values for a plurality of arbitrary spectra in the wavelength range to be measured.
  • the raw invisible color image signal, ⁇ 2 and ⁇ 3 are multiplied by a reference vector (unit vector) to obtain invisible color image signals R iv , G iv and B iv , and the invisible color value image signal L, a iv *, b iv *), and, on the other hand,
  • color values are calculated based on the obtained optimal sensitivity function, and M is determined so that the color difference group (color reproduction error) between them is minimized.
  • the sensitivity characteristic of only the brush characteristic can be made closer to the ideal sensitivity characteristic.
  • the vector conversion process is performed secondly for the following purpose. That is, when the invisible image is viewed by the human eye, the color correction is performed so that the pseudo-color image is psychologically and physiologically acceptable.
  • the matrix M is, for example, a 3 * 3 (3 rows, 3 systems1) matrix. For example, if the matrix M is a unit matrix, no conversion is performed, and the input value and the converted output value have exactly the same intensity. Ratio.
  • the gray scale control or the rotation of the color (hue) can be performed on the basic impaired vision image signals R iv , G iv and B iv .
  • the intended vector transformation becomes possible.
  • a pseudo color image RGB iv shades of controls that are synthesized from the basic invisible color first image signals R iv, G iv and B iv, or, rotation, etc. of the color (hue) can be achieved.
  • FIG. 3 the subject sample ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ 0 in FIGS. 1 and 2 is shown in a modified form (the “apple” force S “palm” in FIGS. 1 and 2).
  • the subject sample 10 is “apple”, a series of processing is performed on “ringo”.
  • a series of processing is performed on “palm”. Is performed.
  • a pseudo-absorption color image (signal) based on the absorbance is applied to the basic invisible color images (signals) Riv , Giv, and Biv . ) (ST 7), and a pseudo-absorption power color image based on the absorbance may be formed (ST 8).
  • the invisible absorption color image based on absorbance (signal) is represented by "one lo g R iv", “one log G iv” and "one logB iv”. Then, by combining these, a pseudo-color absorption image RGB ⁇ based on the absorbance can be displayed.
  • the display using the invisible absorption power image (signal) based on the absorbance and the pseudo absorption power image based on the absorbance can be performed, for example, by using a sample having a specific absorption band in a certain wavelength band (eg, a plant such as a plant). This is effective in that the degree of absorption can be displayed as an intensity parameter when capturing chlorophyll.
  • a colorimetric process is performed in parallel with the image forming process (ST6). That is, a numerical value defined based on a color system for displaying colors is calculated.
  • the color specification process, the basic invisible color image (signal) R iv, G iv and B iv, or, with respect to a pseudo color image RGB iv is these composite images, color processing iterator Contact to the visible light region apply the performed operation being as is a process for obtaining the number values on the color solid basic invisible color image (signal) R iv, G iv and B iv or pseudo color image RGB iv including invisible information.
  • This uses a basic invisible color image (signal) R iv , G iv and B iv or a pseudo power line image RGB iv containing invisible information instead of a color image containing only visible information.
  • the coefficients and constants in the equations (2) to (4) are effective only when the color is displayed in the L * a * b * space (only in the discussion of the image in the visible region).
  • the wavelength region to be measured is an invisible region such as a near-infrared region, it becomes a meaningless coefficient.
  • the basic invisible force parameter including invisible information is used.
  • R ivn represents a 100 % reflectance distribution, a transmittance distribution, or an energy distribution that defines 100% in the measurement wavelength range.
  • the value representing the pseudo-color red (R ed) is shown among the values obtained by multiplying the sensitivity function and integrating the respective values as R ivn , G ivn , and B ivn .
  • G ivn is obtained by multiplying the sensitivity distribution function by 100% reflectance distribution, transmittance distribution, or energy distribution defining 100% in the measurement wavelength range, and calculating each value.
  • the value representing the pseudo-color green (Green) is shown among the values obtained by integrating the values of R ivn , G ivn , and B ivn .
  • Bivn is obtained by multiplying a 100 % reflectance distribution, a transmittance distribution, or an energy distribution defining 100% by a sensitivity function in the measurement wavelength range, and integrating each value.
  • the values representing the pseudo-color blue (Blue) are shown among the values obtained as R ivn , G ivn , and B ivn .
  • Kl, Ka, and Kb each represent a constant.
  • Kl, Ka, and Kb since the object colored by the pseudo color is viewed by the human eye through the display, it is considered that only the path from the display color to the human eye needs to be considered, so that Kl, Ka, Kb May be determined according to the human senses independently of the subject, and as a result, the It will be good.
  • a study may be performed without considering that the final image is viewed by a human. Therefore, at that time, it may be determined according to the sensitivity function.
  • Equations (5) to (7) the reason why the exponent of the power of 13 is set to be the same as in Equations (2) to (4) is that the luminance (physical quantity) in the object color and The relationship between lightness (human psychophysical quantity) can be expressed by this index value in most cases in the visible range.
  • the main use of the system of the present invention is to observe an invisible object, project it on a display, and display and record its color value.
  • the present inventors have considered that it is effective to use the exponent of 1Z3 as it is, since there is a color relationship in the visible range.
  • the above-described index can be used similarly to the above description. Is thinking. In addition, the present inventors believe that it is effective to use the above indices when dealing with sensory indices (sensitivity function) of non-human animals and inorganic sensory indices (sensitivity function). It is.
  • an invisible absorptivity color image (signal) based on the absorbance is obtained as described above with reference to FIG. 4 and is used based on the absorbance.
  • an invisible absorptivity color image (signal) based on the absorbance for example, one logR iv , _logG iv and It may be used an logB iv) or pseudo absorption color picture image RGB iv s based on absorbance (ST9).
  • Liv *, aiv *, and b represented by equations (5) to (7) are used to calculate the following equation (8) and The numerical value H iv defined in (9). And C, and add them to L iv * to produce a color image of the pseudo-color image RGB iv . It may be used as another value on the body (ST 10). That, L iv * (lightness), H iv * may be expressed as (color phase) and C iv * (saturation). Instead of C (saturation), a numerical value S iv * defined by the following equation (10) may be used as the saturation.
  • the above-described colorimetric processing is an integral value of the light intensity in the wavelength range to be obtained (for example, R iv , G iv , B iv value) (R iv + G iv + B iv ), and a scalar quantity such as a G iv value, which is equivalent to a simple three-dimensional representation of the energy quantity.
  • L, a iv *, b iv * is the deformable display, furthermore, L iv * (lightness), H iv * (color phase) and C It can be expressed as another scalar quantity like iv * (saturation).
  • L iv * (lightness) shows the brightness of the main central wavelength region, was or
  • C (chroma) are gray line (i.e. R iv, G iv, average of B iv It shows how distinctive the intensity of an arbitrary wavelength component is based on the standard brightness line)
  • H (hue) is the omnidirectionality expressed by three energies. Indicates which direction the camera is tilted from. Specifically, when it is visible, it means shades such as red, orange, yellow, green, blue, indigo, and purple, but the same applies to invisible.
  • Liv * (brightness), Hiv * (hue) and Civ * (saturation) are monochrome images
  • a so-called pseudo color (Pseudo Color) image is formed for any one of them. May be used as the image P1 output to the monitor 5 and / or the printer 6.
  • a false color (Pseudo Color) image L iv *, H iv * ⁇ Pi C iv *
  • false color bars 21, 22, and 23 indicating density information about any of Liv *, Hiv *, and C may be further displayed (see FIG. 13).
  • the image P1 output to the monitors 5 and Z or the printer 6 will be described.
  • the image P 1 in addition to the pseudo-color image RGB iv or RGB iv e above, various spectra of the Utsushitai, L iv *, a iv * , b, H iv r iv, numerical data such as g iv Table, L, a iv *, b iv H iv *, C iv r iv, 2 -dimensional or three-dimensional graph of numerical data such as g iv, etc. may be displayed appropriately combined.
  • the pseudo-color image RGB iv or RGB ⁇ ⁇ and an image of the whole image and the partial region of the object may be displayed in their respective independent. Further, a normal visible light image may be displayed together with the pseudo color image.
  • PE 2 is plotted. ) And may be displayed together.
  • u iv * J is the same as that of CIE1976L * u * v *, as in the method modified from the visible color system CIELW to L iv *, a iv *, and b iv *. of the modified have been L, u, V, shows the u. in addition, the "V iv *", L iv * from the visible color system CIEL * aV, a iv *, and modified to b iv * method similar to, L iv * that are models Ifuai from CIE1 976 LW, u iv *, v iv * of shows v iv *. [0097] Furthermore, for example, as shown in FIG. 8, the monitor 5 as an image P 1 to be output to ⁇ Pi Z or the printer 6, combined with the pseudo color image RGB iv, the Dara off G 4 of r iv and g iv May be displayed.
  • an RGB iv As an image P 1 output to the monitor 5 and Z or the printer 6, an RGB iv , a graph G 1, and partial areas E 1 and E 2 of a subject are displayed. May be displayed together with a graph G1 of the spectroscopy spectrum showing the profiles LE1 and LE2 of the transmittance Abs at.
  • the number of first captured images is the minimum
  • the number of wavelengths may be displayed as a polygonal line as it is.
  • spectral analysis may be performed, and the number of data may be increased to create a graph.
  • K, S value indicates (absorption coefficient) Z (scattering coefficient).
  • H iv * values of concentration information May be displayed numerically, and further combined with a three-dimensionally displayed graph (false color bar) G10.
  • the coefficient QR iv absorption degree is QG iv, QB iv, color density value qr iv, change the key contents of the qg iv using the same.
  • the "QR iv" one 1 o gR iv (1 one R iv) is equivalent to the 2 / 2R iv, shows the absorbance image value of Ioyuru R iv.
  • "QG iv” is equivalent to the one 1 o gG iv and (1- G iv) 2 Z2G iv , shows the absorbance image value of so-called G iv.
  • the "QB iv J, one lo gB iv and (1 -B iv) is equivalent to the 2 Z2 B iv, shows the absorbance image value of the so-called B iv.
  • qr iv is a complementary chromaticity coordinate value with the above-mentioned r iv value, and indicates a value defined by the following equation. That is, (QR iv + QG iv + QB iv ).
  • Qg iv is a complementary chromaticity coordinate value with the above g iv value, and indicates a value defined by the following equation. That is, (QR iv + QG iv + QB iv ).
  • a method of displaying an image of a subject sample as a pseudo color image is known, but a pseudo color image is displayed using an optimal sensitivity function determined based on information to be obtained from the subject sample.
  • a forming method has not been proposed so far.
  • the optimal sensitivity function determined based on information to be obtained in the image signal generation processing in the image processing unit 4 is used. I do.
  • sensitivity function lambda 1 ⁇ lambda ° 2 and lambda ° 3 is used in the imaging system 1, physical condition or occurring between the object 1 0 that constitutes the subject groups of subjects 1 0 of the same type The determination is made based on the correlation between the difference to be observed in the chemical state and the difference generated between the spectral vectors of the respective subjects 10 constituting the subject group.
  • an optimal sensitivity function is obtained in advance for each subject to be imaged, and the data is stored in a storage device of a central control device in the image processing unit 4 and used. May be stored in the ROM and used.
  • a program for determining the sensitivity function is stored in the ROM, and the data of the obtained optimum sensitivity function is stored in a storage device, and each time a basic invisible color image (signal) + a pseudo color image is formed, May be used.
  • the method shown in FIG. 15 clearly expresses a difference to be observed in a physical state or a chemical state occurring between the respective subjects 10 constituting a subject group including the same type of subjects 10. Therefore, the optimal sensitivity function is determined by adding the human visual characteristics and human sensory characteristics to the image information in the invisible area.
  • a subject group based on a difference to be observed in a physical state or a chemical state between the subjects. Is divided into several clusters (ST11). At this stage, the spectral spectrum (spectral spectrum) of each subject is roughly measured in advance, and the physical data or the chemical state in the rough data is correlated with the difference to be observed. It may be divided into clusters. In addition, other test results such as the results of a destructive test or a crushed soil test of the subject sample may be used together.
  • the spectral spectrum ⁇ 1 to ⁇ 14 of the entire wavelength region (for example, the reflected light spectrum, the transmitted light spectrum, the absorbed light spectrum) Measure the spectral spectrum (ST12).
  • the above-described spectroscopic measurement may be performed using the imaging system 1, and another spectroscopic device may be used. May be used.
  • the subject is the whole image, the correlation between the difference in the waveform of the spectral spectrum of each subject and the difference in the physical state or the chemical state between the subjects to be observed is not confirmed, and the whole image is not obtained. If the above difference exists in the partial region inside, the spectral spectrum for the partial region is measured.
  • the first sensitivity function ⁇ which is the first model when determining the optimum sensitivity functions ⁇ , ⁇ ° 2 and ⁇ ° 3 based on the spectral spectrum ⁇ 1 to ⁇ 14, ⁇ and ⁇ ° 3 .
  • the optimal sensitivity functions ⁇ ⁇ , X Q 2 and ⁇ ° 3 are the first sensitivity functions ⁇ 1 () , ⁇ . 2 . And ⁇ ° 3 . Is determined by modifying. More specifically, from the viewpoint of ease of modification, the first sensitivity functions ⁇ ° 1 () , ⁇ ° 20 and ⁇ . 3 . Is a bandpass function. Therefore, it is important to determine the value of the wavelength.
  • First sensitivity functions ⁇ and ⁇ ° 2 . And ⁇ ° 3 As for the value of the wavelength, a characteristic wavelength is selected from the spectral data of the spectral spectrum.
  • the wavelength value having this characteristic is, for example, a wavelength value that gives the maximum value or the minimum value of the spectral spectrum intensity I in many cases.
  • the value is not limited to this as long as it reflects the difference in the observation of the chemical state, and may be, for example, a wavelength value in a part of the shoulder of the spectral spectrum. Then, by determining the above-mentioned wavelength values ⁇ ,, ⁇ ⁇ and ⁇ ⁇ , the first bandpass-like sensitivity function is obtained. , Enter. 2 . And ⁇ 3 . Is created.
  • the first sensitivity functions ⁇ ° 10 and ⁇ ° 2 are obtained for the spectral spectrums ⁇ 1 to ⁇ 14. And ⁇ ° 3 .
  • R ivl , G ivl, and B ivl are obtained for the spectral spectrums ⁇ 1 to ⁇ 14.
  • ⁇ ° 3 the first sensitivity functions ⁇ ° 10 and ⁇ ° 2 are obtained for the spectral spectrums ⁇ 1 to ⁇ 14.
  • ⁇ ° 3 To obtain a basic invisible color image (signal) R ivl , G ivl, and B ivl , and further combine them to create the first pseudo-color image RGB lvl (ST 14) 0
  • each feature is represented by hue, and the degree and amount are represented by the shade of color and simply by saturation (more precisely, it is a composite vector of lightness and saturation). Will be '. As a result, even the spectrum in the invisible region can be represented in pseudo-color, with color characteristics.
  • the first sensitivity functions ⁇ ° 10 and ⁇ ° 2 are observed while observing this image. And ⁇ ° 3 .
  • the visualized color does not exist in nature, it is preferable to include sensory characteristics equivalent to the visible region.
  • the relationship between cool colors and warm colors is the same as the relationship between full colors and red-orange colors, and when natural objects are targeted, fresh things have a sense of blue and green in terms of hue, and are not fresh.
  • the spoiled ones have a brown, brown, or reddish sensation, so when using natural materials as samples, the wavelength selection of the first bandpass-like sensitivity function, R iv , G iv and It is preferable that the response to ⁇ B iv be one that has the same sensory characteristics as the visible region.
  • the determined sensitivity function determines the value of the final invisible value (R iv , G iv , B iv , L iv a iv * and b). Must be specified each time It is necessary. However, the determined sensitivity function will be verified for each sample and each wavelength used, and the more frequently it is used in the industry, the simpler the specification method will be.
  • a method for determining an optimal sensitivity function there is a method for determining an optimal sensitivity function without involving human sensation. For example, using the principal component analysis method, the average vector and the principal component vector are calculated, and these are used as they are as a sensitivity function, or the value converted and optimized secondarily is used as the sensitivity function There is a method.
  • the number of cones of the animal and the A sensitivity function that matches the visual characteristics may be used as the optimal sensitivity function. Further, it is preferable to use a value converted and optimized secondarily as a sensitivity function.
  • the spectral spectrum of the subject to be pseudo-colorized If the wavelength band is in the ultraviolet, visible, or near-infrared region of, for example, about 300 to 900 nm, the optimal sensitivity function having a large wavelength width is determined as described above, and the original spectral distribution of the subject ( From the spectral spectrum), a desired pseudo-color image can be formed.
  • a pseudo-force image of a subject whose spectral spectrum is observed in the near-infrared region for example, a wavelength region of 800 to 2500 nm
  • it is often difficult to obtain a desired pseudo force image. / From the wide range of weighting functions (sensitivity functions) and the original spectral distribution, it is often difficult to obtain a desired pseudo force image. / ,.
  • the spectral spectrum in the near infrared region in the wavelength region of 800 to 2500 nm has strong multicollinearity, and the absorption by each substance component is distributed in a wide wavelength range.
  • the spectral absorption spectrum (reflected light spectrum or absorbed light spectrum) of an object composed of the same type of substance is difficult to appear because it is difficult for a specific absorption spectrum force s to appear like a spectrum in the visible region.
  • the shapes are almost the same, and it is difficult to determine the optimal sensitivity function using the method described with reference to FIG.
  • multiple regression analysis (MLR) or principal component regression analysis (PCR) is used to obtain information on the subject to be obtained (for example, the concentration of a specific component contained in the subject). It is possible to select a wavelength having a high correlation. In this case, a higher-accuracy image can be obtained by replacing the raw image with an absorbance image or a second derivative image.
  • this method tends to be effectively applicable when the pseudo-color image information to be obtained is limited to displaying the concentration of a specific substance contained in a subject in a quantifiable manner. It is in.
  • the regression equation obtained by the multiple regression method yields the density map (image) of the component to be obtained, this is used as a pseudo-color (Pseudocolor) as a single substance density image.
  • a density map (image) of each of the three components may be obtained, and the three images may be respectively associated with R iv , G iv, and B iv , and a pseudo color (F a 1 seco 1 or). This allows 03009410
  • the wavelength width of the optimal sensitivity function becomes narrower. For example, when each image is collected at a wavelength width of 2 nm, the shortest wavelength width (2 nm) tends to be selected.
  • reference spectrum 12 or more spectrums (hereinafter referred to as "reference spectrum") serving as a reference of a pseudo color image corresponding to information to be acquired from a subject to be observed are prepared. .
  • the reference spectrum is a spectrum in the same wavelength region as the above-mentioned optimal sensitivity function, and is a color system to be adopted (for example, in this embodiment, L iv * a iv * b iv * Colorimetric system) is a spectrum to form chromaticity points that can be distributed uniformly in the color coordinate space of the (color system).
  • the number of reference vectors is less than 12, the tendency for highly accurate color value calculation to be somewhat difficult increases.
  • the number of reference spectra is preferably 18 or more.
  • the physical sensitivity functions b irp , g irp, and r irp obtained by the spectroscopic optical unit 2 (the n (nt 3) digitized signals described with reference to FIG. 2 described above).
  • the matrix ⁇ (In the case of the first time, the sensitivity matrix b ir D gir G and r obtained by multiplying by 3 ⁇ 3 unit matrix) is obtained.
  • each of the reference vectors D 1 D 12 is multiplied by each of the sensitivity functions b, g, and r to obtain 12 sets of pseudo-color basic image signals (R iv smpl 'G iv smpi t> i v smp i) ⁇ performs calculation shown in (using these ki v sm pl2 G iv smpl2 j t> i v smp l2 3 ⁇ 4- ⁇ , previously mentioned equation (5) (7), L iv * a iv * b Find 12 chromaticity points P rl P r 12 distributed in the color coordinate space C 1 of the color system (ST 16).
  • PCA principal component analysis
  • the system 1A of the second embodiment capable of measuring the chromaticity of the visible and invisible regions is the same as the system 1 of the first embodiment capable of measuring the chromaticity of the visible and invisible regions of FIG. Chromaticity measurement in the visible and invisible regions of the first embodiment except that the camera unit 2 is replaced with a different configuration, and the wavelength conversion unit 7 is provided between the spectral optical unit 2a and the photoelectric conversion unit 2b. It has a configuration similar to that of the system 1 that can perform the above.
  • the wavelength conversion optical unit 7 optically applies a sensitivity function to each of the three or more component lights by converting the wavelength of each of the three or more component lights output from the spectroscopic optical unit, and This is to generate three or more pseudo color spectroscopy corresponding to each of the above component lights.
  • the emission light L1 in all wavelength ranges emitted from the subject sample 10 is received by the spectroscopic optical unit 2a.
  • the image received at this time is the entire image P of the subject sample 10. Or any of the partial areas E1.
  • the continuous radiation spectrum ⁇ ° 30 of the received image is converted into, for example, three components having different center wavelengths from each other by a spectral prism (spectral optical unit 2 a) capable of splitting incident light into three. It is decomposed into light (ST 1A) to (ST 2A).
  • the three component lights emitted from the spectral prism are wavelength-converted by the optical filters (wavelength converters 7) arranged on the three light emission surfaces of the spectral prism (ST2A).
  • the optical filter has optimal sensitivity characteristics (sensitivity functions) ⁇ ⁇ , ⁇ ° 2) ⁇ ° 3 according to each of the three component lights. Therefore, the three component lights emitted from the spectral prism are optically sensitive when undergoing wavelength conversion.
  • the three pseudo color component lights are photoelectrically converted respectively, and three pseudo color basic image signals, ⁇ 2 and ⁇ 3 corresponding to the three pseudo color component lights, respectively. Is formed (ST 3A).
  • the color system used for the color process performed in the image processing unit is not particularly limited.
  • * b * A color system based on a color system other than the color system may be defined and used.
  • the basic color systems include Cie 1 uv color system, Hunter Lab color system, AN 40 color system, Munsell color system, Ostwald color system, and Natural Color System. (NCS) The color system and the like are listed, and the color system based on these (the color system similar to the & color system) is defined and used.
  • the sensitivity function ⁇ is obtained by replacing the input value of the component light with the absorbance value.
  • pseudo-color image signal based on the absorbance was mentioned earlier, one lo g R iv, single lo g G iv and single logB iv, and, based on the absorbance synthesized from these
  • the pseudo color image RGB ⁇ ⁇ may be obtained.
  • the sensitivity function is defined as a difference between a physical state or a chemical state to be observed occurring between the respective objects constituting the object group and a light-spectroscopic difference between the respective objects constituting the object group. It is usually determined based on the correlation between the waveform difference, but is not particularly limited.
  • the function may be in the wavelength region and the visible region of the ultraviolet region shorter than the visible region and the near infrared region longer than the visible region.
  • a function having a form in which a wavelength region having a certain width in the visible region is captured in three regions may be used.
  • a function having a broad band characteristic as shown in FIG. 22 may be used.
  • the sensitivity function is generally based on three reference colors of RGB, so that the display is basically based on three functions as described in the above embodiment. Depending on the display system used in the color processing, three or more may be used. For example, there may be four colors such as Red, Yellow, Green, and Blue, so they may be combined into four.
  • SAS-S (M) six types of black ballpoint pens and felt pens (hereinafter, referred to as "SAS-S (M)", “Pigma”, “Twin (T)”, “Shar pH ( M) ",
  • SAS-S (M) is manufactured by Mitsubishi Corporation, and the brand name is “SAS-Sj", and “Pigma” is manufactured by Sakura Corporation, and the brand name is “Nouvel Pigma Graphic”.
  • Tw in (T) indicates the product of Dragonfly, Product name: “Brush pen”, and “S har pH (M)” indicates the product of Mitsubishi, “UniO.5HB”. Indicates “Un i—B a 1 1 09410
  • (M) indicates a product name of “Uni-Ball” manufactured by Mitsubishi
  • “N—500 (Z) j” indicates a product name of “N-500” manufactured by Zebra.
  • a color image in the visible region and a numerical value for displaying the color were calculated using a conventional method. Furthermore, a pseudo color image in the invisible region and numerical values for displaying the color were calculated and calculated using the optimum sensitivity function shown in FIG. The results are shown in FIGS. 27, 28 and 29.
  • Table 1 shows s-scale 08 values, binary values, and L * a * b * values, which are color systems for the Internet.
  • the image data values R sRGB , G sRGB , and B sRGB values of each sample are 0 to 11 compared to White 255, which is extremely low and almost black. Was confirmed. Although some shades of color were evident, it was not possible to recognize the difference in the color of each sample.
  • FIG. 28 is a calculation using data of 550 to 950 nm and the ideal and sensitivity characteristics shown in FIG. Equations (5) to (7) were used for calculating L, aiv *, and biv * values. In this case, the difference in the spectrum in the near infrared region could be discriminated, and the characteristics of the three numerical values (L, aiv *, biv *) could be distinguished on the chromaticity coordinates.
  • each sample could be clearly distinguished by the invisible chromaticity value.
  • the pseudo-color image which was displayed in black in the visible region, could be displayed as a pseudo-color image having different colors of black, yellow, and red. For example, it was confirmed and confirmed that such a method could solve the problem of discrimination such as falsification of characters.
  • Equations (5) to (7) that is, the coefficient for finding a * in the visible equation is 500, and the coefficient for finding a in the invisible equation (Ka) is 200. This means that the a iv * value obtained using (4) is 2.5 times longer.
  • Fig. 30, Fig. 31 and Fig. 32 are graphs arranged in the same manner as Fig. 27, Fig. 28 and Fig. 29, respectively, except that the sample was changed from a pen to a dress cloth.
  • Fig. 30, Fig. 31 and Fig. 32 in the visible region, almost only black is recognized, but using the invisible chromaticity coordinates, the samples of "No. 3 J," “No. 2" As for, it is understood that the chromaticity value is red.
  • clothes made using the sample of “No. l” are displayed as black, but “No.
  • the sample No. 3 is red, and the sample No. 2 is red with higher saturation than the sample No. 3. Was expressed.
  • desired information to be obtained from a subject sample is utilized by using invisible color values and color display of pseudo-error color images.
  • quantitative evaluation can be sufficiently performed.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

システム1は、被写体10からの放射光を分光する分光光学部2aと、各分光を光電変換し電気信号を生成する光電変換部2bと、擬似カラー画像の生成及び該画像の色表示を行う表色系上の数値の算出を行う画像処理部4と、上記画像及び/又は数値を出力する画像出力部5,6を有する。画像処理部は、各電気信号に対して感度関数をかけて画像信号を生成させ、該信号を用いて前記数値を算出し、該信号にマトリクスMをかけて擬似カラー画像を生成させる。感度関数は被写体間の物理的又は化学的状態の差異と、複数の被写体の分光スペクトル間に生ずる波形の差異との間の相関関係に基づいて決定され、Mは色再現誤差が最小限となるように決定されている。

Description

明糸田書
可視並びに不可視領域の色度計測が可能なシステム
技術分野
【0 0 0 1】 本発明は可視並びに不可視領域の色度 (色彩値及び表色値) 計測 が可能なシステムに関する。
背景技術
【0 0 0 2】 今までの色計測は可視領域だけに有効な計測手法であり、 不可視 領域まで含めた、 色計測というものが存在していなかった。 但し、 それに類似し たいわゆる擬似カラー表示という技術は存在している。 以下、 それについて説明 する。
【0 0 0 3】 すなわち、 被写体から放射される放射光に含まれる可視光 (波長 が 4 0 0〜7 0 0 n mの範囲にある光) 以外の不可視光 (例えば、 波長が 2 0 0 〜4 0 0 n mの範囲にある紫外光又は波長が 7 0 0〜 2 2 0 0 n mの範囲にある 光を近赤外光) の画像は、 人間の眼では認識することができない被写体の物理的 状態又は化学的状態に関する極めて有益な情報 (例えば、 食物の腐食度等に関す る情報など) を含んでいる。
【0 0 0 4】 そのため、 このような不可視光の画像情報を人間が視覚的に認識 可能な画像情報に変換して表示するための様々な検討が従来から行われている。 通常、 不可視光画像は人間が視覚的に認識困難な白黒画像であるため、 擬似カラ 一表示することにより、 輝度情報の判別をし易くする画像処理法が用いられてい る。
【0 0 0 5】 すなわち、 被写体から放射される不可視光を含む全ての放射光の スペク トルを複数の波長領域に区切り、 区切られたそれぞれの範囲に対して、 人 間が視覚的に認識可能な互いに等色しない特定の色 (例えば、赤、 緑、 青の 3色) を当てはめて着色することにより、 擬似カラー表示された画像を生成する画像処 理法が用いられている。 【0 0 0 6】 これは、 人間の眼が白黒画像よりも、 カラー画像のほうが画像情 報の差異を認識し易いという特徴を応用したものである。 例えば、 このような擬 似カラー画像表示を行う撮像システムとしては、 例えば、 特開平 6— 1 2 1 3 2 5号公報に記載の力ラ一撮像装置が挙げられる。
発明の開示
【0 0 0 7】 しかしながら、 従来の色彩理論は可視領域のみを対象にしたもの であり、 人間の 「視覚 +感覚特性」 から発達したものであるので、 人間の 「視覚 +感覚特性」 を越えたものではなかった。
【0 0 0 8】 すなわち実際の見えを基に基準特性(等色関数) を作り、色値(色 彩値、 表色値) の概念が出来上がった。 その基準特性がある故に、 可視領域にお ける色 を介してコミュニケ一ンョンもできるようになった。
【0 0 0 9】 不可視の場合も可視領域と同様に、 可視領域で示す等色関数のよ うな、 何らかの基準となるべき特性があれば、 それを基準値として、 不可視領域 においても、 正確な色値を算出することができる。 しかしながら、 現在、 不可視 の基準特性に相当するものがない為、 不可視領域においての色値と言う概念が出 来ておらず、 結果として、 不可視領域の色値を表示可能とするようなシステムも 存在していない。
【0 0 1 0】 また、 もう一方では、 類似の擬似カラー画像撮像システムがある 力 従来の撮像システムでは、 被写体サンプルから取得したい所望の情報を、 最 終的に得られる擬似カラー画像の色表示を利用して定量的に評価することが充分 にできていなかった。
【0 0 1 1】 なお、ここで、「被写体サンプルから取得したい所望の情報」とは、 被写体サンプルが属する被写体群を代表する標準サンプルと被写体サンプルとの 間の物理的状態又は化学的状態の観測すべき差異であり、 かつ、 光学的に差別化 が可能な差異に関する情報である。
【0 0 1 2】 上記の標準サンプルと被写体サンプルとの間の物理的状態の差異 としては、 例えば、 標準サンプルには存在しない構造物が被写体サンプルには存 在している場合等の構造物の有無による差異、 標準サンプルには通常確認される 形状的な特徴が被写体サンプルには確認されない場合等の形状的な特徴の有無に よる差異等が挙げられる。
【0 0 1 3】 また、 上記の標準サンプルと被写体サンプルとの間の化学的状態 の差異としては、 例えば、 標準サンプルには所定の濃度範囲でしか存在しない化 学物質が被写体サンプルには上記の濃度範囲を超える高濃度で分布する領域が存 在している場合等の特定の化学物質の濃度分布領域の有無による差異等が挙げら れる。
【0 0 1 4】 本発明は以上の問題を鑑みてなされたものであり、 被写体サンプ ルから取得したい所望の情報を、 不可視の色値並びに擬似カラー画像の色表示を 利用して定量的に評価することが充分に可能な可視並びに不可視領域の色度計測 が可能なシステムを提供することを目的とする。
【0 0 1 5】 しかしながら、 従来の色彩理論は可視領域のみを対象にしたもの であり、 人間の 「視覚 +感覚特性」 から発達したものであるので、 人間の 「視覚 +感覚特性」 を越えたものではなかった。
【0 0 1 6】 すなわち実際の見えを基に基準特性(等色関数) を作り、色値(色 彩値、 表色値) の概念が出来上がった。 その基準特性がある故に、 可視領域にお ける色値を介してコミュニケーションもできるようになった。
【0 0 1 7】 不可視の場合も可視領域と同様に、 可視領域で示す等色関数のよ うな、 何らかの基準となるべき特性があれば、 それを基準値として、 不可視領域 においても、 正確な色値を算出することができる。 しかしながら、 現在、 不可視 の基準特性に相当するものがない為、 不可視領域においての色値と言う概念が出 来ておらず、 結果として、 不可視領域の色値を表示可能とするようなシステムも 存在していない。
【0 0 1 8】 また、 もう一方では、 類似の擬似カラー画像撮像システムがある 力 従来の撮像システムでは、 被写体サンプルから取得したい所望の情報を、 最 終的に得られる擬似カラ一画像の色表示を利用して定量的に評価することが充分 にできていなかった。
【0 0 1 9】 なお、ここで、「被写体サンプルから取得したい所望の情報」とは、 被写体サンプルが属する被写体群を代表する標準サンプルと被写体サンプルとの 間の物理的状態又は化学的状態の観測すべき差異であり、 かつ、 光学的に差別化 が可能な差異に関する情報である。
【0 0 2 0】 上記の標準サンプルと被写体サンプルとの間の物理的状態の差異 としては、 例えば、 標準サンプルには存在しない構造物が被写体サンプルには存 在している場合等の構造物の有無による差異、 標準サンプルには通常確認される 形状的な特徴が被写体サンプルには確認されない場合等の形状的な特徴の有無に よる差異等が挙げられる。
[ 0 0 2 1 ] また、 上記の標準サンプルと被写体サンプルとの間の化学的状態 の差異としては、 例えば、 標準サンプルには所定の濃度範囲でしか存在しない化 学物質が被写体サンプルには上記の濃度範囲を超える高濃度で分布する領域が存 在している場合等の特定の化学物質の濃度分布領域の有無による差異等が挙げら れる。
【0 0 2 2】 本発明は以上の問題を鑑みてなされたものであり、 被写体サンプ ルから取得したい所望の情報を、 不可視の色値並びに擬似カラー画像の色表示を 利用して定量的に評価することが充分に可能な可視並びに不可視領域の色度計測 が可能なシステムを提供することを目的とする。
【0 0 2 3】 本発明者らは、 上記課題を解決すべく鋭意研究を重ねた結果、 上 記従来の撮像システムにおいて被写体サンプルから取得したい所望の情報を定量 的に評価することが充分にできなかった大きな要因は、 被写体サンプルから放射 される全ての波長領域 (不可視領域を含む領域) の放射光のスぺクトルを複数の 波長領域に区切る際の基準が、 被写体サンプルから得たい所望の情報に充分に関 連付けて決定されていなかったことにあることを見出した。
【0 0 2 4】 更に、 本発明者らは、 従来の撮像システムにおいては、 上述の放 射光のスぺクトルを複数の波長領域に区切り、 その各波長領域に対して特定の色 を当てはめて着色する (等色関数等の感度関数をかける) 際の着色の基準 (使用 する感度関数の決定基準) も、 被写体サンプルから得たい所望の情報に充分に関 連付けて決定されていなかったことが、 従来の撮像システムにおいて被写体サン プルから取得したい所望の情報を定量的に評価することが充分にできなかった大 きな要因となっていることを見出した。
【0 0 2 5】 更に、 本発明者らは、 被写体サンプルから放射される放射光のス ぺクトルを複数の波長領域に区切る際の基準と、 使用する感度関数の決定基準と を、 被写体サンプルから得たい所望の情報に充分に関連付けて決定することによ り、 擬似力ラ一画像に対して可視光の力ラ一画像の色表示を行うための表色系に 用いられている手法を適用することができることを見出した。 そして、 これによ り本発明者らは、 擬似力ラ一画像の色の情報を被写体サンプルから取得したい所 望の情報に関連付けた特定の基準に対する相対値として数値化することが可能と なることを見出し、 本発明に到達した。
【0 0 2 6】 即ち、 本発明は、 被写体サンプルから放射される全ての波長領域 の放射光を受光し、 該放射光を互いに異なる中心波長を有する 3以上の成分光に 分光する分光光学部と、 3以上の成分光をそれぞれ光電変換し、 3以上の成分光 にそれぞれ対応した 3以上の電気信号をそれぞれ生成させる光電変換部と、 3以 上の電気信号を加工することにより、 サンプルの擬似カラー画像の生成と、 該擬 似カラー画像の色表示を行うための表色系に基づき定義される数値の算出とを行 う画像処理部と、 擬似カラー画像及び Z又は数値を出力する画像出力部と、 を少 なくとも有しており、 画像処理部は、 3以上の電気信号の全てに対して 3以上の 感度関数をそれぞれ独立にかけることにより 3以上の擬似カラー基本画像信号を 生成させる画像信号生成処理手段と、 3以上の擬似カラー基本画像信号にマトリ クス Mをかけてベタトル変換することにより、 3以上の擬似カラー画像信号を生 成させるベタトル変換処理手段と、 3以上の擬似カラー画像信号を合成して擬似 カラー画像を生成させる画像形成処理手段と、 3以上の擬似カラー画像信号を用 いて表色系に基づき定義される数値を算出する表色処理手段と、 を少なくとも有 しており、 3以上の感度関数は、 被写体サンプルが属する被写体群を構成する各 被写体間に生ずる物理的状態又は化学的状態の観測すべき差異と、 被写体群を構 成する各被写体の分光スぺク トル間に生ずる波形の差異と、 の間の相関関係に基 づいて決定されており、 マトリタス Mは、 最適な感度特性に近づける為のマトリ ックスであり、 結果的に 3以上の擬似カラー画像信号を生成させる際に生じる色 再現誤差が最小限となるように決定されていること、 を特徴とする可視並びに不 可視領域の色度計測が可能なシステムを提供する。
【0 0 2 7】 ここで、 被写体サンプルが属する被写体群における被写体サンプ ルと 「同種の被写体」 とは、 測定対象となる被写体サンプルと同じカテゴリーに 属する被写体を示す。 さらに、 ここで 「カテゴリー」 とは、 被写体サンプルから +取得したい情報を得る上で、 標準サンプルと被写体サンプルとからそれぞれ得ら れる分光スぺク トルに光学的に差別化が可能な差異があるか否かにより決定され るものである。 上記の差異があれば、 同じカテゴリーに属する被写体とすること が可能である。
【0 0 2 8】 従って、 例えば、 被写体サンプルがりんごに属する特定の品種の 場合、 カテゴリーをこの特定の品種にまで限定するか、 この特定の品種にまで限 定せずに 「りんご」 とする力 \ 或いは、 「果物」 とするかは、 被写体サンプルから 取得したい情報により決定してよい。
【0 0 2 9】 本発明の可視並びに不可視領域の色度計測が可能なシステムにお いては、 上述のように、 3以上の感度関数は、 被写体群を構成する各被写体間に 生ずる物理的状態又は化学的状態の観測すべき差異と、 被写体群を構成する各被 写体の分光スぺク トル間に生ずる波形の差異との間の相関関係に基づいて決定さ れている。 そのため、 被写体群に属する被写体サンプルについて測定された分光 スぺクトルを光電変換して電気信号とし、 これに 3以上の感度関数を独立にかけ て得られる信号は、被写体サンプルから得たい所望の情報に密接に関連している。 【0 0 3 0】 従って、最終的に得られる擬似カラー画像を構成する色の情報は、 被写体サンプルから得たレ、所望の情報に密接に関連していることになる。そして、 本発明においては、 最終的に得られる擬似カラー画像の色の情報を、 可視光の力 ラ一画像の色表示を行うための表色系に用いられている手法により数値化するこ とができるため、 数値化された擬似カラー画像の色の情報は、 被写体サンプルか ら得たい所望の情報に密接に関連している。 その結果、 本発明においては、 被写 体サンプルから取得したい所望の情報を、 擬似カラー画像の色表示を利用して定 量的に評価することが充分にできる。
【0 0 3 1】 また、 本発明においては、 擬似カラー画像の表示条件の異なる画 像出力部 (モニタやプリンタ) 等で別々に擬似カラー画像が出力され、 これらの 擬似力ラ一画像の色表示の状態が色感覚或レ、は色知覚的に異なつて認識される場 合であっても、 被写体サンプルから得たい情報については表色系に基づき定義さ れた数値として正確に把握することができる。
【0 0 3 2】 また、 本発明は、 被写体サンプルから放射される全ての波長領域 の放射光を受光し、 該放射光を互いに異なる中心波長を有する 3以上の成分光に 分光する分光光学部と、 3以上の成分光のそれぞれに対して設けられており、 3 以上の成分光のそれぞれを波長変換することにより 3以上の成分光のそれぞれに 対して光学的に感度関数をかけて、 3以上の成分光のそれぞれに対応した 3以上 の擬似力ラ一成分光を生成させる波長変換光学部と、 3以上の擬似力ラ一成分光 をそれぞれ光電変換し、 3以上の擬似カラー成分光にそれぞれ対応した 3以上の 擬似カラー基本画像信号をそれぞれ生成させる光電変換部と、 3以上の擬似力ラ 一基本画像信号を加工することにより、 サンプルの擬似カラー画像の生成と、 該 擬似カラー画像の色表示を行うための表色系に基づき定義される数値の算出とを 行う画像処理部と、 擬似カラー画像及ぴ Z又は数値を出力する画像出力部と、 を 少なくとも有しており、 画像処理部は、 3以上の擬似カラー基本画像信号にマト リクス Mをかけてベタトル変換することにより、 3以上の擬似カラー画像信号を 生成させるベタトル変換処理手段と、 3以上の擬似カラー画像信号を合成して擬 似カラー画像を生成させる画像形成処理手段と、 3以上の擬似カラー画像信号を 用いて表色系に基づき定義される数値を算出する表色処理手段と、 を少なくとも 有しており、 3以上の感度関数は、 被写体サンプルが属する被写体群を構成する 各被写体間に生ずる物理的状態又は化学的状態の観測すべき差異と、 被写体群を 構成する各被写体の分光スぺクトル間に生ずる波形の差異と、 の間の相関関係に 基づいて決定されており、 マトリクス Mは、 最適な感度特性に近づける為のマト リックスであり、 結果的に 3以上の擬似力ラ一画像信号を生成させる際に生じる 色再現誤差が最小限となるように決定されていること、 を特徴とする可視並びに 不可視領域の色度計測が可能なシステムを提供する。
【0 0 3 3】 上記のように光学フィルタ等の光学系を用いて分光学的に感度関 数をかけるタイプの構成を有する可視並びに不可視領域の色度計測が可能なシス テムの場合にも、 先に述べた数値計算により感度関数をかけるタイプの構成を有 する可視並びに不可視領域の色度計測が可能なシステムと同様に、 被写体サンプ ルから取得したい所望の情報を、 擬似カラー画像の色表示を利用して定量的に評 価することが充分にできる。
図面の簡単な説明
図 1は、 本発明の可視並びに不可視領域の色度計測が可能なシステムの第一実施 形態の基本構成を示す説明図である。
図 2は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムの動作 を説明するためのフローチヤ一トである。
図 3は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムの動作 を説明するためのフローチヤ一トである。 図 4は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムの動作 を説明するためのフローチャートである。
図 5は、 に示した可視並びに不可視領域の色度計測が可能なシステムの動作を説 明するためのフローチャートである。
図 6は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムにより 画像出力部に出力される画像の表示例を示す図である。
図 7は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムにより 画像出力部に出力される画像の表示例を示す図である。
図 8は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムにより 画像出力部に出力される画像の表示例を示す図である。
図 9は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムにより 画像出力部に出力される画像の表示例を示す図である。
図 1 0は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムによ り画像出力部に出力される画像の表示例を示す図である。
図 1 1は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムによ り画像出力部に出力される画像の表示例を示す図である。
図 1 2は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムによ り画像出力部に出力される画像の表示例を示す図である。
図 1 3は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムによ り画像出力部に出力される画像の表示例を示す図である。
図 1 4は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムによ り画像出力部に出力される画像の表示例を示す図である。
図 1 5は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムの画 像処理部における画像信号生成処理で使用される最適な感度関数を決定する方法 の一例を説明するためのフローチャートである。
図 1 6は、 図 1に示した可視並びに不可視領域の色度計測が可能なシステムの画 像処理部におけるベタトル変換処理で使用される最適なマトリクス Mを決定する 方法の一例を説明するためのフローチャートである。
図 1 7は、 本発明の可視並びに不可視領域の色度計測が可能なシステムの第二実 施形態の基本構成を示す説明図である。
図 1 8は、 図 1 7に示した可視並びに不可視領域の色度計測が可能なシステムの 動作を説明するためのフローチヤ一トである。
図 1 9は、 本発明の可視並びに不可視領域の色度計測が可能なシステムの画像処 理部における画像信号生成処理で使用される感度関数の一例を示すグラフである。 図 2 0は、 本発明の可視並びに不可視領域の色度計測が可能なシステムの画像処 理部における画像信号生成処理で使用される感度関数の一例を示すグラフである。 図 2 1は、 本発明の可視並びに不可視領域の色度計測が可能なシステムの画像処 理部における画像信号生成処理で使用される感度関数の一例を示すグラフである。 図 2 2は、 本発明の可視並びに不可視領域の色度計測が可能なシステムの画像処 理部における画像信号生成処理で使用される感度関数の一例を示すグラフである。 図 2 3は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 測定した各試料の反射率のプロフィールを示すグラフである。
図 2 4は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 測定した各試料の反射率のプロフィールを示すグラフである。
図 2 5は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 求められた感度関数 (プラスのみ) のプロフィールを示すグラフである。
図 2 6は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 求められた最適な感度関数 (理想感度特性)のプロフィールを示すグラフである。 図 2 7は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 各試料について求められた、 LW表色系の a*値と b*値との関係を示すグラフであ る。
図 2 8は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 求められた、 L iv* a iv* b iv*表色系の a iv*値と b ^値との関係を示すグラフである。 図 2 9は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 求められた、 L iv* a iv* b iv*表色系の a 値と b iv*値との関係を示すグラフである。 図 3◦は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 各試料について求められた、 L*a*b*表色系の a*値と b*値との関係を示すグラフであ る。
図 3 1は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 求められた、 L iv* a iv* b iv*表色系の a 値と b iv*値との関係を示すグラフである。 図 3 2は、 実施例 1の可視並びに不可視領域の色度計測が可能なシステムにより 求められた、 L iv* a iv* b iv*表色系の a iv*値と b iv*値との関係を示すグラフである。 発明を実施するための最良の形態
【0 0 3 4】 以下、 図面を参照しながら本発明の可視並びに不可視領域の色度 計測が可能なシステムの好適な一実施形態について詳細に説明する。 なお、 以下 の説明では、同一または相当部分には同一符号を付し、重複する説明は省略する。 【0 0 3 5】 [第一実施形態]
【0 0 3 6】 図 1は、 本発明の可視並びに不可視領域の色度計測が可能なシス テムの第一実施形態の基本構成を示す説明図である。 図 1に示すように、 第一実 施形態の可視並びに不可視領域の色度計測が可能なシステム 1は、カメラ部 2と、 画像処理部 4と、 画像出力部としてのモニタ 5及びプリンタ 6とから構成されて いる。 そして、 カメラ部 2は、 分光光学部 2 aと、 光電変換部 2 bと、 A/D変 換部 2 cとから構成されている。 なお、 このカメラ部 2には、 後述する画像処理 部 4における前処理部 4 aが一体化されていてもよい。
【0 0 3 7】 分光光学部 2 aは、 被写体サンプルから放射される全ての波長領 域の放射光 L 1を受光し、 該放射光 L 1を互いに異なる中心波長を有する 3以上 の成分光に分光するものである。 この分光光学部 2 aは、 上述の互いに異なる中 心波長を有する 3以上の成分光を生成させることが可能な構成を有しているもの であれば、 特に限定されないが、 分光的な処理をする場合には後述する感度関数 を用いて感度特性を再設定することが可能なことから 1 6以上の成分光に分光で きる構成を有していることが好ましい。
【0 0 3 8】 このような分光光学部 2 aとしては、 特に、 特許 2 7 1 3 8 3 8 号公報に記載の分光イメージングセンサに搭載されている干渉フィルタ及び光学 ファイバープレート (何れも図示せず) であることが好ましい。 なお、 特許 2 7 1 3 8 3 8号公報においては、 可視カラーを主として取り扱う場合についての干 渉フィルタ及ぴ光学ファイバープレートが記載されているが、 本実施形態の分光 光学部 2 aに適用する場合には、 干渉フィルタ及び光学ファイバープレートは可 視領域に限らず、 電磁波全波長域を対象にする点が異なる。
【0 0 3 9】 すなわち、 分光光学部 2 aに適用される干渉フィルタ及び光学フ アイバープレートは、 少なくとも 1 6個の干渉フィルタを一群とし、 これが多数 個二次元的に配列された分光フィルタ、 及び、 各干渉フィルタに個々独立に光学 結合された導光路が多数個一体化されてなる光学ファイバープレートであること が好ましい。
【0 0 4 0】 光電変換部 2 bは、 分光光学部 2 aで生成される 3以上の成分光 をそれぞれ光電変換し、 これら 3以上の成分光にそれぞれ対応した 3以上の電気 信号をそれぞれ生成させるものである。 より具体的には、 例えば、 光学ファイバ 一プレートの各導光路の光出射端毎にそれぞれ独立に光学結合された多数個の受 光素子 (図示せず) からなる。
【0 0 4 1】 また、 上記の各受光素子は、 入力された光強度に応じて電荷を発 生させる光電変換素子(図示せず)と、光電変換素子の信号出力端子に接続され、 画像処理部からの走査信号に応じて光電変換素子に蓄積された電荷を出力するス イッチ素子 (図示せず) を 1組として構成されている。
【0 0 4 2】 更に、 上記の分光光学部 2 aと光電変換部 2 bとが一体化された 組み合せの具体的な構成としては、 特許 2 7 1 3 8 3 8号公報に記載の分光ィメ 一ジングセンサが好ましい。 また、 この分光イメージングセンサの場合には、 A 変換部 2 c及び前処理部 4 aが一体化された構成を有する。
【0 0 4 3】 AZD変換部 2 cは、 上記各受光素子からそれぞれ出力される電 荷(電流信号) を個別に電圧信号に変換する積分回路を備えたアンプ(図示せず) と、 アンプから出力される電圧信号 (アナログ値) を個別にデジタル値に変換し て出力する A/D変換器 (図示せず) とから構成されている。
【0 0 4 4】 また、 カメラ部 2の上述した構成以外の具体的な構成としては、 分光された狭帯域の画像を連続的に採取できる構成を有するものであれば特に限 定されないが、 好ましい他の形態としては、 特開平 2— 2 2 6 0 2 7公報に記載 のものが好ましい。 また、 カメラ部 2は、 いわゆる単板、 3板又は 4板と呼ばれ るタイプのカメラに備えられた構成を有していてもよい。
【0 0 4 5】 この場合、 分光光学部 2 aは被写体サンプルから放射される全て の波長領域の放射光 L 1を受光し、 互いにことなる中心波長を有する例えば 3以 上 (または 4以上) の成分光に分光する通常のカラーカメラと同じ構成を有して いる。 先に述べた分光イメージングタイプの構成を有するカメラ部 2は、 峡帯域 のバンドを目的に採取し細かい分光特性を観察するという目的で使用する場合に 適しており、 この単板、 3板又は 4板と呼ばれるタイプのカメラの構成を有する カメラ部 2はより広いバンド特性 (例えば 8 0 n m以上の半値幅を有しているも の) を有する画像を採取し観察するという目的で使用する場合に適している。 【0 0 4 6】 なお、 この単板、 3板又は 4板と呼ばれるタイプのカメラの構成 を有するカメラ部 2の場合には、 後述の感度関数をかける目的の前処理部 4 aが なくデータは、 直接的に画像処理部 4の本体部 4 bに送られる構成を有する。 【0 0 4 7】 また、 上述の構成のカメラ部 2の他にも、 例えば、 カラーフォー ラム Japan95 頁 91— 94に記載の 「2次元測色システム」 のような、 ターレット 上に干渉フィルタを並べ回転して、 逐次、 バンドパス画像を取り込んでいくタイ プの構成を有するカメラ部 2を備えていてもよい。 【0 0 4 8】 画像出力部としてのモニタ 5及びプリンタ 6は、 それぞれ画像処 理部 4で形成された擬似力ラ一画像及び Z又は表色系に基づき定義された数値を 出力する。 更に、 これらモニタ 5及ぴプリンタ 6には、 後述する画像処理部 4に おいて生成する擬似カラー基本画像信号 (後述の動作説明においては 「生不可視 カラー画像 (信号)」 と表記) 及び擬似カラー画像信号 (後述の動作説明において は 「基本不可視カラー画像 (信号)」 と表記) の色表示行うための数値に基づく信 号を DZA変換してアナログ信号を生成し、 これをモニタ 5及ぴ Z又はプリンタ 6に送出するための D/A変換器(図示せず)がそれぞれ備えられている。なお、 カメラ部 2と画像処理部 4は一体となっていても良いし、 離れていてもどちらで も良く、 形状は問わない。
【0 0 4 9】 画像処理部 4は、 主として、 カメラ部 2から出力された 3以上の デジタル信号 (3以上の電気信号) に感度関数をかける前処理を行う前処理部 4 aと、 この前処理以降の処理を行う本体部 4 bとから構成されている。 また、 画 像処理部 4には、 前処理部 4 aと本体部 4 bを制御し、 カメラ部 2から出力され た 3以上のデジタル信号を加工して擬似カラー画像信号に変換し、 被写体サンプ ルの擬似力ラ一画像の生成を行うためと、 該擬似力ラ一画像の色表示を行うため の表色系に基づき定義される数値の算出を行うための中央制御装置 (図示せず) が備えられている。
【0 0 5 0】 この中央制御装置は、 C P U、 R OM、 及び、 R AM (何れも図 示せず) を有する。 中央制御装置の C P Uは、 マイクロプロセッサ等からなり、 後述する各種演算処理(画像信号生成処理 (前処理)、ベタトル変換処理、画像形 成処理、 表色処理、 感度関数の決定のための処理、 マトリクス Mの決定のための 処理、 可視並びに不可視領域の色度計測が可能なシステム全体の制御) を行うも のである。
【0 0 5 1】 また、 中央制御装置の R OMには、 上述の各種処理のためのプロ グラムが予め記憶されており、 R AMは、 制御 '演算処理の際に各種データを読 み書きするために用いられる。 更に、 中央制御装置は、 例えば、 C P Uと接続さ れた入出力ポート (図示せず) を有する。
【0 0 5 2】 この入出力ポートには、 カメラ部 2の各構成要素が、 該各構成要 素を制御する制御回路を介して電気的に接続されている。 また、 入出力ポートに は、 D/A変換器を制御する制御回路を介してモニタ 5及ぴプリンタ 6がそれぞ れ独立に接続されている。 従って、 カメラ部 2、 モニタ 5及びプリンタ 6には、 入出力ポートを介して、 C P Uの演算処理によって生成された各種信号等が与え られる。
【0 0 5 3】 また、 中央制御装置は記憶装置 (図示せず) を有し、 この記憶装 置は、 入出力ポートを介して C P Uと接続されている。 そして、 C P Uは、 この 記憶装置にアクセスし、 記憶装置に格納された以下に示すようなデータを必要に 応じて用いることにより可視並びに不可視領域の色度計測が可能なシステム 1の 各種処理を制御する。
【0 0 5 4】 すなわち、 この記憶装置には、 後述する画像信号生成処理におい て、 カメラ部 2から出力された 3以上のデジタル信号 (3以上の電気信号) の全 てに対して、 前処理部 4 aにおける前処理によって 3以上の感度関数をそれぞれ 独立にかけることにより 3以上の擬似カラー基本画像信号を生成させるためのデ ータが記憶されている。
【0 0 5 5】 また、 この記憶装置には、 後述するべクトル変換処理において、 画像信号生成処理後に出力される 3以上の擬似カラー基本画像信号にマトリタス Mをかけてべクトル変換することにより、 3以上の擬似カラー画像信号を生成さ せるためのデータが記憶されている。
【0 0 5 6】 更に、 この記憶装置には、 後述する画像形成処理において、 ベタ トル変換処理に出力される 3以上の擬似カラー画像信号を合成して擬似カラー画 像を生成させるためのデータが記憶されている。
【0 0 5 7】 また、 この記憶装置には、 後述する表色処理において、 べクトル 変換処理に出力される 3以上の擬似カラー画像信号を用いて数値計算処理を行う ことにより、 表色系に基づき定義される数 を算出するためのデータが記憶され ている。
【0 0 5 8】 更に、 この記憶装置には、 後述する感度関数の決定のための処理 において、 3以上の感度関数を、 被写体群を代表する標準サンプルと被写体サン プルとの間の物理的状態又は化学的状態の観測すべき差異と、 標準サンプルの分 光スぺク トルの標準波形とサンプルの分光スぺク トルの波形との間の差異との間 の相関関係に基づいて決定するためのデータが記憶されている。
【0 0 5 9】 また、 この記憶装置には、 後述するマトリクス Mの決定のための 処理において、 3以上の擬似カラー画像信号を生成させる際に生じる色再現誤差 を低減し、 理想的な感度特性に近づけるように決定するためのデータが記憶され ている。
【0 0 6 0】 次に、 可視並びに不可視領域の色度計測が可能なシステム 1の動 作について図 2〜図 5に示すフローチャートを参照しながら説明する。 先ず、 可 視並びに不可視領域の色度計測が可能なシステム 1の主電源 (図示せず) を O N にして画像処理部 4を作動させる。 そして、 画像処理部 4における中央制御装置 の C P Uはカメラ部 2、 モニタ 5及びプリンタ 6に駆動信号を出力する。
【0 0 6 1】 なお、ハードウェア構成として、カメラ部 2を分離したものとし、 画像処理部 4は通常の巿販パソコンと上で述べた本発明の計算ならぴに処理機能 をつかさどるソフトウェアならびに付加的ハードウェアで構成したものとし、 モ ニタ 5、 プリンタ 6は通常の市販のものとしてもかまわない。
【0 0 6 2】 なお、 以下の動作の説明においては、 「擬似カラー基本画像信号」 を「生不可視カラー画像 (信号)」 と表記する。また、「擬似カラー画像信号」を「基 本不可視カラー画像 (信号)」 と表記する。
【0 0 6 3】 先ず、 被写体サンプル 1 0から放射される全ての波長領域の放射 光 L 1を、 分光光学部 2 aに受光する。 このとき受光する画像としては、 被写体 サンプル 10の全体像 P。であってもよく、その部分領域 E 1の何れであってもよ い。 そして、 受光画像の連続放射スペク トル X。s。は、 n個 (11ロ3) の光学的フ ィルタにより、 互いに異なる中心波長 λ°51, λ°52···λ°をそれぞれ有する n個 (11 □ 3) の成分光に分解される (ST1)。 なお、 ここで、 放射光 L 1は特に限定さ れず、 例えば、 被写体サンプル 10を透過する透過光、 被写体サンプル 10から の反射光の何れであってもよい。
【0064】 次に、光電変換部 2 bにおいて、互いに異なる中心波長 λ°31,λ°52··. λ° をそれぞれ有する η個の成分光はそれぞれ光電変換され、 更に、 AZD変換 部 2 cを経ることにより、 n個の成分光に対応した n個 (nD3) のデジタル化 されたバンドパス画像 (信号) Xsい λ52···λに変換される (ST2)。
【0065】 次に、 n個 (nC33) のバンドパス画像(信号) XS1, λ52···λは画 像処理部 4に入力されて加工される。 先ず、 画像信号生成処理 (前処理) が行わ れる。 即ち、 η個 (nD3) のバンドパス画像 (信号) λ31, λ32···λの全てに対し て、 予め被写体サンプルから得たい情報に応じて泱定された 3つの感度関数入。 1; λ°2及び λ。3がそれぞれ独立にかけられ、 3つの生不可視カラー画像 (信号) , λ2 及び λ3.が形成される (ST3)。
【0066】 なお、 ここでは、 感度関数を 3つ使用する場合について説明した 力 使用する感度関数の数は 3以上であれば特に限定されず、 被写体から取得し たい情報に応じて後述する感度関数を決定する際に同時に最適の数を決定してよ い。
【0067】 次に、図 3に示すように、 3つの生不可視カラー画像 (信号) , λ2 及び λ3にべクトル変換処理が施され、 3つの基本不可視カラー画像 (信号) Riv, Giv及び Bivが形成される (ST4)。すなわち、 3つの基本不可視カラー画像(信 号) Riv, Giv及ぴ Bivは、 下記式 (1) に示すように、 3つの生不可視カラー画 像 (信号) , λ2及び λ3にマトリクス Mをかけることにより生成される。
【0068】 この処理は、 3つの生不可視カラー画像 (信号) , λ2及ぴ λ3の全 画素の強度に対してべクトル変換を行い、 基本不可視カラー画像 (信号) Riv, Giv 及び B ivを作成するものである。
[ Giv 5,] = μ XjM … は) このベクトル変換処理は、 第一に以下の目的のために行われる。 すなわち、 分 光イメージングセンサのタイプの構成を有するカメラ部 2 (又は、 別の構成を有 する分光器) 等を用いて後述する感度関数 (理想、感度特性) を求めた後、 その感 度関数 (理想感度特性) を (S T 3 ) にて用いることにより全処理系の感度関数 を決定するために行われる。
【0 0 6 9】 なお、 カメラ部 2の構成が先に述べたいわゆる単版、 3板、 4板 タイプの構成を有するものの場合、 決定された感度関数を用いて、 その光学特性 が決まるが、 その場合、 光学フィルタによる感度関数決定では、 プラスだけの感 度特性しか作ることができない。 その為、 得られた最適感虔関数にマイナスが含 まれている場合、 プラスだけの感度関数からマイナスが含まれているものに変換 する必要がある。 この場合、 その変換用にマトリクス Mを用いたベクトル変換処 理が行われることになる。
【0 0 7 0】 ここで、 このベクトル変換処理に使用されるマトリクス Mは、 次 のように決定されることが好ましい。 すなわち、 後に示されるように最適な感度 関数 (理想的な感度特性) が決定された場合、 この感度特性に合わすように、 プ ラスだけの特性を有した感度特性に、 M をかけその特性に近づけることが可能と なる。
【0 0 7 1】 その手法としては、 実際に作り得るプラスだけの最適感度関数に 近い感度特性を用い、 測定しょうとする波長領域の複数の任意のスぺクトルに対 しての色値計算を行い (具体的には、 生不可視カラー画像信号 , λ2及び λ3に基 準ベクトル (単位ベクトル) をかけ、 不可視カラー画像信号 Riv, Giv及び B ivを 求め、不可視カラー値画像信号 L 、 a iv*、 b iv*と同じ計算式)、また、一方では、 後述するように、 得られた最適な感度関数を基に、 色値計算を行い両者によ.る色 差群 (色再現誤差) が最小になるように Mを決定することにより、 結果的にブラ ス特性だけの感度特性を理想的な感度特性に近づけることができる。
【0 0 7 2】 また、 このべク トル変換処理は、 第二に以下の目的のために行わ れる。 すなわち、 人間の目で、 不可視画像を見たとき、 擬似カラー画像を心理的 且つ生理的に受け入れられるように色補正するために行われる。マトリクス Mは、 例えば、 3 * 3 ( 3行3歹1』) のマトリクスであり、 例えば、 マトリクス Mが単位 行列とすると、何も変換せず、入力値と変換後の出力値は全く同じ強度比になる。 3つの生不可視カラー画像信号 , λ2及び λ3に Mを掛けることにより、基本不可 視力ラー画像信号 Riv, Giv及び B ivに対して濃淡コントロール、又は、色(色相) の回転等を目的としたベク トル変換が可能となる。 結果的には、 基本不可視カラ 一画像信号 R iv, G iv及び B ivから合成される擬似カラー画像 R G B ivの濃淡のコ ントロール、 又は、 色 (色相) の回転等が可能となる。
【0 0 7 3】 なお、 図 3においては、 図 1及び図 2における被写体サンプ Λ^ Ι 0が変更して図示してある (図 1及ぴ図 2における 「りんご」 力 S 「手のひら」 に 変更されている。) 1 可視並びに不可視領域の色度計測が可能なシステム 1にお ける実際の一連の処理においては、 同じ被写体サンプル 1 0に対して処理が行わ れているものとする。すなわち、被写体サンプル 1 0が「りんご」の場合には「り んご」 に対して一連の処理が行われ、 被写体サンプル 1 0が 「手のひら」 の場合 には 「手のひら」 に対して一連の処理が行われているものとする。
【0 0 7 4】 次に、 画像形成処理により、 3つの基本不可視カラー画像 (信号) Riv, Giv及び B ivから擬似カラー画像 R G B ivを合成する (S T 5 )。 擬似カラー 画像 R G B ivは、それぞれ既存の R G Bの発光体に割り当てることが可能であり、 モニタ 5においてディスプレイ表示が可能である。 なお、 基本不可視カラー画像 (信号)と疑似カラー画像は通常 1 : 1で対応するが、 モニタ 5のディスプレイの 発光体種によっては、 調整が必要な場合もある。 【0075】 また、 この画像形成処理においては、 図 4に示すように、 基本不 可視カラー画像 (信号) Riv, Giv及び Bivに対して、 吸収度に基づく擬似吸収カラ 一画像 (信号)を求め(ST 7)、これを用いて吸収度に基づく擬似吸収力ラー画像 を形成してもよい (ST 8)。 ここで、 吸収度に基づく不可視吸収力ラー画像 (信 号)は、 「一 logRiv」、 「一 logGiv」 及び 「一 logBiv」 で表現される。 そして、 これ らを合成することにより吸収度に基づく擬似カラー吸収画像 RGB ίνε を表示す ることができる。 また、 「一 logRiv」、 「一 logGiv」 及び 「一 logBiv」 で表現する 代わりに、 別の表現として、 吸収度に基づく不可視吸収力ラー画像 (信号)を、 K u b e 1 k aMu n k関数のように、 散乱分を加味した吸収度を表す関数等を用 いて、 「(1一 Riv) ゾ 2 Riv」、 「(1一 Giv) 2/2Giv」、 「(1一 Biv) 2/2Biv」 で 表現してもよい (図示せず)。
【0076】 この吸収度に基づく不可視吸収力ラー画像 (信号)及び吸収度に基 づく擬似吸収力ラー画像による表示は、 例えば、 ある波長帯域に特異的な吸収バ ンドを有する試料 (例えば、 植物のクロロフィル) の撮影の時、 その吸収度合い を強度パラメータとして表示することができる点で有効である。
【0077】 更に、 この画像形成処理と平行して表色処理を行う (ST6)。 即 ち、 色表示を行うための表色系に基づき定義される数値の算出を行う。
【0078】 この表色処理は、基本不可視カラー画像 (信号) Riv, Giv及び Biv、 又は、 これらの合成画像である擬似カラー画像 RGBivに対し、 可視光領域にお いて色彩的処理として行われている処理を適用し、 不可視情報を含む基本不可視 カラー画像 (信号) Riv, Giv及び Biv又は擬似カラー画像 R G Bivの色立体上の数 値を求める為の処理である。これは、可視情報のみを含むカラー画像の変わりに、 不可視情報を含む基本不可視力ラ一画像 (信号) Riv, Giv及び B iv又は擬似力ラ一 画像 RGBivを使用し、 基本不可視カラー画像 (信号) Riv, Giv及び Bivを人間の 感覚に近い.、 明度、 彩度、 色相から構成される色立体の座標上の数値で表現して 評価するものである。 【0079】 先ず、 表色処理について説明する前に、 簡単のために、 可視光領 域において色彩的処理として行われている処理について、 基本的色変換である CIELab方式(L* a* b*表色系)を例にして説明する。画像の入力値を XYZとし、 100 %の反射率、 100 %の透過率または 100。/。のエネルギー値を X n、 Y n、 Z n (光源特性で変わる係数) とすると、 ΙΛ a*、 b*は下記式(2) 〜 (4) で表せる。
X
* =116 一 16 (2)
Figure imgf000023_0001
Figure imgf000023_0002
【0080】 ここで、 式 (2) 〜 (4) 中の各係数及び定数は、 L*a*b*空間 で色表示した時にのみ (可視領域の画像の議論でのみ) 有効なものであり、 例え ば、 測定の対象となる波長領域が近赤外領域等の不可視領域となると無意味な係 数となる。
【0081】 これらの式 (2) 〜 (4) に対して、 本実施形態の可視並びに不 可視領域の色度計測が可能なシステム 1における表色処理では、 不可視情報を含 む基本不可視力ラ一画像(信号) Riv, Glv及び B iv又は擬似力ラ一画像 R G B ivの 色立体上の数値として、 下記式 (5) 〜 (7) で表される Liv*、 aiv*、 biv*を定 義して使用する。 (5)
ム ή' ― Λ
G,
Figure imgf000024_0002
Figure imgf000024_0001
【00 8 2】 ここで、 式 (5) 〜 (7) 中、 Rivnは、 測定波長範囲において、 1 00%反射率分布、 透過率分布、 または 1 00%を規定するエネルギー分布に 対し、 感度関数を掛け合わせ、 各々の値を積分した値を、 Rivn、 Givn、 Bivnとし たもののうち、 疑似色赤 (R e d) を代表する値を示す。
【008 3】 また、 Givnは、 測定波長範囲において、 1 00 %反射率分布、 透 過率分布、 または 1 00%を規定するエネルギー分布に対し、 感度関数を掛け合 わせ、 各々の値を積分した値を、 Rivn、 Givn、 Bivnとしたもののうち、 疑似色緑 (G r e e n) を代表する値を示す。
【0084】 更に、 Bivnは、 測定波長範囲において、 1 00%反射率分布、 透 過率分布、 または 1 00%を規定するエネルギー分布に対し、 感度関数を掛け合 わせ、 各々の値を積分した値を、 Rivn、 Givn、 Bivnとしたもののうち、 疑似色青 (B l u e) を代表する値を示す。
【008 5】 また、 式 (5) 〜 (7) 中、 K l、 K a、 K bはそれぞれ定数を 示す。 このシステムでは、 擬似カラーにより色付けされた被写体をディスプレイ を通して人間の目で見る為、 ディスプレイ発色から人間の目に到る経路だけを考 慮すれば良いとも考えられる為、 K l、 K a、 Kbは被写体に無関係にそれぞれ 人間の感覚に合わせて決定しても良く、 結果的に、 可視域の係数と通常は同等で 良いことになる。 しかしながら、 より高いレベルでの検討を行う時、 すなわち、 感度関数に相関のある表色系を考え、 最終的画像を人間が見るということを抜き に検討を行うことも発生する。 その為その時には、 感度関数に合わせて決定して もよい。
【0086】 ここで、 式 (5) 〜 (7) において、 べき乗数である 1 3乗と いう指数を式 (2) 〜 (4) と同じにした理由は、 物体色における輝度 (物理量) と明度 (人間の心理物理量) の関係が、 可視域においては殆どの場合この指数値 で表す事ができる。 また、 本発明のシステムの主たる使用方法は、 不可視物体を 観察しながら、 ディスプレイに映し、 且つその色値を表示、 記録するというもの である為、 表示された擬似力ラーと人間の目の間には可視域の色彩関係が存在す る為、 べき乗数である 1Z3乗という指数をそのまま使うことが有効であると本 発明者らは考えた為である。
【0087】 また、物体色における輝度 (物理量) と明度 (人間の心理物理量) の関係を表現する際にも上記説明と同様に、 上記の指数を用いることが可能とな ると本発明者らは考えているからである。 また、 人間以外の動物の感覚指標 (感 度関数)、無機質なもの感覚指標(感度関数) を取り扱う場合に関しても上記の指 数を用いることが有効であると本発明者らは考えているからである。
【0088】 また、 この表色処理においては、 画像形成処理において図 4を用 いて先に述べたように吸収度に基づく不可視吸収力ラー画像 (信号)を求め、 これ を用いて吸収度に基づく擬似カラー画像を形成している場合には、 Riv, Giv及び Biv並びに RGBivの代りに、吸収度に基づく不可視吸収力ラー画像 (信号) (例え ば、 一 logRiv、 _logGiv及び一 logBiv)或いは吸収度に基づく擬似吸収力ラー画 像 RGBivsを用いてもよい (ST9)。
【0089】 更に、 この表色処理においては、 図 5に示すように、 式 (5) 〜 (7) で表される Liv*、 aiv*、 b を用いて、 下記式 (8) 及び (9) で定義さ れる数値 Hiv。及び C を算出し、 Liv*と合わせて擬似カラー画像 RGBivの色立 体上の別の数値として使用してもよい (ST 10)。 即ち、 Liv* (明度)、 Hiv* (色 相) 及び Civ* (彩度) として表現してもよい。 また、 C (彩度) のかわりに、 下記式 (10) で定義される数値 Siv*を彩度として使用してもよい。
Figure imgf000026_0001
^ = ( ^2+biv^ (9)
Siv― :/ム. (10)
【0090】 上述の表色処理は、 化学的な分光分析に用いられている手法と異 なり、光強度のうち求める波長範囲の光強度の積分値的な量(例えば、 Riv、 Giv、 Biv値) をベースに、 その比
Figure imgf000026_0002
(Riv+ Giv+Biv)、 と Giv値等のスカラー量で、そのエネルギー量を簡便に立体的に表現 したものと同等である。 この立体情報をデフォルメすることにより、 上述したよ うに、 L 、 aiv*、 biv*の表示に変形可能であり、更には、 Liv* (明度)、 Hiv* (色 相) 及び Civ* (彩度) のように別のスカラー量として表すことが可能である。 【009 1】 Liv* (明度) は、 主な中心波長領域の明るさを示しており、 ま た、 C (彩度) は、 グレイライン (即ち Riv、 Giv、 Bivの平均的な明るさライ ン) を基準として、 任意の波長成分強度がどれだけ特徴的に突出しているかを示 しており、 更に、 H (色相) は、 3つのエネルギーで表現される全方向性の中 からどの方向により傾いているかを示す。具体的には可視では、赤、橙、黄、緑、 青、 藍、 紫のような色あいを意味するが、 不可視でもこれと同じである。
【0092】 また、 Liv* (明度)、 Hiv* (色相) 及び Civ* (彩度) はモノクロ画 像なので、何れか 1つに関していわゆる偽カラー(Pseudo Color)画像を形成し、 これをモニタ 5及び/又はプリンタ 6に出力する画像 P 1としてもよい。 更に、 図 5に示すように、 偽カラー (Pseudo Color) 画像である、 Liv*、 Hiv*及ぴ Civ* には、 Liv*、 Hiv*及び C の何れかの値についての濃度情報を示す偽カラーバー 2 1、 2 2及ぴ 2 3をそれぞれ更に表示してもよい (図 1 3参照)。
【00 9 3】 モニタ 5及び Z又はプリンタ 6に出力される画像 P 1について説 明する。 画像 P 1には、 上述の擬似カラー画像 RGBiv又は RGBiveの他に、 被 写体の各種分光スペクトル、 Liv*、 aiv*、 b 、 Hiv riv、 giv等の数値 データの表、 L 、 aiv*、 biv Hiv*、 Civ riv、 g iv等の数値データの 2次元 或いは 3次元グラフ、 等を適宜組み合せて表示してよい。 また、 擬似カラー画像 R G B iv又は R G B ίνεについても、 被写体の全体画像と部分領域の画像とをそれ ぞれ独立に表示してもよい。 更には、 通常の可視光の画像も擬似カラー画像と合 わせて表示してもよい。
【0094】 例えば、 図 6に示すように、 モニタ 5及び/又はプリンタ 6に出 力される画像 Ρ 1として、 擬似カラー画像 RGBivと、 被写体の部分領域 E 1及 び E 2における反射率 Rのプロフィール LE 1及び LE 2を示す分光スぺクトル のグラフ G 1と、 Liv*、 aiv\ biv*、 H 、 Civ*、 r iv、 giv等の数値データの表 T 1を合わせて表示してもよい。 ■
【009 5】 また、 例えば、 図 7に示すように、 モニタ 5及び Ζ又はプリンタ 6に出力される画像 Ρ 1として、 上記 RGBivと、 グラフ G 1と、 aiv*及び biv* の 2次元グラフ G 2 (被写体の部分領域 E 1及び E 2に基づく座標上の点 P E 1 及び座標上の点 PE 2がプロットされている。) と、 u 及ぴ V の 2次元グラフ G 2 (被写体の部分領域 E 1及ぴ E 2に基づく座標上の点 P E 1及び座標上の点
PE 2がプロットされている。) とを合わせて表示してもよい。
【009 6】 なお、 ここで、 「uiv*J とは、 上記可視表色系 CIELWから Liv*、 aiv*、 biv*にモディファイした手法と同様に、 CIE1976L*u*v*からモディファイさ れた L 、 u 、 V のうち、 u を示す。また、「 V iv*」とは、上記可視表色系 CIEL*aV から Liv*、 aiv*、 biv*にモディファイした手法と同様に、 CIE1976LWからモデ ィフアイされた Liv*、 uiv*、 viv*のうち、 viv*を示す。 【0097】 更に、 例えば、 図 8に示すように、 モニタ 5及ぴ Z又はプリンタ 6に出力される画像 P 1として、擬似カラー画像 RGBivと、 riv及び givのダラ フ G 4を合わせて表示してもよい。
【0098】 また、 例えば、 図 9に示すように、 モニタ 5及び/又はプリンタ 6に出力される画像 P 1として、 上記 RGBivと、 グラフ G 2と、 Aaiv*及ぴ Ab の 2次元グラフ G 5 (被写体の部分領域 E 1及び E 2に基づく座標上の点 P (E1_E1)及び座標上の点 Ρ(Ε2-Ε1)がプロットされている。) と、 ALiv*の 1次元グラフ G 6 (被写体の部分領域 E 1及び E 2に基づく座標上の点 P M)及び座標上の点 P (E2E1)がプロットされている。) を合わせて表示してもよい。
【0099】 なお、 ここで、 「Aa 」 とは 2つの a iv*の差を示し、 「Ab 」 と は 2つの a iv*の差を示す。
【0100】 また、 例えば、 図 10に示すように、 モニタ 5及び Z又はプリン タ 6に出力される画像 P 1として、 RGBivと、 グラフ G 1と、 被写体の部分領 域 E 1及び E 2における透過率 A b sのプロフィール LE 1及び LE 2を示す分 光スペク トルのグラフ G 1とを合わせて表示してもよい。 なお、 最初の取り込み 画像数が最小である 3個の場合、 そのままの波長数の折れ線表示でもよいが、 分 光推定し、 データ数を増やしてグラフ化しても良い。
【0101】 更に、 例えば、 図 1 1に示すように、 モニタ 5及び/又はプリン タ 6に出力される画像 P 1として、 RGBivと、 グラフ G 1と、 被写体の部分領 域 E 1及び E 2における KZS値のプロフィール LE 1及び LE 2を示す分光ス ベク トルのグラフ G 1とを合わせて表示してもよい。 なお、 ここで、 「K,S値」 とは、 (吸収係数) Z (散乱係数) を示す。
【0102】 また、 例えば、 図 1 2に示すように、 モニタ 5及び/又はプリン タ 6に出力される画像 P 1として、 Liv*、 aiv*、 biv*の 3次元グラフ G 9 (被写 体の部分領域 E 1及び E 2に基づく座標上の点 P E 1及ぴ座標上の点 P E 2がプ 口ットされている。) 【0103】 更に、 例えば、 図 1 3に示すように、 モニタ 5及び Z又はプリン タ 6に出力される画像 P 1として、 Hiv*の偽カラ^"画像と、 Hiv*値の濃度情報を 数値化したグラフ (偽カラーバー) 22とを合わせて表示してもよい。
【0104】 また、 例えば、 図 14に示すように、 モニタ 5及び Z又はプリン タ 6に出力される画像 P 1として、 Hiv*の偽カラー立体画後と、 Hiv*値の濃度情 報を数値化し、 更に立体表示したグラフ (偽カラーバー) G 10とを合わせて表 示してもよい。
【0105】 また、 吸収度合いの係数 QRiv、 QGiv、 QBiv、 それを用いた色 濃度値 qriv、 qgivへの変更も重要な内容である。 なお、 ここで、 「QRiv」 とは、 一 1 o gRivと (1一 Riv) 2/2Rivと同等であり、 いおゆる Rivの吸収度画像値 を示す。更に、「QGiv」 とは、一 1 o gGivと (1— Giv) 2Z2Givと同等であり、 いわゆる Givの吸収度画像値を示す。 また、 「QBivJ とは、 一 l o gBivと (1 -Biv) 2Z2 Bivと同等であり、 いわゆる Bivの吸収度画像値を示す。
【0106】 更に、 「qriv」 とは、 前述した riv値との補色色度座標値であり、 次式で定義される値を示す。 すなわち、
Figure imgf000029_0001
(Q Riv+Q Giv+Q B iv) で 定義される。 また、 「qgiv」 とは、 前述した giv値との補色色度座標値であり、 次 式で定義される値を示す。 すなわち、
Figure imgf000029_0002
(QRiv+QGiv+QBiv) で定 義される。
【0107】 以下、 図 1 5を参照しながら、 画像処理部 4における画像信号生 成処理で使用される最適な感度関数を決定する方法の一例について説明する。
【0108】 ある被写体サンプルの画像を擬似カラー画像として表示するとい う手法は公知であるが、 被写体サンプルのから取得したい情報に基づいて決定さ れた最適な感度関数を使用して擬似カラー画像を形成する手法はこれまでに提案 されていなかった。 これに対して、 本実施形態の可視並びに不可視領域の色度計 測が可能なシステム 1では、 画像処理部 4における画像信号生成処理において取 得したい情報に基づいて決定した最適な感度関数を使用する。 【0 1 0 9】 撮像システム 1で使用される感度関数 λ1^ λ°2及び λ°3は、 同種の 被写体 1 0からなる被写体群を構成する各被写体 1 0間に生ずる物理的状態又は 化学的状態の観測すべき差異と、 上記被写体群を構成する各被写体 1 0の分光ス ベク トル間に生ずる差異との間の相関関係に基づいて決定される。 なお、 この撮 像システム 1では、 例えば、 撮像する被写体毎に最適な感度関数を予め求めてお き、 そのデータを画像処理部 4中の中央制御装置の記憶装置に格納し、 これを使 用するプログラムを R OMに格納しておいて使用してもよい。 また、 感度関数を 決定するプログラムを上記 R O Mに格納しておき、 求められた最適な感度関数の データを記憶装置に格納して基本不可視カラー画像 (信号) +擬似カラー画像を 形成する毎にこれを使用してもよい。
【0 1 1 0】 図 1 5に示す方法は、 同種の被写体 1 0からなる被写体群を構成 する各被写体 1 0間に生ずる物理的状態又は化学的状態の観測すべき差異を明確 に表現するために、 不可視領域の画像情報に、 人間の視覚特性、 人間の感覚特性 を加味して最適な感度関数を決定する方法である。
【0 1 1 1】 先ず、 図 1 5に示すように、 所定の数の被写体からなる被写体群 に対して、 各被写体間の物理的状態又は化学的状態の観測すべき差異に基づいて 被写体群を幾つかのクラスタ一分けする(S T 1 1 )。なお、この段階で、予め個々 の被写体の分光スぺク トル (分光スぺクトル) をラフに測定しておき、 そのラフ なデータにおける物理的状態又は化学的状態の観測すべき差異と関連付けてクラ スター分けしてもよい。 また、 被写体サンプルの破壊試験又は被破壌試験結果等 他の試験結果を併用してもよい。
【0 1 1 2】 ここでは、 被写体群が 4つのクラスター 1 1〜1 4に分けられる 場合について説明する。次に、 4つのクラスター 1 1 ~ 1 4のそれぞれについて、 全波長領域の分光スぺクトル λ ΐ 1〜λ 1 4 (例えば、反射光スぺクトル、透過光 スぺクトル、 吸収光スぺク トル等の分光スぺク トル) を測定する (S T 1 2 )。 な お、 上述の分光測定は、 撮像システム 1を用いて行ってもよく、 別の分光装置を 使用してもよい。 また、 被写体が全体像では、 各被写体の分光スぺク トルの波形 の差異と、 各被写体間の物理的状態又は化学的状態の観測すべき差異との相関関 係が確認されず、 全体像内の部分領域に上記の差異が存在する場合は、 その部分 領域に関する分光スぺク トルを測定する。
【01 1 3】 次に、 分光スぺクトノレ λΐ 1〜λ14に基づいて、最適な感度関数 \ , λ°2及ぴ λ°3を決定する際のはじめのモデルとなる最初の感度関数 λ , λ 及 び λ°3。を仮定する (ST 1 3)。 最適な感度関数 λ^, XQ 2及び λ°3は、 最初の感度 関数 λ1(), λ。2。及び λ°3。をモディファイしてゆくことにより決定される。 より具体 的には、 モディファイするときの容易性の観点から、 最初の感度関数 λ°1(), λ°20 及ぴ λ。3。はバンドパス状の関数とする。 そのため、 その波長の値を決定すること が重要になる。
【01 14】 最初の感度関数 λ , λ°2。及び λ°3。の波長の値は、 分光スぺクトル の分光データから特長のある波長を選択する。 この特長のある波長の値とは、 例 えば、 分光スぺク トル強度 Iの極大値或いは極小値を与える波長値であることが 多いが、 被写体群を構成する各被写体間の物理的状態又は化学的状態の観測すベ き差異を反映する値であればこれに限定されるものではなく、 例えば、 分光スぺ クトルのショルダ一部分にある波長値であってもよい。そして、上記の波長値 λΑ, λΒ及び λεを決定することにより、バンドパス状の最初の感度関数 。,入。 2。及び λ3。 が作成される。
【01 1 5】 次に、分光スぺクトノレ λΐ 1〜λ14に対して、最初の感度関数 λ°10, λ°2。及び λ°3。をかけて、 基本不可視カラー画像 (信号) Rivl, Givl及び Bivlを得て、 更にこれらを結合することにより、最初の擬似カラー画像 R G B lvlを作成する( S T 14)0
【01 16】 上述のように基本的に被写体群を構成する各被写体間の物理的状 態又は化学的状態の観測すべき差異を反映した特長を Riv, Giv及び Bivの各値に 割付して表すということは、 その特長が基本的な色相を決定することになる。 そ のため、 各々の特長は色相によって代表されることになり、 またその程度、 量は 色の濃淡、 簡単には彩度 (更に厳密には、 明度と彩度の合成ベク トルとなる) で 代表されることに'なる。 その結果、 不可視領域のスペク トルさえも色彩的に特長 を持たせた状態で擬似カラーで表現できることになる。
【0 1 1 7】 R G B ivlを作成後は、この画像を観察しながら最初の感度関数 λ°10, λ°2。及び λ°3。のシエイプを適宜変形して調整する (例えば、 強度 I、 波長値 λΑ, λΒ 及び をかえてもよい。)。 なお、 R G B ivlの段階で色彩的に認識可能な画像を得 ることができる場合には、最初の感度関数 λ^, λ^。及び λ°3。が最適な感度関数 λ^, λα 2及び λΰ 3となる。
【0 1 1 8】 最初の感度関数 λ°1(), λ°2。及び λ°3。のシヱイプを変形する際には、 先ず、 ローレンツ型の関数、 またはガウス分布を仮定して、 はじめのバンドパス 状のシ イプに対して膨らみを設ける。 この膨らみを設ける場合には、 必要以上 に膨らみを增すと、 彩度差が低くなるので過度に行わないように注意する。 また より彩度差を強調して色の選別能力を高めるには、 それぞれのバンドが交わる領 域、 すなわち感度関数が重なる領域にマイナス特性を設けることにより彩度差を 増すことが出来るため、 画像を見ながら、 その感度特性を変え調整を行う。
【0 1 1 9】 なお、 不可視領域の可視化 (擬似カラー化) を行う場合、 可視化 された色が自然では存在しないものの為、 その可視領域と同等の感覚特性を盛り 込むことが好ましい。 例えば、 寒色及び暖色の関係はそのままフ"ル-系、 赤橙系の 関係ならびに、 また自然物を対象にした場合、 新鮮な物は色相で言えば、 青、 緑 系の感覚があり、新鮮でないもの腐敗したものは、褐色、茶、赤系の感覚がある。 その為、 自然物を試料対象にした場合、 バンドパス状の最初の感度関数の波長選 択なちびに、 Riv, Giv及ぴ B ivへの対応は可視領域と同等の感覚特性にあったも のとすることが好ましい。
【0 1 2 0】 決定された感度関数 (特性) は最終的な不可視値 (Riv、 Giv、 B iv、 L iv a iv*及び b ) の値を決定する為、 その感度関数はその都度明記する必 要がある。 し力 しながら、 決定された感度関数がそれぞれ、 試料毎、 使う波長毎 に検証されてゆき、'業界での使用頻度が高くなれば、 その明記方法は簡略化され る。
【0 1 2 1】 更に、 最適な感度関数の決定法としては、 人間の感覚を関与させ ずに最適な感度関数を決定する手法である。 例えば、 主成分分析法を用いて、 平 均ベクトル、 主成分ベクトルを計算し、 これらをそのまま用いて感度関数とする 手法と、 更に 2次的に変換して最適化した値を感度関数とする手法とがある。
【0 1 2 2】 また、 得ようとする擬似カラー画像情報として、 例えば、 人間以 外の動物の視覚特性に合致した画像が要求されている場合には、 例えば、 動物の 錐体の数及び視覚特性に合致した感度関数を最適な感度関数として使用してよい。 更に 2次的に変換して最適化した値を感度関数として使用することが好ましい。
【0 1 2 3】 また、 動物の視覚特性は、 長い年月を通して最適なものが選ばれ てきたようである。 しかしながら、 数学的また分光学的に見ると冗長性 (Redundancy) が多い場合も多々ある。 特に、 人間の場合の錐体特性は Redの錐 体、 Greenの錐体特性は殆ど近似している為、 数学的にはその領域は Redundancy が高いとも言える。 一方、 先に述べた被写体に含有される主成分を分析し数学的 に最適な感度関数を求める場合には、 Redundancyをなるベく減らし、 それぞれ感 度関数を用いて計算された数値の相互間の相関がなるべく少ないものを作り出す ことができる。
【0 1 2 4】 そのため、 結果的には可視領域だけに限っても人間の視覚特性と は違ったものになる。 従って、 不可視領域においても、 動物の感度特性と、 純粋 に数学的に解いたものとにもこれと同じと考えられる。 その為、 結果的にその何 れ (生物学的なものと、 純粋に数学的なもの) もが、 重要な為、 その両方を考慮 した感度特性も用いることとする。
【0 1 2 5】 また、 最適な感度関数の決定法としては、 上述した方法の他に、 以下の方法がある。 即ち、 擬似カラー化を行おうとする被写体の分光スペクトル の波長帯域が例えば 300〜 900 nm程度の紫外、可視、近赤外領域であれば、 先に述べたように大きな波長幅を有する最適な感度関数を決定し、 被写体のオリ ジナルな分光分布 (分光スペクトル) から、 所望の擬似カラー画像を形成するこ とができる。 し力 しながら、 分光スペク トルが比較的長波長側の近赤外領域 (例 えば、 800〜 2500 n mの波長領域) に観測される被写体の擬似力ラ一画像 を作成する場合、 上述の様に幅広い重み付け関数 (感度関数) とオリジナルな分 光分布からは、 所望とする擬似力ラ一画像が得られにく 、場合が多!/、。
【0126】 すなわち、 800〜 2500 n mの波長領域の近赤外領域の分光 スぺクトノレは、 多重共線性が強く、 各物質成分による吸収はそれぞれ広い波長範 囲に分布する。 その為、 可視領域のスぺクトルの様に特異的な吸収スぺクトノレ力 s 現れにくい為、 同種類の物質から構成される被写体の分光スペクトル (反射光ス ぺクトル或いは吸収光スペク トル) は殆ど同じシエイプとなってしまい、 図 15 を用いて説明した方法では、 最適な感度関数を決定することが難しい。
【0127】 この場合には、 重回帰分析 (MLR) 又は主成分回帰分析 (PC R) 法を用いて、 得ようとする被写体の情報 (例えば、 被写体に含まれる特定の 成分の濃度など) と相関の高い波長を選ぶことが可能となる。 この場合、 採取画 像も、 生画像から吸光画像または 2次微分画像に置き換えたものを用いた方が精 度の高い画像を得ることができる。
【0128】 特にこの方法は、 得ようとする擬似カラー画像情報が、 被写体中 に含有される特定の物質の濃度を定量可能に表示するためのものと限定されてい る場合に有効に適用できる傾向にある。
【0129】 このように、 重回帰的手法によって得られた回帰式より、 得よう とする成分の濃度マップ (画像) が得られる為、 これを偽カラー (Pseudocolor) として単一物質濃度の画像として表示してもよいし、 また、 3成分のそれぞれの 濃度マップ (画像) を得て、 この 3枚画像をそれぞれ、 Riv, Giv及び Bivに対応 させ、擬似カラー(F a 1 s e c o 1 o r )化して表示しても良い。これにより、 03009410
それら 3成分が醸し出す映像を直接見ることが可能に ¾り、 また、 これら 3成分 画像から色立体配置画像ができる為、 より高度な解析が可能になる。 この場合、 最適な感度関数の波長幅は狭くなり、 例えば 2 n m間隔の波長幅でそれぞれの画 像を採取した場合、最短波長幅(2 nm)が選ばれる場合が多くなる傾向にある。 【0130】 以下、 図 16を参照しながら、 画像処理部 4におけるべクトル変 換処理で使用される最適なマトリクス Mを決定する方法の一例について説明する。 【01 31】 最初に、 観測すべき被写体から取得したい情報に対応した擬似力 ラー画像の基準となるスぺクトル(以下、 「基準スぺクトル」 とレ、う) を 12本以 上用意する。 この基準スペク トルとは、 先に述べた最適の感度関数と同じ波長領 域内のスぺクトルであって、 採用する表色系 (例えば、 本実施形態においては、 Liv* a iv* b iv*表色系) の色座標空間内に均一に分布可能な色度点を形成させる為 のスぺク トノレである。
【01 32】 ここで、 基準スぺク トルの数を 1 2本未満となると、 精度の高い 色値計算がやや困難になる傾向が大きくなる。 また、 より精度の高い色値計算を 行う観点からは、 基準スペク トルの数は 18本以上であることが好ましい。
【0133】 ここでは、基準べクトルを 1 2本用いる場合について説明する。 先ず、 これらの基準スぺク トル D 1〜D 1 2のそれぞれに対して最適な感度関数 b irs°, gi 及び rirs G (先に述べた最適な感度関数 λ°2及び λ°3に相当するも のである) をそれぞれかけて、 12組の基準となる擬似カラー基本画像信号 (R iv、stnl, ^iv^stnU t ivstnl 〜 (kivstnl2, ^ivstni2, iv、 stnl2) 成 - 、 これらを用いて、 先に述べた式 (5) 〜 (7) に示した計算を行い、 Liv*aiv*b iv*表色系の色座標空間 C 1内に分布する 1 2個の色度点 P i 1〜P i 12を求め る (ST 1 5)。
【01 34】 次に、 分光光学部 2により得られる物理的な感度関数 birp、 girp 及び rirp (先に述べた図 2を用いて説明した、 n個 (nt 3) のデジタル化され たバンドパス画像(信号) λ31, λ32···λに相当するものである) に、 マトリクス Μ (初回の場合は 3行 3列の単位行列) をかけて得られる感度関数 bir D gir G及び r を求める。 次に、 基準スぺク トル D 1 D 1 2のそれぞれに対してこの感度 関数 b 、 g 及び r をそれぞれかけて、 1 2組の擬似カラー基本画像信号(R iv smpl' G iv smpi t> iv smpi) 〜 ( k iv smpl2 G iv smpl2j t> iv smpl2 ¾-丄成 ヽ これらを用いて、 先に述べた式 (5) (7) に示した計算を行い、 Liv*aiv*b 表色系の色座標空間 C 1内に分布する 1 2個の色度点 P r l P r 1 2を求め る (ST 16)。
【0135】 次に、 色座標空間 C 1内において、 色度点 P i 1と色度点 P r 1 との間の色差(色再現誤差)、色度点 P i 2と色度点 P r 2との間の色差(色再現 誤差)、 色度点 P i 3と色度点 P r 3との間の色差 (色再現誤差)、 色度点 P i 4 と色度点 P r 4との間の色差(色再現誤差)、色度点 P i 5と色度点 P r 5との間 の色差(色再現誤差)、色度点 P i 6と色度点 P r 6との間の色差(色再現誤差)、 色度点 P i 7と色度点 P r 7との間の色差(色再現誤差)、色度点 P i 8と色度点 P r 8との間の色差 (色再現誤差)、色度点 P i 9と色度点 P r 9との間の色差(色 再現誤差)、 色度点 P i 10と色度点 P r 1 0との間の色差 (色再現誤差)、 色度 点 P i 1 1と色度点 P r 1 1との間の色差(色再現誤差)、色度点 P i 1 2と色度 点 P r 1 2との間の色差(色再現誤差)がそれぞれ最小値となるように、上記(S T 16) におけるマトリクス Mの値を変化させ、 最適のマトリクス Mを求める。 マトリクス Mの値は、 最小自乗法等の公知の数学的処理によって行うことができ る。
【0136】 なお、 上述の方法と異なる Mの決定法としては、 PCA (主成分 分析) 手法がある。 被写体中の主成分分析では、 新しく作るベクトルは、 効率良 く説明できる直交ベク トル (ローデイング) を空間内に作り出すことに相当する 為、 基本的にマトリクス Mをかけて作るベクトル変換と同じ意味になる。 そのた め、 この手法も利用できる。
【0137】 [第二実施形態] 03009410
【0138】 次に、 本発明の可視並びに不可視領域の色度計測が可能 ムの第二実施形態について説明する。
【0139】 この第二実施形態の可視並びに不可視領域の色度計測が可能なシ ステム 1 Aは、 図 1に示した第一実施形態の可視並びに不可視領域の色度計測が 可能なシステム 1におけるカメラ部 2を異なる構成に代え、 更に、 分光光学部 2 aと光電変換部 2 bとの間に波長変換部 7を設けたこと以外は第一実施形態の可 視並びに不可視領域の色度計測が可能なシステム 1と同様の構成を有する。
【0140】 波長変換光学部 7は、 分光光学部か出力される 3以上の成分光の それぞれを波長変換することにより 3以上の成分光のそれぞれに対して光学的に 感度関数をかけて、 3以上の成分光のそれぞれに対応した 3以上の擬似カラー成 分光を生成させるものである。
【0141】 次に、 図 1 8を参照して、 第二実施形態の可視並びに不可視領域 の色度計測が可能なシステム 1 Aの動作について説明する。 なお、 この可視並び に不可視領域の色度計測が可能なシステム 1 Aの動作については、 可視並びに不 可視領域の色度計測が可能なシステム 1と異なる動作のみ説明する。
【0142】 先ず、 被写体サンプル 10から放射される全ての波長領域の放射 光 L 1を、 分光光学部 2 aに受光する。 このとき受光する画像としては、 被写体 サンプル 10の全体像 P。であってもよく、その部分領域 E 1の何れであってもよ い。 そして、 受光画像の連続放射スぺクトノレ λ°30は、 例えば、 入射光を 3つに分 光可能な分光プリズム (分光光学部 2 a) により、 互いに異なる中心波長をそれ ぞれ有する 3つの成分光に分解される (ST 1A) 〜 (ST 2A)。
【0143】 次に、 分光プリズムから出射される 3つの成分光は、 分光プリズ ムの 3つの光出射面にそれぞれ配置された光学フィルタ (波長変換部 7) により 波長変換される (ST 2A)。 ここで、光学フィルタは、 3つの成分光のそれそれ にあわせた最適の感度特性 (感度関数) λ^, λ°2) λ°3を有する。 そのため、 分光 プリズムから出射される 3つの成分光は、 波長変換を受ける際に光学的に感度関 TJP2003/009410
数をかけられて 3つの擬似力ラ一成分光に変化される。
【0144】 次に、 光電変換部 2 bにおいて、 3つの擬似カラー成分光はそれ ぞれ光電変換されて、 3つの擬似カラー成分光に対応した 3つの擬似カラー基本 画像信号 , λ2及び λ3が形成される (ST 3A)。
【0145】 以上、 本発明の実施形態について詳細に説明したが、 本発明は上 記実施形態に限定されるものではない。
【0146】 また、 上記実施形態の表色処理においては、 表色系として L* a* b*表色系を基本として定義した 「Liv*aiv*b 表色系」 を用いる場合について説 明したが、本発明の可視並びに不可視領域の色度計測が可能なシステムにおいて、 画像処理部において行われる表色処理に使用する表色系は特に限定されるもので はなく、 上記 L* a * b *表色系以外の表色系を基本とする表色系を定義して使用し てもよい。 例えば、 基本となる表色系としては、 C i e 1 u v表色系、 Hun t e r L a b表色系、 AN 40表色系、 マンセル表色系、 ォストワルド表色系、 N a t u r a l C o l o r S y s t em (NCS) 表色系等が挙げられ、 これら を基本とした表色系 (し & 表色系にかゎる表色系) を定義して使用して ちょい。
【0147】 また、 例えば、 上述の第一実施形態の可視並びに不可視領域の色 度計測が可能なシステム 1において、成分光の入力値を吸収度値に置き換えた後、 感度関数 λ。2及び λ°3をかけて、 先に述べた吸収度に基づく擬似カラー画像信 号、 一 logRiv、 一 logGiv及び一 logBiv、 並びに、 これらより合成される吸収度に 基づく擬似カラー画像 RGB ίνεを求めてもよい。
【0148】 例えば、 感度関数は、 被写体群を構成する各被写体間に生ずる物 理的状態又は化学的状態の観測すべき差異と、 被写体群を構成する各被写体の分 光スぺタトル間に生ずる波形の差異との間の相関関係に基づいて決定されるのが 通常であるが、 特に限定されない。
【0149】 例えば、 図 1 9に示すような可視の波長領域にある関数だけでな く、 図 20に示すように可視より短い紫外領域の波長域と可視領域ならびに可視 より長い近赤外領域の領域にある関数でもよい。 また、 図 2 1に示すように可視 領域内のある幅の波長域を 3領域に分けて取り込む形を有する関数でもよい。 ま た、 図 22に示すようにブロードなバンド特性を有する関数でもよい。
【0150】 また、 感度関数は、 一般的に RGBの 3基準色を基にしたディス プレイが多い為、 上述の実施形態に記載のように 3つに集約することを基本とし ているが、 表色処理で使用する表示系によっては、 3つ以上であってもよい。 例 えば、 Red、 Yellow, Green, Blue等の 4色の場合もあるため、 4つに集約されて あよい。
【015 1】 以下、 実施例及び比較例を挙げて本発明の可視並びに不可視領域 の色度計測が可能なシステムについて更に詳しく説明するが、 本発明はこれらの 実施例に何ら限定されるものではない。
【0152】 (実施例 1 )
【0153】 図 1に示した第一実施形態を同様の構成を有する可視並びに不可 視領域の色度計測が可能なシステムを構成した。
【0154】 先ず、 6種類の黒色ボールペン及ぴフェルトペン (以下、 それぞ れを、「SAS— S (M)」、「P i gma」、「Tw i n (T)」、「S h a r pH (M)」、
「Un i—B a l 1 (M)J、 「N—500 (Z)j と表記する) を用意し、 それぞ れのペンを用いて白紙の一部位 (それぞれ約 4 cm2) を塗りつぶした試料と、 3 種の黒色礼服生地 (以下、 「No. 1」、 「No. 2」、 「No. 3」 と表記する) の 試料(それぞれ約 25 cm2) を上記の可視並びに不可視領域の色度計測が可能な システムを用いて撮像した。
【0155】 なお、 「SAS— S (M)」 は、 三菱社製、 商品名:「SAS- Sj を示 し、 「P i gma」 は、 サクラ社製、 商品名 :「Nouvel Pigma Graphic 」 を示し、 「Tw i n (T)」 は、 トンボ社製、 商品名 :「筆ペン ついん」 を示し、 「S h a r pH (M)」 は、 三菱社製、 商品名:「UniO.5HB」 を示し、 「Un i— B a 1 1 09410
(M)」 は、 三菱社製、 商品名:「Uni - Ball」 を示し、 「N— 500 (Z)j は、 ゼ ブラ社製、 商品名:「N - 500」 を示す。
【0156】 それぞれの試料を可視並びに不可視領域の色度計測が可能なシス テムにて撮影し、 それぞれの試料のある一部位の一定エリア (約 1 cm2) 内の平 均化された反射率値を求めた。 その結果を図 23及ぴ図 24に示す。
【0 157】 図 23及び図 24に示す各試料の反射率のプロフィールの結果か らわかるように、 各ペン試料の黒インクと、 各黒色礼服生地試料の反射率は可視 領域において、低い値を示しており、黒或は灰色と認識されることが確認された。 また、 これらの試料の中には、 近赤外領域 おいて高い反射率を示すもの (SA S-S (M)、 「Tw i n (T)」、 「N— 500 (Z)」、 「N o . 2」 及び 「No. 3」) も確認された。
【0158】 各試料に対して上記の可視並びに不可視領域の色度計測が可能な システムを使用して、従来法である可視域の力ラ一画像における色表示、並びに、 本発明の可視並びに不可視領域の色度計測が可能なシステムにおける不可視領域 の擬似力ラ一画像における色表示を行つた。
【0159】 図 23及び図 24に示す各試料の反射率のプロフィールのデータ を用いて、 擬似カラー画像における色表示の最適の感度関数を先に図 1 5を用い て説明した方法により求めた。 その結果を図 25に示す。 また、 図 25に示した 最適の感度関数を用いて先に図 16を用いて説明した方法により下記式 (1 1) に示すマトリクス Mを求めた。
1.031 -0.111 0.080
-0.051 1.070 -0.020 (11)
0.070 -0.050 0.979
【0160】 また、 上記の図 25に示したプラスだけの感度特性に式 (1 1) で表されるマトリクス Mをかけることにより、 図 26に示す最適な感度関数 (理 想感度特性値) を求めた。 ここで、 第一実施形態の可視並びに不可視領域の色度 計測が可能なシステムの場合には、 分光イメージング的手法にて、 それぞれの波 長に分割したバンドパス画像 (図 2参照) を捉えることができる。
【016 1】 その為、 それぞれのバンドパス画像に図 26に示す最適な感度関 数 (理想特性値) を掛けあわせ、 それぞれの画像値を積分すれば、 生不可視カラ 一画を作らずに、 直接、 基本不可視カラー画像 (Riv、 Giv、 Biv) を作ることが でき、 擬似カラー画像 (RGBiv) ならび不可視値カラー値画像 (Liv*、 aiv\ b ) が得られ、 同時に値もそれぞれ画素に対する測定値も同時に決まるものであ る。
【0162】 なお、 第二実施形態の可視並びに不可視領域の色度計測が可能な システムのように、 光学フィルタ等により光学的に感度関数をかける構成の場合 には、 図 25のように感度特性はプラスのものしかできない為、 下記式 (1 2) を用いて、 最適な感度関数図 26に変換する必要がある。 参考までに計算上で逆 の操作が必要な場合、 すなわち、 最適な感度関数から、 プラスだけの感度特性へ は、 下記式 (1 2) に示すマトリクス 「M— を用いて計算することが可能であ る。 またこの (1 1) 及び (12) の値は、 今回の実験結果に有効なマトリック ス値である。
0.980 0.098 -0.078
M— 1 = 0.045 0.940 0.016 (12)
-0.068 0.041 1.028
【0163】 可視領域のカラー画像及びその色表示のための数値を従来法を用 いて計算を行い求めた。 更に、 不可視領域の擬似カラー画像及びその色表示のた めの数値を図 26に示した最適な感度関数を用いて計算して求めた。その結果を、 図 27、 図 28及ぴ図 29に示す。
【0164】 図 27では、 可視領域( 380〜 780 n m)のデータを使用し、 2度視野の等色関数を用いて X Y Z計算し、 Cielab計算を行つたものを表示した グラフである。 全試料について、 色度座標の無彩軸 (a 0,b*=0) 上に集まる傾向 があることが確認された。 また、 これらの画像は全て黒で表示された。 この画像 の平均値の生データを表 1に示す。
Figure imgf000042_0001
【0165】 表 1には、 Internet用表色系である s尺08値ならびに 2値 と L*a*b*値を表した。 表 1に示す結果から明らかなように、 各試料の画像データ 値 RsRGB、 GsRGB、 BsRGB値は White255 に対し、 0〜1 1の値で、 極めて低く、 殆 ど黒色と認識されることが確認された。 若干の色の濃淡は判るが、 各試料の色味 の差の認識は不可能であつた。
【0166】 図 28は、 550〜950nmのデータを用い、 図 26に示す理想、感度 特性を用いて計算したものである。 また、 L 、 aiv*、 biv*値計算は式 (5) 〜 (7) を用いた。 この場合、 近赤外領域のスペク トルの差違が判別でき、 3種 の数値 (L 、 aiv*、 biv*) の特徴が色度座標上で区別できた。
【0167】 また、 この場合、 えられる擬似カラー画像上でも 「SharpH(M)」 , rPigma(N)j , 「Uni - ball (M)」 が同一種と判別でき、 映像では黒色として表示さ れた。 更に、 この場合、 「SAS- S(M)」 と 「N- 5000(Z)J の 2種は、 非常に彩度の高 い黄色で表示された。また、この場合、「TVin(T)」は鮮やかな赤色で表示された。 明確に数値で判別でき、 また画像上の色で判別できた。 この画像の生データを表 2に示す。 03009410 表 2
Figure imgf000043_0001
【0 1 6 8】 図 29では、 550 950nmのデータを用い、 図 26に示す最適感 度関数 (理想感度特性) を用いて計算したものである。 また、 L 、 aiv* b iv*値計算は式 (5) (7) を用いた。 なお、 式 (5) (7) において、 Kl=l, ka=l, kb=l とした。 擬似カラー画像に関しては、 図 28のものと同じである。 こ の画像の生データを表 3に示す。
表 3
Figure imgf000043_0002
【0 1 6 9】 この場合にも不可視の色度値にて明確に各試料の判別ができた。 また、 擬似カラー画像も可視域で全て黒色で表示されたものが、 黒色、 黄色及ぴ 赤色のことなる色の擬似カラー画像として区別して表示することができた。 例え ば、 このような手法により、 文字の改ざん等の判別問題も解決できることが確認、 された。
【0 1 70】 また、 図 2 8と図 2 9の結果を比較すると、 図 28の a の方が 図 2 9の aiv*よりも広がって分布しているのが確認できる。これは式(2) (4) 03009410
と、式(5) 〜(7) との違い、すなわち、可視式の a*を求める係数が 500で、 不可視式の a 求める係数 (Ka) が 200の為、 単純に可視式 (2) 〜 (4) を用いて求めた a iv*値の方が 2. 5倍伸びているということである。
【0171】 これに関しては、 次の様に二通りの考え方ができる。 即ち、 一つ めは、 不可視領域は、 目に見えない範囲であるから、 目に合致した係数 ( は1 1 6, 1>*は200, a*は 500) を当てはめることは、 意味が無いと言える。 し力、し、 次の様にも考えられる。 即ち 2つめは、 不可視域の光量比率を色として 考える場合、 上記のように擬似カラーに割り当てて考えると判りやすい。
【0172】 すなわち、 不可視領域のエネルギー量を擬似カラー化して、 RG Bディスプレイを通して人間が見るということを基本と考えるものである。 この 場合、 不可視領域のエネルギー値でも、 いったん擬似カラー化すると、 それを見 るのは人間の為、 人間の見え方に則って考える必要があるとも言える。 即ち、 可 視領域と同様な色差式(色彩表示式)を用いた方が、良いと考えることもできる。 【0173】 その為、 式 (5) 〜 (7) では、 不可視を基準と考えている為、 無機的な基準値にすること (即ち両方とも、 200, 200) が基本となってい るが、 どちらの考え方 (即ち、 あくまでも不可視領域の内部的な計算式として考 えることと、 不可視領域から可視領域に一度変換して、 それを人間が見ることを 前提に色値を考えること。) にも当てはめられる様に、 式 (3) では、 Kl,Ka,Kb という係数を取り入れ、 どちらにも対応できるようになつている。
【0174】 図 30、 図 3 1及び図 32は、 試料をペンから、 礼服生地にかえ た以外は、 それぞれ、 図 27、 図 28及び図 29と同様にして整理されたグラフ である。 図 30、 図 3 1及び図 32に示されるように、 可視領域では殆ど黒とし か認識されないものが、 不可視色度座標を用いると、 「N o. 3 J、 「No. 2」 の試 料に関しては、 赤の色度値になっていることが判る。 また擬似カラー画像でも、 「No. l」 の試料を用いて作製された洋服は黒色として表示されるが、 「No.
3」 の試料は赤、 「No. 2」 の試料は 「No. 3」 の試料より彩度の高い赤色とし て表現された。
【0 1 7 5】 このように可視のカラーシステムでは、 可視領域の僅かな差とそ れ以外の本質的な品質評価が難しいものが、 本発明のシステムにより、 明確に判 るように擬似カラー画像表示できることが確認された。
産業上の利用可能性
【0 1 7 6】 本発明の可視並びに不可視領域の色度計測が可能なシステムによ れば、 被写体サンプルから取得したい所望の情報を、 不可視の色値並びに擬似力 ラー画像の色表示を利用して定量的に評価することが充分に可能となる。

Claims

請求の範囲
1 . 被写体サンプルから放射される全ての波長領域の放射光を受光し、 該放射 光を互いに異なる中心波長を有する 3以上の成分光に分光する分光光学部と、 前記 3以上の成分光をそれぞれ光電変換し、 前記 3以上の成分光にそれぞれ対 応した 3以上の電気信号をそれぞれ生成させる光電変換部と、
前記 3以上の電気信号を加工することにより、 前記サンプ の擬似力ラ一画像 の生成と、 該擬似力ラ一画像の色表示を行うための表色系に基づき定義される数 値の算出とを行う画像処理部と、
前記擬似カラー画像及び Z又は前記数値を出力する画像出力部と、
を少なくとも有しており、
前記画像処理部は、
前記 3以上の電気信号の全てに対して 3以上の感度関数をそれぞれ独立にかけ ることにより 3以上の擬似カラー基本画像信号を生成させる画像信号生成処理手 段と、
前記 3以上の擬似カラー基本画像信号にマトリクス Mをかけてべクトル変換す ることにより、 前記 3以上の擬似カラー画像信号を生成させるベタトル変換処理 手段と、
前記 3以上の擬似カラー画像信号を合成して前記擬似カラー画像を生成させる 画像形成処理手段と、
前記 3以上の擬似カラー画像信号を用いて前記表色系に基づき定義される前記 数 を算出する表色処理手段と、
を少なくとも有しており、 - 前記 3以上の感度関数は、 前記被写体サンプルが属する被写体群を構成する各 被写体間に生ずる物理的状態又は化学的状態の観測すべき差異と、 前記被写体群 を構成する各被写体の分光スぺクトル間に生ずる波形の差異と、 の間の相関関係 に基づいて決定されており、 '前記マトリクス Mは、 最適な感度特性に近づける為のマトリックスであり、 結 果的に前記 3以上の擬似力ラ一画像信号を生成させる際に生じる色再現誤差が最 小限となるように決定されていること、
を特徴とする可視並びに不可視領域の色度計測が可能なシステム。
2 . 被写体サンプルから放射される全ての波長領域の放射光を受光し、 該放射 光を互いに異なる中心波長を有する 3以上の成分光に分光する分光光学部と、 前記 3以上の成分光のそれぞれに対して設けられており、 前記 3以上の成分光 のそれぞれを波長変換することにより前記 3以上の成分光のそれぞれに対して光 学的に感度関数をかけて、 前記 3以上の成分光のそれぞれに対応した 3以上の擬 似カラ一成分光を生成させる波長変換光学部と、
前記 3以上の擬似カラー成分光をそれぞれ光電変換し、 前記 3以上の擬似力ラ 一成分光にそれぞれ対応した 3以上の擬似カラー基本画像信号をそれぞれ生成さ せる光電変換部と、
前記 3以上の擬似力ラ一基本画像信号を加工することにより、 前記サンプルの 擬似カラー画像の生成と、 該擬似カラー画像の色表示を行うための表色系に基づ き定義される数値の算出とを行う画像処理部と、
前記擬似カラー画像及び Z又は前記数 を出力する画像出力部と、
を少なくとも有しており、
前記画像処理部は、
前記 3以上の擬似カラー基本画像信号にマトリクス Mをかけてベタトル変換す ることにより、 前記 3以上の擬似カラー画像信号を生成させるべクトル変換処理 手段と、
前記 3以上の擬似カラー画像信号を合成して前記擬似カラー画像を生成させる 画像形成処理手段と、
前記 3以上の擬似カラー画像信号を用いて前記表色系に基づき定義される前記 数値を算出する表色処理手段と、 を少なくとも有しており、
前記 3以上の感度関数は、 前記被写体サンプルが属する被写体群を構成する各 被写体間に生ずる物理的状態又は化学的状態の観測すべき差異と、 前記被写体群 を構成する各被写体の分光スぺク トル間に生ずる波形の差異と、 の間の相関関係 に基づいて決定されており、
前記マトリクス Mは、 最適な感度特性に近づける為のマトリックスであり、 結 果的に前記 3以上の擬似力ラ一画像信号を生成させる際に生じる色再現誤差が最 小限となるように決定されていること、
を特徴とする可視並びに不可視領域の色度計測が可能なシステム。
3 . 前記被写体サンプルの全体像について生成された擬似カラー画像と、 前記 被写体サンプルの部分領域像について生成された擬似カラー画像とをそれぞれ独 立に画像出力部へ出力可能であること、 を特徴とする請求項 1又は 2に記載の可 視並びに不可視領域の色度計測が可能なシステム。
4 . 前記被写体サンプルの全体像について測定された分光スペク トルと、 前記 被写体サンプルの部分領域像について測定された分光スぺク トルとをそれぞれ独 立に画像出力部へ出力可能であること、 を特徴とする請求項 1〜 3の何れかに記 載の可視並びに不可視領域の色度計測が可能なシステム。
5 . 前記被写体サンプルの全体像について算出された前記数値と、 前記被写 体サンプルの部分領域像について算出された前記数^ f直とを表又はグラフとしてそ れぞれ独立に画像出力部へ出力可能であること、 を特徴とする請求項 1〜 4の何 れかに記載の可視並びに不可視領域の色度計測が可能なシステム。
6 . 前記被写体サンプルの内部及び表面の任意のボイントにおける色値を計測 することを特徴とする請求項 1〜 5の何れかに記載の可視並びに不可視領域の色 度計測が可能なシステム。
PCT/JP2003/009410 2002-08-09 2003-07-24 可視並びに不可視領域の色度計測が可能なシステム WO2004015381A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
AU2003252261A AU2003252261A1 (en) 2002-08-09 2003-07-24 System for measuring chromaticity in visible and invisible regions
EP03784482A EP1530033A4 (en) 2002-08-09 2003-07-24 SYSTEM FOR MEASURING THE CHROMATIC LEVEL OF VISIBLE AND INVISIBLE ZONES
CA002495174A CA2495174A1 (en) 2002-08-09 2003-07-24 System enabling chromaticity measurement in the visible and invisible ranges
US11/052,470 US20050182328A1 (en) 2002-08-09 2005-02-08 System enabling chromaticity measurement in the visible and invisible ranges

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002233809A JP4080812B2 (ja) 2002-08-09 2002-08-09 可視並びに不可視領域の色度計測が可能なシステム
JP2002-233809 2002-08-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/052,470 Continuation-In-Part US20050182328A1 (en) 2002-08-09 2005-02-08 System enabling chromaticity measurement in the visible and invisible ranges

Publications (1)

Publication Number Publication Date
WO2004015381A1 true WO2004015381A1 (ja) 2004-02-19

Family

ID=31711878

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/009410 WO2004015381A1 (ja) 2002-08-09 2003-07-24 可視並びに不可視領域の色度計測が可能なシステム

Country Status (5)

Country Link
EP (1) EP1530033A4 (ja)
JP (1) JP4080812B2 (ja)
AU (1) AU2003252261A1 (ja)
CA (1) CA2495174A1 (ja)
WO (1) WO2004015381A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972125A (zh) * 2022-07-29 2022-08-30 中国科学院国家天文台 深空探测多光谱图像的真彩色图像恢复方法和装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006120794A1 (ja) 2005-05-11 2006-11-16 Olympus Medical Systems Corp. 生体観測装置用信号処理装置
JP4504324B2 (ja) * 2005-05-13 2010-07-14 オリンパスメディカルシステムズ株式会社 生体観測装置
JP5547717B2 (ja) 2009-04-07 2014-07-16 ローム株式会社 光電変換装置および撮像装置
JP5874116B2 (ja) * 2009-07-30 2016-03-02 国立研究開発法人産業技術総合研究所 画像撮影装置および画像撮影方法
TWI392859B (zh) * 2009-11-18 2013-04-11 Univ Nat Formosa 可量測光之色度座標與亮度之裝置與方法
JP5918956B2 (ja) * 2011-09-26 2016-05-18 学校法人光産業創成大学院大学 画像表示装置
WO2016159189A1 (ja) * 2015-03-31 2016-10-06 株式会社ニコン 撮像装置
JP2019128295A (ja) * 2018-01-25 2019-08-01 国立研究開発法人産業技術総合研究所 撮像装置、撮像システム、及び撮像方法
JP7077646B2 (ja) * 2018-02-13 2022-05-31 株式会社ニコン 画像生成装置、撮像システム、プログラム、画像生成方法、情報管理システムおよび端末
JP7028075B2 (ja) 2018-06-12 2022-03-02 オムロン株式会社 画像処理装置、画像処理方法、画像センサ

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62182705A (ja) * 1987-01-24 1987-08-11 Olympus Optical Co Ltd 内視鏡装置
JPS63234941A (ja) * 1986-11-29 1988-09-30 オリンパス光学工業株式会社 内視鏡用撮像装置
JPH06121325A (ja) * 1992-10-07 1994-04-28 Nippon Hoso Kyokai <Nhk> カラー撮像装置
JPH11328392A (ja) * 1998-05-19 1999-11-30 Konica Corp 画像処理装置
JP2000171301A (ja) * 1998-12-07 2000-06-23 Hochiki Corp 微分スペクトル画像処理装置
JP2002171519A (ja) * 2000-11-29 2002-06-14 Yuutekku:Kk 赤外線カラー画像形成装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002543863A (ja) * 1999-05-07 2002-12-24 アプライド スペクトラル イメイジング リミテッド 眼の分光的生物画像化

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63234941A (ja) * 1986-11-29 1988-09-30 オリンパス光学工業株式会社 内視鏡用撮像装置
JPS62182705A (ja) * 1987-01-24 1987-08-11 Olympus Optical Co Ltd 内視鏡装置
JPH06121325A (ja) * 1992-10-07 1994-04-28 Nippon Hoso Kyokai <Nhk> カラー撮像装置
JPH11328392A (ja) * 1998-05-19 1999-11-30 Konica Corp 画像処理装置
JP2000171301A (ja) * 1998-12-07 2000-06-23 Hochiki Corp 微分スペクトル画像処理装置
JP2002171519A (ja) * 2000-11-29 2002-06-14 Yuutekku:Kk 赤外線カラー画像形成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1530033A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972125A (zh) * 2022-07-29 2022-08-30 中国科学院国家天文台 深空探测多光谱图像的真彩色图像恢复方法和装置

Also Published As

Publication number Publication date
JP2004077143A (ja) 2004-03-11
AU2003252261A1 (en) 2004-02-25
EP1530033A1 (en) 2005-05-11
EP1530033A4 (en) 2011-10-05
CA2495174A1 (en) 2004-02-19
JP4080812B2 (ja) 2008-04-23

Similar Documents

Publication Publication Date Title
Sangwine et al. The colour image processing handbook
US20050182328A1 (en) System enabling chromaticity measurement in the visible and invisible ranges
Pike Using digital cameras to investigate animal colouration: estimating sensor sensitivity functions
US20080080766A1 (en) Apparatus and Method for Analyzing Skin Using L*a*b* Colorspace
US20210075978A1 (en) Hybrid Visible and Near Infrared Imaging with an RGB Color Filter Array Sensor
JP2008527350A (ja) 赤外検出による化粧品色彩測定システム
WO2004015381A1 (ja) 可視並びに不可視領域の色度計測が可能なシステム
WO2016152900A1 (ja) 画像処理装置及び撮像装置
Wego Accuracy simulation of an LED based spectrophotometer
HUE032787T2 (en) Calibration colorimeter
Gökmen et al. A non-contact computer vision based analysis of color in foods
CN106952313A (zh) 基于HSI和Lab混合颜色模型的皮肤肤色评价方法
JP2012154711A (ja) 分光スペクトル推定装置および学習スペクトル生成方法
Stanikunas et al. Investigation of color constancy with a neural network
CN106846422B (zh) 皮肤防晒情况的识别方法
Aguilar et al. Biologically based sensor fusion for medical imaging
Kuzio et al. Color accuracy-guided data reduction for practical LED-based multispectral imaging
EP2866008B1 (en) Tone type identification method
JP2003144393A (ja) しみ・そばかす評価方法
Khandual et al. Colorimetric processing of digital colour image!
KR101976026B1 (ko) 퍼스널 컬러의 네일 매칭 시스템 및 방법
Litorja et al. Illuminants as visualization tool for clinical diagnostics and surgery
Zhao et al. Improvement of spectral imaging by pigment mapping
JP2874235B2 (ja) 色彩測定方法
Ding et al. Application of color mixing for safety and quality inspection of agricultural products

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PH PL PT RO RU SC SD SE SG SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2495174

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 11052470

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2003784482

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003784482

Country of ref document: EP