JP2016213623A - Image processing apparatus, image processing system, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing system, image processing method, and image processing program Download PDF

Info

Publication number
JP2016213623A
JP2016213623A JP2015094448A JP2015094448A JP2016213623A JP 2016213623 A JP2016213623 A JP 2016213623A JP 2015094448 A JP2015094448 A JP 2015094448A JP 2015094448 A JP2015094448 A JP 2015094448A JP 2016213623 A JP2016213623 A JP 2016213623A
Authority
JP
Japan
Prior art keywords
image
band
illumination light
multiband
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015094448A
Other languages
Japanese (ja)
Other versions
JP6317703B2 (en
Inventor
勝 土田
Masaru Tsuchida
勝 土田
稔 森
Minoru Mori
稔 森
邦夫 柏野
Kunio Kashino
邦夫 柏野
淳司 大和
Atsushi Yamato
淳司 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015094448A priority Critical patent/JP6317703B2/en
Publication of JP2016213623A publication Critical patent/JP2016213623A/en
Application granted granted Critical
Publication of JP6317703B2 publication Critical patent/JP6317703B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate an image under arbitrary observation illumination light using a reflection component and a fluorescent component, without requiring estimation of the absorption characteristics of the fluorescent component, by a multiband image captured by performing spectroscopy with a wavelength width broader than conventional one.SOLUTION: A fluorescent component separation unit 40 separates a multiband image into a reflection component image and a fluorescent component image. A weighting factor calculation unit 44 calculates a weighting factor for the fluorescent component image of each band, by the shooting illumination light spectrum, wavelength selection characteristics of a second optical element, and observation illumination light spectrum. A multiband fluorescent component image generation unit 42 generates a multiband fluorescent component image on the basis of the fluorescent component image for each band of shooting illumination light, and the weighting factor. A fluorescent component color reproduction unit 28 generates a fluorescent component color reproduction image by calculating the fluorescent spectrum, a reflection component color reproduction unit 26 generates a reflection component color reproduction image by calculating a reflection spectrum. An image synthesis processing unit 30 generates a color reproduction result image by adding both color reproduction images, and outputs that image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing system, an image processing method, and an image processing program.

非特許文献に示されるように、蛍光特性の計測は、単波長光もしくは狭帯域な単色光を入射光とし、入射光の波長を変化させながら、各入射光における射出光の分光スペクトルを計測する必要があった。また最近では、非特許文献2及び3に示されるように、2種類の照明光下でそれぞれ撮影された分光画像を用いた、反射光と蛍光の分光成分を推定する手法が開発されている。   As shown in non-patent literature, fluorescence characteristics are measured by using a single wavelength light or narrow-band monochromatic light as incident light and measuring the spectrum of the emitted light for each incident light while changing the wavelength of the incident light. There was a need. Recently, as shown in Non-Patent Documents 2 and 3, a technique for estimating spectral components of reflected light and fluorescence using spectral images taken under two types of illumination light has been developed.

A. Lam, and I. Sato, “Spectral modeling and relighting of reflective-fluorescent scenes”, Proc. CVPR, pp. 1452-1459, 2013A. Lam, and I. Sato, “Spectral modeling and relighting of reflective-fluorescent scenes”, Proc. CVPR, pp. 1452-1459, 2013 上山、平井、堀内、富永、「可視光源とマルチバンドカメラを用いた蛍光物体の分光成分推定」、電子情報通信学会論文誌 D, Vol. J95-D, No.3. pp. 638-644, 2012Kamiyama, Hirai, Horiuchi, Tominaga, "Spectral component estimation of fluorescent objects using visible light source and multiband camera", IEICE Transactions D, Vol. J95-D, No.3, pp. 638-644, 2012 Y. Fu, A. Lam, I. Sato, T. Okabe, and Y. Sato, “Separating Reflective and Fluorescent Components Using High Frequency Illumination in the Spectral Domain”, proc. ICCV, pp. 457-464, 2013Y. Fu, A. Lam, I. Sato, T. Okabe, and Y. Sato, “Separating Reflective and Fluorescent Components Using High Frequency Illumination in the Spectral Domain”, proc. ICCV, pp. 457-464, 2013

非特許文献1〜3等の技術で得られた反射光成分(反射成分)と蛍光成分を用いて、任意の観察照明光下での画像を生成するためには、反射成分の分光反射率の推定に加え、蛍光に関する吸光特性と発光特性(蛍光スペクトル)をそれぞれ推定する必要がある。蛍光スペクトルの推定には、非特許文献1〜3に記載されている技術のようにカメラ側で狭帯域光に分光する必要がある。また蛍光の吸光特性の推定には、非特許文献1に記載の技術のように、カメラ側に加えて撮影照明光源側でも狭帯域光に分光する必要がある。また非特許文献3に記載の技術では、撮影照明光源を狭帯域光に分光していないものの、特殊な光源装置を用いて照明光スペクトルの形状を制御する必要がある。     In order to generate an image under any observation illumination light using the reflected light component (reflected component) and the fluorescent component obtained by the techniques of Non-Patent Documents 1 to 3, the spectral reflectance of the reflected component In addition to estimation, it is necessary to estimate the absorption characteristics and emission characteristics (fluorescence spectrum) relating to fluorescence. In order to estimate the fluorescence spectrum, it is necessary to split into narrowband light on the camera side as in the techniques described in Non-Patent Documents 1 to 3. In addition, in order to estimate the fluorescence absorption characteristics, as in the technique described in Non-Patent Document 1, it is necessary to split into narrowband light on the photographing illumination light source side in addition to the camera side. In the technique described in Non-Patent Document 3, although the photographing illumination light source is not split into narrowband light, it is necessary to control the shape of the illumination light spectrum using a special light source device.

そのため、蛍光の吸光特性を推定する必要がある。   For this reason, it is necessary to estimate the fluorescence absorption characteristics.

また、分光時の帯域幅と透過光のエネルギはトレードオフの関係にあるため、カメラ側および撮影照明光源側での分光時における波長帯域幅が狭いほど、高感度で信号/ノイズ比が高い特性を有するカメラと、高出力の光源とが必要である。もし、低出力の光源を使用した場合には、画像撮影時のカメラの露光時間が長くなり、作業時間全体も長くなる。カメラ側の波長帯域幅が狭く、またカメラの感度が低い場合にも同様に、作業時間が長くなる。   In addition, since the spectral bandwidth and transmitted light energy are in a trade-off relationship, the narrower the spectral bandwidth on the camera side and the photographing illumination light source side, the higher the sensitivity and the higher the signal / noise ratio. And a high-power light source. If a low-output light source is used, the exposure time of the camera at the time of image capture becomes longer, and the overall work time also becomes longer. Similarly, when the wavelength bandwidth on the camera side is narrow and the sensitivity of the camera is low, the work time becomes longer.

また、狭帯域光に分光した結果、膨大な枚数の画像を分析/処理する必要がある。例えば、380nm〜780nmの可視光域をカメラ側にて10nm間隔で分光すると41枚の画像が、更に撮影照明光源側でも同様に分光すると、合計で41=1681枚の画像が必要となる。 In addition, as a result of performing spectral analysis on narrowband light, it is necessary to analyze / process a huge number of images. For example, if the visible light range of 380 nm to 780 nm is dispersed at 10 nm intervals on the camera side, 41 images are required, and if the same is also spectrally separated on the photographing illumination light source side, a total of 41 2 = 1681 images are required.

さらに、任意の中心波長で狭帯域光を得る為には、特殊かつ高価な装置が必要である。   Furthermore, in order to obtain narrowband light at an arbitrary center wavelength, a special and expensive device is required.

本発明は上記問題点を考慮してなされたものであり、従来よりも広帯域な波長幅で分光を行い撮影されたマルチバンド画像により、蛍光成分の吸光特性の推定を要せずに、反射成分と蛍光成分とを用いて任意の観察照明光下での画像を生成することができる、画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラムを提供することを目的とする。   The present invention has been made in consideration of the above-mentioned problems, and it is possible to obtain a reflection component without requiring an estimation of the absorption characteristic of the fluorescence component by using a multiband image obtained by performing spectroscopy with a wider wavelength range than before. It is an object to provide an image processing apparatus, an image processing system, an image processing method, and an image processing program capable of generating an image under arbitrary observation illumination light using a fluorescent component and a fluorescent component.

上記目的を達成するために、本発明の画像処理装置は、1台のカメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対するマルチバンド画像を取得する取得部と、前記撮影照明光の各バンドに対し、前記取得部により取得された前記マルチバンド画像を、前記撮影照明光のバンドと等しいバンドの画像である反射成分画像と、前記撮影照明光のバンドより中心波長が長いバンドの画像である蛍光成分画像とに分離する蛍光成分分離部と、前記撮影照明光の各バンドに対し、前記撮影照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積で、観察環境の照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積を割ることにより、前記各バンドの蛍光成分画像に対する重み係数を計算する重み係数計算部と、前記蛍光成分分離部により分離された、前記撮影照明光の各バンドに対する蛍光成分画像と、前記重み係数計算部により計算された前記各バンドの蛍光成分画像に対する重み係数とに基づいて、前記蛍光成分画像の重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力するマルチバンド蛍光成分画像生成部と、前記マルチバンド蛍光成分画像生成部で生成されたマルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出し、蛍光成分色再現画像を生成する蛍光成分色再現部と、前記蛍光成分分離部で分離された反射成分画像によるマルチバンド反射成分画像の画素毎に、分光反射率推定行列及び前記観察環境の照明光の照明光スペクトルをかけて反射光スペクトルを算出し、反射成分色再現画像を生成する反射成分色再現部と、前記蛍光成分色再現画像と前記反射成分色再現画像とを加算して色再現結果画像を生成して出力する画像合成処理部と、
を備える。
In order to achieve the above object, the image processing apparatus of the present invention limits the wavelength of light incident on one camera, and includes a plurality of first optical elements each having a different band, which is a wavelength band of transmitted light, and Photographed by a multiband image photographing device including a plurality of second optical elements that limit the wavelength of photographing illumination light irradiated to the subject from the photographing illumination light source and each have a different band that is a wavelength band of the transmitted light. An acquisition unit that acquires a multiband image for each band of the photographic illumination light, and for each band of the photographic illumination light, the multiband image acquired by the acquisition unit is a band equal to the band of the photographic illumination light. A fluorescence component separation unit that separates a reflection component image that is an image and a fluorescence component image that is an image of a band having a longer center wavelength than the band of the imaging illumination light; The product of the illumination light spectrum of the photographic illumination light and the wavelength selection characteristic of the second optical element with respect to the band of the photographic illumination light, and the illumination light spectrum of the illumination light in the observation environment and the band of the photographic illumination light By dividing the product of the wavelength selection characteristics of the second optical element, a weighting factor calculation unit for calculating a weighting factor for the fluorescence component image of each band, and the photographing illumination light separated by the fluorescence component separation unit A multiband fluorescence component is obtained by obtaining a weighted linear sum of the fluorescence component images based on the fluorescence component image for each band and the weighting factor for the fluorescence component image of each band calculated by the weighting factor calculation unit. A multiband fluorescent component image generation unit that generates and outputs an image, and a multiband fluorescent component generated by the multiband fluorescent component image generation unit For each pixel of the image, a spectral spectrum estimation matrix is applied to calculate a fluorescence spectrum, and a fluorescence component color reproduction unit that generates a fluorescence component color reproduction image, and multiband reflection by a reflection component image separated by the fluorescence component separation unit A reflected component color reproduction unit that calculates a reflected light spectrum by applying a spectral reflectance estimation matrix and an illumination light spectrum of the illumination light of the observation environment for each pixel of the component image, and generates the reflected component color reproduction image, and the fluorescence An image composition processing unit that adds a component color reproduction image and the reflection component color reproduction image to generate and output a color reproduction result image; and
Is provided.

また、本発明の画像処理装置は、カメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子を有し、かつ、視点が異なる複数台のカメラ、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対する複数の画像を取得する取得部と、前記複数の画像のうち予め定められた画像を基準画像とし、前記基準画像とは異なる画像の各々について、前記基準画像上の各基準点に対する、前記画像上における各対応点を検出する対応点検出部と、前記撮影照明光の各バンドに対し、前記基準画像とは異なる画像の各々において、前記対応点検出部によって検出された前記基準画像上の各基準点に対する前記画像における各対応点に基づいて、各基準点の位置と各対応点の位置とが一致するように前記画像を変形した変形結果画像を生成し、前記基準画像と前記変形結果画像の各々とを含むマルチバンド画像を生成する画像変形処理部と、前記撮影照明光の各バンドに対し、前記画像変形処理部により生成された前記マルチバンド画像を、前記撮影照明光のバンドと等しいバンドの画像である反射成分画像と、前記撮影照明光のバンドより中心波長が長いバンドの画像である蛍光成分画像とに分離する蛍光成分分離部と、前記撮影照明光の各バンドに対し、前記撮影照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積で、観察環境の照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積を割ることにより、前記各バンドの蛍光成分画像に対する重み係数を計算する重み係数計算部と、前記蛍光成分分離部により分離された、前記撮影照明光の各バンドに対する蛍光成分画像と、前記重み係数計算部により計算された前記各バンドの蛍光成分画像に対する重み係数とに基づいて、前記蛍光成分画像の重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力するマルチバンド蛍光成分画像生成部と、前記マルチバンド蛍光成分画像生成部で生成されたマルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出し、蛍光成分色再現画像を生成する蛍光成分色再現部と、前記蛍光成分分離部で分離された反射成分画像によるマルチバンド反射成分画像の画素毎に、分光反射率推定行列及び前記観察環境の照明光の照明光スペクトルをかけて反射光スペクトルを算出し、反射成分色再現画像を生成する反射成分色再現部と、前記蛍光成分色再現画像と前記反射成分色再現画像とを加算して色再現結果画像を生成して出力する画像合成処理部と、を備える。   In addition, the image processing apparatus of the present invention includes a plurality of first optical elements that limit the wavelength of light incident on the camera and have a plurality of first optical elements that are different in wavelength bands of light to be transmitted and have different viewpoints. A multiband image photographing apparatus comprising: a plurality of second optical elements that limit the wavelength of photographing illumination light irradiated to a subject from the photographing illumination light source and have different bands that are wavelength bands of light to be transmitted; An acquisition unit that acquires a plurality of images taken for each band of shooting illumination light, and a reference image that is a predetermined image among the plurality of images, and the reference image for each of the images different from the reference image For each reference point on the image, a corresponding point detection unit for detecting each corresponding point on the image, and for each band of the photographing illumination light, in each of the images different from the reference image, Based on each corresponding point in the image with respect to each reference point on the reference image detected by the corresponding point detection unit, a deformation obtained by deforming the image so that the position of each reference point matches the position of each corresponding point An image deformation processing unit that generates a result image and generates a multiband image including each of the reference image and the deformation result image, and is generated by the image deformation processing unit for each band of the photographing illumination light. Fluorescence component separation that separates the multiband image into a reflection component image that is an image of a band equal to the band of the photographing illumination light and a fluorescence component image that is an image of a band having a longer center wavelength than the band of the photographing illumination light And the product of the illumination light spectrum of the photographic illumination light and the wavelength selection characteristic of the second optical element for the photographic illumination light band for each band of the photographic illumination light. A weighting factor calculation unit for calculating a weighting factor for the fluorescence component image of each band by dividing the product of the wavelength spectrum of the second optical element with respect to the band of the illumination light of the environment and the band of the photographing illumination light; , Based on the fluorescence component image for each band of the photographic illumination light separated by the fluorescence component separation unit and the weighting factor for the fluorescence component image of each band calculated by the weighting factor calculation unit. By obtaining a weighted linear sum of component images, a multiband fluorescence component image generation unit that generates and outputs a multiband fluorescence component image, and a multiband fluorescence component image generated by the multiband fluorescence component image generation unit For each pixel, calculate a fluorescence spectrum by applying a spectral spectrum estimation matrix, and generate a fluorescence component color reproduction image, For each pixel of the multiband reflection component image by the reflection component image separated by the fluorescence component separation unit, the reflected light spectrum is calculated by multiplying the spectral reflectance estimation matrix and the illumination light spectrum of the illumination light of the observation environment, A reflection component color reproduction unit that generates a component color reproduction image, and an image synthesis processing unit that generates and outputs a color reproduction result image by adding the fluorescence component color reproduction image and the reflection component color reproduction image. .

また、本発明の画像処理装置は、前記複数台のカメラは、カラー画像を撮影する1台のカラーカメラと、単色画像を撮影する1台以上の単色カメラとを含み、前記複数の第1光学素子は、前記単色カメラの各々に対して、異なるバンドの光を透過させ、前記取得部が取得した前記カラー画像の画素毎に推定された分光反射率を画素値とする分光反射率画像、及び分光する前の状態の前記撮影照明光の照明光スペクトル、及び各単色カメラの分光感度特性を用いて、前記単色カメラ毎に得られた、前記カラーカメラの視点から撮影した場合に得られるであろう仮想的な単色画像を生成する単色画像生成部をさらに備え、前記対応点検出部は、単色画像生成部で生成された前記単色画像を、前記基準画像としてもよい。   In the image processing apparatus of the present invention, the plurality of cameras include one color camera that captures a color image and one or more monochrome cameras that capture a monochrome image, and the plurality of first optical cameras. The element transmits a different band of light to each of the monochromatic cameras, and a spectral reflectance image having a spectral reflectance estimated for each pixel of the color image acquired by the acquisition unit as a pixel value, and Using the illumination light spectrum of the photographic illumination light in the state before the spectrum and the spectral sensitivity characteristics of each monochromatic camera, obtained for each monochromatic camera and obtained from the viewpoint of the color camera. The image processing apparatus may further include a single color image generation unit that generates a wax virtual single color image, and the corresponding point detection unit may use the single color image generated by the single color image generation unit as the reference image.

また、本発明の画像処理システムは、1台のカメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置と、前記マルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対するマルチバンド画像を取得して、取得した前記マルチバンド画像に基づいて色再現結果画像を生成して出力する本発明の画像処理装置と、を備える。   In addition, the image processing system of the present invention limits the wavelength of light incident on one camera, and a plurality of first optical elements having different wavelength bands of transmitted light and photographing illumination light sources to a subject. A multiband image photographing device comprising a plurality of second optical elements that limit the wavelength of the illuminating illumination light to be irradiated and each have a different band, which is the wavelength band of the transmitted light, and the multiband image photographing device. And an image processing apparatus according to the present invention that acquires a multiband image for each band of photographing illumination light, and generates and outputs a color reproduction result image based on the acquired multiband image.

また、本発明の画像処理システムは、カメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子を有し、かつ、視点が異なる複数台のカメラ、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置と、前記マルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対する複数の画像を取得して、取得した前記複数の画像に基づいて色再現結果画像を生成して出力する本発明の画像処理装置と、を備える。   In addition, the image processing system of the present invention includes a plurality of first optical elements that limit the wavelength of light incident on the camera and have a plurality of first optical elements that are different in wavelength bands of light to be transmitted and have different viewpoints. A multi-band image photographing apparatus comprising: a plurality of second optical elements that limit the wavelength of photographing illumination light irradiated to a subject from the photographing illumination light source and have different bands that are wavelength bands of transmitted light; The image of the present invention is obtained by acquiring a plurality of images for each band of photographic illumination light captured by the multiband image capturing device, and generating and outputting a color reproduction result image based on the acquired plurality of images. And a processing device.

また、本発明の画像処理方法は、取得部が、1台のカメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対するマルチバンド画像を取得するステップと、蛍光成分分離部が、前記撮影照明光の各バンドに対し、前記取得部により取得された前記マルチバンド画像を、前記撮影照明光のバンドと等しいバンドの画像である反射成分画像と、前記撮影照明光のバンドより中心波長が長いバンドの画像である蛍光成分画像とに分離するステップと、重み係数計算部が、前記撮影照明光の各バンドに対し、前記撮影照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積で、観察環境の照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積を割ることにより、前記各バンドの蛍光成分画像に対する重み係数を計算するステップと、マルチバンド蛍光成分画像生成部が、前記蛍光成分分離部により分離された、前記撮影照明光の各バンドに対する蛍光成分画像と、前記重み係数計算部により計算された前記各バンドの蛍光成分画像に対する重み係数とに基づいて、前記蛍光成分画像の重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力するステップと、蛍光成分色再現部が前記マルチバンド蛍光成分画像生成部で生成されたマルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出し、蛍光成分色再現画像を生成するステップと、反射成分色再現部が前記蛍光成分分離部で分離された反射成分画像によるマルチバンド反射成分画像の画素毎に、分光反射率推定行列及び前記観察環境の照明光の照明光スペクトルをかけて反射光スペクトルを算出し、反射成分色再現画像を生成するステップと、画像合成処理部が、前記蛍光成分色再現画像と前記反射成分色再現画像とを加算して色再現結果画像を生成して出力するステップと、を含む。   Further, in the image processing method of the present invention, the acquisition unit limits the wavelength of light incident on one camera, and includes a plurality of first optical elements each having a different band, which is a wavelength band of transmitted light, and photographing illumination. Photographing illumination, which is photographed by a multiband image photographing device that includes a plurality of second optical elements that limit the wavelength of photographing illumination light emitted from a light source to a subject and that have different wavelength bands of transmitted light. A step of acquiring a multiband image for each band of light, and a fluorescence component separating unit, for each band of the imaging illumination light, the multiband image acquired by the acquisition unit as a band of the imaging illumination light A step of separating a reflection component image that is an image of an equal band and a fluorescence component image that is an image of a band having a longer center wavelength than the band of the photographing illumination light; For each band of the photographic illumination light, the product of the illumination light spectrum of the photographic illumination light and the wavelength selection characteristic of the second optical element for the band of the photographic illumination light, and the illumination light spectrum of the illumination light of the observation environment and the A step of calculating a weighting factor for the fluorescence component image of each band by dividing the product of the wavelength selection characteristics of the second optical element with respect to the band of the imaging illumination light, and a multiband fluorescence component image generation unit comprising: Based on the fluorescence component image for each band of the photographing illumination light separated by the separation unit and the weighting factor for the fluorescence component image of each band calculated by the weighting factor calculation unit, the overlap of the fluorescence component image is calculated. A step of generating and outputting a multiband fluorescent component image by obtaining a mitsuki linear sum, and a fluorescent component color reproduction unit For each pixel of the multiband fluorescence component image generated by the split image generation unit, a step of calculating a fluorescence spectrum by applying a spectral spectrum estimation matrix to generate a fluorescence component color reproduction image; For each pixel of the multiband reflection component image by the reflection component image separated by the component separation unit, the reflected light spectrum is calculated by multiplying the spectral reflectance estimation matrix and the illumination light spectrum of the illumination light of the observation environment, and the reflected component color A step of generating a reproduction image, and a step of the image composition processing unit adding the fluorescence component color reproduction image and the reflection component color reproduction image to generate and outputting a color reproduction result image.

また、本発明の画像処理方法は、取得部が、カメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子を有し、かつ、視点が異なる複数台のカメラ、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対する複数の画像を取得するステップと、対応点検出部が、前記複数の画像のうち予め定められた画像を基準画像とし、前記基準画像とは異なる画像の各々について、前記基準画像上の各基準点に対する、前記画像上における各対応点を検出するステップと、画像変形処理部が、前記撮影照明光の各バンドに対し、前記基準画像とは異なる画像の各々において、前記対応点検出部によって検出された前記基準画像上の各基準点に対する前記画像における各対応点に基づいて、各基準点の位置と各対応点の位置とが一致するように前記画像を変形した変形結果画像を生成し、前記基準画像と前記変形結果画像の各々とを含むマルチバンド画像を生成するステップと、蛍光成分分離部が、前記撮影照明光の各バンドに対し、前記画像変形処理部により生成された前記マルチバンド画像を、前記撮影照明光のバンドと等しいバンドの画像である反射成分画像と、前記撮影照明光のバンドより中心波長が長いバンドの画像である蛍光成分画像とに分離するステップと、重み係数計算部が、前記撮影照明光の各バンドに対し、前記撮影照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積で、観察環境の照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積を割ることにより、前記各バンドの蛍光成分画像に対する重み係数を計算するステップと、マルチバンド蛍光成分画像生成部が、前記蛍光成分分離部により分離された、前記撮影照明光の各バンドに対する蛍光成分画像と、前記重み係数計算部により計算された前記各バンドの蛍光成分画像に対する重み係数とに基づいて、前記蛍光成分画像の重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力するステップと、蛍光成分色再現部が、前記マルチバンド蛍光成分画像生成部で生成されたマルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出し、蛍光成分色再現画像を生成するステップと、反射成分色再現部が、前記蛍光成分分離部で分離された反射成分画像によるマルチバンド反射成分画像の画素毎に、分光反射率推定行列及び前記観察環境の照明光の照明光スペクトルをかけて反射光スペクトルを算出し、反射成分色再現画像を生成するステップと、画像合成処理部が、前記蛍光成分色再現画像と前記反射成分色再現画像とを加算して色再現結果画像を生成して出力するステップと、を含む。   Further, in the image processing method of the present invention, the acquisition unit includes a plurality of first optical elements that limit the wavelength of light incident on the camera and have different bands, which are wavelength bands of light to be transmitted, and a viewpoint. A multi-band comprising: a plurality of cameras having different wavelengths; and a plurality of second optical elements that limit the wavelength of the photographic illumination light irradiated to the subject from the photographic illumination light source and that have different wavelength bands of light to be transmitted A step of acquiring a plurality of images for each band of the photographic illumination light captured by the image capturing device; and a corresponding point detection unit sets a predetermined image among the plurality of images as a reference image, and the reference image For each of the different images, detecting each corresponding point on the image for each reference point on the reference image, and an image transformation processing unit for each band of the photographic illumination light In each of the images different from the reference image, the position of each reference point and the position of each corresponding point based on each corresponding point in the image with respect to each reference point on the reference image detected by the corresponding point detection unit Generating a deformation result image obtained by deforming the image so as to coincide with each other, generating a multiband image including each of the reference image and the deformation result image, and a fluorescence component separation unit comprising: For each band, the multi-band image generated by the image deformation processing unit includes a reflection component image that is an image of a band equal to the band of the photographing illumination light, and a band having a longer center wavelength than the band of the photographing illumination light. And a weighting factor calculation unit for each band of the photographing illumination light and the illumination light spectrum of the photographing illumination light and the Dividing the product of the wavelength selection characteristic of the second optical element for the shadow illumination light band by the product of the illumination light spectrum of the illumination light in the observation environment and the wavelength selection characteristic of the second optical element for the imaging illumination light band A step of calculating a weighting factor for the fluorescence component image of each band, and a fluorescence component image for each band of the photographing illumination light, wherein the multiband fluorescence component image generation unit is separated by the fluorescence component separation unit, A step of generating and outputting a multiband fluorescence component image by obtaining a weighted linear sum of the fluorescence component images based on the weighting factors for the fluorescence component images of the respective bands calculated by the weighting factor calculation unit. And a fluorescence component color reproduction unit for each pixel of the multiband fluorescence component image generated by the multiband fluorescence component image generation unit. A fluorescence spectrum is calculated by applying a toll estimation matrix to generate a fluorescence component color reproduction image, and a reflection component color reproduction unit is a pixel of a multiband reflection component image by a reflection component image separated by the fluorescence component separation unit A step of calculating a reflected light spectrum by multiplying a spectral reflectance estimation matrix and an illumination light spectrum of the illumination light of the observation environment, and generating a reflected component color reproduction image; and Adding a reproduction image and the reflection component color reproduction image to generate and output a color reproduction result image.

また、本発明の画像処理プログラムは、コンピュータを、本発明の画像処理装置の各部として機能させるためのものである。   The image processing program of the present invention is for causing a computer to function as each part of the image processing apparatus of the present invention.

本発明の画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラムによれば、従来よりも広帯域な波長幅で分光を行い撮影されたマルチバンド画像により、蛍光成分の吸光特性の推定を要せずに、反射成分と蛍光成分とを用いて任意の観察照明光下での画像を生成することができる、という効果が得られる。   According to the image processing apparatus, the image processing system, the image processing method, and the image processing program of the present invention, the absorption characteristic of the fluorescent component is estimated from the multiband image captured by performing the spectrum with a wider wavelength range than the conventional one. There is an effect that it is possible to generate an image under arbitrary observation illumination light by using the reflection component and the fluorescence component.

第1の実施の形態の画像処理システム(画像処理装置)の概略構成の一例を示す構成図である。It is a block diagram which shows an example of schematic structure of the image processing system (image processing apparatus) of 1st Embodiment. 第1の実施の形態のマルチバンド照明部及びマルチバンド画像撮影部のバンドパスフィルタの分光透過率を示す図である。It is a figure which shows the spectral transmission factor of the band pass filter of the multiband illumination part of 1st Embodiment, and a multiband image imaging part. 第1の実施の形態のマルチバンド画像撮影部で撮影したマルチバンド画像を示す図である。It is a figure which shows the multiband image image | photographed with the multiband image imaging part of 1st Embodiment. 第1の実施の形態の画像処理装置における画像処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of a flow of image processing in the image processing apparatus according to the first embodiment. 蛍光灯下での推定結果及び分光計による計測結果を示す図である。It is a figure which shows the estimation result under a fluorescent lamp, and the measurement result by a spectrometer. 白熱灯下での推定結果及び分光計による計測結果を示す図である。It is a figure which shows the estimation result under an incandescent lamp, and the measurement result by a spectrometer. 第2の実施の形態の画像処理システム(画像処理装置)の概略構成の一例を示す構成図である。It is a block diagram which shows an example of schematic structure of the image processing system (image processing apparatus) of 2nd Embodiment. 第2の実施の形態のマルチバンド照明部として用いたマルチバンド照明装置の具体例を示す図である。It is a figure which shows the specific example of the multiband illuminating device used as the multiband illuminating part of 2nd Embodiment. 第2の実施の形態のマルチバンド画像撮影部に用いた9眼ステレオカメラの具体例である。It is a specific example of the 9-eye stereo camera used for the multiband image photographing unit of the second embodiment. 第2の実施の形態のマルチバンド照明部及びマルチバンド画像撮影部のバンドパスフィルタの分光透過率を示す図である。It is a figure which shows the spectral transmittance of the band pass filter of the multiband illumination part of 2nd Embodiment, and a multiband image imaging part. 第2の実施の形態の画像変形処理部の概略構成の一例を示す構成図である。It is a block diagram which shows an example of schematic structure of the image transformation process part of 2nd Embodiment. 第2の実施の形態の画像処理装置における画像処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image processing in the image processing apparatus of 2nd Embodiment. 第3の実施の形態の画像処理システム(画像処理装置)の概略構成の一例を示す構成図である。It is a block diagram which shows an example of schematic structure of the image processing system (image processing apparatus) of 3rd Embodiment. 第3の実施の形態のマルチバンド画像撮影部に用いた9眼ステレオカメラの具体例である。It is a specific example of the 9-eye stereo camera used for the multiband image photographing unit of the third embodiment. 第3の実施の形態の画像処理装置における画像処理の流れの一例を示すフローチャートである。15 is a flowchart illustrating an example of a flow of image processing in the image processing apparatus according to the third embodiment.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態は本発明を限定するものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that this embodiment does not limit the present invention.

[第1の実施の形態]
図1は、本実施の形態の画像処理装置20を備えた画像処理システム1の概略構成の一例を示す構成図である。
[First Embodiment]
FIG. 1 is a configuration diagram illustrating an example of a schematic configuration of an image processing system 1 including an image processing apparatus 20 according to the present embodiment.

本実施の形態の画像処理システム1は、マルチバンド画像撮影装置10及び画像処理装置20を備える。   The image processing system 1 according to the present embodiment includes a multiband image photographing device 10 and an image processing device 20.

マルチバンド画像撮影装置10は、撮影制御部12、マルチバンド照明部14、及びマルチバンド画像撮影部16を備える。   The multiband image photographing device 10 includes a photographing control unit 12, a multiband illumination unit 14, and a multiband image photographing unit 16.

撮影制御部12は、マルチバンド照明部14及びマルチバンド画像撮影部16の動作タイミングを制御する。そのため、撮影制御部12は、マルチバンド照明部14及びマルチバンド画像撮影部16の各々に対して、動作タイミングを制御するための制御信号を出力する。なお、本実施の形態の撮影制御部12は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を備えたコンピュータにより実現されており、CPUが、ROMに記憶されているプログラムを実行することにより、上記制御信号が出力される。そのため、マルチバンド画像撮影装置10によれば、全自動撮影が可能である。   The photographing control unit 12 controls the operation timing of the multiband illumination unit 14 and the multiband image photographing unit 16. Therefore, the imaging control unit 12 outputs a control signal for controlling the operation timing to each of the multiband illumination unit 14 and the multiband image capturing unit 16. Note that the imaging control unit 12 according to the present embodiment is realized by a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. The control signal is output by executing the stored program. Therefore, according to the multiband image photographing device 10, fully automatic photographing is possible.

マルチバンド照明部14は、撮影照明光源と、撮影照明光源から射出された光が透過する波長帯域(バンド)を制御する光学素子(例えばバンドパスフィルタ)と、を含む(いずれも図示省略)。マルチバンド照明部14は、撮影制御部12から入力される制御信号に基づいて、光学素子の波長特性を切り替える。具体例として光学素子がバンドパスフィルタの場合は、マルチバンド照明部14はバンドパスフィルタの切り替えを行う。また、マルチバンド照明部14は、撮影制御部12から入力される制御信号に基づいて、撮影照明光源から光を射出させる。これにより、マルチバンド照明部14からは、波長が選択された撮影照明光が出力される。以下では、撮影照明光の波長(光学素子としてバンドパスフィルタを使用している場合はバンドパスフィルタの波長)を「光源波長」という。   The multiband illumination unit 14 includes a photographing illumination light source and an optical element (for example, a band pass filter) that controls a wavelength band (band) through which light emitted from the photographing illumination light source is transmitted (all not shown). The multiband illumination unit 14 switches the wavelength characteristic of the optical element based on a control signal input from the imaging control unit 12. As a specific example, when the optical element is a bandpass filter, the multiband illumination unit 14 performs switching of the bandpass filter. Further, the multiband illumination unit 14 emits light from the imaging illumination light source based on a control signal input from the imaging control unit 12. Thereby, the multiband illumination unit 14 outputs photographing illumination light having a selected wavelength. Hereinafter, the wavelength of photographing illumination light (the wavelength of the bandpass filter when a bandpass filter is used as an optical element) is referred to as “light source wavelength”.

マルチバンド画像撮影部16は、1台の白黒カメラと、入射光の波長帯域を制御する光学素子(例えばバンドパスフィルタ)と、を含む(いずれも図示省略)。マルチバンド画像撮影部16は、撮影制御部12から入力される制御信号に基づいて、光学素子の波長特性を切り替える。具体例として光学素子がバンドパスフィルタの場合は、マルチバンド画像撮影部16はバンドパスフィルタの切り替えを行う。また、マルチバンド画像撮影部16は、撮影制御部12から入力される制御信号に基づいて、被写体の画像を撮影する。これにより、マルチバンド画像撮影部16からは、各バンドの撮影照明光に対応したマルチバンド画像が出力される。以下では、マルチバンド画像撮影部16の光学素子(バンドパスフィルタを使用している場合はバンドパスフィルタ)の波長を「カメラ波長」という。   The multiband image photographing unit 16 includes one monochrome camera and an optical element (for example, a bandpass filter) that controls the wavelength band of incident light (all not shown). The multiband image photographing unit 16 switches the wavelength characteristic of the optical element based on the control signal input from the photographing control unit 12. As a specific example, when the optical element is a bandpass filter, the multiband image photographing unit 16 performs switching of the bandpass filter. The multiband image capturing unit 16 captures an image of the subject based on the control signal input from the capturing control unit 12. Thereby, the multiband image photographing unit 16 outputs a multiband image corresponding to the photographing illumination light of each band. Hereinafter, the wavelength of the optical element of the multiband image photographing unit 16 (or a bandpass filter when a bandpass filter is used) is referred to as a “camera wavelength”.

なお、マルチバンド画像撮影部16は、カメラから出力される出力信号値が飽和しないよう、露光条件を設定する。また、光源波長がカメラ波長以下(光源波長≦カメラ波長)の場合のみ、撮影を行うようにしてもよい。   The multiband image photographing unit 16 sets exposure conditions so that the output signal value output from the camera is not saturated. Further, photographing may be performed only when the light source wavelength is equal to or less than the camera wavelength (light source wavelength ≦ camera wavelength).

一方、画像処理装置20は、取得部21、撮影画像蓄積部22、マルチバンド画像生成部24、反射成分色再現部26、蛍光成分色再現部28、及び画像合成処理部30を備える。画像処理装置20には、マルチバンド画像撮影装置10のマルチバンド画像撮影部16で撮影されたマルチバンド画像が入力される。また、画像処理装置20からは、色再現結果画像(詳細後述)が出力される。なお、本実施の形態の画像処理装置20は、CPU、RAM、及びROM等を備えたコンピュータにより実現されており、CPUが、ROMに記憶されているプログラムを実行することにより、マルチバンド画像から色再現結果画像を生成して出力する。   On the other hand, the image processing apparatus 20 includes an acquisition unit 21, a captured image storage unit 22, a multiband image generation unit 24, a reflection component color reproduction unit 26, a fluorescence component color reproduction unit 28, and an image composition processing unit 30. The image processing apparatus 20 receives a multiband image captured by the multiband image capturing unit 16 of the multiband image capturing apparatus 10. Further, the image processing apparatus 20 outputs a color reproduction result image (details will be described later). Note that the image processing apparatus 20 according to the present embodiment is realized by a computer including a CPU, a RAM, a ROM, and the like, and the CPU executes a program stored in the ROM so that a multiband image can be obtained. A color reproduction result image is generated and output.

取得部21は、マルチバンド画像をマルチバンド画像撮影装置10から取得して、撮影画像蓄積部22に記憶させる。そのため、取得部21には、マルチバンド画像が入力され、入力されたマルチバンド画像が撮影画像蓄積部22に出力される。   The acquisition unit 21 acquires a multiband image from the multiband image capturing device 10 and stores the acquired multiband image in the captured image storage unit 22. Therefore, a multiband image is input to the acquisition unit 21, and the input multiband image is output to the captured image storage unit 22.

撮影画像蓄積部22には、入力されたマルチバンド画像が記憶される。また、撮影画像蓄積部22は、マルチバンド画像撮影部16のカメラにおける各カラーバンドの分光感度特性、撮影照明光スペクトル、及び撮影照明光の分光に用いた各バンドの波長選択特性(バンドパスフィルタを用いる場合は、バンドパスフィルタの分光透過率)がマルチバンド画像と共に記憶されている。なお、撮影画像蓄積部22は、マルチバンド画像生成部24と一体化してもよい。また、撮影画像蓄積部22は、画像処理装置20の外部にあってもよい。   The captured image storage unit 22 stores the input multiband image. The captured image storage unit 22 also includes a spectral sensitivity characteristic of each color band in the camera of the multiband image capturing unit 16, a captured illumination light spectrum, and wavelength selection characteristics of each band used for the spectrum of the captured illumination light (bandpass filter). Is used, the spectral transmittance of the bandpass filter) is stored together with the multiband image. Note that the captured image storage unit 22 may be integrated with the multiband image generation unit 24. The captured image storage unit 22 may be outside the image processing apparatus 20.

マルチバンド画像生成部24は、蛍光成分分離部40、マルチバンド蛍光成分画像生成部42、及び重み係数計算部44を備える。マルチバンド画像生成部24は、マルチバンド画像撮影装置10で撮影されたマルチバンド画像から、マルチバンド反射成分画像及びマルチバンド蛍光成分画像を生成する。   The multiband image generation unit 24 includes a fluorescence component separation unit 40, a multiband fluorescence component image generation unit 42, and a weight coefficient calculation unit 44. The multiband image generation unit 24 generates a multiband reflection component image and a multiband fluorescence component image from the multiband image captured by the multiband image capturing device 10.

蛍光成分分離部40は、マルチバンド画像の中から、反射光成分(以下、「反射成分」という)が記録された画像と、蛍光成分が記録された画像とを選別し抽出する。   The fluorescence component separation unit 40 selects and extracts an image in which a reflected light component (hereinafter referred to as “reflection component”) is recorded and an image in which a fluorescence component is recorded from a multiband image.

具体的には、蛍光成分分離部40は、撮影画像蓄積部22から各バンドの撮影照明光に対応したマルチバンド画像と、カメラにおける各カラーバンドの分光感度特性、撮影照明光スペクトル、及び撮影照明光の分光に用いた各バンドの波長選択特性(バンドパスフィルタの分光透過率)を取得する。そして、蛍光成分分離部40は、撮影照明光の各バンドに対し、当該バンドと等しいカラーバンド(光源波長=カメラ波長)の画像をマルチバンド反射成分画像として抽出し、出力する。また、蛍光成分分離部40は、撮影照明光の各バンドに対し、当該バンドよりも波長が長いカラーバンド(光源波長<カメラ波長)の画像を蛍光成分画像として抽出し、出力する。   Specifically, the fluorescence component separation unit 40 includes a multiband image corresponding to the photographing illumination light of each band from the photographed image storage unit 22, the spectral sensitivity characteristics of each color band in the camera, the photographing illumination light spectrum, and the photographing illumination. The wavelength selection characteristic (spectral transmittance of the bandpass filter) of each band used for the light spectrum is acquired. Then, the fluorescence component separation unit 40 extracts and outputs an image of a color band (light source wavelength = camera wavelength) equal to the band for each band of the photographic illumination light as a multiband reflection component image. Further, the fluorescence component separation unit 40 extracts and outputs an image of a color band (light source wavelength <camera wavelength) having a wavelength longer than that of each band of photographing illumination light as a fluorescence component image.

重み係数計算部44には、マルチバンド照明部14の各バンドにおける波長選択特性(バンドパスフィルタの分光透過率)、撮影照明光スペクトル、及び観察環境の照明光(以下、「観察照明光」という)の照明光スペクトル(以下、「観察照明光スペクトル」という)が入力される。なお、波長選択特性(バンドパスフィルタの分光透過率)及び撮影照明光スペクトルは、撮影画像蓄積部22から取得してもよい。重み係数計算部44は、撮影照明光の各バンドの蛍光成分画像に対する重み係数を計算する。   The weighting coefficient calculation unit 44 includes wavelength selection characteristics (spectral transmittance of the bandpass filter), imaging illumination light spectrum, and illumination light of the observation environment (hereinafter referred to as “observation illumination light”) in each band of the multiband illumination unit 14. ) Illumination light spectrum (hereinafter referred to as “observation illumination light spectrum”). Note that the wavelength selection characteristic (spectral transmittance of the bandpass filter) and the photographing illumination light spectrum may be acquired from the photographed image storage unit 22. The weighting coefficient calculation unit 44 calculates a weighting coefficient for the fluorescence component image of each band of photographing illumination light.

マルチバンド蛍光成分画像生成部42には、蛍光成分分離部40から蛍光成分画像が入力される。また、マルチバンド蛍光成分画像生成部42には、重み係数計算部44から撮影照明光の各バンドに対する重み係数が入力される。マルチバンド蛍光成分画像生成部42は、撮影照明光の各バンドに対し、当該バンドに対する蛍光成分画像に当該バンドに対する重み係数を掛け合わせ、重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力する。   A fluorescence component image is input from the fluorescence component separation unit 40 to the multiband fluorescence component image generation unit 42. In addition, the multiband fluorescent component image generation unit 42 receives a weighting factor for each band of photographing illumination light from the weighting factor calculation unit 44. The multiband fluorescence component image generation unit 42 multiplies each band of the photographic illumination light by multiplying the fluorescence component image for the band by the weighting coefficient for the band and obtains a weighted linear sum, thereby obtaining the multiband fluorescence component image. Generate and output.

以下、マルチバンド蛍光成分画像生成部42におけるマルチバンド蛍光成分画像の生成について、バンド数をNと一般化し、定式化を行い説明する。また、以下の説明では、分光のための光学素子として、バンドパスフィルタを用いた場合について説明する。また、以下の式では可視光波長領域(380nm〜780nm)のみを取り扱っているが、紫外光波長領域、赤外光波長領域を含むように拡張してもよい。   Hereinafter, the generation of the multiband fluorescent component image in the multiband fluorescent component image generation unit 42 will be described by generalizing the number of bands as N and formulating it. In the following description, a case where a band-pass filter is used as an optical element for spectroscopy will be described. Further, in the following formula, only the visible light wavelength region (380 nm to 780 nm) is handled, but it may be extended to include the ultraviolet light wavelength region and the infrared light wavelength region.

j番目(jバンド目)の照明下で撮影したi番目(iバンド目)の画像(1≦i,j≦N)の信号値は、撮影照明光スペクトルをI(λ)、jバンド目のフィルタの分光透過率をT(λ)、被写体表面の分光反射率をR(λ)、及びiバンド目のカメラの分光感度をS(λ)とすると、下記(1)式のように表すことができる。 The signal value of the i-th (i-th band) image (1 ≦ i, j ≦ N) photographed under the j-th (j-th band) illumination is the imaging illumination light spectrum as I (λ) and the j-th band. Assuming that the spectral transmittance of the filter is T j (λ), the spectral reflectance of the subject surface is R (λ), and the spectral sensitivity of the camera in the i-th band is S i (λ), Can be represented.

ここでλは波長を表す。上記(1)式より、反射成分rは下記(2)式のように書き表せる。 Here, λ represents a wavelength. From the above equation (1), the reflection component r i can be expressed as the following equation (2).

一方で蛍光成分fi,jは、蛍光の吸光特性をα(λ)、及び発光スペクトルをE(λ)とすると、下記(3)式のように表すことができる。 On the other hand, the fluorescence component f i, j can be expressed by the following equation (3), where α (λ) is the fluorescence absorption characteristic and E (λ) is the emission spectrum.

以上から、蛍光成分は下記(4)式のように書き表すことができる。   From the above, the fluorescent component can be expressed as the following equation (4).

ここでjバンド目のフィルタT(λ)のバンド幅が十分に小さいと仮定すると、上記(3)式は下記(5)式のように書き改めることができる。 Assuming that the bandwidth of the filter T j (λ) of the j-th band is sufficiently small, the above equation (3) can be rewritten as the following equation (5).

上記(5)式の第2項はjバンド目のフィルタT(λ)を透過した撮影照明光のエネルギを表しており、分光計を用いることで計測可能である。 The second term of the above equation (5) represents the energy of the photographic illumination light that has passed through the filter T j (λ) of the j-th band, and can be measured using a spectrometer.

次に、観察照明光スペクトルI’(λ)の観察照明光下での画像を再現することを考える。観察照明光スペクトルI’(λ)の下での蛍光成分fi,jは、上記(5)式より、下記6)式のように表せる。 Next, it is considered to reproduce an image of the observation illumination light spectrum I ′ (λ) under the observation illumination light. The fluorescence component f i, j under the observation illumination light spectrum I ′ (λ) can be expressed by the following equation 6) from the above equation (5).

つまり上記(6)式は、撮影時とは異なる観察照明光下での蛍光成分は、撮影画像の重みつき線形和で求められることを意味する。jバンド目における重み係数wを、下記(7)式で表すと、マルチバンド蛍光成分画像は、下記(8)式に基づき求めることできる。 That is, the above equation (6) means that the fluorescent component under observation illumination light different from that at the time of photographing is obtained by a weighted linear sum of the photographed image. When the weighting coefficient w j in the j-th band is expressed by the following equation (7), the multiband fluorescent component image can be obtained based on the following equation (8).

重み係数計算部44は、マルチバンド蛍光成分画像生成部42が、上記(8)式に基づいてマルチバンド蛍光成分画像を生成するための重み係数wを計算する。重み係数計算部44は、マルチバンド照明部14の撮影照明光の各バンド(j)に対し、撮影照明光スペクトルと分光に用いた当該バンド(j)に対する波長選択特性(バンドパスフィルタの分光透過率)の積で、観察照明光スペクトルと分光に用いた当該バンド(j)に対する波長選択特性(バンドパスフィルタの分光透過率)の積を割り、当該バンド(j)における重み係数wを計算する。具体的には、上記(7)式により、重み係数wを計算する。重み係数計算部44は、計算した撮影照明光の各バンド(j)に対する重み係数wをマルチバンド蛍光成分画像生成部42に出力する。 The weighting factor calculation unit 44 calculates the weighting factor w j for the multiband fluorescence component image generation unit 42 to generate a multiband fluorescence component image based on the above equation (8). For each band (j) of the imaging illumination light of the multiband illumination unit 14, the weighting coefficient calculation unit 44 uses the wavelength selection characteristic (spectral transmission of the bandpass filter) for the imaging illumination light spectrum and the band (j) used for spectroscopy. The product of the observation illumination light spectrum and the wavelength selection characteristic (spectral transmittance of the bandpass filter) for the band (j) used for spectroscopy, and calculate the weighting factor w j for the band (j). To do. Specifically, the weighting coefficient w j is calculated by the above equation (7). The weight coefficient calculation unit 44 outputs the calculated weight coefficient w j for each band (j) of the photographic illumination light to the multiband fluorescent component image generation unit 42.

反射成分色再現部26には、マルチバンド画像生成部24の蛍光成分分離部40で抽出されたマルチバンド反射成分画像が入力される。また、反射成分色再現部26には、観察照明光スペクトルが入力される。さらに、マルチバンド画像生成部24には、等色関数、モニタの原色スペクトル、もしくは原色の測色値が入力される場合もある。   The reflection component color reproduction unit 26 receives the multiband reflection component image extracted by the fluorescence component separation unit 40 of the multiband image generation unit 24. In addition, the observation illumination light spectrum is input to the reflection component color reproduction unit 26. Further, a color matching function, a monitor primary color spectrum, or a primary colorimetric value may be input to the multiband image generation unit 24.

反射成分色再現部26は、マルチバンド反射成分画像を用いて、分光反射率の推定処理により分光反射率推定行列を算出する。そして、反射成分色再現部26は、マルチバンド反射成分画像の画素毎に、分光反射率推定行列及び観察照明光スペクトルをかけて反射光スペクトルを算出することにより、反射光スペクトル画像を生成する。なお、反射成分色再現部26は、等色関数を用いた場合にはモニタ特性に依存しない測色値画像を、さらにモニタの原色スペクトルや測色値を用いた場合には線形なガンマ特性を持つ原色信号値画像(RGB画像)を算出する。以下では、反射成分色再現部26により算出された反射光スペクトル画像もしくは測色値画像、または、線形なガンマ特性を持つモニタの原色信号値画像を「反射成分色再現画像」という。反射成分色再現部26からは、反射成分色再現画像が出力される。   The reflection component color reproduction unit 26 uses the multiband reflection component image to calculate a spectral reflectance estimation matrix by spectral reflectance estimation processing. Then, the reflection component color reproduction unit 26 generates a reflected light spectrum image by calculating the reflected light spectrum by applying the spectral reflectance estimation matrix and the observation illumination light spectrum for each pixel of the multiband reflected component image. The reflection component color reproduction unit 26 displays a colorimetric value image that does not depend on the monitor characteristics when the color matching function is used, and a linear gamma characteristic when the primary color spectrum or colorimetric value of the monitor is used. A primary color signal value image (RGB image) is calculated. Hereinafter, a reflected light spectrum image or colorimetric value image calculated by the reflection component color reproduction unit 26 or a primary color signal value image of a monitor having a linear gamma characteristic is referred to as a “reflection component color reproduction image”. A reflection component color reproduction image is output from the reflection component color reproduction unit 26.

反射成分色再現部26において、マルチバンド反射成分画像から分光スペクトルを求める方法について述べる。ここでは具体例として、ウィナー推定法を用いた場合について述べる。カメラの分光感度を行列S=[S(λ),S(λ),・・・,S(λ)]、と表すとする。また各対角成分が撮影照明光スペクトルである対角行列を行列Iとする。分光反射率をRとすると、観察される分光スペクトルSは下記(9)式のように書き表せる。 A method for obtaining a spectral spectrum from the multiband reflection component image in the reflection component color reproduction unit 26 will be described. Here, the case where the winner estimation method is used will be described as a specific example. It is assumed that the spectral sensitivity of the camera is expressed as a matrix S = [S 1 (λ), S 2 (λ),..., S N (λ)] T. A diagonal matrix in which each diagonal component is a photographic illumination light spectrum is defined as a matrix I. Assuming that the spectral reflectance is R, the observed spectral spectrum S r can be expressed as the following equation (9).

カメラからの出力信号値rは、下記(10)式で表されるため、分光反射率Rは、ウィナー推定法により下記(11)式から推定することができる。   Since the output signal value r from the camera is expressed by the following equation (10), the spectral reflectance R can be estimated from the following equation (11) by the Wiener estimation method.

上記(11)式において、R^は分光反射率の推定結果であり、行列Mはウィナー推定行列(分光反射率推定行列)であり行列Hから求められる。また、上記(11)式において、行列Kは被写体の分光反射率の統計的性質を現す行列である。ここでは簡単のため、一次のマルコフ性を仮定し、行列Kを下記(12)式のように定義する。   In the above equation (11), R ^ is an estimation result of the spectral reflectance, and a matrix M is a Wiener estimation matrix (spectral reflectance estimation matrix) and is obtained from the matrix H. In the above equation (11), the matrix K is a matrix representing the statistical properties of the spectral reflectance of the subject. Here, for the sake of simplicity, a first-order Markov property is assumed, and the matrix K is defined as the following equation (12).

分光反射率の推定結果R^と観察照明光スペクトルI~とを用いると、観察照明光下における反射成分S^は下記(13)式で表すことができる。 Using the spectral reflectance estimation result R ^ and the observation illumination light spectrum I ~, the reflection component S ^ r under the observation illumination light can be expressed by the following equation (13).

反射成分色再現部26は、上記のようにウィナー推定法を用いて画素毎の分光反射率を推定し、推定した分光反射率を画素値とする反射成分色再現画像を生成する。   The reflection component color reproduction unit 26 estimates the spectral reflectance for each pixel using the Wiener estimation method as described above, and generates a reflection component color reproduction image having the estimated spectral reflectance as a pixel value.

なお、画像処理装置20から出力される色再現結果画像をRGBディスプレイに表示するための表示用色再現結果画像とする場合には、反射成分色再現部26において、等色関数、ディスプレイ装置の3原色に関するスペクトル分光分布もしくは測色値、ディスプレイ装置のガンマ特性を利用し、反射光スペクトル画像からRGB画像に変換してもよい。この場合、まず、反射光スペクトルと等色関数とを掛け合わせて測色値を算出し、算出された測色値をRGB値に変換する。最後に、ディスプレイ装置のガンマ特性に応じた補正処理を行い、表示用の反射成分色再現画像を得る。   When the color reproduction result image output from the image processing device 20 is used as a display color reproduction result image for display on an RGB display, the reflection component color reproduction unit 26 uses the color matching function and the display device 3. The reflected light spectrum image may be converted into an RGB image using the spectral spectral distribution or colorimetric value relating to the primary color and the gamma characteristic of the display device. In this case, first, a colorimetric value is calculated by multiplying the reflected light spectrum and the color matching function, and the calculated colorimetric value is converted into an RGB value. Finally, a correction process according to the gamma characteristic of the display device is performed to obtain a reflection component color reproduction image for display.

蛍光成分色再現部28には、マルチバンド蛍光成分画像生成部42で生成されたマルチバンド蛍光成分画像が入力される。また、蛍光成分色再現部28には、観察照明光スペクトルが入力される。さらに、蛍光成分色再現部28、等色関数、モニタの原色スペクトル、もしくは原色の測色値が入力される場合もある。   The multiband fluorescence component image generated by the multiband fluorescence component image generation unit 42 is input to the fluorescence component color reproduction unit 28. Further, the observation illumination light spectrum is input to the fluorescence component color reproduction unit 28. Further, the fluorescence component color reproduction unit 28, color matching function, monitor primary color spectrum, or primary color measurement value may be input.

蛍光成分色再現部28は、マルチバンド蛍光成分画像を用いて、分光スペクトルの推定処理により分光スペクトル推定行列を算出する。そして、蛍光成分色再現部28は、マルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出することにより、蛍光スペクトル画像を生成する。なお、蛍光成分色再現部28は、等色関数を用いた場合にはモニタ特性に依存しない測色値画像を、さらにモニタの原色スペクトルや測色値を用いた場合には線形なガンマ特性を持つ原色信号値画像(RGB画像)を算出する。以下では、蛍光成分色再現部28により算出された蛍光スペクトル画像もしくは測色値画像、または、線形なガンマ特性を持つモニタの原色信号値画像を「蛍光成分画像」という。蛍光成分色再現部28からは、蛍光成分画像が出力される。   The fluorescence component color reproduction unit 28 uses the multiband fluorescence component image to calculate a spectral spectrum estimation matrix by spectral spectrum estimation processing. Then, the fluorescence component color reproduction unit 28 generates a fluorescence spectrum image by calculating a fluorescence spectrum by applying a spectrum estimation matrix for each pixel of the multiband fluorescence component image. The fluorescence component color reproduction unit 28 displays a colorimetric value image that does not depend on the monitor characteristic when the color matching function is used, and a linear gamma characteristic when the primary color spectrum or colorimetric value of the monitor is used. A primary color signal value image (RGB image) is calculated. Hereinafter, the fluorescence spectrum image or colorimetric value image calculated by the fluorescence component color reproduction unit 28 or the primary color signal value image of the monitor having linear gamma characteristics is referred to as a “fluorescence component image”. A fluorescence component image is output from the fluorescence component color reproduction unit 28.

具体的には、蛍光成分色再現部28は、上述した反射成分色再現部26と同様の処理を行い、蛍光スペクトルを推定してマルチバンド蛍光成分画像を生成する。f’=[f’,f’,・・・,f’とし、対角成分が全て1の対角行列I’を用いると、下記(14)式から、観察照明光下の蛍光スペクトルE^は、下記(15)式で表される。 Specifically, the fluorescence component color reproduction unit 28 performs processing similar to that of the reflection component color reproduction unit 26 described above, and estimates a fluorescence spectrum to generate a multiband fluorescence component image. When f ′ = [f ′ 1 , f ′ 2 ,..., f ′ N ] T and using a diagonal matrix I ′ whose diagonal components are all 1, the following equation (14) gives Is represented by the following equation (15).

なお、画像処理装置20から出力される色再現結果画像をRGBディスプレイに表示するための表示用色再現結果画像とする場合には、反射成分色再現部26と同様に、蛍光成分色再現部28において蛍光スペクトル画像からRGB画像に変換してもよい。   When the color reproduction result image output from the image processing device 20 is used as a display color reproduction result image for display on an RGB display, the fluorescent component color reproduction unit 28 is similar to the reflection component color reproduction unit 26. In FIG. 5, the fluorescence spectrum image may be converted into an RGB image.

画像合成処理部30には、反射成分色再現画像及び蛍光成分色再現画像が入力される。画像合成処理部30は、反射成分色再現画像と蛍光成分色再現画像とを加算し、観察照明光下において観察される色再現結果画像を生成して出力する。色再現結果画像は、反射成分色再現画像及び蛍光成分色再現画像に応じて、スペクトル画像、測色値画像、及び線形なガンマ特性を持つモニタの原色信号値画像のいずれかである。   A reflection component color reproduction image and a fluorescence component color reproduction image are input to the image composition processing unit 30. The image composition processing unit 30 adds the reflection component color reproduction image and the fluorescence component color reproduction image, and generates and outputs a color reproduction result image observed under observation illumination light. The color reproduction result image is one of a spectrum image, a colorimetric value image, and a primary color signal value image of a monitor having a linear gamma characteristic according to the reflection component color reproduction image and the fluorescence component color reproduction image.

具体的には、観察照明光I~の下で観察される分光スペクトルは、下記(16)式で書き表される。画像合成処理部30は、下記(16)式に基づいて、色再現結果画像を生成する。   Specifically, the spectral spectrum observed under the observation illumination light I˜ is expressed by the following equation (16). The image composition processing unit 30 generates a color reproduction result image based on the following equation (16).

なお、画像合成処理部30に反射光スペクトル画像及び蛍光スペクトル画像が入力される場合は、画像合成処理部30において、上述した反射成分色再現部26及び蛍光成分色再現部28と同様に、観察照明光スペクトル画像からRGB画像に変換してもよい。   When the reflected light spectrum image and the fluorescence spectrum image are input to the image composition processing unit 30, the image composition processing unit 30 observes the same as the reflection component color reproduction unit 26 and the fluorescence component color reproduction unit 28 described above. The illumination light spectrum image may be converted into an RGB image.

次に、本実施の形態の画像処理装置20における画像処理の流れの概略について説明する。   Next, an outline of the flow of image processing in the image processing apparatus 20 of the present embodiment will be described.

なお、マルチバンド画像撮影部16のカメラには1台の白黒カメラ(カメラ内での信号値補正は無く、ガンマ特性は線形)を使用した。また、被写体にはカラーチャートを用いた。マルチバンド照明部14及びマルチバンド画像撮影部16の両方で、図2に示す分光透過率を持つ8枚のバンドパスフィルタを光学素子として使用した。バンドパスフィルタの中心波長はそれぞれ420nm、450nm、490nm、530nm、570nm、610nm、650nm、690nmで、半値幅は中心波長が420nmのバンドパスフィルタは20nmで、その他のバンドパスフィルタは40nmである。各カメラの露光時間は、カメラと撮影照明光源のバンドパスフィルタが同じ場合に、画像信号値が飽和しないように設定した。なお、露光時間は全ての撮影過程に置いて一定でも良いし、マルチバンド照明部14の撮影照明光源のバンド毎に最適値に設定し、撮影後に画像処理で補正をかけても良い。ピント調整は、光学系の収差の影響を抑えるため、カメラ側と撮影照明光源側のバンドパスフィルタが等しいときに実施した。マルチバンド画像撮影装置10により、図3に示すような合計36枚の画像をマルチバンド画像として撮影した。   As the camera of the multiband image photographing unit 16, one monochrome camera (no signal value correction within the camera and linear gamma characteristics) was used. A color chart was used for the subject. In both the multiband illumination unit 14 and the multiband image capturing unit 16, eight bandpass filters having the spectral transmittance shown in FIG. 2 were used as optical elements. The center wavelengths of the bandpass filters are 420 nm, 450 nm, 490 nm, 530 nm, 570 nm, 610 nm, 650 nm, and 690 nm, respectively, and the half-value width is 20 nm for the bandpass filter whose center wavelength is 420 nm, and 40 nm for the other bandpass filters. The exposure time of each camera was set so that the image signal value was not saturated when the band pass filter of the camera and the photographic illumination light source were the same. The exposure time may be constant in all shooting processes, or may be set to an optimum value for each band of the shooting illumination light source of the multiband illumination unit 14 and corrected by image processing after shooting. Focus adjustment was performed when the band-pass filters on the camera side and the photographing illumination light source side were the same in order to suppress the influence of aberrations of the optical system. A total of 36 images as shown in FIG. 3 were taken as multiband images by the multiband image photographing device 10.

マルチバンド画像撮影装置10により撮影照明光の各バンドに対するマルチバンド画像が撮影された後、画像処理装置20により画像処理が実行される。図4は、本実施の形態の画像処理装置20における画像処理の流れの一例を表すフローチャートである。   After the multiband image capturing device 10 captures a multiband image for each band of the photographic illumination light, the image processing device 20 performs image processing. FIG. 4 is a flowchart showing an example of the flow of image processing in the image processing apparatus 20 of the present embodiment.

ステップS100で取得部21は、マルチバンド画像撮影装置10から撮影照明光の各バンドに対するマルチバンド画像を取得する。そして、取得部21は、取得した当該マルチバンド画像を撮影画像蓄積部22に記憶させる。   In step S <b> 100, the acquisition unit 21 acquires a multiband image for each band of photographing illumination light from the multiband image photographing device 10. Then, the acquisition unit 21 stores the acquired multiband image in the captured image storage unit 22.

次のステップS102で蛍光成分分離部40は、撮影照明光の各バンドに対し、蛍光成分を分離して、マルチバンド画像の中から、反射成分が記録された反射成分画像と、蛍光成分が記録された蛍光成分画像とを選別し抽出する。   In the next step S102, the fluorescence component separation unit 40 separates the fluorescence component for each band of the photographic illumination light, and records the reflection component image in which the reflection component is recorded and the fluorescence component from the multiband image. The selected fluorescent component image is selected and extracted.

次のステップS104で重み係数計算部44は、マルチバンド照明部14の各バンドにおける波長選択特性(バンドパスフィルタの分光透過率)、撮影照明光スペクトル、及び観察照明光スペクトルに基づいて、撮影照明光の各バンドの蛍光成分画像に対し、上述した(7)式に基づき、重み係数を計算する。なお、重み係数を計算するタイミングは本実施の形態に限定されず、予め計算しておいてもよい。   In the next step S104, the weighting factor calculation unit 44 performs imaging illumination based on the wavelength selection characteristics (spectral transmittance of the bandpass filter), imaging illumination light spectrum, and observation illumination light spectrum in each band of the multiband illumination unit 14. A weighting factor is calculated for the fluorescent component image of each band of light based on the above-described equation (7). Note that the timing for calculating the weighting coefficient is not limited to this embodiment, and may be calculated in advance.

次のステップS106でマルチバンド蛍光成分画像生成部42は、上記ステップS102で得られた蛍光成分画像と、上記ステップS104で得られた撮影照明光の各バンドの蛍光成分画像に対する重み係数に基づいて、上述したように、撮影照明光の各バンドに対し、当該バンドに対する蛍光成分画像に当該バンドに対する重み係数を掛け合わせ、重みつき線形和を求めることで、蛍光成分画像のうち当該バンドの撮影照明光で撮影された画像に当該バンドの重み係数を掛け合わせ、マルチバンド蛍光成分画像を生成する。   In the next step S106, the multiband fluorescence component image generation unit 42 is based on the fluorescence component image obtained in step S102 and the weighting factor for the fluorescence component image of each band of the imaging illumination light obtained in step S104. As described above, for each band of the photographic illumination light, the fluorescence component image for the band is multiplied by the weighting coefficient for the band to obtain a weighted linear sum, thereby obtaining the photographic illumination for the band of the fluorescence component image. A multiband fluorescent component image is generated by multiplying the image captured with light by the weighting coefficient of the band.

次のステップS108で蛍光成分色再現部28は、上記ステップS106で得られたマルチバンド蛍光成分画像と、分光スペクトル推定行列とに基づいて、上述したように、蛍光スペクトルを算出することにより、蛍光スペクトル画像(蛍光成分色再現画像)を生成する。   In the next step S108, the fluorescence component color reproduction unit 28 calculates the fluorescence spectrum as described above on the basis of the multiband fluorescence component image obtained in step S106 and the spectral spectrum estimation matrix. A spectrum image (fluorescence component color reproduction image) is generated.

次のステップS110で反射成分色再現部26は、上記ステップS102で得られたマルチバンド反射成分画像と、分光反射率推定行列と、観察照明光スペクトルとに基づいて、上述したように、反射光スペクトルを算出することにより、反射光スペクトル画像(反射成分色再現画像)を生成する。   In the next step S110, the reflection component color reproduction unit 26 reflects the reflected light as described above on the basis of the multiband reflection component image obtained in step S102, the spectral reflectance estimation matrix, and the observation illumination light spectrum. A reflected light spectrum image (reflection component color reproduction image) is generated by calculating the spectrum.

次のステップS112で画像合成処理部30は、上述したように、蛍光成色再現画像及び反射成分色再現画像を加算することにより色再現結果画像を生成し、表示装置等に出力した後、本実施の形態の画像処理を終了する。   In the next step S112, as described above, the image composition processing unit 30 generates a color reproduction result image by adding the fluorescence color reproduction image and the reflection component color reproduction image, and outputs the resultant image to a display device. The image processing in the form is finished.

被写体として黄、緑、オレンジ、ピンクの4種類の蛍光色カードを用いて、撮影時のマルチバンド照明部14の撮影照明光源としてキセノンランプを使用し、観察照明光として蛍光灯と白熱灯の下での観察照明光スペクトルの推定を行う実験を行った実験結果を行った。図5には、蛍光灯下での推定結果(estimation)及び分光計による計測結果(measurement)を示す。また、図6には、白熱灯下での推定結果及び分光計による計測結果を示す。図5及び図6によれば、蛍光灯下及び白熱灯下のいずれにおいても、推定結果と計測結果とがほぼ一致していることがわかる。   Using four types of fluorescent color cards of yellow, green, orange and pink as the subject, a xenon lamp is used as the photographing illumination light source of the multiband illumination unit 14 at the time of photographing, and under the fluorescent lamp and the incandescent lamp as observation illumination light The experiment result which performed the experiment which estimates the observation illumination light spectrum in was performed. In FIG. 5, the estimation result (estimation) under a fluorescent lamp and the measurement result (measurement) by a spectrometer are shown. Moreover, in FIG. 6, the estimation result under an incandescent lamp and the measurement result by a spectrometer are shown. According to FIGS. 5 and 6, it can be seen that the estimation result and the measurement result almost coincide with each other under the fluorescent lamp and the incandescent lamp.

なお、上記画像処理における蛍光成分色再現画像を生成するステップS104〜108の処理と、反射成分色再現画像を生成するステップS110の処理の順番は本実施の形態に限定されないことはいうまでもない。   In addition, it cannot be overemphasized that the order of the process of step S104-108 which produces | generates the fluorescence component color reproduction image in the said image process, and the process of step S110 which produces | generates a reflection component color reproduction image is not limited to this Embodiment. .

なお、本実施の形態の画像処理では、マルチバンド画像撮影装置10のマルチバンド画像撮影部16が備える複数の光学素子(バンドパスフィルタ)の構成は、特に限定されない。複数の光学素子は、例えば、カメラで撮影された撮影画像毎に、撮影照明光源から射出された光が透過する波長帯域(バンド)を制御してもよい。このように構成する場合は、例えば、カメラのレンズの前に配置した光学素子を順次切り替えて、光学素子毎に撮影を行えばよい。   In the image processing of the present embodiment, the configuration of the plurality of optical elements (bandpass filters) included in the multiband image photographing unit 16 of the multiband image photographing device 10 is not particularly limited. For example, the plurality of optical elements may control a wavelength band (band) through which light emitted from the photographing illumination light source passes for each photographed image photographed by the camera. In the case of such a configuration, for example, the optical elements arranged in front of the lens of the camera may be sequentially switched and photographing may be performed for each optical element.

また、複数の光学素子は、例えば、カメラで撮影された撮影画像の画素毎(複数の画素による画素群単位毎も含む)に、撮影照明光源から射出された光が透過する波長帯域(バンド)を制御してもよい。このように構成する場合は、例えば、カメラがイメージセンサを有する場合、当該イメージセンサの画素毎に、異なる光学素子(バンドパスフィルタ)を配置すればよく、具体例としては、CCD( Charge Coupled Device Image Sensor)イメージセンサ上のカラーフィルタを当該複数の光学素子とすることが挙げられる。   The plurality of optical elements are, for example, wavelength bands (bands) through which light emitted from the photographing illumination light source passes for each pixel (including each pixel group unit of the plurality of pixels) of the photographed image photographed by the camera. May be controlled. In the case of such a configuration, for example, when the camera has an image sensor, a different optical element (bandpass filter) may be arranged for each pixel of the image sensor. As a specific example, a charge coupled device (CCD) Image sensor) The color filter on the image sensor may be the plurality of optical elements.

マルチバンド画像撮影部16は、1台の白黒カメラと、入射光の波長帯域を制御する光学素子(例えばバンドパスフィルタ)と、を含む(いずれも図示省略)。マルチバンド画像撮影部16は、撮影制御部12から入力される制御信号に基づいて、光学素子の波長特性を切り替える。具体例として光学素子がバンドパスフィルタの場合は、マルチバンド画像撮影部16はバンドパスフィルタの切り替えを行う。また、マルチバンド画像撮影部16は、撮影制御部12から入力される制御信号に基づいて、被写体の画像を撮影する。これにより、マルチバンド画像撮影部16からは、各バンドの撮影照明光に対応したマルチバンド画像が出力される。以下では、マルチバンド画像撮影部16の光学素子(バンドパスフィルタを使用している場合はバンドパスフィルタ)の波長を「カメラ波長」という。   The multiband image photographing unit 16 includes one monochrome camera and an optical element (for example, a bandpass filter) that controls the wavelength band of incident light (all not shown). The multiband image photographing unit 16 switches the wavelength characteristic of the optical element based on the control signal input from the photographing control unit 12. As a specific example, when the optical element is a bandpass filter, the multiband image photographing unit 16 performs switching of the bandpass filter. The multiband image capturing unit 16 captures an image of the subject based on the control signal input from the capturing control unit 12. Thereby, the multiband image photographing unit 16 outputs a multiband image corresponding to the photographing illumination light of each band. Hereinafter, the wavelength of the optical element of the multiband image photographing unit 16 (or a bandpass filter when a bandpass filter is used) is referred to as a “camera wavelength”.

このように本実施の形態のマルチバンド画像撮影装置は、マルチバンド照明部14とマルチバンド画像撮影部16とを備える。マルチバンド画像撮影部16は、1台の単色カメラと、1台のカメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子の一例であるバンドパスフィルタを備える。また、マルチバンド照明部14は、撮影照明光源と、当該撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子の一例であるバンドパスフィルタを備える。   As described above, the multiband image capturing apparatus of the present embodiment includes the multiband illumination unit 14 and the multiband image capturing unit 16. The multiband image photographing unit 16 is an example of a single monochromatic camera and a plurality of first optical elements that limit the wavelength of light incident on the single camera and have different bands that are wavelength bands of light to be transmitted. A certain band pass filter is provided. In addition, the multiband illumination unit 14 restricts the wavelength of the photographic illumination light source and the photographic illumination light irradiated to the subject from the photographic illumination light source, and a plurality of second optical elements having different bands that are the wavelength bands of the transmitted light. A band-pass filter which is an example of

画像処理装置20は、マルチバンド画像生成部24を備える。マルチバンド画像生成部24は、蛍光成分分離部40、マルチバンド蛍光成分画像生成部42、及び重み係数計算部44を備える。蛍光成分分離部40は、撮影照明光の各バンドに対し、マルチバンド画像を、当該バンドと等しいバンドの画像である反射成分画像と、当該バンドより中心波長が長いバンドの画像である蛍光成分画像とに分離する。重み係数計算部44は、撮影照明光の各バンドに対し、撮影照明光の照明光スペクトルと当該バンドに対する第2光学素子の波長選択特性の積で、観察環境の照明光の照明光スペクトルと前記バンドに対する前記第2光学素子の波長選択特性の積を割ることにより、バンドの蛍光成分画像に対応する重み係数を計算する。マルチバンド蛍光成分画像生成部42は、蛍光成分分離部40により分離された、撮影照明光の各バンドに対する蛍光成分画像と、重み係数計算部44により計算された撮影照明光の各バンドに対する重み係数とに基づいて、蛍光成分画像の重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力する。   The image processing apparatus 20 includes a multiband image generation unit 24. The multiband image generation unit 24 includes a fluorescence component separation unit 40, a multiband fluorescence component image generation unit 42, and a weight coefficient calculation unit 44. The fluorescence component separation unit 40, for each band of photographic illumination light, forms a multiband image, a reflection component image that is an image of a band equal to the band, and a fluorescence component image that is an image of a band having a longer center wavelength than the band. And to separate. The weighting factor calculation unit 44 is the product of the illumination light spectrum of the imaging illumination light and the wavelength selection characteristic of the second optical element for the band for each band of the imaging illumination light, and the illumination light spectrum of the illumination light in the observation environment A weighting factor corresponding to the fluorescent component image of the band is calculated by dividing the product of the wavelength selection characteristics of the second optical element with respect to the band. The multi-band fluorescence component image generation unit 42 is a fluorescence component image for each band of imaging illumination light separated by the fluorescence component separation unit 40 and a weighting coefficient for each band of imaging illumination light calculated by the weighting coefficient calculation unit 44. Based on the above, a multiband fluorescence component image is generated and output by obtaining a weighted linear sum of the fluorescence component images.

また、画像処理装置20は、反射成分色再現部26、蛍光成分色再現部28、及び画像合成処理部30を備える。蛍光成分色再現部28は、マルチバンド蛍光成分画像生成部42で生成されたマルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出し、蛍光成分色再現画像を生成する。反射成分色再現部26は、蛍光成分分離部40で分離された反射成分画像によるマルチバンド反射成分画像の画素毎に、分光反射率推定行列及び観察照明光スペクトルをかけて反射光スペクトルを算出し、反射成分色再現画像を生成する。画像合成処理部30は、蛍光成分色再現画像と反射成分色再現画像とを加算して色再現結果画像を生成して出力する。   The image processing apparatus 20 also includes a reflection component color reproduction unit 26, a fluorescence component color reproduction unit 28, and an image composition processing unit 30. The fluorescence component color reproduction unit 28 calculates a fluorescence spectrum by applying a spectral spectrum estimation matrix for each pixel of the multiband fluorescence component image generated by the multiband fluorescence component image generation unit 42, and generates a fluorescence component color reproduction image. To do. The reflection component color reproduction unit 26 calculates the reflected light spectrum by multiplying the spectral reflectance estimation matrix and the observation illumination light spectrum for each pixel of the multiband reflection component image by the reflection component image separated by the fluorescence component separation unit 40. Then, a reflection component color reproduction image is generated. The image composition processing unit 30 adds the fluorescent component color reproduction image and the reflection component color reproduction image to generate and output a color reproduction result image.

従って、本実施の形態の画像処理装置20によれば、従来よりも広帯域な波長幅で分光を行い撮影されたマルチバンド画像により、蛍光成分の吸光特性の推定を要せずに、反射成分画像と蛍光成分画像とを用いて任意の観察照明光下での画像を生成することができる。   Therefore, according to the image processing apparatus 20 of the present embodiment, the reflection component image can be obtained without estimating the light absorption characteristic of the fluorescent component by using the multiband image obtained by performing spectroscopy with a wider wavelength range than before. And a fluorescent component image can be used to generate an image under any observation illumination light.

[第2の実施の形態]
本実施の形態は、上述した第1の実施の形態と同様の構成及び動作を含むため、同様の構成及び動作についてはその旨を記し詳細な説明を省略する。
[Second Embodiment]
Since the present embodiment includes the same configuration and operation as those of the first embodiment described above, the same configuration and operation are described as such and detailed description thereof is omitted.

図7は、本実施の形態の画像処理装置120を備えた画像処理システム101の概略構成の一例を示す構成図である。   FIG. 7 is a configuration diagram illustrating an example of a schematic configuration of the image processing system 101 including the image processing apparatus 120 according to the present embodiment.

本実施の形態の画像処理システム101は、マルチバンド画像撮影装置110及び画像処理装置120を備える。   The image processing system 101 of this embodiment includes a multiband image photographing device 110 and an image processing device 120.

マルチバンド画像撮影装置110は、マルチバンド照明部114及びマルチバンド画像撮影部116を備えている。   The multiband image photographing device 110 includes a multiband illumination unit 114 and a multiband image photographing unit 116.

図8に、本実施の形態のマルチバンド照明部114として用いたマルチバンド照明装置の具体例を示す。図8に示したマルチバンド照明装置114Aの撮影照明光源はキセノンランプであり、マルチバンド照明装置114Aの内部には最大8枚のバンドパスフィルタが取りつけ可能なフィルタターレットが内蔵されている。また射出光はファイバーガイドを経由して、レンズを通して被写体に照射される。図8に示したマルチバンド照明装置114Aの場合は、2台の8バンド照明装置をファイバーガイドでつないで、同一のレンズから被写体に射出光が照射される。   FIG. 8 shows a specific example of a multiband illumination device used as the multiband illumination unit 114 of this embodiment. The imaging illumination light source of the multiband illumination device 114A shown in FIG. 8 is a xenon lamp, and a filter turret capable of attaching a maximum of eight bandpass filters is built in the multiband illumination device 114A. The emitted light is irradiated to the subject through the lens via the fiber guide. In the case of the multiband illuminating device 114A shown in FIG. 8, two 8-band illuminating devices are connected by a fiber guide, and the subject is irradiated with the emitted light from the same lens.

マルチバンド画像撮影部116は、複数台の白黒カメラを備えている。図9に、本実施の形態のマルチバンド画像撮影部116に用いた9眼ステレオカメラの具体例を示す。9台のカメラは全て白黒カメラであり、それぞれのカメラには、図10に示す分光透過率を有するバンドパスフィルタが取り付けられている。マルチバンド照明装置114Aにも同じ分光透過率を有する9枚のバンドパスフィルタが取り付けられている。   The multiband image photographing unit 116 includes a plurality of monochrome cameras. FIG. 9 shows a specific example of a nine-eye stereo camera used in the multiband image photographing unit 116 of the present embodiment. All nine cameras are monochrome cameras, and each camera is provided with a band-pass filter having a spectral transmittance shown in FIG. Nine bandpass filters having the same spectral transmittance are also attached to the multiband illumination device 114A.

各カメラの露光時間は、撮影制御部112及びマルチバンド照明部114のバンドパスフィルタが等しいときに画像信号値が飽和しないよう設定し、撮影後に補正をかけた。撮影画像の明るさの補正には、同じ条件で撮影した標準白色板の画素値を使用した。また各カメラのピント調整も、光学系の収差の影響を抑えるため、撮影制御部112及びマルチバンド照明部114のバンドパスフィルタの波長が等しいときに実施した。   The exposure time of each camera was set so that the image signal value was not saturated when the band-pass filters of the imaging control unit 112 and the multiband illumination unit 114 were equal, and correction was performed after imaging. The pixel value of a standard white plate photographed under the same conditions was used for correcting the brightness of the photographed image. The focus adjustment of each camera was also performed when the wavelengths of the band-pass filters of the imaging control unit 112 and the multiband illumination unit 114 were equal in order to suppress the influence of aberrations of the optical system.

本実施の形態のマルチバンド画像撮影部116のカメラは上述のように、9台のカメラを用いており、各カメラの位置が異なるため、各カメラで撮影された画像中の被写体の位置がずれている。そのため、本実施の形態の画像処理装置120では、マルチバンド画像のうちから選択した基準画像に基づいて、被写体の位置を合わせるように他の画像を変形させる。   As described above, the camera of the multiband image capturing unit 116 of the present embodiment uses nine cameras, and the positions of the respective cameras are different, so the position of the subject in the image captured by each camera is shifted. ing. Therefore, in the image processing apparatus 120 according to the present embodiment, other images are deformed so as to match the position of the subject based on the reference image selected from among the multiband images.

本実施の形態の画像処理装置120には、マルチバンド画像撮影部116で撮影されたバンド数Nのマルチバンド画像が入力される。また、図7に示すように、本実施の形態の画像処理装置120は、第1の実施の形態の画像処理装置20のマルチバンド画像生成部24に代えてマルチバンド画像生成部124を備えている。   The image processing apparatus 120 according to the present embodiment receives a multiband image having N bands taken by the multiband image photographing unit 116. As shown in FIG. 7, the image processing apparatus 120 according to the present embodiment includes a multiband image generation unit 124 instead of the multiband image generation unit 24 of the image processing apparatus 20 according to the first embodiment. Yes.

マルチバンド画像生成部124は、蛍光成分分離部40の前に画像変形処理部46をさらに備えている。図11は、本実施の形態の画像変形処理部46の概略構成の一例を示す構成図である。   The multiband image generation unit 124 further includes an image deformation processing unit 46 before the fluorescence component separation unit 40. FIG. 11 is a configuration diagram illustrating an example of a schematic configuration of the image deformation processing unit 46 of the present embodiment.

図11に示すように、画像変形処理部46は、基準画像選択部50、対応点検出部52、画像変形パラメータ算出部54、画像変形パラメータ記憶部56、及び画像変形処理部58を備えている。   As shown in FIG. 11, the image deformation processing unit 46 includes a reference image selection unit 50, a corresponding point detection unit 52, an image deformation parameter calculation unit 54, an image deformation parameter storage unit 56, and an image deformation processing unit 58. .

基準画像選択部50には、撮影画像蓄積部22に蓄積されているマルチバンド画像撮影部116で撮影された複数の画像が入力される。光源波長とカメラ波長とが等しい(光源波長=カメラ波長)画像(反射成分画像)の中から対応点検出の基準とする基準画像を1枚選択する。例えば、基準画像としては、被写体に対して所望の位置に設置されたカメラで撮影された画像や、9バンドの画像中で中心波長が短いほうから4番目の画像、輝度のヒストグラム分布の分散が最大である画像、及びエントロピが最大である画像等が挙げられる。   The reference image selection unit 50 receives a plurality of images captured by the multiband image capturing unit 116 stored in the captured image storage unit 22. One reference image as a reference for detecting corresponding points is selected from images (reflection component images) having the same light source wavelength and camera wavelength (light source wavelength = camera wavelength). For example, as a reference image, an image captured by a camera installed at a desired position with respect to a subject, a fourth image having a shorter center wavelength in a 9-band image, and dispersion of luminance histogram distribution. Examples include an image having the maximum entropy and an image having the maximum entropy.

基準画像選択部50からは、選択された1枚の反射成分画像である基準画像と、基準画像とは異なる、光源波長とカメラ波長とが等しいN−1枚の反射成分画像である変形対象画像と、が対応点検出部52に出力される。また、基準画像選択部50からは、光源波長とカメラ波長とが異なる画像が画像変形処理部58に出力される。   From the reference image selection unit 50, a reference image that is one selected reflection component image and a deformation target image that is N−1 reflection component images that are different from the reference image and have the same light source wavelength and camera wavelength. Are output to the corresponding point detection unit 52. In addition, from the reference image selection unit 50, images having different light source wavelengths and camera wavelengths are output to the image deformation processing unit 58.

対応点検出部52には、基準画像選択部50で選択された基準画像とN−1枚の反射成分画像である変形対象画像が入力される。なお、変形対象画像は、後述する画像変形パラメータ記憶部56に画像変形パラメータが記憶されるごとに、順次、対応点検出部52に入力されるようにしてもよい。   The corresponding point detection unit 52 receives the reference image selected by the reference image selection unit 50 and the deformation target image which is N−1 reflection component images. The deformation target image may be sequentially input to the corresponding point detection unit 52 every time the image deformation parameter is stored in the image deformation parameter storage unit 56 described later.

対応点検出部52は、基準画像の基準点に対応する変形対象画像の対応点を探索して検出する。対応点を探索して検出する方法は特に限定されず、既存の方法を用いればよい。既存の方法としては、例えば、NCC(Normalized cross correlation)法や位相限定相関(Phase-only correlation:POC)法、SAD (sum of absolute differences)法、SSD(sum of squared difference)法、ヒストグラム相関法、SIFT(Scale-Invariant Feature Transform)法、HOG(Histograms of Oriented Gradients)法等が挙げられる。   The corresponding point detection unit 52 searches for and detects corresponding points of the deformation target image corresponding to the reference points of the reference image. A method for searching for and detecting corresponding points is not particularly limited, and an existing method may be used. Examples of existing methods include NCC (Normalized Cross Correlation), Phase-only correlation (POC), SAD (sum of absolute differences), SSD (sum of squared difference), and histogram correlation. SIFT (Scale-Invariant Feature Transform) method, HOG (Histograms of Oriented Gradients) method and the like.

対応点検出部52からは、検出された対応点と、基準画像の基準点と変形対象画像上における対応点の位置関係とが出力される。   The corresponding point detection unit 52 outputs the detected corresponding points and the positional relationship between the reference points of the reference image and the corresponding points on the deformation target image.

画像変形パラメータ算出部54には、対応点検出部52で検出された対応点と、基準画像の基準点と変形対象画像上における対応点の位置関係とが入力される。   The image deformation parameter calculation unit 54 receives the corresponding points detected by the corresponding point detection unit 52 and the positional relationship between the reference points of the reference image and the corresponding points on the deformation target image.

画像変形パラメータ算出部54は、対応点検出部52で検出された対応点を用いて、基準点と対応点とが一致するように画像変形パラメータを算出する。画像変形パラメータとしては、例えばアフィン変換行列や、スプライン補完法で使用するルックアップテーブル等が挙げられる。また、画像変形パラメータの算出方法は特に限定されず、既存の手法を用いればよい。   The image deformation parameter calculation unit 54 uses the corresponding points detected by the corresponding point detection unit 52 to calculate image deformation parameters so that the reference points and the corresponding points coincide. Examples of the image deformation parameter include an affine transformation matrix and a lookup table used in the spline interpolation method. The method for calculating the image deformation parameter is not particularly limited, and an existing method may be used.

本実施の形態では、画像変形パラメータ算出部54は、N−1枚の反射成分画像である変形対象画像について画像変形パラメータを算出する。従って、画像変形パラメータ算出部54からは、各バンドの画像変形パラメータが出力される。   In the present embodiment, the image deformation parameter calculation unit 54 calculates image deformation parameters for the deformation target images that are N−1 reflection component images. Therefore, the image deformation parameter calculation unit 54 outputs image deformation parameters for each band.

画像変形パラメータ記憶部56は、入力された画像変形パラメータ算出部54で算出された画像変換パラメータが記憶される。   The image transformation parameter storage unit 56 stores the input image transformation parameter calculated by the image transformation parameter calculation unit 54.

画像変形処理部58には、画像変形パラメータ記憶部56に記憶されている各バンドの画像変形パラメータ及び変形対象画像が入力される。   The image deformation processing unit 58 receives the image deformation parameters and deformation target images of each band stored in the image deformation parameter storage unit 56.

画像変形処理部58は、画像変換パラメータに基づき変形対象画像の変形を行う。なお、同一のカメラで撮影された異なる撮影照明光源下での画像に対しては、同一の画像変形パラメータが適用可能である。そのため、光源波長とカメラ波長とが異なる(光源波長≠カメラ波長)の画像(蛍光成分画像)に関しては、対応点検出および画像変形パラメータ算出は行わなくても良く、画像変形パラメータ記憶部56に記憶されたカメラ波長が同一の画像変形パラメータを用いて画像変形処理を行う。画像変形処理部58からは、基準画像と各バンドの変形対象画像の変形結果の画像(変形結果画像)とを含むマルチバンド画像が蛍光成分分離部40に出力される。   The image deformation processing unit 58 deforms the deformation target image based on the image conversion parameter. It should be noted that the same image deformation parameter can be applied to images taken with the same camera under different photographing illumination light sources. Therefore, for an image (fluorescence component image) in which the light source wavelength and the camera wavelength are different (light source wavelength ≠ camera wavelength), it is not necessary to perform corresponding point detection and image deformation parameter calculation, and the image deformation parameter storage unit 56 stores the image. Image deformation processing is performed using image deformation parameters having the same camera wavelength. From the image deformation processing unit 58, a multiband image including a reference image and a deformation result image (deformation result image) of the deformation target image of each band is output to the fluorescence component separation unit 40.

なお、本実施の形態では、被写体が平面状の場合には、画像変形パラメータ算出部54及び画像変形処理部58における手段として、線形的な手法の1つである射影変換法を用いた。また、被写体が3次元的な形状を持つ場合には、非線形的な手法の1つであるTPS(Thin-plate spline)法を用いた。この他の画像変形方法としては、画像を小領域に分割し、画像毎に射影変換法の様な線形的手法やTPS法の様な非線形的手法を適用してもよい。また各カメラで得られるステレオ情報を用いて被写体の3次元形状を推定し、形状の推定結果と撮影画像の対応付けを行い、画像生成を行っても良い。撮影画像からの3次元形状推定結果を用いる代わりに、画像撮影と同時に3次元スキャナによる形状計測を行い、得られた3次元形状データと撮影画像との対応付けを行ってもよい。   In the present embodiment, when the subject is planar, a projective transformation method, which is one of linear methods, is used as a means in the image deformation parameter calculation unit 54 and the image deformation processing unit 58. Further, when the subject has a three-dimensional shape, a TPS (Thin-plate spline) method, which is one of nonlinear methods, is used. As another image deformation method, an image may be divided into small regions, and a linear method such as a projective transformation method or a nonlinear method such as a TPS method may be applied for each image. Alternatively, the stereo information obtained by each camera may be used to estimate the three-dimensional shape of the subject, the shape estimation result may be associated with the captured image, and image generation may be performed. Instead of using the three-dimensional shape estimation result from the photographed image, the shape measurement by the three-dimensional scanner may be performed simultaneously with the image photographing, and the obtained three-dimensional shape data and the photographed image may be associated with each other.

次に、本実施の形態の画像処理装置120における画像処理の流れの概略について説明する。   Next, an outline of the flow of image processing in the image processing apparatus 120 of the present embodiment will be described.

図12は、本実施の形態の画像処理装置120における画像処理の流れの一例を表すフローチャートである。   FIG. 12 is a flowchart illustrating an example of the flow of image processing in the image processing apparatus 120 according to the present embodiment.

本実施の形態の画像処理では、ステップS100で取得部21がマルチバンド画像を取得して撮影画像蓄積部22に記憶させた後、ステップS202へ移行する。   In the image processing of the present embodiment, the acquisition unit 21 acquires a multiband image and stores it in the captured image storage unit 22 in step S100, and then proceeds to step S202.

ステップS202で基準画像選択部50が、光源波長とカメラ波長とが等しい画像(反射成分画像)の中から対応点検出の基準とする基準画像を選択する。例えば、上述したように、中央のカメラで撮影された画像を基準画像として選択する。   In step S202, the reference image selection unit 50 selects a reference image as a reference for detecting corresponding points from images (reflection component images) having the same light source wavelength and camera wavelength. For example, as described above, an image taken by the central camera is selected as the reference image.

次のステップS204で対応点検出部52が、上述したように、光源波長とカメラ波長とが等しい、基準画像と1枚の変形対象画像間での対応点を探索して検出する。例えば、サブピクセル精度での対応点検出には、位相限定相関法を用いる。   In the next step S204, as described above, the corresponding point detection unit 52 searches for and detects corresponding points between the reference image and one deformation target image, in which the light source wavelength and the camera wavelength are equal. For example, a phase only correlation method is used for detecting corresponding points with sub-pixel accuracy.

次のステップS206で画像変形パラメータ算出部54が、上述したように、対応点検出部52で検出された対応点を用いて、画像変形パラメータを算出する。算出された画像変形パラメータは、画像変形パラメータ記憶部56に記憶される。   In the next step S206, the image deformation parameter calculation unit 54 calculates the image deformation parameter using the corresponding points detected by the corresponding point detection unit 52 as described above. The calculated image deformation parameter is stored in the image deformation parameter storage unit 56.

次のステップS208で画像変形パラメータ算出部54は、単色カメラの全バンドに対する画像変形パラメータが画像変形パラメータ記憶部56に記憶されたか判断する。未だ記憶されていない場合は、否定判定となり、ステップS204に戻り、画像変形パラメータの算出及び記憶を繰り返す。一方、肯定判定となった場合は、ステップS210へ移行する。   In the next step S <b> 208, the image deformation parameter calculation unit 54 determines whether image deformation parameters for all bands of the monochromatic camera are stored in the image deformation parameter storage unit 56. If not yet stored, the determination is negative, and the process returns to step S204 to repeat the calculation and storage of the image deformation parameter. On the other hand, when it becomes affirmation determination, it transfers to step S210.

ステップS210で画像変形処理部58は、上述したように、画像変換パラメータに基づいて、光源波長とカメラ波長とが異なる(光源波長≠カメラ波長)の変形対象画像も含め、全ての変形対象画像の変形を行う。   In step S210, as described above, the image deformation processing unit 58 includes all the deformation target images including the deformation target images having different light source wavelengths and camera wavelengths (light source wavelength ≠ camera wavelength) based on the image conversion parameters. Perform deformation.

ステップS210の後は、上述した第1の実施の形態のステップS102に移行し、ステップS102〜S112の処理を行った後、本画像処理を終了する。   After step S210, the process proceeds to step S102 of the above-described first embodiment, and after performing the processes of steps S102 to S112, the main image processing is terminated.

なお本実施の形態では、上述したように、マルチバンド画像撮影部116が複数台の白黒(単色)カメラを備えている場合について説明したが、マルチバンド画像撮影部116が備えるカメラはこれに限定されない。例えば、第1の実施の形態のマルチバンド画像撮影装置10のマルチバンド画像撮影部16と同様に1台の白黒(単色)カメラであってもよい。第1の実施の形態のマルチバンド画像撮影部16のようにカメラが1台であっても、何らかの原因でマルチバンド画像撮影部16のカメラの位置や姿勢が変化した場合には、本実施の形態で上述した画像処理(特に画像変形処理部58による画像変形処理)を行うことが好ましい。   In the present embodiment, as described above, the case where the multiband image capturing unit 116 includes a plurality of monochrome (single color) cameras has been described. However, the camera included in the multiband image capturing unit 116 is not limited thereto. Not. For example, as with the multiband image photographing unit 16 of the multiband image photographing device 10 according to the first embodiment, a single monochrome (monochrome) camera may be used. Even if there is only one camera as in the multiband image capturing unit 16 of the first embodiment, if the camera position or orientation of the multiband image capturing unit 16 changes for some reason, the present embodiment It is preferable to perform the above-described image processing (particularly, image deformation processing by the image deformation processing unit 58).

また、マルチバンド画像撮影部116が例えば後述する第3の実施の形態のように、カラー(RGB)カメラを備えていてもよい。この場合、カラーカメラで撮影されたカラー画像を白黒画像に変換した単色画像を用いればよい。   Further, the multiband image photographing unit 116 may be provided with a color (RGB) camera as in a third embodiment to be described later. In this case, a monochromatic image obtained by converting a color image taken by a color camera into a black and white image may be used.

また、本実施の形態では、上述したように、撮影された複数の画像のうち光源波長とカメラ波長とが等しい画像の中から、基準画像を選択し、画像変形パラメータ算出部54が変形対象画像について画像変形パラメータを算出したが、これに限らず、基準画像を除く撮影された複数の画像の全てに対して、画像変形パラメータを算出し、算出した画像変形パラメータに基づいて、画像変形処理部58が画像変形処理を行うようにしてもよい。   In the present embodiment, as described above, a reference image is selected from images that have the same light source wavelength and camera wavelength among a plurality of captured images, and the image deformation parameter calculation unit 54 performs the deformation target image. Although the image deformation parameter is calculated for the image deformation parameter, the image deformation parameter is calculated for all of a plurality of captured images excluding the reference image, and the image deformation processing unit is calculated based on the calculated image deformation parameter. 58 may perform image deformation processing.

このように本実施の形態のマルチバンド画像撮影装置110は、マルチバンド照明部114及びマルチバンド画像撮影部116を備える。マルチバンド画像撮影部116は、カメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子の一例であるバンドパスフィルタを有し、かつ、視点が異なる複数台の単色カメラを備える。マルチバンド照明部114は、撮影照明光源と、撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子の一例であるバンドパスフィルタを備える。   As described above, the multiband image capturing apparatus 110 according to the present embodiment includes the multiband illumination unit 114 and the multiband image capturing unit 116. The multiband image photographing unit 116 includes a bandpass filter that is an example of a plurality of first optical elements that limit the wavelength of light incident on the camera and have different bands that are wavelength bands of light to be transmitted, and Equipped with multiple monochrome cameras with different viewpoints. The multiband illumination unit 114 is an example of a plurality of second optical elements that limit the wavelength of the photographic illumination light source and the photographic illumination light emitted from the photographic illumination light source to the subject and have different bands that are the wavelength bands of the transmitted light. A certain band pass filter is provided.

また、本実施の形態の画像処理装置120におけるマルチバンド画像生成部124は、蛍光成分分離部40、マルチバンド蛍光成分画像生成部42、重み係数計算部44、及び画像変形処理部46を備える。画像変形処理部46は、基準画像選択部50、対応点検出部52、画像変形パラメータ算出部54、画像変形パラメータ記憶部56、及び画像変形処理部58を備える。   The multiband image generation unit 124 in the image processing apparatus 120 of the present embodiment includes a fluorescence component separation unit 40, a multiband fluorescence component image generation unit 42, a weight coefficient calculation unit 44, and an image deformation processing unit 46. The image deformation processing unit 46 includes a reference image selection unit 50, a corresponding point detection unit 52, an image deformation parameter calculation unit 54, an image deformation parameter storage unit 56, and an image deformation processing unit 58.

基準画像選択部50は、撮影された複数の画像のうち光源波長とカメラ波長とが等しい画像の中から予め定められた画像を基準画像として選択する。   The reference image selection unit 50 selects a predetermined image as a reference image from among a plurality of captured images having the same light source wavelength and camera wavelength.

対応点検出部52は、基準画像とは異なる、光源波長とカメラ波長とが等しい画像の各々について、前記基準画像上の各基準点に対する、前記画像上における各対応点を検出する。   The corresponding point detection unit 52 detects each corresponding point on the image with respect to each reference point on the reference image for each of the images different from the reference image and having the same light source wavelength and camera wavelength.

画像変形パラメータ算出部54は、基準画像とは異なる、光源波長とカメラ波長とが等しい画像の各々について画像変形パラメータを算出して画像変形パラメータ記憶部56に記憶させる。   The image deformation parameter calculation unit 54 calculates an image deformation parameter for each of the images that are different from the reference image and have the same light source wavelength and camera wavelength, and stores them in the image deformation parameter storage unit 56.

画像変形処理部58は、撮影照明光の各バンドに対し、基準画像とは異なる画像の各々において、基準画像上の各基準点に対する画像における各対応点に基づいて、各基準点の位置と各対応点の位置とが一致するように画像を変形した変形結果画像を生成し、基準画像と変形結果画像の各々とを含むマルチバンド画像を生成する。   The image transformation processing unit 58 is configured to detect the position of each reference point and the position of each reference point on the basis of each corresponding point in the image with respect to each reference point on the reference image. A deformation result image obtained by deforming the image so as to match the position of the corresponding point is generated, and a multiband image including each of the reference image and the deformation result image is generated.

本実施の形態の蛍光成分分離部40は、撮影照明光の各バンドに対し、画像変形処理部58により変形されたマルチバンド画像を、前記バンドと等しいバンドの画像である反射成分画像と、前記バンドより中心波長が長いバンドの画像である蛍光成分画像とに分離する。   The fluorescence component separation unit 40 according to the present embodiment converts the multiband image deformed by the image deformation processing unit 58 for each band of photographing illumination light into a reflection component image that is an image of a band equal to the band, and The image is separated into a fluorescent component image that is an image of a band having a longer center wavelength than the band.

従って、本実施の形態の画像処理装置120においても第1の実施の形態と同様に、従来よりも広帯域な波長幅で分光を行い撮影されたマルチバンド画像により、蛍光成分の吸光特性の推定を要せずに、反射成分画像と蛍光成分画像とを用いて任意の観察照明光下での画像を生成することができる。   Therefore, in the image processing apparatus 120 of the present embodiment as well, as in the first embodiment, the absorption characteristics of the fluorescent component are estimated from the multiband image captured by performing the spectrum with a wider wavelength range than before. It is not necessary to generate an image under any observation illumination light using the reflection component image and the fluorescence component image.

また、複数のカメラにより同時に撮影を行うことができるため、撮影回数を第1の実施の形態よりも少なくすることができる。
[第3の実施の形態]
本実施の形態は、上述した各実施の形態と同様の構成及び動作を含むため、同様の構成及び動作についてはその旨を記し詳細な説明を省略する。
In addition, since a plurality of cameras can be used for shooting simultaneously, the number of shootings can be reduced as compared with the first embodiment.
[Third Embodiment]
Since this embodiment includes the same configuration and operation as each of the above-described embodiments, the same configuration and operation are described as such and detailed description thereof is omitted.

図13には、本実施の形態の画像処理システム201の概略構成の一例を示す構成図を示す。本実施の形態の画像処理システム201は、マルチバンド画像撮影部216と画像処理装置220の画像変形処理部246が第2の実施の形態と異なる。   FIG. 13 is a configuration diagram illustrating an example of a schematic configuration of the image processing system 201 according to the present embodiment. The image processing system 201 of the present embodiment is different from the second embodiment in a multiband image photographing unit 216 and an image deformation processing unit 246 of the image processing device 220.

本実施の形態のマルチバンド画像撮影部216は、1台のカラー(RGB)カメラと、複数の単色(白黒)カメラ(具体例として8台)と、を備える。また、マルチバンド画像撮影部216は各単色カメラに付随する入射光の波長帯域を制御する光学素子を備える。   The multiband image photographing unit 216 according to the present embodiment includes one color (RGB) camera and a plurality of single color (black and white) cameras (as a specific example, eight). The multiband image photographing unit 216 includes an optical element that controls the wavelength band of incident light associated with each monochrome camera.

図14に、本実施の形態のマルチバンド画像撮影部216に用いた9眼ステレオカメラの具体例を示す。中央のカメラがRGBカメラ、その周辺の8台のカメラは白黒カメラである。RGBカメラで画角を決め、その周辺に白黒カメラを配置した。白黒カメラの各々には、上記図2に示した分光透過率を有するバンドパスフィルタがレンズの前に取り付けられている。   FIG. 14 shows a specific example of a nine-eye stereo camera used in the multiband image photographing unit 216 of this embodiment. The center camera is an RGB camera, and the surrounding eight cameras are monochrome cameras. The angle of view was determined with an RGB camera, and a black and white camera was placed around it. In each monochrome camera, a bandpass filter having the spectral transmittance shown in FIG. 2 is attached in front of the lens.

各カメラの露光時間は、マルチバンド照明部14とマルチバンド画像撮影部216バンドパスフィルタの波長が等しい場合に画像信号値が飽和しないよう設定し、撮影後に補正をかけた。撮影画像の明るさの補正には、同じ条件で撮影した標準白色板の画素値を使用した。また、各カメラのピント調整も、光学系の収差の影響を抑えるため、マルチバンド照明部14及びマルチバンド画像撮影部216のバンドパスフィルタの波長が等しいときに実施した。   The exposure time of each camera was set so as not to saturate the image signal value when the wavelengths of the multiband illumination unit 14 and the multiband image photographing unit 216 bandpass filter were equal, and correction was performed after photographing. The pixel value of a standard white plate photographed under the same conditions was used for correcting the brightness of the photographed image. In addition, focus adjustment of each camera was also performed when the wavelengths of the band-pass filters of the multiband illumination unit 14 and the multiband image photographing unit 216 were equal in order to suppress the influence of aberration of the optical system.

マルチバンド画像撮影部216からは、各バンドの撮影照明光に対応したマルチバンド画像及び撮影照明光(分光する前の状態)で撮影したカラー(RGB)画像、すなわち、バンド数が(N−1+3)のマルチバンド画像が出力される。   From the multiband image photographing unit 216, a multiband image corresponding to the photographing illumination light of each band and a color (RGB) image photographed with the photographing illumination light (the state before the spectrum), that is, the number of bands is (N-1 + 3). ) Multiband image is output.

本実施の形態のマルチバンド画像撮影部216によれば、1ショットで8バンド画像及びRGB画像が撮影できるため、撮影回数を8回(第1の実施の形態では36回)に短縮することができる。   According to the multiband image photographing unit 216 of the present embodiment, since an 8-band image and an RGB image can be photographed with one shot, the number of photographing can be reduced to 8 times (36 times in the first embodiment). it can.

図13に示すように、本実施の形態の画像変形処理部246は、第2の実施の形態の基準画像選択部50及び対応点検出部52の代わりに基準画像選択部250及び対応点検出部252を備える。また、画像変形処理部246は、分光スペクトル推定部60、カメラ分光感度特性記憶部62、及び単色画像生成部64をさらに備える。   As illustrated in FIG. 13, the image deformation processing unit 246 according to the present embodiment includes a reference image selection unit 250 and a corresponding point detection unit instead of the reference image selection unit 50 and the corresponding point detection unit 52 according to the second embodiment. 252. The image deformation processing unit 246 further includes a spectral spectrum estimation unit 60, a camera spectral sensitivity characteristic storage unit 62, and a monochrome image generation unit 64.

本実施の形態の基準画像選択部250には、撮影画像蓄積部22に蓄積されているマルチバンド画像撮影部216で撮影されたマルチバンド画像が入力される。   The multiband image photographed by the multiband image photographing unit 216 stored in the photographed image storage unit 22 is input to the reference image selection unit 250 of the present embodiment.

基準画像選択部250は、分光しない状態の撮影照明光下で撮影されたカラーカメラのカラー画像を基準画像として選択する。   The reference image selection unit 250 selects, as a reference image, a color image of a color camera that has been shot under shooting illumination light that is not spectrally separated.

基準画像選択部250からは、基準画像が分光スペクトル推定部60に出力される。また、光源波長とカメラ波長とが等しい(光源波長=カメラ波長)単色カメラの画像である変形対象画像が対応点検出部252に出力される。また、基準画像選択部250からは、光源波長とカメラ波長とが異なる(光源波長≠カメラ波長)変形対象画像(蛍光成分画像)が画像変形処理部58に出力される。   A reference image is output from the reference image selection unit 250 to the spectral spectrum estimation unit 60. In addition, a deformation target image that is an image of a monochromatic camera in which the light source wavelength is equal to the camera wavelength (light source wavelength = camera wavelength) is output to the corresponding point detection unit 252. Further, the reference image selection unit 250 outputs a deformation target image (fluorescence component image) in which the light source wavelength and the camera wavelength are different (light source wavelength ≠ camera wavelength) to the image deformation processing unit 58.

カメラ分光感度特性記憶部62は、マルチバンド画像撮影部216の各単色カメラの分光感度特性が予め記憶されている。   The camera spectral sensitivity characteristic storage unit 62 stores in advance the spectral sensitivity characteristics of each monochrome camera of the multiband image photographing unit 216.

分光スペクトル推定部60には、基準画像選択部250から基準画像(分光しない状態の撮影照明光下で撮影したカラー画像)が入力される。分光スペクトル推定部60は、カラー画像の画素毎に分光反射率を推定する。分光反射率の推定方法は特に限定されず、第1の実施の形態において上述した推定方法と同様にすればよい。分光スペクトル推定部60からは、推定した分光反射率を画素値とする分光反射率画像が出力される。   A reference image (a color image photographed under photographing illumination light that is not spectrally separated) is input from the reference image selection unit 250 to the spectral spectrum estimation unit 60. The spectral spectrum estimation unit 60 estimates the spectral reflectance for each pixel of the color image. The estimation method of the spectral reflectance is not particularly limited, and may be the same as the estimation method described above in the first embodiment. The spectral spectrum estimation unit 60 outputs a spectral reflectance image having the estimated spectral reflectance as a pixel value.

単色画像生成部64には、分光スペクトル推定部60で生成された分光反射率画像、及び撮影照明スペクトル(分光する前の状態)が入力される。また、単色画像生成部64には、カメラ分光感度特性記憶部62から、各単色カメラの分光感度特性が入力される。   The monochromatic image generation unit 64 is supplied with the spectral reflectance image generated by the spectral spectrum estimation unit 60 and the photographing illumination spectrum (the state before spectral separation). The monochromatic image generation unit 64 receives the spectral sensitivity characteristics of each monochromatic camera from the camera spectral sensitivity characteristic storage unit 62.

単色画像生成部64は、単色カメラ(本実施の形態では8台の単色カメラ)毎に、分光反射率画像、撮影照明スペクトル、及び当該単色カメラの分光感度特性を用いて撮影シミュレーションを行い、カラーカメラの視点から撮影した場合に得られるであろう仮想的な単色画像を生成し、あるバンドパスフィルタを取り付けて撮影された変形対象画像に対する対応点を検出するための基準画像とする。   The monochrome image generation unit 64 performs a shooting simulation for each monochrome camera (eight monochrome cameras in the present embodiment) using the spectral reflectance image, the shooting illumination spectrum, and the spectral sensitivity characteristics of the monochrome camera. A virtual single-color image that will be obtained when taken from the viewpoint of the camera is generated, and is used as a reference image for detecting a corresponding point with respect to the image to be deformed taken with a certain bandpass filter attached.

単色画像生成部64からは、カラーカメラの視点での各単色画像が基準画像として対応点検出部252に出力される。   From the monochromatic image generation unit 64, each monochromatic image at the viewpoint of the color camera is output to the corresponding point detection unit 252 as a reference image.

対応点検出部252は、入力された単色画像生成部64で生成された基準画像、及び変形対象画像間での対応点を探索して検出する。対応点の検出方法は特に限定されず、例えば、第2の実施の形態において上述した対応点検出部52における検出方法と同様にすればよい。   The corresponding point detection unit 252 searches for and detects corresponding points between the input reference image generated by the monochrome image generation unit 64 and the deformation target image. The corresponding point detection method is not particularly limited. For example, the corresponding point detection method may be the same as the detection method in the corresponding point detection unit 52 described above in the second embodiment.

対応点検出部252からは、検出された対応点と、基準画像と変形対象画像上における対応点の位置関係とが画像変形パラメータ算出部54に出力される。   From the corresponding point detection unit 252, the detected corresponding points and the positional relationship between the corresponding points on the reference image and the deformation target image are output to the image deformation parameter calculation unit 54.

画像変形パラメータ算出部54、画像変形パラメータ記憶部56、及び画像変形処理部58による変形対象画像の画像変形は第2の実施の形態と同様であるため説明を省略する。なお、本実施の形態の画像変形処理部246から蛍光成分分離部40に出力されるマルチバンド画像のバンド数は、第2の実施の形態(バンド数:N)と異なり、N−1である。   Since the image deformation of the deformation target image by the image deformation parameter calculation unit 54, the image deformation parameter storage unit 56, and the image deformation processing unit 58 is the same as that in the second embodiment, the description thereof is omitted. Note that the number of bands of the multiband image output from the image deformation processing unit 246 of the present embodiment to the fluorescence component separation unit 40 is N−1 unlike the second embodiment (number of bands: N). .

次に、本実施の形態の画像処理装置220における画像処理の流れの概略について説明する。   Next, an outline of the flow of image processing in the image processing apparatus 220 of the present embodiment will be described.

図15は、本実施の形態の画像処理装置220における画像処理の流れの一例を表すフローチャートである。   FIG. 15 is a flowchart showing an example of the flow of image processing in the image processing apparatus 220 of the present embodiment.

本実施の形態の画像処理では、ステップS100で取得部21がマルチバンド画像を取得して撮影画像蓄積部22に記憶させた後、ステップS302へ移行する。   In the image processing of the present embodiment, the acquisition unit 21 acquires a multiband image and stores it in the captured image storage unit 22 in step S100, and then the process proceeds to step S302.

ステップS302で基準画像選択部250が、分光しない状態の撮影照明光下で撮影されたカラーカメラのカラー画像を基準画像として選択する。   In step S302, the reference image selection unit 250 selects, as a reference image, a color image of a color camera that has been shot under shooting illumination light that is not spectrally separated.

次のステップS304で分光スペクトル推定部60は、上述したように、カラー画像の画素毎に分光反射率を推定する。   In the next step S304, the spectral spectrum estimation unit 60 estimates the spectral reflectance for each pixel of the color image as described above.

次のステップS306で単色画像生成部64は、上述したように、分光反射率画像、撮影照明スペクトル、及び単色カメラの分光感度特性を用いて撮影シミュレーションを行い、仮想的な単色画像を生成する。   In the next step S306, as described above, the monochromatic image generation unit 64 performs an imaging simulation using the spectral reflectance image, the imaging illumination spectrum, and the spectral sensitivity characteristics of the monochromatic camera, and generates a virtual monochromatic image.

次のステップS308で単色画像生成部64は、全単色カメラについて上記ステップS306の処理を行ったか否かを判断する。行っていない場合は否定判定となり、ステップS306の処理を繰り返す。一方、肯定判定となった場合は、ステップS310へ移行する。   In the next step S308, the single color image generation unit 64 determines whether or not the processing in step S306 has been performed for all single color cameras. If not, a negative determination is made, and the process of step S306 is repeated. On the other hand, when it becomes affirmation determination, it transfers to step S310.

ステップS310で対応点検出部252は、上述したように、基準画像と光源波長とカメラ波長とが等しい1枚の変形対象画像間での対応点を探索して検出した後、ステップS206へ移行する。ステップS206及びS208は、上述した第2の実施の形態と同様の処理を行い、ステップS208で肯定判定となった場合は、第2の実施の形態で上述したステップS210に移行して当該ステップS210の処理及び上述した第1の実施の形態のステップS102〜S112の処理を行った後、本画像処理を終了する。   In step S310, as described above, the corresponding point detection unit 252 searches for and detects corresponding points between one deformation target image in which the reference image, the light source wavelength, and the camera wavelength are equal, and then proceeds to step S206. . Steps S206 and S208 perform the same processing as in the second embodiment described above. If the determination in step S208 is affirmative, the process proceeds to step S210 described in the second embodiment, and step S210 is performed. After performing the above processing and the processing in steps S102 to S112 of the first embodiment described above, the present image processing is terminated.

なお、本実施の形態でマルチバンド画像撮影部216のカメラとして用いたカラーカメラの代わりに単色(白黒)カメラを用いることもできる。この場合は、代わりに用いる単色カメラで撮影された画像は、単色画像であるため、上述した分光スペクトル推定部60、カメラ分光感度特性記憶部62、及び単色画像生成部64が不要となる。   Note that a monochrome (monochrome) camera can be used instead of the color camera used as the camera of the multiband image photographing unit 216 in this embodiment. In this case, since the image captured by the monochrome camera used instead is a monochrome image, the above-described spectral spectrum estimation unit 60, camera spectral sensitivity characteristic storage unit 62, and monochrome image generation unit 64 are not necessary.

このように、本実施の形態の画像処理装置220においても、第2の実施の形態の画像処理装置120と同様に、従来よりも広帯域な波長幅で分光を行い撮影されたマルチバンド画像により、蛍光成分の吸光特性の推定を要せずに、反射成分画像と蛍光成分画像とを用いて任意の観察照明光下での画像を生成することができる。さらに、複数のカメラにより同時に撮影を行うことができるため、撮影回数を第1の実施の形態よりも少なくすることができる。   As described above, in the image processing apparatus 220 according to the present embodiment, similarly to the image processing apparatus 120 according to the second embodiment, a multiband image captured by performing spectroscopy with a broader wavelength width than the conventional one, An image under any observation illumination light can be generated using the reflection component image and the fluorescence component image without requiring the estimation of the light absorption characteristics of the fluorescence component. Furthermore, since a plurality of cameras can be used for shooting simultaneously, the number of times of shooting can be reduced as compared with the first embodiment.

なお、上記第2の実施の形態の基準画像選択部50及び第3の実施の形態の基準画像選択部250には、変形対象となる単色カメラの画像は、光源波長とカメラ波長とが等しい画像のみが入力されるようにしてもよい。   In the reference image selection unit 50 according to the second embodiment and the reference image selection unit 250 according to the third embodiment, the image of the monochrome camera to be deformed is an image in which the light source wavelength and the camera wavelength are equal. Only may be input.

なお、上記各実施の形態では、分光反射率及び蛍光スペクトルの推定を行う処理にウィナー推定法を用いたが、他の方法を用いてもよい。例えば、分光反射率や蛍光成分スペクトルのデータベースから算出した主成分を用いる方法、重回帰分析法、及びPLS(partial least square)法(部分最小二乗法)等を用いてもよい。   In each of the above embodiments, the Wiener estimation method is used for the process of estimating the spectral reflectance and the fluorescence spectrum, but other methods may be used. For example, a method using a principal component calculated from a database of spectral reflectance or fluorescence component spectrum, a multiple regression analysis method, a PLS (partial least square) method (partial least square method), or the like may be used.

また、上記各実施の形態は一例であり、具体的な構成は本実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれ、状況に応じて変更可能であることは言うまでもない。   Moreover, each said embodiment is an example, and a specific structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included, and it can change according to a condition. Needless to say.

1、101、201 画像処理システム
10、110 マルチバンド画像撮影装置
14、114 マルチバンド照明部
16、116、216 マルチバンド画像撮影部
20、120、220 画像処理装置
21 取得部
24 マルチバンド画像生成部
26 反射成分色再現部
28 蛍光成分色再現部
30 画像合成処理部
40 蛍光成分分離部
42 マルチバンド蛍光成分画像生成部
44 重み係数計算部
46、246 画像変形処理部
50、250 基準画像選択部
52、252 対応点検出部
54 画像変形パラメータ算出部
56 画像変形パラメータ記憶部
58 画像変形処理部
1, 101, 201 Image processing system 10, 110 Multiband image capturing device 14, 114 Multiband illumination unit 16, 116, 216 Multiband image capturing unit 20, 120, 220 Image processing device 21 Acquisition unit 24 Multiband image generation unit 26 reflection component color reproduction unit 28 fluorescence component color reproduction unit 30 image composition processing unit 40 fluorescence component separation unit 42 multiband fluorescence component image generation unit 44 weight coefficient calculation unit 46, 246 image deformation processing unit 50, 250 reference image selection unit 52 , 252 Corresponding point detection unit 54 Image deformation parameter calculation unit 56 Image deformation parameter storage unit 58 Image deformation processing unit

Claims (8)

1台のカメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対するマルチバンド画像を取得する取得部と、
前記撮影照明光の各バンドに対し、前記取得部により取得された前記マルチバンド画像を、前記撮影照明光のバンドと等しいバンドの画像である反射成分画像と、前記撮影照明光のバンドより中心波長が長いバンドの画像である蛍光成分画像とに分離する蛍光成分分離部と、
前記撮影照明光の各バンドに対し、前記撮影照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積で、観察環境の照明光の照明光スペクトルと前記撮影照明光のバンドの蛍光成分画像に対する前記第2光学素子の波長選択特性の積を割ることにより、前記各バンドの蛍光成分画像に対する重み係数を計算する重み係数計算部と、
前記蛍光成分分離部により分離された、前記撮影照明光の各バンドに対する蛍光成分画像と、前記重み係数計算部により計算された前記各バンドの蛍光成分画像に対する重み係数とに基づいて、前記蛍光成分画像の重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力するマルチバンド蛍光成分画像生成部と、
前記マルチバンド蛍光成分画像生成部で生成されたマルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出し、蛍光成分色再現画像を生成する蛍光成分色再現部と、
前記蛍光成分分離部で分離された反射成分画像によるマルチバンド反射成分画像の画素毎に、分光反射率推定行列及び前記観察環境の照明光の照明光スペクトルをかけて反射光スペクトルを算出し、反射成分色再現画像を生成する反射成分色再現部と、
前記蛍光成分色再現画像と前記反射成分色再現画像とを加算して色再現結果画像を生成して出力する画像合成処理部と、
を備えた画像処理装置。
Limiting the wavelength of light incident on a single camera, limiting the wavelength of illuminating illumination light irradiating a subject from a plurality of first optical elements, each having a different band, which is the wavelength band of transmitted light, and the photographic illumination light source An acquisition unit that acquires a multiband image for each band of imaging illumination light, which is captured by a multiband image capturing device including a plurality of second optical elements each having a different band that is a wavelength band of light to be transmitted; ,
For each band of the photographic illumination light, the multiband image acquired by the acquisition unit, a reflection component image that is an image of a band equal to the band of the photographic illumination light, and a center wavelength from the band of the photographic illumination light A fluorescent component separation unit that separates into a fluorescent component image that is an image of a long band,
For each band of the photographic illumination light, the product of the illumination light spectrum of the photographic illumination light and the wavelength selection characteristic of the second optical element for the band of the photographic illumination light, and the illumination light spectrum of the illumination light of the observation environment and the A weighting factor calculation unit that calculates a weighting factor for the fluorescent component image of each band by dividing the product of the wavelength selection characteristics of the second optical element with respect to the fluorescent component image of the band of the imaging illumination light;
Based on the fluorescence component image for each band of the photographing illumination light separated by the fluorescence component separation unit and the weighting factor for the fluorescence component image of each band calculated by the weighting factor calculation unit, the fluorescence component A multiband fluorescence component image generation unit that generates and outputs a multiband fluorescence component image by calculating a weighted linear sum of images,
For each pixel of the multiband fluorescence component image generated by the multiband fluorescence component image generation unit, calculate a fluorescence spectrum by applying a spectral spectrum estimation matrix, and generate a fluorescence component color reproduction image;
For each pixel of the multiband reflection component image by the reflection component image separated by the fluorescence component separation unit, the reflected light spectrum is calculated by multiplying the spectral reflectance estimation matrix and the illumination light spectrum of the illumination light of the observation environment, A reflection component color reproduction unit that generates a component color reproduction image;
An image composition processing unit that adds the fluorescence component color reproduction image and the reflection component color reproduction image to generate and output a color reproduction result image; and
An image processing apparatus.
カメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子を有し、かつ、視点が異なる複数台のカメラ、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対する複数の画像を取得する取得部と、
前記複数の画像のうち予め定められた画像を基準画像とし、前記基準画像とは異なる画像の各々について、前記基準画像上の各基準点に対する、前記画像上における各対応点を検出する対応点検出部と、
前記撮影照明光の各バンドに対し、前記基準画像とは異なる画像の各々において、前記対応点検出部によって検出された前記基準画像上の各基準点に対する前記画像における各対応点に基づいて、各基準点の位置と各対応点の位置とが一致するように前記画像を変形した変形結果画像を生成し、前記基準画像と前記変形結果画像の各々とを含むマルチバンド画像を生成する画像変形処理部と、
前記撮影照明光の各バンドに対し、前記画像変形処理部により生成された前記マルチバンド画像を、前記撮影照明光のバンドと等しいバンドの画像である反射成分画像と、前記撮影照明光のバンドより中心波長が長いバンドの画像である蛍光成分画像とに分離する蛍光成分分離部と、
前記撮影照明光の各バンドに対し、前記撮影照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積で、観察環境の照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積を割ることにより、前記各バンドの蛍光成分画像に対する重み係数を計算する重み係数計算部と、
前記蛍光成分分離部により分離された、前記撮影照明光の各バンドに対する蛍光成分画像と、前記重み係数計算部により計算された前記各バンドの蛍光成分画像に対する重み係数とに基づいて、前記蛍光成分画像の重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力するマルチバンド蛍光成分画像生成部と、
前記マルチバンド蛍光成分画像生成部で生成されたマルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出し、蛍光成分色再現画像を生成する蛍光成分色再現部と、
前記蛍光成分分離部で分離された反射成分画像によるマルチバンド反射成分画像の画素毎に、分光反射率推定行列及び前記観察環境の照明光の照明光スペクトルをかけて反射光スペクトルを算出し、反射成分色再現画像を生成する反射成分色再現部と、
前記蛍光成分色再現画像と前記反射成分色再現画像とを加算して色再現結果画像を生成して出力する画像合成処理部と、
を備えた画像処理装置。
The wavelength of the light incident on the camera is limited and the wavelength band of the light to be transmitted has a plurality of first optical elements that are different from each other. Each band of photographic illumination light that is photographed by a multiband image photographing device that includes a plurality of second optical elements that limit the wavelength of illuminating illuminating light to be irradiated and that are different in wavelength bands of light to be transmitted. An acquisition unit for acquiring a plurality of images for
Corresponding point detection for detecting a corresponding point on the image with respect to each reference point on the reference image for each image different from the reference image, using a predetermined image among the plurality of images as a reference image And
For each band of the photographic illumination light, in each of the images different from the reference image, each corresponding point in the image with respect to each reference point on the reference image detected by the corresponding point detection unit, Image deformation processing for generating a deformation result image obtained by deforming the image so that the position of the reference point matches the position of each corresponding point, and generating a multiband image including each of the reference image and the deformation result image And
For each band of the photographic illumination light, the multiband image generated by the image deformation processing unit is a reflection component image that is an image of a band equal to the band of the photographic illumination light, and a band of the photographic illumination light A fluorescence component separation unit that separates a fluorescence component image that is an image of a band having a long center wavelength;
For each band of the photographic illumination light, the product of the illumination light spectrum of the photographic illumination light and the wavelength selection characteristic of the second optical element for the band of the photographic illumination light, and the illumination light spectrum of the illumination light of the observation environment and the A weighting factor calculation unit that calculates a weighting factor for the fluorescence component image of each band by dividing the product of the wavelength selection characteristics of the second optical element with respect to the band of the imaging illumination light;
Based on the fluorescence component image for each band of the photographing illumination light separated by the fluorescence component separation unit and the weighting factor for the fluorescence component image of each band calculated by the weighting factor calculation unit, the fluorescence component A multiband fluorescence component image generation unit that generates and outputs a multiband fluorescence component image by calculating a weighted linear sum of images,
For each pixel of the multiband fluorescence component image generated by the multiband fluorescence component image generation unit, calculate a fluorescence spectrum by applying a spectral spectrum estimation matrix, and generate a fluorescence component color reproduction image;
For each pixel of the multiband reflection component image by the reflection component image separated by the fluorescence component separation unit, the reflected light spectrum is calculated by multiplying the spectral reflectance estimation matrix and the illumination light spectrum of the illumination light of the observation environment, A reflection component color reproduction unit that generates a component color reproduction image;
An image composition processing unit that adds the fluorescence component color reproduction image and the reflection component color reproduction image to generate and output a color reproduction result image; and
An image processing apparatus.
前記複数台のカメラは、カラー画像を撮影する1台のカラーカメラと、単色画像を撮影する1台以上の単色カメラとを含み、前記複数の第1光学素子は、前記単色カメラの各々に対して、異なるバンドの光を透過させ、
前記取得部が取得した前記カラー画像の画素毎に推定された分光反射率を画素値とする分光反射率画像、及び分光する前の状態の前記撮影照明光の照明光スペクトル、及び各単色カメラの分光感度特性を用いて、前記単色カメラ毎に得られた、前記カラーカメラの視点から撮影した場合に得られるであろう仮想的な単色画像を生成する単色画像生成部をさらに備え、
前記対応点検出部は、単色画像生成部で生成された前記単色画像を、前記基準画像とする、
請求項2に記載の画像処理装置。
The plurality of cameras includes one color camera that captures a color image and one or more single-color cameras that capture a monochrome image, and the plurality of first optical elements correspond to each of the monochrome cameras. Transmit different bands of light,
Spectral reflectance image having the spectral reflectance estimated for each pixel of the color image acquired by the acquisition unit as a pixel value, the illumination light spectrum of the photographic illumination light in a state before spectral separation, and each monochromatic camera Using a spectral sensitivity characteristic, further comprising a single-color image generation unit for generating a virtual single-color image obtained for each single-color camera, which would be obtained from the viewpoint of the color camera;
The corresponding point detection unit uses the monochrome image generated by the monochrome image generation unit as the reference image.
The image processing apparatus according to claim 2.
1台のカメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置と、
前記マルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対するマルチバンド画像を取得して、取得した前記マルチバンド画像に基づいて色再現結果画像を生成して出力する請求項1に記載の画像処理装置と、
を備えた画像処理システム。
Limiting the wavelength of light incident on a single camera, limiting the wavelength of illuminating illumination light irradiating a subject from a plurality of first optical elements, each having a different band, which is the wavelength band of transmitted light, and the photographic illumination light source A plurality of second optical elements each having a different band, which is a wavelength band of light to be transmitted, and a multiband image photographing device,
The multi-band image with respect to each band of the illuminating light photographed by the multi-band image photographing device is acquired, and a color reproduction result image is generated and output based on the acquired multi-band image. Image processing apparatus,
An image processing system.
カメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子を有し、かつ、視点が異なる複数台のカメラ、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置と、
前記マルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対する複数の画像を取得して、取得した前記複数の画像に基づいて色再現結果画像を生成して出力する請求項2または請求項3に記載の画像処理装置と、
を備えた画像処理システム。
The wavelength of the light incident on the camera is limited and the wavelength band of the light to be transmitted has a plurality of first optical elements that are different from each other. A multiband image photographing device comprising: a plurality of second optical elements that limit wavelengths of photographing illumination light to be irradiated and have different bands each being a wavelength band of light to be transmitted;
3. A plurality of images for each band of photographing illumination light captured by the multiband image capturing device are acquired, and a color reproduction result image is generated and output based on the acquired plurality of images. Item 3. The image processing apparatus according to Item 3,
An image processing system.
取得部が、1台のカメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対するマルチバンド画像を取得するステップと、
蛍光成分分離部が、前記撮影照明光の各バンドに対し、前記取得部により取得された前記マルチバンド画像を、前記撮影照明光のバンドと等しいバンドの画像である反射成分画像と、前記撮影照明光のバンドより中心波長が長いバンドの画像である蛍光成分画像とに分離するステップと、
重み係数計算部が、前記撮影照明光の各バンドに対し、前記撮影照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積で、観察環境の照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積を割ることにより、前記各バンドの蛍光成分画像に対する重み係数を計算するステップと、
マルチバンド蛍光成分画像生成部が、前記蛍光成分分離部により分離された、前記撮影照明光の各バンドに対する蛍光成分画像と、前記重み係数計算部により計算された前記各バンドの蛍光成分画像に対する重み係数とに基づいて、前記蛍光成分画像の重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力するステップと、
蛍光成分色再現部が前記マルチバンド蛍光成分画像生成部で生成されたマルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出し、蛍光成分色再現画像を生成するステップと、
反射成分色再現部が前記蛍光成分分離部で分離された反射成分画像によるマルチバンド反射成分画像の画素毎に、分光反射率推定行列及び前記観察環境の照明光の照明光スペクトルをかけて反射光スペクトルを算出し、反射成分色再現画像を生成するステップと、
画像合成処理部が、前記蛍光成分色再現画像と前記反射成分色再現画像とを加算して色再現結果画像を生成して出力するステップと、
を含む画像処理方法。
The acquisition unit restricts the wavelength of light incident on one camera, and a plurality of first optical elements having different wavelength bands of light to be transmitted, and photographing illumination light irradiated to the subject from the photographing illumination light source Acquire multiband images for each band of illuminating illumination light captured by a multiband image capturing device that includes a plurality of second optical elements each having a different band, which is the wavelength band of light to be transmitted, limiting the wavelength. And steps to
For each band of the photographic illumination light, a fluorescent component separation unit obtains the multiband image acquired by the acquisition unit, a reflection component image that is an image of a band equal to the band of the photographic illumination light, and the photographic illumination Separating the fluorescence component image, which is an image of a band having a longer center wavelength than the light band;
The weighting factor calculation unit is a product of an illumination light spectrum of the photographing illumination light and a wavelength selection characteristic of the second optical element for the band of the photographing illumination light for each band of the photographing illumination light. Calculating a weighting factor for the fluorescence component image of each band by dividing the product of the wavelength selection characteristic of the second optical element with respect to the illumination light spectrum and the band of the imaging illumination light;
The multi-band fluorescence component image generation unit is divided by the fluorescence component separation unit, the fluorescence component image for each band of the photographing illumination light, and the weight for the fluorescence component image of each band calculated by the weight coefficient calculation unit Generating and outputting a multiband fluorescent component image by obtaining a weighted linear sum of the fluorescent component images based on the coefficients; and
A step in which a fluorescence component color reproduction unit calculates a fluorescence spectrum by multiplying a spectral spectrum estimation matrix for each pixel of the multiband fluorescence component image generated by the multiband fluorescence component image generation unit, and generates a fluorescence component color reproduction image When,
The reflected component color reproduction unit applies the spectral reflectance estimation matrix and the illumination light spectrum of the illumination light of the observation environment to each pixel of the multiband reflected component image by the reflected component image separated by the fluorescent component separating unit. Calculating a spectrum and generating a reflection component color reproduction image;
An image synthesis processing unit adding the fluorescence component color reproduction image and the reflection component color reproduction image to generate and output a color reproduction result image; and
An image processing method including:
取得部が、カメラに入射する光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第1光学素子を有し、かつ、視点が異なる複数台のカメラ、及び撮影照明光源から被写体に照射する撮影照明光の波長を制限し、透過させる光の波長帯域であるバンドが各々異なる複数の第2光学素子と、を備えたマルチバンド画像撮影装置により撮影された、撮影照明光の各バンドに対する複数の画像を取得するステップと、
対応点検出部が、前記複数の画像のうち予め定められた画像を基準画像とし、前記基準画像とは異なる画像の各々について、前記基準画像上の各基準点に対する、前記画像上における各対応点を検出するステップと、
画像変形処理部が、前記撮影照明光の各バンドに対し、前記基準画像とは異なる画像の各々において、前記対応点検出部によって検出された前記基準画像上の各基準点に対する前記画像における各対応点に基づいて、各基準点の位置と各対応点の位置とが一致するように前記画像を変形した変形結果画像を生成し、前記基準画像と前記変形結果画像の各々とを含むマルチバンド画像を生成するステップと、
蛍光成分分離部が、前記撮影照明光の各バンドに対し、前記画像変形処理部により生成された前記マルチバンド画像を、前記撮影照明光のバンドと等しいバンドの画像である反射成分画像と、前記撮影照明光のバンドより中心波長が長いバンドの画像である蛍光成分画像とに分離するステップと、
重み係数計算部が、前記撮影照明光の各バンドに対し、前記撮影照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積で、観察環境の照明光の照明光スペクトルと前記撮影照明光のバンドに対する前記第2光学素子の波長選択特性の積を割ることにより、前記各バンドの蛍光成分画像に対する重み係数を計算するステップと、
マルチバンド蛍光成分画像生成部が、前記蛍光成分分離部により分離された、前記撮影照明光の各バンドに対する蛍光成分画像と、前記重み係数計算部により計算された前記各バンドの蛍光成分画像に対する重み係数とに基づいて、前記蛍光成分画像の重みつき線形和を求めることで、マルチバンド蛍光成分画像を生成して出力するステップと、
蛍光成分色再現部が、前記マルチバンド蛍光成分画像生成部で生成されたマルチバンド蛍光成分画像の画素毎に、分光スペクトル推定行列をかけて蛍光スペクトルを算出し、蛍光成分色再現画像を生成するステップと、
反射成分色再現部が、前記蛍光成分分離部で分離された反射成分画像によるマルチバンド反射成分画像の画素毎に、分光反射率推定行列及び前記観察環境の照明光の照明光スペクトルをかけて反射光スペクトルを算出し、反射成分色再現画像を生成するステップと、
画像合成処理部が、前記蛍光成分色再現画像と前記反射成分色再現画像とを加算して色再現結果画像を生成して出力するステップと、
を含む画像処理方法。
The acquisition unit restricts the wavelength of light incident on the camera and has a plurality of first optical elements each having a different wavelength band of light to be transmitted, and a plurality of cameras having different viewpoints, and photographing illumination Photographing illumination, which is photographed by a multiband image photographing device that includes a plurality of second optical elements that limit the wavelength of photographing illumination light emitted from a light source to a subject and that have different wavelength bands of transmitted light. Acquiring a plurality of images for each band of light;
The corresponding point detection unit uses a predetermined image of the plurality of images as a reference image, and for each image different from the reference image, each corresponding point on the image with respect to each reference point on the reference image Detecting steps,
The image deformation processing unit corresponds to each band in the image with respect to each reference point on the reference image detected by the corresponding point detection unit in each image different from the reference image for each band of the photographing illumination light. Based on the points, a multi-band image is generated that generates a deformation result image obtained by deforming the image so that the position of each reference point matches the position of each corresponding point, and includes each of the reference image and the deformation result image A step of generating
A fluorescence component separation unit, for each band of the photographic illumination light, the multiband image generated by the image deformation processing unit, a reflection component image that is an image of a band equal to the band of the photographic illumination light; Separating the fluorescence component image, which is an image of a band having a longer center wavelength than the band of the imaging illumination light;
The weighting factor calculation unit is a product of an illumination light spectrum of the photographing illumination light and a wavelength selection characteristic of the second optical element for the band of the photographing illumination light for each band of the photographing illumination light. Calculating a weighting factor for the fluorescence component image of each band by dividing the product of the wavelength selection characteristic of the second optical element with respect to the illumination light spectrum and the band of the imaging illumination light;
The multi-band fluorescence component image generation unit is divided by the fluorescence component separation unit, the fluorescence component image for each band of the photographing illumination light, and the weight for the fluorescence component image of each band calculated by the weight coefficient calculation unit Generating and outputting a multiband fluorescent component image by obtaining a weighted linear sum of the fluorescent component images based on the coefficients; and
The fluorescence component color reproduction unit calculates a fluorescence spectrum by applying a spectral spectrum estimation matrix for each pixel of the multiband fluorescence component image generated by the multiband fluorescence component image generation unit, and generates a fluorescence component color reproduction image Steps,
The reflection component color reproduction unit reflects the spectral reflectance estimation matrix and the illumination light spectrum of the illumination light of the observation environment for each pixel of the multiband reflection component image based on the reflection component image separated by the fluorescence component separation unit. Calculating a light spectrum and generating a reflection component color reproduction image;
An image synthesis processing unit adding the fluorescence component color reproduction image and the reflection component color reproduction image to generate and output a color reproduction result image; and
An image processing method including:
コンピュータを、請求項1から請求項3の何れか1項に記載の画像処理装置の各部として機能させるための画像処理プログラム。   The image processing program for functioning a computer as each part of the image processing apparatus of any one of Claims 1-3.
JP2015094448A 2015-05-01 2015-05-01 Image processing apparatus, image processing system, image processing method, and image processing program Active JP6317703B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015094448A JP6317703B2 (en) 2015-05-01 2015-05-01 Image processing apparatus, image processing system, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015094448A JP6317703B2 (en) 2015-05-01 2015-05-01 Image processing apparatus, image processing system, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2016213623A true JP2016213623A (en) 2016-12-15
JP6317703B2 JP6317703B2 (en) 2018-04-25

Family

ID=57550162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015094448A Active JP6317703B2 (en) 2015-05-01 2015-05-01 Image processing apparatus, image processing system, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6317703B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337067A (en) * 2002-05-16 2003-11-28 Telecommunication Advancement Organization Of Japan Spectrophotometry system and color reproduction system
JP2009545822A (en) * 2006-07-31 2009-12-24 ルミダイム インコーポレイテッド Spatial-spectral fingerprint spoof detection
JP2010169592A (en) * 2009-01-23 2010-08-05 Olympus Corp Image processing device and program
JP2013229809A (en) * 2012-04-26 2013-11-07 Nippon Telegr & Teleph Corp <Ntt> Image processing apparatus, method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337067A (en) * 2002-05-16 2003-11-28 Telecommunication Advancement Organization Of Japan Spectrophotometry system and color reproduction system
JP2009545822A (en) * 2006-07-31 2009-12-24 ルミダイム インコーポレイテッド Spatial-spectral fingerprint spoof detection
JP2010169592A (en) * 2009-01-23 2010-08-05 Olympus Corp Image processing device and program
JP2013229809A (en) * 2012-04-26 2013-11-07 Nippon Telegr & Teleph Corp <Ntt> Image processing apparatus, method, and program

Also Published As

Publication number Publication date
JP6317703B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
JP5882455B2 (en) High resolution multispectral image capture
JP5883949B2 (en) Spectral synthesis for image capture device processing.
US8610797B2 (en) Image processing device, imaging device, and image processing method
JP6113319B2 (en) Image color distribution inspection apparatus and image color distribution inspection method
JP5841091B2 (en) Image color distribution inspection apparatus and image color distribution inspection method
CN106895916B (en) A kind of method that single exposure shooting obtains multispectral image
Wannous et al. Improving color correction across camera and illumination changes by contextual sample selection
JP2020024103A (en) Information processing device, information processing method, and program
JP2008206163A (en) Color image processor
JP4174707B2 (en) Spectroscopic measurement system, color reproduction system
JP2022539281A (en) A method for extracting spectral information of a substance to be detected
JP6317703B2 (en) Image processing apparatus, image processing system, image processing method, and image processing program
JP4349568B2 (en) Object recognition apparatus, object recognition method, program, and recording medium
EP3993382A1 (en) Colour calibration of an imaging device
Lam et al. Spectral Imaging Using Basis Lights.
JP6826277B2 (en) Image processing system, image processing method, and image processing program
JP6023653B2 (en) Illumination light color estimation device, illumination light color estimation method and program
Alvarez‐Cortes et al. Practical Low‐Cost Recovery of Spectral Power Distributions
KR102027106B1 (en) Apparatus and method for acquiring an image with enhanced contrast, Computer program for the same, and Recording medium storing computer program for the same
JP2011095110A (en) Apparatus and method for estimation of light source
JP2022006624A (en) Calibration device, calibration method, calibration program, spectroscopic camera, and information processing device
JP5120936B2 (en) Image processing apparatus and image processing method
JP2009182845A (en) Apparatus and method for processing image
JP6230504B2 (en) Image processing apparatus, method, and program
Javoršek et al. Comparison of two digital cameras based on spectral data estimation obtained with two methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180330

R150 Certificate of patent or registration of utility model

Ref document number: 6317703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150