JP2020193859A - Image processing device, image capturing system, image processing method and program - Google Patents

Image processing device, image capturing system, image processing method and program Download PDF

Info

Publication number
JP2020193859A
JP2020193859A JP2019099233A JP2019099233A JP2020193859A JP 2020193859 A JP2020193859 A JP 2020193859A JP 2019099233 A JP2019099233 A JP 2019099233A JP 2019099233 A JP2019099233 A JP 2019099233A JP 2020193859 A JP2020193859 A JP 2020193859A
Authority
JP
Japan
Prior art keywords
image
image processing
filter
unit
spectroscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019099233A
Other languages
Japanese (ja)
Inventor
悠修 古賀
Hironobu Koga
悠修 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019099233A priority Critical patent/JP2020193859A/en
Publication of JP2020193859A publication Critical patent/JP2020193859A/en
Pending legal-status Critical Current

Links

Abstract

To provide an image processing device which is inexpensively configured but offers high measurement accuracy.SOLUTION: An image processing device (120) is provided, comprising an image acquisition unit (122) configured to acquire a spectroscopic image (e.g., RGB image) from an image sensor (113) adapted to receive light passing through a filter (112) with three transmission wavelength bands, and a color separation processing unit (121) for reducing color mixing in the spectroscopic image.SELECTED DRAWING: Figure 1

Description

本発明は、画像測定を行う画像処理装置に関する。 The present invention relates to an image processing device that performs image measurement.

近年、農作業の効率化、省力化を目的として、画像を用いた葉色指標の測定手法が提案されている。例えば、特許文献1には、画像用いてSPAD(Soil & Plant Analyzer Development)値を測定する植物生育指標測定装置が開示されている。 In recent years, a method for measuring a leaf color index using an image has been proposed for the purpose of improving the efficiency and labor saving of agricultural work. For example, Patent Document 1 discloses a plant growth index measuring device that measures a SPAD (Soil & Plant Analyzer Development) value using an image.

国際公開第2016/181743号International Publication No. 2016/181734

しかしながら、特許文献1に開示された植物生育指標測定装置は、第1の波長として650nm近辺の波長、第2の波長として750nm以上の赤外光の波長を使用するため、高価な赤外撮像装置を必要とする。 However, the plant growth index measuring device disclosed in Patent Document 1 uses a wavelength near 650 nm as the first wavelength and an infrared light wavelength of 750 nm or more as the second wavelength, and thus is an expensive infrared imaging device. Needs.

一方、安価な撮像装置としてRGB画像を生成するRGB撮像装置が知られている。しかしながら、RGB撮像装置を用いて画像測定を行うと、環境光変動に対する測定値のバラつきが大きいため、測定精度が低い。 On the other hand, as an inexpensive imaging device, an RGB imaging device that generates an RGB image is known. However, when image measurement is performed using an RGB imaging device, the measurement accuracy is low because the measured values vary widely with respect to changes in ambient light.

そこで本発明は、安価な構成で高い測定精度を有する画像処理装置、撮像システム、画像処理方法、および、プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide an image processing apparatus, an imaging system, an image processing method, and a program having an inexpensive configuration and high measurement accuracy.

本発明の一側面としての画像処理装置は、3つの透過波長帯域を有するフィルタを通過した光を受光する撮像素子から3つの分光画像を取得する画像取得部と、前記分光画像から混色を低減する色分離処理部とを有する。 The image processing apparatus as one aspect of the present invention has an image acquisition unit that acquires three spectroscopic images from an image sensor that receives light that has passed through a filter having three transmission wavelength bands, and reduces color mixing from the spectroscopic images. It has a color separation processing unit.

本発明の他の側面としての撮像システムは、撮像光学系と、3つの透過波長帯域を有するフィルタと、前記撮像光学系および前記フィルタを通過した光を受光する撮像素子と、前記画像処理装置とを有する。 An imaging system as another aspect of the present invention includes an imaging optical system, a filter having three transmission wavelength bands, an imaging optical system, an imaging element that receives light that has passed through the filters, and the image processing apparatus. Has.

本発明の他の側面としての画像処理方法は、3つの透過波長帯域を有するフィルタを通過した光を受光する撮像素子から3つの分光画像を取得するステップと、前記分光画像から混色を低減するステップとを有する。 The image processing method as another aspect of the present invention includes a step of acquiring three spectroscopic images from an image sensor that receives light that has passed through a filter having three transmission wavelength bands, and a step of reducing color mixing from the spectroscopic images. And have.

本発明の他の側面としてのプログラムは、前記画像処理方法をコンピュータに実行させる。 A program as another aspect of the present invention causes a computer to execute the image processing method.

本発明の他の目的及び特徴は、以下の実施例において説明される。 Other objects and features of the present invention will be described in the following examples.

本発明によれば、安価な構成で高い測定精度を有する画像処理装置、撮像システム、画像処理方法、および、プログラムを提供することができる。 According to the present invention, it is possible to provide an image processing apparatus, an imaging system, an image processing method, and a program having an inexpensive configuration and high measurement accuracy.

実施例1における画像処理システムのブロック図である。It is a block diagram of the image processing system in Example 1. 実施例1における撮像光学系、トリプルバンドパスフィルタ、および、撮像素子の分光特性を示す図である。It is a figure which shows the spectral characteristic of an image pickup optical system, a triple bandpass filter, and an image pickup element in Example 1. FIG. 実施例1における撮像光学系、トリプルバンドパスフィルタ、および、撮像素子の分光特性を掛け合わせた特性を示す図である。It is a figure which shows the characteristic which multiplied the spectral characteristic of the image pickup optical system, the triple bandpass filter, and the image pickup element in Example 1. FIG. 実施例1におけるカメラ撮像モデルの説明図である。It is explanatory drawing of the camera imaging model in Example 1. FIG. 実施例1におけるシミュレーションによる環境光および被写体の分光特性を示す図である。It is a figure which shows the spectral characteristic of the ambient light and the subject by the simulation in Example 1. FIG. 実施例1におけるシミュレーションによる計算を示すフローチャートである。It is a flowchart which shows the calculation by the simulation in Example 1. FIG. 比較例および実施例1のシミュレーション結果を示す図である。It is a figure which shows the simulation result of the comparative example and Example 1. 実施例1における画像測定精度の半値幅依存性のシミュレーション結果を示す図である。It is a figure which shows the simulation result of the half-value width dependence of the image measurement accuracy in Example 1. FIG. 実施例1における画像測定精度の中心波長依存性のシミュレーション結果を示す図である。It is a figure which shows the simulation result of the center wavelength dependence of the image measurement accuracy in Example 1. FIG. 実施例2における撮像部の構成図である。It is a block diagram of the imaging unit in Example 2. 実施例3における撮像光学系、トリプルバンドパスフィルタ、撮像素子の分光特性を示す図である。It is a figure which shows the spectral characteristic of an image pickup optical system, a triple bandpass filter, and an image pickup element in Example 3. FIG. 実施例4における撮像部の構成図である。It is a block diagram of the imaging unit in Example 4.

以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。 Hereinafter, examples of the present invention will be described in detail with reference to the drawings. In each figure, the same members are designated by the same reference numerals, and duplicate description will be omitted.

まず、図1を参照して、本発明の実施例1における画像処理システム(撮像システム)100の構成について説明する。図1は、画像処理システム100のブロック図である。画像処理システム100は、撮像部110、画像処理部(画像処理装置)120、制御部130、記憶部140、通信部150、および、表示部160を有する。撮像部110は、撮像光学系111、トリプルバンドパスフィルタ(フィルタ)112、および、撮像素子113を有する。撮像素子113は、撮像光学系111を介して形成された光学像(被写体像)を光電変換して、画像処理部120へ画像(画像データ)を出力する。本実施例において、撮像素子113はRGB撮像素子であり、撮像素子113から取得されるカラー画像は3バンド(R、G、B)の画像を有するが、これに限定されるものではない。画像処理システム100のうち少なくとも撮像部110は、図1のカメラ200に設けられている。 First, the configuration of the image processing system (imaging system) 100 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram of the image processing system 100. The image processing system 100 includes an image pickup unit 110, an image processing unit (image processing device) 120, a control unit 130, a storage unit 140, a communication unit 150, and a display unit 160. The image pickup unit 110 includes an image pickup optical system 111, a triple bandpass filter (filter) 112, and an image pickup element 113. The image sensor 113 photoelectrically converts an optical image (subject image) formed via the image pickup optical system 111, and outputs an image (image data) to the image processing unit 120. In this embodiment, the image pickup device 113 is an RGB image pickup device, and the color image acquired from the image pickup device 113 has a three-band (R, G, B) image, but is not limited thereto. Of the image processing system 100, at least the imaging unit 110 is provided in the camera 200 of FIG.

画像処理部120は、色分離処理部121、画像取得部122、および、選択部123を有する。色分離処理部121は、撮像部110(撮像素子113)から分光画像(例えば、RGB画像などのカラー画像)を取得する。色分離処理部121は、分光画像から混色を低減する。これらの各機能の詳細については後述する。なお、トリプルバンドパスフィルタ112を通して撮影される画像は、可視光に基づくRGB画像に限定されるものではなく、例えば近赤外光に基づく画像等の分光画像を広く含む。 The image processing unit 120 includes a color separation processing unit 121, an image acquisition unit 122, and a selection unit 123. The color separation processing unit 121 acquires a spectroscopic image (for example, a color image such as an RGB image) from the image pickup unit 110 (image sensor 113). The color separation processing unit 121 reduces color mixing from the spectroscopic image. Details of each of these functions will be described later. The image taken through the triple bandpass filter 112 is not limited to an RGB image based on visible light, and widely includes a spectroscopic image such as an image based on near infrared light.

画像処理システム100は、撮像装置(カメラ)の内部に設けることができる。または、画像処理システム100の画像処理部120などの一部の機能を、撮像装置から離れたコンピュータ(ユーザPC)やクラウドコンピューティング上で実現するように構成してもよい。この場合、撮像装置は、画像処理システム100のうち撮像部110を含む一部のみの機能を有する。 The image processing system 100 can be provided inside the image pickup apparatus (camera). Alternatively, some functions such as the image processing unit 120 of the image processing system 100 may be configured to be realized on a computer (user PC) or cloud computing away from the image pickup apparatus. In this case, the image pickup apparatus has the function of only a part of the image processing system 100 including the image pickup unit 110.

次に、図2を参照して、撮像光学系111、トリプルバンドパスフィルタ112、および、撮像素子113の分光特性について説明する。図2(a)〜(c)はそれぞれ、撮像光学系111の分光透過率L(λ)、トリプルバンドパスフィルタ112の分光透過率F(λ)、および、撮像素子113の分光感度特性S(λ)(i={1、2、3})を示す図である。図2(a)、(b)において、横軸は波長(nm)、縦軸は透過率(%)をそれぞれ示す。図2(c)において、横軸は波長(nm)、縦軸は規格化感度をそれぞれ示す。 Next, with reference to FIG. 2, the spectral characteristics of the image pickup optical system 111, the triple bandpass filter 112, and the image pickup element 113 will be described. Figure 2 (a) ~ (c) the spectral transmittance of each imaging optical system 111 L (lambda), the spectral transmittance of the triple band-pass filter 112 F (lambda), and spectral sensitivity characteristics S i of the imaging device 113 It is a figure which shows (λ) (i = {1,2,3}). In FIGS. 2A and 2B, the horizontal axis represents the wavelength (nm) and the vertical axis represents the transmittance (%). In FIG. 2C, the horizontal axis represents the wavelength (nm) and the vertical axis represents the normalization sensitivity.

図2(c)に示されるように、本実施例の撮像素子113は、波長約400nm〜700nmの可視波長域においてRGBの3つの感度特性を有する、所謂、RGBカラーイメージセンサである。一般に、RGBカラーイメージセンサは、イメージセンサ、RGBカラーフィルタ、および、赤外/紫外カットフィルタを備えて構成されており、図2(c)はこれらが掛け合わされた特性を示している。図2(c)において、実線で示されるS(λ)はB画像の分光感度特性、点線で示されるS(λ)はG画像の分光感度特性、一点鎖線で示されるS(λ)はR画像の分光感度特性をそれぞれ表している。 As shown in FIG. 2C, the image sensor 113 of this embodiment is a so-called RGB color image sensor having three sensitivity characteristics of RGB in the visible wavelength range of about 400 nm to 700 nm. Generally, an RGB color image sensor is configured to include an image sensor, an RGB color filter, and an infrared / ultraviolet cut filter, and FIG. 2C shows a characteristic in which these are multiplied. In FIG. 2 (c), S 1 (λ) shown by the solid line is the spectral sensitivity characteristic of the B image, S 2 (λ) shown by the dotted line is the spectral sensitivity characteristic of the G image, and S 3 (λ) shown by the alternate long and short dash line. ) Represent the spectral sensitivity characteristics of the R image.

図2(b)に示されるように、本実施例のトリプルバンドパスフィルタ112は、撮像素子113が感度を有する波長帯域において、3つの透過波長帯域を有する。図2(b)の例では、透過波長帯域の中心波長を短波長側からλc1、λc2、λc3、透過波長帯域の半値幅を短波長側からFWHM=FWHM=FWHMとする。このときトリプルバンドパスフィルタ112は、λc1=490nm、λc2=550nm、λc3=610nm、FWHM=FWHM=FWHM=25nmの透過波長帯域を有する。なお、本実施例の透過波長帯域の中心波長は、透過波長帯域の中心に位置する波長、または、透過波長帯域の分光透過率で重み付けした加重平均により算出される波長のいずれかで定義された波長を指すが、これらに限定されるものではない。 As shown in FIG. 2B, the triple bandpass filter 112 of this embodiment has three transmission wavelength bands in the wavelength band in which the image sensor 113 has sensitivity. In the example of FIG. 2B, the central wavelength of the transmission wavelength band is λ c1 , λ c2 , λ c3 from the short wavelength side, and the half width of the transmission wavelength band is FWHM 1 = FWHM 2 = FWHM 3 from the short wavelength side. .. At this time, the triple bandpass filter 112 has a transmission wavelength band of λ c1 = 490 nm, λ c2 = 550 nm, λ c3 = 610 nm, and FWHM 1 = FWHM 2 = FWHM 3 = 25 nm. The central wavelength of the transmission wavelength band of this embodiment is defined as either a wavelength located at the center of the transmission wavelength band or a wavelength calculated by a weighted average weighted by the spectral transmittance of the transmission wavelength band. Refers to, but is not limited to, wavelength.

本実施例のトリプルバンドパスフィルタ112は、透明基板上に膜厚や材料の異なる光学薄膜を積層させて作製される。図2(b)に示されるように、透波長帯域以外の波長帯域の透過率は1%以下となるようにトリプルバンドパスフィルタを設計、作製することが好ましい。透過波長帯域以外の波長帯域の透過率を1%以下とすると、画像測定時の測定バラつきを低減することができるため好ましい。また、撮像素子113に入射する光量の低下を防ぐため、透過波長帯域の透過率は100%に近い方が好ましいが、透過波長帯域の透過率が80%や90%であっても本実施例の効果を得ることができる。なお、本実施例のトリプルバンドパスフィルタ112では、FWHM=FWHM=FWHMとなっているが、各透過波長帯域の半値幅は同一でなくても本実施例の効果を得ることができる。従って、撮像素子113の分光感度特性S(λ)、S(λ)、S(λ)の違いによる露光量差を調整するため、FWHM、FWHM、FWHMを個別に調整してもよい。また、同様の目的で、各透過波長帯域の透過率を個別に調整してもよい。 The triple bandpass filter 112 of this embodiment is manufactured by laminating optical thin films having different film thicknesses and materials on a transparent substrate. As shown in FIG. 2B, it is preferable to design and manufacture a triple bandpass filter so that the transmittance in the wavelength band other than the transmission wavelength band is 1% or less. It is preferable that the transmittance of the wavelength band other than the transmission wavelength band is 1% or less because the measurement variation at the time of image measurement can be reduced. Further, in order to prevent a decrease in the amount of light incident on the image sensor 113, the transmittance in the transmission wavelength band is preferably close to 100%, but even if the transmittance in the transmission wavelength band is 80% or 90%, this embodiment. The effect of can be obtained. In the triple bandpass filter 112 of this embodiment, FWHM 1 = FWHM 2 = FWHM 3 is set, but the effect of this embodiment can be obtained even if the full width at half maximum of each transmission wavelength band is not the same. .. Therefore, in order to adjust the difference in exposure amount due to the difference in the spectral sensitivity characteristics S 1 (λ), S 2 (λ), and S 3 (λ) of the image sensor 113, FWHM 1 , FWHM 2 , and FWHM 3 are individually adjusted. You may. Further, for the same purpose, the transmittance of each transmission wavelength band may be adjusted individually.

図3は、図2に示される撮像光学系111、トリプルバンドパスフィルタ112、および、撮像素子113の分光特性を掛け合わせた特性を示す図である。図3(a)〜(c)において、横軸は波長(nm)、縦軸は規格化強度をそれぞれ示す。図3(a)〜(c)はそれぞれ、分光透過率L(λ)、分光透過率F(λ)、分光感度特性S(λ)の掛け合せ特性(すなわち、L(λ)F(λ)S(λ)、L(λ)F(λ)S(λ)、L(λ)F(λ)S(λ))を示している。画像処理部120は、図3の特性を用いて、以下の式(8)により計算されたmijを予め保持している。 FIG. 3 is a diagram showing characteristics obtained by multiplying the spectral characteristics of the imaging optical system 111, the triple bandpass filter 112, and the imaging element 113 shown in FIG. In FIGS. 3A to 3C, the horizontal axis represents the wavelength (nm) and the vertical axis represents the normalized intensity. Figure 3 (a) ~ (c), respectively, spectral transmittance L (lambda), the spectral transmittance F (lambda), multiplies characteristics of the spectral sensitivity characteristic S i (λ) (i.e., L (λ) F (λ ) S 1 (λ), L (λ) F (λ) S 2 (λ), L (λ) F (λ) S 3 (λ)) are shown. The image processing unit 120 holds in advance mij calculated by the following equation (8) using the characteristics of FIG.

次に、図4を参照して、撮像装置(撮像部110)を用いて屋外環境光下で被写体の透過光画像を撮像する場合について説明する。図4は、本実施例におけるカメラ撮影モデルの説明図であり、撮像部110用いて屋外環境下で被写体の透過光画像を撮像する場合を示している。図4のモデルにおいて、環境光の分光放射照度をE(λ)、被写体の分光透過率をT(λ)とすると、撮像部110により取得される画像の画素値Iは、以下の式(1)で表すことができる。 Next, a case where a transmitted light image of a subject is imaged under outdoor ambient light by using an image pickup apparatus (imaging unit 110) will be described with reference to FIG. FIG. 4 is an explanatory diagram of the camera shooting model in this embodiment, and shows a case where the image pickup unit 110 is used to capture a transmitted light image of a subject in an outdoor environment. In the model of FIG. 4, assuming that the spectral irradiance of the ambient light is E (λ) and the spectral transmittance of the subject is T (λ), the pixel value I i of the image acquired by the imaging unit 110 is expressed by the following equation (1). It can be represented by 1).

式(1)において、λSi1、λSi2はそれぞれ、図2(c)に示されるように分光感度特性S(λ)の撮像素子113が感度を有する波長帯域の最短波長と最長波長である。 In the formula (1), λ Si1, λ Si2 , respectively, is the shortest wavelength and the longest wavelength in a wavelength band image pickup element 113 has sensitivity of the spectral sensitivity characteristics S i (λ) as shown in Figure 2 (c) ..

屋外環境光下で撮影した被写体の透過光画像から被写体の分光透過率Tを測定するには、例えば、以下の式(2)による計算を行う。 From the transmitted light image of the object taken in outdoor environment light for measuring the spectral transmittance T i of the object, for example, performs a calculation according to equation (2) below.

式(2)において、I0,iは被写体に入射する環境光を撮像部110で取得した場合の画素値であり、I0,iは以下の式(3)で表すことができる。 In the formula (2), I 0 and i are pixel values when the ambient light incident on the subject is acquired by the imaging unit 110, and I 0 and i can be expressed by the following formula (3).

比較例として、トリプルバンドパスフィルタ112がない場合の透過率の計算式は、以下の式(4)のように表される。 As a comparative example, the formula for calculating the transmittance when there is no triple bandpass filter 112 is expressed as the following formula (4).

(λ)の半値幅が狭い場合、S(λ)の中心波長をλC,Siとすると、式(4)は以下の式(5)のような近似が成り立つことが知られている。 It is known that when the half width of S i (λ) is narrow and the central wavelengths of S i (λ) are λ C and Si , the following equation (5) holds for the equation (4). There is.

従って、S(λ)の半値幅が狭い場合、式(5)により被写体の透過率を算出することが可能である。しかしながら、図2(c)に示されるように、通常のRGBカラーイメージセンサの分光感度特性S(λ)は半値幅が広く、式(5)の近似が成り立たないため、画像から被写体の透過率を高い精度で測定することが困難である。特に、環境光の分光放射照度E(λ)が変化した際の分光透過率Tのバラつきが大きく、精度よく分光透過率Tを測定することは難しい。 Therefore, when the full width at half maximum of S i (λ) is narrow, the transmittance of the subject can be calculated by the equation (5). However, as shown in FIG. 2C, the spectral sensitivity characteristic S i (λ) of a normal RGB color image sensor has a wide half-value width, and the approximation of the equation (5) does not hold, so that the subject is transmitted from the image. It is difficult to measure the rate with high accuracy. In particular, the spectral irradiance E of the ambient light (lambda) is variation is large spectral transmittance T i at the time of change, it is difficult to accurately measure the spectral transmittance T i.

そこで本実施例では、分光感度特性S(λ)の半値幅を狭めるため、トリプルバンドパスフィルタ112を用いる。しかし、単純にトリプルバンドパスフィルタ112を用いただけでは、図3に示されるように、不要な波長帯域の光も混入してしまう(混色)。ここで、不要な波長帯域の光とは、図3(a)における波長λc1±FWHM/2の波長帯域以外の光、図3(b)における波長λc2±FWHM/2の波長帯域以外の光、図3(c)における波長λc3±FWHM/2の波長帯域以外の光を指す。このような不要光(混色)の発生は、撮像素子113の分光感度特性S(λ)が広い波長帯域で感度を有していることに起因する。 Therefore, in this embodiment, a triple bandpass filter 112 is used in order to narrow the half width of the spectral sensitivity characteristic Si (λ). However, if the triple bandpass filter 112 is simply used, as shown in FIG. 3, light in an unnecessary wavelength band is also mixed (color mixing). Here, the light of unnecessary wavelength band, Figure 3 wavelength λ c1 ± FWHM 1/2 of the wavelength bands other than the light in (a), the wavelength band of 3 wavelengths in (b) λ c2 ± FWHM 2 /2 refers to non-light, light other than the wavelength band of 3 wavelengths in (c) λ c3 ± FWHM 3 /2. The generation of such unnecessary light (color mixing) is due to the fact that the spectral sensitivity characteristic Si (λ) of the image sensor 113 has sensitivity in a wide wavelength band.

そこで本実施例では、さらに、これらの不要な波長帯域の光を分離するための分離処理を行う色分離処理部121を有する。次に、色分離処理部121による分離処理の詳細について説明する。 Therefore, in this embodiment, there is further a color separation processing unit 121 that performs a separation processing for separating light in these unnecessary wavelength bands. Next, the details of the separation process by the color separation process unit 121 will be described.

まず、波長λci±FWHM/2の波長帯域の光によってのみ取得される画素値をISiとすると、ISiは以下の式(6)のように表すことができる。 First, assuming that the pixel value acquired only by the light in the wavelength band of the wavelength λ ci ± FWHM i / 2 is I Si , I Si can be expressed by the following equation (6).

次に、本実施例では、IをISiを用いて以下の式(7)により表現する。 Next, in this embodiment, I i is expressed by the following equation (7) using I Si .

式(7)において、mijは以下の式(8)により定義される重み係数である。 In the formula (7), mij is a weighting coefficient defined by the following formula (8).

式(8)において、λFj1、λFj2はそれぞれ、図2(b)に示されるトリプルバンドパスフィルタ112の透過波長帯域の立ち上がり波長と、立ち下がり波長である。mijは、既知のL(λ)、F(λ)、S(λ)を用いて、式(8)に基づき予め計算された値であり、その値は色分離処理部121に保持されている。本実施例において、色分離処理部121は、以下の式(9)で表される計算により色分離処理を実行する。 In the formula (8), λ Fj1 and λ Fj2 are the rising wavelength and the falling wavelength of the transmission wavelength band of the triple bandpass filter 112 shown in FIG. 2B , respectively. mij is a value pre-calculated based on the equation (8) using known L (λ), F (λ), and S i (λ), and the value is held in the color separation processing unit 121. ing. In this embodiment, the color separation processing unit 121 executes the color separation processing by the calculation represented by the following equation (9).

従って、本実施例によれば、RGBカラーイメージセンサを用いて撮像した画像から、混色が少なく半値幅の狭いフィルタで撮影した画像と同等の画像を得ることが可能である。なお、本実施例の撮像部110で撮影した被写体の透過光画像から被写体の分光透過率Tを測定するには、以下の式(10)による計算を行うことが好ましい。 Therefore, according to this embodiment, it is possible to obtain an image equivalent to an image taken with a filter having a narrow half-value width with less color mixing from an image taken with an RGB color image sensor. Note that in order to measure the spectral transmittance T i of the object from the transmitted light image of the subject captured by the imaging unit 110 of this embodiment, it is preferable to perform the calculation according to formula (10) below.

式(10)において、I0,Siは、I0,iについて色分離処理を行った場合の画素値であり、以下の式(11)により計算される。 In the formula (10), I 0 and Si are pixel values when the color separation processing is performed on the I 0 and i , and are calculated by the following formula (11).

式(10)の右辺の値は、さら以下の式(12)のように近似することができる。 The value on the right side of the equation (10) can be further approximated as in the following equation (12).

従って、本実施例の撮像部110により、高い精度で被写体の透過率を測定することが可能である。 Therefore, the image pickup unit 110 of this embodiment can measure the transmittance of the subject with high accuracy.

次に、本実施例の効果について、シミュレーション結果を用いて説明する。ここでは、撮像部110で撮像した植物の葉の透過光画像の画素値から、植物の葉の葉緑素含有量を測定する場合を例として説明する。シミュレーションには、図4のカメラ撮像モデルを用いる。図4は、屋外環境光下にて、植物の葉401の透過光画像を撮像部110にて撮像するモデルを示している。 Next, the effect of this embodiment will be described using simulation results. Here, a case where the chlorophyll content of the leaf of the plant is measured from the pixel value of the transmitted light image of the leaf of the plant captured by the imaging unit 110 will be described as an example. The camera imaging model of FIG. 4 is used for the simulation. FIG. 4 shows a model in which the image pickup unit 110 captures a transmitted light image of a plant leaf 401 under outdoor ambient light.

図5は、シミュレーションによる環境光および被写体の分光特性を示す図であり、シミュレーションに用いた環境光の分光放射照度E(λ)、および、被写体の分光透過率T(λ)を示す。図5(a)は、様々な天候下(晴天、曇天など)で測定した分光放射照度の実測値である。図5(b)は、窒素含有量の異なる植物の葉の分光透過率の実測値であり、各線の色はカラーバーに示すSPAD値の値に対応している。ここで、SPAD値は、葉緑素含有量に対応した指標であり、SPAD値の違いが葉緑素含有量の違いを表している。以降、シミュレーションでは、植物の葉の透過光画像の画素値から、このSPAD値を測定する際の精度について説明を行う。 FIG. 5 is a diagram showing the spectral characteristics of the ambient light and the subject by the simulation, and shows the spectral irradiance E (λ) of the ambient light used in the simulation and the spectral transmittance T (λ) of the subject. FIG. 5A is an actually measured value of the spectral irradiance measured under various weather conditions (sunny weather, cloudy weather, etc.). FIG. 5B is an actually measured value of the spectral transmittance of leaves of plants having different nitrogen contents, and the color of each line corresponds to the value of the SPAD value shown on the color bar. Here, the SPAD value is an index corresponding to the chlorophyll content, and the difference in the SPAD value represents the difference in the chlorophyll content. Hereinafter, in the simulation, the accuracy of measuring the SPAD value from the pixel value of the transmitted light image of the leaf of the plant will be described.

次に、図6を参照して、シミュレーションによる計算について説明する。図6は、シミュレーションによる計算を示すフローチャートである。本シミュレーションでは、全ての分光放射照度E(λ)と分光透過率T(λ)との組合せについて、図6の計算を実施する。 Next, the calculation by simulation will be described with reference to FIG. FIG. 6 is a flowchart showing the calculation by simulation. In this simulation, the calculation of FIG. 6 is performed for all combinations of the spectral irradiance E (λ) and the spectral transmittance T (λ).

まずステップS001において、式(1)に基づいて、画素値Iを算出する(実際には、撮像部110により被写体を撮影することにより、画素値Iを取得する)。続いてステップS002において、画像処理部120は、式(9)に基づいて、画素値Isiを算出する。またステップS001、S002と並行して、ステップS003、S004を実行する。まずステップS003において、式(3)に基づいて画素値I0,iを算出(実際には、撮像部110により環境光を撮影することにより、画素値Iを取得する)する。その後、ステップS004において、画像処理部120は、式(11)に基づいて画素値I0,siを算出する。 First, in step S001, the pixel value I i is calculated based on the equation (1) (actually, the pixel value I i is acquired by photographing the subject with the imaging unit 110). Subsequently, in step S002, the image processing unit 120 calculates the pixel value Isi based on the equation (9). Further, steps S003 and S004 are executed in parallel with steps S001 and S002. First, in step S003, the pixel values I 0 and i are calculated based on the equation (3) (actually, the pixel values I i are acquired by photographing the ambient light with the imaging unit 110). After that, in step S004, the image processing unit 120 calculates the pixel values I 0, si based on the equation (11).

続いてステップS005において、画像処理部120は、算出された画素値Isi、I0、siを用いて、式(10)に基づいて被写体の分光透過率Tを算出する。最後に、ステップS006において、画像処理部120は、SPAD値と相関がある指標として、NGRDI(Normalized Green Red Difference Index)を算出する。ここで、NGRDIは、以下の式(13)により算出される値である。 Subsequently, in step S005, the image processing unit 120, the calculated pixel value I si, using I 0, si, it calculates the spectral transmittance T i of the object on the basis of the equation (10). Finally, in step S006, the image processing unit 120 calculates NGRDI (Normalized Green Red Difference Index) as an index having a correlation with the SPAD value. Here, NGRDI is a value calculated by the following formula (13).

次に、図7を参照して、シミュレーション結果について説明する。図7は、シミュレーション結果を示す図である。図7(a)〜(c)において、横軸はNGRDI、縦軸はSPAD値をそれぞれ示す。各点は、分光放射照度E(λ)と分光透過率T(λ)との組合せについて算出されたNGRDIの値と、NGRDIを算出する際に使用した分光透過率T(λ)のSPAD値との関係を示す。 Next, the simulation results will be described with reference to FIG. 7. FIG. 7 is a diagram showing a simulation result. In FIGS. 7 (a) to 7 (c), the horizontal axis represents the NGRDI and the vertical axis represents the SPAD value. Each point is the value of NGRDI calculated for the combination of the spectral irradiance E (λ) and the spectral transmittance T (λ), and the SPAD value of the spectral transmittance T (λ) used when calculating the NGRDI. The relationship is shown.

図7(a)は、トリプルバンドパスフィルタ112を用いず、かつ、色分離処理を実施しない場合の比較例を示す。図7(b)は、トリプルバンドパスフィルタ112を用いて、かつ、色分離処理を実施しない場合の比較例を示す。図7(c)は、トリプルバンドパスフィルタ112を用いて、かつ、色分離処理を実施した本実施例を示す。ここで、トリプルバンドパスフィルタ112を用いないとは、F(λ)=100[%]として、図6のステップS001、S003を実行することを指す。また、色分離処理を実施しないとは、ステップS002、S004を実行せず、Isi=I、I0,si=I0,iとしてステップS005を実行することを指す。 FIG. 7A shows a comparative example when the triple bandpass filter 112 is not used and the color separation process is not performed. FIG. 7B shows a comparative example in which the triple bandpass filter 112 is used and the color separation process is not performed. FIG. 7C shows this embodiment in which the triple bandpass filter 112 is used and the color separation process is performed. Here, not using the triple bandpass filter 112 means executing steps S001 and S003 in FIG. 6 with F (λ) = 100 [%]. Also, not to implement the color separation processing, without executing steps S002, S004, refers to performing step S005 as I si = I i, I 0 , si = I 0, i.

また、図7(a)〜(c)の左上に記載しているRMSEおよびRは、NGRDIを説明変数、SPAD値を目的変数として以下の式(14)により線形回帰を行った場合の平均平方二乗誤差RMSEおよび決定係数Rである。 Further, RMSE and R 2 are described in the upper left of FIG. 7 (a) ~ (c) has an average in the case of performing linear regression by the equation (14) below explanatory variables NGRDI, the SPAD value as the dependent variable a quadratic square error RMSE and the coefficient of determination R 2.

式(14)において、dは線形回帰により算出される定数である。 In the formula (14), d i is a constant calculated by linear regression.

図7に示されるように、本実施例の画像処理システム100を用いると、高い精度でNGRDIからSPAD値を測定することができる。従って、本実施例の画像処理システム100により、高い精度で画像測定を行うことが可能となる。 As shown in FIG. 7, when the image processing system 100 of this embodiment is used, the SPAD value can be measured from NGRDI with high accuracy. Therefore, the image processing system 100 of this embodiment makes it possible to perform image measurement with high accuracy.

次に、図8を参照して、画像測定精度の半値幅依存性のシミュレーション結果について説明する。図8は、画像測定精度の半値幅依存性のシミュレーション結果を示す図である。図8において、横軸は半値幅FWHM(nm)、縦軸はRMSEをそれぞれ示す。図8は、λc1=490nm、λc2=550nm、λc3=610nmと固定し、FWHM=FWHM=FWHMとして、半値幅を5nm〜55nmの範囲で変化させた場合のシミュレーション結果を示す。図8中の丸点は、平均平方二乗誤差RMSE、四角い点は決定係数Rを示している。 Next, with reference to FIG. 8, the simulation result of the half-value width dependence of the image measurement accuracy will be described. FIG. 8 is a diagram showing a simulation result of the half-value width dependence of the image measurement accuracy. In FIG. 8, the horizontal axis represents the full width at half maximum FWHM (nm), and the vertical axis represents RMSE. FIG. 8 shows the simulation results when the full width at half maximum was changed in the range of 5 nm to 55 nm with λ c1 = 490 nm, λ c2 = 550 nm, and λ c3 = 610 nm fixed and FWHM 1 = FWHM 2 = FWHM 3. .. Round point in FIG. 8, mean square square error RMSE, square points represents the coefficient of determination R 2.

図8に示されるように、半値幅が狭いほど平均平方二乗誤差RMSEは小さくなり、決定係数Rは大きくなる。このため、測定精度の観点からは、半値幅は狭いほうが好ましい。一方、半値幅が狭くなると、撮像素子に入射する光量が低下し、撮像に時間を要する、信号対雑音比が低下する等の問題が発生する。従って、本実施例のトリプルバンドパスフィルタ112の透過波長帯域の半値幅FWHMは、以下の条件式(15)を満たすことが好ましい。 As shown in FIG. 8, mean square square error RMSE as the half width is narrow decreases, the coefficient of determination R 2 increases. Therefore, from the viewpoint of measurement accuracy, it is preferable that the half width is narrow. On the other hand, when the full width at half maximum is narrowed, the amount of light incident on the image sensor decreases, which causes problems such as time required for imaging and a decrease in the signal-to-noise ratio. Therefore, it is preferable that the full width at half maximum FWHM i of the transmission wavelength band of the triple bandpass filter 112 of this embodiment satisfies the following conditional expression (15).

より好ましくは、以下の条件式(16)を満たすことが好ましい。 More preferably, the following conditional expression (16) is satisfied.

次に、図9を参照して、画像測定精度の中心波長依存性のシミュレーション結果について説明する。図9は、画像測定精度の中心波長依存性のシミュレーション結果を示す図である。図9(a)〜(d)において、横軸は波長λc2(nm)、縦軸は波長λc3(nm)をそれぞれ示す。 Next, with reference to FIG. 9, the simulation result of the center wavelength dependence of the image measurement accuracy will be described. FIG. 9 is a diagram showing a simulation result of the center wavelength dependence of the image measurement accuracy. In FIGS. 9A to 9D, the horizontal axis represents the wavelength λ c2 (nm) and the vertical axis represents the wavelength λ c3 (nm).

図9は、FWHM=FWHM=FWHM=25nmとして、λc1、λc2、λc3を変化させた場合のシミュレーション結果を示している。図9(a)、(b)は、λc1=490nm、530nm≦λc2≦590nm、560nm≦λc3≦650nmとした場合のシミュレーション結果である。図9(a)は、平均平方二乗誤差RMSEの分布を等高線図で表している。図9(b)は、決定係数Rの分布を等高線図で表している。両図において、斜線部分は、短波長側から数えて2番目の透過波長帯域と、3番目の透過波長帯域が重なり、トリプルバンドパスフィルタ112とはならない領域を示している。図9(c)、(d)は、λc1=430nm、530nm≦λc2≦590nm、560nm≦λc3≦650nmとした場合のシミュレーション結果である。図9(c)は、平均平方二乗誤差RMSEの分布を等高線図で表している。図9(d)は、決定係数Rの分布を等高線図で表している。 FIG. 9 shows the simulation results when λ c1 , λ c2 , and λ c3 are changed with FWHM 1 = FWHM 2 = FWHM 3 = 25 nm. 9 (a) and 9 (b) are simulation results when λ c1 = 490 nm, 530 nm ≤ λ c2 ≤ 590 nm, 560 nm ≤ λ c3 ≤ 650 nm. FIG. 9A is a contour diagram showing the distribution of the mean square error RMSE. FIG. 9 (b) represents the distribution of the coefficient of determination R 2 in contour plot. In both figures, the shaded area indicates a region where the second transmission wavelength band and the third transmission wavelength band counting from the short wavelength side overlap and do not form the triple bandpass filter 112. 9 (c) and 9 (d) are simulation results when λ c1 = 430 nm, 530 nm ≤ λ c2 ≤ 590 nm, 560 nm ≤ λ c3 ≤ 650 nm. FIG. 9 (c) is a contour diagram showing the distribution of the mean square error RMSE. FIG. 9 (d) represents the distribution of the coefficient of determination R 2 in contour plot.

図9のシミュレーション結果より、SPAD値を精度よく測定するには、λc1に依らず、λc2、λc3の範囲は以下の条件式(17)、(18)を満たすことが好ましい。 From the simulation results of FIG. 9, in order to measure the SPAD value with high accuracy, it is preferable that the ranges of λ c2 and λ c3 satisfy the following conditional expressions (17) and (18) regardless of λ c1 .

より好ましくは、以下の条件式(19)、(20)を満たすことが好ましい。 More preferably, the following conditional expressions (19) and (20) are satisfied.

本実施例の画像処理システム100において、撮像部110は、被写体を撮像して撮像画像を取得する。続いて、画像処理部120(色分離処理部121)は、撮像画像の各画素の画素値Iを用いて、式(9)の色分離処理を実行する。色分離処理により算出された画素値ISiにより構成される色分離画像は、適宜、記憶部140に記憶され、通信部150にて外部装置(不図示)へ転送され、または、表示部160に表示される。なお、以上の各動作は、制御部130からの命令により実施される。 In the image processing system 100 of this embodiment, the image pickup unit 110 takes an image of the subject and acquires the captured image. Subsequently, the image processing unit 120 (color separation processing unit 121), using the pixel values I i of each pixel of the captured image, performs color separation process of the formula (9). The color-separated image composed of the pixel value ISi calculated by the color-separation process is appropriately stored in the storage unit 140, transferred to the external device (not shown) by the communication unit 150, or transferred to the display unit 160. Is displayed. Each of the above operations is executed by a command from the control unit 130.

次に、図10を参照して、本発明の実施例2における画像処理システムについて説明する。図10は、本実施例における画像処理システム(撮像部110a)の構成図である。 Next, the image processing system according to the second embodiment of the present invention will be described with reference to FIG. FIG. 10 is a configuration diagram of the image processing system (imaging unit 110a) in this embodiment.

本実施例の画像処理システムは、図1を参照して説明した実施例1の画像処理システム100と同様の構成を有する。本実施例において、画像処理システムは、画像測定モード(測定モード)およびRGB画像撮影モード(撮影モード)を有する。画像処理部120の選択部123は、画像測定モードまたはRGB画像撮影モードを選択する。図10(a)は、画像測定モードにおける画像処理システムの撮像部110aの配置を示している。画像測定モードが選択された場合、撮像光学系111と撮像素子113との間に、駆動機構(不図示)を用いてトリプルバンドパスフィルタ112を挿入する。図10(b)は、RGB画像撮影モードにおける撮像部110aの配置を示している。RGB画像撮影モードを選択した場合、撮像光学系111と撮像素子113との間から、駆動機構(不図示)を用いて、トリプルバンドパスフィルタ112を退避させる。 The image processing system of this embodiment has the same configuration as the image processing system 100 of Example 1 described with reference to FIG. In this embodiment, the image processing system has an image measurement mode (measurement mode) and an RGB image shooting mode (shooting mode). The selection unit 123 of the image processing unit 120 selects an image measurement mode or an RGB image capturing mode. FIG. 10A shows the arrangement of the image pickup unit 110a of the image processing system in the image measurement mode. When the image measurement mode is selected, the triple bandpass filter 112 is inserted between the image pickup optical system 111 and the image pickup element 113 by using a drive mechanism (not shown). FIG. 10B shows the arrangement of the imaging unit 110a in the RGB image capturing mode. When the RGB image capturing mode is selected, the triple bandpass filter 112 is retracted from between the image pickup optical system 111 and the image pickup element 113 by using a drive mechanism (not shown).

本実施例によれば、1つの撮像部110aで、通常のRGB画像および画像測定に適した画像の両方の画像を撮像することができる。 According to this embodiment, one imaging unit 110a can capture both a normal RGB image and an image suitable for image measurement.

次に、図11を参照して、本発明の実施例3における撮像光学系111、トリプルバンドパスフィルタ112、および、撮像素子113の分光特性について説明する。図11(a)〜(c)はそれぞれ、撮像光学系111の分光透過率L(λ)、トリプルバンドパスフィルタ112の分光透過率F(λ)、および、撮像素子113の分光感度特性S(λ)(i={1、2、3})を示す図である。図11(a)、(b)において、横軸は波長(nm)、縦軸は透過率(%)をそれぞれ示す。図11(c)において、横軸は波長(nm)、縦軸は規格化感度をそれぞれ示す。 Next, with reference to FIG. 11, the spectral characteristics of the imaging optical system 111, the triple bandpass filter 112, and the imaging element 113 according to the third embodiment of the present invention will be described. Figure 11 (a) ~ (c) the spectral transmittance of each of the imaging optical system 111 L (lambda), the spectral transmittance of the triple band-pass filter 112 F (lambda), and spectral sensitivity characteristics S i of the imaging device 113 It is a figure which shows (λ) (i = {1,2,3}). In FIGS. 11A and 11B, the horizontal axis represents the wavelength (nm) and the vertical axis represents the transmittance (%). In FIG. 11C, the horizontal axis represents the wavelength (nm) and the vertical axis represents the normalization sensitivity.

本実施例の画像処理システムは、図1を参照して説明した実施例1の画像処理システム100と同様の構成を有する。ただし本実施例の撮像素子113の構成は、実施例1の撮像素子113と異なる。実施例1の撮像素子113は、イメージセンサ、RGBカラーフィルタ、および、赤外/紫外カットフィルタで構成されているが、本実施例の撮像素子は、イメージセンサおよびRGBカラーフィルタのみで構成されている。 The image processing system of this embodiment has the same configuration as the image processing system 100 of Example 1 described with reference to FIG. However, the configuration of the image sensor 113 of this embodiment is different from that of the image sensor 113 of Example 1. The image sensor 113 of the first embodiment is composed of an image sensor, an RGB color filter, and an infrared / ultraviolet cut filter, but the image sensor of the present embodiment is composed of only an image sensor and an RGB color filter. There is.

RGB画像(カラー画像)を取得するために使用されるシリコンベースのイメージセンサは、通常、波長300nmから1100nmの範囲で感度を有する。従って、RGBカラーフィルタの特性にもよるが、赤外/紫外カットフィルタを無くすことで、図11(c)に示されるように可視光以外の波長を有する光を利用することができる。本実施例のトリプルバンドパスフィルタ112は、図11(b)に示されるように、λc1=440nm、λc2=560nm、λc3=785nm、FWHM=FWHM=FWHM=30nmの透過波長帯域を有する。 Silicon-based image sensors used to acquire RGB images (color images) typically have sensitivity in the wavelength range of 300 nm to 1100 nm. Therefore, although it depends on the characteristics of the RGB color filter, by eliminating the infrared / ultraviolet cut filter, light having a wavelength other than visible light can be used as shown in FIG. 11 (c). As shown in FIG. 11B, the triple bandpass filter 112 of this embodiment has a transmission wavelength of λ c1 = 440 nm, λ c2 = 560 nm, λ c3 = 785 nm, and FWHM 1 = FWHM 2 = FWHM 3 = 30 nm. Has a band.

本実施例では、可視光以外の波長の光として近赤外光を利用する。近赤外光を利用することで、SPAD値の診断精度を改善することができる。SPAD値は、波長650nm付近の可視光と、波長940nm付近の近赤外光とを用いて測定される。従って、画像測定を行う際にも同様に、近赤外光を用いることが好ましい。植物の葉は、図5(b)に示されるように、750nmから1300nmの範囲では透過率がほぼ変化しないため、この波長範囲内であれば近赤外光としてどの波長の光を用いてもよい。また、可視光としては、550nmから700nmの光を用いることが好ましい。また、トリプルバンドパスフィルタ112の3つ目の透過波長は、式(7)の右辺にある3×3の行列式が正則となるような波長を選択することが好ましい。なお、本実施例の色分離処理は、実施例1と同様な方法で実施される。 In this embodiment, near-infrared light is used as light having a wavelength other than visible light. By using near-infrared light, the diagnostic accuracy of the SPAD value can be improved. The SPAD value is measured using visible light having a wavelength of around 650 nm and near-infrared light having a wavelength of around 940 nm. Therefore, it is preferable to use near-infrared light as well when performing image measurement. As shown in FIG. 5 (b), the transmittance of plant leaves hardly changes in the range of 750 nm to 1300 nm, so that any wavelength of light can be used as near-infrared light within this wavelength range. Good. Moreover, it is preferable to use light of 550 nm to 700 nm as visible light. Further, as the third transmission wavelength of the triple bandpass filter 112, it is preferable to select a wavelength such that the 3 × 3 determinant on the right side of the equation (7) becomes regular. The color separation process of this example is carried out in the same manner as in Example 1.

次に、図12を参照して、本発明の実施例4における画像処理システムについて説明する。図12は、本実施例における画像処理システム(撮像部110b)の構成図である。本実施例の撮像部110bは、撮像光学系111、トリプルバンドパスフィルタ112、撮像素子113、および、赤外/紫外カットフィルタ114を有する。撮像素子113は、イメージセンサとRGBカラーフィルタのみで構成されている。 Next, the image processing system according to the fourth embodiment of the present invention will be described with reference to FIG. FIG. 12 is a configuration diagram of the image processing system (imaging unit 110b) in this embodiment. The image pickup unit 110b of this embodiment includes an image pickup optical system 111, a triple bandpass filter 112, an image pickup element 113, and an infrared / ultraviolet cut filter 114. The image sensor 113 is composed of only an image sensor and an RGB color filter.

本実施例の画像処理システムは、画像測定モード(測定モード)およびRGB画像撮影モード(撮影モード)を有する。画像処理部120の選択部123は、画像測定モードまたはRGB画像撮影モードを選択する。図12(a)は、画像測定モードにおける撮像部110bの配置を示している。画像測定モードが選択された場合、撮像光学系111と撮像素子113との間に、駆動機構(不図示)を用いてトリプルバンドパスフィルタ112を挿入する。図12(b)は、RGB画像撮影モードにおける撮像部110bの配置を示している。RGB画像撮影モードが選択された場合、撮像光学系111と撮像素子113との間に、駆動機構(不図示)を用いて赤外/紫外カットフィルタ114を挿入する。 The image processing system of this embodiment has an image measurement mode (measurement mode) and an RGB image shooting mode (shooting mode). The selection unit 123 of the image processing unit 120 selects an image measurement mode or an RGB image capturing mode. FIG. 12A shows the arrangement of the imaging unit 110b in the image measurement mode. When the image measurement mode is selected, the triple bandpass filter 112 is inserted between the image pickup optical system 111 and the image pickup element 113 by using a drive mechanism (not shown). FIG. 12B shows the arrangement of the imaging unit 110b in the RGB image capturing mode. When the RGB image capturing mode is selected, an infrared / ultraviolet cut filter 114 is inserted between the image pickup optical system 111 and the image pickup element 113 by using a drive mechanism (not shown).

本実施例によれば、1つの撮像部110bで、通常のRGB画像および画像測定に適した画像の両方の画像を撮像することができる。 According to this embodiment, one imaging unit 110b can capture both a normal RGB image and an image suitable for image measurement.

このように各実施例において、画像処理装置(画像処理部120)は、画像取得部122および色分離処理部121を有する。画像取得部122は、3つの透過波長帯域を有するフィルタ(トリプルバンドパスフィルタ112)を通過した光を受光する撮像素子(例えばRGB撮像素子)113から3つの分光画像(例えばカラー画像)を取得する。色分離処理部121は、分光画像から混色を低減する。 As described above, in each embodiment, the image processing apparatus (image processing unit 120) has an image acquisition unit 122 and a color separation processing unit 121. The image acquisition unit 122 acquires three spectral images (for example, a color image) from an image sensor (for example, an RGB image sensor) 113 that receives light that has passed through a filter (triple bandpass filter 112) having three transmission wavelength bands. .. The color separation processing unit 121 reduces color mixing from the spectroscopic image.

好ましくは、色分離処理部は、撮像光学系111の分光透過率、フィルタの分光透過率、および、撮像素子の分光感度特性に基づいて、混色を低減する。また好ましくは、3つの透過波長帯域の半値幅は、45nm以下である。また好ましくは、3つの透過波長帯域のうち2つの透過波長帯域の中心波長はそれぞれ、波長560nm±20nm以内および波長610nm±30nm以内である。 Preferably, the color separation processing unit reduces the color mixing based on the spectral transmittance of the image pickup optical system 111, the spectral transmittance of the filter, and the spectral sensitivity characteristics of the image pickup element. Further, preferably, the half width of the three transmission wavelength bands is 45 nm or less. Further, preferably, the central wavelengths of two transmission wavelength bands out of the three transmission wavelength bands are within 560 nm ± 20 nm and within 610 nm ± 30 nm, respectively.

好ましくは、画像処理装置は、測定モード(画像測定モード)または撮影モード(RGB画像撮影モード)を選択する選択部123を有する画像取得部は、選択部により測定モードが選択されている場合、フィルタを挿入した状態で撮像された分光画像を取得する。また画像取得部は、選択部により撮影モードが選択されている場合、フィルタを退避した状態で撮像された分光画像を取得する。また好ましくは、画像取得部は、選択部により撮影モードが選択されている場合、赤外/紫外カットフィルタ114を挿入した状態で撮像された分光画像を取得する。また画像取得部は、選択部により測定モードが選択されている場合、赤外/紫外カットフィルタを退避した状態で撮像された分光画像を取得する。 Preferably, the image processing apparatus has a selection unit 123 for selecting a measurement mode (image measurement mode) or a shooting mode (RGB image shooting mode), and an image acquisition unit has a filter when the measurement mode is selected by the selection unit. Acquires a spectroscopic image captured with the Further, the image acquisition unit acquires a spectroscopic image captured with the filter retracted when the shooting mode is selected by the selection unit. Further, preferably, when the photographing mode is selected by the selection unit, the image acquisition unit acquires a spectroscopic image captured with the infrared / ultraviolet cut filter 114 inserted. Further, when the measurement mode is selected by the selection unit, the image acquisition unit acquires a spectroscopic image captured with the infrared / ultraviolet cut filter retracted.

(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

各実施例によれば、安価な構成で高い測定精度を有する画像処理装置、撮像システム、画像処理方法、および、プログラムを提供することができる。 According to each embodiment, it is possible to provide an image processing apparatus, an imaging system, an image processing method, and a program having high measurement accuracy in an inexpensive configuration.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferable examples of the present invention have been described above, the present invention is not limited to these examples, and various modifications and modifications can be made within the scope of the gist thereof.

例えば、各実施例の効果の説明の際に透過率測定を例として挙げているが、これに限定されるものではなく、反射率測定や画像のホワイトバランス補正においても各実施例の効果を得ることができる。また各実施例は、植物の葉の葉緑素含有量の測定に限定されるものではなく、他の測定にも適用可能である。 For example, the transmittance measurement is given as an example in the explanation of the effect of each embodiment, but the present invention is not limited to this, and the effect of each embodiment is also obtained in the reflectance measurement and the white balance correction of the image. be able to. Further, each embodiment is not limited to the measurement of the chlorophyll content of the leaves of plants, and can be applied to other measurements.

120 画像処理部(画像処理装置)
121 色分離処理部
122 画像取得部
120 Image processing unit (image processing device)
121 Color separation processing unit 122 Image acquisition unit

Claims (9)

3つの透過波長帯域を有するフィルタを通過した光を受光する撮像素子から3つの分光画像を取得する画像取得部と、
前記分光画像から混色を低減する色分離処理部と、を有することを特徴とする画像処理装置。
An image acquisition unit that acquires three spectral images from an image sensor that receives light that has passed through a filter having three transmission wavelength bands.
An image processing apparatus comprising: a color separation processing unit for reducing color mixing from the spectroscopic image.
前記色分離処理部は、撮像光学系の分光透過率、前記フィルタの分光透過率、および、前記撮像素子の分光感度特性に基づいて、前記混色を低減することを特徴とする請求項1に記載の画像処理装置。 The first aspect of claim 1, wherein the color separation processing unit reduces the color mixing based on the spectral transmittance of the image pickup optical system, the spectral transmittance of the filter, and the spectral sensitivity characteristics of the image pickup element. Image processing device. 前記3つの透過波長帯域の半値幅は、45nm以下であることを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the half width of the three transmission wavelength bands is 45 nm or less. 前記3つの透過波長帯域のうち2つの透過波長帯域の中心波長はそれぞれ、波長560nm±20nm以内および波長610nm±30nm以内であることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。 The invention according to any one of claims 1 to 3, wherein the central wavelengths of the two transmission wavelength bands out of the three transmission wavelength bands are within 560 nm ± 20 nm and within 610 nm ± 30 nm, respectively. Image processing device. 測定モードまたは撮影モードを選択する選択部を更に有し、
前記画像取得部は、
前記選択部により前記測定モードが選択されている場合、前記フィルタを挿入した状態で撮像された前記分光画像を取得し、
前記選択部により前記撮影モードが選択されている場合、前記フィルタを退避した状態で撮像された前記分光画像を取得することを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。
Further having a selection unit for selecting a measurement mode or a shooting mode,
The image acquisition unit
When the measurement mode is selected by the selection unit, the spectroscopic image captured with the filter inserted is acquired.
The image processing according to any one of claims 1 to 4, wherein when the photographing mode is selected by the selection unit, the spectroscopic image captured with the filter retracted is acquired. apparatus.
前記画像取得部は、
前記選択部により前記撮影モードが選択されている場合、赤外/紫外カットフィルタを挿入した状態で撮像された前記分光画像を取得し、
前記選択部により前記測定モードが選択されている場合、前記赤外/紫外カットフィルタを退避した状態で撮像された前記分光画像を取得することを特徴とする請求項5に記載の画像処理装置。
The image acquisition unit
When the imaging mode is selected by the selection unit, the spectroscopic image captured with the infrared / ultraviolet cut filter inserted is acquired.
The image processing apparatus according to claim 5, wherein when the measurement mode is selected by the selection unit, the spectroscopic image captured with the infrared / ultraviolet cut filter retracted is acquired.
撮像光学系と、
3つの透過波長帯域を有するフィルタと、
前記撮像光学系および前記フィルタを通過した光を受光する撮像素子と、
請求項1乃至6のいずれか一項に記載の画像処理装置と、を有することを特徴とする撮像システム。
Imaging optics and
A filter with three transmission wavelength bands and
An image sensor that receives light that has passed through the imaging optical system and the filter, and
An image pickup system comprising the image processing apparatus according to any one of claims 1 to 6.
3つの透過波長帯域を有するフィルタを通過した光を受光する撮像素子から3つの分光画像を取得するステップと、
前記分光画像から混色を低減するステップと、を有することを特徴とする画像処理方法。
A step of acquiring three spectroscopic images from an image sensor that receives light that has passed through a filter having three transmission wavelength bands.
An image processing method comprising: a step of reducing color mixing from the spectroscopic image.
請求項8に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。 A program comprising causing a computer to execute the image processing method according to claim 8.
JP2019099233A 2019-05-28 2019-05-28 Image processing device, image capturing system, image processing method and program Pending JP2020193859A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019099233A JP2020193859A (en) 2019-05-28 2019-05-28 Image processing device, image capturing system, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019099233A JP2020193859A (en) 2019-05-28 2019-05-28 Image processing device, image capturing system, image processing method and program

Publications (1)

Publication Number Publication Date
JP2020193859A true JP2020193859A (en) 2020-12-03

Family

ID=73545835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019099233A Pending JP2020193859A (en) 2019-05-28 2019-05-28 Image processing device, image capturing system, image processing method and program

Country Status (1)

Country Link
JP (1) JP2020193859A (en)

Similar Documents

Publication Publication Date Title
US8587783B2 (en) Spectral estimation parameter generation device, method of generating spectral estimation parameter, and spectral estimation device
JP5629564B2 (en) Image processing apparatus and control method thereof
JP6863279B2 (en) Inspection equipment, inspection method, and program
JP6863280B2 (en) Inspection equipment, inspection method, and program
CN107563976A (en) U.S. face parameter acquiring method, device, readable storage medium storing program for executing and computer equipment
JP5145716B2 (en) Method of creating calibration curve in remote sensing to calculate crop information
CN112116539A (en) Optical aberration fuzzy removal method based on deep learning
JP6478579B2 (en) Imaging unit, imaging device, and image processing system
KR20170100717A (en) Apparatus and method for analyzing skin condition using spectral reflectance estimation
JP2010220569A (en) Method for continuously measuring change in growth of plant body
JP7127647B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP2006292582A (en) Multi-band image processor, multi-band image processing method and multi-band image photographing apparatus
CN110647781B (en) Crop growth information acquisition method and device based on spectrogram fusion
JP2020193859A (en) Image processing device, image capturing system, image processing method and program
KR102362278B1 (en) Spectral apparatus incorporating tunable spectral filter with multiple resonances, and method for acquiring spectral information thereof
JP3960989B2 (en) Color estimation system and color estimation method
JP2018156208A (en) Analyzer, imaging apparatus, analysis method and program
JP4460717B2 (en) Color adjustment device
JP2634897B2 (en) Light meter
JP7254440B2 (en) Image processing device, imaging device, image processing method, and program
Vunckx et al. Accurate video-rate multi-spectral imaging using imec snapshot sensors
JP2023163061A (en) Imaging apparatus, control method for imaging apparatus, and program
WO2022163327A1 (en) Information processing device, imaging system, information processing method, and program
CN113298884B (en) RGB camera spectral sensitivity calibration method based on spectrum-adjustable LED light source
WO2024070120A1 (en) Measuring device, measuring method, and program