JP4400450B2 - Stray light correction method and two-dimensional spectral luminance meter using the same - Google Patents
Stray light correction method and two-dimensional spectral luminance meter using the same Download PDFInfo
- Publication number
- JP4400450B2 JP4400450B2 JP2004372180A JP2004372180A JP4400450B2 JP 4400450 B2 JP4400450 B2 JP 4400450B2 JP 2004372180 A JP2004372180 A JP 2004372180A JP 2004372180 A JP2004372180 A JP 2004372180A JP 4400450 B2 JP4400450 B2 JP 4400450B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- stray light
- pixel
- pixels
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Spectrometry And Color Measurement (AREA)
Description
本発明は、測定対象である二次元光源の各画素の分光強度を得るとともに、これを輝度、色度などのインデックスの二次元分布に変換して出力する二次元分光輝度計、及びこの二次元分光輝度計による測定において迷光補正を行う場合の迷光補正法に関する。 The present invention provides a two-dimensional spectral luminance meter that obtains the spectral intensity of each pixel of a two-dimensional light source to be measured, converts it into a two-dimensional distribution of indices such as luminance and chromaticity, and the two-dimensional The present invention relates to a stray light correction method in the case where stray light correction is performed in measurement by a spectral luminance meter.
従来、二次元光源の輝度、色度は、フィルターを用いた三刺激値型の二次元測色計が用いられてきたが、近年各種ディスプレーやLED応用機器など単色に近い(スペクトル幅の狭い)発光スペクトルを有する面光源が増えつつあり、これらの輝度、色度を精度良く測定するという要請から、分光型の二次元輝度計の必要性が高くなっている。この分光型の二次元輝度計(二次元分光輝度計)は、以下のマルチフィルター方式、或いはスリット分散像方式をとるものが多い。 Conventionally, a tristimulus type two-dimensional colorimeter using a filter has been used for the brightness and chromaticity of a two-dimensional light source, but in recent years it is close to a single color such as various displays and LED application devices (narrow spectral width). The number of surface light sources having an emission spectrum is increasing, and the need for measuring these luminance and chromaticity with high accuracy is increasing the need for a spectroscopic two-dimensional luminance meter. Many of the spectroscopic two-dimensional luminance meters (two-dimensional spectral luminance meters) adopt the following multi-filter method or slit dispersion image method.
<マルチフィルター方式>
回転円板等に円環状に取り付けられた中心波長の異なる複数のバンドパスフィルター(BPF;Band Pass Filter)を対象光学系の結像光束中に順次挿入し、これら各フィルターの透過波長帯の光束による像を、結像面に置かれた二次元撮像素子によって撮像することで二次元の分光特性情報を得る輝度計測方式(例えば、特許文献1参照)。
<Multi-filter method>
A plurality of band pass filters (BPFs) with different center wavelengths attached in an annular shape to a rotating disk or the like are sequentially inserted into the imaging light flux of the target optical system, and the light flux in the transmission wavelength band of each filter. A luminance measurement method in which two-dimensional spectral characteristic information is obtained by capturing an image obtained by using a two-dimensional image sensor placed on the imaging plane (see, for example, Patent Document 1).
<スリット分散像方式>
測定対象である二次元光源の対物光学系による像を、結像面に置かれたスリットによって切り出す。切り出されたスリット状の像(スリット光源)の分散光学系による波長分散像を、結像面に置かれた二次元撮像素子によって撮像する。そして、測定対象又は測定系を、スリットと直交する方向に走査して二次元の分光特性情報を得る輝度計測方式(例えば、特許文献2参照)。
An image formed by the objective optical system of the two-dimensional light source to be measured is cut out by a slit placed on the imaging plane. A chromatic dispersion image of the clipped slit-like image (slit light source) by the dispersion optical system is picked up by a two-dimensional image sensor placed on the imaging surface. Then, a luminance measurement method for obtaining two-dimensional spectral characteristic information by scanning the measurement object or measurement system in a direction orthogonal to the slit (see, for example, Patent Document 2).
上記マルチフィルター方式及びスリット分散像方式のいずれにおいても、バンドパスフィルターやスリットからの反射成分が存在する。この反射成分は、光学系のレンズ面や装置のハウジング内面等で再反射され、迷光となって再入射される。そして、この再入射された迷光は、撮像素子の撮像によって得られる本来の測定画像(実画像)に対して影響を与えてしまう、すなわち、迷光によって生じる迷光画像が測定画像に重畳されてしまい、当該観察画像の精度、特に高コントラストの画像の精度を劣化させてしまうことになる。バンドパスフィルターやスリットを用いない場合であっても、撮像素子表面や光学系のレンズ表面からの反射光などによって迷光が生じてしまうことは避けられない。 In both the multi-filter method and the slit dispersion image method, there is a reflection component from a band pass filter or a slit. This reflection component is re-reflected by the lens surface of the optical system, the inner surface of the housing of the apparatus, etc., and reenters as stray light. Then, the re-entered stray light has an influence on the original measurement image (actual image) obtained by imaging by the image sensor, that is, the stray light image generated by the stray light is superimposed on the measurement image, The accuracy of the observed image, particularly the accuracy of the high contrast image, is deteriorated. Even when a band-pass filter or slit is not used, stray light is unavoidably caused by reflected light from the surface of the imaging element or the lens surface of the optical system.
本発明は上記事情に鑑みてなされたもので、測定画像に対する迷光の影響が除去されて(迷光補正が行われて)好適な測定画像を得ることができるとともに、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を短縮することができる迷光補正法及びそれを用いた二次元分光輝度計を提供することを目的とする。 The present invention has been made in view of the above circumstances, and the effect of stray light on a measurement image is removed (stray light correction is performed), and a suitable measurement image can be obtained, while stray light is maintained while maintaining sufficient accuracy. It is an object of the present invention to provide a stray light correction method and a two-dimensional spectroluminometer using the same, which can shorten the calculation processing time (correction time) required for correction.
本発明の一の局面に係る迷光補正法は、撮像により得られる観察画像に対する迷光の影響を補正して補正画像を求める迷光補正法であって、前記迷光の影響に基づく迷光画像が重畳された前記観察画像と、予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光に応じて該撮像域の全画素に対して得られる応答画像とから、前記観察画像を構成する画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、当該推定算出された迷光画像を観察画像から除去して実画像に近似する前記補正画像を算出する迷光補正法において、前記撮像により得られる観察画像(O ij (λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(O IJ (λ))に変換する第1の工程と、当該低画素観察画像と低画素数の応答画像((F MN ) IJ (λ))とから、前記補正画像(R’ ij (λ))の低画素数画像としての低画素補正画像(Q IJ (λ))を算出する第2の工程と、前記低画素観察画像と当該低画素補正画像との差(O IJ (λ)−Q IJ (λ))によって低画素数の迷光画像(B IJ (λ))を算出する第3の工程と、当該低画素数の迷光画像を前記全画素数に対する迷光画像(B ij (λ))に変換する第4の工程と、前記全画素数の観察画像(O ij (λ))から当該全画素数に対する迷光画像(B ij (λ))を減じて前記実画像に近似する補正画像(R’ ij (λ))を算出する第5の工程と、を有することを特徴とする。 A stray light correction method according to one aspect of the present invention is a stray light correction method for obtaining a corrected image by correcting the influence of stray light on an observation image obtained by imaging, wherein the stray light image based on the influence of the stray light is superimposed. From the observation image and the response image obtained in advance for all the pixels in the imaging area in accordance with the incident light of unit intensity to the specific pixel in the imaging area of the observation image that is measured and stored in advance A stray light correction method for estimating and calculating a stray light image using image information having a number of pixels lower than the number of pixels constituting the image, and removing the estimated and calculated stray light image from the observation image to calculate the correction image that approximates the actual image The observation image (O ij (λ)) obtained by the imaging is converted into a low pixel observation image (O IJ (λ)) that is an observation image having a low pixel count with respect to the total number of pixels of the observation image. The first step to The from the low pixel observation image and the low pixel number of the response image ((F MN) IJ (λ )), low-pixel correction image (Q IJ as a low pixel number image of the corrected image (R 'ij (λ)) (Λ)) and a stray light image (B IJ ) having a low number of pixels according to a difference (O IJ (λ) −Q IJ (λ)) between the low pixel observation image and the low pixel corrected image. A third step of calculating (λ)), a fourth step of converting the low stray light image into a stray light image (B ij (λ)) for the total number of pixels, and observation of the total number of pixels A fifth step of calculating a corrected image (R ′ ij (λ)) that approximates the actual image by subtracting the stray light image (B ij (λ)) for the total number of pixels from the image (O ij (λ)) ; , characterized in that it have a.
上記構成によれば、迷光の影響に基づく迷光画像が重畳された観察画像と、迷光補正演算において使用するべく別途校正等によって予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光が該撮像域の全画素上につくる応答画像(本実施形態ではレスポンス画像という)とから、観察画像を構成する画素数より低い画素数の画像情報を用いて迷光画像が推定算出され、この推定算出された迷光画像を観察画像から除去(例えば減算)することで実画像に近似する補正画像(観察画像から迷光の影響を補正した画像)が求められる。したがって、このように迷光補正処理が行われるため、測定画像(観察画像)に対する迷光の影響が除去された好適な測定画像を得ることができる。また、予め測定して求めておいた応答画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像を構成する画素数より低い画素数の画像情報を用いて当該迷光補正を行う方法をとることで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。なお、当該観察画像から迷光の影響が除去されることで、コントラストを有した画像における低輝度画素の精度向上に大きな効果が得られる。 According to the above configuration, the observation image on which the stray light image based on the influence of the stray light is superimposed, and the specific pixel in the imaging area of the observation image that is measured and stored in advance by calibration or the like to be used in the stray light correction calculation. A stray light image is estimated from a response image (referred to as a response image in this embodiment) created by incident light of unit intensity on all pixels in the imaging area, using image information having a number of pixels lower than the number of pixels constituting the observation image. The calculated and calculated stray light image is removed (for example, subtracted) from the observation image, thereby obtaining a corrected image (an image obtained by correcting the influence of stray light from the observation image). Therefore, since the stray light correction process is performed in this way, a suitable measurement image from which the influence of stray light on the measurement image (observation image) is removed can be obtained. In addition, the calculation at the time of actual measurement is efficiently performed by using the response image information obtained by measurement in advance, and the image information having the number of pixels lower than the number of pixels constituting the observation image is used. The method of performing stray light correction makes it possible to reduce the amount of data handled at the time of calculation. On the other hand, with a low pixel count for stray light images whose spatial frequency is much lower than the observed image. Even if this calculation is applied, the error from the case of not performing the calculation with a low number of pixels is small, so that the calculation processing time (correction time) required for stray light correction is significantly reduced while maintaining sufficient accuracy. can do. Note that, by removing the influence of stray light from the observed image, a great effect can be obtained in improving the accuracy of low-luminance pixels in an image having contrast.
さらに、上記第1〜第5の工程によって迷光補正演算が行われるため、扱うデータ量及び演算処理時間を大幅に削減(短縮)しながら、充分な精度で(元の全画素数の)観察画像に対する迷光補正を行うことが可能となる。 Furthermore, since the stray light correction calculation is performed in the first to fifth steps, the observation image (with the original total number of pixels) can be obtained with sufficient accuracy while greatly reducing (shortening) the amount of data to be handled and the calculation processing time. It is possible to perform stray light correction on the.
上記構成において、前記低画素観察画像(OIJ(λ))に対する仮の実画像としての低画素補正画像(QIJ(λ))と応答画像((FMN)IJ(λ))とから擬似観察画像(O’IJ(λ))を算出し、当該擬似観察画像と低画素観察画像との差による差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像(QIJ(λ))を再補正し、当該再補正した低画素補正画像(QIJ(λ))と前記応答画像とから新たな擬似観察画像(O’IJ(λ))を算出し、当該新たな擬似観察画像と前記低画素観察画像との差による新たな差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像をさらに補正する漸近演算を、当該差画像による誤差が所定値以下となるまで繰り返し行うことで、前記第2の工程における低画素補正画像(QIJ(λ))を算出することが望ましい。 In the above configuration , the low pixel corrected image (Q IJ (λ)) and the response image ((F MN ) IJ (λ)) as a temporary actual image with respect to the low pixel observation image (O IJ (λ)) are simulated. An observation image (O ′ IJ (λ)) is calculated, and a low pixel correction image (Q is calculated by a difference image (O ′ IJ (λ) −O IJ (λ)) due to a difference between the pseudo observation image and the low pixel observation image. IJ (λ)) is re-corrected, and a new pseudo-observation image (O ′ IJ (λ)) is calculated from the re-corrected low pixel correction image (Q IJ (λ)) and the response image. An asymptotic operation for further correcting the low pixel correction image with a new difference image (O ′ IJ (λ) −O IJ (λ)) based on the difference between the simple pseudo observation image and the low pixel observation image is an error caused by the difference image. In the second step by repeatedly performing until the value becomes equal to or less than a predetermined value. It is desirable to calculate the pixel correction image (Q IJ (λ)).
この構成によれば、低画素観察画像(OIJ(λ))と低画素数の応答画像((FMN)IJ(λ))とから、漸近法によって(第2の工程における)低画素補正画像(QIJ(λ))を算出する方法をとるため、より簡易な処理プログラムを用いて、短い演算処理時間で精度の高い低画素補正画像を得ることが可能となり、ひいては迷光補正全体に対する更なる演算処理時間の短縮、演算精度(補正画像(R’ij(λ))の精度)向上を図ることができる。 According to this configuration, the low pixel correction (in the second step) is performed from the low pixel observation image (O IJ (λ)) and the response image ((F MN ) IJ (λ)) having a low number of pixels by an asymptotic method. Since the method of calculating the image (Q IJ (λ)) is used, it is possible to obtain a low-pixel corrected image with high accuracy in a short calculation processing time by using a simpler processing program, and thus, further to the entire stray light correction. The calculation processing time can be shortened and the calculation accuracy (the accuracy of the corrected image (R ′ ij (λ))) can be improved.
上記構成において、前記全画素数の画像がビニングされ、所定数の画素が一纏めにされた所定数の画素セットからなる画素セット画像を前記低画素数の画像とすることが望ましい。この構成によれば、全画素数の画像(例えば観察画像(Oij(λ))や迷光画像(Bij(λ)))がビニングされることで、容易に低画素数の画像(例えば低画素数の観察画像(OIJ(λ))や迷光画像(BIJ(λ)))を得ることができる。 In the above-described configuration, it is preferable that the image having the total number of pixels is binned, and a pixel set image including a predetermined number of pixel sets in which the predetermined number of pixels are grouped is used as the low pixel number image . According to this configuration, an image with a total number of pixels (for example, an observation image (O ij (λ)) or a stray light image (B ij (λ))) is easily binned, so that an image with a low number of pixels (for example, a low image) An observation image (O IJ (λ)) or stray light image (B IJ (λ))) of the number of pixels can be obtained.
上記構成において、前記観察画像の撮像域における前記各画素セットに点光源からの光を結像させて撮像した画像に基づいて前記応答画像を得ることが望ましい。この構成によれば、各画素に対してではなく、各画素セットに点光源からの光を結像(照射)させて撮像した画像に基づいて応答画像を得るため、(当該応答画像を用いる二次元分光輝度計個々に応じた)応答画像を、実験的に且つ容易に取得することができる。 In the above configuration , it is preferable that the response image is obtained based on an image captured by forming light from a point light source on each pixel set in the imaging region of the observation image . According to this configuration, in order to obtain a response image based on an image picked up by irradiating (irradiating) light from a point light source to each pixel set, not for each pixel, Response images (depending on the individual dimensional spectroluminometer) can be acquired experimentally and easily.
上記構成において、前記迷光補正の演算処理を、観察画像の撮像における入射光の波長ごとに行うことが望ましい。この構成によれば、迷光補正処理を観察画像の撮像における入射光の波長ごとに(本実施形態では、ウェッジバンドパスフィルタによる分光透過光の中心波長λに応じて)行うので、迷光の要因に波長依存性があったとしても効果的に当該迷光補正を行うことができる。 In the above-described configuration , it is desirable that the stray light correction calculation process be performed for each wavelength of incident light in imaging an observation image . According to this configuration, the stray light correction process is performed for each wavelength of incident light in the imaging of the observation image (in this embodiment, according to the center wavelength λ of the spectrally transmitted light by the wedge band pass filter). Even if there is wavelength dependency, the stray light correction can be performed effectively.
本発明の他の局面に係る二次元分光輝度計は、撮像により得られる観察画像に対する迷光の影響を補正して補正画像を求める迷光補正演算を行う二次元分光輝度計であって、前記迷光の影響に基づく迷光画像が重畳された前記観察画像と、予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光に応じて該撮像域の全画素に対して得られる応答画像とから、前記観察画像の画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、当該推定算出された迷光画像を観察画像から除去して実画像に近似する前記補正画像を算出する迷光補正演算手段を備え、前記迷光補正演算手段は、前記撮像により得られる観察画像(O ij (λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(O IJ (λ))に変換し、当該低画素観察画像と低画素数の応答画像((F MN ) IJ (λ))とから、前記補正画像(R’ ij (λ))の低画素数画像としての低画素補正画像(Q IJ (λ))を算出し、前記低画素観察画像と当該低画素補正画像との差(O IJ (λ)−Q IJ (λ))によって低画素数の迷光画像(B IJ (λ))を算出し、当該低画素数の迷光画像を前記全画素数に対する迷光画像(B ij (λ))に変換し、さらに、前記全画素数の観察画像(O ij (λ))から当該全画素数に対する迷光画像(B ij (λ))を減じて前記実画像に近似する補正画像(R’ ij (λ))を算出する、ことを特徴とする。 A two-dimensional spectroluminometer according to another aspect of the present invention is a two-dimensional spectroluminometer that performs a stray light correction calculation to obtain a corrected image by correcting the influence of stray light on an observation image obtained by imaging. Obtained for all the pixels in the imaging area according to the observation image on which the stray light image based on the influence is superimposed and the incident light of unit intensity to the specific pixel in the imaging area of the observation image that is measured and stored in advance. The correction is performed to estimate and calculate a stray light image using image information having a lower number of pixels than the number of pixels of the observation image, and to remove the estimated and calculated stray light image from the observation image and approximate the actual image Stray light correction calculating means for calculating an image , wherein the stray light correction calculating means is configured to observe an observation image (O ij (λ)) obtained by the imaging with a lower number of pixels than the total number of pixels of the observation image. Low image that is an image An original observation image (O IJ (λ)) is converted, and the corrected image (R ′ ij (λ)) is converted from the low pixel observation image and the response image ((F MN ) IJ (λ)). A low pixel corrected image (Q IJ (λ)) as a low pixel number image is calculated, and the difference between the low pixel observed image and the low pixel corrected image (O IJ (λ) −Q IJ (λ)) is calculated. A low stray light image (B IJ (λ)) is calculated, the low stray light image is converted into a stray light image (B ij (λ)) for the total number of pixels, and the total number of pixels A corrected image (R ′ ij (λ)) that approximates the actual image is calculated by subtracting the stray light image (B ij (λ)) for the total number of pixels from the observed image (O ij (λ)). And
上記構成によれば、迷光補正演算手段によって、迷光の影響に基づく迷光画像が重畳された観察画像と、迷光補正演算において使用するべく別途校正等によって予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光が該撮像域の全画素上につくる応答画像とから、観察画像の画素数より低い画素数の画像情報を用いて迷光画像が推定算出され、この推定算出された迷光画像を観察画像から除去(例えば減算)することで実画像に近似する補正画像が求められる。したがって、このように迷光補正処理が行われるため、測定画像(観察画像)に対する迷光の影響が除去された好適な測定画像を得ることができる。また、予め測定して求めておいた応答画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像の画素数より低い画素数の画像情報を用いて当該迷光補正を行うことで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。 According to the above configuration, the observation image on which the stray light image based on the influence of the stray light is superimposed by the stray light correction calculation means, and the observation image captured and stored in advance by calibration or the like to be used in the stray light correction calculation. A stray light image is estimated and calculated from image data having a pixel number lower than the number of pixels in the observation image from the response image created by incident light of unit intensity on a specific pixel in the region on all pixels in the imaging region. By removing (for example, subtracting) the calculated stray light image from the observed image, a corrected image that approximates the actual image is obtained. Therefore, since the stray light correction process is performed in this way, a suitable measurement image from which the influence of stray light on the measurement image (observation image) is removed can be obtained. In addition, calculation at the time of actual measurement is efficiently performed by using response image information obtained by measurement in advance, and the stray light correction is performed using image information having a pixel number lower than the number of pixels of the observation image. It is possible to reduce the amount of data handled at the time of calculation, while applying the calculation with the low pixel count to the stray light image whose spatial frequency is much lower than the observation image. However, since the error from the case where the calculation with the low number of pixels is not performed becomes small, the calculation processing time (correction time) required for the stray light correction can be greatly shortened while maintaining sufficient accuracy.
本発明の一の局面に係る構成によれば、観察画像と予め測定された応答画像とから観察画像の画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、この算出した迷光画像を観察画像から除去することで実画像に近似する補正画像を求める、というように迷光補正処理が行われるため、測定画像(観察画像)に対する迷光の影響が除去された好適な測定画像を得ることができる。また、予め測定して求めておいた応答画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像を構成する画素数より低い画素数の画像情報を用いて当該迷光補正を行う方法をとることで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。なお、観察画像から迷光の影響が除去されることで、コントラストを有した画像における低輝度画素の精度向上に大きな効果を得ることができる。 According to the configuration of one aspect of the present invention, the stray light image is estimated and calculated from the observation image and the response image measured in advance using the image information having the number of pixels lower than the number of pixels of the observation image, and the calculated stray light Since a stray light correction process is performed such as obtaining a corrected image that approximates the actual image by removing the image from the observation image, a suitable measurement image in which the influence of stray light on the measurement image (observation image) is removed is obtained. be able to. In addition, the calculation at the time of actual measurement is efficiently performed by using the response image information obtained by measurement in advance, and the image information having the number of pixels lower than the number of pixels constituting the observation image is used. The method of performing stray light correction makes it possible to reduce the amount of data handled at the time of calculation. On the other hand, with a low pixel count for stray light images whose spatial frequency is much lower than the observed image. Even if this calculation is applied, the error from the case of not performing the calculation with a low number of pixels is small, so that the calculation processing time (correction time) required for stray light correction is significantly reduced while maintaining sufficient accuracy. can do. Note that, by removing the influence of stray light from the observed image, a great effect can be obtained in improving the accuracy of low-luminance pixels in an image having contrast.
また、第1〜第5の工程によって迷光補正演算が行われるため、扱うデータ量及び演算処理時間を大幅に削減(短縮)しながら、充分な精度で(元の全画素数の)観察画像に対する迷光補正を行うことが可能となる。 Further, since the stray light correction calculation is performed in the first to fifth steps, the amount of data to be handled and the calculation processing time are greatly reduced (shortened), and the observation image (with the original total number of pixels) is sufficiently accurate. It becomes possible to perform stray light correction.
また、低画素観察画像と低画素数の応答画像とから、漸近法によって低画素補正画像を算出する方法をとるため、より簡易な処理プログラムを用いて、短い演算処理時間で精度の高い低画素補正画像を得ることが可能となり、ひいては迷光補正全体に対する更なる演算処理時間の短縮、演算精度向上を図ることができる。 In addition, since a low pixel correction image is calculated by an asymptotic method from a low pixel observation image and a low pixel response image, a simple processing program is used and a low pixel with high accuracy in a short calculation processing time. A corrected image can be obtained, and as a result, calculation time for the entire stray light correction can be further shortened and calculation accuracy can be improved.
また、全画素数の画像(全画素数の観察画像や迷光画像等)がビニングされることで、容易に低画素数の画像(低画素数の観察画像や迷光画像等)を得ることができる。 Also, by binning an image with the total number of pixels (an observation image with a total number of pixels, a stray light image, etc.), an image with a low number of pixels (an observation image with a low number of pixels, a stray light image, etc.) can be easily obtained. .
また、各画素に対してではなく、各画素セットに点光源からの光を結像(照射)させて撮像した画像に基づいて応答画像を得るため、(当該応答画像を用いる二次元分光輝度計個々に応じた)応答画像を、実験的に且つ容易に取得することができる。 In addition, in order to obtain a response image based on an image picked up by irradiating (irradiating) light from a point light source to each pixel set, not to each pixel, a two-dimensional spectral luminance meter using the response image Response images can be acquired experimentally and easily.
また、迷光補正処理を観察画像の撮像における入射光の波長ごとに行うので、迷光の要因に波長依存性があったとしても効果的に当該迷光補正を行うことができる。 In addition, since the stray light correction process is performed for each wavelength of incident light in the imaging of the observation image, the stray light correction can be performed effectively even if the cause of the stray light has wavelength dependency.
本発明の他の局面に係る構成によれば、観察画像と予め測定された応答画像とから観察画像の画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、この算出した迷光画像を観察画像から除去することで実画像に近似する補正画像を求める、というように迷光補正処理が行われるため、測定画像(観察画像)に対する迷光の影響が除去された好適な測定画像を得ることができる。また、予め測定して求めておいた応答画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像を構成する画素数より低い画素数の画像情報を用いて当該迷光補正を行う方法をとることで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。 According to the configuration according to another aspect of the present invention, the stray light image is estimated and calculated from the observation image and the response image measured in advance using the image information having the number of pixels lower than the number of pixels of the observation image, and the calculated stray light Since a stray light correction process is performed such as obtaining a corrected image that approximates the actual image by removing the image from the observation image, a suitable measurement image in which the influence of stray light on the measurement image (observation image) is removed is obtained. be able to. In addition, the calculation at the time of actual measurement is efficiently performed by using the response image information obtained by measurement in advance, and the image information having the number of pixels lower than the number of pixels constituting the observation image is used. The method of performing stray light correction makes it possible to reduce the amount of data handled at the time of calculation. On the other hand, with a low pixel count for stray light images whose spatial frequency is much lower than the observed image. Even if this calculation is applied, the error from the case of not performing the calculation with a low number of pixels is small, so that the calculation processing time (correction time) required for stray light correction is significantly reduced while maintaining sufficient accuracy. can do.
また、扱うデータ量及び演算処理時間を大幅に削減(短縮)しながら、充分な精度で(元の全画素数の)観察画像に対する迷光補正を行うことが可能となる。In addition, it is possible to perform stray light correction on the observation image (with the original total number of pixels) with sufficient accuracy while greatly reducing (shortening) the amount of data to be handled and the calculation processing time.
以下、図面に基づいて、本発明の実施形態につき説明する。
(二次元分光輝度計の全体的な説明)
図1は、本発明に係る二次元分光輝度計1の一例を示す概略構造図である。二次元分光輝度計1は、対物光学系2、副透過帯除去フィルタ3、第1コンデンサーレンズ4、第2コンデンサーレンズ5、リレーレンズ6、撮像素子7、画像信号処理部8、主制御部9、及び走査ウェッジバンドパスフィルタ10を備えて構成されている。対物光学系2は、測定対象である二次元光源Lからの光束Laを入射させ、第1像面2bに第1像2aを作る光学レンズ(レンズ群)である。副透過帯除去フィルタ3は、後述のWBPF12の副透過帯透過光を除去するフィルターである。具体的には、このWBPF12は入射光の中心波長の1/2倍及び2倍の波長位置に副透過帯を有するものとされている(例えば、中心波長を約400nmとすると、約200nm及び800nmの波長位置に副透過帯を有している)が、副透過帯除去フィルタ3は、このような副透過帯を有したWBPF12に対する、例えば約380nm以下及び720nm以上の波長の光を遮断することで当該副透過帯透過光の除去を行う。副透過帯除去フィルタ3は、第1コンデンサーレンズ4の前方に配置されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Overall description of the two-dimensional spectral luminance meter)
FIG. 1 is a schematic structural diagram showing an example of a two-dimensional
第1コンデンサーレンズ4及び第2コンデンサーレンズ5は、光束Laを絞る、即ち集光(集束)するためのレンズである。第1コンデンサーレンズ4は、対物光学系2からの光束LaがWBPF12に対して発散するのを防ぎ、対物光学系2からの光束Laを第1像面2bに集光させる。第2コンデンサーレンズ5も同様に、WBPF12を透過した光束Laをリレーレンズ6に集光させる。
The
リレーレンズ6は、第1像2aを作った光束La(光像)を撮像素子7へ向けて等倍でリレーするレンズであり、第2像面6bにおいて第2像6aをつくる。ところで、第1コンデンサーレンズ4の焦点は、対物光学系2の後方主点近傍にあり、対物光学系2から射出して第1像2aの各画素をつくって収束する光束Laの主光線を、入射部位に拘わらず光軸と略平行(平行光束)にして、後述のWBPF12(干渉BPF)がもつ中心波長の入射角依存性の影響を抑制している。また、第2コンデンサーレンズ5の焦点はリレーレンズ6の前方主点近傍にあり、WBPF12を通過した光束Laを有効にリレーレンズ6に入射させる。
The
撮像素子7は、第2像面6bに配置され、すなわち該撮像素子7の撮像面(受光面)が第2像面6bと重なる位置となるよう配置され、第2像6aを作る光束Laを受光(結像)して該第2像6aを撮像するものである。撮像素子7は、例えば1000×1000画素で約7.4mm角(1辺が7.4mm)の2次元の撮像域(撮像面)を有しており、撮像域に光束Laが結像されると、当該撮像域における約7.4μm角の画素毎に電気信号に変換(光電変換)し、画像信号処理部8へこの画像信号を出力する。
The
画像信号処理部8は、撮像素子7から送出される画像信号に対して所定の信号処理(アナログ信号処理及びデジタル信号処理)を施すものである。画像信号処理部8は、アナログ信号からデジタル信号へA/D変換を行う機能を備えており、当該デジタル信号を主制御部9へ送信する。
The image signal processing unit 8 performs predetermined signal processing (analog signal processing and digital signal processing) on the image signal transmitted from the
主制御部9は、各制御プログラム等を記憶するROM(Read Only Memory)、演算処理や制御処理用のデータを格納するRAM(Random Access Memory)、及び当該制御プログラム等をROMから読み出して実行するCPU(中央演算処理装置)等からなり、二次元分光輝度計1全体の動作制御を司るものである。
The main control unit 9 reads out and executes a ROM (Read Only Memory) that stores each control program, a RAM (Random Access Memory) that stores data for arithmetic processing and control processing, and the control program. It consists of a CPU (Central Processing Unit) and the like, and controls operation of the entire two-dimensional
主制御部9は、後述の走査WBPF10による各走査ステップに応じて撮像素子7により撮像された画像(画素列毎に異なる透過波長情報を有する画像)を画像信号処理部8を介して分光感度が異なる複数の画像として取り込み、上記RAM等に予め記憶しておいた後述のレスポンス画像情報や所定の係数(例えば校正係数や重価係数)等の情報に基づいて、当該画像に対する迷光補正や輝度補正を行なったり、後述の三刺激値を求めるといった各種演算処理を行う機能も備えている。なお、主制御部9は、取り込んだ各画像を記憶しておくための専用の記憶部(例えば画像メモリ)を別途備えていてもよい。
The main control unit 9 has a spectral sensitivity of an image (an image having different transmission wavelength information for each pixel column) captured by the
走査ウェッジバンドパスフィルタ(Wedge Band Pass Filter:WBPF)10は、波長(WBPF12の中心波長)の異なる単色光(分光透過光)を取り出すものである。走査WBPF10は、該走査WBPF10における後述のWBPF12(フィルター保持板11)を、各レンズの光軸に対して垂直方向(x方向)に所定距離ずつ複数の走査ステップで順に移動(スライド移動)させることで、相対的にWBPF12を光束Laによって走査するようにして当該波長の異なる単色光を取り出す。なお、走査WBPF10は、第1像面2b近傍(走査WBPF10の入射面が第1像面2bと重なる位置となる場合も含む)に配置される構成となっている。また、走査WBPF10による「走査」とは、(位置固定された)光束Laに対して、上記WBPF12(フィルター保持板11)を走査方向(x方向)に沿って移動させる動作を示すものとする。走査WBPF10の詳細については後述する。
A scanning wedge band pass filter (WBPF) 10 extracts monochromatic light (spectral transmitted light) having different wavelengths (center wavelength of the WBPF 12). The
二次元光源Lから放射された光束Laは、対物光学系2に入射し、副透過帯除去フィルタ3を通って副透過帯透過光が除去された後、第1コンデンサーレンズ4によって走査WBPF10(WBPF12)に集光され第1像面2bに第1像2aを形成(結像)する。第1像2aを形成した光束Laは、走査WBPF10(WBPF12)を通って分光され、この分光された光束Laは 第2コンデンサーレンズ5を通ってリレーレンズ6に入り、リレーレンズ6によって(光束Laによる第1像2aが)等倍でリレーされ、第2像面6bに第2像6aを形成する。そして、この第2像6aが撮像素子7によって撮像され、この撮影画像(信号)は、画像信号処理部8に送信されてA/D変換等の信号処理が施された後、主制御部9へ送信される。そして、主制御部9において当該撮影画像から迷光画像を除去するといったことに関する各種演算処理が行われる。
The light beam La emitted from the two-dimensional light source L is incident on the objective
ここで、図2を用いて走査WBPF10について詳述する。図2に示すように、走査WBPF10は、フィルター保持板11、WBPF12及び走査駆動部13を備えて構成されている。フィルター保持板11は、WBPF12を保持するためものである。フィルター保持板11は外形が略長方形状の板状体(WBPF12の枠体)であり、その略中央部には開口部111が形成されている。この開口部111は、例えばx方向(走査方向)に約20mm、これと直交するy方向に約9mmの長さ(縁)を有したサイズに形成さており、この開口部111に、WBPF12が嵌合されるなどして設けられている。WBPF12内に図示された点線枠は、撮像素子7に結像させるための光束Laが通過する箇所(この箇所は位置固定されている)、すなわち、上記WBPF12上に結像される第1像2aを示しており、この点線枠のサイズ及び形状は、撮像素子7の撮像面に対応した、例えば上記約7.4mm角の正方形状となっている。
Here, the
フィルター保持板11は、x方向における開口部111を挟んだその両端部(左右端部)の領域に、第1遮光部112及び第2遮光部113を備えている。これら第1及び第2遮光部112、113は、少なくとも上記点線枠に示す第1像2aのサイズを有しており、フィルター保持板11のx方向における移動によって、第1遮光部112又は第2遮光部113が第1像2a(撮像域)の位置にきた場合には、当該遮光部により撮像素子7に対する光束Laの遮光(遮蔽)が行われる構成となっている。このように、フィルター保持板11に第1及び第2遮光部112、113が併設されていることで、フィルター保持板11が撮像素子7に対する遮光を行うための所謂シャッターとしての機能を兼ね備えることになる(これによりシャッターを別途設けなくともよく、構成の簡易化が図れる)。
The
WBPF12は、走査方向において異なった中心波長を有する透過光を得るためのフィルタである。具体的には、WBPF12は、WBPF12の各部位(座標(x、y)の位置)における透過光の中心波長λ(中心波長λc(x、y))が、y方向に沿って一定で、且つx方向に沿って約17nm/mmで連続的に(滑らかに)変化する所謂干渉バンドパスフィルタ(BPF)である。WBPF12の中心波長は、x座標を後述の走査ステップ毎の移動幅d(=0.296mm)を用いて表現すると、x=0〜64d(0〜18.9mm)の走査範囲において約390〜710nmまで連続的に変化する。このように部位に応じて中心波長の異なるWBPF12は、例えば図3に示すWBPF12のように、走査方向(x方向)に膜厚が(直線的に)変化する所謂楔型の干渉フィルターとされている。
The
走査駆動部13は、フィルター保持板11を走査方向(x方向)に沿って移動させることで、光束La(第1像2a)に対する、WBPF12並びに第1及び第2遮光部112、113の走査(走査駆動)を行うものである。走査駆動部13は、ステッピングモータ14、回転軸15、連結部材16及び駆動回路17を備えて構成されている。ステッピングモータ14は、回転軸15を回転駆動させるモータであり、パルス信号(デジタル信号)が入力されるごとに所定の回転速度で一定角度ずつ回転する。連結部材16は、回転軸15とフィルター保持板11とを平行移動可能に連結するためのものであり、フィルター保持板11に対して固設されている。ここでは、連結部材16は、例えば第1遮光部112側の一端部においてフィルター保持板11と一体的に設けられている。なお、連結部材16は、フィルター保持板11がx方向に移動(走査)可能となるのであれば、フィルター保持板11に対する任意の位置(例えば第2遮光部113側でもよい)及び任意の構成で設けられてもよい。
The
回転軸15は、連結部材16と連結した状態で該連結部材16を移動させるもの(軸体)であり、例えばその全長に亘って螺子部が形成されてなり、これによって連結部材16と螺合されている。回転軸15は、ステッピングモータ14の回転軸をなすものであり、ステッピングモータ14の回転駆動に応じて回転することで連結部材16を走査方向(x方向)に移動させる構成となっている。駆動回路17は、ステッピングモータ14の駆動を制御するものであり、ステッピングモータに応じたパルス信号を出力して、ステッピングモータ14の回転駆動(回転角度、回転速度)を制御する。なお、駆動回路17によるステッピングモータ14の回転駆動制御は、主制御部9からの走査駆動制御指示信号に基づいて行われる。
The rotating
このように走査駆動部13は、主制御部9の走査駆動制御指示に応じて、駆動回路17によりステッピングモータ14を駆動させ、回転軸15及び連結部材16を介してフィルター保持板11をx方向(正方向又は負方向)に移動させる。ただし、この移動による走査は、WBPF12の中心波長5nmピッチに相当する約0.296mm(上述したWBPF12の中心波長が約17nm/mmで変化することに基づき算出)の移動幅を有する走査ステップで行われるよう制御される。
As described above, the
なお、当該走査駆動部13によるフィルター保持板11の移動に関し、上述したように副透過帯除去フィルタ3はWBPF12と別に設けられているため、走査駆動部13による当該移動は、WBPF12及びフィルター保持板11のみ行えばよいことから、走査駆動部13による走査負荷及び移動距離を小さくすることができるので、走査駆動部13の小型化やコスト低減、或いは走査時間(測定時間)の短縮が可能となる。
Regarding the movement of the
また、本実施形態では、各走査ステップにおいて、第2像6a(撮像素子7の撮像域)の各画素に順次設定される5nmピッチのBPFの分光透過特性を荷重積算して、国際照明委員会(CIE)が推奨する2°視野の等色関数x(λ)、y(λ)、z(λ)を合成するが、WBPF12の中心波長の半値幅を、合成精度が高くなる15nm程度とするため(15nmというように半値幅がある程度大きい方が合成精度が高められる)、WBPF12には1次の干渉BPFが採用されている。なお、一般的に、1次の干渉BPFは、上述したように中心波長の1/2倍及び2倍の波長域に副透過帯を有している。
In the present embodiment, in each scanning step, the spectral illumination characteristics of the 5 nm pitch BPF sequentially set to each pixel of the second image 6a (the imaging area of the imaging device 7) are weighted and integrated, and the International Illumination Committee. The color matching functions x (λ), y (λ), and z (λ) recommended by (CIE) for the 2 ° field of view are synthesized, but the half-value width of the center wavelength of the
次に、走査WBPF10(走査駆動部13)による実際の走査動作について説明する。
先ず、以下の説明で用いる記号をここに纏める。
x:第1像面2b及び第2像面6bの走査方向(x方向)の座標(x=0〜7.4mm)
y:第1像面2b及び第2像面6bの走査方向に直交する方向(y方向)の座標(y=0 〜7.4mm)
s:走査ステップで表したWBPF12の走査位置(s=0〜65)
i,j:第1像面2b及び第2像面6bの画素単位のx、y座標(i,j=1〜1000)
j’:WBPF12面の画素単位のx座標(j’=1〜2560)
Iij:画像情報
(Iij)S:走査ステップsでの画像情報
Next, an actual scanning operation by the scanning WBPF 10 (scanning drive unit 13) will be described.
First, symbols used in the following description are summarized here.
x: coordinates in the scanning direction (x direction) of the
y: coordinates in the direction (y direction) orthogonal to the scanning direction of the
s: Scanning position of WBPF12 expressed in scanning step (s = 0 to 65)
i, j: x and y coordinates (i, j = 1 to 1000) in pixel units of the
j ′: x-coordinate of pixel unit of WBPF12 plane (j ′ = 1 to 2560)
I ij : Image information (I ij ) S : Image information in scanning step s
上述のように、走査WBPF10におけるフィルター保持板11(WBPF12)の走査は、5nmに相当するd=40*7.4μm=0.296mm(40画素列相当)のステップ幅で行われるので、WBPF12における可視域390〜710nmの波長幅320nm(=710−390nm)は、64(=320/5)ステップの移動(64*0.296=18.9mm;64*40=2560画素列に相当)でカバーすることができる。しかしながら、撮像素子7の撮像域はx方向に1000画素列、つまり25ステップ相当の長さを有しているため、この撮像素子7の全画素(1000画素列)を、上記波長幅320nm(WBPF12)で走査するためには、すなわち、撮像域の全ての画素が全ての波長域(390〜710nm)をカバーするためには、少なくとも、この25ステップ分を含めた89(=64+25)ステップの移動(走査)が必要となる。なお、走査(移動)が開始される前の初期位置を走査ステップs=0(ゼロ)とする。
As described above, the scanning of the filter holding plate 11 (WBPF 12) in the
これについて図4及び図5を用いて説明する。図4は、撮像素子7の撮像域における、各走査ステップsに対応した撮影画像(露光状態)について説明する概念図である。図5は、各走査ステップsにおいて走査方向(x方向)に移動したフィルター保持板11の各部(WBPF12及び第1、第2遮光部112、113)と、撮像素子7における撮像域との位置関係について説明する概念図である。図4に示すように、走査開始前(二次元分光輝度計1による分光輝度計測開始前)には、フィルター保持板11(WBPF12)は初期位置(s=0)に位置し、この位置において、第1像面2bの撮像域(結像域)がフィルター保持板11の第1遮光部112によって遮光された(覆われた)状態となっている。この状態は、図5では符号501に示すフィルター保持板11(s=0)の位置に相当し、第1遮光部112に、撮像域T(上記j=1〜1000の画素列の幅に相当)が位置している。
This will be described with reference to FIGS. FIG. 4 is a conceptual diagram illustrating a captured image (exposure state) corresponding to each scanning step s in the imaging area of the
走査が開始されると、走査ステップs=0の位置で、図4に示す最前面の画像401(=画像(Iij)0)が撮像素子7により暗画像(ノイズ画像又はオフセット画像)として取り込まれる。続いて、走査駆動部13がフィルター保持板11をx方向における正方向に1走査ステップ(1s)だけ平行移動し(図5における符号502に示すフィルター保持板11の移動位置に相当)、当該s=1において最初の画像402(=画像(Iij)1)が取り込まれる。この画像(Iij)1では、該画像内の符号403に示す第1画素列(j=1)(図5における符号503に示す位置の画素列に相当)に、中心波長390nmの単色光が入射し、他の画素列(j=2〜1000)は遮光された状態となっている。
When scanning is started, the foreground image 401 (= image (I ij ) 0 ) shown in FIG. 4 is captured as a dark image (noise image or offset image) by the
以降、1走査ステップ毎に画像が取り込まれるが、この1走査ステップ毎に中心波長390nmの単色光が入射する画素列jは、右方(x方向の正方向側)へ移動し、第1画素列(j=1)に入射する光束の波長は約5nmずつ増加する。それに伴い、第1遮光部112によって遮光された画素列は減少し、走査ステップがs=25となると、第1遮光部112は撮像域外に出る。s=25において取り込まれる画像404に示す画像(Iij)25では(図5における符号504に示すフィルター保持板11の移動位置に相当)、第1〜第1000画素列(j=1〜1000)に入射する単色光の中心波長は、390nmから515nmまで連像的に変化したものとなっている。
Thereafter, an image is captured for each scanning step. The pixel row j on which monochromatic light having a center wavelength of 390 nm is incident for each scanning step moves to the right (the positive direction side in the x direction), and the first pixel The wavelength of the light beam incident on the column (j = 1) increases by about 5 nm. Along with this, the number of pixel blocks shielded by the
走査ステップsが進み、s=64において取り込まれる画像405に示す画像(Iij)64では(図5における符号505に示すフィルター保持板11の移動位置に相当)、第1〜第1000画素列に対応する中心波長は585nmから710nmまで変化したものとなる。次のs=65では、画像406の符号407に示す第1画素列(j=1)(前記符号403に示す第1画素列と同じ画素列;図5では符号506に示す位置の画素列に相当)が第2遮光部113によって遮光され、さらに走査ステップsが進むと、第2遮光部113による遮光域(遮光される画素列)が増加し、最終の走査ステップs=90においては(図5では符号507に示すフィルター保持板11の移動位置に相当)、画像408(画像401と同様の暗画像)に示すように全撮像域(全画素列j=1〜1000)が第2遮光部113によって遮光された状態となる。このように、走査WBPF10(走査駆動部13)によってフィルター保持板11及びWBPF12が走査方向にステップ移動され、走査ステップ毎に撮像素子7による撮影画像が取り込まれる(ただし、上記ステップs=90での撮影画像の取り込みは行われなくともよい)。
The scanning step s advances, and in the image (I ij ) 64 shown in the
上述で説明したことからも、各走査ステップsで撮像された画像は、該画像の各画素をつくる単色光の中心波長が走査ステップsと画素のx座標とに依存しており、中心波長がx(列番号j)方向に沿って連続的に変化するとともに、y(行番号i)方向に沿っては略一定となるものとなっている。 As described above, in the image captured at each scanning step s, the center wavelength of the monochromatic light forming each pixel of the image depends on the scanning step s and the x coordinate of the pixel, and the center wavelength is While changing continuously along the x (column number j) direction, it is substantially constant along the y (row number i) direction.
(分光画像情報の処理)
ところで、二次元分光輝度計1は、上記各走査ステップsで取り込まれた画像(Iij)Sから三刺激値画像を求めて出力するようになっている。一般的に、マルチバンド測色計では、異なる分光感度を適切な重価係数を乗じて積算する処理を行うことで上記CIEが推奨する2°視野の等色関数x(λ)、y(λ)、z(λ)の合成が行われるが、二次元分光輝度計1のような二次元測定器においては当該処理が各画素に対して実行される。
(Spectral image information processing)
By the way, the two-dimensional
この画像(Iij)Sからの三刺激値画像の算出について以下に説明する。
各走査ステップsで得られた画像(Iij)Sを、後述の輝度軸校正で既知となっている各画素の輝度校正係数(Cij)Sを用いて輝度画像(Lij)Sに変換する。三刺激値を求めるために輝度画像(Lij)Sに与える重価係数をそれぞれWxS,j、WyS,j、WzS,jとすると、三刺激値Xij、Yij、Zijは、以下の式(1-1)〜(1-3)により算出される。
Xij=ΣSWxS,j*(Lij)S …(1-1)
Yij=ΣSWyS,j*(Lij)S …(1-2)
Zij=ΣSWzS,j*(Lij)S …(1-3)
The calculation of the tristimulus value image from this image (I ij ) S will be described below.
The image (I ij ) S obtained in each scanning step s is converted into a luminance image (L ij ) S using the luminance calibration coefficient (C ij ) S of each pixel that is known in the luminance axis calibration described later. To do. The tristimulus values X ij , Y ij , and Z ij are given as Wx S, j , Wy S, j , and Wz S, j , respectively, in order to obtain the tristimulus values for the luminance image (L ij ) S. Are calculated by the following equations (1-1) to (1-3).
X ij = Σ S Wx S, j * (L ij ) S (1-1)
Y ij = Σ S Wy S, j * (L ij ) S (1-2)
Z ij = Σ S Wz S, j * (L ij ) S (1-3)
一般的に、マルチフィルター方式(背景技術参照)による分光輝度計測では、1つの画像における全画素に同じ波長帯の光束が入射するため、全画素に同じ重価係数が適用されるのに対し、本実施形態の方式では、走査ステップs毎、画素列毎に入射光の透過波長帯が異なるため、これに伴って各画素に対する重価係数も異なるものとなる。 In general, in spectral luminance measurement using a multi-filter method (see Background Art), since light beams in the same wavelength band are incident on all pixels in one image, the same weight coefficient is applied to all pixels. In the method of the present embodiment, the transmission wavelength band of incident light is different for each scanning step s and for each pixel column, and accordingly, the weight coefficient for each pixel is also different.
なお、上記輝度校正係数(Cij)Sと重価係数WxS,j、WyS,j、WzS,jとから、各走査ステップにおける取得画像の画素毎の重価係数WxS,ij、WyS,ij、WzS,ijを予め求めておき、以下の式(2-1)〜(2-3)によって三刺激値Xij、Yij、Zijを算出することも可能である。これによって、当該三刺激値の算出に対する演算時間のさらなる短縮を図ることができる。
Xij=ΣSWxS,ij*(Iij)S …(2-1)
Yij=ΣSWyS,ij*(Iij)S …(2-2)
Zij=ΣSWzS,ij*(Iij)S …(2-3)
Note that, from the luminance calibration coefficient (C ij ) S and the weight coefficient Wx S, j , Wy S, j , Wz S, j , the weight coefficient Wx S, ij for each pixel of the acquired image in each scanning step, It is also possible to obtain Wy S, ij and Wz S, ij in advance and calculate the tristimulus values X ij , Y ij , and Z ij by the following equations (2-1) to (2-3). Thereby, the calculation time for the calculation of the tristimulus values can be further shortened.
X ij = Σ S Wx S, ij * (I ij ) S (2-1)
Y ij = Σ S Wy S, ij * (I ij ) S (2-2)
Z ij = Σ S Wz S, ij * (I ij ) S (2-3)
前記積算は走査ステップ毎に行われ、走査終了時に三刺激値画像が得られる。この三刺激値画像は、主制御部9(RAM等)に保存(記憶)される。なお、この方法は、上記5nmピッチによる撮像により取得した89個(図4に示す走査ステップs=1〜89での撮影画像)の単色光画像を全て保存しておき、走査終了後に纏めて三刺激値画像へ変換する方法に比べ、必要なデータ記憶容量を大幅に低減することができる。 The integration is performed at every scanning step, and a tristimulus value image is obtained at the end of scanning. This tristimulus value image is stored (stored) in the main control unit 9 (RAM or the like). In this method, all the 89 monochromatic light images (captured images at the scanning steps s = 1 to 89 shown in FIG. 4) acquired by imaging with the 5 nm pitch are stored, and after the scanning is completed, three images are collected. Compared with the method of converting to a stimulus value image, the required data storage capacity can be greatly reduced.
図11は、二次元分光輝度計1による三刺激値画像の測定に関する動作の一例を示すフローチャートである。先ず、主制御部9(走査駆動部13)によって走査WBPF10(フィルター保持板11)が初期位置(s=0)にセット(移動)される(ステップS1)とともに、三刺激値Xij、Yij、Zijの初期値が0に設定され(ステップS2)、当該s=0において撮像素子7の撮像域が遮光された状態で暗画像(Ii,j)0が画像信号処理部8を介して主制御部9に取り込まれる(ステップS3)。次に、同様に走査WBPF10(フィルター保持板11)が1走査ステップ分だけ移動され(ステップS4)、このs=1における画像(Iij)Sが取り込まれる(ステップS5)。そして、主制御部9によって、この取り込まれた画像(Iij)Sに対し、上記ステップS3において取り込まれた暗画像(Iij)0を用いた暗画像補正((Iij)S=(Iij)S−(Iij)0)が行われ(ステップS6)、さらに、この暗画像補正が行われた画像(Iij)Sに対し、(後述の輝度軸校正で算出され保存されている)輝度校正係数(Cij)Sを用いた輝度補正((Lij)S=(Cij)S*(Iij)Sが行われて輝度画像(Lij)Sに変換される(ステップS7)。
FIG. 11 is a flowchart illustrating an example of an operation related to measurement of a tristimulus value image by the two-dimensional
そして、この輝度画像(Lij)Sに対し、走査ステップs毎に、撮影画像の画素列毎に異なる各刺激値の重価係数WxS,j、WyS,j、WzS,jが乗算されて積算される(Xij=Xij+WxS,j*(Lij)S、Yij=Yij+WyS,j*(Lij)S、Zij=Zij+WzS,j*(Lij)S)(ステップS8)。主制御部9によって走査ステップsが89より大きくないと判別された場合には(ステップS9のNO)、上記ステップS4に戻って、さらに1走査ステップ分だけ移動され次の走査ステップsに対するステップS5〜S8の動作が繰り返される。ただし、この繰り返しにおけるステップS8では、前回の走査ステップにおいて得られた三刺激値Xij、Yij、Zijに対する更なる積算(積算値の更新)が行われる。走査ステップsが89より大きいと判別された場合には(ステップS9のYES)、当該全走査ステップsに亘って積算されて得られた三刺激値画像(Xij、Yij、Zij-)が所定のデータ記憶部(主制御部9のRAM等)に記憶され(ステップS10)、フロー終了となる。 The luminance image (L ij ) S is multiplied by the weight coefficient Wx S, j , Wy S, j , Wz S, j of each stimulus value that differs for each pixel column of the captured image for each scanning step s. ( Xij = Xij + WxS , j * ( Lij ) S , Yij = Yij + WyS , j * ( Lij ) S , Zij = Zij + WzS , j * (L ij ) S ) (step S8). If the main control unit 9 determines that the scanning step s is not greater than 89 (NO in step S9), the process returns to step S4 and is further moved by one scanning step, and step S5 for the next scanning step s. The operation of ~ S8 is repeated. However, in step S8 in this repetition, further integration (update of the integrated value) is performed on the tristimulus values X ij , Y ij , and Z ij obtained in the previous scanning step. If it is determined that the scanning step s is greater than 89 (YES in step S9), the tristimulus value images (X ij , Y ij , Z ij− ) obtained by integration over the entire scanning step s. Is stored in a predetermined data storage unit (such as the RAM of the main control unit 9) (step S10), and the flow ends.
なお、上記フローチャートに示す実施形態では、取り込んだ画像(Iij)Sに対して後述の迷光補正を行っていないが、この迷光補正を行わない場合においても、各走査ステップs毎の画像(Iij)Sを記憶しておき、各画素の輝度校正係数(Cij)Sを用いて輝度画像(Lij)Sに変換した後(後述の式(6-1))、後述の波長軸校正において既知となっている各画素列jの相対分光感度SS,j(λ)を用い、公知の演算処理によって後述の分光輝度画像Lij(λ)を求めてもよい。 In the embodiment shown in the flowchart, the later-described stray light correction is not performed on the captured image (I ij ) S. However, even when this stray light correction is not performed, the image (I ij ) S is stored, converted into a luminance image (L ij ) S using the luminance calibration coefficient (C ij ) S of each pixel (formula (6-1) described later), and wavelength axis calibration described later. The spectral brightness image L ij (λ), which will be described later, may be obtained by a known calculation process using the relative spectral sensitivity S S, j (λ) of each pixel row j known in FIG.
ところで、二次元分光輝度計1では、予め(例えば出荷時に)WBPF12に対する波長軸校正及び輝度軸校正を行い、この校正により求めた例えば上記の感度校正係数(Cij)Sといった演算用データを主制御部9(RAM等)に設定(記憶)しておき、実際の分光輝度計測時には、当該演算用データを用いて、撮影画像(観察画像)を輝度画像に変換(輝度補正)するといったことが行われる。以下、この波長軸校正及び輝度軸校正について説明する。
By the way, the two-
<波長軸校正>
WBPF12に対する波長軸の校正は、例えば図6に示す校正システム30を用いて参照強度Mλを求め、この参照強度Mλに基づいて二次元分光輝度計1での各走査ステップsにおける各画素列jの分光感度を求めることによって実施される。すなわち、校正システム30において、基準単波長光源31は、制御用PC(パーソナルコンピュータ)32によって制御され、例えば2nmピッチで350から750nmまで、合計201個の十分狭い半値幅の単波長光束31aを、積分球33の入射開口331に出力する。この単波長光束31aは、積分球33内で多重拡散反射して、積分球33の出力開口332に均一輝度面をつくる。校正が行われる二次元分光輝度計1としての被校正二次元分光輝度計34は、この均一輝度面を測定することで、単波長光束31a毎の画像情報(単波長画像)を取得し、これを制御用PC32に送信(出力)する。各単波長光束31aに対する上記均一輝度面は、スポット型の基準分光輝度計35によっても測定されており、この基準分光輝度計35の測定によって得られた参照強度Mλの情報は、制御用PC32に送信される。なお、校正システム30の符号36に示すものは、後述の輝度軸校正において、基準単波長光源31の単波長光束31aの代わりに積分球33へ入射させる白色光の光束36aを出力する白色光源(白色光源36)であり、この波長軸校正においては使用されない(この場合、白色光源36や積分球33の入射開口333は備えてなくともよい)。
<Wavelength axis calibration>
Calibration of the wavelength axis to the WBPF12, for example obtains a reference intensity M lambda using a
ところで上記図4、5で説明したように、WBPF12の走査方向の有効域は2560画素列(j’=1〜2560)に相当し、1000画素列(j=1〜1000)をもつ撮像素子7の撮像域よりも大きいサイズであるため、1つの走査ステップ位置での撮像によってWBPF12の全有効域を測定することはできない。したがって、上記基準単波長光源31からの単波長光束31a(均一輝度面からの光束)による走査を、走査ステップs=25、45及び65の3つの走査ステップ位置で行うことで、当該WBPF12の全有効域における分光感度を(画素毎に)求めるようにしている。
4 and 5, the effective area in the scanning direction of the
まず、被校正二次元分光輝度計34において、WBPF12(フィルター保持板11)を走査ステップs=25の位置で固定して基準単波長光源31を波長走査し、撮像した201個の単波長画像の各画素列の積算値を上記参照強度Mλで基準化して、WBPF12における、上記撮像域の1000の画素列(j=1〜1000)に相当する画素列j’=1〜1000の範囲の相対分光感度を求める。同様に、走査ステップs=45及び65の位置で固定して波長走査した単波長画像群の画素列積算値から、それぞれWBPF12の画素列j’=801〜1800及びj’=1601〜2560に相当する範囲の相対分光感度を求める。そして、これらs=25、45、65の各走査ステップ位置での相対分光感度から、WBPF12の全有効域の画素列(j’=1〜2560)に対する2nmのピッチの相対分光感度Sj’(λ)を求める。ただし、s=25、45、65それぞれの場合の画素列範囲、つまり上記画素列j’=1〜1000、801〜1800、1601〜2560から、1つの全有効域の画素列(j’=1〜2560)における相対分光感度を作成する場合、これら各範囲に互いに(約1/3ずつ)重なる領域が存在するが、当該重なり合っている領域の2つのデータ(相対分光感度情報)は、その何れのデータを採用してもよい。
First, in the calibrated two-
測定時の走査ステップs位置における撮像素子7(撮像域)の各画素列jの相対分光感度SS,j(λ)は、図7に示すように、上述のように求めたWBPF12の全有効域の2560画素列の相対分光感度Sj’(λ)を、各走査ステップs位置に応じて平行移動させたSj’(λ)(ただし、j’=40*s−j+1)として与えられる。なお、図7の符号701、702、703…に示す相対分光感度波形は、それぞれ上記平行移動させて得られた各走査ステップsに対するものであり、各相対分光感度波形701、702、703…それぞれの間は、1走査ステップに相当する40画素分の間隔となっている。また、符号704に示す横軸は同一のものであり、中心波長350nm〜750nmにおける低波長域、中波長域及び高波長域の各相対分光感度波形を明示するべく、各グラフ710〜730を縦に並べて表している。ただし、画素列方向(y方向)では同じ分光感度(分光透過率)であるので、この画素列方向において平均化したものをその画素列の(相対)分光感度としている。
As shown in FIG. 7, the relative spectral sensitivity S S, j (λ) of each pixel column j of the image sensor 7 (imaging area) at the scanning step s position at the time of measurement is all effective of the
なお、上記式(1-1)〜(1-3)で用いられる画素列jの走査ステップ位置sに対する重価係数WxS,j、WyS,j、WzS,jは、相対分光感度SS,j(λ)を用いて、以下の式(3-1)〜(3-3)により算出される合成分光感度xj(λ)、yj(λ)、zj(λ)と、
xj(λ)=ΣSWxS,j*SS,j(λ) …(3-1)
yj(λ)=ΣSWyS,j*SS,j(λ) …(3-2)
zj(λ)=ΣSWzS,j*SS,j(λ) …(3-3)
等色関数理論値x(λ)、y(λ)、z(λ)とによる、以下の式(4-1)〜(4-3)に示す波長毎の誤差の自乗和Exj、Eyj、Ezjが最小となる重価係数WxS,j、WyS,j、WzS,jとして求められる。
Exj=Σλ[xj(λ)−x(λ)]2 …(4-1)
Eyj=Σλ[yj(λ)−y(λ)]2 …(4-2)
Ezj=Σλ[zj(λ)−z(λ)]2 …(4-3)
The weight coefficient Wx S, j , Wy S, j , Wz S, j for the scanning step position s of the pixel row j used in the above formulas (1-1) to (1-3) is the relative spectral sensitivity S Using S, j (λ), combined spectral sensitivities x j (λ), y j (λ), z j (λ) calculated by the following equations (3-1) to (3-3),
x j (λ) = Σ S Wx S, j * S S, j (λ) (3-1)
y j (λ) = Σ S Wy S, j * S S, j (λ) (3-2)
z j (λ) = Σ S Wz S, j * S S, j (λ) (3-3)
The sum of squares of error Ex j and Ey j for each wavelength shown in the following equations (4-1) to (4-3) based on the theoretical values x (λ), y (λ), and z (λ) of the color matching functions. , Ez j is obtained as a weight coefficient Wx S, j , Wy S, j , Wz S, j that minimizes Ez j .
Ex j = Σ λ [x j (λ) -x (λ)] 2 ... (4-1)
Ey j = Σ λ [y j (λ) -y (λ)] 2 ... (4-2)
Ez j = Σ λ [z j (λ) -z (λ)] 2 ... (4-3)
図12は、波長軸校正に関する動作の一例を示すフローチャートである。先ず、積分球33がつくる均一輝度面に対向配置された被校正二次元分光輝度計34の走査WBPF10(フィルター保持板11)が初期位置(s=0)にセット(移動)され(ステップS21)、撮像素子7の撮像域が遮光された状態で暗画像(Iij)0が取り込まれる(ステップS22)。次に、走査WBPF10がs=25の位置まで移動され(ステップS23、S24)、基準単波長光源31(又は制御用PC34)によって基準単波長(中心波長λ)が所定の初期値(例えば348nm)にセットされる(ステップS25)。そして、基準単波長光源31から上記初期セットされた中心波長λよりも2nm大きな中心波長を有する単波長光が出力され(ステップS26)、このステップS26において出力された中心波長λに対応する積分球33の均一輝度面の画像(Iij)S,λが取り込まれる(ステップS27)。
FIG. 12 is a flowchart illustrating an example of an operation related to wavelength axis calibration. First, the scanning WBPF 10 (filter holding plate 11) of the calibrated two-
一方、スポット型の基準分光輝度計35により参照強度Mλが測定され(ステップS28)。そして、上記ステップS27において取り込まれた画像(Iij)S,λが、暗画像(Iij)0を用いて暗画像補正((Iij)S,λ=(Iij)S,λ−(Iij)0)され(ステップS29)、さらに、上記ステップS28において得られた参照強度Mλを用いて基準化((Iij)S,λ=(Iij)S,λ/Mλ)されて記憶される(ステップS30)。基準単波長光源31から出力される単色光の中心波長λが750nmより大きくない場合には(ステップS31のNO)、上記ステップS26に戻って、さらに2nm増加されて基準単波長光源31から出力された次の中心波長λの単波長光に対する上記画像を取り込み、参照強度Mλの測定(検出)、暗画像補正及び基準化処理が行われる。このようにして、中心波長350nmから750nmに亘って2nmピッチで増加された単波長光が順次出力され、この単波長光に対する上記ステップS27〜S30の各動作が繰り返される。
On the other hand, the reference intensity Mλ is measured by the spot type standard spectral luminance meter 35 (step S28). Then, the image (I ij ) S, λ captured in step S27 is dark image corrected using the dark image (I ij ) 0 ((I ij ) S, λ = (I ij ) S, λ − ( I ij ) 0 ) (step S 29), and further normalized ((I ij ) S, λ = (I ij ) S, λ / M λ ) using the reference intensity M λ obtained in step S 28. (Step S30). When the center wavelength λ of the monochromatic light output from the reference single
基準単波長光源31から出力される中心波長λが750nmより大きい場合(ステップS31のYES)、次に、走査ステップsが65より大きくなければ(ステップS32のNO)、上記ステップS24に戻って、走査WBPF10(フィルター保持板11)を現在の走査ステップs位置からさらに走査ステップを「20」だけ走査方向(x方向の正方向)に移動させ、つまり最初のステップS24における走査ステップs=25の位置から走査ステップs=45の位置まで順に移動させ、2nmピッチで出力される中心波長λが350nmから750nmに至るまで上記ステップS26〜S30の動作が繰り返される。同様にして、さらに20走査ステップ分だけ移動された走査ステップs=65に対して上記ステップS26〜S30の動作が繰り返され、その結果、上記ステップS30において基準化された各走査ステップ25、45及び65に対する画像(Iij)25,λ、(Iij)45,λ及び(Iij)65,λが得られて記憶される。
If the center wavelength λ output from the reference single
上記ステップS32において走査ステップsが65より大きくなった場合(ステップS32のYES)、すなわち測定終了後、上記記憶された画像(Iij)25,λ、(Iij)45,λ及び(Iij)65,λから、WBPF12の全有効域の画素列(j’=1〜2560)に対する分光感度画像(Iij’)λが算出される(ステップS33)。そして、さらに分光感度画像(Iij’)λが画素行iについて積算され((Ij’)λ=Σi(Iij’)λ)、全画素列j’の分光感度画像(Ij’)λが求められて保存される(ステップS34)。
When the scanning step s becomes larger than 65 in step S32 (YES in step S32), that is, after the measurement is completed, the stored image (I ij ) 25, λ , (I ij ) 45, λ and (I ij ) A spectral sensitivity image (I ij ′ ) λ for a pixel row (j ′ = 1 to 2560) in the entire effective range of the
<輝度軸校正>
次に、輝度軸校正について説明する。上述の波長軸校正によって校正されるのは、各走査ステップ位置での各画素列jの相対的な分光感度(相対分光感度)であるため(絶対的な輝度としての校正はなされておらず、感度ムラが補正されていないので)、ここで輝度軸(感度軸)の校正を行う。この輝度軸校正は、例えば上記図6に示す校正システム30を利用して行なわれる。ただし、波長軸校正の場合の基準単波長光源31に代えて、A光源などの白色光源36の光束を積分球33に入射させて出力開口332に均一輝度面をつくり、被校正二次元分光輝度計34でこの均一輝度面を測定する。この均一輝度面は、同時に基準分光輝度計35で測定され、参照分光輝度L0(λ)が求められる。
<Luminance axis calibration>
Next, luminance axis calibration will be described. What is calibrated by the above-described wavelength axis calibration is the relative spectral sensitivity (relative spectral sensitivity) of each pixel row j at each scanning step position (calibration as absolute luminance is not performed, Since the sensitivity unevenness is not corrected), the luminance axis (sensitivity axis) is calibrated here. This luminance axis calibration is performed using, for example, the
そして、相対分光感度SS,j(λ)を有する走査ステップsにおける画素列jの画素Pijが、参照分光輝度L0(λ)の光源を測定したときに得られるべき出力ΣλL0(λ)*SS,j(λ)と、上記輝度軸校正において実測により得られた出力(Iij)Sとを用いて、走査ステップsでの画素Pijの感度校正係数(Cij)Sが、以下の式(5-1)によって求められる。
(Cij)S=[ΣλL0(λ)*SS,j(λ)]/(Iij)S …(5-1)
The output Σ λ L 0 to be obtained when the pixel P ij of the pixel row j in the scanning step s having the relative spectral sensitivity S S, j (λ) measures the light source having the reference spectral luminance L 0 (λ). Using (λ) * S S, j (λ) and the output (I ij ) S obtained by actual measurement in the luminance axis calibration, the sensitivity calibration coefficient (C ij ) of the pixel P ij at the scanning step s. S is obtained by the following equation (5-1).
(C ij) S = [Σ λ L 0 (λ) * S S, j (λ)] / (I ij) S ... (5-1)
二次元分光輝度計1による実際の測定(分光輝度計測)時には、この感度校正係数(Cij)Sを用い、被測定対象となる二次元光源Lに対する走査ステップsでの画素Pijの出力(Iij)Sを、以下の式(6-1)により輝度画像(Lij)Sに変換して出力する。
(Lij)S=(Cij)S*(Iij)S …(6-1)
At the time of actual measurement (spectral luminance measurement) by the two-dimensional
(L ij ) S = (C ij ) S * (I ij ) S (6-1)
(迷光補正)
ところで、WBPF12は多層膜干渉フィルタであり、一般的に、透過波長帯以外の波長域における成分の光が反射されてしまう。このWBPF12で反射された成分は、さらに光学系のレンズ面やハウジング内面で反射され、所謂「迷光」となってWBPF12に再入射する。この入射位置の透過波長帯の成分はWBPF12を透過して撮像素子7に到達し、透過しない再入射光は再び入射され、上記過程を繰り返す。このようにして撮像素子7に到達した迷光による迷光画像は、本来の観察画像に重畳して観察画像の精度を劣化させてしまう。そこで、この観察画像(上述した各走査ステップsで取り込んだ画像(Iij)S)に対する当該迷光画像の影響をなくすべく、以下に述べるように、迷光補正を行ってもよい。
(Stray light correction)
By the way, the
以下の迷光補正に関する説明に用いる記号を以下に整理しておく。 The symbols used in the following explanation regarding the stray light correction are organized below.
m,n:被測定光の第1像面2b及び第2像面6b入射位置の画素単位の座標(m,n
=1〜1000)
I,J:第1像面2b及び第2像面6bの40×40画素のビニングをした画素セット座標(I,J=1〜25)
M,N:被測定光の第1像面2b及び第2像面6b入射位置の画素セット座標(M,N=1〜25)
Rij(λ)或いはRIJ(λ):迷光画像が重畳されていない実画像(迷光が除去された画像)
R’ij(λ):実画像Rij(λ)の近似画像
Bij(λ)或いはBIJ(λ):迷光画像
Oij(λ)或いはOIJ(λ):迷光画像が重畳された観察画像(実際に測定される画像)、つまりOij(λ)=Rij(λ)+Bij(λ)或いはOIJ(λ)=RIJ(λ)+BIJ(λ)
(Fmn)ij(λ)或いは(FMN)IJ(λ):レスポンス画像、画素Pmn或いは画素セットPMNに入射した単位強度の入射光によって得られる画像
QIJ(λ):実画像に近似するべく推定される補正画像
O’IJ(λ):補正画像とレスポンス画像とから算出される擬似観察画像
m, n: the coordinates (m, n) of the measurement unit light at the incident positions of the
= 1 to 1000)
I, J: pixel set coordinates (I, J = 1 to 25) binned by 40 × 40 pixels on the
M, N: pixel set coordinates (M, N = 1 to 25) of the incident positions of the
R ij (λ) or R IJ (λ): real image on which no stray light image is superimposed (image from which stray light has been removed)
R ′ ij (λ): Approximate image of real image R ij (λ) B ij (λ) or B IJ (λ): stray light image O ij (λ) or O IJ (λ): observation with stray light image superimposed Image (actually measured image), that is, O ij (λ) = R ij (λ) + B ij (λ) or O IJ (λ) = R IJ (λ) + B IJ (λ)
(F mn ) ij (λ) or (F MN ) IJ (λ): a response image, an image obtained by incident light of unit intensity incident on the pixel P mn or the pixel set P MN Q IJ (λ): an actual image Corrected image O ′ IJ (λ) estimated to approximate: pseudo-observation image calculated from the corrected image and the response image
図8に、上記実画像Rij(λ)、観察画像Oij(λ)及び迷光画像Bij(λ)の強度分布の一例を示す。ただし、この強度分布はj座標(x方向)に沿ったものである。同図に示すように、観察画像Oij(λ)は、実画像Rij(λ)に迷光画像Bij(λ)が重畳されたものとなっている。ただし、非結像であるこの迷光画像Bij(λ)の分布はなだらかであり(略一様であり)、その空間周波数は、結像によって得られる実画像Rij(λ)と比べて遙かに低いレベルとなっている。 FIG. 8 shows an example of the intensity distribution of the real image R ij (λ), the observed image O ij (λ), and the stray light image B ij (λ). However, this intensity distribution is along the j coordinate (x direction). As shown in the figure, the observation image O ij (λ) is obtained by superimposing the stray light image B ij (λ) on the real image R ij (λ). However, the distribution of the stray light image B ij (λ) that is not imaged is gentle (substantially uniform), and its spatial frequency is less than the actual image R ij (λ) obtained by imaging. It is a very low level.
(レスポンス画像)
ここで、上記レスポンス画像について説明する。
測定域、すなわち被測定光の第1像面2b及び第2像面6bにおける特定画素Pmnに入射する単位強度の光束(結像光束)が、撮像素子7の撮像域における全画素Pij上につくる画像のことを、レスポンス画像(Fmn)ijとする。このレスポンス画像(Fmn)ijは、入射位置の座標(m、n)に結像する点光源が、上記「迷光」の影響も含み、(i、j)という画像全体にどのような影響を与えるかということを示す関数であるとも言える。ところで、当該入射画素(或る1つの画素Pmn)以外の画素への入射光である迷光のレベルは、(1)結像光束が入射する部位(画素Pmn)、及び(2)迷光が入射する部位(画素Pij)に依存するとともに、(3)結像光束の波長λに依存するため(迷光が関与する反射・透過は一般に波長依存性を有するため)、上記レスポンス画像(Fmn)ijは、(Fmn)ij(λ)というように波長λの関数で表されることになる。
(Response image)
Here, the response image will be described.
A light beam having a unit intensity (imaging light beam) incident on a specific pixel P mn in the measurement area, that is, the
レスポンス画像をこのように定義すると、二次元分光輝度計1によって実際に測定(観察)される観察画像Oij(λ)は、入射画素Pmnに入射されるべき光束の強度をもつ実画像Rmn(λ)によって重み付けした当該レスポンス画像(Fmn)ij(λ)を、全入射画素Pmnについて積算したものとなり、以下の式(7-1)で表される。
Oij(λ)=Σmn[Rmn(λ)*(Fmn)ij(λ)] …(7-1)
When the response image is defined in this way, the observation image O ij (λ) actually measured (observed) by the two-
O ij (λ) = Σ mn [R mn (λ) * (F mn ) ij (λ)] (7-1)
(実画像の推定)
迷光補正においては、観察画像Oij(λ)から迷光の影響を除去することで実画像Rij(λ)が得られるのであるが、ここでは、観察画像Oij(λ)から、実画像Rij(λ)を推定することにつき説明する。
(Real image estimation)
In the stray light correction, the actual image R ij (λ) is obtained by removing the influence of the stray light from the observation image O ij (λ). Here, the real image R ij (λ) is obtained from the observation image O ij (λ). The estimation of ij (λ) will be described.
当該推定される実画像Rij(λ)として、上記式(7-1)に基づいて、観察画像Oij(λ)とレスポンス画像(Fmn)ij(λ)とから、迷光画像の影響を除去した実画像Rij(λ)に近似する補正画像を求める。まず、実画像Rij(λ)に近似する補正画像の初期値Rij(λ)(0)をOmn(λ)とする(Rij(λ)(0)=Omn(λ))。この初期値Rij(λ)(0)とレスポンス画像(Fmn)ij(λ)とから算出される擬似観察画像Σmn[Rij(λ)(0)*(Fmn)ij(λ)]と、実観察画像Oij(λ)との差画像Σmn[Rij(λ)(0)*(Fmn)ij(λ)]−Oij(λ)によって初期値Rij(λ)(0)を補正することで、1次(1次近似解)の補正画像Rij(λ)(1)を求める(以下の式(8-1))。
Rij(λ)(1)=Rij(λ)(0)−a*[Σmn[Rij(λ)(0)*(Fmn)ij(λ)]−Oij(λ)] …(8-1)
As the estimated actual image R ij (λ), the influence of the stray light image is obtained from the observation image O ij (λ) and the response image (F mn ) ij (λ) based on the above equation (7-1). A corrected image that approximates the removed real image R ij (λ) is obtained. First, the initial value R ij approximate corrected image to the actual image R ij (λ) (λ) (0) to you and O mn (λ) (R ij (λ) (0) = O mn (λ)) . The initial value R ij (λ) (0) and the response image (F mn) ij (λ) pseudo observed image is calculated from the Σ mn [R ij (λ) (0) * (F mn) ij (λ) ] And an actual observation image O ij (λ) Σ mn [R ij (λ) (0) * (F mn ) ij (λ)] − O ij (λ) by an initial value R ij (λ) By correcting (0) , a first-order (first-order approximate solution) corrected image R ij (λ) (1) is obtained (the following equation (8-1)).
R ij (λ) (1) = R ij (λ) (0) −a * [Σ mn [R ij (λ) (0) * (F mn ) ij (λ)] − O ij (λ)] (8-1)
さらに、この式の右辺のRij(λ)(0)をRij(λ)(1)に置き換えて、以下の式(9-1)に示す2次の補正画像Rij(λ)(2)が求められる。
Rij(λ)(2)=Rij(λ)(1)−a*[Σmn[Rij(λ)(1)*(Fmn)ij(λ)]−Oij(λ)] …(9-1)
Further, R ij (λ) (0) on the right side of this equation is replaced with R ij (λ) (1) , and a second-order corrected image R ij (λ) (2 ) shown in the following equation (9-1) is obtained. ) Is required.
R ij (λ) (2) = R ij (λ) (1) −a * [Σ mn [R ij (λ) (1) * (F mn ) ij (λ)] − O ij (λ)] (9-1)
そして、このような計算が繰り返され、k次の補正画像Rij(λ)(k)が、Rmn(λ)(k−1)を用いて、以下の式(10-1)で与えられる。
Rij(λ)(k)=Rij(λ)(k−1)−a*[Σmn[Rij(λ)(k−1)*(Fmn)ij(λ)]−Oij(λ)] …(10-1)
Then, such calculation is repeated, and a k-th order corrected image R ij (λ) (k) is given by the following equation (10-1) using R mn (λ) (k−1). .
R ij (λ) (k) = R ij (λ) (k−1) −a * [Σ mn [R ij (λ) (k−1) * (F mn ) ij (λ)] − O ij ( λ)]… (10-1)
上記式(8-1)〜(10-1)における右辺第2項の記号「a」は、漸近の特性を与える定数であり、その値は(当該漸近式が収束するよう)実験的に選択される。以上のプロセスにより、補正項である右辺第2項の画素毎の自乗和(以下の式(11-1))が許容値以下となる最初のk次補正画像Rij(λ)(k)を以て近似画像R’ij(λ)とする。ただし、このk次補正画像Rij(λ)(k)(=近似画像R’ij(λ))は、上述した実画像Rij(λ)に近似する補正画像、つまり推定された実画像Rij(λ)を示している。
E(k−1)=Σij[Σmn[Rij(λ)(k−1)*(Fmn)ij(λ)]−Oij(λ)]2 …(11-1)
The symbol “a” in the second term on the right side in the above formulas (8-1) to (10-1) is a constant that gives an asymptotic characteristic, and its value is selected experimentally (so that the asymptotic formula converges). Is done. With the above process, the first k-th order corrected image R ij (λ) (k) in which the square sum for each pixel of the second term on the right-hand side that is the correction term (the following expression (11-1)) is less than the allowable value is used. Let it be an approximate image R ′ ij (λ). However, the k-th order corrected image R ij (λ) (k) (= approximate image R ′ ij (λ)) is a corrected image that approximates the above-described actual image R ij (λ), that is, the estimated actual image R. ij (λ) is shown.
E (k-1) = Σij [ Σmn [ Rij (λ) (k-1) * ( Fmn ) ij (λ)]- Oij (λ)] 2 (11-1)
なお、迷光画像は、上記k次補正画像Rij(λ)(k)を用いて、以下の式(12-1)におけるBij(λ)で与えられる(観察画像Oij(λ)から、推定された実画像Rij(λ)(k)を減じたものが迷光画像Bij(λ)となっている)。
Bij(λ)=Oij(λ)−Rij(λ)(k) …(12-1)
The stray light image is given by B ij (λ) in the following expression (12-1) using the k-th order corrected image R ij (λ) (k) (from the observed image O ij (λ): A stray light image B ij (λ) is obtained by subtracting the estimated actual image R ij (λ) (k) ).
B ij (λ) = O ij (λ) −R ij (λ) (k) (12-1)
(実際の演算)
上述の演算を、撮像素子7のもつ106の画素について行うと、1次の演算に1012のデータが関与することになり、データ量、演算時間ともに膨大となる。そこで、まず迷光画像を求め、上記の式(12-1)を変形した以下の(13-1)を用いて、観察画像Oij(λ)から迷光画像Gij(λ)(上記迷光画像Bij(λ)に相当)を減じて近似画像R’ij(λ)を得る手法をとる。
Rij(λ)(k)=Oij(λ)−Gij(λ) …(13-1)
(Actual calculation)
If the above calculation is performed for 10 6 pixels of the
R ij (λ) (k) = O ij (λ) −G ij (λ) (13-1)
この手法を用いる背景は、上記図8で説明したように、迷光画像は高い空間周波数成分を含まず、低画素数の画像情報でも十分な精度を有しており、画素数を下げる(低画素数とする)ことで画像情報量と演算時間とを大幅に低減できることにある。また、当該求めた低画素数の迷光画像を、スムージングなどの公知の処理を行い元の画素数(全画素数)の迷光画像に変換し、(全画素数を有した)観察画像からこれを減じて得られる近似画像(実画像に近似する補正画像)も十分な精度を有するものとなる。 As described in FIG. 8 above, the background of using this method is that the stray light image does not contain a high spatial frequency component, and has sufficient accuracy even with low pixel count image information, and the number of pixels is reduced (low pixel count). The amount of image information and the calculation time can be greatly reduced. In addition, the obtained stray light image with the low number of pixels is converted into a stray light image with the original number of pixels (total number of pixels) by performing known processing such as smoothing, and this is converted from the observation image (having the total number of pixels). The approximate image (corrected image approximated to the actual image) obtained by subtraction also has sufficient accuracy.
このことから、本実施形態では、図9に示すように40×40画素をビニング(積算)して、25×25(=I×J及びM×N)の画素セットによる画像情報を用いて迷光画像を求める。すなわち、上述の画素座標(i、j)及び(m、n)(i、j、m、n=1〜1000)を、画素セット座標(I、J)及び(M、N)(I、J、M、N=1〜25)に置き換え、これに伴って、観察画像Oij(λ)、実画像Rij(λ)、レスポンス画像(Fmn)ij(λ)及び迷光画像Bij(λ)を、40×40画素のビニング処理を行ったOIJ(λ)、RIJ(λ)、(FMN)IJ(λ)及びBIJ(λ)に置き換えて扱う。なお、各演算において当該ビニングした情報を扱うことにより、画像情報量、演算時間を例えば10−4/256に縮小・短縮し、実用レベルにまで抑えることが可能となる。 Therefore, in the present embodiment, as shown in FIG. 9, 40 × 40 pixels are binned (integrated), and stray light is used using image information based on 25 × 25 (= I × J and M × N) pixel sets. Ask for an image. That is, the pixel coordinates (i, j) and (m, n) (i, j, m, n = 1 to 1000) described above are converted into the pixel set coordinates (I, J) and (M, N) (I, J , M, N = 1 to 25), and accordingly, the observed image O ij (λ), the actual image R ij (λ), the response image (F mn ) ij (λ), and the stray light image B ij (λ) ) Are replaced with O IJ (λ), R IJ (λ), (F MN ) IJ (λ), and B IJ (λ) that have been subjected to binning processing of 40 × 40 pixels. By handling the binned information in each calculation, the amount of image information and the calculation time can be reduced or shortened to, for example, 10 −4 / 256, and can be suppressed to a practical level.
(レスポンス画像の実測)
二次元分光輝度計1による分光輝度測定での演算においては、上述したように、観察画像Oij(λ)とレスポンス画像(Fmn)ij(λ)とから、迷光画像の影響を除去した実画像Rij(λ)に近似する補正画像(推定された実画像Rij(λ))を求めるのであるが、この演算で用いるレスポンス画像の情報は、予め(例えば出荷時に)実測によって求めておく。以下に、このレスポンス画像の実測について説明する。
(Measurement of response image)
In the calculation in the spectral luminance measurement by the two-dimensional
レスポンス画像の実測は、例えば図10に示す校正システム30aを用いて行う。ただし、この校正システム30aは、上記図6に示す校正システム30に対してさらにピンホール板37及び移動台38を備えたものとなっている。図10に示すように、当該レスポンス画像の実測に際しては、まず、積分球33に白色光源36の光束36aを入射させ、積分球33の出力開口332の位置(近傍)にピンホール板37を配置して点光源を形成する。この点光源からの光(白色光)を、x方向及びy方向に(矢印A方向で見た場合の図(A視)における符号39に示す各方向に)移動可能に構成された移動台38上に設置した被校正二次元分光輝度計34によって測定する。この移動台38を制御用PC32によって制御することで、点光源の像を、第1像面2b及び第2像面6bの任意の座標(画素セット座標(M、N);M=1〜25、N=1〜25)における画素セット内につくるように(例えば図9に示す或る画素セット901内の点光源P参照)、被校正二次元分光輝度計34の位置を設定(移動)することができる。ピンホール板37のピンホールから放射される白色光の分光強度は、基準分光輝度計35で測定され、当該測定によるモニター出力から相対分光強度M(λ)が得られる。
The actual measurement of the response image is performed using, for example, a
図13は、このレスポンス画像の実測に関する動作の一例を示すフローチャートである。まず、制御用PC32により移動台38の位置が制御され、点光源が初期位置、すなわち第1像面2b(又は第2像面6b)の画素セット座標(M、N)が例えばM=1、N=1の位置にセット(移動)される(ステップS41)。点光源がその画素セット座標位置にあるときに、走査WBPF10における走査駆動部13によりフィルター保持板11(WBPF12)が走査ステップs=0の初期位置にセットされ(ステップS42)、この走査ステップs=0において撮像素子7により暗画像(Iij)0が撮像され、画像信号処理部8を介して主制御部9に取り込まれる(ステップS43)。次に、走査ステップsが1ステップ移動され(ステップS44)、この走査ステップsにおいて同様に画像(Iij)S,MNが撮像されて取り込まれ(ステップS45)、画像(Iij)S,MNが暗画像補正されて保存される((Iij)S,MN=(Iij)S,MN−(Iij)0))(ステップS46)。
FIG. 13 is a flowchart showing an example of an operation related to the actual measurement of the response image. First, the position of the moving table 38 is controlled by the
走査ステップsが89より大きくない場合には(ステップS47のNO)、上記ステップS44に戻って次の走査ステップsに移動され、走査ステップs毎に画像(Iij)S,MNを取り込んで、暗画像補正を施して保存する動作が繰り返される。走査ステップsが89より大きい場合には(ステップS47のYES)、この暗画像補正されて保存された画像(Iij)S,MNが分光強度画像(Iij)MN(λ)に変換され(ステップS48)、この分光強度画像(Iij)MN(λ)が、40×40画素のビニングによってデータ数が削減された画素セット座標(I、J)の分光強度画像(IIJ)MN(λ)に変換されて保存される(ステップS49)。 If the scanning step s is not greater than 89 (NO in step S47), the process returns to step S44 and is moved to the next scanning step s, and the image (I ij ) S, MN is captured for each scanning step s. The operation of performing dark image correction and saving is repeated. If the scanning step s is greater than 89 (YES in step S47), the dark image corrected and stored image (I ij ) S, MN is converted into a spectral intensity image (I ij ) MN (λ) ( In step S48), this spectral intensity image (I ij ) MN (λ) is a spectral intensity image (I IJ ) MN (λ) of pixel set coordinates (I, J) in which the number of data is reduced by binning of 40 × 40 pixels. ) And stored (step S49).
次に、点光源のM座標が1つ進められ(M=M+1、N=N)(ステップS50)、このMの座標値が25より大きくない場合には(ステップS51のNO)、この画素セット座標位置において、上記ステップS42に戻ってフィルター保持板11(WBPF12)が走査ステップs=0の初期位置にセットされ、同様に画像の取り込みや暗画像補正、ビニングが行なわれる。Mの座標値が25より大きな値となる場合には(ステップS51のYES)、点光源のM座標が1に戻されるとともにN座標が1つ進められる(M=1、N=N+1)(ステップS52)。このNの座標値が25より大きくない場合には(ステップS53のNO)、この画素セット座標位置において、上記ステップS42に戻って同様の動作が行なわれる。このようにして、画素セット座標(M、N)が、初期位置(1、1)から(25、25)まで順に移動され、当該各座標位置において上記ステップS42〜49の動作が繰り返される。Nの座標値が25より大きな値となり、全ての画素セット座標(M、N)への点光源の入射に対する分光強度画像(IIJ)MN(λ)が得られた場合には(ステップS53のYES)、スポット型の基準分光輝度計35によって点光源の相対分光強度M(λ)が測定される(ステップS54)。そして、分光強度画像(IIJ)MN(λ)がこの波長毎の相対分光強度M(λ)により基準化((FMN)IJ(λ)=(IIJ)MN(λ)/M(λ))されてレスポンス画像(FMN)IJ(λ)として保存され(ステップS55)、フロー終了となる。 Next, the M coordinate of the point light source is advanced by one (M = M + 1, N = N) (step S50). If the M coordinate value is not larger than 25 (NO in step S51), this pixel set is set. At the coordinate position, the process returns to step S42, and the filter holding plate 11 (WBPF 12) is set to the initial position of the scanning step s = 0. Similarly, image capture, dark image correction, and binning are performed. If the coordinate value of M is greater than 25 (YES in step S51), the M coordinate of the point light source is returned to 1 and the N coordinate is advanced by 1 (M = 1, N = N + 1) (step S52). When the coordinate value of N is not larger than 25 (NO in step S53), the same operation is performed by returning to step S42 at the pixel set coordinate position. In this way, the pixel set coordinates (M, N) are sequentially moved from the initial position (1, 1) to (25, 25), and the operations of steps S42 to S49 are repeated at each coordinate position. When the coordinate value of N becomes a value larger than 25 and the spectral intensity image (I IJ ) MN (λ) with respect to the incidence of the point light source on all the pixel set coordinates (M, N) is obtained (in step S53) YES), the relative spectral intensity M (λ) of the point light source is measured by the spot-type reference spectral luminance meter 35 (step S54). The spectral intensity image (I IJ ) MN (λ) is normalized by the relative spectral intensity M (λ) for each wavelength ((F MN ) IJ (λ) = (I IJ ) MN (λ) / M (λ )) And stored as a response image (F MN ) IJ (λ) (step S55), and the flow ends.
(測定時の迷光補正)
ここで、二次元分光輝度計1の測定時に迷光補正を行なう場合の演算の一例について説明する(上記図11に示すフローチャートに示す場合の実施形態では、迷光補正を実施していないが、ここでの実施形態では、迷光補正を実施している)。当該測定時に迷光補正を行なう場合には、先ず走査WBPF10(WBPF12)の走査ステップs毎に二次元光源Lの光像を撮像して暗画像補正((Iij)S=(Iij)S−(Iij)0)を行なった画像(Iij)Sを観察画像(Oij)Sとして保存しておく。走査終了後、この観察画像(Oij)Sを分光画像である(波長λの関数としての)観察画像Oij(λ)に変換し、さらに観察画像Oij(λ)をビニングして40×40画素の画素セットによる観察画像OIJ(λ)に変換する。そして、上述の式(7-1)に準じ、以下の式(14-1)に示すように、当該ビニングした観察画像OIJ(λ)を補正画像QIJ(λ)と仮定し、この補正画像QIJ(λ)に対応するQMN(λ)(つまりM、N座標における入射画素セットに入射するべき光束の強度であるQMN(λ)) と、上記実測され保存されているレスポンス画像(FMN)IJ(λ)とから、擬似観察画像O’IJ(λ)を算出する。
O’IJ(λ)=ΣMN[QMN(λ)*(FMN)IJ(λ)] …(14-1)
(Stray light correction during measurement)
Here, an example of calculation when stray light correction is performed at the time of measurement by the two-dimensional
O ′ IJ (λ) = Σ MN [Q MN (λ) * (F MN ) IJ (λ)] (14-1)
次に、以下の式(15-1)に示すように、擬似観察画像O’IJ(λ)と観察画像OIJ(λ)との差[O’IJ(λ)−OIJ(λ)]によって補正画像QIJ(λ)を再補正し、これを新たに補正画像QIJ(λ)とする。
QIJ(λ)=QIJ(λ)−a*[O’IJ(λ)−OIJ(λ)] …(15-1)
Next, as shown in the following formula (15-1), the difference between the pseudo-observed image O ′ IJ (λ) and the observed image O IJ (λ) [O ′ IJ (λ) −O IJ (λ)] Thus, the corrected image Q IJ (λ) is re-corrected, and this is newly set as a corrected image Q IJ (λ).
Q IJ (λ) = Q IJ (λ) −a * [O ′ IJ (λ) −O IJ (λ)] (15-1)
そして、以下の式(16-1)に示す擬似観察画像O’IJ(λ)と観察画像OIJ(λ)との画素毎の差の二乗和E(λ)が、予め設定された限界値Etより小さくなった最初の補正画像QIJ(λ)を最終補正画像として採用し、
E(λ)=ΣIJ[O’IJ(λ)−OIJ(λ)]2 …(16-1)
E(λ)が限界値Et以上の値をとる場合には、限界値Etより小さくなるまで上記式(14-1)、(15-1)及び(16-1)の演算を繰り返す。
Then, the sum of squares E (λ) of the differences between the pseudo observation image O ′ IJ (λ) and the observation image O IJ (λ) shown in the following formula (16-1) is set as a limit value set in advance. The first corrected image Q IJ (λ) that is smaller than Et is adopted as the final corrected image,
E (λ) = Σ IJ [O ′ IJ (λ) −O IJ (λ)] 2 (16-1)
When E (λ) takes a value equal to or greater than the limit value Et, the above formulas (14-1), (15-1), and (16-1) are repeated until the value becomes smaller than the limit value Et.
最終補正画像QIJ(λ)が得られると、観察画像OIJ(λ)との差から迷光画像BIJ(λ)が求められる(以下の式(17-1))。
BIJ(λ)=OIJ(λ)−QIJ(λ) …(17-1)
When the final corrected image Q IJ (λ) is obtained, the stray light image B IJ (λ) is obtained from the difference from the observed image O IJ (λ) (the following equation (17-1)).
B IJ (λ) = O IJ (λ) −Q IJ (λ) (17-1)
このBIJ(λ)は、上記ビニングした画素セットによる迷光画像であるため、スムージング処理を行うことによって、元の(ビニング前の)全画素からなる迷光画像Bij(λ)に変換する。上述したように迷光画像は空間周波数が低いので、迷光画像BIJ(λ)をスムージングした迷光画像Bij(λ)と全画素による式(12-1)の迷光画像との間に大きな誤差はなく、したがって、観察画像Oij(λ)から迷光画像Bij(λ)を差し引いて近似画像R’ij(λ)を求める(以下の式(18-1))。
R’ij(λ)=Oij(λ)−Bij(λ) …(18-1)
Since this B IJ (λ) is a stray light image by the binned pixel set, it is converted into a stray light image B ij (λ) consisting of all original pixels (before binning) by performing a smoothing process. As described above, since the stray light image has a low spatial frequency, there is a large error between the stray light image B ij (λ) obtained by smoothing the stray light image B IJ (λ) and the stray light image of the equation (12-1) using all pixels. without therefore the observed image O ij (lambda) by subtracting the stray light image B ij (lambda) obtaining an approximate image R 'ij (lambda) (the following formula (18-1)).
R ′ ij (λ) = O ij (λ) −B ij (λ) (18-1)
このように、二次元光源Lを走査ステップs毎に撮像した画像(Iij)S(観察画像Oij(λ))と、予め記憶されているレスポンス画像(FMN)IJ(λ)とから、演算によって迷光画像Bij(λ)を算出し、さらに観察画像Oij(λ)からこれを差し引く演算を行なうことで迷光補正がなされ、近似画像R’ij(λ)が得られる。 As described above, from the image (I ij ) S (observed image O ij (λ)) obtained by imaging the two-dimensional light source L for each scanning step s and the response image (F MN ) IJ (λ) stored in advance. Then, the stray light image B ij (λ) is calculated by the calculation, and the stray light correction is performed by subtracting the stray light image B ij (λ) from the observation image O ij (λ), thereby obtaining the approximate image R ′ ij (λ).
ところで、前述の輝度補正を、さらにこの近似画像R’ij(λ)に対して施すことで後述の分光輝度画像Lij(λ)を得ることができる。当該輝度補正において用いる校正係数は、予め前記と同様の輝度軸校正によって求めておく必要がある。具体的には、上記(14-1)〜(18-1)での演算と同様にして、(図6において)白色光源36による均一輝度面の測定画像を取得し、この測定画像を迷光補正することで上記と同様の近似画像R’ij(λ)を算出する。一方で、スポット型の基準分光輝度計35により同時に測定画像を測定して基準分光輝度L0(λ)を求めておき、以下の式(19-1)に示すように、これら近似画像R’ij(λ)と基準分光輝度L0(λ)とから、波長λの関数としての校正係数Cij(λ)を求め、これを主制御部9等に保存しておく。
Cij(λ)=L0(λ)/R’ij(λ) …(19-1)
Incidentally, a spectral luminance image L ij (λ), which will be described later, can be obtained by performing the above-described luminance correction on the approximate image R ′ ij (λ). The calibration coefficient used in the brightness correction needs to be obtained in advance by the same brightness axis calibration as described above. Specifically, in the same manner as the calculations in (14-1) to (18-1) above, a measurement image of a uniform luminance surface by the
C ij (λ) = L 0 (λ) / R ′ ij (λ) (19-1)
二次元分光輝度計1による実際の測定時には、上記式(14-1)〜(18-1)によって二次元光源Lの測定画像を迷光補正して近似画像R’ij(λ)を求め、上記保存しておいた校正係数Cij(λ)を用いて分光輝度画像Lij(λ)に変換して出力する(以下の式(20-1))。
Lij(λ)=Cij(λ)*R’ij(λ) …(20-1)
At the time of actual measurement by the two-
L ij (λ) = C ij (λ) * R ′ ij (λ) (20-1)
図14は、上述の二次元分光輝度計1による測定時に迷光補正を行なう場合の動作の一例を示すフローチャートである。まず、走査WBPF10(WBPF12)の走査ステップs毎に撮像されて暗画像補正((Iij)S=(Iij)S−(Iij)0)された画像(Iij)Sが観察画像(Oij)Sとして保存され(ステップS61)、この観察画像(Oij)Sが観察画像Oij(λ)に変換される(ステップS62)。次に、観察画像Oij(λ)がビニングされて40×40画素の画素セットによる観察画像OIJ(λ)に変換される(ステップS63)。そして、この観察画像OIJ(λ)が補正画像QIJ(λ)とされ(ステップS64)、上記式(14-1)によって、当該補正画像QIJ(λ)に対応するQMN(λ)と実測され保存されているレスポンス画像(FMN)IJ(λ)とから擬似観察画像O’IJ(λ)が算出される(ステップS65)。
FIG. 14 is a flowchart showing an example of the operation when stray light correction is performed at the time of measurement by the two-dimensional
次に、上記式(16-1)に示す擬似観察画像O’IJ(λ)と観察画像OIJ(λ)との画素毎の差の二乗和E(λ)が求められ(ステップS66)、E(λ)の値が、予め設定された限界値Etより小さくない場合には(ステップS67のNO)、上記式(15-1)において、擬似観察画像O’IJ(λ)と観察画像OIJ(λ)との差(O’IJ(λ)−OIJ(λ))によって補正画像QIJ(λ)が再補正され、これが新たな補正画像QIJ(λ)とされて(ステップS68)、上記ステップS65に戻り、このE(λ)が限界値Etより小さくなるまで上記ステップS65〜S68の演算が繰り返される。E(λ)の値が限界値Etより小さくなった場合には(ステップS67のYES)、当該限界値Etより小さくなった最初の補正画像QIJ(λ)が最終補正画像として決定され、上記式(17-1)に示すように、観察画像OIJ(λ)からこの補正画像QIJ(λ)が差し引かれて迷光画像BIJ(λ)が算出される(ステップS69)。その後、迷光画像BIJ(λ)に対するスムージング処理が施され、元の全画素からなる迷光画像Bij(λ)に変換される(ステップS70)。そして、上記式(18-1)に示すように、観察画像Oij(λ)からこの迷光画像Bij(λ)が差し引かれて近似画像R’ij(λ)が求められる(ステップS71)。 Next, a sum of squares E (λ) of differences between the pseudo observation image O ′ IJ (λ) and the observation image O IJ (λ) shown in the above equation (16-1) is obtained (step S66). If the value of E (λ) is not smaller than the preset limit value Et (NO in step S67), the pseudo-observation image O ′ IJ (λ) and the observation image O in the above equation (15-1). The corrected image Q IJ (λ) is re-corrected by the difference (O ′ IJ (λ) −O IJ (λ)) from IJ (λ), and this is used as a new corrected image Q IJ (λ) (step S68). ), The process returns to step S65, and the operations of steps S65 to S68 are repeated until E (λ) becomes smaller than the limit value Et. When the value of E (λ) is smaller than the limit value Et (YES in step S67), the first corrected image Q IJ (λ) that is smaller than the limit value Et is determined as the final corrected image, and As shown in Expression (17-1), the correction image Q IJ (λ) is subtracted from the observation image O IJ (λ) to calculate the stray light image B IJ (λ) (step S69). Thereafter, a smoothing process is performed on the stray light image B IJ (λ), and the stray light image B ij (λ) including all original pixels is converted (step S70). Then, as shown in the above equation (18-1), this stray light image B ij (λ) is subtracted from the observed image O ij (λ) to obtain an approximate image R ′ ij (λ) (step S71).
以上のように本実施形態の迷光補正法によれば、迷光の影響に基づく迷光画像が重畳された観察画像(Oij(λ))と、迷光補正演算において使用するべく例えば上記図10に示す校正システム30aを用いた校正等によって予め測定(実測)されて主制御部9等に保存された、観察画像の撮像域(第2像6a又は第1像2a)における特定画素(例えば画素セットPMN)への単位強度の入射光が撮像素子7の撮像域の全画素上につくるレスポンス画像(例えば(FMN)IJ(λ);応答画像)とから、観察画像(Oij(λ))を構成する画素数より低い画素数の画像情報((例えばOIJ(λ)やBIJ(λ))を用いて迷光画像(Bij(λ))が推定算出され、この推定算出された迷光画像(Bij(λ))を観察画像(Oij(λ))から除去(減算)することで、実画像(Rij(λ))に近似する補正画像(R’ij(λ);観察画像から迷光の影響を補正した画像)が求められる。したがって、このように迷光補正処理が行われるため、観察画像に対する迷光の影響が除去された好適な観察画像(測定画像)を得ることができる。また、予め測定して求めておいたレスポンス画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像を構成する画素数より低い画素数の画像情報を用いて当該迷光補正を行う方法をとることで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである(図8参照)迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。なお、この迷光補正法によれば、観察画像から迷光の影響によるボヤケやカブリを除去できるため、コントラストを有した画像における特に低輝度画素の精度向上に大きな効果が得られる(このことは、当該迷光補正法を用いる二次元分光輝度計1に対しても同じ)。
As described above, according to the stray light correction method of the present embodiment, an observation image (O ij (λ)) on which a stray light image based on the influence of stray light is superimposed and, for example, the stray light correction calculation shown in FIG. Specific pixels (for example, pixel set P) in the imaging area (second image 6a or
また、図14に示すように、撮像により得られる観察画像(Oij(λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(OIJ(λ))に変換する第1の工程と、当該低画素観察画像と低画素数の応答画像((FMN)IJ(λ))とから、補正画像(R’ij(λ))の低画素数画像としての低画素補正画像(QIJ(λ))を算出する第2の工程と、低画素観察画像と当該低画素補正画像との差(OIJ(λ)−QIJ(λ))によって低画素数の迷光画像(BIJ(λ))を算出する第3の工程と、当該低画素数の迷光画像を全画素数に対する迷光画像(Bij(λ))に変換する第4の工程と、全画素数の観察画像(Oij(λ))から当該全画素数に対する迷光画像(Bij(λ))を減じて実画像(Rij(λ))に近似する補正画像(R’ij(λ))を算出する第5の工程とによって迷光補正演算が行われるため、当該演算時に扱うデータ量を大幅に削減し且つ演算処理時間を大幅に短縮しながら、充分な精度で観察画像(Oij(λ))に対する迷光補正を行うことが可能となる。 Further, as shown in FIG. 14, an observation image (O ij (λ)) obtained by imaging is converted into a low pixel observation image (O IJ ) that is an observation image having a low number of pixels with respect to the total number of pixels of the observation image. (Λ)), and the corrected image (R ′ ij (λ)) is reduced from the low pixel observation image and the response image ((F MN ) IJ (λ)) with the low pixel count. The second step of calculating the low pixel correction image (Q IJ (λ)) as the pixel number image and the difference between the low pixel observation image and the low pixel correction image (O IJ (λ) −Q IJ (λ) ) To calculate a stray light image (B IJ (λ)) having a low pixel count, and a fourth step of converting the stray light image having the low pixel count into a stray light image (B ij (λ)) for all the pixel counts. steps and stray light images from all pixels number of observation images (O ij (λ)) with respect to the total number of pixels (B ij (λ) Since the stray light correction operation is performed by the fifth step of calculating the a by subtracting actual image corrected image (R 'ij (λ)) which approximates (R ij (λ)), significant amount of data to be handled during the operation It is possible to perform stray light correction on the observation image (O ij (λ)) with sufficient accuracy while reducing the processing time and greatly reducing the calculation processing time.
また、低画素観察画像(OIJ(λ))に対する仮の実画像としての低画素補正画像(QIJ(λ))(或いはこのQIJ(λ)に対応するQMN(λ);式(14-1)参照)と応答画像((FMN)IJ(λ))とから擬似観察画像(O’IJ(λ))を算出し、当該擬似観察画像と低画素観察画像との差による差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像(QIJ(λ))を再補正し、当該再補正した低画素補正画像(QIJ(λ))と応答画像とから新たな擬似観察画像(O’IJ(λ))を算出し、当該新たな擬似観察画像と低画素観察画像との差による新たな差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像をさらに補正する漸近演算を、当該差画像による誤差が所定値以下となるまで繰り返し行うことで、上記低画素補正画像(QIJ(λ))を算出する、すなわち、低画素観察画像(OIJ(λ)と低画素数の応答画像((FMN)IJ(λ))とから、漸近法によって低画素補正画像(QIJ(λ))を算出する方法をとるため、より簡易な処理プログラムを用いて、短い演算処理時間で精度の高い低画素補正画像(QIJ(λ))を得ることが可能となり、ひいては迷光補正全体に対する更なる演算処理時間の短縮、演算精度(補正画像(R’ij(λ))の精度)向上を図ることができる。 Further, the low pixel corrected image (Q IJ (λ)) as a temporary actual image with respect to the low pixel observation image (O IJ (λ)) (or Q MN (λ) corresponding to Q IJ (λ); 14-1) reference) and the response image ((F MN) IJ (λ )) from the pseudo observed image (O 'IJ (λ)) is calculated, and the difference due to the difference between the pseudo observed image and the low pixel observation image The low pixel corrected image (Q IJ (λ)) is re-corrected with the image (O ′ IJ (λ) −O IJ (λ)), the re-corrected low pixel corrected image (Q IJ (λ)) and the response image And a new pseudo-observation image (O ′ IJ (λ)) is calculated, and a new difference image (O ′ IJ (λ) −O IJ (λ) based on the difference between the new pseudo-observation image and the low-pixel observation image is calculated. )), The asymptotic operation for further correcting the low pixel correction image is repeated until the error due to the difference image becomes a predetermined value or less. By performing returns, the calculated low pixel correction image (Q IJ (λ)), i.e., the low-pixel observation image (O IJ (λ) and the low pixel number of responses image ((F MN) IJ (λ )) Therefore, a low pixel corrected image (Q IJ (λ)) is calculated by an asymptotic method, and therefore, a low-pixel corrected image (Q IJ (Q IJ ( λ)) can be obtained, and as a result, the calculation time for the entire stray light correction can be further shortened and the calculation accuracy (the accuracy of the corrected image (R ′ ij (λ))) can be improved.
また、当該迷光補正演算において、全画素数の画像(例えば観察画像(Oij(λ))や迷光画像(Bij(λ)))がビニングされるため(図9参照)、容易に低画素数の画像(例えば低画素数の観察画像(OIJ(λ))や迷光画像(BIJ(λ)))を得ることができる。 Further, in the stray light correction calculation, an image with the total number of pixels (for example, an observation image (O ij (λ)) or a stray light image (B ij (λ))) is binned (see FIG. 9). A number of images (for example, an observation image (O IJ (λ)) or a stray light image (B IJ (λ)) having a low number of pixels) can be obtained.
また、レスポンス画像((FMN)IJ(λ))が、観察画像の撮像域における、各画素(m、n)又は(i、j)に対してではなく(1つ1つの画素に対する点光源の照射は現実的には困難である)、各画素セット(各画素セット座標(M、N))に対して点光源(白色光源36)からの光束36aを結像させて撮像した画像に基づいて得られるため(図10参照)、二次元分光輝度計個々に応じたレスポンス画像を、実験的に且つ容易に取得することが可能となる。
Further, the response image ((F MN ) IJ (λ)) is not a point light source for each pixel (instead of each pixel (m, n) or (i, j)) in the imaging area of the observation image. Is practically difficult), and is based on an image obtained by imaging a
また、迷光補正処理を観察画像の撮像における入射光の波長(WBPF12による分光透過光の中心波長λに応じて)行うので、迷光の要因に波長依存性があったとしても効果的に迷光補正を実施することができる。 In addition, since the stray light correction processing is performed at the wavelength of incident light (according to the center wavelength λ of the spectrally transmitted light by the WBPF 12) in the imaging of the observation image, stray light correction is effectively performed even if the cause of stray light has wavelength dependency. Can be implemented.
さらに、本実施形態の二次元分光輝度計1によれば、迷光補正演算手段(主制御部9)によって、迷光の影響に基づく迷光画像が重畳された観察画像(Oij(λ))と、迷光補正演算において使用するべく例えば上記図10に示す校正システム30aを用いた校正等によって予め測定(実測)されて主制御部9等に保存された、観察画像の撮像域(第2像6a又は第1像2a)における特定画素(例えば画素セットPMN)への単位強度の入射光が撮像素子7の撮像域の全画素上につくるレスポンス画像(例えば(FMN)IJ(λ);応答画像)とから、観察画像(Oij(λ))の画素数より低い画素数の画像情報((例えばOIJ(λ)やBIJ(λ))を用いて迷光画像(Bij(λ))が推定算出され、この推定算出された迷光画像(Bij(λ))を観察画像(Oij(λ))から除去(減算)することで、実画像(Rij(λ))に近似する補正画像(R’ij(λ))が求められる。したがって、このように迷光補正処理が行われるため、二次元分光輝度計1による観察画像(測定画像)に対する迷光の影響が除去され、好適な観察画像を得ることができる。また、予め測定して求めておいたレスポンス画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像の画素数より低い画素数の画像情報を用いて当該迷光補正を行うことで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。
Furthermore, according to the two-dimensional
なお、本発明は、以下の態様をとることができる。 In addition, this invention can take the following aspects.
(A)上記実施形態では、迷光画像の空間周波数が観察画像と比較して極めて低いことから、ビニングを行うことによって扱うデータ量や演算処理時間を実用レベルにまで抑えているが、この技術は、上述の走査WBPF10を用いた二次元分光輝度計1に限らず、画像情報から二次元の輝度や色彩を測定する機器一般に応用可能である。すなわち、二次元分光輝度計1のように干渉フィルタ(WBPF12)を用いる場合には、当該フィルタを透過されない波長域の光束成分が反射されて迷光が生じることから当該技術(迷光補正方法)が適用されているが、干渉フィルタを用いない機器であっても、光学系のレンズ表面や測定画像を撮像する撮像素子表面からの反射光などにより迷光が生じ、これが測定画像に重畳して(特に高コントラストの)画像の精度を劣化させてしまうため、このような迷光の影響を本技術によって改善することが可能となる。
(A) In the above embodiment, since the spatial frequency of the stray light image is extremely lower than that of the observed image, the amount of data handled and the processing time are reduced to a practical level by performing binning. The present invention is not limited to the two-
(B)上記実施形態では、対物光学系2とリレー光学系(リレーレンズ6等)とを備えることで、第1像面2b及び第2像面6bの2つの像面を設け、これら各像面にそれぞれWBPF12(走査WBPF10)と撮像素子7とを配置して互いに分離(離間)させているが、当該リレー光学系を備えずに、単一の像面に対して撮像素子7とWBPF12とを配置する構成としてもよい。
(B) In the above embodiment, by providing the objective
(C)上記実施形態では、第1遮光部112(s=0)において暗画像を取り込んだ後、x方向の正方向に向けてフィルター保持板11(WBPF12)を走査ステップs毎に移動させる構成としてるが、逆に、第2遮光部113を走査ステップs=0の位置として暗画像を取り込み、x方向の負方向に向けてフィルター保持板11を当該走査移動させる構成としてもよい。
(C) In the above embodiment, after the dark image is captured by the first light shielding unit 112 (s = 0), the filter holding plate 11 (WBPF 12) is moved in the positive direction of the x direction for each scanning step s. However, conversely, the second light-shielding
(D)上記実施形態では、レスポンス画像((FMN)IJ(λ))は予め実測して求めたものを保存しているが、これに限らず、(実測して求める必要はなく)所定の推測演算等によって予め求めたものを保存してもよい。 (D) In the above embodiment, the response image ((F MN ) IJ (λ)) is obtained by actually measuring in advance, but is not limited thereto, and is not limited to this (it is not necessary to obtain by actual measurement). What has been obtained in advance by, for example, a guess calculation may be stored.
(E)WBPF12の形状は、必ずしも、厚みが(走査方向に)直線的に変化する(前後の透過面が平面となっている)楔型でなくともよく、例えば当該厚みが曲線的に変化する(当該透過面が湾曲している)ような形状であってもよい。
(E) The shape of the
(F)上記実施形態では、楔型のWBPF12を一方向に沿って移動させることで走査を行う構成であるが、例えば周方向に沿って厚み(透過波長)が変化する円環状(又は環状でない例えば半円といった円弧状)のBPFを用い、当該BPFを光束La(光路)に対して(回転走査ステップで)回転移動させて走査を行う構成としてもよい。
(F) In the above embodiment, scanning is performed by moving the wedge-shaped
1 二次元分光輝度計
2a 第1像
6a 第2像
7 撮像素子
8 画像信号処理部
9 主制御部(迷光補正演算手段)
10 走査WBPF
12 WBPF
13 走査駆動部
30、30a 校正システム
31 基準単波長光源
34 被校正二次元分光輝度計
35 基準分光輝度計
36 白色光源(点光源)
112 第1遮光部
113 第2遮光部
901 画素セット
L 二次元光源
La 光束
T 撮像域
DESCRIPTION OF
10 Scanning WBPF
12 WBPF
13
112 1st light-shielding
Claims (6)
前記迷光の影響に基づく迷光画像が重畳された前記観察画像と、
予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光に応じて該撮像域の全画素に対して得られる応答画像とから、
前記観察画像を構成する画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、
当該推定算出された迷光画像を観察画像から除去して実画像に近似する前記補正画像を算出する迷光補正法において、
前記撮像により得られる観察画像(O ij (λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(O IJ (λ))に変換する第1の工程と、
当該低画素観察画像と低画素数の応答画像((F MN ) IJ (λ))とから、前記補正画像(R’ ij (λ))の低画素数画像としての低画素補正画像(Q IJ (λ))を算出する第2の工程と、
前記低画素観察画像と当該低画素補正画像との差(O IJ (λ)−Q IJ (λ))によって低画素数の迷光画像(B IJ (λ))を算出する第3の工程と、
当該低画素数の迷光画像を前記全画素数に対する迷光画像(B ij (λ))に変換する第4の工程と、
前記全画素数の観察画像(O ij (λ))から当該全画素数に対する迷光画像(B ij (λ))を減じて前記実画像に近似する補正画像(R’ ij (λ))を算出する第5の工程と、を有することを特徴とする迷光補正法。 A stray light correction method for correcting the influence of stray light on an observation image obtained by imaging to obtain a corrected image,
The observation image on which a stray light image based on the influence of the stray light is superimposed;
From the response image obtained for all the pixels in the imaging area according to the incident light of unit intensity to the specific pixel in the imaging area of the observation image, which is measured and stored in advance,
Estimating and calculating a stray light image using image information having a number of pixels lower than the number of pixels constituting the observation image,
In the stray light correction method for calculating the corrected image that approximates an actual image by removing the estimated and calculated stray light image from the observation image ,
An observation image (O ij (λ)) obtained by the imaging is converted into a low pixel observation image (O IJ (λ)) that is an observation image having a low pixel count with respect to the total number of pixels of the observation image . 1 process,
From the low-pixel observation image and the low-pixel response image ((F MN ) IJ (λ)), the low-pixel correction image (Q IJ ) as the low-pixel-number image of the correction image (R ′ ij (λ)) A second step of calculating (λ));
A third step of calculating a stray light image (B IJ (λ)) having a low number of pixels based on a difference (O IJ (λ) −Q IJ (λ)) between the low pixel observation image and the low pixel correction image ;
A fourth step of converting the stray light image of the low number of pixels into a stray light image (B ij (λ)) for the total number of pixels ;
A corrected image (R ′ ij (λ)) approximating the actual image is calculated by subtracting the stray light image (B ij (λ)) for the total number of pixels from the observation image (O ij (λ)) of the total number of pixels. stray light correction method, characterized by chromatic fifth step of, a.
前記迷光の影響に基づく迷光画像が重畳された前記観察画像と、
予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光に応じて該撮像域の全画素に対して得られる応答画像とから、
前記観察画像の画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、
当該推定算出された迷光画像を観察画像から除去して実画像に近似する前記補正画像を算出する迷光補正演算手段を備え、
前記迷光補正演算手段は、
前記撮像により得られる観察画像(O ij (λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(O IJ (λ))に変換し、
当該低画素観察画像と低画素数の応答画像((F MN ) IJ (λ))とから、前記補正画像(R’ ij (λ))の低画素数画像としての低画素補正画像(Q IJ (λ))を算出し、
前記低画素観察画像と当該低画素補正画像との差(O IJ (λ)−Q IJ (λ))によって低画素数の迷光画像(B IJ (λ))を算出し、
当該低画素数の迷光画像を前記全画素数に対する迷光画像(B ij (λ))に変換し、さらに、
前記全画素数の観察画像(O ij (λ))から当該全画素数に対する迷光画像(B ij (λ))を減じて前記実画像に近似する補正画像(R’ ij (λ))を算出する、
ことを特徴とする二次元分光輝度計。
A two-dimensional spectroluminometer that performs a stray light correction calculation to obtain a corrected image by correcting the influence of stray light on an observation image obtained by imaging,
The observation image on which a stray light image based on the influence of the stray light is superimposed;
From the response image obtained for all the pixels in the imaging area according to the incident light of unit intensity to the specific pixel in the imaging area of the observation image, which is measured and stored in advance,
Estimating and calculating a stray light image using image information having a number of pixels lower than the number of pixels of the observation image;
Stray light correction calculating means for calculating the corrected image that approximates the actual image by removing the estimated and calculated stray light image from the observation image ,
The stray light correction calculation means includes:
An observation image (O ij (λ)) obtained by the imaging is converted into a low pixel observation image (O IJ (λ)) that is an observation image having a low pixel number with respect to the total number of pixels of the observation image ;
From the low-pixel observation image and the low-pixel response image ((F MN ) IJ (λ)), the low-pixel correction image (Q IJ ) as the low-pixel-number image of the correction image (R ′ ij (λ)) (Λ))
A stray light image (B IJ (λ)) having a low number of pixels is calculated by a difference (O IJ (λ) −Q IJ (λ)) between the low pixel observation image and the low pixel correction image ;
Converting the stray light image of the low number of pixels into a stray light image (B ij (λ)) for the total number of pixels ;
A corrected image (R ′ ij (λ)) approximating the actual image is calculated by subtracting the stray light image (B ij (λ)) for the total number of pixels from the observation image (O ij (λ)) of the total number of pixels. To
A two-dimensional spectral luminance meter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004372180A JP4400450B2 (en) | 2004-12-22 | 2004-12-22 | Stray light correction method and two-dimensional spectral luminance meter using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004372180A JP4400450B2 (en) | 2004-12-22 | 2004-12-22 | Stray light correction method and two-dimensional spectral luminance meter using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006177813A JP2006177813A (en) | 2006-07-06 |
JP4400450B2 true JP4400450B2 (en) | 2010-01-20 |
Family
ID=36732057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004372180A Active JP4400450B2 (en) | 2004-12-22 | 2004-12-22 | Stray light correction method and two-dimensional spectral luminance meter using the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4400450B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101945225B1 (en) * | 2018-06-08 | 2019-02-07 | (주)트라이시스 | Method and apparatus for processing image data |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6068375B2 (en) * | 2014-03-03 | 2017-01-25 | エバ・ジャパン 株式会社 | Spectral radiance meter |
WO2016151778A1 (en) * | 2015-03-24 | 2016-09-29 | 大塚電子株式会社 | Reference light source device used for calibratiom of spectral luminance meter and calibration method using same |
WO2016181746A1 (en) * | 2015-05-14 | 2016-11-17 | コニカミノルタ株式会社 | Spectroscopic color measurement device and method for calculating spectral reflectance |
CN109813536A (en) * | 2019-03-14 | 2019-05-28 | 长春理工大学 | A kind of infrared optical system external stray light test device and test method |
JP7207124B2 (en) * | 2019-04-16 | 2023-01-18 | セイコーエプソン株式会社 | CALIBRATION DEVICE, CALIBRATION METHOD, SPECTRAL CAMERA, AND DISPLAY DEVICE |
-
2004
- 2004-12-22 JP JP2004372180A patent/JP4400450B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101945225B1 (en) * | 2018-06-08 | 2019-02-07 | (주)트라이시스 | Method and apparatus for processing image data |
WO2019235695A1 (en) * | 2018-06-08 | 2019-12-12 | 주식회사 트라이시스 | Image data processing method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2006177813A (en) | 2006-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5786149B2 (en) | Universally packed pixel array camera system and method | |
US7365850B2 (en) | Two-dimensional spectroradiometer | |
US10168215B2 (en) | Color measurement apparatus and color information processing apparatus | |
JP6064290B2 (en) | Imaging apparatus, spectroscopic system, and spectroscopic method | |
JP6524617B2 (en) | Imager and method | |
JP6322939B2 (en) | Imaging system and color inspection system | |
JP6340884B2 (en) | Measuring apparatus, measuring system and measuring method | |
US20110031418A1 (en) | Optical sensor measurement and crosstalk evaluation | |
US20150163405A1 (en) | Image forming apparatus, image forming method and image sensor | |
JP2010271246A (en) | Method and device for color luminance measurement | |
US8976240B2 (en) | Spatially-varying spectral response calibration data | |
WO2018085841A1 (en) | Calibration method and apparatus for active pixel hyperspectral sensors and cameras | |
US20220299369A1 (en) | System, Method and Apparatus for Wide Wavelength Range Imaging with Focus and Image Correction | |
JP4400450B2 (en) | Stray light correction method and two-dimensional spectral luminance meter using the same | |
JP2016090291A (en) | Imaging apparatus, spectroscopy system and spectroscopy method | |
JP6225519B2 (en) | Measuring apparatus and measuring method | |
US11831968B2 (en) | Image pickup apparatus comprising first and second sensor units each including a plurality of sensors | |
Schöberl et al. | Building a high dynamic range video sensor with spatially nonregular optical filtering | |
JP7491084B2 (en) | CALIBRATION DEVICE, CALIBRATION METHOD, CALIBRATION PROGRAM, SPECTROSCOPIC CAMERA, AND INFORMATION PROCESSING APPARATUS | |
JP2007147507A (en) | Spectrometry and optical spectrometer | |
WO2017026296A1 (en) | Sample measurement apparatus | |
JP7284457B2 (en) | Quantum efficiency distribution acquisition method, quantum efficiency distribution display method, quantum efficiency distribution acquisition program, quantum efficiency distribution display program, spectrofluorophotometer and display device | |
CN116249876A (en) | Image analysis method, image analysis device, program, and recording medium | |
KR102022836B1 (en) | Apparatus for measuring light, system and method thereof | |
WO2020003673A1 (en) | Spectral sensitivity measurement method for image sensors, inspection method for spectral sensitivity measurement devices, and spectral sensitivity measurement device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090707 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091006 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4400450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091019 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121106 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121106 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131106 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |