JP4400450B2 - Stray light correction method and two-dimensional spectral luminance meter using the same - Google Patents

Stray light correction method and two-dimensional spectral luminance meter using the same Download PDF

Info

Publication number
JP4400450B2
JP4400450B2 JP2004372180A JP2004372180A JP4400450B2 JP 4400450 B2 JP4400450 B2 JP 4400450B2 JP 2004372180 A JP2004372180 A JP 2004372180A JP 2004372180 A JP2004372180 A JP 2004372180A JP 4400450 B2 JP4400450 B2 JP 4400450B2
Authority
JP
Japan
Prior art keywords
image
stray light
pixel
pixels
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004372180A
Other languages
Japanese (ja)
Other versions
JP2006177813A (en
Inventor
健二 井村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2004372180A priority Critical patent/JP4400450B2/en
Publication of JP2006177813A publication Critical patent/JP2006177813A/en
Application granted granted Critical
Publication of JP4400450B2 publication Critical patent/JP4400450B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Spectrometry And Color Measurement (AREA)

Description

本発明は、測定対象である二次元光源の各画素の分光強度を得るとともに、これを輝度、色度などのインデックスの二次元分布に変換して出力する二次元分光輝度計、及びこの二次元分光輝度計による測定において迷光補正を行う場合の迷光補正法に関する。   The present invention provides a two-dimensional spectral luminance meter that obtains the spectral intensity of each pixel of a two-dimensional light source to be measured, converts it into a two-dimensional distribution of indices such as luminance and chromaticity, and the two-dimensional The present invention relates to a stray light correction method in the case where stray light correction is performed in measurement by a spectral luminance meter.

従来、二次元光源の輝度、色度は、フィルターを用いた三刺激値型の二次元測色計が用いられてきたが、近年各種ディスプレーやLED応用機器など単色に近い(スペクトル幅の狭い)発光スペクトルを有する面光源が増えつつあり、これらの輝度、色度を精度良く測定するという要請から、分光型の二次元輝度計の必要性が高くなっている。この分光型の二次元輝度計(二次元分光輝度計)は、以下のマルチフィルター方式、或いはスリット分散像方式をとるものが多い。   Conventionally, a tristimulus type two-dimensional colorimeter using a filter has been used for the brightness and chromaticity of a two-dimensional light source, but in recent years it is close to a single color such as various displays and LED application devices (narrow spectral width). The number of surface light sources having an emission spectrum is increasing, and the need for measuring these luminance and chromaticity with high accuracy is increasing the need for a spectroscopic two-dimensional luminance meter. Many of the spectroscopic two-dimensional luminance meters (two-dimensional spectral luminance meters) adopt the following multi-filter method or slit dispersion image method.

<マルチフィルター方式>
回転円板等に円環状に取り付けられた中心波長の異なる複数のバンドパスフィルター(BPF;Band Pass Filter)を対象光学系の結像光束中に順次挿入し、これら各フィルターの透過波長帯の光束による像を、結像面に置かれた二次元撮像素子によって撮像することで二次元の分光特性情報を得る輝度計測方式(例えば、特許文献1参照)。
<Multi-filter method>
A plurality of band pass filters (BPFs) with different center wavelengths attached in an annular shape to a rotating disk or the like are sequentially inserted into the imaging light flux of the target optical system, and the light flux in the transmission wavelength band of each filter. A luminance measurement method in which two-dimensional spectral characteristic information is obtained by capturing an image obtained by using a two-dimensional image sensor placed on the imaging plane (see, for example, Patent Document 1).

<スリット分散像方式>
測定対象である二次元光源の対物光学系による像を、結像面に置かれたスリットによって切り出す。切り出されたスリット状の像(スリット光源)の分散光学系による波長分散像を、結像面に置かれた二次元撮像素子によって撮像する。そして、測定対象又は測定系を、スリットと直交する方向に走査して二次元の分光特性情報を得る輝度計測方式(例えば、特許文献2参照)。
特開平6−201472号公報 特開平8−50057号公報
<Slit dispersion image method>
An image formed by the objective optical system of the two-dimensional light source to be measured is cut out by a slit placed on the imaging plane. A chromatic dispersion image of the clipped slit-like image (slit light source) by the dispersion optical system is picked up by a two-dimensional image sensor placed on the imaging surface. Then, a luminance measurement method for obtaining two-dimensional spectral characteristic information by scanning the measurement object or measurement system in a direction orthogonal to the slit (see, for example, Patent Document 2).
JP-A-6-201472 JP-A-8-50057

上記マルチフィルター方式及びスリット分散像方式のいずれにおいても、バンドパスフィルターやスリットからの反射成分が存在する。この反射成分は、光学系のレンズ面や装置のハウジング内面等で再反射され、迷光となって再入射される。そして、この再入射された迷光は、撮像素子の撮像によって得られる本来の測定画像(実画像)に対して影響を与えてしまう、すなわち、迷光によって生じる迷光画像が測定画像に重畳されてしまい、当該観察画像の精度、特に高コントラストの画像の精度を劣化させてしまうことになる。バンドパスフィルターやスリットを用いない場合であっても、撮像素子表面や光学系のレンズ表面からの反射光などによって迷光が生じてしまうことは避けられない。   In both the multi-filter method and the slit dispersion image method, there is a reflection component from a band pass filter or a slit. This reflection component is re-reflected by the lens surface of the optical system, the inner surface of the housing of the apparatus, etc., and reenters as stray light. Then, the re-entered stray light has an influence on the original measurement image (actual image) obtained by imaging by the image sensor, that is, the stray light image generated by the stray light is superimposed on the measurement image, The accuracy of the observed image, particularly the accuracy of the high contrast image, is deteriorated. Even when a band-pass filter or slit is not used, stray light is unavoidably caused by reflected light from the surface of the imaging element or the lens surface of the optical system.

本発明は上記事情に鑑みてなされたもので、測定画像に対する迷光の影響が除去されて(迷光補正が行われて)好適な測定画像を得ることができるとともに、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を短縮することができる迷光補正法及びそれを用いた二次元分光輝度計を提供することを目的とする。   The present invention has been made in view of the above circumstances, and the effect of stray light on a measurement image is removed (stray light correction is performed), and a suitable measurement image can be obtained, while stray light is maintained while maintaining sufficient accuracy. It is an object of the present invention to provide a stray light correction method and a two-dimensional spectroluminometer using the same, which can shorten the calculation processing time (correction time) required for correction.

本発明の一の局面に係る迷光補正法は、撮像により得られる観察画像に対する迷光の影響を補正して補正画像を求める迷光補正法であって、前記迷光の影響に基づく迷光画像が重畳された前記観察画像と、予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光に応じて該撮像域の全画素に対して得られる応答画像とから、前記観察画像を構成する画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、当該推定算出された迷光画像を観察画像から除去して実画像に近似する前記補正画像を算出する迷光補正法において、前記撮像により得られる観察画像(O ij (λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(O IJ (λ))に変換する第1の工程と、当該低画素観察画像と低画素数の応答画像((F MN IJ (λ))とから、前記補正画像(R’ ij (λ))の低画素数画像としての低画素補正画像(Q IJ (λ))を算出する第2の工程と、前記低画素観察画像と当該低画素補正画像との差(O IJ (λ)−Q IJ (λ))によって低画素数の迷光画像(B IJ (λ))を算出する第3の工程と、当該低画素数の迷光画像を前記全画素数に対する迷光画像(B ij (λ))に変換する第4の工程と、前記全画素数の観察画像(O ij (λ))から当該全画素数に対する迷光画像(B ij (λ))を減じて前記実画像に近似する補正画像(R’ ij (λ))を算出する第5の工程と、を有することを特徴とする。 A stray light correction method according to one aspect of the present invention is a stray light correction method for obtaining a corrected image by correcting the influence of stray light on an observation image obtained by imaging, wherein the stray light image based on the influence of the stray light is superimposed. From the observation image and the response image obtained in advance for all the pixels in the imaging area in accordance with the incident light of unit intensity to the specific pixel in the imaging area of the observation image that is measured and stored in advance A stray light correction method for estimating and calculating a stray light image using image information having a number of pixels lower than the number of pixels constituting the image, and removing the estimated and calculated stray light image from the observation image to calculate the correction image that approximates the actual image The observation image (O ij (λ)) obtained by the imaging is converted into a low pixel observation image (O IJ (λ)) that is an observation image having a low pixel count with respect to the total number of pixels of the observation image. The first step to The from the low pixel observation image and the low pixel number of the response image ((F MN) IJ (λ )), low-pixel correction image (Q IJ as a low pixel number image of the corrected image (R 'ij (λ)) (Λ)) and a stray light image (B IJ ) having a low number of pixels according to a difference (O IJ (λ) −Q IJ (λ)) between the low pixel observation image and the low pixel corrected image. A third step of calculating (λ)), a fourth step of converting the low stray light image into a stray light image (B ij (λ)) for the total number of pixels, and observation of the total number of pixels A fifth step of calculating a corrected image (R ′ ij (λ)) that approximates the actual image by subtracting the stray light image (B ij (λ)) for the total number of pixels from the image (O ij (λ)) ; , characterized in that it have a.

上記構成によれば、迷光の影響に基づく迷光画像が重畳された観察画像と、迷光補正演算において使用するべく別途校正等によって予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光が該撮像域の全画素上につくる応答画像(本実施形態ではレスポンス画像という)とから、観察画像を構成する画素数より低い画素数の画像情報を用いて迷光画像が推定算出され、この推定算出された迷光画像を観察画像から除去(例えば減算)することで実画像に近似する補正画像(観察画像から迷光の影響を補正した画像)が求められる。したがって、このように迷光補正処理が行われるため、測定画像(観察画像)に対する迷光の影響が除去された好適な測定画像を得ることができる。また、予め測定して求めておいた応答画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像を構成する画素数より低い画素数の画像情報を用いて当該迷光補正を行う方法をとることで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。なお、当該観察画像から迷光の影響が除去されることで、コントラストを有した画像における低輝度画素の精度向上に大きな効果が得られる。   According to the above configuration, the observation image on which the stray light image based on the influence of the stray light is superimposed, and the specific pixel in the imaging area of the observation image that is measured and stored in advance by calibration or the like to be used in the stray light correction calculation. A stray light image is estimated from a response image (referred to as a response image in this embodiment) created by incident light of unit intensity on all pixels in the imaging area, using image information having a number of pixels lower than the number of pixels constituting the observation image. The calculated and calculated stray light image is removed (for example, subtracted) from the observation image, thereby obtaining a corrected image (an image obtained by correcting the influence of stray light from the observation image). Therefore, since the stray light correction process is performed in this way, a suitable measurement image from which the influence of stray light on the measurement image (observation image) is removed can be obtained. In addition, the calculation at the time of actual measurement is efficiently performed by using the response image information obtained by measurement in advance, and the image information having the number of pixels lower than the number of pixels constituting the observation image is used. The method of performing stray light correction makes it possible to reduce the amount of data handled at the time of calculation. On the other hand, with a low pixel count for stray light images whose spatial frequency is much lower than the observed image. Even if this calculation is applied, the error from the case of not performing the calculation with a low number of pixels is small, so that the calculation processing time (correction time) required for stray light correction is significantly reduced while maintaining sufficient accuracy. can do. Note that, by removing the influence of stray light from the observed image, a great effect can be obtained in improving the accuracy of low-luminance pixels in an image having contrast.

さらに、上記第1〜第5の工程によって迷光補正演算が行われるため、扱うデータ量及び演算処理時間を大幅に削減(短縮)しながら、充分な精度で(元の全画素数の)観察画像に対する迷光補正を行うことが可能となる。 Furthermore, since the stray light correction calculation is performed in the first to fifth steps, the observation image (with the original total number of pixels) can be obtained with sufficient accuracy while greatly reducing (shortening) the amount of data to be handled and the calculation processing time. It is possible to perform stray light correction on the.

上記構成において、前記低画素観察画像(OIJ(λ))に対する仮の実画像としての低画素補正画像(QIJ(λ))と応答画像((FMNIJ(λ))とから擬似観察画像(O’IJ(λ))を算出し、当該擬似観察画像と低画素観察画像との差による差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像(QIJ(λ))を再補正し、当該再補正した低画素補正画像(QIJ(λ))と前記応答画像とから新たな擬似観察画像(O’IJ(λ))を算出し、当該新たな擬似観察画像と前記低画素観察画像との差による新たな差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像をさらに補正する漸近演算を、当該差画像による誤差が所定値以下となるまで繰り返し行うことで、前記第2の工程における低画素補正画像(QIJ(λ))を算出することが望ましい。 In the above configuration , the low pixel corrected image (Q IJ (λ)) and the response image ((F MN ) IJ (λ)) as a temporary actual image with respect to the low pixel observation image (O IJ (λ)) are simulated. An observation image (O ′ IJ (λ)) is calculated, and a low pixel correction image (Q is calculated by a difference image (O ′ IJ (λ) −O IJ (λ)) due to a difference between the pseudo observation image and the low pixel observation image. IJ (λ)) is re-corrected, and a new pseudo-observation image (O ′ IJ (λ)) is calculated from the re-corrected low pixel correction image (Q IJ (λ)) and the response image. An asymptotic operation for further correcting the low pixel correction image with a new difference image (O ′ IJ (λ) −O IJ (λ)) based on the difference between the simple pseudo observation image and the low pixel observation image is an error caused by the difference image. In the second step by repeatedly performing until the value becomes equal to or less than a predetermined value. It is desirable to calculate the pixel correction image (Q IJ (λ)).

この構成によれば、低画素観察画像(OIJ(λ))と低画素数の応答画像((FMNIJ(λ))とから、漸近法によって(第2の工程における)低画素補正画像(QIJ(λ))を算出する方法をとるため、より簡易な処理プログラムを用いて、短い演算処理時間で精度の高い低画素補正画像を得ることが可能となり、ひいては迷光補正全体に対する更なる演算処理時間の短縮、演算精度(補正画像(R’ij(λ))の精度)向上を図ることができる。 According to this configuration, the low pixel correction (in the second step) is performed from the low pixel observation image (O IJ (λ)) and the response image ((F MN ) IJ (λ)) having a low number of pixels by an asymptotic method. Since the method of calculating the image (Q IJ (λ)) is used, it is possible to obtain a low-pixel corrected image with high accuracy in a short calculation processing time by using a simpler processing program, and thus, further to the entire stray light correction. The calculation processing time can be shortened and the calculation accuracy (the accuracy of the corrected image (R ′ ij (λ))) can be improved.

上記構成において、前記全画素数の画像がビニングされ、所定数の画素が一纏めにされた所定数の画素セットからなる画素セット画像を前記低画素数の画像とすることが望ましい。この構成によれば、全画素数の画像(例えば観察画像(Oij(λ))や迷光画像(Bij(λ)))がビニングされることで、容易に低画素数の画像(例えば低画素数の観察画像(OIJ(λ))や迷光画像(BIJ(λ)))を得ることができる。 In the above-described configuration, it is preferable that the image having the total number of pixels is binned, and a pixel set image including a predetermined number of pixel sets in which the predetermined number of pixels are grouped is used as the low pixel number image . According to this configuration, an image with a total number of pixels (for example, an observation image (O ij (λ)) or a stray light image (B ij (λ))) is easily binned, so that an image with a low number of pixels (for example, a low image) An observation image (O IJ (λ)) or stray light image (B IJ (λ))) of the number of pixels can be obtained.

上記構成において、前記観察画像の撮像域における前記各画素セットに点光源からの光を結像させて撮像した画像に基づいて前記応答画像を得ることが望ましい。この構成によれば、各画素に対してではなく、各画素セットに点光源からの光を結像(照射)させて撮像した画像に基づいて応答画像を得るため、(当該応答画像を用いる二次元分光輝度計個々に応じた)応答画像を、実験的に且つ容易に取得することができる。 In the above configuration , it is preferable that the response image is obtained based on an image captured by forming light from a point light source on each pixel set in the imaging region of the observation image . According to this configuration, in order to obtain a response image based on an image picked up by irradiating (irradiating) light from a point light source to each pixel set, not for each pixel, Response images (depending on the individual dimensional spectroluminometer) can be acquired experimentally and easily.

上記構成において、前記迷光補正の演算処理を、観察画像の撮像における入射光の波長ごとに行うことが望ましい。この構成によれば、迷光補正処理を観察画像の撮像における入射光の波長ごとに(本実施形態では、ウェッジバンドパスフィルタによる分光透過光の中心波長λに応じて)行うので、迷光の要因に波長依存性があったとしても効果的に当該迷光補正を行うことができる。 In the above-described configuration , it is desirable that the stray light correction calculation process be performed for each wavelength of incident light in imaging an observation image . According to this configuration, the stray light correction process is performed for each wavelength of incident light in the imaging of the observation image (in this embodiment, according to the center wavelength λ of the spectrally transmitted light by the wedge band pass filter). Even if there is wavelength dependency, the stray light correction can be performed effectively.

本発明の他の局面に係る二次元分光輝度計は、撮像により得られる観察画像に対する迷光の影響を補正して補正画像を求める迷光補正演算を行う二次元分光輝度計であって、前記迷光の影響に基づく迷光画像が重畳された前記観察画像と、予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光に応じて該撮像域の全画素に対して得られる応答画像とから、前記観察画像の画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、当該推定算出された迷光画像を観察画像から除去して実画像に近似する前記補正画像を算出する迷光補正演算手段を備え、前記迷光補正演算手段は、前記撮像により得られる観察画像(O ij (λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(O IJ (λ))に変換し、当該低画素観察画像と低画素数の応答画像((F MN IJ (λ))とから、前記補正画像(R’ ij (λ))の低画素数画像としての低画素補正画像(Q IJ (λ))を算出し、前記低画素観察画像と当該低画素補正画像との差(O IJ (λ)−Q IJ (λ))によって低画素数の迷光画像(B IJ (λ))を算出し、当該低画素数の迷光画像を前記全画素数に対する迷光画像(B ij (λ))に変換し、さらに、前記全画素数の観察画像(O ij (λ))から当該全画素数に対する迷光画像(B ij (λ))を減じて前記実画像に近似する補正画像(R’ ij (λ))を算出する、ことを特徴とする。 A two-dimensional spectroluminometer according to another aspect of the present invention is a two-dimensional spectroluminometer that performs a stray light correction calculation to obtain a corrected image by correcting the influence of stray light on an observation image obtained by imaging. Obtained for all the pixels in the imaging area according to the observation image on which the stray light image based on the influence is superimposed and the incident light of unit intensity to the specific pixel in the imaging area of the observation image that is measured and stored in advance. The correction is performed to estimate and calculate a stray light image using image information having a lower number of pixels than the number of pixels of the observation image, and to remove the estimated and calculated stray light image from the observation image and approximate the actual image Stray light correction calculating means for calculating an image , wherein the stray light correction calculating means is configured to observe an observation image (O ij (λ)) obtained by the imaging with a lower number of pixels than the total number of pixels of the observation image. Low image that is an image An original observation image (O IJ (λ)) is converted, and the corrected image (R ′ ij (λ)) is converted from the low pixel observation image and the response image ((F MN ) IJ (λ)). A low pixel corrected image (Q IJ (λ)) as a low pixel number image is calculated, and the difference between the low pixel observed image and the low pixel corrected image (O IJ (λ) −Q IJ (λ)) is calculated. A low stray light image (B IJ (λ)) is calculated, the low stray light image is converted into a stray light image (B ij (λ)) for the total number of pixels, and the total number of pixels A corrected image (R ′ ij (λ)) that approximates the actual image is calculated by subtracting the stray light image (B ij (λ)) for the total number of pixels from the observed image (O ij (λ)). And

上記構成によれば、迷光補正演算手段によって、迷光の影響に基づく迷光画像が重畳された観察画像と、迷光補正演算において使用するべく別途校正等によって予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光が該撮像域の全画素上につくる応答画像とから、観察画像の画素数より低い画素数の画像情報を用いて迷光画像が推定算出され、この推定算出された迷光画像を観察画像から除去(例えば減算)することで実画像に近似する補正画像が求められる。したがって、このように迷光補正処理が行われるため、測定画像(観察画像)に対する迷光の影響が除去された好適な測定画像を得ることができる。また、予め測定して求めておいた応答画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像の画素数より低い画素数の画像情報を用いて当該迷光補正を行うことで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。   According to the above configuration, the observation image on which the stray light image based on the influence of the stray light is superimposed by the stray light correction calculation means, and the observation image captured and stored in advance by calibration or the like to be used in the stray light correction calculation. A stray light image is estimated and calculated from image data having a pixel number lower than the number of pixels in the observation image from the response image created by incident light of unit intensity on a specific pixel in the region on all pixels in the imaging region. By removing (for example, subtracting) the calculated stray light image from the observed image, a corrected image that approximates the actual image is obtained. Therefore, since the stray light correction process is performed in this way, a suitable measurement image from which the influence of stray light on the measurement image (observation image) is removed can be obtained. In addition, calculation at the time of actual measurement is efficiently performed by using response image information obtained by measurement in advance, and the stray light correction is performed using image information having a pixel number lower than the number of pixels of the observation image. It is possible to reduce the amount of data handled at the time of calculation, while applying the calculation with the low pixel count to the stray light image whose spatial frequency is much lower than the observation image. However, since the error from the case where the calculation with the low number of pixels is not performed becomes small, the calculation processing time (correction time) required for the stray light correction can be greatly shortened while maintaining sufficient accuracy.

本発明の一の局面に係る構成によれば、観察画像と予め測定された応答画像とから観察画像の画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、この算出した迷光画像を観察画像から除去することで実画像に近似する補正画像を求める、というように迷光補正処理が行われるため、測定画像(観察画像)に対する迷光の影響が除去された好適な測定画像を得ることができる。また、予め測定して求めておいた応答画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像を構成する画素数より低い画素数の画像情報を用いて当該迷光補正を行う方法をとることで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。なお、観察画像から迷光の影響が除去されることで、コントラストを有した画像における低輝度画素の精度向上に大きな効果を得ることができる。 According to the configuration of one aspect of the present invention, the stray light image is estimated and calculated from the observation image and the response image measured in advance using the image information having the number of pixels lower than the number of pixels of the observation image, and the calculated stray light Since a stray light correction process is performed such as obtaining a corrected image that approximates the actual image by removing the image from the observation image, a suitable measurement image in which the influence of stray light on the measurement image (observation image) is removed is obtained. be able to. In addition, the calculation at the time of actual measurement is efficiently performed by using the response image information obtained by measurement in advance, and the image information having the number of pixels lower than the number of pixels constituting the observation image is used. The method of performing stray light correction makes it possible to reduce the amount of data handled at the time of calculation. On the other hand, with a low pixel count for stray light images whose spatial frequency is much lower than the observed image. Even if this calculation is applied, the error from the case of not performing the calculation with a low number of pixels is small, so that the calculation processing time (correction time) required for stray light correction is significantly reduced while maintaining sufficient accuracy. can do. Note that, by removing the influence of stray light from the observed image, a great effect can be obtained in improving the accuracy of low-luminance pixels in an image having contrast.

また、第1〜第5の工程によって迷光補正演算が行われるため、扱うデータ量及び演算処理時間を大幅に削減(短縮)しながら、充分な精度で(元の全画素数の)観察画像に対する迷光補正を行うことが可能となる。 Further, since the stray light correction calculation is performed in the first to fifth steps, the amount of data to be handled and the calculation processing time are greatly reduced (shortened), and the observation image (with the original total number of pixels) is sufficiently accurate. It becomes possible to perform stray light correction.

また、低画素観察画像と低画素数の応答画像とから、漸近法によって低画素補正画像を算出する方法をとるため、より簡易な処理プログラムを用いて、短い演算処理時間で精度の高い低画素補正画像を得ることが可能となり、ひいては迷光補正全体に対する更なる演算処理時間の短縮、演算精度向上を図ることができる。 In addition, since a low pixel correction image is calculated by an asymptotic method from a low pixel observation image and a low pixel response image, a simple processing program is used and a low pixel with high accuracy in a short calculation processing time. A corrected image can be obtained, and as a result, calculation time for the entire stray light correction can be further shortened and calculation accuracy can be improved.

また、全画素数の画像(全画素数の観察画像や迷光画像等)がビニングされることで、容易に低画素数の画像(低画素数の観察画像や迷光画像等)を得ることができる。 Also, by binning an image with the total number of pixels (an observation image with a total number of pixels, a stray light image, etc.), an image with a low number of pixels (an observation image with a low number of pixels, a stray light image, etc.) can be easily obtained. .

また、各画素に対してではなく、各画素セットに点光源からの光を結像(照射)させて撮像した画像に基づいて応答画像を得るため、(当該応答画像を用いる二次元分光輝度計個々に応じた)応答画像を、実験的に且つ容易に取得することができる。 In addition, in order to obtain a response image based on an image picked up by irradiating (irradiating) light from a point light source to each pixel set, not to each pixel, a two-dimensional spectral luminance meter using the response image Response images can be acquired experimentally and easily.

また、迷光補正処理を観察画像の撮像における入射光の波長ごとに行うので、迷光の要因に波長依存性があったとしても効果的に当該迷光補正を行うことができる。 In addition, since the stray light correction process is performed for each wavelength of incident light in the imaging of the observation image, the stray light correction can be performed effectively even if the cause of the stray light has wavelength dependency.

本発明の他の局面に係る構成によれば、観察画像と予め測定された応答画像とから観察画像の画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、この算出した迷光画像を観察画像から除去することで実画像に近似する補正画像を求める、というように迷光補正処理が行われるため、測定画像(観察画像)に対する迷光の影響が除去された好適な測定画像を得ることができる。また、予め測定して求めておいた応答画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像を構成する画素数より低い画素数の画像情報を用いて当該迷光補正を行う方法をとることで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。 According to the configuration according to another aspect of the present invention, the stray light image is estimated and calculated from the observation image and the response image measured in advance using the image information having the number of pixels lower than the number of pixels of the observation image, and the calculated stray light Since a stray light correction process is performed such as obtaining a corrected image that approximates the actual image by removing the image from the observation image, a suitable measurement image in which the influence of stray light on the measurement image (observation image) is removed is obtained. be able to. In addition, the calculation at the time of actual measurement is efficiently performed by using the response image information obtained by measurement in advance, and the image information having the number of pixels lower than the number of pixels constituting the observation image is used. The method of performing stray light correction makes it possible to reduce the amount of data handled at the time of calculation. On the other hand, with a low pixel count for stray light images whose spatial frequency is much lower than the observed image. Even if this calculation is applied, the error from the case of not performing the calculation with a low number of pixels is small, so that the calculation processing time (correction time) required for stray light correction is significantly reduced while maintaining sufficient accuracy. can do.

また、扱うデータ量及び演算処理時間を大幅に削減(短縮)しながら、充分な精度で(元の全画素数の)観察画像に対する迷光補正を行うことが可能となる。In addition, it is possible to perform stray light correction on the observation image (with the original total number of pixels) with sufficient accuracy while greatly reducing (shortening) the amount of data to be handled and the calculation processing time.

以下、図面に基づいて、本発明の実施形態につき説明する。
(二次元分光輝度計の全体的な説明)
図1は、本発明に係る二次元分光輝度計1の一例を示す概略構造図である。二次元分光輝度計1は、対物光学系2、副透過帯除去フィルタ3、第1コンデンサーレンズ4、第2コンデンサーレンズ5、リレーレンズ6、撮像素子7、画像信号処理部8、主制御部9、及び走査ウェッジバンドパスフィルタ10を備えて構成されている。対物光学系2は、測定対象である二次元光源Lからの光束Laを入射させ、第1像面2bに第1像2aを作る光学レンズ(レンズ群)である。副透過帯除去フィルタ3は、後述のWBPF12の副透過帯透過光を除去するフィルターである。具体的には、このWBPF12は入射光の中心波長の1/2倍及び2倍の波長位置に副透過帯を有するものとされている(例えば、中心波長を約400nmとすると、約200nm及び800nmの波長位置に副透過帯を有している)が、副透過帯除去フィルタ3は、このような副透過帯を有したWBPF12に対する、例えば約380nm以下及び720nm以上の波長の光を遮断することで当該副透過帯透過光の除去を行う。副透過帯除去フィルタ3は、第1コンデンサーレンズ4の前方に配置されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Overall description of the two-dimensional spectral luminance meter)
FIG. 1 is a schematic structural diagram showing an example of a two-dimensional spectral luminance meter 1 according to the present invention. The two-dimensional spectral luminance meter 1 includes an objective optical system 2, a sub-transmission band removal filter 3, a first condenser lens 4, a second condenser lens 5, a relay lens 6, an image sensor 7, an image signal processing unit 8, and a main control unit 9. , And a scanning wedge bandpass filter 10. The objective optical system 2 is an optical lens (lens group) that makes a light beam La from a two-dimensional light source L, which is a measurement target, incident thereon and creates a first image 2a on a first image surface 2b. The sub-transmission band removing filter 3 is a filter that removes sub-band transmission light of the WBPF 12 described later. Specifically, the WBPF 12 has a sub-transmission band at a wavelength position that is 1/2 and 2 times the center wavelength of incident light (for example, when the center wavelength is about 400 nm, about 200 nm and 800 nm). However, the sub-transmission band removing filter 3 blocks light having a wavelength of, for example, about 380 nm or less and 720 nm or more with respect to the WBPF 12 having such a sub-transmission band. Then, the sub-transmission band transmitted light is removed. The sub-transmission band removal filter 3 is disposed in front of the first condenser lens 4.

第1コンデンサーレンズ4及び第2コンデンサーレンズ5は、光束Laを絞る、即ち集光(集束)するためのレンズである。第1コンデンサーレンズ4は、対物光学系2からの光束LaがWBPF12に対して発散するのを防ぎ、対物光学系2からの光束Laを第1像面2bに集光させる。第2コンデンサーレンズ5も同様に、WBPF12を透過した光束Laをリレーレンズ6に集光させる。   The first condenser lens 4 and the second condenser lens 5 are lenses for converging, that is, condensing (converging) the light beam La. The first condenser lens 4 prevents the light beam La from the objective optical system 2 from diverging to the WBPF 12, and condenses the light beam La from the objective optical system 2 on the first image plane 2b. Similarly, the second condenser lens 5 condenses the light beam La transmitted through the WBPF 12 on the relay lens 6.

リレーレンズ6は、第1像2aを作った光束La(光像)を撮像素子7へ向けて等倍でリレーするレンズであり、第2像面6bにおいて第2像6aをつくる。ところで、第1コンデンサーレンズ4の焦点は、対物光学系2の後方主点近傍にあり、対物光学系2から射出して第1像2aの各画素をつくって収束する光束Laの主光線を、入射部位に拘わらず光軸と略平行(平行光束)にして、後述のWBPF12(干渉BPF)がもつ中心波長の入射角依存性の影響を抑制している。また、第2コンデンサーレンズ5の焦点はリレーレンズ6の前方主点近傍にあり、WBPF12を通過した光束Laを有効にリレーレンズ6に入射させる。   The relay lens 6 is a lens that relays the light beam La (light image) that formed the first image 2a toward the image sensor 7 at the same magnification, and creates the second image 6a on the second image plane 6b. By the way, the focal point of the first condenser lens 4 is in the vicinity of the rear principal point of the objective optical system 2, and the principal ray of the luminous flux La that emerges from the objective optical system 2 to form each pixel of the first image 2a and converges, Regardless of the incident part, it is made substantially parallel (parallel light flux) to the optical axis, thereby suppressing the influence of the incident angle dependence of the center wavelength of WBPF 12 (interference BPF) described later. The focal point of the second condenser lens 5 is in the vicinity of the front principal point of the relay lens 6, and the light beam La that has passed through the WBPF 12 is effectively incident on the relay lens 6.

撮像素子7は、第2像面6bに配置され、すなわち該撮像素子7の撮像面(受光面)が第2像面6bと重なる位置となるよう配置され、第2像6aを作る光束Laを受光(結像)して該第2像6aを撮像するものである。撮像素子7は、例えば1000×1000画素で約7.4mm角(1辺が7.4mm)の2次元の撮像域(撮像面)を有しており、撮像域に光束Laが結像されると、当該撮像域における約7.4μm角の画素毎に電気信号に変換(光電変換)し、画像信号処理部8へこの画像信号を出力する。   The image pickup device 7 is arranged on the second image plane 6b, that is, arranged so that the image pickup surface (light receiving surface) of the image pickup device 7 overlaps with the second image plane 6b, and the light beam La that forms the second image 6a is generated. The second image 6a is picked up by receiving (imaging) light. The imaging element 7 has, for example, a 1000 × 1000 pixel two-dimensional imaging area (imaging surface) of about 7.4 mm square (one side is 7.4 mm), and a light beam La is imaged in the imaging area. Then, each pixel of about 7.4 μm square in the imaging area is converted into an electrical signal (photoelectric conversion), and this image signal is output to the image signal processing unit 8.

画像信号処理部8は、撮像素子7から送出される画像信号に対して所定の信号処理(アナログ信号処理及びデジタル信号処理)を施すものである。画像信号処理部8は、アナログ信号からデジタル信号へA/D変換を行う機能を備えており、当該デジタル信号を主制御部9へ送信する。   The image signal processing unit 8 performs predetermined signal processing (analog signal processing and digital signal processing) on the image signal transmitted from the image sensor 7. The image signal processing unit 8 has a function of performing A / D conversion from an analog signal to a digital signal, and transmits the digital signal to the main control unit 9.

主制御部9は、各制御プログラム等を記憶するROM(Read Only Memory)、演算処理や制御処理用のデータを格納するRAM(Random Access Memory)、及び当該制御プログラム等をROMから読み出して実行するCPU(中央演算処理装置)等からなり、二次元分光輝度計1全体の動作制御を司るものである。   The main control unit 9 reads out and executes a ROM (Read Only Memory) that stores each control program, a RAM (Random Access Memory) that stores data for arithmetic processing and control processing, and the control program. It consists of a CPU (Central Processing Unit) and the like, and controls operation of the entire two-dimensional spectral luminance meter 1.

主制御部9は、後述の走査WBPF10による各走査ステップに応じて撮像素子7により撮像された画像(画素列毎に異なる透過波長情報を有する画像)を画像信号処理部8を介して分光感度が異なる複数の画像として取り込み、上記RAM等に予め記憶しておいた後述のレスポンス画像情報や所定の係数(例えば校正係数や重価係数)等の情報に基づいて、当該画像に対する迷光補正や輝度補正を行なったり、後述の三刺激値を求めるといった各種演算処理を行う機能も備えている。なお、主制御部9は、取り込んだ各画像を記憶しておくための専用の記憶部(例えば画像メモリ)を別途備えていてもよい。   The main control unit 9 has a spectral sensitivity of an image (an image having different transmission wavelength information for each pixel column) captured by the image sensor 7 in accordance with each scanning step by the scanning WBPF 10 described later via the image signal processing unit 8. Based on information such as response image information, which will be described later, and predetermined coefficients (for example, calibration coefficient and weight coefficient), which are captured as a plurality of different images and stored in advance in the RAM or the like, stray light correction and luminance correction for the images are performed. And a function of performing various arithmetic processes such as obtaining tristimulus values described later. The main control unit 9 may separately include a dedicated storage unit (for example, an image memory) for storing each captured image.

走査ウェッジバンドパスフィルタ(Wedge Band Pass Filter:WBPF)10は、波長(WBPF12の中心波長)の異なる単色光(分光透過光)を取り出すものである。走査WBPF10は、該走査WBPF10における後述のWBPF12(フィルター保持板11)を、各レンズの光軸に対して垂直方向(x方向)に所定距離ずつ複数の走査ステップで順に移動(スライド移動)させることで、相対的にWBPF12を光束Laによって走査するようにして当該波長の異なる単色光を取り出す。なお、走査WBPF10は、第1像面2b近傍(走査WBPF10の入射面が第1像面2bと重なる位置となる場合も含む)に配置される構成となっている。また、走査WBPF10による「走査」とは、(位置固定された)光束Laに対して、上記WBPF12(フィルター保持板11)を走査方向(x方向)に沿って移動させる動作を示すものとする。走査WBPF10の詳細については後述する。   A scanning wedge band pass filter (WBPF) 10 extracts monochromatic light (spectral transmitted light) having different wavelengths (center wavelength of the WBPF 12). The scanning WBPF 10 sequentially moves (slides) a later-described WBPF 12 (filter holding plate 11) in the scanning WBPF 10 by a plurality of scanning steps in a vertical direction (x direction) with respect to the optical axis of each lens. Thus, the monochromatic light having different wavelengths is extracted by relatively scanning the WBPF 12 with the light beam La. The scanning WBPF 10 is arranged in the vicinity of the first image plane 2b (including the case where the incident surface of the scanning WBPF 10 overlaps the first image plane 2b). Further, “scanning” by the scanning WBPF 10 indicates an operation of moving the WBPF 12 (filter holding plate 11) along the scanning direction (x direction) with respect to the light beam La (fixed in position). Details of the scanning WBPF 10 will be described later.

二次元光源Lから放射された光束Laは、対物光学系2に入射し、副透過帯除去フィルタ3を通って副透過帯透過光が除去された後、第1コンデンサーレンズ4によって走査WBPF10(WBPF12)に集光され第1像面2bに第1像2aを形成(結像)する。第1像2aを形成した光束Laは、走査WBPF10(WBPF12)を通って分光され、この分光された光束Laは 第2コンデンサーレンズ5を通ってリレーレンズ6に入り、リレーレンズ6によって(光束Laによる第1像2aが)等倍でリレーされ、第2像面6bに第2像6aを形成する。そして、この第2像6aが撮像素子7によって撮像され、この撮影画像(信号)は、画像信号処理部8に送信されてA/D変換等の信号処理が施された後、主制御部9へ送信される。そして、主制御部9において当該撮影画像から迷光画像を除去するといったことに関する各種演算処理が行われる。   The light beam La emitted from the two-dimensional light source L is incident on the objective optical system 2 and passes through the sub-transmission band removal filter 3 to remove the sub-transmission band transmission light. Then, the first condenser lens 4 scans the WBPF 10 (WBPF12). The first image 2a is formed (imaged) on the first image plane 2b. The light beam La that forms the first image 2a is split through the scanning WBPF 10 (WBPF 12), and the split light beam La passes through the second condenser lens 5 and enters the relay lens 6, and the relay lens 6 (the light beam La). The first image 2a is relayed at the same magnification) to form the second image 6a on the second image surface 6b. Then, the second image 6 a is picked up by the image pickup device 7, and this captured image (signal) is transmitted to the image signal processing unit 8 and subjected to signal processing such as A / D conversion, and then the main control unit 9. Sent to. Then, various arithmetic processes related to removing the stray light image from the captured image are performed in the main control unit 9.

ここで、図2を用いて走査WBPF10について詳述する。図2に示すように、走査WBPF10は、フィルター保持板11、WBPF12及び走査駆動部13を備えて構成されている。フィルター保持板11は、WBPF12を保持するためものである。フィルター保持板11は外形が略長方形状の板状体(WBPF12の枠体)であり、その略中央部には開口部111が形成されている。この開口部111は、例えばx方向(走査方向)に約20mm、これと直交するy方向に約9mmの長さ(縁)を有したサイズに形成さており、この開口部111に、WBPF12が嵌合されるなどして設けられている。WBPF12内に図示された点線枠は、撮像素子7に結像させるための光束Laが通過する箇所(この箇所は位置固定されている)、すなわち、上記WBPF12上に結像される第1像2aを示しており、この点線枠のサイズ及び形状は、撮像素子7の撮像面に対応した、例えば上記約7.4mm角の正方形状となっている。   Here, the scanning WBPF 10 will be described in detail with reference to FIG. As shown in FIG. 2, the scanning WBPF 10 includes a filter holding plate 11, a WBPF 12, and a scanning drive unit 13. The filter holding plate 11 is for holding the WBPF 12. The filter holding plate 11 is a plate-like body (frame body of the WBPF 12) whose outer shape is substantially rectangular, and an opening 111 is formed at a substantially central portion thereof. For example, the opening 111 is formed in a size having a length (edge) of about 20 mm in the x direction (scanning direction) and about 9 mm in the y direction orthogonal to the x direction (scanning direction). The WBPF 12 is fitted into the opening 111. It is provided by combining. A dotted line frame illustrated in the WBPF 12 is a portion through which the light beam La for imaging on the image sensor 7 passes (this portion is fixed in position), that is, the first image 2a imaged on the WBPF 12. The size and shape of the dotted frame is, for example, a square shape of about 7.4 mm square corresponding to the imaging surface of the imaging device 7.

フィルター保持板11は、x方向における開口部111を挟んだその両端部(左右端部)の領域に、第1遮光部112及び第2遮光部113を備えている。これら第1及び第2遮光部112、113は、少なくとも上記点線枠に示す第1像2aのサイズを有しており、フィルター保持板11のx方向における移動によって、第1遮光部112又は第2遮光部113が第1像2a(撮像域)の位置にきた場合には、当該遮光部により撮像素子7に対する光束Laの遮光(遮蔽)が行われる構成となっている。このように、フィルター保持板11に第1及び第2遮光部112、113が併設されていることで、フィルター保持板11が撮像素子7に対する遮光を行うための所謂シャッターとしての機能を兼ね備えることになる(これによりシャッターを別途設けなくともよく、構成の簡易化が図れる)。   The filter holding plate 11 includes a first light-shielding portion 112 and a second light-shielding portion 113 in the region of both end portions (left and right end portions) sandwiching the opening 111 in the x direction. The first and second light shielding portions 112 and 113 have at least the size of the first image 2a indicated by the dotted frame, and the first light shielding portion 112 or the second light shielding portion 112 is moved by the movement of the filter holding plate 11 in the x direction. When the light shielding portion 113 comes to the position of the first image 2a (imaging area), the light shielding portion shields (shields) the light beam La from the imaging element 7. As described above, since the filter holding plate 11 is provided with the first and second light shielding portions 112 and 113, the filter holding plate 11 also has a function as a so-called shutter for shielding light from the image sensor 7. (Thus, it is not necessary to provide a separate shutter, and the configuration can be simplified).

WBPF12は、走査方向において異なった中心波長を有する透過光を得るためのフィルタである。具体的には、WBPF12は、WBPF12の各部位(座標(x、y)の位置)における透過光の中心波長λ(中心波長λc(x、y))が、y方向に沿って一定で、且つx方向に沿って約17nm/mmで連続的に(滑らかに)変化する所謂干渉バンドパスフィルタ(BPF)である。WBPF12の中心波長は、x座標を後述の走査ステップ毎の移動幅d(=0.296mm)を用いて表現すると、x=0〜64d(0〜18.9mm)の走査範囲において約390〜710nmまで連続的に変化する。このように部位に応じて中心波長の異なるWBPF12は、例えば図3に示すWBPF12のように、走査方向(x方向)に膜厚が(直線的に)変化する所謂楔型の干渉フィルターとされている。   The WBPF 12 is a filter for obtaining transmitted light having different center wavelengths in the scanning direction. Specifically, in the WBPF 12, the center wavelength λ (center wavelength λc (x, y)) of transmitted light at each part (position of coordinates (x, y)) of the WBPF 12 is constant along the y direction, and This is a so-called interference bandpass filter (BPF) that continuously (smoothly) changes at about 17 nm / mm along the x direction. The center wavelength of the WBPF 12 is about 390 to 710 nm in the scanning range of x = 0 to 64d (0 to 18.9 mm) when the x coordinate is expressed using a movement width d (= 0.296 mm) for each scanning step described later. Change continuously. In this way, the WBPF 12 having a different center wavelength depending on the part is a so-called wedge-shaped interference filter whose film thickness changes (linearly) in the scanning direction (x direction), such as the WBPF 12 shown in FIG. Yes.

走査駆動部13は、フィルター保持板11を走査方向(x方向)に沿って移動させることで、光束La(第1像2a)に対する、WBPF12並びに第1及び第2遮光部112、113の走査(走査駆動)を行うものである。走査駆動部13は、ステッピングモータ14、回転軸15、連結部材16及び駆動回路17を備えて構成されている。ステッピングモータ14は、回転軸15を回転駆動させるモータであり、パルス信号(デジタル信号)が入力されるごとに所定の回転速度で一定角度ずつ回転する。連結部材16は、回転軸15とフィルター保持板11とを平行移動可能に連結するためのものであり、フィルター保持板11に対して固設されている。ここでは、連結部材16は、例えば第1遮光部112側の一端部においてフィルター保持板11と一体的に設けられている。なお、連結部材16は、フィルター保持板11がx方向に移動(走査)可能となるのであれば、フィルター保持板11に対する任意の位置(例えば第2遮光部113側でもよい)及び任意の構成で設けられてもよい。   The scanning drive unit 13 scans the WBPF 12 and the first and second light shielding units 112 and 113 with respect to the light beam La (first image 2a) by moving the filter holding plate 11 along the scanning direction (x direction). Scanning drive). The scanning drive unit 13 includes a stepping motor 14, a rotating shaft 15, a connecting member 16, and a drive circuit 17. The stepping motor 14 is a motor that rotationally drives the rotary shaft 15 and rotates by a predetermined angle at a predetermined rotational speed every time a pulse signal (digital signal) is input. The connecting member 16 is for connecting the rotary shaft 15 and the filter holding plate 11 so as to be movable in parallel, and is fixed to the filter holding plate 11. Here, the connecting member 16 is provided integrally with the filter holding plate 11 at, for example, one end portion on the first light shielding portion 112 side. The connecting member 16 has an arbitrary position with respect to the filter holding plate 11 (for example, the second light shielding portion 113 side) and an arbitrary configuration as long as the filter holding plate 11 can move (scan) in the x direction. It may be provided.

回転軸15は、連結部材16と連結した状態で該連結部材16を移動させるもの(軸体)であり、例えばその全長に亘って螺子部が形成されてなり、これによって連結部材16と螺合されている。回転軸15は、ステッピングモータ14の回転軸をなすものであり、ステッピングモータ14の回転駆動に応じて回転することで連結部材16を走査方向(x方向)に移動させる構成となっている。駆動回路17は、ステッピングモータ14の駆動を制御するものであり、ステッピングモータに応じたパルス信号を出力して、ステッピングモータ14の回転駆動(回転角度、回転速度)を制御する。なお、駆動回路17によるステッピングモータ14の回転駆動制御は、主制御部9からの走査駆動制御指示信号に基づいて行われる。   The rotating shaft 15 is a member (shaft body) that moves the connecting member 16 in a state of being connected to the connecting member 16. For example, a screw portion is formed over the entire length of the rotating shaft 15, and thereby the screw is engaged with the connecting member 16. Has been. The rotating shaft 15 forms a rotating shaft of the stepping motor 14 and is configured to move the connecting member 16 in the scanning direction (x direction) by rotating according to the rotational driving of the stepping motor 14. The drive circuit 17 controls the drive of the stepping motor 14 and outputs a pulse signal corresponding to the stepping motor to control the rotation drive (rotation angle and rotation speed) of the stepping motor 14. Note that the rotation drive control of the stepping motor 14 by the drive circuit 17 is performed based on a scanning drive control instruction signal from the main control unit 9.

このように走査駆動部13は、主制御部9の走査駆動制御指示に応じて、駆動回路17によりステッピングモータ14を駆動させ、回転軸15及び連結部材16を介してフィルター保持板11をx方向(正方向又は負方向)に移動させる。ただし、この移動による走査は、WBPF12の中心波長5nmピッチに相当する約0.296mm(上述したWBPF12の中心波長が約17nm/mmで変化することに基づき算出)の移動幅を有する走査ステップで行われるよう制御される。   As described above, the scanning drive unit 13 drives the stepping motor 14 by the drive circuit 17 in accordance with the scanning drive control instruction of the main control unit 9, and moves the filter holding plate 11 in the x direction via the rotating shaft 15 and the connecting member 16. Move in the positive or negative direction. However, scanning by this movement is performed in a scanning step having a movement width of about 0.296 mm (calculated based on the change of the center wavelength of the WBPF 12 described above at about 17 nm / mm) corresponding to the center wavelength of the WBPF 12 of 5 nm. To be controlled.

なお、当該走査駆動部13によるフィルター保持板11の移動に関し、上述したように副透過帯除去フィルタ3はWBPF12と別に設けられているため、走査駆動部13による当該移動は、WBPF12及びフィルター保持板11のみ行えばよいことから、走査駆動部13による走査負荷及び移動距離を小さくすることができるので、走査駆動部13の小型化やコスト低減、或いは走査時間(測定時間)の短縮が可能となる。   Regarding the movement of the filter holding plate 11 by the scanning drive unit 13, as described above, since the sub-transmission band removal filter 3 is provided separately from the WBPF 12, the movement by the scanning driving unit 13 is performed by the WBPF 12 and the filter holding plate. 11 can be performed, the scanning load and the moving distance by the scanning drive unit 13 can be reduced, so that the scanning drive unit 13 can be reduced in size and cost, or the scanning time (measurement time) can be shortened. .

また、本実施形態では、各走査ステップにおいて、第2像6a(撮像素子7の撮像域)の各画素に順次設定される5nmピッチのBPFの分光透過特性を荷重積算して、国際照明委員会(CIE)が推奨する2°視野の等色関数x(λ)、y(λ)、z(λ)を合成するが、WBPF12の中心波長の半値幅を、合成精度が高くなる15nm程度とするため(15nmというように半値幅がある程度大きい方が合成精度が高められる)、WBPF12には1次の干渉BPFが採用されている。なお、一般的に、1次の干渉BPFは、上述したように中心波長の1/2倍及び2倍の波長域に副透過帯を有している。   In the present embodiment, in each scanning step, the spectral illumination characteristics of the 5 nm pitch BPF sequentially set to each pixel of the second image 6a (the imaging area of the imaging device 7) are weighted and integrated, and the International Illumination Committee. The color matching functions x (λ), y (λ), and z (λ) recommended by (CIE) for the 2 ° field of view are synthesized, but the half-value width of the center wavelength of the WBPF 12 is set to about 15 nm, which increases the synthesis accuracy. For this reason (when the half-width is somewhat large, such as 15 nm, the synthesis accuracy is improved), the WBPF 12 employs a first-order interference BPF. In general, the primary interference BPF has a sub-transmission band in a wavelength region that is 1/2 and 2 times the center wavelength as described above.

次に、走査WBPF10(走査駆動部13)による実際の走査動作について説明する。
先ず、以下の説明で用いる記号をここに纏める。
x:第1像面2b及び第2像面6bの走査方向(x方向)の座標(x=0〜7.4mm)
y:第1像面2b及び第2像面6bの走査方向に直交する方向(y方向)の座標(y=0 〜7.4mm)
s:走査ステップで表したWBPF12の走査位置(s=0〜65)
i,j:第1像面2b及び第2像面6bの画素単位のx、y座標(i,j=1〜1000)
j’:WBPF12面の画素単位のx座標(j’=1〜2560)
ij:画像情報
(IijS:走査ステップsでの画像情報
Next, an actual scanning operation by the scanning WBPF 10 (scanning drive unit 13) will be described.
First, symbols used in the following description are summarized here.
x: coordinates in the scanning direction (x direction) of the first image plane 2b and the second image plane 6b (x = 0 to 7.4 mm)
y: coordinates in the direction (y direction) orthogonal to the scanning direction of the first image plane 2b and the second image plane 6b (y = 0 to 7.4 mm)
s: Scanning position of WBPF12 expressed in scanning step (s = 0 to 65)
i, j: x and y coordinates (i, j = 1 to 1000) in pixel units of the first image plane 2b and the second image plane 6b.
j ′: x-coordinate of pixel unit of WBPF12 plane (j ′ = 1 to 2560)
I ij : Image information (I ij ) S : Image information in scanning step s

上述のように、走査WBPF10におけるフィルター保持板11(WBPF12)の走査は、5nmに相当するd=40*7.4μm=0.296mm(40画素列相当)のステップ幅で行われるので、WBPF12における可視域390〜710nmの波長幅320nm(=710−390nm)は、64(=320/5)ステップの移動(64*0.296=18.9mm;64*40=2560画素列に相当)でカバーすることができる。しかしながら、撮像素子7の撮像域はx方向に1000画素列、つまり25ステップ相当の長さを有しているため、この撮像素子7の全画素(1000画素列)を、上記波長幅320nm(WBPF12)で走査するためには、すなわち、撮像域の全ての画素が全ての波長域(390〜710nm)をカバーするためには、少なくとも、この25ステップ分を含めた89(=64+25)ステップの移動(走査)が必要となる。なお、走査(移動)が開始される前の初期位置を走査ステップs=0(ゼロ)とする。   As described above, the scanning of the filter holding plate 11 (WBPF 12) in the scanning WBPF 10 is performed with a step width of d = 40 * 7.4 μm = 0.296 mm (corresponding to 40 pixel columns) corresponding to 5 nm. The wavelength range of 320 nm (= 710-390 nm) in the visible range 390 to 710 nm is covered with 64 (= 320/5) step movement (64 * 0.296 = 18.9 mm; equivalent to 64 * 40 = 2560 pixel columns). can do. However, since the imaging area of the imaging device 7 has a length of 1000 pixel rows in the x direction, that is, a length corresponding to 25 steps, all the pixels (1000 pixel rows) of the imaging device 7 have the wavelength width of 320 nm (WBPF12). ), That is, in order that all pixels in the imaging region cover all wavelength regions (390 to 710 nm), at least 89 (= 64 + 25) steps of movement including these 25 steps are required. (Scanning) is required. Note that the initial position before the start of scanning (movement) is set to scanning step s = 0 (zero).

これについて図4及び図5を用いて説明する。図4は、撮像素子7の撮像域における、各走査ステップsに対応した撮影画像(露光状態)について説明する概念図である。図5は、各走査ステップsにおいて走査方向(x方向)に移動したフィルター保持板11の各部(WBPF12及び第1、第2遮光部112、113)と、撮像素子7における撮像域との位置関係について説明する概念図である。図4に示すように、走査開始前(二次元分光輝度計1による分光輝度計測開始前)には、フィルター保持板11(WBPF12)は初期位置(s=0)に位置し、この位置において、第1像面2bの撮像域(結像域)がフィルター保持板11の第1遮光部112によって遮光された(覆われた)状態となっている。この状態は、図5では符号501に示すフィルター保持板11(s=0)の位置に相当し、第1遮光部112に、撮像域T(上記j=1〜1000の画素列の幅に相当)が位置している。   This will be described with reference to FIGS. FIG. 4 is a conceptual diagram illustrating a captured image (exposure state) corresponding to each scanning step s in the imaging area of the imaging device 7. FIG. 5 shows the positional relationship between each part (WBPF 12 and the first and second light shielding parts 112 and 113) of the filter holding plate 11 moved in the scanning direction (x direction) in each scanning step s and the imaging area in the image sensor 7. It is a conceptual diagram explaining about. As shown in FIG. 4, before the start of scanning (before the start of spectral luminance measurement by the two-dimensional spectral luminance meter 1), the filter holding plate 11 (WBPF 12) is positioned at the initial position (s = 0). The imaging area (imaging area) of the first image plane 2 b is in a state where it is shielded (covered) by the first light shielding part 112 of the filter holding plate 11. This state corresponds to the position of the filter holding plate 11 (s = 0) indicated by reference numeral 501 in FIG. 5, and corresponds to the imaging region T (the width of the pixel row of j = 1 to 1000) in the first light shielding portion 112. ) Is located.

走査が開始されると、走査ステップs=0の位置で、図4に示す最前面の画像401(=画像(Iij)が撮像素子7により暗画像(ノイズ画像又はオフセット画像)として取り込まれる。続いて、走査駆動部13がフィルター保持板11をx方向における正方向に1走査ステップ(1s)だけ平行移動し(図5における符号502に示すフィルター保持板11の移動位置に相当)、当該s=1において最初の画像402(=画像(Iij)が取り込まれる。この画像(Iijでは、該画像内の符号403に示す第1画素列(j=1)(図5における符号503に示す位置の画素列に相当)に、中心波長390nmの単色光が入射し、他の画素列(j=2〜1000)は遮光された状態となっている。 When scanning is started, the foreground image 401 (= image (I ij ) 0 ) shown in FIG. 4 is captured as a dark image (noise image or offset image) by the image sensor 7 at the position of scanning step s = 0. It is. Subsequently, the scanning drive unit 13 translates the filter holding plate 11 in the positive direction in the x direction by one scanning step (1 s) (corresponding to the moving position of the filter holding plate 11 indicated by reference numeral 502 in FIG. 5), and the s = 1, the first image 402 (= image (I ij ) 1 ) is captured. In this image (I ij ) 1 , monochromatic light having a center wavelength of 390 nm is applied to the first pixel column (j = 1) indicated by reference numeral 403 in the image (corresponding to the pixel column at the position indicated by reference numeral 503 in FIG. 5). Incident light is applied, and the other pixel columns (j = 2 to 1000) are shielded from light.

以降、1走査ステップ毎に画像が取り込まれるが、この1走査ステップ毎に中心波長390nmの単色光が入射する画素列jは、右方(x方向の正方向側)へ移動し、第1画素列(j=1)に入射する光束の波長は約5nmずつ増加する。それに伴い、第1遮光部112によって遮光された画素列は減少し、走査ステップがs=25となると、第1遮光部112は撮像域外に出る。s=25において取り込まれる画像404に示す画像(Iij25では(図5における符号504に示すフィルター保持板11の移動位置に相当)、第1〜第1000画素列(j=1〜1000)に入射する単色光の中心波長は、390nmから515nmまで連像的に変化したものとなっている。 Thereafter, an image is captured for each scanning step. The pixel row j on which monochromatic light having a center wavelength of 390 nm is incident for each scanning step moves to the right (the positive direction side in the x direction), and the first pixel The wavelength of the light beam incident on the column (j = 1) increases by about 5 nm. Along with this, the number of pixel blocks shielded by the first light shield 112 decreases, and when the scanning step reaches s = 25, the first light shield 112 goes out of the imaging area. In the image (I ij ) 25 shown in the image 404 captured at s = 25 (corresponding to the moving position of the filter holding plate 11 indicated by reference numeral 504 in FIG. 5), the first to 1000th pixel rows (j = 1 to 1000) The center wavelength of the monochromatic light incident on the light beam changes continuously from 390 nm to 515 nm.

走査ステップsが進み、s=64において取り込まれる画像405に示す画像(Iij64では(図5における符号505に示すフィルター保持板11の移動位置に相当)、第1〜第1000画素列に対応する中心波長は585nmから710nmまで変化したものとなる。次のs=65では、画像406の符号407に示す第1画素列(j=1)(前記符号403に示す第1画素列と同じ画素列;図5では符号506に示す位置の画素列に相当)が第2遮光部113によって遮光され、さらに走査ステップsが進むと、第2遮光部113による遮光域(遮光される画素列)が増加し、最終の走査ステップs=90においては(図5では符号507に示すフィルター保持板11の移動位置に相当)、画像408(画像401と同様の暗画像)に示すように全撮像域(全画素列j=1〜1000)が第2遮光部113によって遮光された状態となる。このように、走査WBPF10(走査駆動部13)によってフィルター保持板11及びWBPF12が走査方向にステップ移動され、走査ステップ毎に撮像素子7による撮影画像が取り込まれる(ただし、上記ステップs=90での撮影画像の取り込みは行われなくともよい)。 The scanning step s advances, and in the image (I ij ) 64 shown in the image 405 captured at s = 64 (corresponding to the moving position of the filter holding plate 11 indicated by reference numeral 505 in FIG. 5), the first to 1000th pixel columns are arranged. The corresponding center wavelength is changed from 585 nm to 710 nm. In the next s = 65, the first pixel row (j = 1) indicated by reference numeral 407 of the image 406 (the same pixel row as the first pixel row indicated by reference numeral 403; in FIG. When the scanning step s further proceeds, the light-shielding area (light-shielded pixel row) by the second light-shielding unit 113 increases, and the final scanning step s = 90 (FIG. 5 corresponds to the moving position of the filter holding plate 11 indicated by reference numeral 507), and as shown in an image 408 (a dark image similar to the image 401), the entire imaging area (all pixel rows j = 1 to 1000) is the second light-shielding portion. 113 is shielded from light. In this manner, the filter holding plate 11 and the WBPF 12 are moved stepwise in the scanning direction by the scanning WBPF 10 (scanning drive unit 13), and a captured image by the image sensor 7 is captured at each scanning step (however, at the above step s = 90) Captured images need not be captured).

上述で説明したことからも、各走査ステップsで撮像された画像は、該画像の各画素をつくる単色光の中心波長が走査ステップsと画素のx座標とに依存しており、中心波長がx(列番号j)方向に沿って連続的に変化するとともに、y(行番号i)方向に沿っては略一定となるものとなっている。   As described above, in the image captured at each scanning step s, the center wavelength of the monochromatic light forming each pixel of the image depends on the scanning step s and the x coordinate of the pixel, and the center wavelength is While changing continuously along the x (column number j) direction, it is substantially constant along the y (row number i) direction.

(分光画像情報の処理)
ところで、二次元分光輝度計1は、上記各走査ステップsで取り込まれた画像(IijSから三刺激値画像を求めて出力するようになっている。一般的に、マルチバンド測色計では、異なる分光感度を適切な重価係数を乗じて積算する処理を行うことで上記CIEが推奨する2°視野の等色関数x(λ)、y(λ)、z(λ)の合成が行われるが、二次元分光輝度計1のような二次元測定器においては当該処理が各画素に対して実行される。
(Spectral image information processing)
By the way, the two-dimensional spectral luminance meter 1 obtains and outputs a tristimulus value image from the image (I ij ) S captured at each scanning step s. In general, in a multiband colorimeter, a color matching function x (λ), y (λ) of 2 ° field of view recommended by the CIE is performed by performing a process of multiplying different spectral sensitivities by multiplying them with an appropriate weight coefficient. ) And z (λ) are synthesized, but in a two-dimensional measuring instrument such as the two-dimensional spectroluminometer 1, the processing is executed for each pixel.

この画像(IijSからの三刺激値画像の算出について以下に説明する。
各走査ステップsで得られた画像(IijSを、後述の輝度軸校正で既知となっている各画素の輝度校正係数(Cijを用いて輝度画像(Lijに変換する。三刺激値を求めるために輝度画像(Lijに与える重価係数をそれぞれWxS,j、WyS,j、WzS,jとすると、三刺激値Xij、Yij、Zijは、以下の式(1-1)〜(1-3)により算出される。
ij=ΣWxS,j*(Lij …(1-1)
ij=ΣWyS,j*(Lij …(1-2)
ij=ΣWzS,j*(Lij …(1-3)
The calculation of the tristimulus value image from this image (I ij ) S will be described below.
The image (I ij ) S obtained in each scanning step s is converted into a luminance image (L ij ) S using the luminance calibration coefficient (C ij ) S of each pixel that is known in the luminance axis calibration described later. To do. The tristimulus values X ij , Y ij , and Z ij are given as Wx S, j , Wy S, j , and Wz S, j , respectively, in order to obtain the tristimulus values for the luminance image (L ij ) S. Are calculated by the following equations (1-1) to (1-3).
X ij = Σ S Wx S, j * (L ij ) S (1-1)
Y ij = Σ S Wy S, j * (L ij ) S (1-2)
Z ij = Σ S Wz S, j * (L ij ) S (1-3)

一般的に、マルチフィルター方式(背景技術参照)による分光輝度計測では、1つの画像における全画素に同じ波長帯の光束が入射するため、全画素に同じ重価係数が適用されるのに対し、本実施形態の方式では、走査ステップs毎、画素列毎に入射光の透過波長帯が異なるため、これに伴って各画素に対する重価係数も異なるものとなる。   In general, in spectral luminance measurement using a multi-filter method (see Background Art), since light beams in the same wavelength band are incident on all pixels in one image, the same weight coefficient is applied to all pixels. In the method of the present embodiment, the transmission wavelength band of incident light is different for each scanning step s and for each pixel column, and accordingly, the weight coefficient for each pixel is also different.

なお、上記輝度校正係数(Cijと重価係数WxS,j、WyS,j、WzS,jとから、各走査ステップにおける取得画像の画素毎の重価係数WxS,ij、WyS,ij、WzS,ijを予め求めておき、以下の式(2-1)〜(2-3)によって三刺激値Xij、Yij、Zijを算出することも可能である。これによって、当該三刺激値の算出に対する演算時間のさらなる短縮を図ることができる。
ij=ΣWxS,ij*(IijS …(2-1)
ij=ΣWyS,ij*(IijS …(2-2)
ij=ΣWzS,ij*(IijS …(2-3)
Note that, from the luminance calibration coefficient (C ij ) S and the weight coefficient Wx S, j , Wy S, j , Wz S, j , the weight coefficient Wx S, ij for each pixel of the acquired image in each scanning step, It is also possible to obtain Wy S, ij and Wz S, ij in advance and calculate the tristimulus values X ij , Y ij , and Z ij by the following equations (2-1) to (2-3). Thereby, the calculation time for the calculation of the tristimulus values can be further shortened.
X ij = Σ S Wx S, ij * (I ij ) S (2-1)
Y ij = Σ S Wy S, ij * (I ij ) S (2-2)
Z ij = Σ S Wz S, ij * (I ij ) S (2-3)

前記積算は走査ステップ毎に行われ、走査終了時に三刺激値画像が得られる。この三刺激値画像は、主制御部9(RAM等)に保存(記憶)される。なお、この方法は、上記5nmピッチによる撮像により取得した89個(図4に示す走査ステップs=1〜89での撮影画像)の単色光画像を全て保存しておき、走査終了後に纏めて三刺激値画像へ変換する方法に比べ、必要なデータ記憶容量を大幅に低減することができる。   The integration is performed at every scanning step, and a tristimulus value image is obtained at the end of scanning. This tristimulus value image is stored (stored) in the main control unit 9 (RAM or the like). In this method, all the 89 monochromatic light images (captured images at the scanning steps s = 1 to 89 shown in FIG. 4) acquired by imaging with the 5 nm pitch are stored, and after the scanning is completed, three images are collected. Compared with the method of converting to a stimulus value image, the required data storage capacity can be greatly reduced.

図11は、二次元分光輝度計1による三刺激値画像の測定に関する動作の一例を示すフローチャートである。先ず、主制御部9(走査駆動部13)によって走査WBPF10(フィルター保持板11)が初期位置(s=0)にセット(移動)される(ステップS1)とともに、三刺激値Xij、Yij、Zijの初期値が0に設定され(ステップS2)、当該s=0において撮像素子7の撮像域が遮光された状態で暗画像(Ii,jが画像信号処理部8を介して主制御部9に取り込まれる(ステップS3)。次に、同様に走査WBPF10(フィルター保持板11)が1走査ステップ分だけ移動され(ステップS4)、このs=1における画像(Iijが取り込まれる(ステップS5)。そして、主制御部9によって、この取り込まれた画像(Iijに対し、上記ステップS3において取り込まれた暗画像(Iijを用いた暗画像補正((Iij=(Iij−(Iij)が行われ(ステップS6)、さらに、この暗画像補正が行われた画像(Iijに対し、(後述の輝度軸校正で算出され保存されている)輝度校正係数(Cijを用いた輝度補正((Lij=(Cij*(Iijが行われて輝度画像(Lijに変換される(ステップS7)。 FIG. 11 is a flowchart illustrating an example of an operation related to measurement of a tristimulus value image by the two-dimensional spectral luminance meter 1. First, the scanning WBPF 10 (filter holding plate 11) is set (moved) to the initial position (s = 0) by the main control unit 9 (scan driving unit 13) (step S1), and tristimulus values X ij and Y ij are set. , Z ij is set to 0 (step S2), and the dark image (I i, j ) 0 is passed through the image signal processing unit 8 in a state where the imaging area of the image sensor 7 is shielded from light at s = 0. Is taken into the main controller 9 (step S3). Next, similarly, the scanning WBPF 10 (filter holding plate 11) is moved by one scanning step (step S4), and the image (I ij ) S at s = 1 is captured (step S5). Then, dark image correction ((I ij ) S = (I) using the dark image (I ij ) 0 captured in step S3 with respect to the captured image (I ij ) S by the main control unit 9. ij ) S- ( Iij ) 0 ) is performed (step S6), and the dark image corrected image ( Iij ) S is calculated and stored by luminance axis calibration (to be described later). ) Luminance correction using the luminance calibration coefficient (C ij ) S ((L ij ) S = (C ij ) S * (I ij ) S is performed and converted into a luminance image (L ij ) S (step S7) ).

そして、この輝度画像(Lijに対し、走査ステップs毎に、撮影画像の画素列毎に異なる各刺激値の重価係数WxS,j、WyS,j、WzS,jが乗算されて積算される(Xij=Xij+WxS,j*(LijS、Yij=Yij+WyS,j*(LijS、Zij=Zij+WzS,j*(LijS)(ステップS8)。主制御部9によって走査ステップsが89より大きくないと判別された場合には(ステップS9のNO)、上記ステップS4に戻って、さらに1走査ステップ分だけ移動され次の走査ステップsに対するステップS5〜S8の動作が繰り返される。ただし、この繰り返しにおけるステップS8では、前回の走査ステップにおいて得られた三刺激値Xij、Yij、Zijに対する更なる積算(積算値の更新)が行われる。走査ステップsが89より大きいと判別された場合には(ステップS9のYES)、当該全走査ステップsに亘って積算されて得られた三刺激値画像(Xij、Yij、Zij-)が所定のデータ記憶部(主制御部9のRAM等)に記憶され(ステップS10)、フロー終了となる。 The luminance image (L ij ) S is multiplied by the weight coefficient Wx S, j , Wy S, j , Wz S, j of each stimulus value that differs for each pixel column of the captured image for each scanning step s. ( Xij = Xij + WxS , j * ( Lij ) S , Yij = Yij + WyS , j * ( Lij ) S , Zij = Zij + WzS , j * (L ij ) S ) (step S8). If the main control unit 9 determines that the scanning step s is not greater than 89 (NO in step S9), the process returns to step S4 and is further moved by one scanning step, and step S5 for the next scanning step s. The operation of ~ S8 is repeated. However, in step S8 in this repetition, further integration (update of the integrated value) is performed on the tristimulus values X ij , Y ij , and Z ij obtained in the previous scanning step. If it is determined that the scanning step s is greater than 89 (YES in step S9), the tristimulus value images (X ij , Y ij , Z ij− ) obtained by integration over the entire scanning step s. Is stored in a predetermined data storage unit (such as the RAM of the main control unit 9) (step S10), and the flow ends.

なお、上記フローチャートに示す実施形態では、取り込んだ画像(Iijに対して後述の迷光補正を行っていないが、この迷光補正を行わない場合においても、各走査ステップs毎の画像(Iijを記憶しておき、各画素の輝度校正係数(Cijを用いて輝度画像(Lijに変換した後(後述の式(6-1))、後述の波長軸校正において既知となっている各画素列jの相対分光感度SS,j(λ)を用い、公知の演算処理によって後述の分光輝度画像Lij(λ)を求めてもよい。 In the embodiment shown in the flowchart, the later-described stray light correction is not performed on the captured image (I ij ) S. However, even when this stray light correction is not performed, the image (I ij ) S is stored, converted into a luminance image (L ij ) S using the luminance calibration coefficient (C ij ) S of each pixel (formula (6-1) described later), and wavelength axis calibration described later. The spectral brightness image L ij (λ), which will be described later, may be obtained by a known calculation process using the relative spectral sensitivity S S, j (λ) of each pixel row j known in FIG.

ところで、二次元分光輝度計1では、予め(例えば出荷時に)WBPF12に対する波長軸校正及び輝度軸校正を行い、この校正により求めた例えば上記の感度校正係数(Cijといった演算用データを主制御部9(RAM等)に設定(記憶)しておき、実際の分光輝度計測時には、当該演算用データを用いて、撮影画像(観察画像)を輝度画像に変換(輝度補正)するといったことが行われる。以下、この波長軸校正及び輝度軸校正について説明する。 By the way, the two-dimensional spectroluminometer 1 performs wavelength axis calibration and luminance axis calibration on the WBPF 12 in advance (for example, at the time of shipment), and the calculation data such as the sensitivity calibration coefficient (C ij ) S obtained by this calibration is mainly used. It is set (stored) in the control unit 9 (RAM or the like), and at the time of actual spectral luminance measurement, the captured image (observed image) is converted into a luminance image (luminance correction) using the calculation data. Done. The wavelength axis calibration and luminance axis calibration will be described below.

<波長軸校正>
WBPF12に対する波長軸の校正は、例えば図6に示す校正システム30を用いて参照強度Mλを求め、この参照強度Mλに基づいて二次元分光輝度計1での各走査ステップsにおける各画素列jの分光感度を求めることによって実施される。すなわち、校正システム30において、基準単波長光源31は、制御用PC(パーソナルコンピュータ)32によって制御され、例えば2nmピッチで350から750nmまで、合計201個の十分狭い半値幅の単波長光束31aを、積分球33の入射開口331に出力する。この単波長光束31aは、積分球33内で多重拡散反射して、積分球33の出力開口332に均一輝度面をつくる。校正が行われる二次元分光輝度計1としての被校正二次元分光輝度計34は、この均一輝度面を測定することで、単波長光束31a毎の画像情報(単波長画像)を取得し、これを制御用PC32に送信(出力)する。各単波長光束31aに対する上記均一輝度面は、スポット型の基準分光輝度計35によっても測定されており、この基準分光輝度計35の測定によって得られた参照強度Mλの情報は、制御用PC32に送信される。なお、校正システム30の符号36に示すものは、後述の輝度軸校正において、基準単波長光源31の単波長光束31aの代わりに積分球33へ入射させる白色光の光束36aを出力する白色光源(白色光源36)であり、この波長軸校正においては使用されない(この場合、白色光源36や積分球33の入射開口333は備えてなくともよい)。
<Wavelength axis calibration>
Calibration of the wavelength axis to the WBPF12, for example obtains a reference intensity M lambda using a calibration system 30 shown in FIG. 6, each pixel column in each scan step s of a two-dimensional spectral luminance meter 1 on the basis of the reference intensity M lambda This is done by determining the spectral sensitivity of j. That is, in the calibration system 30, the reference single-wavelength light source 31 is controlled by a control PC (personal computer) 32. For example, a total of 201 single-wavelength light beams 31a having a sufficiently narrow half-value width from 350 to 750 nm at a pitch of 2 nm, The light is output to the incident aperture 331 of the integrating sphere 33. The single wavelength light beam 31a is subjected to multiple diffuse reflection within the integrating sphere 33 to form a uniform luminance surface at the output aperture 332 of the integrating sphere 33. The to-be-calibrated two-dimensional spectral luminance meter 34 as the two-dimensional spectral luminance meter 1 to be calibrated acquires image information (single wavelength image) for each single-wavelength light beam 31a by measuring this uniform luminance plane. Is transmitted (output) to the control PC 32. The uniform luminance surface for each of the single-wavelength light beam 31a, which is measured by the reference spectral luminometer 35 of the spot-type, the reference information of the intensity M lambda obtained by the reference spectral luminance meter 35 measurements may control PC32 Sent to. The reference numeral 36 of the calibration system 30 indicates a white light source (outputting a white light beam 36a incident on the integrating sphere 33 in place of the single wavelength light beam 31a of the reference single wavelength light source 31 in the later-described luminance axis calibration. The white light source 36) is not used in this wavelength axis calibration (in this case, the white light source 36 and the incident aperture 333 of the integrating sphere 33 may not be provided).

ところで上記図4、5で説明したように、WBPF12の走査方向の有効域は2560画素列(j’=1〜2560)に相当し、1000画素列(j=1〜1000)をもつ撮像素子7の撮像域よりも大きいサイズであるため、1つの走査ステップ位置での撮像によってWBPF12の全有効域を測定することはできない。したがって、上記基準単波長光源31からの単波長光束31a(均一輝度面からの光束)による走査を、走査ステップs=25、45及び65の3つの走査ステップ位置で行うことで、当該WBPF12の全有効域における分光感度を(画素毎に)求めるようにしている。   4 and 5, the effective area in the scanning direction of the WBPF 12 corresponds to 2560 pixel columns (j ′ = 1 to 2560), and the image sensor 7 having 1000 pixel columns (j = 1 to 1000). Therefore, the entire effective area of the WBPF 12 cannot be measured by imaging at one scanning step position. Therefore, scanning with the single wavelength light beam 31a (light beam from the uniform luminance surface) from the reference single wavelength light source 31 is performed at three scanning step positions of scanning steps s = 25, 45 and 65, so that all of the WBPF 12 can be scanned. The spectral sensitivity in the effective range is obtained (for each pixel).

まず、被校正二次元分光輝度計34において、WBPF12(フィルター保持板11)を走査ステップs=25の位置で固定して基準単波長光源31を波長走査し、撮像した201個の単波長画像の各画素列の積算値を上記参照強度Mλで基準化して、WBPF12における、上記撮像域の1000の画素列(j=1〜1000)に相当する画素列j’=1〜1000の範囲の相対分光感度を求める。同様に、走査ステップs=45及び65の位置で固定して波長走査した単波長画像群の画素列積算値から、それぞれWBPF12の画素列j’=801〜1800及びj’=1601〜2560に相当する範囲の相対分光感度を求める。そして、これらs=25、45、65の各走査ステップ位置での相対分光感度から、WBPF12の全有効域の画素列(j’=1〜2560)に対する2nmのピッチの相対分光感度Sj’(λ)を求める。ただし、s=25、45、65それぞれの場合の画素列範囲、つまり上記画素列j’=1〜1000、801〜1800、1601〜2560から、1つの全有効域の画素列(j’=1〜2560)における相対分光感度を作成する場合、これら各範囲に互いに(約1/3ずつ)重なる領域が存在するが、当該重なり合っている領域の2つのデータ(相対分光感度情報)は、その何れのデータを採用してもよい。 First, in the calibrated two-dimensional spectrophotometer 34, the WBPF 12 (filter holding plate 11) is fixed at the position of the scanning step s = 25, the reference single-wavelength light source 31 is wavelength-scanned, and 201 single-wavelength images taken are captured. the integrated value of the pixel rows and scaled by the reference intensity M lambda, in WBPF12, the range of the pixel column j '= 1 to 1000 corresponding to the pixel columns of 1000 of the imaging region (j = 1 to 1000) relative Obtain spectral sensitivity. Similarly, pixel rows j ′ = 801 to 1800 and j ′ = 1601 to 2560 of the WBPF 12 are respectively calculated from the pixel row integrated values of the single-wavelength image group scanned at a fixed wavelength at the scanning steps s = 45 and 65. The relative spectral sensitivity of the range to be calculated is obtained. Then, from the relative spectral sensitivities at the scanning step positions of s = 25, 45, and 65, relative spectral sensitivities S j ′ (2 nm pitch) with respect to the pixel rows (j ′ = 1 to 2560) in the entire effective area of the WBPF 12. λ). However, from the pixel column ranges in the case of s = 25, 45, and 65, that is, the pixel columns j ′ = 1 to 1000, 801 to 1800, and 1601 to 2560, one entire effective region pixel column (j ′ = 1) ˜2560) when creating relative spectral sensitivities, there are regions that overlap each other (about 1/3 each), and the two data (relative spectral sensitivity information) of the overlapping regions are May be adopted.

測定時の走査ステップs位置における撮像素子7(撮像域)の各画素列jの相対分光感度SS,j(λ)は、図7に示すように、上述のように求めたWBPF12の全有効域の2560画素列の相対分光感度Sj’(λ)を、各走査ステップs位置に応じて平行移動させたSj’(λ)(ただし、j’=40*s−j+1)として与えられる。なお、図7の符号701、702、703…に示す相対分光感度波形は、それぞれ上記平行移動させて得られた各走査ステップsに対するものであり、各相対分光感度波形701、702、703…それぞれの間は、1走査ステップに相当する40画素分の間隔となっている。また、符号704に示す横軸は同一のものであり、中心波長350nm〜750nmにおける低波長域、中波長域及び高波長域の各相対分光感度波形を明示するべく、各グラフ710〜730を縦に並べて表している。ただし、画素列方向(y方向)では同じ分光感度(分光透過率)であるので、この画素列方向において平均化したものをその画素列の(相対)分光感度としている。 As shown in FIG. 7, the relative spectral sensitivity S S, j (λ) of each pixel column j of the image sensor 7 (imaging area) at the scanning step s position at the time of measurement is all effective of the WBPF 12 obtained as described above. The relative spectral sensitivity S j ′ (λ) of the 2560 pixel array in the area is given as S j ′ (λ) (where j ′ = 40 * s−j + 1) translated in accordance with the position of each scanning step s. . 7, relative spectral sensitivity waveforms indicated by reference numerals 701, 702, 703,... Are for the respective scanning steps s obtained by the above-mentioned translation, and each of the relative spectral sensitivity waveforms 701, 702, 703,. The interval is 40 pixels corresponding to one scanning step. In addition, the horizontal axes indicated by reference numeral 704 are the same, and the graphs 710 to 730 are vertically displayed in order to clearly show the relative spectral sensitivity waveforms of the low wavelength region, the middle wavelength region, and the high wavelength region at the center wavelength of 350 nm to 750 nm. Are shown side by side. However, since the spectral sensitivity (spectral transmittance) is the same in the pixel column direction (y direction), the averaged value in the pixel column direction is the (relative) spectral sensitivity of the pixel column.

なお、上記式(1-1)〜(1-3)で用いられる画素列jの走査ステップ位置sに対する重価係数WxS,j、WyS,j、WzS,jは、相対分光感度SS,j(λ)を用いて、以下の式(3-1)〜(3-3)により算出される合成分光感度x(λ)、y(λ)、z(λ)と、
(λ)=ΣWxS,j*SS,j(λ) …(3-1)
(λ)=ΣWyS,j*SS,j(λ) …(3-2)
(λ)=ΣWzS,j*SS,j(λ) …(3-3)
等色関数理論値x(λ)、y(λ)、z(λ)とによる、以下の式(4-1)〜(4-3)に示す波長毎の誤差の自乗和Ex、Ey、Ezが最小となる重価係数WxS,j、WyS,j、WzS,jとして求められる。
Ex=Σλ[x(λ)−x(λ)] …(4-1)
Ey=Σλ[y(λ)−y(λ)] …(4-2)
Ez=Σλ[z(λ)−z(λ)] …(4-3)
The weight coefficient Wx S, j , Wy S, j , Wz S, j for the scanning step position s of the pixel row j used in the above formulas (1-1) to (1-3) is the relative spectral sensitivity S Using S, j (λ), combined spectral sensitivities x j (λ), y j (λ), z j (λ) calculated by the following equations (3-1) to (3-3),
x j (λ) = Σ S Wx S, j * S S, j (λ) (3-1)
y j (λ) = Σ S Wy S, j * S S, j (λ) (3-2)
z j (λ) = Σ S Wz S, j * S S, j (λ) (3-3)
The sum of squares of error Ex j and Ey j for each wavelength shown in the following equations (4-1) to (4-3) based on the theoretical values x (λ), y (λ), and z (λ) of the color matching functions. , Ez j is obtained as a weight coefficient Wx S, j , Wy S, j , Wz S, j that minimizes Ez j .
Ex j = Σ λ [x j (λ) -x (λ)] 2 ... (4-1)
Ey j = Σ λ [y j (λ) -y (λ)] 2 ... (4-2)
Ez j = Σ λ [z j (λ) -z (λ)] 2 ... (4-3)

図12は、波長軸校正に関する動作の一例を示すフローチャートである。先ず、積分球33がつくる均一輝度面に対向配置された被校正二次元分光輝度計34の走査WBPF10(フィルター保持板11)が初期位置(s=0)にセット(移動)され(ステップS21)、撮像素子7の撮像域が遮光された状態で暗画像(Iijが取り込まれる(ステップS22)。次に、走査WBPF10がs=25の位置まで移動され(ステップS23、S24)、基準単波長光源31(又は制御用PC34)によって基準単波長(中心波長λ)が所定の初期値(例えば348nm)にセットされる(ステップS25)。そして、基準単波長光源31から上記初期セットされた中心波長λよりも2nm大きな中心波長を有する単波長光が出力され(ステップS26)、このステップS26において出力された中心波長λに対応する積分球33の均一輝度面の画像(IijS,λが取り込まれる(ステップS27)。 FIG. 12 is a flowchart illustrating an example of an operation related to wavelength axis calibration. First, the scanning WBPF 10 (filter holding plate 11) of the calibrated two-dimensional spectroluminometer 34 disposed opposite to the uniform luminance surface formed by the integrating sphere 33 is set (moved) to the initial position (s = 0) (step S21). Then, the dark image (I ij ) 0 is captured in a state where the imaging area of the imaging device 7 is shielded from light (step S22). Next, the scanning WBPF 10 is moved to the position of s = 25 (steps S23 and S24), and the reference single wavelength (center wavelength λ) is set to a predetermined initial value (for example, 348 nm) by the reference single wavelength light source 31 (or control PC 34). (Step S25). Then, single wavelength light having a center wavelength 2 nm larger than the initially set center wavelength λ is output from the reference single wavelength light source 31 (step S26), and an integrating sphere corresponding to the center wavelength λ output in step S26. An image (I ij ) S, λ of 33 uniform luminance surfaces is captured (step S27).

一方、スポット型の基準分光輝度計35により参照強度Mλが測定され(ステップS28)。そして、上記ステップS27において取り込まれた画像(IijS,λが、暗画像(Iijを用いて暗画像補正((IijS,λ=(IijS,λ−(Iij)され(ステップS29)、さらに、上記ステップS28において得られた参照強度Mλを用いて基準化((IijS,λ=(IijS,λ/Mλ)されて記憶される(ステップS30)。基準単波長光源31から出力される単色光の中心波長λが750nmより大きくない場合には(ステップS31のNO)、上記ステップS26に戻って、さらに2nm増加されて基準単波長光源31から出力された次の中心波長λの単波長光に対する上記画像を取り込み、参照強度Mλの測定(検出)、暗画像補正及び基準化処理が行われる。このようにして、中心波長350nmから750nmに亘って2nmピッチで増加された単波長光が順次出力され、この単波長光に対する上記ステップS27〜S30の各動作が繰り返される。 On the other hand, the reference intensity is measured by the spot type standard spectral luminance meter 35 (step S28). Then, the image (I ij ) S, λ captured in step S27 is dark image corrected using the dark image (I ij ) 0 ((I ij ) S, λ = (I ij ) S, λ − ( I ij ) 0 ) (step S 29), and further normalized ((I ij ) S, λ = (I ij ) S, λ / M λ ) using the reference intensity M λ obtained in step S 28. (Step S30). When the center wavelength λ of the monochromatic light output from the reference single wavelength light source 31 is not larger than 750 nm (NO in step S31), the process returns to step S26, and is further increased by 2 nm and output from the reference single wavelength light source 31. The image for the single wavelength light of the next center wavelength λ is taken in, and the measurement (detection) of the reference intensity M λ , dark image correction, and standardization processing are performed. In this way, single wavelength light increased at a pitch of 2 nm over the center wavelength of 350 nm to 750 nm is sequentially output, and the operations of steps S27 to S30 for the single wavelength light are repeated.

基準単波長光源31から出力される中心波長λが750nmより大きい場合(ステップS31のYES)、次に、走査ステップsが65より大きくなければ(ステップS32のNO)、上記ステップS24に戻って、走査WBPF10(フィルター保持板11)を現在の走査ステップs位置からさらに走査ステップを「20」だけ走査方向(x方向の正方向)に移動させ、つまり最初のステップS24における走査ステップs=25の位置から走査ステップs=45の位置まで順に移動させ、2nmピッチで出力される中心波長λが350nmから750nmに至るまで上記ステップS26〜S30の動作が繰り返される。同様にして、さらに20走査ステップ分だけ移動された走査ステップs=65に対して上記ステップS26〜S30の動作が繰り返され、その結果、上記ステップS30において基準化された各走査ステップ25、45及び65に対する画像(Iij25,λ、(Iij45,λ及び(Iij65,λが得られて記憶される。 If the center wavelength λ output from the reference single wavelength light source 31 is greater than 750 nm (YES in step S31), then if the scanning step s is not greater than 65 (NO in step S32), the process returns to step S24, The scanning WBPF 10 (filter holding plate 11) is further moved from the current scanning step s position by a scanning step “20” in the scanning direction (positive direction in the x direction), that is, the position of scanning step s = 25 in the first step S24. Are sequentially moved to the position of scanning step s = 45, and the operations of steps S26 to S30 are repeated until the center wavelength λ output at a pitch of 2 nm reaches 350 nm to 750 nm. Similarly, the operations in steps S26 to S30 are repeated for the scanning step s = 65 that has been further moved by 20 scanning steps. As a result, each of the scanning steps 25, 45 that are standardized in step S30, and Images (I ij ) 25, λ , (I ij ) 45, λ and (I ij ) 65, λ for 65 are obtained and stored.

上記ステップS32において走査ステップsが65より大きくなった場合(ステップS32のYES)、すなわち測定終了後、上記記憶された画像(Iij25,λ、(Iij45,λ及び(Iij65,λから、WBPF12の全有効域の画素列(j’=1〜2560)に対する分光感度画像(Iij’λが算出される(ステップS33)。そして、さらに分光感度画像(Iij’λが画素行iについて積算され((Ij’λ=Σ(Iij’λ)、全画素列j’の分光感度画像(Ij’λが求められて保存される(ステップS34)。 When the scanning step s becomes larger than 65 in step S32 (YES in step S32), that is, after the measurement is completed, the stored image (I ij ) 25, λ , (I ij ) 45, λ and (I ij ) A spectral sensitivity image (I ij ′ ) λ for a pixel row (j ′ = 1 to 2560) in the entire effective range of the WBPF 12 is calculated from 65, λ (step S33). Further, the spectral sensitivity image (I ij ′ ) λ is integrated with respect to the pixel row i ((I j ′ ) λ = Σ i (I ij ′ ) λ ), and the spectral sensitivity image (I j ′ ) of all the pixel columns j ′. ) Λ is obtained and stored (step S34).

<輝度軸校正>
次に、輝度軸校正について説明する。上述の波長軸校正によって校正されるのは、各走査ステップ位置での各画素列jの相対的な分光感度(相対分光感度)であるため(絶対的な輝度としての校正はなされておらず、感度ムラが補正されていないので)、ここで輝度軸(感度軸)の校正を行う。この輝度軸校正は、例えば上記図6に示す校正システム30を利用して行なわれる。ただし、波長軸校正の場合の基準単波長光源31に代えて、A光源などの白色光源36の光束を積分球33に入射させて出力開口332に均一輝度面をつくり、被校正二次元分光輝度計34でこの均一輝度面を測定する。この均一輝度面は、同時に基準分光輝度計35で測定され、参照分光輝度L(λ)が求められる。
<Luminance axis calibration>
Next, luminance axis calibration will be described. What is calibrated by the above-described wavelength axis calibration is the relative spectral sensitivity (relative spectral sensitivity) of each pixel row j at each scanning step position (calibration as absolute luminance is not performed, Since the sensitivity unevenness is not corrected), the luminance axis (sensitivity axis) is calibrated here. This luminance axis calibration is performed using, for example, the calibration system 30 shown in FIG. However, instead of the reference single wavelength light source 31 in the case of wavelength axis calibration, the luminous flux of a white light source 36 such as an A light source is incident on the integrating sphere 33 to form a uniform luminance surface at the output aperture 332, and the two-dimensional spectral luminance to be calibrated This uniform luminance surface is measured by a total of 34. This uniform luminance surface is simultaneously measured by the standard spectral luminance meter 35 to obtain the reference spectral luminance L 0 (λ).

そして、相対分光感度SS,j(λ)を有する走査ステップsにおける画素列jの画素Pijが、参照分光輝度L(λ)の光源を測定したときに得られるべき出力Σλ(λ)*SS,j(λ)と、上記輝度軸校正において実測により得られた出力(Iijとを用いて、走査ステップsでの画素Pijの感度校正係数(Cijが、以下の式(5-1)によって求められる。
(Cij=[Σλ(λ)*SS,j(λ)]/(Iij …(5-1)
The output Σ λ L 0 to be obtained when the pixel P ij of the pixel row j in the scanning step s having the relative spectral sensitivity S S, j (λ) measures the light source having the reference spectral luminance L 0 (λ). Using (λ) * S S, j (λ) and the output (I ij ) S obtained by actual measurement in the luminance axis calibration, the sensitivity calibration coefficient (C ij ) of the pixel P ij at the scanning step s. S is obtained by the following equation (5-1).
(C ij) S = [Σ λ L 0 (λ) * S S, j (λ)] / (I ij) S ... (5-1)

二次元分光輝度計1による実際の測定(分光輝度計測)時には、この感度校正係数(Cijを用い、被測定対象となる二次元光源Lに対する走査ステップsでの画素Pijの出力(Iijを、以下の式(6-1)により輝度画像(Lijに変換して出力する。
(Lij=(Cij*(Iij …(6-1)
At the time of actual measurement (spectral luminance measurement) by the two-dimensional spectral luminance meter 1, the sensitivity calibration coefficient (C ij ) S is used to output the pixel P ij at the scanning step s for the two-dimensional light source L to be measured ( I ij ) S is converted into a luminance image (L ij ) S by the following equation (6-1) and output.
(L ij ) S = (C ij ) S * (I ij ) S (6-1)

(迷光補正)
ところで、WBPF12は多層膜干渉フィルタであり、一般的に、透過波長帯以外の波長域における成分の光が反射されてしまう。このWBPF12で反射された成分は、さらに光学系のレンズ面やハウジング内面で反射され、所謂「迷光」となってWBPF12に再入射する。この入射位置の透過波長帯の成分はWBPF12を透過して撮像素子7に到達し、透過しない再入射光は再び入射され、上記過程を繰り返す。このようにして撮像素子7に到達した迷光による迷光画像は、本来の観察画像に重畳して観察画像の精度を劣化させてしまう。そこで、この観察画像(上述した各走査ステップsで取り込んだ画像(Iij)に対する当該迷光画像の影響をなくすべく、以下に述べるように、迷光補正を行ってもよい。
(Stray light correction)
By the way, the WBPF 12 is a multilayer interference filter, and in general, component light in a wavelength region other than the transmission wavelength band is reflected. The component reflected by the WBPF 12 is further reflected by the lens surface of the optical system and the inner surface of the housing, and becomes so-called “stray light” and reenters the WBPF 12. The component in the transmission wavelength band at this incident position passes through the WBPF 12 and reaches the image sensor 7, and the re-incident light that does not pass through is incident again, and the above process is repeated. In this way, the stray light image due to the stray light that has reached the image sensor 7 is superimposed on the original observation image and deteriorates the accuracy of the observation image. Therefore, in order to eliminate the influence of the stray light image on the observation image (the image (I ij ) S acquired in each scanning step s described above), stray light correction may be performed as described below.

以下の迷光補正に関する説明に用いる記号を以下に整理しておく。   The symbols used in the following explanation regarding the stray light correction are organized below.

m,n:被測定光の第1像面2b及び第2像面6b入射位置の画素単位の座標(m,n
=1〜1000)
I,J:第1像面2b及び第2像面6bの40×40画素のビニングをした画素セット座標(I,J=1〜25)
M,N:被測定光の第1像面2b及び第2像面6b入射位置の画素セット座標(M,N=1〜25)
ij(λ)或いはRIJ(λ):迷光画像が重畳されていない実画像(迷光が除去された画像)
R’ij(λ):実画像Rij(λ)の近似画像
ij(λ)或いはBIJ(λ):迷光画像
ij(λ)或いはOIJ(λ):迷光画像が重畳された観察画像(実際に測定される画像)、つまりOij(λ)=Rij(λ)+Bij(λ)或いはOIJ(λ)=RIJ(λ)+BIJ(λ)
(Fmnij(λ)或いは(FMNIJ(λ):レスポンス画像、画素Pmn或いは画素セットPMNに入射した単位強度の入射光によって得られる画像
IJ(λ):実画像に近似するべく推定される補正画像
O’IJ(λ):補正画像とレスポンス画像とから算出される擬似観察画像
m, n: the coordinates (m, n) of the measurement unit light at the incident positions of the first image plane 2b and the second image plane 6b
= 1 to 1000)
I, J: pixel set coordinates (I, J = 1 to 25) binned by 40 × 40 pixels on the first image plane 2b and the second image plane 6b
M, N: pixel set coordinates (M, N = 1 to 25) of the incident positions of the first image plane 2b and the second image plane 6b of the light to be measured
R ij (λ) or R IJ (λ): real image on which no stray light image is superimposed (image from which stray light has been removed)
R ′ ij (λ): Approximate image of real image R ij (λ) B ij (λ) or B IJ (λ): stray light image O ij (λ) or O IJ (λ): observation with stray light image superimposed Image (actually measured image), that is, O ij (λ) = R ij (λ) + B ij (λ) or O IJ (λ) = R IJ (λ) + B IJ (λ)
(F mn ) ij (λ) or (F MN ) IJ (λ): a response image, an image obtained by incident light of unit intensity incident on the pixel P mn or the pixel set P MN Q IJ (λ): an actual image Corrected image O ′ IJ (λ) estimated to approximate: pseudo-observation image calculated from the corrected image and the response image

図8に、上記実画像Rij(λ)、観察画像Oij(λ)及び迷光画像Bij(λ)の強度分布の一例を示す。ただし、この強度分布はj座標(x方向)に沿ったものである。同図に示すように、観察画像Oij(λ)は、実画像Rij(λ)に迷光画像Bij(λ)が重畳されたものとなっている。ただし、非結像であるこの迷光画像Bij(λ)の分布はなだらかであり(略一様であり)、その空間周波数は、結像によって得られる実画像Rij(λ)と比べて遙かに低いレベルとなっている。 FIG. 8 shows an example of the intensity distribution of the real image R ij (λ), the observed image O ij (λ), and the stray light image B ij (λ). However, this intensity distribution is along the j coordinate (x direction). As shown in the figure, the observation image O ij (λ) is obtained by superimposing the stray light image B ij (λ) on the real image R ij (λ). However, the distribution of the stray light image B ij (λ) that is not imaged is gentle (substantially uniform), and its spatial frequency is less than the actual image R ij (λ) obtained by imaging. It is a very low level.

(レスポンス画像)
ここで、上記レスポンス画像について説明する。
測定域、すなわち被測定光の第1像面2b及び第2像面6bにおける特定画素Pmnに入射する単位強度の光束(結像光束)が、撮像素子7の撮像域における全画素Pij上につくる画像のことを、レスポンス画像(Fmnijとする。このレスポンス画像(Fmnijは、入射位置の座標(m、n)に結像する点光源が、上記「迷光」の影響も含み、(i、j)という画像全体にどのような影響を与えるかということを示す関数であるとも言える。ところで、当該入射画素(或る1つの画素Pmn)以外の画素への入射光である迷光のレベルは、(1)結像光束が入射する部位(画素Pmn)、及び(2)迷光が入射する部位(画素Pij)に依存するとともに、(3)結像光束の波長λに依存するため(迷光が関与する反射・透過は一般に波長依存性を有するため)、上記レスポンス画像(Fmnijは、(Fmnij(λ)というように波長λの関数で表されることになる。
(Response image)
Here, the response image will be described.
A light beam having a unit intensity (imaging light beam) incident on a specific pixel P mn in the measurement area, that is, the first image plane 2 b and the second image plane 6 b of the light to be measured, on all the pixels P ij in the imaging area of the image sensor 7. The image created in (5) is referred to as a response image (F mn ) ij . This response image (F mn ) ij includes the influence of the “stray light” on the point light source imaged at the coordinates (m, n) of the incident position. It can be said that it is a function that indicates whether to give. By the way, the level of stray light that is incident light to pixels other than the incident pixel (a certain one pixel P mn ) is (1) the part (pixel P mn ) where the imaging light beam is incident and (2) stray light. Since it depends on the incident part (pixel P ij ) and (3) depends on the wavelength λ of the imaging light beam (because reflection / transmission involving stray light generally has wavelength dependence), the response image (F mn ) Ij is expressed as a function of wavelength λ such as (F mn ) ij (λ).

レスポンス画像をこのように定義すると、二次元分光輝度計1によって実際に測定(観察)される観察画像Oij(λ)は、入射画素Pmnに入射されるべき光束の強度をもつ実画像Rmn(λ)によって重み付けした当該レスポンス画像(Fmnij(λ)を、全入射画素Pmnについて積算したものとなり、以下の式(7-1)で表される。
ij(λ)=Σmn[Rmn(λ)*(Fmnij(λ)] …(7-1)
When the response image is defined in this way, the observation image O ij (λ) actually measured (observed) by the two-dimensional spectroluminometer 1 is the actual image R having the intensity of the light beam to be incident on the incident pixel P mn. The response image (F mn ) ij (λ) weighted by mn (λ) is integrated for all incident pixels P mn , and is expressed by the following equation (7-1).
O ij (λ) = Σ mn [R mn (λ) * (F mn ) ij (λ)] (7-1)

(実画像の推定)
迷光補正においては、観察画像Oij(λ)から迷光の影響を除去することで実画像Rij(λ)が得られるのであるが、ここでは、観察画像Oij(λ)から、実画像Rij(λ)を推定することにつき説明する。
(Real image estimation)
In the stray light correction, the actual image R ij (λ) is obtained by removing the influence of the stray light from the observation image O ij (λ). Here, the real image R ij (λ) is obtained from the observation image O ij (λ). The estimation of ij (λ) will be described.

当該推定される実画像Rij(λ)として、上記式(7-1)に基づいて、観察画像Oij(λ)とレスポンス画像(Fmnij(λ)とから、迷光画像の影響を除去した実画像Rij(λ)に近似する補正画像を求める。まず、実画像Rij(λ)に近似する補正画像の初期値Rij(λ)(0)をOmn(λ)とする(Rij(λ)(0)=Omn(λ))。この初期値Rij(λ)(0)とレスポンス画像(Fmnij(λ)とから算出される擬似観察画像Σmn[Rij(λ)(0)*(Fmnij(λ)]と、実観察画像Oij(λ)との差画像Σmn[Rij(λ)(0)*(Fmnij(λ)]−Oij(λ)によって初期値Rij(λ)(0)を補正することで、1次(1次近似解)の補正画像Rij(λ)(1)を求める(以下の式(8-1))。
ij(λ)(1)=Rij(λ)(0)−a*[Σmn[Rij(λ)(0)*(Fmnij(λ)]−Oij(λ)] …(8-1)
As the estimated actual image R ij (λ), the influence of the stray light image is obtained from the observation image O ij (λ) and the response image (F mn ) ij (λ) based on the above equation (7-1). A corrected image that approximates the removed real image R ij (λ) is obtained. First, the initial value R ij approximate corrected image to the actual image R ij (λ) (λ) (0) to you and O mn (λ) (R ij (λ) (0) = O mn (λ)) . The initial value R ij (λ) (0) and the response image (F mn) ij (λ) pseudo observed image is calculated from the Σ mn [R ij (λ) (0) * (F mn) ij (λ) ] And an actual observation image O ij (λ) Σ mn [R ij (λ) (0) * (F mn ) ij (λ)] − O ij (λ) by an initial value R ij (λ) By correcting (0) , a first-order (first-order approximate solution) corrected image R ij (λ) (1) is obtained (the following equation (8-1)).
R ij (λ) (1) = R ij (λ) (0) −a * [Σ mn [R ij (λ) (0) * (F mn ) ij (λ)] − O ij (λ)] (8-1)

さらに、この式の右辺のRij(λ)(0)をRij(λ)(1)に置き換えて、以下の式(9-1)に示す2次の補正画像Rij(λ)(2)が求められる。
ij(λ)(2)=Rij(λ)(1)−a*[Σmn[Rij(λ)(1)*(Fmnij(λ)]−Oij(λ)] …(9-1)
Further, R ij (λ) (0) on the right side of this equation is replaced with R ij (λ) (1) , and a second-order corrected image R ij (λ) (2 ) shown in the following equation (9-1) is obtained. ) Is required.
R ij (λ) (2) = R ij (λ) (1) −a * [Σ mn [R ij (λ) (1) * (F mn ) ij (λ)] − O ij (λ)] (9-1)

そして、このような計算が繰り返され、k次の補正画像Rij(λ)(k)が、Rmn(λ)(k−1)を用いて、以下の式(10-1)で与えられる。
ij(λ)(k)=Rij(λ)(k−1)−a*[Σmn[Rij(λ)(k−1)*(Fmnij(λ)]−Oij(λ)] …(10-1)
Then, such calculation is repeated, and a k-th order corrected image R ij (λ) (k) is given by the following equation (10-1) using R mn (λ) (k−1). .
R ij (λ) (k) = R ij (λ) (k−1) −a * [Σ mn [R ij (λ) (k−1) * (F mn ) ij (λ)] − O ij ( λ)]… (10-1)

上記式(8-1)〜(10-1)における右辺第2項の記号「a」は、漸近の特性を与える定数であり、その値は(当該漸近式が収束するよう)実験的に選択される。以上のプロセスにより、補正項である右辺第2項の画素毎の自乗和(以下の式(11-1))が許容値以下となる最初のk次補正画像Rij(λ)(k)を以て近似画像R’ij(λ)とする。ただし、このk次補正画像Rij(λ)(k)(=近似画像R’ij(λ))は、上述した実画像Rij(λ)に近似する補正画像、つまり推定された実画像Rij(λ)を示している。
(k−1)=Σij[Σmn[Rij(λ)(k−1)*(Fmnij(λ)]−Oij(λ)] …(11-1)
The symbol “a” in the second term on the right side in the above formulas (8-1) to (10-1) is a constant that gives an asymptotic characteristic, and its value is selected experimentally (so that the asymptotic formula converges). Is done. With the above process, the first k-th order corrected image R ij (λ) (k) in which the square sum for each pixel of the second term on the right-hand side that is the correction term (the following expression (11-1)) is less than the allowable value is used. Let it be an approximate image R ′ ij (λ). However, the k-th order corrected image R ij (λ) (k) (= approximate image R ′ ij (λ)) is a corrected image that approximates the above-described actual image R ij (λ), that is, the estimated actual image R. ij (λ) is shown.
E (k-1) = Σij [ Σmn [ Rij (λ) (k-1) * ( Fmn ) ij (λ)]- Oij (λ)] 2 (11-1)

なお、迷光画像は、上記k次補正画像Rij(λ)(k)を用いて、以下の式(12-1)におけるBij(λ)で与えられる(観察画像Oij(λ)から、推定された実画像Rij(λ)(k)を減じたものが迷光画像Bij(λ)となっている)。
ij(λ)=Oij(λ)−Rij(λ)(k) …(12-1)
The stray light image is given by B ij (λ) in the following expression (12-1) using the k-th order corrected image R ij (λ) (k) (from the observed image O ij (λ): A stray light image B ij (λ) is obtained by subtracting the estimated actual image R ij (λ) (k) ).
B ij (λ) = O ij (λ) −R ij (λ) (k) (12-1)

(実際の演算)
上述の演算を、撮像素子7のもつ10の画素について行うと、1次の演算に1012のデータが関与することになり、データ量、演算時間ともに膨大となる。そこで、まず迷光画像を求め、上記の式(12-1)を変形した以下の(13-1)を用いて、観察画像Oij(λ)から迷光画像Gij(λ)(上記迷光画像Bij(λ)に相当)を減じて近似画像R’ij(λ)を得る手法をとる。
ij(λ)(k)=Oij(λ)−Gij(λ) …(13-1)
(Actual calculation)
If the above calculation is performed for 10 6 pixels of the image sensor 7, 10 12 data will be involved in the primary calculation, and the amount of data and the calculation time will be enormous. Therefore, first, a stray light image is obtained, and using the following (13-1) obtained by modifying the above equation (12-1), the stray light image G ij (λ) (the stray light image B described above) is obtained from the observed image O ij (λ). ij (lambda) in equivalent) to reduce by taking a method for obtaining an approximate image R 'ij (λ).
R ij (λ) (k) = O ij (λ) −G ij (λ) (13-1)

この手法を用いる背景は、上記図8で説明したように、迷光画像は高い空間周波数成分を含まず、低画素数の画像情報でも十分な精度を有しており、画素数を下げる(低画素数とする)ことで画像情報量と演算時間とを大幅に低減できることにある。また、当該求めた低画素数の迷光画像を、スムージングなどの公知の処理を行い元の画素数(全画素数)の迷光画像に変換し、(全画素数を有した)観察画像からこれを減じて得られる近似画像(実画像に近似する補正画像)も十分な精度を有するものとなる。   As described in FIG. 8 above, the background of using this method is that the stray light image does not contain a high spatial frequency component, and has sufficient accuracy even with low pixel count image information, and the number of pixels is reduced (low pixel count). The amount of image information and the calculation time can be greatly reduced. In addition, the obtained stray light image with the low number of pixels is converted into a stray light image with the original number of pixels (total number of pixels) by performing known processing such as smoothing, and this is converted from the observation image (having the total number of pixels). The approximate image (corrected image approximated to the actual image) obtained by subtraction also has sufficient accuracy.

このことから、本実施形態では、図9に示すように40×40画素をビニング(積算)して、25×25(=I×J及びM×N)の画素セットによる画像情報を用いて迷光画像を求める。すなわち、上述の画素座標(i、j)及び(m、n)(i、j、m、n=1〜1000)を、画素セット座標(I、J)及び(M、N)(I、J、M、N=1〜25)に置き換え、これに伴って、観察画像Oij(λ)、実画像Rij(λ)、レスポンス画像(Fmnij(λ)及び迷光画像Bij(λ)を、40×40画素のビニング処理を行ったOIJ(λ)、RIJ(λ)、(FMNIJ(λ)及びBIJ(λ)に置き換えて扱う。なお、各演算において当該ビニングした情報を扱うことにより、画像情報量、演算時間を例えば10−4/256に縮小・短縮し、実用レベルにまで抑えることが可能となる。 Therefore, in the present embodiment, as shown in FIG. 9, 40 × 40 pixels are binned (integrated), and stray light is used using image information based on 25 × 25 (= I × J and M × N) pixel sets. Ask for an image. That is, the pixel coordinates (i, j) and (m, n) (i, j, m, n = 1 to 1000) described above are converted into the pixel set coordinates (I, J) and (M, N) (I, J , M, N = 1 to 25), and accordingly, the observed image O ij (λ), the actual image R ij (λ), the response image (F mn ) ij (λ), and the stray light image B ij (λ) ) Are replaced with O IJ (λ), R IJ (λ), (F MN ) IJ (λ), and B IJ (λ) that have been subjected to binning processing of 40 × 40 pixels. By handling the binned information in each calculation, the amount of image information and the calculation time can be reduced or shortened to, for example, 10 −4 / 256, and can be suppressed to a practical level.

(レスポンス画像の実測)
二次元分光輝度計1による分光輝度測定での演算においては、上述したように、観察画像Oij(λ)とレスポンス画像(Fmnij(λ)とから、迷光画像の影響を除去した実画像Rij(λ)に近似する補正画像(推定された実画像Rij(λ))を求めるのであるが、この演算で用いるレスポンス画像の情報は、予め(例えば出荷時に)実測によって求めておく。以下に、このレスポンス画像の実測について説明する。
(Measurement of response image)
In the calculation in the spectral luminance measurement by the two-dimensional spectral luminance meter 1, as described above, the actual image obtained by removing the influence of the stray light image from the observation image O ij (λ) and the response image (F mn ) ij (λ). although determine a corrected image which approximates to the image R ij (lambda) (estimated real image R ij (lambda)), information in the response image used in this calculation, previously obtained in advance by (e.g. at the factory) Found . Hereinafter, actual measurement of the response image will be described.

レスポンス画像の実測は、例えば図10に示す校正システム30aを用いて行う。ただし、この校正システム30aは、上記図6に示す校正システム30に対してさらにピンホール板37及び移動台38を備えたものとなっている。図10に示すように、当該レスポンス画像の実測に際しては、まず、積分球33に白色光源36の光束36aを入射させ、積分球33の出力開口332の位置(近傍)にピンホール板37を配置して点光源を形成する。この点光源からの光(白色光)を、x方向及びy方向に(矢印A方向で見た場合の図(A視)における符号39に示す各方向に)移動可能に構成された移動台38上に設置した被校正二次元分光輝度計34によって測定する。この移動台38を制御用PC32によって制御することで、点光源の像を、第1像面2b及び第2像面6bの任意の座標(画素セット座標(M、N);M=1〜25、N=1〜25)における画素セット内につくるように(例えば図9に示す或る画素セット901内の点光源P参照)、被校正二次元分光輝度計34の位置を設定(移動)することができる。ピンホール板37のピンホールから放射される白色光の分光強度は、基準分光輝度計35で測定され、当該測定によるモニター出力から相対分光強度M(λ)が得られる。   The actual measurement of the response image is performed using, for example, a calibration system 30a shown in FIG. However, the calibration system 30a is further provided with a pinhole plate 37 and a moving table 38 with respect to the calibration system 30 shown in FIG. As shown in FIG. 10, when actually measuring the response image, first, the luminous flux 36 a of the white light source 36 is incident on the integrating sphere 33, and the pinhole plate 37 is disposed at the position (near the output) 332 of the integrating sphere 33. Thus, a point light source is formed. A moving table 38 configured to be able to move the light (white light) from the point light source in the x direction and the y direction (in directions indicated by reference numeral 39 in FIG. (A view) when viewed in the direction of arrow A). Measurement is performed by a to-be-calibrated two-dimensional spectral luminance meter 34 installed above. By controlling the moving table 38 by the control PC 32, the image of the point light source can be converted into arbitrary coordinates (pixel set coordinates (M, N); M = 1 to 25) on the first image plane 2b and the second image plane 6b. , N = 1 to 25) (for example, refer to a point light source P in a certain pixel set 901 shown in FIG. 9), the position of the calibrated two-dimensional spectral luminance meter 34 is set (moved). be able to. The spectral intensity of the white light emitted from the pinhole of the pinhole plate 37 is measured by the reference spectral luminance meter 35, and the relative spectral intensity M (λ) is obtained from the monitor output by the measurement.

図13は、このレスポンス画像の実測に関する動作の一例を示すフローチャートである。まず、制御用PC32により移動台38の位置が制御され、点光源が初期位置、すなわち第1像面2b(又は第2像面6b)の画素セット座標(M、N)が例えばM=1、N=1の位置にセット(移動)される(ステップS41)。点光源がその画素セット座標位置にあるときに、走査WBPF10における走査駆動部13によりフィルター保持板11(WBPF12)が走査ステップs=0の初期位置にセットされ(ステップS42)、この走査ステップs=0において撮像素子7により暗画像(Iijが撮像され、画像信号処理部8を介して主制御部9に取り込まれる(ステップS43)。次に、走査ステップsが1ステップ移動され(ステップS44)、この走査ステップsにおいて同様に画像(IijS,MNが撮像されて取り込まれ(ステップS45)、画像(IijS,MNが暗画像補正されて保存される((IijS,MN=(IijS,MN−(Iij))(ステップS46)。 FIG. 13 is a flowchart showing an example of an operation related to the actual measurement of the response image. First, the position of the moving table 38 is controlled by the control PC 32, and the point light source is in the initial position, that is, the pixel set coordinates (M, N) of the first image plane 2b (or the second image plane 6b) are M = 1, for example. It is set (moved) to the position of N = 1 (step S41). When the point light source is at the pixel set coordinate position, the filter holding plate 11 (WBPF 12) is set to the initial position of the scanning step s = 0 by the scanning driving unit 13 in the scanning WBPF 10 (step S42), and this scanning step s = At 0, a dark image (I ij ) 0 is picked up by the image pickup device 7 and taken into the main control unit 9 via the image signal processing unit 8 (step S43). Next, the scanning step s is moved by one step (step S44). Similarly, in this scanning step s, the image (I ij ) S, MN is picked up and captured (step S45), and the image (I ij ) S, MN is captured. Are corrected and stored ((I ij ) S, MN = (I ij ) S, MN − (I ij ) 0 )) (step S 46).

走査ステップsが89より大きくない場合には(ステップS47のNO)、上記ステップS44に戻って次の走査ステップsに移動され、走査ステップs毎に画像(IijS,MNを取り込んで、暗画像補正を施して保存する動作が繰り返される。走査ステップsが89より大きい場合には(ステップS47のYES)、この暗画像補正されて保存された画像(IijS,MNが分光強度画像(IijMN(λ)に変換され(ステップS48)、この分光強度画像(IijMN(λ)が、40×40画素のビニングによってデータ数が削減された画素セット座標(I、J)の分光強度画像(IIJMN(λ)に変換されて保存される(ステップS49)。 If the scanning step s is not greater than 89 (NO in step S47), the process returns to step S44 and is moved to the next scanning step s, and the image (I ij ) S, MN is captured for each scanning step s. The operation of performing dark image correction and saving is repeated. If the scanning step s is greater than 89 (YES in step S47), the dark image corrected and stored image (I ij ) S, MN is converted into a spectral intensity image (I ij ) MN (λ) ( In step S48), this spectral intensity image (I ij ) MN (λ) is a spectral intensity image (I IJ ) MN (λ) of pixel set coordinates (I, J) in which the number of data is reduced by binning of 40 × 40 pixels. ) And stored (step S49).

次に、点光源のM座標が1つ進められ(M=M+1、N=N)(ステップS50)、このMの座標値が25より大きくない場合には(ステップS51のNO)、この画素セット座標位置において、上記ステップS42に戻ってフィルター保持板11(WBPF12)が走査ステップs=0の初期位置にセットされ、同様に画像の取り込みや暗画像補正、ビニングが行なわれる。Mの座標値が25より大きな値となる場合には(ステップS51のYES)、点光源のM座標が1に戻されるとともにN座標が1つ進められる(M=1、N=N+1)(ステップS52)。このNの座標値が25より大きくない場合には(ステップS53のNO)、この画素セット座標位置において、上記ステップS42に戻って同様の動作が行なわれる。このようにして、画素セット座標(M、N)が、初期位置(1、1)から(25、25)まで順に移動され、当該各座標位置において上記ステップS42〜49の動作が繰り返される。Nの座標値が25より大きな値となり、全ての画素セット座標(M、N)への点光源の入射に対する分光強度画像(IIJMN(λ)が得られた場合には(ステップS53のYES)、スポット型の基準分光輝度計35によって点光源の相対分光強度M(λ)が測定される(ステップS54)。そして、分光強度画像(IIJMN(λ)がこの波長毎の相対分光強度M(λ)により基準化((FMNIJ(λ)=(IIJMN(λ)/M(λ))されてレスポンス画像(FMNIJ(λ)として保存され(ステップS55)、フロー終了となる。 Next, the M coordinate of the point light source is advanced by one (M = M + 1, N = N) (step S50). If the M coordinate value is not larger than 25 (NO in step S51), this pixel set is set. At the coordinate position, the process returns to step S42, and the filter holding plate 11 (WBPF 12) is set to the initial position of the scanning step s = 0. Similarly, image capture, dark image correction, and binning are performed. If the coordinate value of M is greater than 25 (YES in step S51), the M coordinate of the point light source is returned to 1 and the N coordinate is advanced by 1 (M = 1, N = N + 1) (step S52). When the coordinate value of N is not larger than 25 (NO in step S53), the same operation is performed by returning to step S42 at the pixel set coordinate position. In this way, the pixel set coordinates (M, N) are sequentially moved from the initial position (1, 1) to (25, 25), and the operations of steps S42 to S49 are repeated at each coordinate position. When the coordinate value of N becomes a value larger than 25 and the spectral intensity image (I IJ ) MN (λ) with respect to the incidence of the point light source on all the pixel set coordinates (M, N) is obtained (in step S53) YES), the relative spectral intensity M (λ) of the point light source is measured by the spot-type reference spectral luminance meter 35 (step S54). The spectral intensity image (I IJ ) MN (λ) is normalized by the relative spectral intensity M (λ) for each wavelength ((F MN ) IJ (λ) = (I IJ ) MN (λ) / M (λ )) And stored as a response image (F MN ) IJ (λ) (step S55), and the flow ends.

(測定時の迷光補正)
ここで、二次元分光輝度計1の測定時に迷光補正を行なう場合の演算の一例について説明する(上記図11に示すフローチャートに示す場合の実施形態では、迷光補正を実施していないが、ここでの実施形態では、迷光補正を実施している)。当該測定時に迷光補正を行なう場合には、先ず走査WBPF10(WBPF12)の走査ステップs毎に二次元光源Lの光像を撮像して暗画像補正((Iij=(Iij−(Iij)を行なった画像(Iijを観察画像(Oijとして保存しておく。走査終了後、この観察画像(Oijを分光画像である(波長λの関数としての)観察画像Oij(λ)に変換し、さらに観察画像Oij(λ)をビニングして40×40画素の画素セットによる観察画像OIJ(λ)に変換する。そして、上述の式(7-1)に準じ、以下の式(14-1)に示すように、当該ビニングした観察画像OIJ(λ)を補正画像QIJ(λ)と仮定し、この補正画像QIJ(λ)に対応するQMN(λ)(つまりM、N座標における入射画素セットに入射するべき光束の強度であるQMN(λ)) と、上記実測され保存されているレスポンス画像(FMNIJ(λ)とから、擬似観察画像O’IJ(λ)を算出する。
O’IJ(λ)=ΣMN[QMN(λ)*(FMNIJ(λ)] …(14-1)
(Stray light correction during measurement)
Here, an example of calculation when stray light correction is performed at the time of measurement by the two-dimensional spectral luminance meter 1 will be described (in the embodiment shown in the flowchart shown in FIG. 11, stray light correction is not performed, but here. In the embodiment, stray light correction is performed). When stray light correction is performed at the time of the measurement, first, a light image of the two-dimensional light source L is picked up at every scanning step s of the scanning WBPF 10 (WBPF 12), and dark image correction ((I ij ) S = (I ij ) S − The image (I ij ) S that has been subjected to (I ij ) 0 ) is stored as an observation image (O ij ) S. After scanning end, is the observation image (O ij) S the spectral image (as a function of wavelength lambda) was converted to the observation image O ij (λ), 40 × further binned observed image O ij (lambda) The image is converted into an observation image O IJ (λ) by a pixel set of 40 pixels. Then, according to Equation (7-1) mentioned above, as shown in the following equation (14-1), the observed image O IJ that the binning (lambda) assuming corrected image Q IJ (lambda), the correction Q MN (λ) corresponding to the image Q IJ (λ) (that is, Q MN (λ) which is the intensity of the light beam to be incident on the incident pixel set in the M coordinate), and the measured and stored response image A pseudo observation image O ′ IJ (λ) is calculated from (F MN ) IJ (λ).
O ′ IJ (λ) = Σ MN [Q MN (λ) * (F MN ) IJ (λ)] (14-1)

次に、以下の式(15-1)に示すように、擬似観察画像O’IJ(λ)と観察画像OIJ(λ)との差[O’IJ(λ)−OIJ(λ)]によって補正画像QIJ(λ)を再補正し、これを新たに補正画像QIJ(λ)とする。
IJ(λ)=QIJ(λ)−a*[O’IJ(λ)−OIJ(λ)] …(15-1)
Next, as shown in the following formula (15-1), the difference between the pseudo-observed image O ′ IJ (λ) and the observed image O IJ (λ) [O ′ IJ (λ) −O IJ (λ)] Thus, the corrected image Q IJ (λ) is re-corrected, and this is newly set as a corrected image Q IJ (λ).
Q IJ (λ) = Q IJ (λ) −a * [O ′ IJ (λ) −O IJ (λ)] (15-1)

そして、以下の式(16-1)に示す擬似観察画像O’IJ(λ)と観察画像OIJ(λ)との画素毎の差の二乗和E(λ)が、予め設定された限界値Etより小さくなった最初の補正画像QIJ(λ)を最終補正画像として採用し、
E(λ)=ΣIJ[O’IJ(λ)−OIJ(λ)] …(16-1)
E(λ)が限界値Et以上の値をとる場合には、限界値Etより小さくなるまで上記式(14-1)、(15-1)及び(16-1)の演算を繰り返す。
Then, the sum of squares E (λ) of the differences between the pseudo observation image O ′ IJ (λ) and the observation image O IJ (λ) shown in the following formula (16-1) is set as a limit value set in advance. The first corrected image Q IJ (λ) that is smaller than Et is adopted as the final corrected image,
E (λ) = Σ IJ [O ′ IJ (λ) −O IJ (λ)] 2 (16-1)
When E (λ) takes a value equal to or greater than the limit value Et, the above formulas (14-1), (15-1), and (16-1) are repeated until the value becomes smaller than the limit value Et.

最終補正画像QIJ(λ)が得られると、観察画像OIJ(λ)との差から迷光画像BIJ(λ)が求められる(以下の式(17-1))。
IJ(λ)=OIJ(λ)−QIJ(λ) …(17-1)
When the final corrected image Q IJ (λ) is obtained, the stray light image B IJ (λ) is obtained from the difference from the observed image O IJ (λ) (the following equation (17-1)).
B IJ (λ) = O IJ (λ) −Q IJ (λ) (17-1)

このBIJ(λ)は、上記ビニングした画素セットによる迷光画像であるため、スムージング処理を行うことによって、元の(ビニング前の)全画素からなる迷光画像Bij(λ)に変換する。上述したように迷光画像は空間周波数が低いので、迷光画像BIJ(λ)をスムージングした迷光画像Bij(λ)と全画素による式(12-1)の迷光画像との間に大きな誤差はなく、したがって、観察画像Oij(λ)から迷光画像Bij(λ)を差し引いて近似画像R’ij(λ)を求める(以下の式(18-1))。
R’ij(λ)=Oij(λ)−Bij(λ) …(18-1)
Since this B IJ (λ) is a stray light image by the binned pixel set, it is converted into a stray light image B ij (λ) consisting of all original pixels (before binning) by performing a smoothing process. As described above, since the stray light image has a low spatial frequency, there is a large error between the stray light image B ij (λ) obtained by smoothing the stray light image B IJ (λ) and the stray light image of the equation (12-1) using all pixels. without therefore the observed image O ij (lambda) by subtracting the stray light image B ij (lambda) obtaining an approximate image R 'ij (lambda) (the following formula (18-1)).
R ′ ij (λ) = O ij (λ) −B ij (λ) (18-1)

このように、二次元光源Lを走査ステップs毎に撮像した画像(Iij(観察画像Oij(λ))と、予め記憶されているレスポンス画像(FMNIJ(λ)とから、演算によって迷光画像Bij(λ)を算出し、さらに観察画像Oij(λ)からこれを差し引く演算を行なうことで迷光補正がなされ、近似画像R’ij(λ)が得られる。 As described above, from the image (I ij ) S (observed image O ij (λ)) obtained by imaging the two-dimensional light source L for each scanning step s and the response image (F MN ) IJ (λ) stored in advance. Then, the stray light image B ij (λ) is calculated by the calculation, and the stray light correction is performed by subtracting the stray light image B ij (λ) from the observation image O ij (λ), thereby obtaining the approximate image R ′ ij (λ).

ところで、前述の輝度補正を、さらにこの近似画像R’ij(λ)に対して施すことで後述の分光輝度画像Lij(λ)を得ることができる。当該輝度補正において用いる校正係数は、予め前記と同様の輝度軸校正によって求めておく必要がある。具体的には、上記(14-1)〜(18-1)での演算と同様にして、(図6において)白色光源36による均一輝度面の測定画像を取得し、この測定画像を迷光補正することで上記と同様の近似画像R’ij(λ)を算出する。一方で、スポット型の基準分光輝度計35により同時に測定画像を測定して基準分光輝度L(λ)を求めておき、以下の式(19-1)に示すように、これら近似画像R’ij(λ)と基準分光輝度L(λ)とから、波長λの関数としての校正係数Cij(λ)を求め、これを主制御部9等に保存しておく。
ij(λ)=L(λ)/R’ij(λ) …(19-1)
Incidentally, a spectral luminance image L ij (λ), which will be described later, can be obtained by performing the above-described luminance correction on the approximate image R ′ ij (λ). The calibration coefficient used in the brightness correction needs to be obtained in advance by the same brightness axis calibration as described above. Specifically, in the same manner as the calculations in (14-1) to (18-1) above, a measurement image of a uniform luminance surface by the white light source 36 is acquired (in FIG. 6), and this measurement image is corrected for stray light. Thus, an approximate image R ′ ij (λ) similar to the above is calculated. On the other hand, the measurement image is simultaneously measured by the spot-type reference spectral luminance meter 35 to obtain the reference spectral luminance L 0 (λ), and these approximate images R ′ are obtained as shown in the following equation (19-1). A calibration coefficient C ij (λ) as a function of the wavelength λ is obtained from ij (λ) and the reference spectral luminance L 0 (λ), and is stored in the main controller 9 or the like.
C ij (λ) = L 0 (λ) / R ′ ij (λ) (19-1)

二次元分光輝度計1による実際の測定時には、上記式(14-1)〜(18-1)によって二次元光源Lの測定画像を迷光補正して近似画像R’ij(λ)を求め、上記保存しておいた校正係数Cij(λ)を用いて分光輝度画像Lij(λ)に変換して出力する(以下の式(20-1))。
ij(λ)=Cij(λ)*R’ij(λ) …(20-1)
At the time of actual measurement by the two-dimensional spectrophotometer 1, the measurement image of the two-dimensional light source L is corrected by stray light by the above formulas (14-1) to (18-1) to obtain the approximate image R ′ ij (λ). The stored calibration coefficient C ij (λ) is used to convert to a spectral luminance image L ij (λ) and output (the following equation (20-1)).
L ij (λ) = C ij (λ) * R ′ ij (λ) (20-1)

図14は、上述の二次元分光輝度計1による測定時に迷光補正を行なう場合の動作の一例を示すフローチャートである。まず、走査WBPF10(WBPF12)の走査ステップs毎に撮像されて暗画像補正((Iij=(Iij−(Iij)された画像(Iijが観察画像(Oijとして保存され(ステップS61)、この観察画像(Oijが観察画像Oij(λ)に変換される(ステップS62)。次に、観察画像Oij(λ)がビニングされて40×40画素の画素セットによる観察画像OIJ(λ)に変換される(ステップS63)。そして、この観察画像OIJ(λ)が補正画像QIJ(λ)とされ(ステップS64)、上記式(14-1)によって、当該補正画像QIJ(λ)に対応するQMN(λ)と実測され保存されているレスポンス画像(FMNIJ(λ)とから擬似観察画像O’IJ(λ)が算出される(ステップS65)。 FIG. 14 is a flowchart showing an example of the operation when stray light correction is performed at the time of measurement by the two-dimensional spectral luminance meter 1 described above. First, an image (I ij ) S that has been captured at each scanning step s of the scanning WBPF 10 (WBPF 12) and corrected for dark image ((I ij ) S = (I ij ) S − (I ij ) 0 ) is an observation image ( O ij ) S is stored (step S61), and the observed image (O ij ) S is converted into an observed image O ij (λ) (step S62). Next, the observed image O ij (λ) is binned and converted into an observed image O IJ (λ) based on a 40 × 40 pixel set (step S63). Then, the observed image O IJ (λ) is set as a corrected image Q IJ (λ) (step S64), and Q MN (λ) corresponding to the corrected image Q IJ (λ) is obtained by the above equation (14-1). And a response image (F MN ) IJ (λ) actually measured and stored, a pseudo observation image O ′ IJ (λ) is calculated (step S65).

次に、上記式(16-1)に示す擬似観察画像O’IJ(λ)と観察画像OIJ(λ)との画素毎の差の二乗和E(λ)が求められ(ステップS66)、E(λ)の値が、予め設定された限界値Etより小さくない場合には(ステップS67のNO)、上記式(15-1)において、擬似観察画像O’IJ(λ)と観察画像OIJ(λ)との差(O’IJ(λ)−OIJ(λ))によって補正画像QIJ(λ)が再補正され、これが新たな補正画像QIJ(λ)とされて(ステップS68)、上記ステップS65に戻り、このE(λ)が限界値Etより小さくなるまで上記ステップS65〜S68の演算が繰り返される。E(λ)の値が限界値Etより小さくなった場合には(ステップS67のYES)、当該限界値Etより小さくなった最初の補正画像QIJ(λ)が最終補正画像として決定され、上記式(17-1)に示すように、観察画像OIJ(λ)からこの補正画像QIJ(λ)が差し引かれて迷光画像BIJ(λ)が算出される(ステップS69)。その後、迷光画像BIJ(λ)に対するスムージング処理が施され、元の全画素からなる迷光画像Bij(λ)に変換される(ステップS70)。そして、上記式(18-1)に示すように、観察画像Oij(λ)からこの迷光画像Bij(λ)が差し引かれて近似画像R’ij(λ)が求められる(ステップS71)。 Next, a sum of squares E (λ) of differences between the pseudo observation image O ′ IJ (λ) and the observation image O IJ (λ) shown in the above equation (16-1) is obtained (step S66). If the value of E (λ) is not smaller than the preset limit value Et (NO in step S67), the pseudo-observation image O ′ IJ (λ) and the observation image O in the above equation (15-1). The corrected image Q IJ (λ) is re-corrected by the difference (O ′ IJ (λ) −O IJ (λ)) from IJ (λ), and this is used as a new corrected image Q IJ (λ) (step S68). ), The process returns to step S65, and the operations of steps S65 to S68 are repeated until E (λ) becomes smaller than the limit value Et. When the value of E (λ) is smaller than the limit value Et (YES in step S67), the first corrected image Q IJ (λ) that is smaller than the limit value Et is determined as the final corrected image, and As shown in Expression (17-1), the correction image Q IJ (λ) is subtracted from the observation image O IJ (λ) to calculate the stray light image B IJ (λ) (step S69). Thereafter, a smoothing process is performed on the stray light image B IJ (λ), and the stray light image B ij (λ) including all original pixels is converted (step S70). Then, as shown in the above equation (18-1), this stray light image B ij (λ) is subtracted from the observed image O ij (λ) to obtain an approximate image R ′ ij (λ) (step S71).

以上のように本実施形態の迷光補正法によれば、迷光の影響に基づく迷光画像が重畳された観察画像(Oij(λ))と、迷光補正演算において使用するべく例えば上記図10に示す校正システム30aを用いた校正等によって予め測定(実測)されて主制御部9等に保存された、観察画像の撮像域(第2像6a又は第1像2a)における特定画素(例えば画素セットPMN)への単位強度の入射光が撮像素子7の撮像域の全画素上につくるレスポンス画像(例えば(FMNIJ(λ);応答画像)とから、観察画像(Oij(λ))を構成する画素数より低い画素数の画像情報((例えばOIJ(λ)やBIJ(λ))を用いて迷光画像(Bij(λ))が推定算出され、この推定算出された迷光画像(Bij(λ))を観察画像(Oij(λ))から除去(減算)することで、実画像(Rij(λ))に近似する補正画像(R’ij(λ);観察画像から迷光の影響を補正した画像)が求められる。したがって、このように迷光補正処理が行われるため、観察画像に対する迷光の影響が除去された好適な観察画像(測定画像)を得ることができる。また、予め測定して求めておいたレスポンス画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像を構成する画素数より低い画素数の画像情報を用いて当該迷光補正を行う方法をとることで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである(図8参照)迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。なお、この迷光補正法によれば、観察画像から迷光の影響によるボヤケやカブリを除去できるため、コントラストを有した画像における特に低輝度画素の精度向上に大きな効果が得られる(このことは、当該迷光補正法を用いる二次元分光輝度計1に対しても同じ)。 As described above, according to the stray light correction method of the present embodiment, an observation image (O ij (λ)) on which a stray light image based on the influence of stray light is superimposed and, for example, the stray light correction calculation shown in FIG. Specific pixels (for example, pixel set P) in the imaging area (second image 6a or first image 2a) of the observation image, which is measured (actually measured) in advance by calibration using the calibration system 30a and stored in the main controller 9 or the like. From the response image (for example, (F MN ) IJ (λ); response image) generated by the incident light of unit intensity on MN ) on all the pixels in the imaging area of the image sensor 7, the observation image (O ij (λ)) The stray light image (B ij (λ)) is estimated and calculated using image information (for example, O IJ (λ) or B IJ (λ)) that is lower than the number of pixels constituting the, and this estimated and calculated stray light image observation field a (B ij (λ)) (O ij (lambda)) by removing (subtracting) from the actual image (R ij (lambda)) corrected image which approximates the (R 'ij (λ); images from the observation image obtained by correcting the influence of stray light) is Therefore, since the stray light correction process is performed in this way, a suitable observation image (measurement image) from which the influence of the stray light on the observation image is removed can be obtained. The calculation at the time of actual measurement is executed efficiently by using response image information, etc., and the calculation is performed by using the method of correcting the stray light using the image information of the number of pixels lower than the number of pixels constituting the observation image. It is possible to reduce the amount of data sometimes handled, while applying the calculation with the low number of pixels to the stray light image whose spatial frequency is much lower than the observed image (see FIG. 8). Even low Since the error from the case of not performing the arithmetic operation with a number is small, the calculation processing time (correction time) required for the stray light correction can be greatly shortened while maintaining sufficient accuracy. According to the method, since blur and fog due to the influence of stray light can be removed from the observed image, a great effect can be obtained particularly in improving the accuracy of low-luminance pixels in an image having contrast (this is because the stray light correction method is used). The same applies to the two-dimensional spectral luminance meter 1).

また、図14に示すように、撮像により得られる観察画像(Oij(λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(OIJ(λ))に変換する第1の工程と、当該低画素観察画像と低画素数の応答画像((FMNIJ(λ))とから、補正画像(R’ij(λ))の低画素数画像としての低画素補正画像(QIJ(λ))を算出する第2の工程と、低画素観察画像と当該低画素補正画像との差(OIJ(λ)−QIJ(λ))によって低画素数の迷光画像(BIJ(λ))を算出する第3の工程と、当該低画素数の迷光画像を全画素数に対する迷光画像(Bij(λ))に変換する第4の工程と、全画素数の観察画像(Oij(λ))から当該全画素数に対する迷光画像(Bij(λ))を減じて実画像(Rij(λ))に近似する補正画像(R’ij(λ))を算出する第5の工程とによって迷光補正演算が行われるため、当該演算時に扱うデータ量を大幅に削減し且つ演算処理時間を大幅に短縮しながら、充分な精度で観察画像(Oij(λ))に対する迷光補正を行うことが可能となる。 Further, as shown in FIG. 14, an observation image (O ij (λ)) obtained by imaging is converted into a low pixel observation image (O IJ ) that is an observation image having a low number of pixels with respect to the total number of pixels of the observation image. (Λ)), and the corrected image (R ′ ij (λ)) is reduced from the low pixel observation image and the response image ((F MN ) IJ (λ)) with the low pixel count. The second step of calculating the low pixel correction image (Q IJ (λ)) as the pixel number image and the difference between the low pixel observation image and the low pixel correction image (O IJ (λ) −Q IJ (λ) ) To calculate a stray light image (B IJ (λ)) having a low pixel count, and a fourth step of converting the stray light image having the low pixel count into a stray light image (B ij (λ)) for all the pixel counts. steps and stray light images from all pixels number of observation images (O ij (λ)) with respect to the total number of pixels (B ij (λ) Since the stray light correction operation is performed by the fifth step of calculating the a by subtracting actual image corrected image (R 'ij (λ)) which approximates (R ij (λ)), significant amount of data to be handled during the operation It is possible to perform stray light correction on the observation image (O ij (λ)) with sufficient accuracy while reducing the processing time and greatly reducing the calculation processing time.

また、低画素観察画像(OIJ(λ))に対する仮の実画像としての低画素補正画像(QIJ(λ))(或いはこのQIJ(λ)に対応するQMN(λ);式(14-1)参照)と応答画像((FMNIJ(λ))とから擬似観察画像(O’IJ(λ))を算出し、当該擬似観察画像と低画素観察画像との差による差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像(QIJ(λ))を再補正し、当該再補正した低画素補正画像(QIJ(λ))と応答画像とから新たな擬似観察画像(O’IJ(λ))を算出し、当該新たな擬似観察画像と低画素観察画像との差による新たな差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像をさらに補正する漸近演算を、当該差画像による誤差が所定値以下となるまで繰り返し行うことで、上記低画素補正画像(QIJ(λ))を算出する、すなわち、低画素観察画像(OIJ(λ)と低画素数の応答画像((FMNIJ(λ))とから、漸近法によって低画素補正画像(QIJ(λ))を算出する方法をとるため、より簡易な処理プログラムを用いて、短い演算処理時間で精度の高い低画素補正画像(QIJ(λ))を得ることが可能となり、ひいては迷光補正全体に対する更なる演算処理時間の短縮、演算精度(補正画像(R’ij(λ))の精度)向上を図ることができる。 Further, the low pixel corrected image (Q IJ (λ)) as a temporary actual image with respect to the low pixel observation image (O IJ (λ)) (or Q MN (λ) corresponding to Q IJ (λ); 14-1) reference) and the response image ((F MN) IJ (λ )) from the pseudo observed image (O 'IJ (λ)) is calculated, and the difference due to the difference between the pseudo observed image and the low pixel observation image The low pixel corrected image (Q IJ (λ)) is re-corrected with the image (O ′ IJ (λ) −O IJ (λ)), the re-corrected low pixel corrected image (Q IJ (λ)) and the response image And a new pseudo-observation image (O ′ IJ (λ)) is calculated, and a new difference image (O ′ IJ (λ) −O IJ (λ) based on the difference between the new pseudo-observation image and the low-pixel observation image is calculated. )), The asymptotic operation for further correcting the low pixel correction image is repeated until the error due to the difference image becomes a predetermined value or less. By performing returns, the calculated low pixel correction image (Q IJ (λ)), i.e., the low-pixel observation image (O IJ (λ) and the low pixel number of responses image ((F MN) IJ (λ )) Therefore, a low pixel corrected image (Q IJ (λ)) is calculated by an asymptotic method, and therefore, a low-pixel corrected image (Q IJ (Q IJ ( λ)) can be obtained, and as a result, the calculation time for the entire stray light correction can be further shortened and the calculation accuracy (the accuracy of the corrected image (R ′ ij (λ))) can be improved.

また、当該迷光補正演算において、全画素数の画像(例えば観察画像(Oij(λ))や迷光画像(Bij(λ)))がビニングされるため(図9参照)、容易に低画素数の画像(例えば低画素数の観察画像(OIJ(λ))や迷光画像(BIJ(λ)))を得ることができる。 Further, in the stray light correction calculation, an image with the total number of pixels (for example, an observation image (O ij (λ)) or a stray light image (B ij (λ))) is binned (see FIG. 9). A number of images (for example, an observation image (O IJ (λ)) or a stray light image (B IJ (λ)) having a low number of pixels) can be obtained.

また、レスポンス画像((FMNIJ(λ))が、観察画像の撮像域における、各画素(m、n)又は(i、j)に対してではなく(1つ1つの画素に対する点光源の照射は現実的には困難である)、各画素セット(各画素セット座標(M、N))に対して点光源(白色光源36)からの光束36aを結像させて撮像した画像に基づいて得られるため(図10参照)、二次元分光輝度計個々に応じたレスポンス画像を、実験的に且つ容易に取得することが可能となる。 Further, the response image ((F MN ) IJ (λ)) is not a point light source for each pixel (instead of each pixel (m, n) or (i, j)) in the imaging area of the observation image. Is practically difficult), and is based on an image obtained by imaging a light beam 36a from a point light source (white light source 36) with respect to each pixel set (each pixel set coordinate (M, N)). Therefore, a response image corresponding to each two-dimensional spectroluminometer can be acquired experimentally and easily.

また、迷光補正処理を観察画像の撮像における入射光の波長(WBPF12による分光透過光の中心波長λに応じて)行うので、迷光の要因に波長依存性があったとしても効果的に迷光補正を実施することができる。   In addition, since the stray light correction processing is performed at the wavelength of incident light (according to the center wavelength λ of the spectrally transmitted light by the WBPF 12) in the imaging of the observation image, stray light correction is effectively performed even if the cause of stray light has wavelength dependency. Can be implemented.

さらに、本実施形態の二次元分光輝度計1によれば、迷光補正演算手段(主制御部9)によって、迷光の影響に基づく迷光画像が重畳された観察画像(Oij(λ))と、迷光補正演算において使用するべく例えば上記図10に示す校正システム30aを用いた校正等によって予め測定(実測)されて主制御部9等に保存された、観察画像の撮像域(第2像6a又は第1像2a)における特定画素(例えば画素セットPMN)への単位強度の入射光が撮像素子7の撮像域の全画素上につくるレスポンス画像(例えば(FMNIJ(λ);応答画像)とから、観察画像(Oij(λ))の画素数より低い画素数の画像情報((例えばOIJ(λ)やBIJ(λ))を用いて迷光画像(Bij(λ))が推定算出され、この推定算出された迷光画像(Bij(λ))を観察画像(Oij(λ))から除去(減算)することで、実画像(Rij(λ))に近似する補正画像(R’ij(λ))が求められる。したがって、このように迷光補正処理が行われるため、二次元分光輝度計1による観察画像(測定画像)に対する迷光の影響が除去され、好適な観察画像を得ることができる。また、予め測定して求めておいたレスポンス画像情報を用いるなどして実際の測定時の演算が効率良く実行されるとともに、観察画像の画素数より低い画素数の画像情報を用いて当該迷光補正を行うことで演算時に扱うデータ量を少なくすることが可能となり、一方で、空間周波数が観察画像に比べて遙かに低いレベルである迷光画像に対して当該低画素数での演算を適用しても、低画素数での演算を行わない場合との誤差は小さいものとなるため、充分な精度を維持しつつ迷光補正に要する演算処理時間(補正時間)を大幅に短縮することができる。 Furthermore, according to the two-dimensional spectral luminance meter 1 of the present embodiment, an observation image (O ij (λ)) on which a stray light image based on the influence of stray light is superimposed by the stray light correction calculation means (main control unit 9), For use in the stray light correction calculation, for example, an imaging area (second image 6a or second image 6a or the second image 6a) that is measured (measured) in advance by calibration or the like using the calibration system 30a shown in FIG. A response image (for example, (F MN ) IJ (λ); a response image generated by incident light of unit intensity on a specific pixel (for example, pixel set P MN ) in the first image 2a) on all the pixels in the imaging area of the image sensor 7; ) from the observation image (O ij (lambda)) image information less number of pixels than the number of pixels of the ((e.g. O iJ (lambda) and B iJ (lambda)) stray image using (B ij (lambda)) Is estimated and this estimated The corrected image (R ′ ij (λ) approximated to the real image (R ij (λ)) is obtained by removing (subtracting) the stray light image (B ij (λ)) from the observed image (O ij (λ)). Therefore, since the stray light correction process is performed in this way, the influence of stray light on the observation image (measurement image) by the two-dimensional spectral luminance meter 1 is removed, and a suitable observation image can be obtained. The calculation at the time of actual measurement is efficiently performed by using response image information obtained by measurement in advance, and the stray light correction is performed using image information having a number of pixels lower than the number of pixels of the observation image. By doing so, it is possible to reduce the amount of data handled at the time of calculation, while applying the calculation with the low number of pixels to the stray light image whose spatial frequency is much lower than the observation image. Even with a low pixel count Since becomes error between case without calculation is small, the processing time required for the stray light correction while maintaining a sufficient accuracy (correction time) can be shortened significantly.

なお、本発明は、以下の態様をとることができる。   In addition, this invention can take the following aspects.

(A)上記実施形態では、迷光画像の空間周波数が観察画像と比較して極めて低いことから、ビニングを行うことによって扱うデータ量や演算処理時間を実用レベルにまで抑えているが、この技術は、上述の走査WBPF10を用いた二次元分光輝度計1に限らず、画像情報から二次元の輝度や色彩を測定する機器一般に応用可能である。すなわち、二次元分光輝度計1のように干渉フィルタ(WBPF12)を用いる場合には、当該フィルタを透過されない波長域の光束成分が反射されて迷光が生じることから当該技術(迷光補正方法)が適用されているが、干渉フィルタを用いない機器であっても、光学系のレンズ表面や測定画像を撮像する撮像素子表面からの反射光などにより迷光が生じ、これが測定画像に重畳して(特に高コントラストの)画像の精度を劣化させてしまうため、このような迷光の影響を本技術によって改善することが可能となる。   (A) In the above embodiment, since the spatial frequency of the stray light image is extremely lower than that of the observed image, the amount of data handled and the processing time are reduced to a practical level by performing binning. The present invention is not limited to the two-dimensional spectroluminance meter 1 using the scanning WBPF 10 described above, and can be applied to general devices that measure two-dimensional luminance and color from image information. That is, when the interference filter (WBPF 12) is used as in the two-dimensional spectroluminometer 1, the light flux component in the wavelength region that is not transmitted through the filter is reflected to generate stray light, so that the technique (stray light correction method) is applied. However, even in a device that does not use an interference filter, stray light is generated due to reflected light from the lens surface of the optical system or the image sensor surface that captures the measurement image, and this is superimposed on the measurement image (particularly high Since the accuracy of the image (contrast) is degraded, the effect of such stray light can be improved by the present technology.

(B)上記実施形態では、対物光学系2とリレー光学系(リレーレンズ6等)とを備えることで、第1像面2b及び第2像面6bの2つの像面を設け、これら各像面にそれぞれWBPF12(走査WBPF10)と撮像素子7とを配置して互いに分離(離間)させているが、当該リレー光学系を備えずに、単一の像面に対して撮像素子7とWBPF12とを配置する構成としてもよい。   (B) In the above embodiment, by providing the objective optical system 2 and the relay optical system (relay lens 6 or the like), two image planes of the first image plane 2b and the second image plane 6b are provided, and each of these images is provided. Although the WBPF 12 (scanning WBPF 10) and the image sensor 7 are arranged on the surface and separated (separated) from each other, the image sensor 7 and the WBPF 12 are arranged with respect to a single image plane without the relay optical system. It is good also as a structure which arranges.

(C)上記実施形態では、第1遮光部112(s=0)において暗画像を取り込んだ後、x方向の正方向に向けてフィルター保持板11(WBPF12)を走査ステップs毎に移動させる構成としてるが、逆に、第2遮光部113を走査ステップs=0の位置として暗画像を取り込み、x方向の負方向に向けてフィルター保持板11を当該走査移動させる構成としてもよい。   (C) In the above embodiment, after the dark image is captured by the first light shielding unit 112 (s = 0), the filter holding plate 11 (WBPF 12) is moved in the positive direction of the x direction for each scanning step s. However, conversely, the second light-shielding portion 113 may be set to the scanning step s = 0 position to capture a dark image, and the filter holding plate 11 may be scanned and moved in the negative direction of the x direction.

(D)上記実施形態では、レスポンス画像((FMNIJ(λ))は予め実測して求めたものを保存しているが、これに限らず、(実測して求める必要はなく)所定の推測演算等によって予め求めたものを保存してもよい。 (D) In the above embodiment, the response image ((F MN ) IJ (λ)) is obtained by actually measuring in advance, but is not limited thereto, and is not limited to this (it is not necessary to obtain by actual measurement). What has been obtained in advance by, for example, a guess calculation may be stored.

(E)WBPF12の形状は、必ずしも、厚みが(走査方向に)直線的に変化する(前後の透過面が平面となっている)楔型でなくともよく、例えば当該厚みが曲線的に変化する(当該透過面が湾曲している)ような形状であってもよい。   (E) The shape of the WBPF 12 does not necessarily have to be a wedge shape in which the thickness changes linearly (in the scanning direction) (front and rear transmission surfaces are flat). For example, the thickness changes in a curve. The shape may be such that the transmission surface is curved.

(F)上記実施形態では、楔型のWBPF12を一方向に沿って移動させることで走査を行う構成であるが、例えば周方向に沿って厚み(透過波長)が変化する円環状(又は環状でない例えば半円といった円弧状)のBPFを用い、当該BPFを光束La(光路)に対して(回転走査ステップで)回転移動させて走査を行う構成としてもよい。   (F) In the above embodiment, scanning is performed by moving the wedge-shaped WBPF 12 along one direction. For example, an annular shape (or a non-annular shape) whose thickness (transmission wavelength) changes along the circumferential direction is used. For example, an arc-shaped BPF such as a semicircle may be used, and scanning may be performed by rotating the BPF with respect to the light beam La (optical path) (in a rotational scanning step).

本発明に係る二次元分光輝度計の一例を示す概略構造図である。It is a schematic structure figure showing an example of the two-dimensional spectral luminance meter concerning the present invention. 図1に示す二次元分光輝度計における走査WBPFの一例を示す概略構成図である。It is a schematic block diagram which shows an example of the scanning WBPF in the two-dimensional spectral luminance meter shown in FIG. WBPFの一例を示す斜視図である。It is a perspective view which shows an example of WBPF. 撮像素子の撮像域における、各走査ステップに対応した撮影画像について説明する概念図である。It is a conceptual diagram explaining the picked-up image corresponding to each scanning step in the imaging area of an image sensor. 各走査ステップにおいて走査方向(x方向)に移動したフィルター保持板の各部と、撮像素子における撮像域との位置関係について説明する概念図である。It is a conceptual diagram explaining the positional relationship between each part of the filter holding plate moved in the scanning direction (x direction) in each scanning step and the imaging area in the imaging device. 波長軸校正用の校正システムの一例を示す概略構成図である。It is a schematic block diagram which shows an example of the calibration system for wavelength axis calibration. 波長軸校正によるWBPFの相対分光感度の一例を示すグラフ図である。It is a graph which shows an example of the relative spectral sensitivity of WBPF by wavelength axis calibration. 実画像Rij(λ)、観察画像Oij(λ)及び迷光画像Bij(λ)の強度分布の一例を示すグラフ図である。It is a graph which shows an example of intensity distribution of real image Rij ((lambda)), observation image Oij ((lambda)), and stray light image Bij ((lambda)). ビニングによる画像の画素セット座標について説明する概念図である。It is a conceptual diagram explaining the pixel set coordinate of the image by binning. レスポンス画像実測用のシステムの一例を示す概略構成図である。It is a schematic block diagram which shows an example of the system for response image measurement. 二次元分光輝度計による三刺激値画像の測定に関する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement regarding the measurement of the tristimulus value image by a two-dimensional spectral luminance meter. 波長軸校正に関する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement regarding wavelength axis calibration. レスポンス画像の実測に関する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement regarding actual measurement of a response image. 二次元分光輝度計による測定時に迷光補正を行なう場合の動作の一例を示すフローチャートである。It is a flowchart which shows an example of an operation | movement in the case of performing a stray light correction at the time of the measurement by a two-dimensional spectral luminance meter.

1 二次元分光輝度計
2a 第1像
6a 第2像
7 撮像素子
8 画像信号処理部
9 主制御部(迷光補正演算手段)
10 走査WBPF
12 WBPF
13 走査駆動部
30、30a 校正システム
31 基準単波長光源
34 被校正二次元分光輝度計
35 基準分光輝度計
36 白色光源(点光源)
112 第1遮光部
113 第2遮光部
901 画素セット
L 二次元光源
La 光束
T 撮像域
DESCRIPTION OF SYMBOLS 1 2D spectral luminance meter 2a 1st image 6a 2nd image 7 Image pick-up element 8 Image signal processing part 9 Main control part (stray light correction calculating means)
10 Scanning WBPF
12 WBPF
13 Scanning drive unit 30, 30a Calibration system 31 Reference single wavelength light source 34 Two-dimensional spectral luminance meter to be calibrated 35 Reference spectral luminance meter 36 White light source (point light source)
112 1st light-shielding part 113 2nd light-shielding part 901 Pixel set L Two-dimensional light source La Light beam T Imaging area

Claims (6)

撮像により得られる観察画像に対する迷光の影響を補正して補正画像を求める迷光補正法であって、
前記迷光の影響に基づく迷光画像が重畳された前記観察画像と、
予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光に応じて該撮像域の全画素に対して得られる応答画像とから、
前記観察画像を構成する画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、
当該推定算出された迷光画像を観察画像から除去して実画像に近似する前記補正画像を算出する迷光補正法において、
前記撮像により得られる観察画像(O ij (λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(O IJ (λ))に変換する第1の工程と、
当該低画素観察画像と低画素数の応答画像((F MN IJ (λ))とから、前記補正画像(R’ ij (λ))の低画素数画像としての低画素補正画像(Q IJ (λ))を算出する第2の工程と、
前記低画素観察画像と当該低画素補正画像との差(O IJ (λ)−Q IJ (λ))によって低画素数の迷光画像(B IJ (λ))を算出する第3の工程と、
当該低画素数の迷光画像を前記全画素数に対する迷光画像(B ij (λ))に変換する第4の工程と、
前記全画素数の観察画像(O ij (λ))から当該全画素数に対する迷光画像(B ij (λ))を減じて前記実画像に近似する補正画像(R’ ij (λ))を算出する第5の工程と、を有することを特徴とする迷光補正法。
A stray light correction method for correcting the influence of stray light on an observation image obtained by imaging to obtain a corrected image,
The observation image on which a stray light image based on the influence of the stray light is superimposed;
From the response image obtained for all the pixels in the imaging area according to the incident light of unit intensity to the specific pixel in the imaging area of the observation image, which is measured and stored in advance,
Estimating and calculating a stray light image using image information having a number of pixels lower than the number of pixels constituting the observation image,
In the stray light correction method for calculating the corrected image that approximates an actual image by removing the estimated and calculated stray light image from the observation image ,
An observation image (O ij (λ)) obtained by the imaging is converted into a low pixel observation image (O IJ (λ)) that is an observation image having a low pixel count with respect to the total number of pixels of the observation image . 1 process,
From the low-pixel observation image and the low-pixel response image ((F MN ) IJ (λ)), the low-pixel correction image (Q IJ ) as the low-pixel-number image of the correction image (R ′ ij (λ)) A second step of calculating (λ));
A third step of calculating a stray light image (B IJ (λ)) having a low number of pixels based on a difference (O IJ (λ) −Q IJ (λ)) between the low pixel observation image and the low pixel correction image ;
A fourth step of converting the stray light image of the low number of pixels into a stray light image (B ij (λ)) for the total number of pixels ;
A corrected image (R ′ ij (λ)) approximating the actual image is calculated by subtracting the stray light image (B ij (λ)) for the total number of pixels from the observation image (O ij (λ)) of the total number of pixels. stray light correction method, characterized by chromatic fifth step of, a.
前記低画素観察画像(OIJ(λ))に対する仮の実画像としての低画素補正画像(QIJ(λ))と応答画像((FMNIJ(λ))とから擬似観察画像(O’IJ(λ))を算出し、当該擬似観察画像と低画素観察画像との差による差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像(QIJ(λ))を再補正し、当該再補正した低画素補正画像(QIJ(λ))と前記応答画像とから新たな擬似観察画像(O’IJ(λ))を算出し、当該新たな擬似観察画像と前記低画素観察画像との差による新たな差画像(O’IJ(λ)−OIJ(λ))によって低画素補正画像をさらに補正する漸近演算を、当該差画像による誤差が所定値以下となるまで繰り返し行うことで、前記第2の工程における低画素補正画像(QIJ(λ))を算出することを特徴とする請求項1記載の迷光補正法。 From the low pixel corrected image (Q IJ (λ)) and the response image ((F MN ) IJ (λ)) as a provisional actual image with respect to the low pixel observation image (O IJ (λ)), the pseudo observation image (O ' IJ (λ)) is calculated, and the low pixel corrected image (Q IJ (λ)) is calculated by the difference image (O ′ IJ (λ) −O IJ (λ)) due to the difference between the pseudo observation image and the low pixel observation image. ) Is re-corrected, a new pseudo-observation image (O ′ IJ (λ)) is calculated from the re-corrected low pixel correction image (Q IJ (λ)) and the response image, and the new pseudo-observation image is calculated. And an asymptotic operation for further correcting the low pixel correction image with a new difference image (O ′ IJ (λ) −O IJ (λ)) based on the difference between the low pixel observation image and the low pixel observation image, an error due to the difference image is less than a predetermined value by repeating the performing until the low pixel correction image in said second step (Q Stray light correction method according to claim 1, wherein the calculating the J (λ)). 前記全画素数の画像がビニングされ、所定数の画素が一纏めにされた所定数の画素セットからなる画素セット画像を前記低画素数の画像とすることを特徴とする請求項1又は2に記載の迷光補正法。 3. The pixel set image including a predetermined number of pixel sets obtained by binning the total number of pixels and grouping a predetermined number of pixels is set as the low pixel number image. Stray light correction method. 前記観察画像の撮像域における前記各画素セットに点光源からの光を結像させて撮像した画像に基づいて前記応答画像を得ることを特徴とする請求項3記載の迷光補正法。 4. The stray light correction method according to claim 3, wherein the response image is obtained based on an image picked up by imaging light from a point light source on each pixel set in the imaging region of the observation image. 前記迷光補正の演算処理を、観察画像の撮像における入射光の波長ごとに行うことを特徴とする請求項1〜4のいずれかに記載の迷光補正法。 5. The stray light correction method according to claim 1 , wherein the calculation process of the stray light correction is performed for each wavelength of incident light in imaging of an observation image. 撮像により得られる観察画像に対する迷光の影響を補正して補正画像を求める迷光補正演算を行う二次元分光輝度計であって、
前記迷光の影響に基づく迷光画像が重畳された前記観察画像と、
予め測定されて記憶された、観察画像の撮像域における特定画素への単位強度の入射光に応じて該撮像域の全画素に対して得られる応答画像とから、
前記観察画像の画素数より低い画素数の画像情報を用いて迷光画像を推定算出し、
当該推定算出された迷光画像を観察画像から除去して実画像に近似する前記補正画像を算出する迷光補正演算手段を備え
前記迷光補正演算手段は、
前記撮像により得られる観察画像(O ij (λ))を、該観察画像の全画素数に対して低画素数となる観察画像である低画素観察画像(O IJ (λ))に変換し、
当該低画素観察画像と低画素数の応答画像((F MN IJ (λ))とから、前記補正画像(R’ ij (λ))の低画素数画像としての低画素補正画像(Q IJ (λ))を算出し、
前記低画素観察画像と当該低画素補正画像との差(O IJ (λ)−Q IJ (λ))によって低画素数の迷光画像(B IJ (λ))を算出し、
当該低画素数の迷光画像を前記全画素数に対する迷光画像(B ij (λ))に変換し、さらに、
前記全画素数の観察画像(O ij (λ))から当該全画素数に対する迷光画像(B ij (λ))を減じて前記実画像に近似する補正画像(R’ ij (λ))を算出する、
ことを特徴とする二次元分光輝度計。
A two-dimensional spectroluminometer that performs a stray light correction calculation to obtain a corrected image by correcting the influence of stray light on an observation image obtained by imaging,
The observation image on which a stray light image based on the influence of the stray light is superimposed;
From the response image obtained for all the pixels in the imaging area according to the incident light of unit intensity to the specific pixel in the imaging area of the observation image, which is measured and stored in advance,
Estimating and calculating a stray light image using image information having a number of pixels lower than the number of pixels of the observation image;
Stray light correction calculating means for calculating the corrected image that approximates the actual image by removing the estimated and calculated stray light image from the observation image ,
The stray light correction calculation means includes:
An observation image (O ij (λ)) obtained by the imaging is converted into a low pixel observation image (O IJ (λ)) that is an observation image having a low pixel number with respect to the total number of pixels of the observation image ;
From the low-pixel observation image and the low-pixel response image ((F MN ) IJ (λ)), the low-pixel correction image (Q IJ ) as the low-pixel-number image of the correction image (R ′ ij (λ)) (Λ))
A stray light image (B IJ (λ)) having a low number of pixels is calculated by a difference (O IJ (λ) −Q IJ (λ)) between the low pixel observation image and the low pixel correction image ;
Converting the stray light image of the low number of pixels into a stray light image (B ij (λ)) for the total number of pixels ;
A corrected image (R ′ ij (λ)) approximating the actual image is calculated by subtracting the stray light image (B ij (λ)) for the total number of pixels from the observation image (O ij (λ)) of the total number of pixels. To
A two-dimensional spectral luminance meter.
JP2004372180A 2004-12-22 2004-12-22 Stray light correction method and two-dimensional spectral luminance meter using the same Active JP4400450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004372180A JP4400450B2 (en) 2004-12-22 2004-12-22 Stray light correction method and two-dimensional spectral luminance meter using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004372180A JP4400450B2 (en) 2004-12-22 2004-12-22 Stray light correction method and two-dimensional spectral luminance meter using the same

Publications (2)

Publication Number Publication Date
JP2006177813A JP2006177813A (en) 2006-07-06
JP4400450B2 true JP4400450B2 (en) 2010-01-20

Family

ID=36732057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004372180A Active JP4400450B2 (en) 2004-12-22 2004-12-22 Stray light correction method and two-dimensional spectral luminance meter using the same

Country Status (1)

Country Link
JP (1) JP4400450B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101945225B1 (en) * 2018-06-08 2019-02-07 (주)트라이시스 Method and apparatus for processing image data

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6068375B2 (en) * 2014-03-03 2017-01-25 エバ・ジャパン 株式会社 Spectral radiance meter
WO2016151778A1 (en) * 2015-03-24 2016-09-29 大塚電子株式会社 Reference light source device used for calibratiom of spectral luminance meter and calibration method using same
WO2016181746A1 (en) * 2015-05-14 2016-11-17 コニカミノルタ株式会社 Spectroscopic color measurement device and method for calculating spectral reflectance
CN109813536A (en) * 2019-03-14 2019-05-28 长春理工大学 A kind of infrared optical system external stray light test device and test method
JP7207124B2 (en) * 2019-04-16 2023-01-18 セイコーエプソン株式会社 CALIBRATION DEVICE, CALIBRATION METHOD, SPECTRAL CAMERA, AND DISPLAY DEVICE

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101945225B1 (en) * 2018-06-08 2019-02-07 (주)트라이시스 Method and apparatus for processing image data
WO2019235695A1 (en) * 2018-06-08 2019-12-12 주식회사 트라이시스 Image data processing method and apparatus

Also Published As

Publication number Publication date
JP2006177813A (en) 2006-07-06

Similar Documents

Publication Publication Date Title
JP5786149B2 (en) Universally packed pixel array camera system and method
US7365850B2 (en) Two-dimensional spectroradiometer
US10168215B2 (en) Color measurement apparatus and color information processing apparatus
JP6064290B2 (en) Imaging apparatus, spectroscopic system, and spectroscopic method
JP6524617B2 (en) Imager and method
JP6322939B2 (en) Imaging system and color inspection system
JP6340884B2 (en) Measuring apparatus, measuring system and measuring method
US20110031418A1 (en) Optical sensor measurement and crosstalk evaluation
US20150163405A1 (en) Image forming apparatus, image forming method and image sensor
JP2010271246A (en) Method and device for color luminance measurement
US8976240B2 (en) Spatially-varying spectral response calibration data
WO2018085841A1 (en) Calibration method and apparatus for active pixel hyperspectral sensors and cameras
US20220299369A1 (en) System, Method and Apparatus for Wide Wavelength Range Imaging with Focus and Image Correction
JP4400450B2 (en) Stray light correction method and two-dimensional spectral luminance meter using the same
JP2016090291A (en) Imaging apparatus, spectroscopy system and spectroscopy method
JP6225519B2 (en) Measuring apparatus and measuring method
US11831968B2 (en) Image pickup apparatus comprising first and second sensor units each including a plurality of sensors
Schöberl et al. Building a high dynamic range video sensor with spatially nonregular optical filtering
JP7491084B2 (en) CALIBRATION DEVICE, CALIBRATION METHOD, CALIBRATION PROGRAM, SPECTROSCOPIC CAMERA, AND INFORMATION PROCESSING APPARATUS
JP2007147507A (en) Spectrometry and optical spectrometer
WO2017026296A1 (en) Sample measurement apparatus
JP7284457B2 (en) Quantum efficiency distribution acquisition method, quantum efficiency distribution display method, quantum efficiency distribution acquisition program, quantum efficiency distribution display program, spectrofluorophotometer and display device
CN116249876A (en) Image analysis method, image analysis device, program, and recording medium
KR102022836B1 (en) Apparatus for measuring light, system and method thereof
WO2020003673A1 (en) Spectral sensitivity measurement method for image sensors, inspection method for spectral sensitivity measurement devices, and spectral sensitivity measurement device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Ref document number: 4400450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091019

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350