JP2007147507A - Spectrometry and optical spectrometer - Google Patents

Spectrometry and optical spectrometer Download PDF

Info

Publication number
JP2007147507A
JP2007147507A JP2005344200A JP2005344200A JP2007147507A JP 2007147507 A JP2007147507 A JP 2007147507A JP 2005344200 A JP2005344200 A JP 2005344200A JP 2005344200 A JP2005344200 A JP 2005344200A JP 2007147507 A JP2007147507 A JP 2007147507A
Authority
JP
Japan
Prior art keywords
image data
camera
measured
coordinates
converted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005344200A
Other languages
Japanese (ja)
Inventor
Hiroshi Yokota
博 横田
Masahiro Hosoya
昌弘 細谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Original Assignee
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurabo Industries Ltd, Kurashiki Spinning Co Ltd filed Critical Kurabo Industries Ltd
Priority to JP2005344200A priority Critical patent/JP2007147507A/en
Publication of JP2007147507A publication Critical patent/JP2007147507A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Spectrometry And Color Measurement (AREA)
  • Blocking Light For Cameras (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide spectrometry capable of measuring a large number of bands, and having short measurement time and without displacement in the spectroscopic image of each band. <P>SOLUTION: The object to be measured 100 is imaged, by using a standard camera C1 and reference cameras C2, C3 to generate standard image data and reference image data by using respective cameras. The reference image data produced by the reference cameras are subjected to projective transformation, as though photographing has been performed from the position of the standard camera C1 to produce the transformed image data, such that the coordinates, indicating arbitrary point on the object to be measured in the image indicates the coordinates on the same point as the object to the measured of the standard image data photographed by the standard camera. The coordinates are made common, between the standard image data photographed by the standard camera and the transformed image data, and spectroscopic data of an arbitrary point on the object to be measured on the coordinates are generated. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、工業生産プロセスにおける分光分析による検査分野において画像検査を行う分光測定方法及び分光測定装置に関し、特に紫外、可視、赤外の各波長において分光分析による画像検査を行う分光測定方法及び分光測定装置に関する。   The present invention relates to a spectroscopic measurement method and a spectroscopic measurement apparatus that perform image inspection in an inspection field by spectroscopic analysis in an industrial production process, and in particular, a spectroscopic measurement method and spectroscopic method that perform image inspection by spectroscopic analysis at each wavelength of ultraviolet, visible, and infrared. It relates to a measuring device.

工業生産プロセスにおいて、製品の表面をカメラで撮影し、当該表面性状を検査する画像検査が広く行われている。当該画像検査は、波長特性が異なる複数の波長を用いて測定される分光分析により行われる場合がある。ここで、波長特性が異なる複数の画像を得るためには、従来以下のような方法が行われている。   In industrial production processes, image inspection is widely performed in which the surface of a product is photographed with a camera and the surface properties are inspected. The image inspection may be performed by spectroscopic analysis measured using a plurality of wavelengths having different wavelength characteristics. Here, in order to obtain a plurality of images having different wavelength characteristics, the following methods are conventionally performed.

第1の方法は、例えば、特開2003−309858号公報(特許文献1)に開示されているように1台のカメラに複数(例えば、3つ)の固体撮像素子を有する複数板式カメラを用い、それぞれの固体撮像素子に入射する光路上に特定波長の光のみを透過させるバンドパスフィルタを設ける方法である。この方法は、1台のカメラを用い、当該カメラに搭載されている固体撮像素子の数のバンド数で分光画像を得ることができる。また、各撮像素子に入射される光は、共通する光軸によりカメラに入射することとなるため、各バンドの画像は、光軸のずれによる位置のずれがなく、各バンドの画像データの位置が一致した画像を得ることができる。よって、特定の画像上の測定点の座標を他の画像の測定点の画像と共有することができるため、分光データの活用が容易となる。   As the first method, for example, as disclosed in Japanese Patent Application Laid-Open No. 2003-309858 (Patent Document 1), a multi-plate camera having a plurality of (for example, three) solid-state image sensors in one camera is used. This is a method of providing a band-pass filter that transmits only light of a specific wavelength on an optical path incident on each solid-state imaging device. In this method, a single camera is used, and a spectral image can be obtained with the number of bands equal to the number of solid-state imaging elements mounted on the camera. In addition, since the light incident on each image sensor is incident on the camera through a common optical axis, the image of each band does not shift in position due to the shift of the optical axis, and the position of the image data in each band. Can be obtained. Therefore, since the coordinates of the measurement point on the specific image can be shared with the image of the measurement point of another image, the spectral data can be easily used.

第2の方法は、1台のカメラの前に波長特性の異なる複数のフィルタを備えたフィルタ切り替え機構があり、撮影時に特定波長の光のみを透過させるバンドパスフィルタを切り替えながら撮影を繰り返し行う方法である。この方法によれば、フィルタ切り替え機構に設けられたフィルタの数だけ分光データを得ることができ、多くのバンド数の分光データを得ることができる。   The second method includes a filter switching mechanism including a plurality of filters having different wavelength characteristics in front of one camera, and repeatedly performs imaging while switching a bandpass filter that transmits only light of a specific wavelength during imaging. It is. According to this method, spectral data can be obtained by the number of filters provided in the filter switching mechanism, and spectral data having a large number of bands can be obtained.

第3の方法は、例えば、特開平10−300580号公報(特許文献2)に開示されている。この方法は、1台のカメラを用いるのであるが、その内蔵されているCCDに結像されるデータは、X軸方向が波長情報で、Y軸方向が測定物体の位置情報である。この場合、内蔵している回折格子の分光能力と、CCDのX軸方向のアレイ数で、分光データ数が決定するが、1回測定で得られるデータは、測定物体の線領域だけで面情報を得るためには、カメラ自体を線情報と垂直方向にスキャンさせて測定を行い続け、その測定回数分と移動距離で決定される分解能の画像データが得られるようにしたものである。
特開2003−309858号公報 特開平10−300580号公報
The third method is disclosed, for example, in JP-A-10-300580 (Patent Document 2). This method uses a single camera, but the data imaged on the built-in CCD has wavelength information in the X-axis direction and position information of the measurement object in the Y-axis direction. In this case, the number of spectral data is determined by the spectral capability of the built-in diffraction grating and the number of arrays in the X-axis direction of the CCD, but the data obtained in a single measurement is the surface information only from the line area of the measurement object. In order to obtain image data, the camera itself is scanned in the direction perpendicular to the line information, and measurement is continued, so that image data having a resolution determined by the number of times of measurement and the moving distance can be obtained.
JP 2003-309858 A Japanese Patent Laid-Open No. 10-300580

しかし、第1の方法は、1台のカメラに搭載することができる固体撮像素子の数に限界があり、現状では例えば、RGBの3つ、多くても4波長までの分光データしか得られない。固体撮像素子をこれ以上に増やすと、光学系の構造が複雑になり、実用的ではないという問題がある。   However, the first method has a limit on the number of solid-state imaging devices that can be mounted on one camera, and currently, for example, only spectral data up to three wavelengths of RGB and at most four wavelengths can be obtained. . If the number of solid-state imaging elements is increased further, the structure of the optical system becomes complicated, which is not practical.

また、第2の方法は、バンド数の数だけ、撮影を繰り返し行う必要があるため、測定時間が非常に長くなり、得られるバンド数の画像は、それぞれ同じタイミングで撮影されたものではないという問題がある。したがって、動きのある被測定物の分析には不利である。また、カメラの光軸上でバンドパスフィルタを切り替えるための機械系部分が必須であるため、長期にわたる信頼性が低く、また、コストが高くなるという問題がある。   In addition, the second method requires repeated imaging for the number of bands, so the measurement time becomes very long, and the images of the obtained number of bands are not taken at the same timing. There's a problem. Therefore, it is disadvantageous for the analysis of a moving object. Further, since a mechanical part for switching the bandpass filter on the optical axis of the camera is essential, there are problems that long-term reliability is low and cost is high.

また、第3の方法は、第1、第2の方法に比べれば、分光データ数は飛躍的に増える。数100から数1000の分光データの取得も可能である。しかし、物体面の高速測定という点では、1軸方向へのスキャンが必要なため第1の方法には及ばない。ただ、線方向のデータ取得はカメラレートであるので高速である。   Further, the third method dramatically increases the number of spectral data compared to the first and second methods. It is also possible to acquire several hundreds to thousands of spectral data. However, in terms of high-speed measurement of the object surface, scanning in one axis direction is necessary, so that it does not reach the first method. However, since the data acquisition in the line direction is at the camera rate, it is fast.

第2の方法との比較では、第2の方法のバンド数が第3の方法と同じであるならば、第2の方法の波長の切り替え機構系と、第3の方法の1軸方向へのスキャンの機構系についてどちらがシンプルで、信頼性が高いかという比較になる。第2の方法は、画像の位置ずれの問題は少ないが、第3の方法はスキャン方向の画素ずれと波長ずれが混在するという問題がある。また、既知の分光強度分布パターンを有する基準試料は、経時的に変化しないという保証はない。また、そのパターンで補正するが、パターン間は、内挿演算になるため、ずれ補正を完全になくすことは困難である。さらに、補正作業した後、次に補正するまでの間、光学系の分光画像はずれていくので、抜本的解決方法とはならない。一方、補正間隔を短くすれば、その間の計測はできないので、測定効率は低下する。   In comparison with the second method, if the number of bands of the second method is the same as that of the third method, the wavelength switching mechanism system of the second method and the uniaxial direction of the third method It is a comparison of which is simpler and more reliable about the scanning mechanism. The second method has few problems of image positional deviation, but the third method has a problem that pixel deviation and wavelength deviation in the scanning direction coexist. Further, there is no guarantee that a reference sample having a known spectral intensity distribution pattern does not change with time. Although correction is performed using the pattern, it is difficult to completely eliminate the shift correction because the interpolation is performed between the patterns. Further, since the spectral image of the optical system is shifted after the correction work until the next correction, it is not a fundamental solution. On the other hand, if the correction interval is shortened, measurement cannot be performed during that time, so that the measurement efficiency decreases.

したがって、本発明が解決しようとする技術的課題は、多くのバンド数を測定可能でかつ測定時間が短時間ですみ、また、各バンドの分光画像の位置ずれがない分光測定方法及び分光測定装置を提供することである。   Therefore, the technical problem to be solved by the present invention is a spectroscopic measurement method and a spectroscopic measurement apparatus that can measure a large number of bands and that the measurement time is short, and that there is no positional deviation of spectral images of each band. Is to provide.

本発明は、上記目的を達成するため、以下のように構成した。   In order to achieve the above object, the present invention is configured as follows.

本発明の第1態様によれば、基準カメラと、前記基準カメラと波長感度特性が異なる参照カメラを用いて被測定物を撮影して、それぞれのカメラにより基準画像データ及び参照画像データを作成し、
前記参照カメラにより作成された参照画像データを前記基準カメラの位置から撮影したように変換し画像中の被測定物上の任意の点を示す座標が前記基準カメラで撮影された基準画像データの被測定物上の同一点上の座標を示すような変換画像データを作成し、
前記基準カメラで撮影された前記基準画像データと前記変換画像データとの座標を共有化して、当該座標上における被測定物上の任意の点の分光データを作成することを特徴とする、分光測定方法を提供する。
According to the first aspect of the present invention, an object to be measured is photographed using a standard camera and a reference camera having a wavelength sensitivity characteristic different from that of the standard camera, and standard image data and reference image data are created by each camera. ,
The reference image data created by the reference camera is converted as if it was photographed from the position of the standard camera, and the coordinates indicating an arbitrary point on the object to be measured in the image are covered by the standard image data photographed by the standard camera. Create converted image data that shows the coordinates on the same point on the measurement object,
Spectral measurement characterized in that the coordinates of the reference image data photographed by the reference camera and the converted image data are shared to generate spectral data of an arbitrary point on the object to be measured on the coordinates. Provide a method.

本発明の第2態様によれば、それぞれ波長感度特性が異なる複数の参照カメラを用いて被測定物を撮影して、それぞれのカメラにより参照画像データを作成し、
前記複数の参照カメラにより作成された複数の参照画像データを仮想の基準カメラの位置から撮影したように変換し、画像中の被測定物上の任意の点を示す座標が仮想の基準カメラの位置から撮影された仮想基準画像データの被測定物上の同一点上の座標を示すような変換画像データを作成し、
前記変換画像データとの座標を共有化して、当該座標上における被測定物上の任意の点の分光データを作成することを特徴とする分光測定方法を提供する。
According to the second aspect of the present invention, the object to be measured is photographed using a plurality of reference cameras each having different wavelength sensitivity characteristics, and reference image data is created by each camera,
A plurality of reference image data created by the plurality of reference cameras is converted as if taken from the position of a virtual reference camera, and coordinates indicating arbitrary points on the object to be measured in the image are positions of the virtual reference camera. Create converted image data that shows the coordinates on the same point on the measured object of the virtual reference image data taken from
There is provided a spectroscopic measurement method characterized by sharing the coordinates with the converted image data and generating spectroscopic data of an arbitrary point on the object to be measured on the coordinates.

本発明の第3態様によれば、前記基準カメラ及び前記参照カメラは、一定時間ごとに連続して入力されるトリガ信号により画像の取得開始を行い、前記被測定物上の同一点上の座標を示す変換画像データは、同一時刻でのデータであり、前記当該座標上における被測定物上の任意の点の分光データは、先のトリガ時点での分光データであることを特徴とする、第1又は第2態様の分光測定方法を提供する。   According to the third aspect of the present invention, the reference camera and the reference camera start acquisition of an image by a trigger signal that is continuously input every predetermined time, and coordinates on the same point on the object to be measured. The converted image data indicating is the data at the same time, and the spectral data of an arbitrary point on the object to be measured on the coordinates is spectral data at the previous trigger time, The spectroscopic measurement method according to the first or second aspect is provided.

本発明の第4態様によれば、前記基準カメラと前記参照カメラを用いてそれぞれ被測定物を撮影する場合、前記被測定物表面に基準点を付した状態で撮影し、
前記変換画像データの作成において、基準画像データ及び参照画像データ中の前記基準点の座標を用いて、参照画像データから変換画像データの変換式を算出し、当該参照画像データの各座標を前記変換式に代入することによって、変換画像データを作成することを特徴とする、第1から第3態様のいずれか1つの分光測定方法を提供する。
According to the fourth aspect of the present invention, when each of the objects to be measured is imaged using the reference camera and the reference camera, the image is taken with a reference point attached to the surface of the object to be measured,
In the creation of the converted image data, the conversion formula of the converted image data is calculated from the reference image data using the coordinates of the reference point in the standard image data and the reference image data, and each coordinate of the reference image data is converted into the converted image data. A spectroscopic measurement method according to any one of the first to third aspects is provided, wherein converted image data is created by substituting into an equation.

本発明の第5態様によれば、前記基準点は、投光装置から前記基準点を含む光を前記被測定物表面に投射することにより、被測定物表面に付されることを特徴とする、第4態様の分光測定方法を提供する。   According to a fifth aspect of the present invention, the reference point is attached to the surface of the object to be measured by projecting light including the reference point onto the surface of the object to be measured from a light projecting device. The spectroscopic measurement method according to the fourth aspect is provided.

本発明の第6態様によれば、前記参照カメラは、前記基準カメラ及びそれぞれ波長感度特性が異なる複数のカメラで構成されていることを特徴とする、第1から第5態様のいずれか1つの分光測定方法を提供する。   According to a sixth aspect of the present invention, in any one of the first to fifth aspects, the reference camera is composed of the reference camera and a plurality of cameras having different wavelength sensitivity characteristics. A spectroscopic measurement method is provided.

本発明の第7態様によれば、前記基準カメラ及び前記参照カメラは、特定の波長の光だけを透過させるバンドパスフィルタをそなえ、それぞれ異なる波長感度特性を有することを特徴とする、第1から第6態様のいずれか1つの分光測定方法を提供する。   According to a seventh aspect of the present invention, the reference camera and the reference camera have bandpass filters that transmit only light of a specific wavelength, and have different wavelength sensitivity characteristics. The spectroscopic measurement method according to any one of the sixth aspect is provided.

本発明の第8態様によれば、前記基準カメラおよび前記参照カメラは、XYZ表色系の等色関数に近似した波長感度特性を有することを特徴とする、第1から第7態様のいずれか1つの分光測定方法を提供する。   According to an eighth aspect of the present invention, in any one of the first to seventh aspects, the reference camera and the reference camera have wavelength sensitivity characteristics approximate to a color matching function of an XYZ color system. One spectroscopic method is provided.

本発明の第9態様によれば、被測定物を撮影して基準画像データを出力する基準カメラと、前記被測定物を撮影して参照画像データを出力する前記基準カメラと波長感度特性が異なる参照カメラと、
前記基準画像データ及び参照画像データを記憶する画像データ記憶部と、
前記画像データ記憶部に格納された前記参照画像データを前記基準カメラの位置から撮影したように変換し、前記参照画像データ中の被測定物上の任意の点を示す座標が前記基準カメラで撮影された基準画像データの被測定物上の同一点上の座標を示すような変換画像データを作成する変換画像作成部と、
前記基準カメラで撮影された前記基準画像データと前記変換画像データとの座標を共有化して、当該座標上における被測定物上の任意の点の分光データを作成するスペクトルデータ作成部とを備えることを特徴とする、分光測定装置を提供する。
According to the ninth aspect of the present invention, the wavelength sensitivity characteristic is different from that of the reference camera that images the object to be measured and outputs the reference image data, and the reference camera that images the object to be measured and outputs the reference image data. A reference camera;
An image data storage unit for storing the standard image data and the reference image data;
The reference image data stored in the image data storage unit is converted so as to be photographed from the position of the standard camera, and coordinates indicating an arbitrary point on the measurement object in the reference image data are photographed by the standard camera. A converted image creating unit that creates converted image data indicating coordinates on the same point on the object to be measured of the reference image data that has been obtained,
A spectrum data creating unit that creates the spectral data of an arbitrary point on the object to be measured on the coordinates by sharing the coordinates of the reference image data and the converted image data captured by the reference camera; A spectroscopic measurement device is provided.

本発明の第10態様によれば、被測定物を撮影してそれぞれ参照画像データを作成する互いに波長感度特性が異なる複数の参照カメラと、
前記参照画像データをそれぞれ記憶する画像データ記憶部と、
前記複数の参照カメラにより作成された複数の参照画像データを仮想の基準カメラの位置から撮影したように変換し、画像中の被測定物上の任意の点を示す座標が仮想の基準カメラで撮影された仮想基準画像データの被測定物上の同一点上の座標を示すような変換画像データを作成する変換画像作成部と、
前記変換画像データとの座標を共有化して、当該座標上における被測定物上の任意の点の分光データを作成するスペクトルデータ作成部とを備えることを特徴とする、分光測定装置を提供する。
According to the tenth aspect of the present invention, a plurality of reference cameras having different wavelength sensitivity characteristics that shoot the object to be measured and generate reference image data, respectively,
An image data storage unit for storing the reference image data,
A plurality of reference image data created by the plurality of reference cameras are converted as if taken from the position of the virtual reference camera, and coordinates indicating arbitrary points on the object to be measured in the image are taken by the virtual reference camera. A converted image creating unit that creates converted image data indicating coordinates on the same point on the object to be measured of the virtual reference image data that has been obtained,
A spectroscopic measurement device is provided, comprising: a spectral data creation unit that creates the spectral data of an arbitrary point on the object to be measured on the coordinates by sharing the coordinates with the converted image data.

本発明は、それぞれ波長感度特性の異なるエリアカメラにより、同一画像を計測した場合、異なるカメラ位置からくる画像の位置ずれを補正して、計測体の同一点からのデータは、同一付加グループ番号のメモリに格納できるように画像データをデジタル化して、変換するものである。各カメラにより撮影された画像データは、被測定物の一点における分光データを示すものであるため、各画像の座標ごとの輝度データを共有化することにより容易に分光スペクトル画像データを高速で測定することができる。   In the present invention, when the same image is measured by the area cameras having different wavelength sensitivity characteristics, the positional deviation of the images coming from different camera positions is corrected, and the data from the same point of the measurement object is the same additional group number. The image data is digitized and converted so that it can be stored in a memory. Since the image data photographed by each camera indicates spectral data at one point of the object to be measured, the spectral data can be easily measured at high speed by sharing luminance data for each coordinate of each image. be able to.

また、同一時間であることを各カメラに伝達する手段としてトリガ信号を用いることにより、同一時間、同一場所の測定点の各カメラのデータを用いることができ、測定点の検査をより性格に行うことができる。   In addition, by using a trigger signal as means for transmitting to each camera that the time is the same, the data of each camera at the measurement point at the same time and the same location can be used, and the measurement point can be inspected more accurately. be able to.

以下、本発明の実施形態に係る分光測定装置について、図面を参照しながら説明する。   Hereinafter, a spectrometer according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係る分光測定装置の概略構成を示すブロック図である。分光測定装置1は、被測定物100を撮影し、画像データを出力可能な複数のカメラ11,12,13と、カメラ11,12,13から出力された画像データを処理演算する処理演算部20と、被測定物100を照射する光源30と、処理演算部20を操作する操作部40と、ディスプレイやプリンタなどの出力装置で構成される出力部50とを備えている。   FIG. 1 is a block diagram showing a schematic configuration of a spectrometer according to an embodiment of the present invention. The spectroscopic measurement apparatus 1 shoots a device under test 100 and outputs a plurality of cameras 11, 12, and 13 that can output image data, and a processing calculation unit 20 that processes and calculates image data output from the cameras 11, 12, and 13. A light source 30 that irradiates the device under test 100, an operation unit 40 that operates the processing arithmetic unit 20, and an output unit 50 that includes an output device such as a display or a printer.

複数のカメラ11,12,13は、互いに分光特性が異なるカメラであり、赤外線から紫外線までのある特定の波長に光学特性を有するカメラを適宜選択して、必要とするバンド数の台数だけ使用することができる。また、複数のカメラ11,12,13は、互いの相対位置についての情報が既知であり、その情報は処理演算部20に記憶されている。複数のカメラ11,12,13は、参照カメラ又は基準カメラとして機能するものである。基準カメラは、後述する射影変換において、そのカメラ位置を基準とするカメラであり、参照カメラは、その撮影画像データが射影変換において、基準カメラのカメラ位置から撮影されたように射影変換されるカメラである。すなわち、両者の違いは射影変換処理時において、その基準となるか参照となるかの違いであり、構成上の実質的な相違はみられない。   The plurality of cameras 11, 12, and 13 are cameras having different spectral characteristics from each other, and a camera having optical characteristics at a specific wavelength from infrared to ultraviolet is appropriately selected and used as many as the required number of bands. be able to. In addition, information about the relative positions of the plurality of cameras 11, 12, and 13 is known, and the information is stored in the processing calculation unit 20. The plurality of cameras 11, 12, and 13 function as reference cameras or reference cameras. The reference camera is a camera based on the camera position in the projective transformation described later, and the reference camera is a camera in which the captured image data is projectively converted as if it was taken from the camera position of the standard camera in the projective transformation. It is. That is, the difference between the two is the difference between the reference and the reference in the projective transformation process, and no substantial difference in configuration is observed.

光源30は被測定物100に処理演算部20における画像処理に必要な基準点を照射するための光源であり、具体的には、液晶プロジェクタなど任意の画像を映写できる構成のものであることが好ましい。この映写画像の情報は、処理演算部20に記憶されている。操作部40は、測定者により操作されるキー入力スイッチ等から構成される。なお、処理演算部20は、実際には、パーソナルコンピュータを用いて構成することができ、該コンピュータに所定のプログラムを実行させることにより後述の各種処理を行なうようにすることができる。   The light source 30 is a light source for irradiating the measurement object 100 with a reference point necessary for image processing in the processing calculation unit 20, and specifically, it is configured to project an arbitrary image such as a liquid crystal projector. preferable. Information about the projected image is stored in the processing calculation unit 20. The operation unit 40 includes a key input switch operated by a measurer. Note that the processing operation unit 20 can actually be configured using a personal computer, and can execute various processes described later by causing the computer to execute a predetermined program.

図2は、図1中の処理演算部20の要部の機能構成を示すブロック図である。カメラ11,12,13から出力された画像データは、受光素子毎にA/D変換部21にてデジタル信号に変換され射影変換部22へ入力される。射影変換部22には射影変換において演算上必要となるそれぞれのカメラの相対位置情報を記憶したカメラ位置情報メモリ26が接続されており、当該位置情報に基づいて後述のような処理によりそれぞれのカメラより撮影された画像データを射影変換する。   FIG. 2 is a block diagram showing a functional configuration of a main part of the processing operation unit 20 in FIG. Image data output from the cameras 11, 12, and 13 is converted into a digital signal by the A / D conversion unit 21 for each light receiving element and input to the projection conversion unit 22. A camera position information memory 26 that stores the relative position information of each camera necessary for calculation in the projective conversion is connected to the projective conversion unit 22, and each camera is processed by a process as described later based on the position information. Projective transformation is performed on the image data captured.

射影変換処理において、各画像の基準点は、光源30から被測定物100に照射された投影画像が用いられる。図3は、被測定物100の表面60に投影された投影画像の例を示す図である。投影画像62は、格子パターンであり、その縦線及び横線のクロス点62中の任意の点を基準点として用いることができる。ただし、各画像において、基準点は、投影画像中の同じ位置であることが必要である。また、基準点は少なくとも7つ必要であり、当該基準点の画像上の座標を用いて、射影変換が行われる。   In the projective transformation process, a projection image irradiated from the light source 30 onto the object to be measured 100 is used as the reference point of each image. FIG. 3 is a diagram illustrating an example of a projected image projected on the surface 60 of the DUT 100. The projected image 62 is a lattice pattern, and an arbitrary point in the vertical line and horizontal line cross point 62 can be used as a reference point. However, in each image, the reference point needs to be at the same position in the projection image. Further, at least seven reference points are necessary, and projective transformation is performed using the coordinates of the reference points on the image.

射影変換部22にて補正された分光画像は座標演算部23へ入力される。座標演算部23は、射影変換されたそれぞれのカメラ11,12,13からの画像情報について、画像上の同じ座標における輝度を統合させて、分光データとする。座標演算部23によって作成された分光データは、画像合成部24により、合成分光画像に変換されて、出力部50に出力される。以下、上記構成の分光測定装置の処理演算部20において行われる処理動作及び分光測定装置の用途例について詳述する。   The spectral image corrected by the projection conversion unit 22 is input to the coordinate calculation unit 23. The coordinate calculation unit 23 integrates the luminance at the same coordinates on the image with respect to the image information from each of the cameras 11, 12, and 13 subjected to the projective transformation to obtain spectral data. The spectral data created by the coordinate calculation unit 23 is converted into a synthesized spectral image by the image synthesis unit 24 and output to the output unit 50. Hereinafter, processing operations performed in the processing operation unit 20 of the spectroscopic measurement apparatus having the above-described configuration and application examples of the spectroscopic measurement apparatus will be described in detail.

(実施例1)カメラ7台による可視光分光スペクトルエリア測定装置
図4に示すように中央に1台とその周囲に6台のカメラを配置させ、それぞれC1からC7の番号を付ける。それぞれのカメラは、白黒デジタルビデオカメラモジュールXCL-V500(ソニー株式会社製)を7個使用している。それぞれを密な状態で設置するため、図4のような位置関係を持って配置される。このカメラは、毎秒60フレームのデジタル出力が可能である。
(Example 1) Visible light spectral spectrum area measuring apparatus using seven cameras As shown in FIG. 4, one camera is arranged at the center and six cameras around it, and numbers C1 to C7 are assigned respectively. Each camera uses seven black and white digital video camera modules XCL-V500 (manufactured by Sony Corporation). Since they are installed in a dense state, they are arranged with a positional relationship as shown in FIG. This camera is capable of digital output at 60 frames per second.

それぞれ7台のカメラには、測定面をピント合わせできる同じ種類のレンズが装着されており、レンズ前には、それぞれC1からC7に相当するフィルタが装着されている。フィルタは、バンドパスフィルタであり、その分光特性は、図5に示す。7個のカメラC1〜C7は、処理演算部20より発せられる同期信号により、一斉に被測定物100の撮影を開始する。そのデータは、上述のように処理演算部20に送信され、以下の処理がなされる。   Each of the seven cameras is equipped with the same type of lens that can focus the measurement surface, and filters corresponding to C1 to C7 are attached in front of the lenses. The filter is a bandpass filter, and its spectral characteristics are shown in FIG. The seven cameras C <b> 1 to C <b> 7 start photographing the objects to be measured 100 all at once in response to a synchronization signal generated from the processing calculation unit 20. The data is transmitted to the processing calculation unit 20 as described above, and the following processing is performed.

以下、処理演算部20において演算される画像データにおいて、L番目の測定データで、カメラKの画素(I,J)を、(I,J,K,L)と表し、その画像データは、Sijklと表す。データは、同期信号により全てのカメラにおいて同時に取得するので、以下は、lが同じデータで説明するため、Sijkl=Sijkとして、lの記載を省略する。 Hereinafter, in the image data calculated by the processing calculation unit 20, the pixel (I, J) of the camera K is represented as (I, J, K, L) in the Lth measurement data, and the image data is S Expressed as ijkl . Since data is acquired by all the cameras at the same time by the synchronization signal, in the following, since l is described as the same data, description of l is omitted as S ijk l = S ijk .

まず、光源30から格子パターンを被測定物表面に照射し、それを7台のカメラで計測する。格子パターンは、400nmから700nmの範囲において十分に計測できるような広い波長の光を含む光源から照射される。それぞれのカメラC1〜C7は、図4において示したように、測定面からの位置が少しずつ異なるので、得られる画像データは異なる。   First, the surface of the object to be measured is irradiated with a lattice pattern from the light source 30 and measured with seven cameras. The grating pattern is irradiated from a light source including light having a wide wavelength that can be sufficiently measured in the range of 400 nm to 700 nm. As shown in FIG. 4, the respective cameras C <b> 1 to C <b> 7 are slightly different in position from the measurement surface, and thus the obtained image data is different.

図4の中心に設置してあるC1のカメラを基準カメラとして、図5に示す格子パターンの25個のクロス点62の画素を、コンピュータにより求める。今1番目のカメラ(C2)だけに注目する。カメラのクロス点62の番号h番目の画素(X,Y)を、(X1-h,Y1-h)とする。次に、2番目のカメラのクロス点12の番号h番目の画素(X,Y)を、(X2-h,Y2-h)とする。 Using the C1 camera installed at the center of FIG. 4 as a reference camera, the pixels of the 25 cross points 62 of the lattice pattern shown in FIG. 5 are obtained by a computer. Now focus only on the first camera (C2). The number h-th pixel (X, Y) at the cross point 62 of the camera is defined as (X 1-h , Y 1-h ). Next, the number h-th pixel (X, Y) of the cross point 12 of the second camera is set to (X 2-h , Y 2-h ).

Figure 2007147507
Figure 2007147507

以下、これを、
[X1]=[P2][X2]と行列で表す。ここで、[P2]は、カメラC2の画像を基準カメラであるカメラC1の位置へ射影変換させるための定数行列である。
Hereafter,
[X 1 ] = [P 2 ] [X 2 ] and is represented by a matrix. Here, [P 2 ] is a constant matrix for projectively transforming the image of the camera C2 to the position of the camera C1, which is the reference camera.

上記式(1)より、
[P2]=([X1][X2t)([X2][X2t-1
として、[P2]を求める。このようにして求められた[P2]を用いて、参照カメラC2の画像上の座標をカメラC1の画像上の座標に射影変換することができる。これがカメラC2の画像をカメラC1に合わせる一番簡単な変換である。上記式によれば、回転と直線的なゆがみだけが補正できる。
From the above formula (1),
[P 2 ] = ([X 1 ] [X 2 ] t ) ([X 2 ] [X 2 ] t ) −1
[P 2 ] is obtained as follows. Using [P 2 ] obtained in this way, the coordinates on the image of the reference camera C2 can be projectively transformed into the coordinates on the image of the camera C1. This is the simplest conversion for matching the image of the camera C2 with the camera C1. According to the above equation, only rotation and linear distortion can be corrected.

なお、カメラC1とカメラC2との間の画像の補正において、各画像間で平行移動が必要な場合は、式(2)を用いて[P]を算出する。また、非直線的な変換も必要な場合は、2次式のパラメータを導入して、式(3)を用いて[P]を算出すればよい。 Note that, in the correction of the image between the camera C1 and the camera C2, [P 2 ] is calculated using Equation (2) when parallel movement is required between the images. If non-linear conversion is also necessary, a parameter of a quadratic equation may be introduced and [P 2 ] may be calculated using equation (3).

Figure 2007147507
Figure 2007147507

Figure 2007147507
Figure 2007147507

3番目のカメラC3から7番目のカメラC7まで、上記と同様にして[P]から[P]を求める。被測定物のカメラKの(I,J)画素データは、最も簡単な変換例の場合、次の式(4)のようにして求められる。 [P 3 ] to [P 7 ] are obtained from the third camera C3 to the seventh camera C7 in the same manner as described above. In the case of the simplest conversion example, the (I, J) pixel data of the camera K of the object to be measured is obtained as the following equation (4).

Figure 2007147507
Figure 2007147507

ここで、I,Jは、参照カメラC2〜C7で撮影された画像データの座標であるため、それぞれ、1からN、M(N,Mは、画像データのX軸、Y軸方向画素数を示す。)の自然数である。I',J'は、計算結果として、小数点も含むが、四捨五入により、自然数にする。   Here, since I and J are the coordinates of the image data taken by the reference cameras C2 to C7, 1 to N and M (N and M are the numbers of pixels in the X-axis and Y-axis directions of the image data, respectively. It is a natural number. I 'and J' include a decimal point as a calculation result, but are rounded to a natural number.

このようにして求められたI',J'のメモリ番地M(I',J',K,1)に、SIJK1を格納する。
カメラC1は基準カメラであるので、カメラC1で撮影された画像データの各画素だけは、M(I,J,1,1)=SIJ11となる。これを、カメラ1から7に対して、それぞれの画素(I,J)のIが1からNまで、Jが1からMまで行う。
S IJK1 is stored in the memory address M (I ′, J ′, K, 1) of I ′, J ′ obtained in this way.
Since the camera C1 is a reference camera, only each pixel of the image data photographed by the camera C1 is M (I, J, 1,1) = S IJ11 . This is performed for each of the cameras 1 to 7 from 1 to N and J from 1 to M for each pixel (I, J).

同様に次の同期タイミングには、M(I',J',K,2)には、SIJK2が格納される。 Similarly, S IJK2 is stored in M (I ′, J ′, K, 2) at the next synchronization timing.

これにより、時間tのときの、測定対称位置の画素(I,J)に相当する7波長の分光データは、SIJ1tIJ2tIJ3tIJ4tIJ5tIJ6tIJ7tのようになる。 Thereby, the spectral data of 7 wavelengths corresponding to the pixel (I, J) at the measurement symmetry position at time t is as follows : S IJ1t S IJ2t S IJ3t S IJ4t S IJ5t S IJ6t S IJ7t

本実施例によれば、コンピュータのメモリ上へのデータアクセスだけで、容易に時間tの時の測定対称位置の画素(I,J)に相当する7バンドの分光データを得ることができる。   According to the present embodiment, spectral data of 7 bands corresponding to the pixel (I, J) at the measurement symmetry position at time t can be easily obtained by only accessing data on the memory of the computer.

(実施例2)赤外カメラ3台と可視カメラ1台による測定対称面の水分量計測システム例
それぞれのカメラ配置は、図6である。中心に可視カメラC1を設置する。対称に3台の同種類の赤外カメラを設置して、各カメラは、被測定物表面にピント調整されている。
(Example 2) Example of water content measurement system of measurement symmetry plane by three infrared cameras and one visible camera Each camera arrangement is shown in FIG. A visible camera C1 is installed at the center. Three infrared cameras of the same type are installed symmetrically, and each camera is focused on the surface of the object to be measured.

通常、赤外カメラは、可視カメラに比べて画素数がなく、ぼやけた画像しか計測できない。また、水分は、赤外スペクトル領域に吸収がある。可視光線領域では透明な水でも、赤外カメラでは、その強い吸収により、水分量の計測、検知が可能である。工業計測ラインでは、製品の水検知が必要なことが多い。本実施例は、鋼板の製造のめっき鋼板上の表面処理膜の水分量を計測する分光測定装置の例を示す。   In general, an infrared camera has fewer pixels than a visible camera and can only measure a blurred image. Moisture has absorption in the infrared spectral region. Even with water that is transparent in the visible light region, the infrared camera can measure and detect the amount of water due to its strong absorption. Industrial measurement lines often require product water detection. This example shows an example of a spectroscopic measurement device that measures the moisture content of a surface treatment film on a plated steel plate in the manufacture of a steel plate.

赤外カメラは、通常高価であり、感度の点から単板式カメラが多い。しかし、単板式カメラの場合は、赤外スペクトル領域の固定した感度パターンしか計測できないので、測定対象に投光する光源の強度ふらつきや、あるいは赤外カメラのセンサの感度ふらつきにより、精度よく計測することが困難である。通常水分の計測を行う場合は、水の吸収スペクトルにおいて吸収の強い波長(以下では測定波長)と、吸収の少ないあるいは吸収のない波長で、測定波長よりも波長の長いところと、短いところを選び、以後、これらをそれぞれ参照波長1、参照波長2と呼ぶ(図11参照)。これらを用いて、ベースラインを求めて、水の吸収量だけを的確に求められるような演算(以降、3波長演算と呼ぶ)を行う。本実施例では、測定波長=2.8μm、参照波長1=2.3μm、参照波長2=3.9μmとした。   Infrared cameras are usually expensive, and there are many single-plate cameras in terms of sensitivity. However, in the case of a single-panel camera, only a fixed sensitivity pattern in the infrared spectral region can be measured, so accurate measurement is possible due to fluctuations in the intensity of the light source projecting on the measurement target or fluctuations in the sensitivity of the infrared camera sensor. Is difficult. When measuring moisture normally, select a wavelength with a strong absorption in the absorption spectrum of water (measurement wavelength below) and a wavelength with little or no absorption, where the wavelength is longer or shorter than the measurement wavelength. Hereinafter, these will be referred to as reference wavelength 1 and reference wavelength 2, respectively (see FIG. 11). Using these, a baseline is obtained, and a calculation (hereinafter referred to as a three-wavelength calculation) is performed so that only the amount of water absorption can be accurately obtained. In this embodiment, the measurement wavelength is 2.8 μm, the reference wavelength 1 is 2.3 μm, and the reference wavelength 2 is 3.9 μm.

赤外カメラC2には、測定波長に一致したバンドパスフィルタを、赤外カメラC3には、参照波長1に一致したバンドパスフィルタを、赤外カメラC4には、参照波長2に一致したバンドパスフィルタを設置する。なお、本実施例において用いた赤外カメラは、Electrophysics社製、型番PV320-LDである。   The infrared camera C2 has a bandpass filter that matches the measurement wavelength, the infrared camera C3 has a bandpass filter that matches the reference wavelength 1, and the infrared camera C4 has a bandpass filter that matches the reference wavelength 2. Install a filter. Note that the infrared camera used in this example is model number PV320-LD manufactured by Electrophysics.

4台のカメラから得られる画像のゆがみは、実施例1で示した処理方法と同様の方法で行う。ただ、異なるのは、可視カメラと赤外カメラで画素数が異なる。画素数は、通常可視カメラの方が多い。ここでは、中央に設置している可視カメラC1を基準カメラとし、その画素解像度に合ったメモリを用意しておく。赤外カメラは画素数が少ないので、赤外カメラに相当するメモリ番地M(I,J,K,L)には、データがないものが発生する。そのため、可視カメラの画素(I,J)で指定した箇所で、そこの赤外カメラデータが得られないことが発生するので、データの存在する最近傍点のメモリ番地データから内挿演算により、計算から値を求めて格納する。実際の測定したデータではないが、近似値を演算で求める。   The distortion of images obtained from the four cameras is performed by the same method as the processing method shown in the first embodiment. However, the difference is that the number of pixels differs between the visible camera and the infrared camera. The number of pixels is usually larger for a visible camera. Here, the visible camera C1 installed in the center is used as a reference camera, and a memory suitable for the pixel resolution is prepared. Since the infrared camera has a small number of pixels, a memory address M (I, J, K, L) corresponding to the infrared camera has no data. For this reason, the infrared camera data may not be obtained at the location specified by the visible camera pixel (I, J), so it is calculated by interpolation from the memory address data at the nearest point where the data exists. The value is obtained from and stored. Although it is not actual measured data, an approximate value is calculated.

可視カメラC1は、赤外カメラより応答スピードが速い。そのため、プロセス計測において、ベルトコンベアなどで流れてきた測定対象体に関して、可視カメラから捉えたマーカに相当する形状を判別して、その位置を判断して、測定タイミングを生成する。その生成タイミングに同期して、可視カメラも含めた4台のカメラで撮影を行い、メモリにそのデータを格納する。その場合の画像のゆがみ補正は、実施例1で述べた方法と同じである。   The visible camera C1 has a faster response speed than the infrared camera. Therefore, in the process measurement, regarding the measurement object flowing on the belt conveyor or the like, the shape corresponding to the marker captured from the visible camera is determined, the position is determined, and the measurement timing is generated. In synchronization with the generation timing, photographing is performed with four cameras including a visible camera, and the data is stored in the memory. The image distortion correction in that case is the same as the method described in the first embodiment.

次に、赤外カメラC2〜C4(K=1,2,3)のM(I,J,1,t)、M(I,J,2,t)、M(I,J,3,t)のデータにおいて次の演算を行う。M(I,J,1,t)が測定波長のカメラであり、M(I,J,2,t)が参照波長1のカメラでM(I,J,3,t)が参照波長2のカメラである。   Next, M (I, J, 1, t), M (I, J, 2, t), M (I, J, 3, t) of infrared cameras C2 to C4 (K = 1,2,3) ) The following calculation is performed on the data. M (I, J, 1, t) is the camera with the measurement wavelength, M (I, J, 2, t) is the camera with the reference wavelength 1, and M (I, J, 3, t) is the reference wavelength 2. It is a camera.

まず、水分がないときのデータをあらかじめ測定しておき、それを、M(I,J,1,0)、M(I,J,2,0)、M(I,J,3,0)としておく。   First, the data when there is no moisture is measured in advance, and M (I, J, 1,0), M (I, J, 2,0), M (I, J, 3,0) Keep it as

次に、
T(I,J,1,t) =M(I,J,1,t)/M(I,J,1,0)
T(I,J,2,t) =M(I,J,2,t)/M(I,J,2,0)
T(I,J,3,t) =M(I,J,3,t)/M(I,J,3,0)
を求めた後、
A(I,J,1,t) =−LOG10[T(I,J,1,t)]
A(I,J,2,t) =−LOG10[T(I,J,2,t)]
A(I,J,3,t) =−LOG10[T(I,J,3,t)]
の吸光度データを求め、次式の演算を行う。
S(I,J,t) =A(I,J,1,t) −{A(I,J,2,t) + A(I,J,3,t)}/2
next,
T (I, J, 1, t) = M (I, J, 1, t) / M (I, J, 1,0)
T (I, J, 2, t) = M (I, J, 2, t) / M (I, J, 2,0)
T (I, J, 3, t) = M (I, J, 3, t) / M (I, J, 3,0)
After asking
A (I, J, 1, t) = −LOG 10 [T (I, J, 1, t)]
A (I, J, 2, t) = −LOG 10 [T (I, J, 2, t)]
A (I, J, 3, t) = −LOG 10 [T (I, J, 3, t)]
Is calculated and the following equation is calculated.
S (I, J, t) = A (I, J, 1, t) − {A (I, J, 2, t) + A (I, J, 3, t)} / 2

このS(I,J,t)が、測定対称位置の画素(I,J)に相当するところの水分量に比例する。これより水分量の画像データが得られる。この画像データは、水分量の増減に応じて、前段階の乾燥機の調整に用いられる。   This S (I, J, t) is proportional to the amount of water corresponding to the pixel (I, J) at the measurement symmetrical position. As a result, image data of the amount of moisture can be obtained. This image data is used to adjust the dryer in the previous stage according to the increase or decrease of the moisture content.

(実施例3)CCDカメラ複数台による三刺激値直読型色彩測定システム例
色を見分ける感度をあらわす人間の目に対応する分光感度は等色関数と呼ばれている。本実施例にかかる分光測定装置は、刺激値直読型の色彩測定機であり、等色関数に近似した応答感度をもつセンサx(λ)、y(λ)、z(λ)でサンプルを測定し、直接「三刺激値」と呼ばれるX,Y,Zの3つの値を測定する。
Example 3 Tristimulus Value Direct-Reading Color Measurement System Example Using Multiple CCD Cameras Spectral sensitivity corresponding to the human eye representing the sensitivity to distinguish colors is called a color matching function. The spectroscopic measurement apparatus according to this embodiment is a stimulus value direct-reading type color measuring machine, and measures a sample with sensors x (λ), y (λ), and z (λ) having response sensitivities approximated to color matching functions. Then, three values of X, Y, and Z that are directly called “tristimulus values” are measured.

ここで、上記X,Y,Zは、それぞれ以下の式(5)(6)(7)により求められる。   Here, the X, Y, and Z are obtained by the following equations (5), (6), and (7), respectively.

Figure 2007147507
Figure 2007147507

Figure 2007147507
Figure 2007147507

Figure 2007147507
Figure 2007147507

また、Kは次の式(8)により求められる。ここでKは、明るさの規格化を示す定義式である。   K is obtained by the following equation (8). Here, K is a definition formula indicating the normalization of brightness.

Figure 2007147507
Figure 2007147507

なお、人間の目に対応する分光感度(等色関数)は、図7に示すとおりである。本実施形態においては、等色関数に近似した分光応答度をもつx1、x2、y、zの4台のCCDカメラを用意し、この出力を三刺激値X,Y,Zとすることにより、色度座標を計算する。それぞれのカメラは、フィルタが設けられており、図8に示す分光特性を有する。また、x1、x2、y、zの4台のCCDカメラは、図9に示すとおり格子状に配置する。各カメラは処理演算部20から発せられる信号に同期して、同時に撮影を行い、メモリにそのデータを格納する。その場合の画像のゆがみ補正は、実施例1で述べた方法と同じである。   The spectral sensitivity (color matching function) corresponding to the human eye is as shown in FIG. In this embodiment, four CCD cameras x1, x2, y, and z having spectral responsivities approximating the color matching function are prepared, and the outputs are set as tristimulus values X, Y, and Z. Calculate chromaticity coordinates. Each camera is provided with a filter and has the spectral characteristics shown in FIG. Further, the four CCD cameras x1, x2, y, and z are arranged in a grid as shown in FIG. Each camera takes a picture at the same time in synchronization with a signal generated from the processing calculation unit 20 and stores the data in a memory. The image distortion correction in that case is the same as the method described in the first embodiment.

図に示すとおりCCDカメラ配置の関係から、視野の位置がカメラごとに異なるため、図10に示すように、補正のためあらかじめ格子パターン66(キャリブレーションプレート)を配置してそれぞれのカメラで画像を撮影し、各カメラの視野における共通領域67を処理演算部20に登録する。そして、各カメラの撮影画像から共通領域67を抜き取り、これを合成し測定画像とする。   As shown in the figure, because the position of the field of view varies from camera to camera due to the CCD camera arrangement, as shown in FIG. 10, a grid pattern 66 (calibration plate) is arranged in advance for correction, and an image is captured by each camera. A common area 67 in the field of view of each camera is registered in the processing calculation unit 20. Then, the common area 67 is extracted from the captured images of the cameras, and these are combined to obtain a measurement image.

本実施例にかかる刺激値直読型の色彩測定機は、次の効果を奏する。すなわち、等色関数に近似した分光応答度は、各応答感度に重なり合う部分が多いため、一般の3板式カメラ光学系で採用されているダイクロイックミラーによる入射光の分割ができない。また、ビームスプリッターにより入射光を分割すれば、分割後の光量が入射光の1/2あるいは1/4と小さくなり、ダイナミックレンジが低下するという問題がある。本実施例のように、独立したCCDカメラを使用することにより、直接入射光を受光できダイナミックレンジを向上させることができる。また、3板式カメラシステム組み立て時に行っているCCDセンサごとの画素位置調整が不要である。   The stimulus value direct reading type color measuring machine according to the present embodiment has the following effects. That is, the spectral responsivity approximated to the color matching function has many portions that overlap each response sensitivity, and therefore, incident light cannot be divided by a dichroic mirror employed in a general three-plate camera optical system. Further, if the incident light is divided by the beam splitter, there is a problem that the amount of light after the division becomes as small as 1/2 or 1/4 of the incident light and the dynamic range is lowered. By using an independent CCD camera as in this embodiment, it is possible to directly receive incident light and improve the dynamic range. Further, it is not necessary to adjust the pixel position for each CCD sensor that is performed when the three-plate camera system is assembled.

なお、本発明は上記実施形態に限定されるものではなく、その他種々の態様で実施可能である。例えば、分光測定装置に用いられるカメラの数は特に定められるものではなく、必要とするバンド数に応じて適数用いるようにすればよい。また、上記実施形態においては、各カメラで撮影された画像をいずれかのカメラ(基準カメラ)の位置から撮影されたように射影変換しているが、これを仮想的な基準カメラを想定し、当該撮影位置から撮影されたように射影変換することもできる。   In addition, this invention is not limited to the said embodiment, It can implement in another various aspect. For example, the number of cameras used in the spectroscopic measurement device is not particularly limited, and an appropriate number may be used according to the number of bands required. Further, in the above-described embodiment, the projective transformation is performed so that an image captured by each camera is captured from the position of one of the cameras (reference camera), but this is assumed to be a virtual reference camera, It is also possible to perform projective transformation as if it was taken from the shooting position.

本発明の実施形態に係る分光測定装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the spectrometer which concerns on embodiment of this invention. 図1中の処理演算部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the process calculating part in FIG. 被測定物の表面に投影された格子パターンの投影画像の例を示す図である。It is a figure which shows the example of the projection image of the lattice pattern projected on the surface of the to-be-measured object. 実施例1におけるカメラ配置を示す図である。FIG. 3 is a diagram illustrating a camera arrangement in the first embodiment. 図4の各カメラの分光特性を示す図である。It is a figure which shows the spectral characteristic of each camera of FIG. 実施例2におけるカメラ配置を示す図である。FIG. 10 is a diagram illustrating a camera arrangement in a second embodiment. 人間の目に対応する分光感度を示す図である。It is a figure which shows the spectral sensitivity corresponding to a human eye. 実施例3におけるカメラの分光特性を示す図である。FIG. 10 is a diagram illustrating spectral characteristics of a camera in Example 3. 実施例3におけるカメラ配置を示す図である。FIG. 10 is a diagram illustrating a camera arrangement in Example 3. 実施例3における共通領域の抽出処理の説明図である。FIG. 10 is an explanatory diagram of a common area extraction process in the third embodiment. 水の吸収スペクトルを示す図である。It is a figure which shows the absorption spectrum of water.

符号の説明Explanation of symbols

11、12、13 カメラ
20 処理演算部
21 A/D変換部
22 射影変換部
23 座標演算部
24 画像合成部
26 メモリ
30 光源
40 操作部
50 出力部
60 被測定物表面
62 投影画像
100 被測定物
DESCRIPTION OF SYMBOLS 11, 12, 13 Camera 20 Processing calculation part 21 A / D conversion part 22 Projection conversion part 23 Coordinate calculation part 24 Image composition part 26 Memory 30 Light source 40 Operation part 50 Output part 60 Measuring object surface 62 Projection image 100 Measuring object

Claims (10)

基準カメラと、前記基準カメラと波長感度特性が異なる参照カメラを用いて被測定物を撮影して、それぞれのカメラにより基準画像データ及び参照画像データを作成し、
前記参照カメラにより作成された参照画像データを前記基準カメラの位置から撮影したように変換し画像中の被測定物上の任意の点を示す座標が前記基準カメラで撮影された基準画像データの被測定物上の同一点上の座標を示すような変換画像データを作成し、
前記基準カメラで撮影された前記基準画像データと前記変換画像データとの座標を共有化して、当該座標上における被測定物上の任意の点の分光データを作成することを特徴とする、分光測定方法。
Shoot a measurement object using a reference camera and a reference camera having a wavelength sensitivity characteristic different from that of the reference camera, and create reference image data and reference image data with each camera,
The reference image data created by the reference camera is converted as if it was photographed from the position of the standard camera, and the coordinates indicating an arbitrary point on the object to be measured in the image are covered by the standard image data photographed by the standard camera. Create converted image data that shows the coordinates on the same point on the measurement object,
Spectral measurement characterized in that the coordinates of the reference image data photographed by the reference camera and the converted image data are shared to generate spectral data of an arbitrary point on the object to be measured on the coordinates. Method.
それぞれ波長感度特性が異なる複数の参照カメラを用いて被測定物を撮影して、それぞれのカメラにより参照画像データを作成し、
前記複数の参照カメラにより作成された複数の参照画像データを仮想の基準カメラの位置から撮影したように変換し、画像中の被測定物上の任意の点を示す座標が仮想の基準カメラの位置から撮影された仮想基準画像データの被測定物上の同一点上の座標を示すような変換画像データを作成し、
前記変換画像データとの座標を共有化して、当該座標上における被測定物上の任意の点の分光データを作成することを特徴とする、分光測定方法。
Photograph the object to be measured using multiple reference cameras with different wavelength sensitivity characteristics, create reference image data with each camera,
A plurality of reference image data created by the plurality of reference cameras is converted as if taken from the position of a virtual reference camera, and coordinates indicating arbitrary points on the object to be measured in the image are positions of the virtual reference camera. Create converted image data that shows the coordinates on the same point on the measured object of the virtual reference image data taken from
A spectroscopic measurement method characterized by sharing the coordinates with the converted image data and creating spectroscopic data of an arbitrary point on the object to be measured on the coordinates.
前記基準カメラ及び前記参照カメラは、一定時間ごとに連続して入力されるトリガ信号により画像の取得開始を行い、前記被測定物上の同一点上の座標を示す変換画像データは、同一時刻でのデータであり、前記当該座標上における被測定物上の任意の点の分光データは、先のトリガ時点での分光データであることを特徴とする、請求項1又は2に記載の分光測定方法。   The reference camera and the reference camera start acquisition of an image by a trigger signal that is continuously input every predetermined time, and converted image data indicating coordinates on the same point on the object to be measured are at the same time. The spectroscopic measurement method according to claim 1, wherein the spectroscopic data of an arbitrary point on the object to be measured on the coordinates is spectroscopic data at the previous trigger time. . 前記基準カメラと前記参照カメラを用いてそれぞれ被測定物を撮影する場合、前記被測定物表面に基準点を付した状態で撮影し、
前記変換画像データの作成において、基準画像データ及び参照画像データ中の前記基準点の座標を用いて、参照画像データから変換画像データの変換式を算出し、当該参照画像データの各座標を前記変換式に代入することによって、変換画像データを作成することを特徴とする、請求項1から3のいずれか1つに記載の分光測定方法。
When each of the objects to be measured is photographed using the reference camera and the reference camera, it is photographed with a reference point attached to the surface of the object to be measured.
In the creation of the converted image data, the conversion formula of the converted image data is calculated from the reference image data using the coordinates of the reference point in the standard image data and the reference image data, and each coordinate of the reference image data is converted into the converted image data. 4. The spectroscopic measurement method according to claim 1, wherein converted image data is created by substituting into an equation.
前記基準点は、投光装置から前記基準点を含む光を前記被測定物表面に投射することにより、被測定物表面に付されることを特徴とする、請求項4に記載の分光測定方法。   The spectroscopic measurement method according to claim 4, wherein the reference point is attached to the surface of the object to be measured by projecting light including the reference point onto the surface of the object to be measured from a light projecting device. . 前記参照カメラは、前記基準カメラ及びそれぞれ波長感度特性が異なる複数のカメラで構成されていることを特徴とする、請求項1から5のいずれか1つに記載の分光測定方法。   The spectroscopic measurement method according to claim 1, wherein the reference camera includes the reference camera and a plurality of cameras each having different wavelength sensitivity characteristics. 前記基準カメラ及び前記参照カメラは、特定の波長の光だけを透過させるバンドパスフィルタをそなえ、それぞれ異なる波長感度特性を有することを特徴とする、請求項1から6のいずれか1つに記載の分光測定方法。   The said reference camera and the said reference camera are equipped with the band pass filter which permeate | transmits only the light of a specific wavelength, respectively, and each has a different wavelength sensitivity characteristic, The one characterized by the above-mentioned. Spectroscopic measurement method. 前記基準カメラおよび前記参照カメラは、XYZ表色系の等色関数に近似した波長感度特性を有することを特徴とする、請求項1から7のいずれか1つに記載の分光測定方法。   The spectroscopic measurement method according to claim 1, wherein the reference camera and the reference camera have wavelength sensitivity characteristics approximate to a color matching function of an XYZ color system. 被測定物を撮影して基準画像データを出力する基準カメラと、前記被測定物を撮影して参照画像データを出力する前記基準カメラと波長感度特性が異なる参照カメラと、
前記基準画像データ及び参照画像データを記憶する画像データ記憶部と、
前記画像データ記憶部に格納された前記参照画像データを前記基準カメラの位置から撮影したように変換し、前記参照画像データ中の被測定物上の任意の点を示す座標が前記基準カメラで撮影された基準画像データの被測定物上の同一点上の座標を示すような変換画像データを作成する変換画像作成部と、
前記基準カメラで撮影された前記基準画像データと前記変換画像データとの座標を共有化して、当該座標上における被測定物上の任意の点の分光データを作成するスペクトルデータ作成部とを備えることを特徴とする、分光測定装置。
A reference camera that shoots an object to be measured and outputs standard image data; a reference camera that shoots the object to be measured and outputs reference image data;
An image data storage unit for storing the standard image data and the reference image data;
The reference image data stored in the image data storage unit is converted so as to be photographed from the position of the standard camera, and coordinates indicating an arbitrary point on the measurement object in the reference image data are photographed by the standard camera. A converted image creating unit that creates converted image data indicating coordinates on the same point on the object to be measured of the reference image data that has been obtained,
A spectrum data creating unit that creates the spectral data of an arbitrary point on the object to be measured on the coordinates by sharing the coordinates of the reference image data and the converted image data captured by the reference camera; A spectroscopic measurement device.
被測定物を撮影してそれぞれ参照画像データを作成する互いに波長感度特性が異なる複数の参照カメラと、
前記参照画像データをそれぞれ記憶する画像データ記憶部と、
前記複数の参照カメラにより作成された複数の参照画像データを仮想の基準カメラの位置から撮影したように変換し、画像中の被測定物上の任意の点を示す座標が仮想の基準カメラで撮影された仮想基準画像データの被測定物上の同一点上の座標を示すような変換画像データを作成する変換画像作成部と、
前記変換画像データとの座標を共有化して、当該座標上における被測定物上の任意の点の分光データを作成するスペクトルデータ作成部とを備えることを特徴とする、分光測定装置。
A plurality of reference cameras having different wavelength sensitivity characteristics that shoot a measurement object and create reference image data, respectively,
An image data storage unit for storing the reference image data,
A plurality of reference image data created by the plurality of reference cameras are converted as if taken from the position of the virtual reference camera, and coordinates indicating arbitrary points on the object to be measured in the image are taken by the virtual reference camera. A converted image creating unit that creates converted image data indicating coordinates on the same point on the object to be measured of the virtual reference image data that has been obtained,
A spectroscopic measurement apparatus comprising: a spectral data creating unit that creates a spectral data of an arbitrary point on the measurement object on the coordinates by sharing the coordinates with the converted image data.
JP2005344200A 2005-11-29 2005-11-29 Spectrometry and optical spectrometer Pending JP2007147507A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005344200A JP2007147507A (en) 2005-11-29 2005-11-29 Spectrometry and optical spectrometer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005344200A JP2007147507A (en) 2005-11-29 2005-11-29 Spectrometry and optical spectrometer

Publications (1)

Publication Number Publication Date
JP2007147507A true JP2007147507A (en) 2007-06-14

Family

ID=38209071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005344200A Pending JP2007147507A (en) 2005-11-29 2005-11-29 Spectrometry and optical spectrometer

Country Status (1)

Country Link
JP (1) JP2007147507A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009186325A (en) * 2008-02-06 2009-08-20 Seiko Epson Corp Color measuring method and color measuring device
WO2010021258A1 (en) * 2008-08-22 2010-02-25 コニカミノルタセンシング株式会社 Photometric/colorimetric device
TWI416084B (en) * 2010-06-04 2013-11-21 Nat Univ Chung Hsing Portable Image Spectrometer
JP7424061B2 (en) 2019-01-31 2024-01-30 株式会社明電舎 Surface spectrometer and optical aberration correction method for surface spectrometer

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269364A (en) * 1997-03-24 1998-10-09 Hitachi Seiki Co Ltd Method for processing image of mobile object, its device and recording medium for recording program
JPH1153549A (en) * 1997-08-01 1999-02-26 Sony Corp Device and method for processing image and transmission medium
JP3246021B2 (en) * 1993-01-06 2002-01-15 ミノルタ株式会社 2D colorimeter
JP2002163645A (en) * 2000-11-28 2002-06-07 Toshiba Corp Device and method for detecting vehicle
JP2002259943A (en) * 2001-03-05 2002-09-13 Aval Data Corp Image searching device and image searching method
JP2002330332A (en) * 2001-04-27 2002-11-15 Canon Inc Image processing unit, image pickup device, its control method, and recording medium
JP2002366953A (en) * 2001-06-11 2002-12-20 Central Res Inst Of Electric Power Ind Method, device and program for extracting image, and method, device and program for detecting abnormality of pole mounted equipment of distribution pole utilizing image extracting method
JP2004246667A (en) * 2003-02-14 2004-09-02 Keiogijuku Method for generating free visual point moving image data and program for making computer perform the same processing
JP2004362333A (en) * 2003-06-05 2004-12-24 Mitsubishi Electric Corp Photogrammetry system and photogrammetry method
JP2005011070A (en) * 2003-06-19 2005-01-13 Victor Co Of Japan Ltd Image synthesis device
WO2005033678A1 (en) * 2003-10-03 2005-04-14 Olympus Corporation Image processing apparatus and image processing method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3246021B2 (en) * 1993-01-06 2002-01-15 ミノルタ株式会社 2D colorimeter
JPH10269364A (en) * 1997-03-24 1998-10-09 Hitachi Seiki Co Ltd Method for processing image of mobile object, its device and recording medium for recording program
JPH1153549A (en) * 1997-08-01 1999-02-26 Sony Corp Device and method for processing image and transmission medium
JP2002163645A (en) * 2000-11-28 2002-06-07 Toshiba Corp Device and method for detecting vehicle
JP2002259943A (en) * 2001-03-05 2002-09-13 Aval Data Corp Image searching device and image searching method
JP2002330332A (en) * 2001-04-27 2002-11-15 Canon Inc Image processing unit, image pickup device, its control method, and recording medium
JP2002366953A (en) * 2001-06-11 2002-12-20 Central Res Inst Of Electric Power Ind Method, device and program for extracting image, and method, device and program for detecting abnormality of pole mounted equipment of distribution pole utilizing image extracting method
JP2004246667A (en) * 2003-02-14 2004-09-02 Keiogijuku Method for generating free visual point moving image data and program for making computer perform the same processing
JP2004362333A (en) * 2003-06-05 2004-12-24 Mitsubishi Electric Corp Photogrammetry system and photogrammetry method
JP2005011070A (en) * 2003-06-19 2005-01-13 Victor Co Of Japan Ltd Image synthesis device
WO2005033678A1 (en) * 2003-10-03 2005-04-14 Olympus Corporation Image processing apparatus and image processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009186325A (en) * 2008-02-06 2009-08-20 Seiko Epson Corp Color measuring method and color measuring device
WO2010021258A1 (en) * 2008-08-22 2010-02-25 コニカミノルタセンシング株式会社 Photometric/colorimetric device
TWI411769B (en) * 2008-08-22 2013-10-11 Konica Minolta Sensing Inc Metering device
JP5375826B2 (en) * 2008-08-22 2013-12-25 コニカミノルタ株式会社 Photometric color measuring device
TWI416084B (en) * 2010-06-04 2013-11-21 Nat Univ Chung Hsing Portable Image Spectrometer
JP7424061B2 (en) 2019-01-31 2024-01-30 株式会社明電舎 Surface spectrometer and optical aberration correction method for surface spectrometer

Similar Documents

Publication Publication Date Title
JP7424286B2 (en) Fluorescence observation device and fluorescence observation method
TWI626433B (en) Method for two-dimensional, spatially resolved measurement and imaging colorimeter system capable of said measurement
JP6816572B2 (en) Color measuring device, color measuring method and program
US8106978B2 (en) Image capturing apparatus generating image data having increased color reproducibility
TWI484283B (en) Image measurement method, image measurement apparatus and image inspection apparatus
JP2010271246A (en) Method and device for color luminance measurement
US7616314B2 (en) Methods and apparatuses for determining a color calibration for different spectral light inputs in an imaging apparatus measurement
US9194746B1 (en) System for measuring deviation of printed color at a selected location on a moving substrate from a target color
JP2010127739A (en) Spectral sensitivity characteristic measurement apparatus and spectral sensitivity characteristic measurement method
JP2005351871A (en) Object information input system and object information generating system
JP6948407B2 (en) Equipment and methods for determining surface topology and associated colors
JP2007147507A (en) Spectrometry and optical spectrometer
JP2006177812A (en) Two-dimensional spectral luminance meter
JP6341335B2 (en) Two-dimensional color measuring device
JPH0743115A (en) Distance measurement method and distance measurement device
JP2010190741A (en) Measuring device, measuring method, and imaging device
CN110174351B (en) Color measuring device and method
JP2022006624A (en) Calibration device, calibration method, calibration program, spectroscopic camera, and information processing device
JP5929338B2 (en) Imaging device, spectral information creation method
JP2004186789A (en) Image evaluation apparatus
JP6617537B2 (en) Two-dimensional colorimeter, method, program, and display system
JP2008157888A (en) Apparatus for measuring three-dimensionals
JP2001157214A (en) Image pickup system
JP2006177813A (en) Stray light correction method, and two-dimensional spectral luminance meter using same
WO2020190206A1 (en) Monochrome imaging using multiple wavelengths of light

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Effective date: 20080125

Free format text: JAPANESE INTERMEDIATE CODE: A7423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080617

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20081003

A131 Notification of reasons for refusal

Effective date: 20101124

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110118

RD03 Notification of appointment of power of attorney

Effective date: 20110118

Free format text: JAPANESE INTERMEDIATE CODE: A7423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110922

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120214