JP2009074876A - Measuring device, and method of measuring the same - Google Patents

Measuring device, and method of measuring the same Download PDF

Info

Publication number
JP2009074876A
JP2009074876A JP2007243110A JP2007243110A JP2009074876A JP 2009074876 A JP2009074876 A JP 2009074876A JP 2007243110 A JP2007243110 A JP 2007243110A JP 2007243110 A JP2007243110 A JP 2007243110A JP 2009074876 A JP2009074876 A JP 2009074876A
Authority
JP
Japan
Prior art keywords
test object
image
image sensor
optical axis
wavelengths
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007243110A
Other languages
Japanese (ja)
Inventor
Muneki Hamashima
宗樹 浜島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007243110A priority Critical patent/JP2009074876A/en
Priority to PCT/JP2008/065368 priority patent/WO2009037949A1/en
Publication of JP2009074876A publication Critical patent/JP2009074876A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a measuring device capable of highly accurate measurement of an object to be inspected depending on a surface shape of the object by using a difference in focuses due to chromatic aberration, and to provide a method of measuring the same. <P>SOLUTION: The measuring device 1 includes an image sensor 20 having a plurality of pixels 21, a coloring lens 11 for forming an image of a surface of the object 8 to be inspected on the image sensor, a zooming driver 11a capable of enlarging or reducing the image by moving at least part of lenses constituting the coloring lens 11 in the direction of an optical axis, and an arithmetic processing unit 30 for calculating a relative position in the optical axis direction on the surface of the object for measuring a three-dimensional shape of the object based on intensity of light received by each of pixel regions while the image of the surface of the object is enlarged or reduced by the zooming driver 11a and formed on the image sensor 20. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、被検物の3次元形状を計測する計測装置、およびその計測装置を用いた計測方法に関する。   The present invention relates to a measuring device that measures a three-dimensional shape of a test object, and a measuring method using the measuring device.

従来より、3次元計測は、ロボットビジョンにおける物体認識、人の動きを解析するモーションピクチャ、車載カメラにおける周囲画像処理および建築物のアーカイブ等の様々な分野において、応用され活用されている重要な技術である。3次元計測方法の例としては、三角測量の原理を用いるステレオカメラ、レーザスリット光を用いる光切断法、色収差による焦点差を利用した計測法等がある。上記色収差による焦点差を利用した3次元計測方法としては、例えば特許文献1に示すようなものが知られており、図8に、色収差による焦点差を利用して被検物の3次元形状を計測する装置の一例としての計測装置200を示す。   Conventionally, 3D measurement is an important technology applied and used in various fields such as object recognition in robot vision, motion pictures for analyzing human movement, ambient image processing in in-vehicle cameras, and archives of buildings. It is. Examples of three-dimensional measurement methods include a stereo camera that uses the principle of triangulation, a light cutting method that uses laser slit light, and a measurement method that uses a focal difference due to chromatic aberration. As a three-dimensional measurement method using the focal difference due to chromatic aberration, for example, the one shown in Patent Document 1 is known, and FIG. 8 shows the three-dimensional shape of a test object using the focal difference due to chromatic aberration. 1 shows a measuring device 200 as an example of a measuring device.

以下の計測装置200の説明において、説明の便宜上、図8に示す矢印方向を左右上下として以下に説明する。計測装置200は、光源201から発射された複数の波長成分を含む照明光が、ピンホール202を通過しビームスプリッタ203を透過した後、結像レンズ系レンズ204で集光されて被検物205に照射されるように構成されている。そして、被検物205で反射した照明光は、ビームスプリッタ203において反射し、ピンホール206を通過して光検出器207に入射する。   In the following description of the measuring apparatus 200, for convenience of explanation, the following description will be made with the arrow direction shown in FIG. In the measuring apparatus 200, illumination light including a plurality of wavelength components emitted from the light source 201 passes through the pinhole 202, passes through the beam splitter 203, and then is collected by the imaging lens system lens 204 to be inspected 205. It is comprised so that it may be irradiated. The illumination light reflected by the test object 205 is reflected by the beam splitter 203, passes through the pinhole 206, and enters the photodetector 207.

ここで、一般にレンズの焦点距離fは、レンズを構成するガラス材質の屈折率n、レンズの曲率半径r1、r2を用いて近似的に式(1)に示すように、
(1/f)=(n−1)×{(1/r1)−(1/r2)} (1)
と表される。ここで、焦点距離fはレンズの屈折率nに依存し、さらにレンズの屈折率nは通過する照明光の波長に依存するので、結果的に照明光の焦点位置は波長に応じて光軸方向に異なる位置となる。これが色収差であり、計測装置200においては、波長の異なる照明光同士の焦点位置が光軸方向にずれて位置することを利用して、被検物205の表面を計測するように構成されている。
Here, in general, the focal length f of a lens is approximately expressed by equation (1) using the refractive index n of the glass material constituting the lens and the curvature radii r1 and r2 of the lens.
(1 / f) = (n−1) × {(1 / r1) − (1 / r2)} (1)
It is expressed. Here, the focal length f depends on the refractive index n of the lens, and further, the refractive index n of the lens depends on the wavelength of the illumination light passing therethrough. As a result, the focal position of the illumination light depends on the wavelength in the optical axis direction. Different positions. This is chromatic aberration, and the measuring apparatus 200 is configured to measure the surface of the test object 205 using the fact that the focal positions of illumination lights having different wavelengths are shifted in the optical axis direction. .

図8に、結像レンズ系204で集光された、波長λ1の青色照明光201B、波長λ2の緑色照明光201Gおよび波長λ3の赤色照明光201Rが、被検物205に照射されている状態を示す。なお、各波長はλ1<λ2<λ3の大小関係となっている。ここで、波長λ2の緑色照明光201Gが、被検物205の頂部において合焦しており、緑色照明光201Gよりも短い波長λ1の青色照明光201Bは、焦点距離が短いため被検物205の頂部より左側部分で合焦する。一方、緑色照明光201Gよりも長い波長λ3の赤色照明光201Rは、被検物205の頂部より右側部分で合焦する。そして、上記3つの照明光201B、201G、201Rのうちで、被検物205の頂部において合焦した緑色照明光201Gが最も多くビームスプリッタ203で反射されて光検出器207に入射する。光検出器207において、緑色照明光201Gが最も多く受光されることで、被検物205の(左右方向の)高さを緑色照明光201Gの合焦位置として求める構成となっている。   In FIG. 8, the test object 205 is irradiated with the blue illumination light 201 </ b> B having the wavelength λ <b> 1, the green illumination light 201 </ b> G having the wavelength λ <b> 2, and the red illumination light 201 </ b> R having the wavelength λ <b> 3 collected by the imaging lens system 204. Indicates. Each wavelength has a magnitude relationship of λ1 <λ2 <λ3. Here, the green illumination light 201G with the wavelength λ2 is focused on the top of the test object 205, and the blue illumination light 201B with the wavelength λ1 shorter than the green illumination light 201G has a short focal length, so the test object 205 is short. Focus on the left side of the top. On the other hand, the red illumination light 201R having the wavelength λ3 longer than the green illumination light 201G is focused on the right side of the top of the test object 205. Of the three illumination lights 201 </ b> B, 201 </ b> G, and 201 </ b> R, the most green illumination light 201 </ b> G focused on the top of the test object 205 is reflected by the beam splitter 203 and enters the photodetector 207. The photodetector 207 is configured to obtain the height (in the left-right direction) of the test object 205 as the in-focus position of the green illumination light 201G by receiving the most amount of the green illumination light 201G.

特開平10−9827号公報JP-A-10-9827

しかし、計測装置200において、色収差を利用して限られた一定領域(合焦点)ごとに測定が行われる構成となっており、そのために被検物205の表面形状に応じて、例えば複雑な表面形状部分をより詳細に測定し、また一様な表面形状部分を広範囲にわたって測定することが不可能であった。よって、被検物205の表面形状に応じて高精度に形状測定を行うことが困難であった。   However, the measurement apparatus 200 is configured to perform measurement for each limited region (focused point) limited using chromatic aberration, and accordingly, for example, according to the surface shape of the test object 205, a complicated surface is used. It was impossible to measure the shape portion in more detail and to measure a uniform surface shape portion over a wide range. Therefore, it is difficult to measure the shape with high accuracy according to the surface shape of the test object 205.

以上のような課題に鑑みて、本発明では色収差による焦点差を利用して、被検物の表面形状に応じた高精度な測定ができる計測装置およびその計測方法を提供することを目的とする。   In view of the problems as described above, it is an object of the present invention to provide a measuring apparatus and a measuring method thereof capable of performing high-accuracy measurement according to the surface shape of a test object using a focal difference due to chromatic aberration. .

上記課題を解決するために、本発明に係る計測装置は、平面状に並んだ複数の画素を有したイメージセンサーと、被検物の表面からの光を入射させて前記イメージセンサー上に前記被検物の表面の像を結像させる結像レンズ系と、前記結像レンズ系を構成する少なくとも一部のレンズを前記被検物に対して光軸方向に移動させて前記イメージセンサー上に結像する前記像の大きさを拡大または縮小させることが可能なズーム用レンズ駆動部と、前記ズーム用レンズ駆動部により拡大または縮小されて前記イメージセンサー上に前記被検物の表面の像を結像させた状態において、前記イメージセンサーを構成する前記複数の画素のそれぞれが受光した光の強度に基づいて、前記被検物の表面の光軸方向の相対位置を算出して前記被検物の3次元形状を測定する演算処理部とを備えて構成されている。そして、前記複数の画素は前記被検物の表面からの光を少なくとも2つの波長に分けて受光するとともに波長毎の受光強度を検出し、前記演算処理部は、被検物の表面の像における所定基準位置での2つの波長の前記受光強度の差と、前記被検物の表面の像における他の位置での前記2つの波長の前記受光強度の差との関係から、前記所定基準位置に対する前記他の位置の距離を求めて前記被検物の表面の3次元形状を測定する。   In order to solve the above problems, a measuring apparatus according to the present invention includes an image sensor having a plurality of pixels arranged in a plane, and light from the surface of a test object is incident on the image sensor. An imaging lens system that forms an image of the surface of the specimen, and at least a part of the lenses that constitute the imaging lens system are moved in the optical axis direction with respect to the specimen and connected to the image sensor. A zoom lens driving unit capable of enlarging or reducing the size of the image to be imaged, and a zoom lens driving unit enlarging or reducing the size of the image to form an image of the surface of the test object on the image sensor. In the imaged state, based on the intensity of light received by each of the plurality of pixels constituting the image sensor, the relative position in the optical axis direction of the surface of the test object is calculated to calculate the position of the test object. 3D It is configured by an arithmetic processing unit that measures Jo. The plurality of pixels receive light from the surface of the test object by dividing the light into at least two wavelengths and detect the received light intensity for each wavelength, and the arithmetic processing unit in the image of the surface of the test object From the relationship between the difference between the received light intensity of two wavelengths at a predetermined reference position and the difference between the received light intensity of the two wavelengths at other positions in the image of the surface of the test object, The distance between the other positions is obtained, and the three-dimensional shape of the surface of the test object is measured.

上記構成の計測装置において、前記結像レンズ系を構成する少なくとも一部のレンズを前記被検物に対して光軸方向に移動させることが可能なオートフォーカス用レンズ駆動部と、前記結像レンズ系により前記被検物における前記所定基準位置の像を前記イメージセンサーに合焦させて結像させるように、前記オートフォーカス用レンズ駆動部による前記少なくとも一部のレンズの光軸方向への移動を制御するオートフォーカス制御部とを有していることが好ましい。上記構成の計測装置において、前記被検物の表面の所定基準位置は、前記被検物の表面における前記結像レンズ系の光軸上の位置であることが好ましい。   In the measuring apparatus having the above-described configuration, an autofocus lens driving unit capable of moving at least a part of the lenses constituting the imaging lens system in the optical axis direction with respect to the test object, and the imaging lens The autofocus lens drive unit moves the at least some of the lenses in the optical axis direction so that the image sensor focuses an image of the predetermined reference position on the test object. It is preferable to have an autofocus control unit to control. In the measuring apparatus having the above configuration, it is preferable that the predetermined reference position on the surface of the test object is a position on the optical axis of the imaging lens system on the surface of the test object.

上記構成の計測装置を用いた計測方法は、前記ズーム用レンズ駆動部が前記結像レンズ系を構成する前記少なくとも一部のレンズを前記被検物に対して移動させて前記イメージセンサー上に結像する前記像の大きさを拡大または縮小させるズーミングステップと、前記複数の画素が前記被検物の表面からの光を少なくとも2つの波長に分けて受光するとともに波長毎の受光強度を検出する受光強度検出ステップと、前記演算処理部が被検物の表面の像における所定基準位置での2つの波長の前記受光強度の差と、前記被検物の表面の像における他の位置での前記2つの波長の前記受光強度の差との関係から、前記所定基準位置に対する前記他の位置の距離を求めて前記被検物の表面の3次元形状を測定する測定ステップとから構成されていることが好ましい。   In the measuring method using the measuring apparatus having the above-described configuration, the zoom lens driving unit moves the at least a part of the lenses constituting the imaging lens system with respect to the object to be connected to the image sensor. Zooming step for enlarging or reducing the size of the image to be imaged, and light reception for detecting the light receiving intensity for each wavelength while the plurality of pixels receive light from the surface of the test object divided into at least two wavelengths An intensity detection step, and the arithmetic processing unit compares the received light intensity of two wavelengths at a predetermined reference position in the image of the surface of the test object, and the 2 at other positions in the image of the surface of the test object. A measurement step of measuring the three-dimensional shape of the surface of the test object by determining the distance of the other position with respect to the predetermined reference position from the relationship with the difference in the received light intensity of two wavelengths. Door is preferable.

本発明に係る計測装置および計測方法によれば、色収差による焦点差を利用して被検物の表面形状に応じた高精度な測定が可能となる。   According to the measurement apparatus and the measurement method according to the present invention, it is possible to perform high-accuracy measurement according to the surface shape of the test object using the focal difference due to chromatic aberration.

以下に、図1から図7を参照しながら、本発明の好ましい実施形態について説明する。説明の便宜上、図1から図6に示した矢印の方向を前後左右上下方向として定義して説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to FIGS. For convenience of explanation, the directions of the arrows shown in FIGS. 1 to 6 are defined as front, rear, left, right, up and down directions.

図1に、本発明に係る計測装置1を示す。この計測装置1は、光源5、照明レンズ系6、マルチドットパターン7、ハーフミラー10、色出しレンズ系11、イメージセンサー20および演算処理部30を主体に構成されており、被検物8に測定用補助光を照射する一般にアクティブ方式と呼ばれる構成である。光源5は、照明レンズ系6に向けて照明光5aを発射可能な光源であり、光源5としては、例えばハロゲンランプ等の白色光源、またはRGB(以下において、順にレッド、グリーンおよびブルーを示すこととする)の3色で構成されたLEDが用いられる。照明レンズ系6は、実際には複数のレンズによって構成されており、光源5より発射された(下方から上方へ進行する)照明光5aを集光し、集光された照明光5aがマルチドットパターン7に到達する。   FIG. 1 shows a measuring apparatus 1 according to the present invention. This measuring device 1 is mainly composed of a light source 5, an illumination lens system 6, a multidot pattern 7, a half mirror 10, a color developing lens system 11, an image sensor 20, and an arithmetic processing unit 30. This is a configuration generally called an active method for irradiating auxiliary light for measurement. The light source 5 is a light source that can emit illumination light 5a toward the illumination lens system 6. As the light source 5, for example, a white light source such as a halogen lamp, or RGB (in the following, red, green, and blue are shown in order) LED) composed of three colors is used. The illumination lens system 6 is actually composed of a plurality of lenses, condenses the illumination light 5a emitted from the light source 5 (advancing from below to above), and the collected illumination light 5a is a multi-dot. Pattern 7 is reached.

マルチドットパターン7は、平板状に形成されており照明レンズ系6の光軸と垂直に交わるように配置されている。また、マルチドットパターン7は、図6(a)に示すように照明レンズ系6の光軸と交わる面に、前後左右方向に一定間隔を有して規則正しい位置で上下に開口したマルチスポット7aが複数設けられている。ここでマルチドットパターン7は、照明レンズ系6によって集光された照明光5aの合焦位置(合焦面)に配置されている。ハーフミラー10は、入射する光の一部を反射させるとともに一部は透過させる機能を有したミラーであり、反射光と透過光との比率はほぼ1:1となっている。またハーフミラー10は、照明レンズ系6の光軸に対して45度傾斜した状態で設置されている。   The multidot pattern 7 is formed in a flat plate shape and is arranged so as to intersect perpendicularly with the optical axis of the illumination lens system 6. In addition, as shown in FIG. 6A, the multi-dot pattern 7 has multi-spots 7a that are open at regular positions at regular intervals in the front-rear and left-right directions on the surface intersecting the optical axis of the illumination lens system 6. A plurality are provided. Here, the multi-dot pattern 7 is disposed at the in-focus position (in-focus surface) of the illumination light 5 a collected by the illumination lens system 6. The half mirror 10 is a mirror having a function of reflecting a part of incident light and transmitting a part thereof, and the ratio of reflected light to transmitted light is approximately 1: 1. The half mirror 10 is installed in a state inclined by 45 degrees with respect to the optical axis of the illumination lens system 6.

色出しレンズ11は、実際には複数のレンズから構成された結像レンズ系によって構成され、この結像レンズ系は色収差が補正されていない(幾何収差は補正されて色収差のみを有した)レンズ系となっている。また、色出しレンズ11には、ズーミング駆動装置11aが設けられており、このズーミング駆動装置11aを作動させることにより、色出しレンズ11を構成するレンズのうち少なくとも1つのレンズ(以下、ズーム用レンズと称する)が、色出しレンズ11の光軸方向(左右方向)に移動する構成となっている。このように移動させることにより、色出しレンズ11の焦点距離を変化させて撮像される像を拡大もしくは縮小させることが可能となっている。また、測定者がズーム操作を行うことによりズーミング制御部11bに差動信号が入力され、その差動信号に基づいてズーミング制御部11bがズーミング駆動装置11aの作動を制御している。なお、このズーミング駆動装置11aによって移動させられるズーム用レンズの左右位置および左右方向への移動量は、エンコーダ(図示せず)で検出されて演算処理部30に出力され、演算処理部30はこの移動量を記憶しておく。   The color developing lens 11 is actually constituted by an imaging lens system composed of a plurality of lenses, and this imaging lens system is a lens in which chromatic aberration is not corrected (geometric aberration is corrected and only chromatic aberration is provided). It is a system. The color developing lens 11 is provided with a zooming driving device 11a. By operating the zooming driving device 11a, at least one lens (hereinafter referred to as a zoom lens) among the lenses constituting the color developing lens 11 is operated. Is configured to move in the optical axis direction (left-right direction) of the color developing lens 11. By moving in this way, the image picked up by changing the focal length of the color developing lens 11 can be enlarged or reduced. Further, when a measurer performs a zoom operation, a differential signal is input to the zooming control unit 11b, and the zooming control unit 11b controls the operation of the zooming drive device 11a based on the differential signal. The zoom lens moved by the zooming driving device 11a is detected by an encoder (not shown) and output to the arithmetic processing unit 30 and the arithmetic processing unit 30 outputs the movement amount in the right and left direction and the left and right direction. The movement amount is memorized.

さらに、色出しレンズ11には、オートフォーカス駆動装置11cが設けられており、このオートフォーカス駆動装置11cは、色出しレンズ11を構成するレンズのうち少なくとも1つのレンズ(以下、オートフォーカス用レンズと称し、上記ズーム用レンズとは別のレンズ)を、後述する差動信号値により自動的に色出しレンズ11の光軸方向(左右方向)に移動させる構成となっている。差動信号は、その正負の符号によって左右のどちらに焦点がずれているか、その大きさ(絶対値)によってどれだけずれているかが分かるので、オートフォーカス用レンズをそのように移動させることによって、所望の測定領域に合焦させることが可能となっている。つまり、オートフォーカス制御部11dには、差動信号がフィードバックされて入力されており、その差動信号値が零となるように、オートフォーカス制御部11dはオートフォーカス駆動装置11cを制御する。差動信号値が零となった位置が焦点の合う位置である。なお、このオートフォーカス駆動装置11cによって移動させられるオートフォーカス用レンズの左右位置および左右方向への移動量は、エンコーダ(図示せず)で検出されて演算処理部30に出力され、演算処理部30はこの移動量を記憶しておく。   Further, the color developing lens 11 is provided with an autofocus driving device 11c, and the autofocus driving device 11c includes at least one lens (hereinafter referred to as an autofocusing lens) among the lenses constituting the color developing lens 11. In other words, a lens different from the zoom lens) is automatically moved in the optical axis direction (left-right direction) of the color developing lens 11 according to a differential signal value described later. The differential signal can be determined by the sign of its positive or negative sign to determine whether it is defocused to the left or right, and how much it is deviated depending on its magnitude (absolute value). By moving the autofocus lens in this way, It is possible to focus on a desired measurement area. That is, the differential signal is fed back and input to the autofocus control unit 11d, and the autofocus control unit 11d controls the autofocus driving device 11c so that the differential signal value becomes zero. The position where the differential signal value becomes zero is the position where the focus is achieved. The left and right position and the amount of movement in the left and right direction of the autofocus lens moved by the autofocus driving device 11c are detected by an encoder (not shown) and output to the arithmetic processing unit 30. Stores this amount of movement.

イメージセンサー20は、図4に示すように、略正方形の画素領域21が前後上下方向に平面状に複数並んで形成されており、この各画素領域21は、光をRGBの波長別(色別)に受光可能なRGBの各受光部(図示せず)を有している。演算処理部30は、イメージセンサー20の画素領域21において波長別に受光して得られた受光強度を基に、被検物8の3次元形状を算出する処理部であり、具体的な3次元形状の算出方法については後述する。なお、演算処理部30において得られた被検物8の3次元形状データは、例えば計測装置1の外部に設けられたモニタ100に対して出力されることにより、目視によって確認可能となっている。   As shown in FIG. 4, the image sensor 20 includes a plurality of substantially square pixel regions 21 arranged in a plane in the front-rear and up-down directions. Each pixel region 21 transmits light according to RGB wavelengths (by color). ) Have RGB light receiving portions (not shown) capable of receiving light. The arithmetic processing unit 30 is a processing unit that calculates the three-dimensional shape of the test object 8 based on the received light intensity obtained by receiving light for each wavelength in the pixel region 21 of the image sensor 20. The calculation method of will be described later. In addition, the three-dimensional shape data of the test object 8 obtained in the arithmetic processing unit 30 can be visually confirmed by, for example, being output to the monitor 100 provided outside the measuring apparatus 1. .

以上、ここまでは計測装置1の部材構成について説明したが、以下において、光源5から発射された照明光5aおよび被検物8の表面からの反射光5bの進行について説明する。   The member configuration of the measurement apparatus 1 has been described so far. Hereinafter, the progress of the illumination light 5a emitted from the light source 5 and the reflected light 5b from the surface of the test object 8 will be described.

光源5から発射されて、照明レンズ系6(上方)に向けて進行する照明光5aは、照明レンズ系6に入射して集光された後、マルチドットパターン7に到達する。そして、マルチドットパターン7に到達した照射光5aのうちで、マルチスポット7a部分に到達した照明光5aはマルチドットパターン7を通過し、その他の部分に到達した5aはマルチドットパターン7を通過しない構成となっている。マルチドットパターン7を通過した照明光5aは、ハーフミラー10の表面で反射されることで、進行方向を上方から左方へと90度変えて進行する。そして、色出しレンズ11に入射した照明光5aは、色収差が補正されることなく被検物8に照射される。   Illumination light 5 a emitted from the light source 5 and traveling toward the illumination lens system 6 (upward) enters the illumination lens system 6 and is collected, and then reaches the multi-dot pattern 7. Of the irradiation light 5a that has reached the multi-dot pattern 7, the illumination light 5a that has reached the multi-spot 7a portion passes through the multi-dot pattern 7, and 5a that has reached the other portion does not pass through the multi-dot pattern 7. It has a configuration. The illumination light 5a that has passed through the multi-dot pattern 7 is reflected by the surface of the half mirror 10 and travels by changing the traveling direction from upper to left by 90 degrees. Then, the illumination light 5a incident on the color developing lens 11 is irradiated on the test object 8 without correcting the chromatic aberration.

被検物8に照明光5aが照射されると、図1に示すように、被検物8の表面には一定間隔を有して規則正しく配置されるとともに、照明光5aが照射されて明るくなった基準ドット7bが形成される。色出しレンズ11の光軸上に形成されたものを基準ドット7c、色出しレンズ11の光軸上以外の位置に形成されたものを基準ドット7d、7eとし、基準ドット7bは、基準ドット7cおよび基準ドット7d,7eのすべて含んだものを指している。ここで、基準ドット7bの配置位置および形状は、マルチドットパターン7に形成されたマルチスポット7aと対応している。被検物8の表面に照射された照明光5aの一部は、被検物8の表面において反射して反射光5bとなるとともに、色出しレンズ11に入射してハーフミラー10を透過した後、イメージセンサー20上で結像する。イメージセンサー20で結像した反射光5bは、画素領域21に形成されたRGBの各受光部において受光されて、これらの受光結果は演算処理部30に出力される。演算処理部30において、これらの受光結果を基に被検物8の3次元形状を算出するが、この具体的算出方法については後述する。   When the illumination light 5a is irradiated onto the test object 8, as shown in FIG. 1, the surface of the test object 8 is regularly arranged with a certain interval, and the illumination light 5a is irradiated and becomes brighter. The reference dot 7b is formed. Those formed on the optical axis of the color developing lens 11 are referred to as reference dots 7c, and those formed at positions other than on the optical axis of the color developing lens 11 are referred to as reference dots 7d and 7e. The reference dots 7b are the reference dots 7c. The reference dots 7d and 7e are all included. Here, the arrangement position and shape of the reference dot 7 b correspond to the multi-spot 7 a formed in the multi-dot pattern 7. A part of the illumination light 5a irradiated on the surface of the test object 8 is reflected on the surface of the test object 8 to become reflected light 5b, and enters the coloring lens 11 and passes through the half mirror 10. The image is formed on the image sensor 20. The reflected light 5 b imaged by the image sensor 20 is received by the RGB light receiving portions formed in the pixel region 21, and the light reception results are output to the arithmetic processing unit 30. The arithmetic processing unit 30 calculates the three-dimensional shape of the test object 8 based on these light reception results, and a specific calculation method will be described later.

以上ここまでは、照明光5aおよび被検物8の表面からの反射光5bの進行について説明したが、以下においては、図2および図3を参照しながら、被検物表面における光軸方向の段差等と撮像された像のボケとの関係について説明する。   Up to here, the progression of the illumination light 5a and the reflected light 5b from the surface of the test object 8 has been described. In the following, referring to FIGS. 2 and 3, the optical axis direction on the test object surface is described. The relationship between the level difference and the blur of the captured image will be described.

図2は、計測装置1(一部図示せず)を用いて被検物22、23および24の3次元形状測定を行う状態を示している。ここで、被検物22、23および24の位置関係は、被検物24が色出しレンズ11の光軸方向において最も左方(色出しレンズ11から最も離れている)、中間位置に被検物23、被検物22が最も右方に位置している。これら被検物22、23および24を撮像することにより、イメージセンサー20の画素領域21に形成されたBの受光部において、例えば図3(a)に示す像が得られ、同様にGの受光部において図3(b)、Rの受光部において図3(c)に示す像が得られる。Bの波長の光は、例えば被検物22の左右位置において合焦し被検物23、24の位置では合焦していないので、図3(a)に示すように、被検物22の像22Bが最も明瞭に撮像され、被検物23、24の像23B、24Bはボケている。また、Gの波長の光は被検物23の位置において合焦し、Rの波長の光は被検物24の位置において合焦しており、図3(b)における被検物22、24の像22G、24G、図3(c)における被検物22、23の像22R、23Rはボケている。このように、被検物表面における光軸方向の段差等を、撮像した像がボケることで検出可能となっている。なお、この段差等と像のボケ量との関係は後述する。   FIG. 2 shows a state in which the three-dimensional shape measurement of the test objects 22, 23, and 24 is performed using the measuring apparatus 1 (partially not shown). Here, the positional relationship between the test objects 22, 23 and 24 is that the test object 24 is leftmost in the optical axis direction of the color developing lens 11 (the furthest away from the color developing lens 11), and is in the middle position. The object 23 and the test object 22 are located on the rightmost side. For example, an image shown in FIG. 3A is obtained at the B light receiving portion formed in the pixel region 21 of the image sensor 20 by imaging the test objects 22, 23, and 24, and similarly, the G light reception is performed. 3B, and the image shown in FIG. 3C is obtained at the R light receiving portion. The light of the wavelength B is focused at, for example, the left and right positions of the test object 22 and is not focused at the positions of the test objects 23 and 24. Therefore, as shown in FIG. The image 22B is captured most clearly, and the images 23B and 24B of the test objects 23 and 24 are blurred. Further, the light of G wavelength is focused at the position of the test object 23, and the light of R wavelength is focused at the position of the test object 24, and the test objects 22, 24 in FIG. The images 22G and 24G and the images 22R and 23R of the test objects 22 and 23 in FIG. 3C are blurred. In this way, a step or the like in the optical axis direction on the surface of the test object can be detected by blurring the captured image. The relationship between the level difference and the image blur amount will be described later.

以上ここまでは、計測装置1の部材構成について説明したが、以下において、図7に示すフローチャートを参照しながら、計測装置1を用いて被検物8の3次元形状を測定する計測方法について説明する。   Up to this point, the member configuration of the measuring device 1 has been described. Hereinafter, the measuring method for measuring the three-dimensional shape of the test object 8 using the measuring device 1 will be described with reference to the flowchart shown in FIG. To do.

ステップ1において、色出しレンズ11の光軸上に形成された基準ドット7cに対する左右方向への相対高さZを求めるためのデータテーブルを作成する。まず、オートフォーカス駆動装置11cの作動スイッチ(図示せず)をオフとし、オートフォーカス機能が働かない状態としておく。そして、照明光5aを被検物8の表面に照射し、被検物8の表面において色出しレンズ11の光軸上に形成された基準ドット7cの像が、イメージセンサー20の画素領域21において結像し、RGBの波長ごとに受光強度が検出される。このとき、例えば色出しレンズ11を左右方向(色出しレンズ11の光軸方向)に移動させ、それぞれの移動位置において撮像された基準ドット7cの像を基に、受光した光の各受光強度を求める。その求められた各受光強度が演算処理部30に出力され、演算処理部30において各波長の受光強度ごとに、例えば受光強度の最大値が1となるように規格化する。このように規格化することにより、反射光5bの光強度および被検物8の表面の反射率に影響されない受光強度が得られる。   In step 1, a data table for determining the relative height Z in the left-right direction with respect to the reference dot 7 c formed on the optical axis of the color developing lens 11 is created. First, an operation switch (not shown) of the autofocus driving device 11c is turned off so that the autofocus function does not work. Then, the illumination light 5 a is irradiated on the surface of the test object 8, and an image of the reference dot 7 c formed on the optical axis of the color developing lens 11 on the surface of the test object 8 is displayed in the pixel region 21 of the image sensor 20. An image is formed, and the received light intensity is detected for each of the RGB wavelengths. At this time, for example, the coloring lens 11 is moved in the left-right direction (the optical axis direction of the coloring lens 11), and the received light intensity of the received light is determined based on the image of the reference dot 7c imaged at each moving position. Ask. The obtained light reception intensities are output to the arithmetic processing unit 30, and the arithmetic processing unit 30 normalizes the light reception intensities for each wavelength so that the maximum value of the light reception intensity is 1, for example. By normalizing in this way, the received light intensity that is not affected by the light intensity of the reflected light 5b and the reflectance of the surface of the test object 8 can be obtained.

上記規格化された受光強度について、図4を参照しながら説明すると、イメージセンサー20に基準ドット7cの像が、例えば合焦した左右高さ位置において像22c、合焦位置から左右方向に少しずれた位置における像22b、合焦位置からさらに左右方向に大きくずれた位置における像22aのような円形に撮像されたとする。このとき、例えば像22cの中心部の受光強度が10で、像22cの直径が10であるとすると、受光強度/直径=10/10=1が算出され、この値が規格化された受光強度であるとともに、合焦位置なので受光強度は最大値の1となっている。また、焦点位置から左右方向にずれた位置において結像することで、像の中心部の受光強度は低下するとともに像の直径は大きくなる。例えば像22bの規格化された受光強度は、受光強度/直径=5/15=0.33、また像22aの規格化された受光強度は、受光強度/直径=2/20=0.1のように算出される。   The standardized light receiving intensity will be described with reference to FIG. 4. The image of the reference dot 7c on the image sensor 20 is slightly shifted in the left-right direction from the focused position, for example, the image 22c at the focused left-right height position. It is assumed that the image 22b is captured in a circle like the image 22b at a certain position, and the image 22a at a position further deviated in the left-right direction from the focus position. At this time, for example, if the light reception intensity at the center of the image 22c is 10 and the diameter of the image 22c is 10, light reception intensity / diameter = 10/10 = 1 is calculated, and this value is normalized. In addition, the received light intensity is 1 which is the maximum value because of the in-focus position. Further, by forming an image at a position shifted in the left-right direction from the focal position, the received light intensity at the center of the image is lowered and the diameter of the image is increased. For example, the standardized received light intensity of the image 22b is received light intensity / diameter = 5/15 = 0.33, and the standardized received light intensity of the image 22a is received light intensity / diameter = 2/20 = 0.1. Is calculated as follows.

上記のようにして得られた規格化された各受光強度を波長ごとに、受光強度を縦軸に、基準ドット7cに対する左右方向への相対高さZを横軸に取ってグラフ化したものを図5(a)に示している。図5(a)に示す強度曲線8BはBの波長の像、強度曲線8GはGの波長の像、強度曲線8RはRの波長の像からそれぞれ求めた曲線である。ここで、強度曲線8B、8G、8Rは、それぞれ距離Z5、Z0、Z6において受光強度がピーク値1を示している。さらに、強度曲線8Rから強度曲線8Bを引いて差分値を算出することにより、縦軸に差動信号、横軸に基準ドット7cに対する左右方向への相対高さZを表した差動曲線8Sが得られる(図5(b)を参照)。   Graphs obtained by taking the normalized received light intensities obtained as described above for each wavelength, taking the received light intensity on the vertical axis, and the horizontal height Z relative to the reference dot 7c in the horizontal direction. This is shown in FIG. The intensity curve 8B shown in FIG. 5A is a curve obtained from an image of B wavelength, the intensity curve 8G is an image of G wavelength, and the intensity curve 8R is a curve obtained from an image of R wavelength. Here, in the intensity curves 8B, 8G, and 8R, the received light intensity has a peak value 1 at distances Z5, Z0, and Z6, respectively. Further, by calculating the difference value by subtracting the intensity curve 8B from the intensity curve 8R, a differential curve 8S in which the vertical axis represents the differential signal and the horizontal axis represents the relative height Z in the left-right direction with respect to the reference dot 7c is obtained. Is obtained (see FIG. 5B).

ここで、図5(a)に示すように、基準ドット7cが位置している左右方向の高さZ0は、強度曲線8Gの受光強度がほぼピークとなる位置(Gの波長の光が合焦)であるとともに、強度曲線8Bと強度曲線8Rとが交差しており差動信号の値が零となる位置でもある。他の基準ドット7dにおける規格化された受光強度を算出して差動信号を求めた上で、差動曲線8Sを参照することにより左右方向も含めた、基準ドット7cに対する左右方向への相対高さZを求めることができる。なお、図5(b)に示すように、基準ドット7cが位置している左右方向の高さZ0を中心としておよそZ5からZ6までの測定可能領域Wにおいて差動曲線8Sはほぼ直線となっており、差動信号と左右方向への相対高さZとの対応関係が高精度に求まる領域となっている。よって、以下に述べる左右方向の相対高さZの算出には、この測定可能領域Wの領域を参照して求めることとする。   Here, as shown in FIG. 5A, the horizontal height Z0 at which the reference dot 7c is located is a position at which the received light intensity of the intensity curve 8G is substantially peaked (light with a wavelength of G is in focus). ), And the intensity curve 8B and the intensity curve 8R cross each other, and the differential signal value is zero. After calculating the standardized received light intensity at the other reference dot 7d to obtain a differential signal, by referring to the differential curve 8S, the relative height in the left-right direction with respect to the reference dot 7c, including the left-right direction, is also determined. Z can be obtained. As shown in FIG. 5B, the differential curve 8S is substantially linear in the measurable region W from about Z5 to Z6 about the horizontal height Z0 where the reference dot 7c is located. Thus, this is an area where the correspondence between the differential signal and the relative height Z in the left-right direction is obtained with high accuracy. Therefore, the calculation of the relative height Z in the left-right direction described below is performed with reference to the measurable area W.

ステップ2に進み、オートフォーカス駆動装置11cの作動スイッチをオンとしてオートフォーカス機能が働く状態とした後、基準ドット7cの左右方向の高さZ0を中心とした、Z5からZ6までの測定可能領域Wを外れた位置に形成された基準ドット7dを撮像する。このとき、オートフォーカス駆動装置11cは、基準ドット7dにおける差動信号値が零となるようにオートフォーカス用レンズを移動させることにより、色出しレンズ11の焦点位置を変える。そして、基準ドット7dにおける差動信号値が零となると、オートフォーカス制御部11dは、オートフォーカス駆動装置11cの作動を停止させて、オートフォーカス用レンズの移動を停止させる。このようにして、基準ドット7dの位置に自動的に合焦させるオートフォーカス機能を実現している。   Proceeding to step 2, after the operation switch of the autofocus drive device 11c is turned on and the autofocus function is activated, the measurable area W from Z5 to Z6 centered on the horizontal height Z0 of the reference dot 7c. An image of the reference dot 7d formed at a position out of the range is taken. At this time, the autofocus drive device 11c changes the focal position of the color developing lens 11 by moving the autofocus lens so that the differential signal value at the reference dot 7d becomes zero. When the differential signal value at the reference dot 7d becomes zero, the autofocus control unit 11d stops the operation of the autofocus drive device 11c and stops the movement of the autofocus lens. In this way, an autofocus function for automatically focusing on the position of the reference dot 7d is realized.

ステップ3に進み、上記ステップ2で基準ドット7dの位置に合焦した状態において、色出しレンズ11の光軸上に位置していない基準ドット7eの像を撮像する。この基準ドット7eは、基準ドット7dの位置に合焦した状態において、差動曲線8Sにおける測定可能領域Wに含まれる。ここで、基準ドット7eの像の大きさがイメージセンサー20の複数の画素領域21に対して所望の大きさとなるように、ズーミング駆動装置11aを作動させる。そうすることにより、色出しレンズ11の焦点距離を変化させて、基準ドット7eの像の大きさを拡大または縮小させる。例えば、ズーム用レンズをワイド側に移動させることにより、基準ドット7eの周囲を含めた広い領域の像を得ることが可能となる。一方、ズーム用レンズをテレ側に移動させることにより、被検物8の一部の微小領域が拡大された像を得ることが可能となる。   Proceeding to step 3, in the state in which the position of the reference dot 7d is focused in step 2, an image of the reference dot 7e that is not located on the optical axis of the color developing lens 11 is captured. The reference dot 7e is included in the measurable area W in the differential curve 8S in a state where the reference dot 7d is focused on. Here, the zooming driving device 11a is operated so that the size of the image of the reference dot 7e becomes a desired size with respect to the plurality of pixel regions 21 of the image sensor 20. By doing so, the focal length of the color developing lens 11 is changed to enlarge or reduce the size of the image of the reference dot 7e. For example, by moving the zoom lens to the wide side, an image of a wide area including the periphery of the reference dot 7e can be obtained. On the other hand, by moving the zoom lens to the tele side, it is possible to obtain an image in which a small area of a part of the test object 8 is enlarged.

ステップ4に進み、オートフォーカス用レンズおよびズーム用レンズの移動が停止した状態において、基準ドット7eの規格化された受光強度を、上述の基準ドット7cの場合と同様にして波長ごとに検出する。そして、この規格化された波長ごとの受光強度を基に基準ドット7eの位置における差動信号s1を求める。   Proceeding to step 4, in a state where the movement of the autofocus lens and the zoom lens is stopped, the standardized received light intensity of the reference dot 7e is detected for each wavelength in the same manner as in the case of the reference dot 7c. Then, the differential signal s1 at the position of the reference dot 7e is obtained on the basis of the standardized received light intensity for each wavelength.

ステップ5に進み、差動曲線8Sの測定可能領域Wを参照することにより、ステップ4において求めた差動信号s1に対応する左右方向への相対高さZ1を求めることができる。また、このオートフォーカス用レンズおよびズーム用レンズの位置において、撮像可能な各基準ドット7bについても、同時に左右方向への相対高さZ1を求める。さらに、上記オートフォーカス用レンズの位置では、像がボケることにより撮像不可能な各基準ドット7bについては、上述の基準ドット7dと同様に、オートフォーカス駆動装置11cによって、色出しレンズ11の焦点位置を変えて撮像する。このとき、被検物8の表面形状に応じて適宜ズーミング駆動装置11aを作動させる。そして、各基準ドット7bについて規格化された受光強度を求めた上で差動信号を算出し、差動曲線8Sを参照して各差動信号に対応する左右方向への相対高さZ1を求める。そうすることにより、色出しレンズ11の光軸上に形成された基準ドット7cの左右方向の高さZ0を基準とした、各基準ドット7bの左右方向への相対高さが算出される。   Proceeding to step 5, by referring to the measurable area W of the differential curve 8S, the relative height Z1 in the left-right direction corresponding to the differential signal s1 obtained in step 4 can be obtained. Further, at the positions of the autofocus lens and the zoom lens, the relative height Z1 in the left-right direction is simultaneously obtained for each reference dot 7b that can be imaged. Further, for each reference dot 7b that cannot be imaged due to a blurred image at the position of the autofocus lens, the autofocus driving device 11c focuses the focus of the color developing lens 11 on the basis of the reference dot 7d. Change the position and take an image. At this time, the zooming driving device 11a is appropriately operated according to the surface shape of the test object 8. Then, after obtaining the standardized received light intensity for each reference dot 7b, the differential signal is calculated, and the relative height Z1 in the left-right direction corresponding to each differential signal is obtained with reference to the differential curve 8S. . By doing so, the relative height in the left-right direction of each reference dot 7b is calculated with reference to the height Z0 in the left-right direction of the reference dot 7c formed on the optical axis of the color developing lens 11.

ステップ6に進み、被検物8の表面に形成された各基準ドット7bと、平面状のイメージセンサー20上において結像した各基準ドット7bの像は、一対一に対応している。よって、ステップ5において算出された各基準ドット7bの左右方向への相対高さと、イメージセンサー20上での前後上下位置とを組み合わせることにより、被検物8の表面の3次元形状が求まりこのフローは終了する。   Proceeding to step 6, each reference dot 7b formed on the surface of the test object 8 and the image of each reference dot 7b formed on the planar image sensor 20 have a one-to-one correspondence. Therefore, the three-dimensional shape of the surface of the test object 8 is obtained by combining the relative height in the left-right direction of each reference dot 7b calculated in step 5 and the front / rear / up / down positions on the image sensor 20. Ends.

本発明に係る計測装置1の効果について簡潔にまとめると、一般の撮像光学系において必然的に発生する色収差を利用して行う3次元形状測定において、画素領域21において結像する像のサイズを所望の大きさとなるように連続的に拡大もしくは縮小させるズーミング機能を有している。よって、より詳細に3次元形状測定を行う箇所はズーミング機能により像を拡大して撮像を行い、一方で広範囲にわたって3次元形状測定を行う箇所は像を縮小して撮像を行うことで、被検物8の表面形状に応じた3次元形状測定が可能となる。   To briefly summarize the effects of the measurement apparatus 1 according to the present invention, the size of an image formed in the pixel region 21 is desired in three-dimensional shape measurement that is performed by using chromatic aberration that inevitably occurs in a general imaging optical system. It has a zooming function for continuously enlarging or reducing so as to be the size of. Therefore, the location where the 3D shape measurement is performed in more detail is performed by enlarging the image by the zooming function, while the location where the 3D shape measurement is performed over a wide range is performed by reducing the image and performing the imaging. The three-dimensional shape measurement according to the surface shape of the object 8 becomes possible.

上述の実施例のステップ2で、基準ドット7dの位置に自動的に合焦させた状態において、基準ドット7dの像に対するGの波長の規格化された受光強度がピークとなる位置を求め、その受光強度から基準ドット7dの位置にほぼ合焦しているか確認することも可能である。   In the step 2 in the above-described embodiment, in a state where the position of the reference dot 7d is automatically focused, a position where the standardized received light intensity of the G wavelength with respect to the image of the reference dot 7d becomes a peak is obtained. It is also possible to confirm whether or not the position of the reference dot 7d is substantially focused from the received light intensity.

上述の実施例の示すオートフォーカス機能を、例えばカメラ等の撮像装置に組み込むことにより、従来よりカメラ等に付いているオートフォーカス機能は不要となる。また、カメラ等以外の撮像装置においても、この装置内の色収差光学系を兼用することによりオートフォーカス機能を実現することができる。   By incorporating the autofocus function shown in the above-described embodiment into an imaging apparatus such as a camera, for example, the autofocus function attached to the camera or the like becomes unnecessary. Also, in an imaging apparatus other than a camera or the like, an autofocus function can be realized by also using a chromatic aberration optical system in the apparatus.

上述の実施例において、イメージセンサー20の画素領域21には、それぞれRGBの各受光部が形成されているが、この構成に限定されず、例えば独立してRGBの各画像が得られる3次元CCDが形成されている構成でも良い。   In the above-described embodiment, each of the RGB light receiving portions is formed in the pixel region 21 of the image sensor 20, but the present invention is not limited to this configuration. For example, a three-dimensional CCD that can independently obtain RGB images. The structure in which is formed may be used.

上述の実施例において、ステップ1で基準ドット7cの受光強度を像の幅で除算することで規格化しているが、受光強度の規格化はこの方法に限定されず、例えば受光強度のピーク値を平均受光強度で除算する方法、像幅を平均受光強度で除算する方法およびフーリエ変換による方法等を用いても良い。   In the above-described embodiment, the received light intensity of the reference dot 7c is normalized by dividing it by the width of the image in step 1, but the normalization of the received light intensity is not limited to this method. A method of dividing by the average received light intensity, a method of dividing the image width by the average received light intensity, a method by Fourier transform, or the like may be used.

上述の実施例において、被検物8の表面にドット状の基準ドット7bを形成するマルチドットパターン7を用いているが、この構成に限定されず、例えば図6(b)に示す格子パターン3、および図6(c)に示す縞パターン4を用いて計測装置1を構成しても良い。さらに格子パターン3を用いた場合、左右格子3aと上下格子3bの交点である格子点3cの像を、被検物8の3次元形状測定の測定点(例えば実施例における基準ドット7b)として用いることが可能である。   In the above-described embodiment, the multi-dot pattern 7 for forming the dot-like reference dots 7b on the surface of the test object 8 is used. However, the present invention is not limited to this configuration. For example, the lattice pattern 3 shown in FIG. The measuring apparatus 1 may be configured using the fringe pattern 4 shown in FIG. Further, when the grid pattern 3 is used, an image of a grid point 3c that is an intersection of the left and right grids 3a and the top and bottom grids 3b is used as a measurement point for measuring the three-dimensional shape of the test object 8 (for example, the reference dot 7b in the embodiment). It is possible.

上述の実施例において、照明光学系を用いて被検物8の表面にドット状の基準ドット7bを形成する、一般にアクティブ方式と呼ばれる構成となっているがこの構成に限定されることなく、照明光学系を用いることなく、例えば自然光を利用して被検物8の表面の特徴点(エッジ部分およびコントラストが変化する部分等)の受光強度を検出して被検物8の3次元形状を求める、一般にパッシブ方式と呼ばれる構成でも良い。   In the above-described embodiment, the dot-shaped reference dot 7b is formed on the surface of the test object 8 using the illumination optical system, and is generally called an active method. However, the present invention is not limited to this configuration. Without using an optical system, for example, the natural light is used to detect the received light intensity of the surface feature points (edge portions, contrast changing portions, etc.) of the test object 8 to obtain the three-dimensional shape of the test object 8. A configuration generally called a passive system may be used.

上述の実施例において、ステップ1でRおよびBの2つの波長を用いてデータテーブルを作成する構成となっているが、データテーブル作成に関しこの2つの波長により作成される構成に限定されず、任意の異なる2つの波長の組み合わせによりデータテーブルを作成することが可能である。   In the above-described embodiment, the data table is created by using the two wavelengths R and B in Step 1, but the data table creation is not limited to the configuration created by these two wavelengths, and is arbitrary. It is possible to create a data table by combining two different wavelengths.

上述の実施例において、被検物8の表面は単一色で構成されていることが好ましい。   In the above-described embodiment, the surface of the test object 8 is preferably composed of a single color.

本発明に係る計測装置の構成を示す概念図である。It is a conceptual diagram which shows the structure of the measuring device which concerns on this invention. 本発明に係る計測装置を用いて測定を行う概念図である。It is a conceptual diagram which performs a measurement using the measuring device which concerns on this invention. (a)はBの波長によって得られた画像で、(b)はGの波長によって得られた画像で、(c)はRの波長によって得られた画像である。(A) is an image obtained by the wavelength of B, (b) is an image obtained by the wavelength of G, and (c) is an image obtained by the wavelength of R. イメージセンサーの画素領域を示した平面図である。It is the top view which showed the pixel area of the image sensor. (a)は受光強度と基準ドット7cに対する左右方向への相対高さZとの関係を示したグラフで、(b)は差動信号と横軸に基準ドット7cに対する左右方向への相対高さZとの関係を示したグラフである。(A) is a graph showing the relationship between the received light intensity and the relative height Z in the left-right direction with respect to the reference dot 7c, and (b) is the relative height in the left-right direction with respect to the differential signal and the reference dot 7c on the horizontal axis. 3 is a graph showing a relationship with Z. (a)はマルチドットパターンを示した平面図であり、(b)は格子パターンを示した平面図であり、(c)は縞パターンを示した平面図である。(A) is a plan view showing a multi-dot pattern, (b) is a plan view showing a lattice pattern, and (c) is a plan view showing a fringe pattern. 本発明に係る計測装置を用いて3次元形状測定を行う際のフローチャートである。It is a flowchart at the time of performing three-dimensional shape measurement using the measuring device concerning the present invention. 従来の、色収差を利用して高さ測定を行う計測装置を示した概念図である。It is the conceptual diagram which showed the conventional measuring apparatus which performs height measurement using a chromatic aberration.

符号の説明Explanation of symbols

1 計測装置 7c 基準ドット(所定基準位置)
8 被検物 11 色出しレンズ(結像レンズ系)
11a ズーミング駆動装置(ズーム用レンズ駆動部)
11c オートフォーカス駆動装置(オートフォーカス用レンズ駆動部)
11d オートフォーカス制御部
20 イメージセンサー 21 画素領域(画素)
30 演算処理部
1 Measuring device 7c Reference dot (predetermined reference position)
8 Test object 11 Coloring lens (imaging lens system)
11a Zooming drive device (zoom lens drive unit)
11c Autofocus drive device (autofocus lens drive unit)
11d Autofocus control unit 20 Image sensor 21 Pixel area (pixel)
30 arithmetic processing unit

Claims (4)

平面状に並んだ複数の画素を有したイメージセンサーと、
被検物の表面からの光を入射させて前記イメージセンサー上に前記被検物の表面の像を結像させる結像レンズ系と、
前記結像レンズ系を構成する少なくとも一部のレンズを前記被検物に対して光軸方向に移動させて前記イメージセンサー上に結像する前記像の大きさを拡大または縮小させることが可能なズーム用レンズ駆動部と、
前記ズーム用レンズ駆動部により拡大または縮小されて前記イメージセンサー上に前記被検物の表面の像を結像させた状態において、前記イメージセンサーを構成する前記複数の画素のそれぞれが受光した光の強度に基づいて、前記被検物の表面の光軸方向の相対位置を算出して前記被検物の3次元形状を測定する演算処理部とを備え、
前記複数の画素は前記被検物の表面からの光を少なくとも2つの波長に分けて受光するとともに波長毎の受光強度を検出し、
前記演算処理部は、被検物の表面の像における所定基準位置での2つの波長の前記受光強度の差と、前記被検物の表面の像における他の位置での前記2つの波長の前記受光強度の差との関係から、前記所定基準位置に対する前記他の位置の距離を求めて前記被検物の表面の3次元形状を測定する計測装置。
An image sensor having a plurality of pixels arranged in a plane;
An imaging lens system that makes light from the surface of the test object incident and forms an image of the surface of the test object on the image sensor;
It is possible to enlarge or reduce the size of the image formed on the image sensor by moving at least a part of the lenses constituting the imaging lens system in the optical axis direction with respect to the test object. A zoom lens drive,
The light received by each of the plurality of pixels constituting the image sensor in a state where an image of the surface of the test object is formed on the image sensor by being enlarged or reduced by the zoom lens driving unit. An arithmetic processing unit that calculates the relative position of the surface of the test object in the optical axis direction based on the intensity and measures the three-dimensional shape of the test object;
The plurality of pixels receive light from the surface of the test object divided into at least two wavelengths and detect received light intensity for each wavelength,
The arithmetic processing unit is configured to detect the difference between the received light intensity of two wavelengths at a predetermined reference position in the image of the surface of the test object and the two wavelengths of the two wavelengths at other positions in the image of the surface of the test object. A measuring apparatus that measures the three-dimensional shape of the surface of the test object by determining the distance of the other position with respect to the predetermined reference position from the relationship with the difference in received light intensity.
前記結像レンズ系を構成する少なくとも一部のレンズを前記被検物に対して光軸方向に移動させることが可能なオートフォーカス用レンズ駆動部と、
前記結像レンズ系により前記被検物における前記所定基準位置の像を前記イメージセンサーに合焦させて結像させるように、前記オートフォーカス用レンズ駆動部による前記少なくとも一部のレンズの光軸方向への移動を制御するオートフォーカス制御部とを有していることを特徴とする請求項1に記載の計測装置。
An autofocus lens driving unit capable of moving at least a part of the lenses constituting the imaging lens system in the optical axis direction with respect to the object;
The optical axis direction of the at least some lenses by the autofocus lens driving unit so that the image sensor system focuses the image of the predetermined reference position on the object to be focused on the image sensor. The measuring apparatus according to claim 1, further comprising an autofocus control unit that controls movement to the position.
前記被検物の表面の所定基準位置は、前記被検物の表面における前記結像レンズ系の光軸上の位置であることを特徴とする請求項1または2に記載の計測装置。   The measuring apparatus according to claim 1, wherein the predetermined reference position on the surface of the test object is a position on the optical axis of the imaging lens system on the surface of the test object. 平面状に並んだ複数の画素を有したイメージセンサーと、被検物の表面からの光を入射させて前記イメージセンサー上に前記被検物の表面の像を結像させる結像レンズ系と、前記結像レンズ系を構成する少なくとも一部のレンズを前記被検物に対して光軸方向に移動させて前記イメージセンサー上に結像する前記像の大きさを拡大または縮小させることが可能なズーム用レンズ駆動部と、前記ズーム用レンズ駆動部により拡大または縮小されて前記イメージセンサー上に前記被検物の表面の像を結像させた状態において、前記イメージセンサーを構成する前記複数の画素のそれぞれが受光した光の強度に基づいて、前記被検物の表面の光軸方向の相対位置を算出して前記被検物の3次元形状を測定する演算処理部とを備えた計測装置を用いた計測方法であって、
前記ズーム用レンズ駆動部が前記結像レンズ系を構成する前記少なくとも一部のレンズを前記被検物に対して移動させて前記イメージセンサー上に結像する前記像の大きさを拡大または縮小させるズーミングステップと、前記複数の画素が前記被検物の表面からの光を少なくとも2つの波長に分けて受光するとともに波長毎の受光強度を検出する受光強度検出ステップと、前記演算処理部が被検物の表面の像における所定基準位置での2つの波長の前記受光強度の差と、前記被検物の表面の像における他の位置での前記2つの波長の前記受光強度の差との関係から、前記所定基準位置に対する前記他の位置の距離を求めて前記被検物の表面の3次元形状を測定する測定ステップとからなることを特徴とする計測方法。
An image sensor having a plurality of pixels arranged in a plane, and an imaging lens system that forms an image of the surface of the test object on the image sensor by making light from the surface of the test object incident; It is possible to enlarge or reduce the size of the image formed on the image sensor by moving at least a part of the lenses constituting the imaging lens system in the optical axis direction with respect to the test object. The plurality of pixels constituting the image sensor in a state where a zoom lens driving unit and an image of the surface of the test object are formed on the image sensor by being enlarged or reduced by the zoom lens driving unit A measurement device comprising: an arithmetic processing unit that calculates a relative position in the optical axis direction of the surface of the test object based on the intensity of light received by each of the test objects and measures a three-dimensional shape of the test object Using A measurement method,
The zoom lens driving unit moves the at least a part of the lenses constituting the imaging lens system with respect to the test object to enlarge or reduce the size of the image formed on the image sensor. A zooming step, a received light intensity detecting step in which the plurality of pixels receive light from the surface of the test object divided into at least two wavelengths and detect the received light intensity for each wavelength; and the arithmetic processing unit detects the light From the relationship between the difference in the received light intensity of two wavelengths at a predetermined reference position in the image of the surface of the object and the difference in the received light intensity of the two wavelengths at other positions in the image of the surface of the test object And a measurement step of measuring a three-dimensional shape of the surface of the test object by obtaining a distance of the other position with respect to the predetermined reference position.
JP2007243110A 2007-09-19 2007-09-19 Measuring device, and method of measuring the same Pending JP2009074876A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007243110A JP2009074876A (en) 2007-09-19 2007-09-19 Measuring device, and method of measuring the same
PCT/JP2008/065368 WO2009037949A1 (en) 2007-09-19 2008-08-28 Measuring device and measuring method employed therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007243110A JP2009074876A (en) 2007-09-19 2007-09-19 Measuring device, and method of measuring the same

Publications (1)

Publication Number Publication Date
JP2009074876A true JP2009074876A (en) 2009-04-09

Family

ID=40610002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007243110A Pending JP2009074876A (en) 2007-09-19 2007-09-19 Measuring device, and method of measuring the same

Country Status (1)

Country Link
JP (1) JP2009074876A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10952827B2 (en) 2014-08-15 2021-03-23 Align Technology, Inc. Calibration of an intraoral scanner

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10952827B2 (en) 2014-08-15 2021-03-23 Align Technology, Inc. Calibration of an intraoral scanner

Similar Documents

Publication Publication Date Title
TWI426296B (en) Method and system for three-dimensional polarization-based confocal microscopy
TWI454746B (en) Optical characteristic measuring apparatus using light reflected from object to be measured and focus adjusting method therefor
TWI464362B (en) Apparatus for measuring a height and obtaining a focused image of and object and method thereof
CN109642848B (en) Image inspection apparatus and image inspection method
CN111735413A (en) Three-dimensional shape measuring device
KR101824328B1 (en) 3-D scanner and the scanning method using the chromatic aberration
JP6378936B2 (en) Optical device
KR100679643B1 (en) Apparatus for performing an auto-focus operation employing a pattern for the auto-focus operation and method for performing an auto-focus operation using the same
JP6030471B2 (en) Shape measuring device
JP2007005649A (en) Superposition measuring device
JP6908373B2 (en) A method for inspecting the surface irregularities of an object to be inspected and its surface inspection device
JP2009074867A (en) Measuring apparatus and its measurement method
EP3353489B1 (en) Method and apparatus for measuring the height of a surface
JP2010014505A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measurement method
US20110157458A1 (en) Method and apparatus for focusing
JP2009074876A (en) Measuring device, and method of measuring the same
KR101239409B1 (en) 2d shape and 3d shape measuring apparatus and method based on phase shifting interferometry
JP2009074875A (en) Measuring device, and method of measuring the same
WO2018092248A1 (en) Sample shape measurement device
KR102022799B1 (en) Line width measuring system and line width measuring device
JP2878583B2 (en) Lens meter
JP6597467B2 (en) Face orientation measuring device
JP2019060850A (en) Lens characteristic measuring device and method for actuating lens characteristic measuring device
JP4389668B2 (en) Position detection method and position detection apparatus
JP2019060851A (en) Lens characteristics measuring device and method for actuating lens characteristics measuring device