JP2009186216A - Three-dimensional shape measuring device - Google Patents

Three-dimensional shape measuring device Download PDF

Info

Publication number
JP2009186216A
JP2009186216A JP2008023908A JP2008023908A JP2009186216A JP 2009186216 A JP2009186216 A JP 2009186216A JP 2008023908 A JP2008023908 A JP 2008023908A JP 2008023908 A JP2008023908 A JP 2008023908A JP 2009186216 A JP2009186216 A JP 2009186216A
Authority
JP
Japan
Prior art keywords
output
light beam
imaging
dimensional shape
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008023908A
Other languages
Japanese (ja)
Inventor
Tomoaki Yamada
智明 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008023908A priority Critical patent/JP2009186216A/en
Publication of JP2009186216A publication Critical patent/JP2009186216A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform accurate measurement in three-dimensional shape measurement by a light section method which utilizes a two-dimensional photoelectric conversion element. <P>SOLUTION: The three-dimensional shape measuring device includes: a light-projecting means which has a slit shape and projects a light beam to an object from a first direction in which the intensity of the light beam in the direction perpendicular to the longitudinal direction of the slit has a Gaussian distribution; a changing means for changing the relative position between the light-projecting means and the object; a first imaging means which has a two-dimensional photoelectric conversion element, with logarithmic characteristics in the photoelectric conversion of at least a part of the area and picks up an image of a light beam reflected from the object, by using the two-dimensional photoelectric conversion element from a direction different from the first direction; a detection means for detecting the position of a light beam on the object, based on the output of the first imaging means; and a computing means for computing the three-dimensional shape of the object based on detection results by the detection means at the plurality of different relative positions. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像手段の出力に基づいて被検物体の3次元形状を測定する3次元形状測定装置に関する。   The present invention relates to a three-dimensional shape measuring apparatus that measures a three-dimensional shape of a test object based on an output of an imaging unit.

従来から、対数特性を有する2次元光電変換素子を用いて、スリット光を投光して3次元形状を測定するいわゆる光切断方式のセンサとして利用する技術が知られている(例えば、特許文献1参照)。2次元光電変換素子を利用した光切断方式の3次元形状測定によれば、反射光のコントラストが高い被検物体に対しても安定した測定を行うことができる。
特表2005−508759号公報
2. Description of the Related Art Conventionally, there is known a technique that uses a two-dimensional photoelectric conversion element having a logarithmic characteristic and that is used as a so-called light-cutting type sensor that projects slit light and measures a three-dimensional shape (eg, Patent Document 1) reference). According to the three-dimensional shape measurement of the light cutting method using a two-dimensional photoelectric conversion element, it is possible to perform stable measurement even for a test object having a high contrast of reflected light.
JP 2005-508759 gazette

しかし、対数特性を有する2次元光電変換素子を利用して光切断方式の3次元形状測定を行う場合、波形処理のためにその出力を直線感度に換算する。その結果、特に光量の大きい領域において、換算時におけるA/D変換の量子化誤差が大きくなり、精密測定に適さないという問題がある。   However, when performing a light-cutting three-dimensional shape measurement using a two-dimensional photoelectric conversion element having logarithmic characteristics, the output is converted into linear sensitivity for waveform processing. As a result, there is a problem that the quantization error of A / D conversion at the time of conversion becomes large, particularly in a region with a large amount of light, and is not suitable for precise measurement.

本発明の3次元形状測定装置は、2次元光電変換素子を利用した光切断方式の3次元形状測定において、高精度な測定を行うことを目的とする。   An object of the three-dimensional shape measuring apparatus of the present invention is to perform highly accurate measurement in a three-dimensional shape measurement of a light section type using a two-dimensional photoelectric conversion element.

本発明の3次元形状測定装置は、スリット形状を有し、かつ、スリットの長手方向と垂直な方向の強度がガウス分布を有する光ビームを、被検物体に対して第1の方向から投光する投光手段と、前記投光手段と前記被検物体との相対位置を変更する変更手段と、少なくとも一部の領域の光電変換に対数特性を有する2次元光電変換素子を有し、前記被検物体から反射した前記光ビームの像を、前記第1の方向と異なる方向から前記2次元光電変換素子により撮像する第1の撮像手段と、前記第1の撮像手段の出力に基づいて、前記被検物上における前記光ビームの位置を検出する検出手段と、複数の異なる前記相対位置における前記検出手段による検出結果に基づいて、前記被検物体の3次元形状を演算する演算手段とを備える。   The three-dimensional shape measuring apparatus of the present invention projects a light beam having a slit shape and having a Gaussian distribution in the direction perpendicular to the longitudinal direction of the slit from a first direction to a test object. Projecting means, changing means for changing the relative position of the projecting means and the object to be measured, and a two-dimensional photoelectric conversion element having logarithmic characteristics for photoelectric conversion in at least a part of the area, Based on the output of the first imaging means, the first imaging means for imaging the image of the light beam reflected from the test object from the direction different from the first direction by the two-dimensional photoelectric conversion element, Detection means for detecting the position of the light beam on the test object, and calculation means for calculating the three-dimensional shape of the test object based on detection results by the detection means at a plurality of different relative positions. .

なお、前記第1の撮像手段の出力を、前記ガウス分布に対応する2次関数に近似する第1の近似手段を備え、前記検出手段は、前記2次関数に近似された前記出力に基づいて前記光ビームの位置を検出しても良い。   The first imaging means includes first approximation means for approximating the output of the first imaging means to a quadratic function corresponding to the Gaussian distribution, and the detection means is based on the output approximated to the quadratic function. The position of the light beam may be detected.

また、前記第1の近似手段は、前記第1の撮像手段の出力として、経時変化に伴う出力を2次関数に近似し、前記検出手段は、前記被検物上の所定の位置を前記光ビームが通過する時刻を検出しても良い。   Further, the first approximating means approximates an output accompanying a change with time as a quadratic function as an output of the first imaging means, and the detecting means sets a predetermined position on the test object as the light. The time when the beam passes may be detected.

また、環境光成分に相当する出力を取得する取得手段をさらに備え、前記検出手段は、前記第1の撮像手段の出力を、前記取得手段により取得した前記環境光成分に相当する出力に基づいて補正した後に、前記光ビームの位置を検出しても良い。   In addition, an acquisition unit that acquires an output corresponding to the ambient light component is further provided, and the detection unit outputs the output of the first imaging unit based on the output corresponding to the ambient light component acquired by the acquisition unit. After the correction, the position of the light beam may be detected.

また、少なくとも一部の領域の光電変換に対数特性を有する第2の2次元光電変換素子を有し、前記被検物体から反射した前記光ビームの像を、前記第1の方向および前記第1の撮像手段が撮像する方向と異なる第2の方向から前記第2の2次元光電変換素子により撮像する第2の撮像手段と、前記第2の撮像手段の出力を2次関数に近似する第2の近似手段とをさらに備え、前記検出手段は、前記第1の方向と前記第2の方向と前記第1の近似手段の出力とに基づいて、前記第1の撮像手段上の前記光ビームに対応する前記第2の撮像手段上の光ビームの位置を、前記第2の近似手段の出力を用いて検出しても良い。   In addition, a second two-dimensional photoelectric conversion element having logarithmic characteristics for photoelectric conversion in at least a part of the region is provided, and an image of the light beam reflected from the object to be examined is represented in the first direction and the first A second imaging unit that captures an image with the second two-dimensional photoelectric conversion element from a second direction different from a direction in which the imaging unit captures an image, and a second that approximates the output of the second imaging unit to a quadratic function The approximating means further includes: the detecting means based on the first direction, the second direction, and the output of the first approximating means on the light beam on the first imaging means. The position of the corresponding light beam on the second imaging unit may be detected using the output of the second approximating unit.

また、環境光成分に相当する出力を取得する取得手段をさらに備え、前記近似手段は、前記第1の撮像手段の出力および前記第2の撮像手段の出力を、前記取得手段により取得した前記環境光成分に相当する出力に基づいて補正した後に、それぞれ2次関数に近似しても良い。   In addition, the information processing apparatus further includes an acquisition unit that acquires an output corresponding to an ambient light component, and the approximation unit acquires the output of the first imaging unit and the output of the second imaging unit by the acquisition unit. After correction based on the output corresponding to the light component, each may be approximated to a quadratic function.

本発明の3次元形状測定装置によれば、2次元光電変換素子を利用した光切断方式の3次元形状測定において、高精度な測定を行うことができる。   According to the three-dimensional shape measuring apparatus of the present invention, high-accuracy measurement can be performed in the three-dimensional shape measurement of the light cutting method using the two-dimensional photoelectric conversion element.

<第1実施形態>
以下、図面を用いて本発明の第1実施形態について説明する。
<First Embodiment>
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

図1は、第1実施形態の3次元形状測定装置1の構成を示す図である。図1に示すように、3次元形状測定装置1は、投光部2、投光部駆動ステージ3、被検物体ホルダ4、撮像部5の各部を備えるとともに、各部を制御する制御部6を備える。   FIG. 1 is a diagram illustrating a configuration of a three-dimensional shape measuring apparatus 1 according to the first embodiment. As shown in FIG. 1, the three-dimensional shape measuring apparatus 1 includes a light projecting unit 2, a light projecting unit driving stage 3, a test object holder 4, and an imaging unit 5, and a control unit 6 that controls each unit. Prepare.

投光部2は、光ビームを射出するレーザ射出部7と、レーザ射出部7から射出された光ビームをスリット形状に整形するシリンドリカルレンズ8とを備える。シリンドリカルレンズ8により整形されたスリット形状の光ビームは、スリットの長手方向と垂直な方向にガウス形状の強度分布を有する光ビームであり、被検物体Tに対して投光される。   The light projecting unit 2 includes a laser emitting unit 7 that emits a light beam, and a cylindrical lens 8 that shapes the light beam emitted from the laser emitting unit 7 into a slit shape. The slit-shaped light beam shaped by the cylindrical lens 8 is a light beam having a Gaussian intensity distribution in a direction perpendicular to the longitudinal direction of the slit, and is projected onto the object T to be examined.

投光部駆動ステージ3は、1軸のステージであり、投光部2を上述したスリットの長手方向と垂直な方向(矢印Aの方向)に駆動する。また、被検物体ホルダ4は、その上面に被検物体Tを保持する。   The light projecting unit drive stage 3 is a uniaxial stage, and drives the light projecting unit 2 in a direction (in the direction of arrow A) perpendicular to the longitudinal direction of the slit described above. Further, the test object holder 4 holds the test object T on its upper surface.

撮像部5は、不図示のレンズや2次元光電変換素子5aを備え、光ビームが投光された被検物体Tの反射像を、光ビームが投光される方向と異なる方向から撮像する。2次元光電変換素子5aは、少なくとも一部の領域に対数特性を有する2次元光電変換素子である。すなわち、撮像部5は、いわゆる対数カメラである。   The imaging unit 5 includes a lens (not shown) and a two-dimensional photoelectric conversion element 5a, and images a reflected image of the test object T on which the light beam is projected from a direction different from the direction in which the light beam is projected. The two-dimensional photoelectric conversion element 5a is a two-dimensional photoelectric conversion element having logarithmic characteristics in at least a partial region. That is, the imaging unit 5 is a so-called logarithmic camera.

ここで、対数カメラの特性について説明する。従来、対数カメラを用いた3次元形状測定装置においては、波形処理のためにその出力を線形演算などにより直線感度に換算している。図2に示すように、通常のリニアカメラ(線形特性を有するカメラ)により撮像した場合の出力特性がL1である場合に、対数カメラによって撮像した場合の出力は、L2に示すような対数特性を有する。そして、L2に示す出力を直線感度(出力および光量の1次元グラフ)に換算するとL3のようになる。この結果、直線感度に換算したL3には、特に輝度の高い領域(図2のD1の領域)において、階段状の歪みが生じる。この歪みは、線形演算時のA/D変換の量子化誤差等により発生する。   Here, characteristics of the logarithmic camera will be described. Conventionally, in a three-dimensional shape measuring apparatus using a logarithmic camera, its output is converted into linear sensitivity by linear calculation or the like for waveform processing. As shown in FIG. 2, when the output characteristic when imaged by a normal linear camera (camera having linear characteristics) is L1, the output when imaged by a logarithmic camera has logarithmic characteristics as indicated by L2. Have. When the output shown in L2 is converted into linear sensitivity (a one-dimensional graph of output and light quantity), L3 is obtained. As a result, stepwise distortion occurs in L3 converted to linear sensitivity, particularly in a high luminance region (region D1 in FIG. 2). This distortion occurs due to quantization error of A / D conversion during linear calculation.

図3は、実際に、ある被検物体を撮像した場合の出力を示す。図3のL4は、ある被検物体をリニアカメラにより撮像した場合の出力を示し、図3のL5は、同じ被検物体を対数カメラにより撮像し、出力を線形演算などにより直線感度に換算した場合の出力を示す。図3に示すように、D2の領域において、L5の傾きはL4の傾きより大きくなる。すなわち、対数カメラにより撮像し、出力を線形演算などにより直線感度に換算した場合(L5)には、リニアカメラにより撮像した場合(L4)よりも傾きが大きくなる。この結果、対数カメラにより撮像し、出力を線形演算などにより直線感度に換算した場合には、重心が右側にずれてしまうので、精密測定に問題が生じてしまう。   FIG. 3 shows an output when an image of a certain test object is actually captured. L4 in FIG. 3 shows an output when a certain test object is imaged by a linear camera, and L5 in FIG. 3 images the same test object by a logarithmic camera, and the output is converted into linear sensitivity by linear calculation or the like. Shows the output of the case. As shown in FIG. 3, in the region D2, the slope of L5 is larger than the slope of L4. That is, when the image is captured by a logarithmic camera and the output is converted into linear sensitivity by linear calculation or the like (L5), the inclination is larger than that when the image is captured by a linear camera (L4). As a result, when the image is captured by a logarithmic camera and the output is converted into linear sensitivity by linear calculation or the like, the center of gravity is shifted to the right side, which causes a problem in precision measurement.

そこで、本実施形態では、このような問題に対処するため、対数カメラを用いつつ、その出力を直線感度に換算することなく3次元形状測定を行う。直線感度に換算することなく3次元形状測定を行うために、本実施形態では、対数カメラである撮像部5の出力を2次関数に近似する処理を行う。   Therefore, in the present embodiment, in order to deal with such a problem, a three-dimensional shape measurement is performed without converting the output into linear sensitivity while using a logarithmic camera. In order to perform three-dimensional shape measurement without converting to linear sensitivity, in the present embodiment, processing for approximating the output of the imaging unit 5 that is a logarithmic camera to a quadratic function is performed.

上述したように、レーザ射出部7から射出され、シリンドリカルレンズ8により整形されたスリット形状の光ビームは、ガウス形状を有する光ビームである。図4は、ガウス形状を有する光ビームのプロファイルの例を示す。この光ビームは、次式に示す特性を有する。   As described above, the slit-shaped light beam emitted from the laser emitting unit 7 and shaped by the cylindrical lens 8 is a light beam having a Gaussian shape. FIG. 4 shows an example of a light beam profile having a Gaussian shape. This light beam has the characteristics shown in the following equation.

Figure 2009186216
式1において、A’およびAは係数を示し、xは走査方向上の位置を示し、μは最頻値(中心)を示し、σは分散を示す。
Figure 2009186216
In Equation 1, A ′ and A indicate coefficients, x indicates a position in the scanning direction, μ indicates a mode value (center), and σ indicates variance.

そして、第1実施形態において、光ビームが撮像部5の2次元光電変換素子5aの特定の画素を通過する際の光量F(t)は、式1のxを走査時刻tに置き換えて、次式で表すことができる。   In the first embodiment, the amount of light F (t) when the light beam passes through a specific pixel of the two-dimensional photoelectric conversion element 5a of the imaging unit 5 is expressed by substituting x in Expression 1 with the scanning time t. It can be expressed by a formula.

Figure 2009186216
式2において、a’およびaは係数を示し、τは最頻値(中心)を示し、bは分散を示す。式2に示すように、光ビームが撮像部5の2次元光電変換素子5aの特定の画素を通過する際の光量F(t)は、走査時刻tの2次関数となる。したがって、ガウス形状を有する光ビームと、対数特性を有する撮像部5とを組み合わせることにより、撮像部5の出力を2次関数に近似することができる。その結果、従来のように撮像部の出力を直線感度に換算することなく3次元形状測定を行うことができる。
Figure 2009186216
In Equation 2, a ′ and a indicate coefficients, τ indicates a mode value (center), and b indicates variance. As shown in Expression 2, the light amount F (t) when the light beam passes through a specific pixel of the two-dimensional photoelectric conversion element 5a of the imaging unit 5 is a quadratic function of the scanning time t. Therefore, the output of the imaging unit 5 can be approximated to a quadratic function by combining the light beam having a Gaussian shape and the imaging unit 5 having logarithmic characteristics. As a result, three-dimensional shape measurement can be performed without converting the output of the imaging unit into linear sensitivity as in the conventional case.

図5は、測定時の制御部6の動作を示すフローチャートである。   FIG. 5 is a flowchart showing the operation of the control unit 6 during measurement.

ステップS1において、制御部6は、環境光成分に相当する出力を取得する。上述したように、第1実施形態の3次元形状測定装置1の撮像部5は、いわゆる対数カメラである。そのため、3次元形状測定装置1の周辺における測定時の環境光の影響が大きい。したがって、この環境光を考慮する必要性がある。   In step S1, the control unit 6 acquires an output corresponding to the ambient light component. As described above, the imaging unit 5 of the three-dimensional shape measuring apparatus 1 of the first embodiment is a so-called logarithmic camera. Therefore, the influence of ambient light during measurement around the three-dimensional shape measuring apparatus 1 is large. Therefore, it is necessary to consider this ambient light.

一般に、環境光成分は撮像部5の出力に線形に加算される。したがって、対数カメラである撮像部5により撮像した画像において環境光を補正するためには、一旦線形画像に戻してから補正する必要がある。しかし、輝度の高い領域(図2のD1の領域)においてこのような補正を行うと量子化誤差が大きくなるため適切ではない。   In general, the ambient light component is linearly added to the output of the imaging unit 5. Therefore, in order to correct the ambient light in the image captured by the image capturing unit 5 that is a logarithmic camera, it is necessary to return to the linear image and then perform the correction. However, if such correction is performed in a high luminance region (region D1 in FIG. 2), the quantization error increases, which is not appropriate.

そこで第1実施形態では、環境光成分に相当する出力を取得し、取得した情報に基づいて、撮像部5により撮像した画像を補正する。   Therefore, in the first embodiment, an output corresponding to the ambient light component is acquired, and the image captured by the imaging unit 5 is corrected based on the acquired information.

環境光成分に相当する出力を取得する方法には、以下の2つがある。1つ目は、投光部2を一旦消灯し、環境光成分のみを撮像部5により撮像して画像を生成する方法である。この画像には、環境光成分に相当する出力のみが現れることになる。この方法を用いる場合、制御部5は、ステップS1において、投光部2を消灯し、撮像部5を制御して撮像を行う。2つ目は、通常の測定時に撮像部5により撮像した画像を解析し、環境光成分に相当する領域を判断して抽出し、積算することにより取得する方法である。この方法を用いる場合、制御部5は、ステップS1において、以前に撮像した測定時の画像(なるべく時間的に近接した画像が好ましい)を適宜読み出して、その画像に基づいて環境光成分に相当する出力を取得する。   There are the following two methods for acquiring the output corresponding to the ambient light component. The first is a method of generating an image by temporarily turning off the light projecting unit 2 and imaging only the ambient light component by the imaging unit 5. In this image, only an output corresponding to the ambient light component appears. When this method is used, the control unit 5 turns off the light projecting unit 2 and controls the imaging unit 5 to perform imaging in step S1. The second method is a method of obtaining an image obtained by analyzing an image captured by the imaging unit 5 during normal measurement, determining and extracting a region corresponding to the ambient light component, and integrating the region. When this method is used, the control unit 5 appropriately reads an image at the time of measurement previously captured (preferably an image close in time as much as possible) in step S1, and corresponds to the ambient light component based on the image. Get the output.

なお、1つ目の方法を用いる場合には、撮像部5を適宜制御し、撮像部5の2次元光電変換素子5aの線形領域または小信号領域(例えば、図2D3の領域)に限定して、環境光成分に相当する出力を取得することにより、量子化誤差を抑えることができる。   In the case of using the first method, the imaging unit 5 is appropriately controlled and limited to the linear region or the small signal region (for example, the region of FIG. 2D3) of the two-dimensional photoelectric conversion element 5a of the imaging unit 5. By obtaining the output corresponding to the ambient light component, the quantization error can be suppressed.

ステップS2において、制御部6は、光ビームの走査を開始する。制御部6は、投光部2を制御して被検物体Tへの光ビームの投光を開始するとともに、投光部駆動ステージ3を制御して、投光部2を図1の矢印Aの方向に駆動する。   In step S2, the control unit 6 starts scanning the light beam. The control unit 6 controls the light projecting unit 2 to start projecting the light beam onto the test object T, and controls the light projecting unit driving stage 3 so that the light projecting unit 2 is indicated by an arrow A in FIG. Drive in the direction of.

ステップS3において、制御部6は、撮像部5を制御して、被検物体Tの撮像を開始する。なお、撮像部5による撮像は所定の時間間隔で繰り返し行われる。このとき、被検物体Tのうち光ビームが投光されている部分が平坦であれば、撮像により生成される光ビームの像は直線になる。また、被検物体Tのうち光ビームが投光されている部分に凹凸があれば、奥行き方向の位置に応じて光ビームの像が変形する。   In step S <b> 3, the control unit 6 controls the imaging unit 5 to start imaging of the test object T. Note that imaging by the imaging unit 5 is repeatedly performed at predetermined time intervals. At this time, if the portion of the test object T where the light beam is projected is flat, the image of the light beam generated by imaging is a straight line. Further, if the portion of the test object T where the light beam is projected has irregularities, the image of the light beam is deformed according to the position in the depth direction.

ステップS4において、制御部6は、予め定められた全範囲における撮像を完了したか否かを判定する。そして、制御部6は、全範囲における撮像を完了したと判定するとステップS5に進む。   In step S4, the control unit 6 determines whether or not the imaging in the entire predetermined range has been completed. If the control unit 6 determines that imaging in the entire range has been completed, the process proceeds to step S5.

ステップS5において、制御部6は、2次元光電変換素子5aの任意の画素において、経時変化に対応した出力を算出する。図6のL6は、経時変化に対応したある画素における撮像部5の出力を示す。図6のL6に示すように、撮像部5の出力は、2次関数であるL7と非常に近い特性を有する。なお、L7の特性は、前述したように光ビームの光強度分布がガウス形状となっていることに対応している。   In step S5, the control unit 6 calculates an output corresponding to a change with time in an arbitrary pixel of the two-dimensional photoelectric conversion element 5a. L6 in FIG. 6 indicates an output of the imaging unit 5 in a certain pixel corresponding to a change with time. As indicated by L6 in FIG. 6, the output of the imaging unit 5 has characteristics very close to L7 that is a quadratic function. The characteristic of L7 corresponds to the fact that the light intensity distribution of the light beam is Gaussian as described above.

ステップS6において、制御部6は、ステップS1で取得した情報に基づいて、ステップS5で算出した出力を補正する。例えば、制御部6は、撮像部5の出力からステップS1で取得した環境光成分に相当する出力を減算することにより補正を行う。このように補正を行うことにより、一旦線形画像に戻すことなく環境光成分を補正することができるので、補正精度の低下を防止することができる。   In step S6, the control unit 6 corrects the output calculated in step S5 based on the information acquired in step S1. For example, the control unit 6 performs correction by subtracting the output corresponding to the ambient light component acquired in step S <b> 1 from the output of the imaging unit 5. By performing the correction in this way, it is possible to correct the ambient light component without returning to the linear image once, so that it is possible to prevent the correction accuracy from being lowered.

ステップS7において、制御部6は、ステップS6で補正した出力を2次関数に近似する。近似の具体的な方法は公知技術と同様であるため説明を省略する。   In step S7, the control unit 6 approximates the output corrected in step S6 to a quadratic function. Since the specific method of approximation is the same as that of the known technique, the description thereof is omitted.

ステップS8において、制御部6は、ステップS7で2次関数に近似した出力に基づいて、ピーク、重心などを求め、公知技術と同様に光ビームの通過時刻を検出する。   In step S8, the control unit 6 obtains the peak, the center of gravity, and the like based on the output approximated to the quadratic function in step S7, and detects the passage time of the light beam as in the known technique.

ステップS9において、制御部6は、ステップS8の検出結果に基づいて、公知技術と同様に被検物体Tの3次元形状を演算する。   In step S9, the control unit 6 calculates the three-dimensional shape of the test object T based on the detection result in step S8 as in the known technique.

以上説明したように、第1実施形態によれば、対数特性を有する2次元光電変換素子により、被検物体から反射した前記光ビームの像を撮像し、その出力を2次関数に近似する。そして、近似された出力に基づいて、被検物体上における光ビームの位置を検出して被検物体の3次元形状を演算する。したがって、2次元光電変換素子を利用した光切断方式の3次元形状測定において、高精度な測定を行うことができる。   As described above, according to the first embodiment, the image of the light beam reflected from the test object is captured by the two-dimensional photoelectric conversion element having logarithmic characteristics, and the output is approximated to a quadratic function. Based on the approximated output, the position of the light beam on the test object is detected, and the three-dimensional shape of the test object is calculated. Therefore, high-accuracy measurement can be performed in the three-dimensional shape measurement by the light cutting method using the two-dimensional photoelectric conversion element.

特に、第1実施形態によれば、金属面のように拡散反射がもともと小さく、表面の微細な状態により測定が不安定になる被検物体であっても、高精度な測定を実現することができる。   In particular, according to the first embodiment, it is possible to realize high-precision measurement even for a test object such as a metal surface where diffuse reflection is originally small and measurement is unstable due to a fine surface state. it can.

また、第1実施形態によれば、撮像による出力として、経時変化に伴う出力を2次関数に近似し、被検物体上の所定の位置を光ビームが通過する時刻を検出する。したがって、2次元光電変換素子上のある画素の出力の、時間に対する強度の変化を2次関数に近似することにより、補間精度の高い測定を実現することができる。   In addition, according to the first embodiment, as an output by imaging, an output accompanying a change with time is approximated to a quadratic function, and a time at which the light beam passes through a predetermined position on the object to be detected is detected. Therefore, by approximating the change in intensity with respect to time of the output of a certain pixel on the two-dimensional photoelectric conversion element to a quadratic function, measurement with high interpolation accuracy can be realized.

また、第1実施形態によれば、環境光成分に相当する出力を取得し、撮像による出力を、環境光成分に相当する出力に基づいて補正した後に、2次関数に近似する。したがって、対数カメラにおいて発生頻度の高い環境光の影響に対応することができる。   Further, according to the first embodiment, an output corresponding to the ambient light component is acquired, and the output by imaging is corrected based on the output corresponding to the ambient light component, and then approximated to a quadratic function. Therefore, it is possible to cope with the influence of ambient light that is frequently generated in the logarithmic camera.

なお、第1実施形態では、投光部2を駆動して被検物体との相対位置を変更する例を示したが、投光部2を固定し、被検物体を駆動して相対位置を変更する構成としても良い。ただし、この場合には、被検物体の移動量に応じて、撮像により生成した画像をシフトする必要がある。そのため、特に対数特性を有する撮像部では、画素間の特性差が発生するおそれがある。   In the first embodiment, the example in which the light projecting unit 2 is driven to change the relative position with the test object is shown. However, the light projecting unit 2 is fixed and the test object is driven to set the relative position. It is good also as a structure to change. However, in this case, it is necessary to shift an image generated by imaging in accordance with the amount of movement of the object to be examined. For this reason, there is a possibility that a characteristic difference between pixels may occur particularly in an imaging unit having a logarithmic characteristic.

また、第1実施形態では、ある画素における撮像部5の出力について、経時変化に対応した出力の変化をもとに測定を行う例を示したが、ある時刻における撮像部5の出力について、画素位置の変化に対応した出力の変化をもとに測定を行う構成としても良い。   In the first embodiment, the output of the imaging unit 5 at a certain pixel is measured based on the change in output corresponding to the change with time. However, the output of the imaging unit 5 at a certain time is determined by the pixel. A configuration may be adopted in which measurement is performed based on a change in output corresponding to a change in position.

<第2実施形態>
以下、図面を用いて本発明の第2実施形態について説明する。第2実施形態では、第1実施形態と異なる部分についてのみ説明する。
Second Embodiment
The second embodiment of the present invention will be described below with reference to the drawings. In the second embodiment, only different parts from the first embodiment will be described.

図7は、第2実施形態の3次元形状測定装置51の構成を示す図である。図7に示すように、3次元形状測定装置51は、投光部52、投光部駆動ステージ53、被検物体ホルダ54、第1撮像部55、第2撮像部60の各部を備えるとともに、各部を制御する制御部56を備える。投光部52、投光部駆動ステージ53、被検物体ホルダ54、制御部56の各部は、第1実施形態の投光部2、投光部駆動ステージ3、被検物体ホルダ4、制御部6の各部とそれぞれ同様の構成を備えるため説明を省略する。   FIG. 7 is a diagram illustrating a configuration of the three-dimensional shape measurement apparatus 51 of the second embodiment. As shown in FIG. 7, the three-dimensional shape measurement apparatus 51 includes a light projecting unit 52, a light projecting unit driving stage 53, a test object holder 54, a first image capturing unit 55, and a second image capturing unit 60. A control unit 56 that controls each unit is provided. The light projecting unit 52, the light projecting unit driving stage 53, the test object holder 54, and the control unit 56 are the same as the light projecting unit 2, the light projecting unit driving stage 3, the test object holder 4, and the control unit of the first embodiment. 6 is provided with the same configuration as that of each unit, and the description thereof is omitted.

また、第1撮像部55および第2撮像部60は、第1実施形態の撮像部5と同様に、それぞれ不図示のレンズや2次元光電変換素子(55a,60a)を備え、光ビームが投光された被検物体Tの反射像を撮像する。2次元光電変換素子55aおよび2次元光電変換素子60aは、第1実施形態の2次元光電変換素子5aと同様に、少なくとも一部の領域に対数特性を有する2次元光電変換素子である。すなわち、第1撮像部55および第2撮像部60は、第1実施形態の撮像部5と同様に、いわゆる対数カメラである。なお、第1撮像部55および第2撮像部60は、異なる方向から被検物体Tを撮像するように配置される。   Similarly to the imaging unit 5 of the first embodiment, each of the first imaging unit 55 and the second imaging unit 60 includes a lens (not shown) and two-dimensional photoelectric conversion elements (55a, 60a), and projects a light beam. A reflected image of the illuminated test object T is captured. Similar to the two-dimensional photoelectric conversion element 5a of the first embodiment, the two-dimensional photoelectric conversion element 55a and the two-dimensional photoelectric conversion element 60a are two-dimensional photoelectric conversion elements having logarithmic characteristics in at least a partial region. That is, the first imaging unit 55 and the second imaging unit 60 are so-called logarithmic cameras, like the imaging unit 5 of the first embodiment. The first imaging unit 55 and the second imaging unit 60 are arranged so as to image the test object T from different directions.

図8は、エピポーラ条件について説明する図である。エピポーラ条件は、基準カメラ(第1撮像部55の2次元光電変換素子55a)に写ったある点は、もう一方のカメラ(第2撮像部60の2次元光電変換素子60a)上のある直線(エピポーラ線)上に射影されるというものである。   FIG. 8 is a diagram for explaining epipolar conditions. The epipolar condition is that a certain point reflected in the reference camera (two-dimensional photoelectric conversion element 55a of the first imaging unit 55) is a certain straight line on the other camera (two-dimensional photoelectric conversion element 60a of the second imaging unit 60). It is projected onto the epipolar line.

図8において、被検物体T上の注目点をPt(xt,yt,zt)とすると、基準カメラ(第1撮像部55の2次元光電変換素子55a)に写ったある点Pa(xa,ya)は、もう一方のカメラ(第2撮像部60の2次元光電変換素子60a)上の点Pb(xb,yb)に対応する。また、基線とは、基準カメラ(第1撮像部55)の光学中心と、もう一方のカメラ(第2撮像部60)の光学中心とを結んだ直線である。そして、基準カメラ(第1撮像部55)の光学中心と注目点Pt(xt,yt,zt)とを通る直線と、上述した基線とからなる面をエピポーラ面という。さらに、このエピポーラ面ともう一方のカメラ(第2撮像部60)とが交差する直線をエピポーラ線という。図8において、基準カメラ(第1撮像部55の2次元光電変換素子55a)に写ったある点Pa(xa,ya)は、もう一方のカメラ(第2撮像部60の2次元光電変換素子60a)上のエピポーラ線上に射影される(点Pb(xb,yb))。この条件を利用して、第1撮像部55で得られるピーク位置に対応する第2撮像部60におけるピーク位置を求めるときには、エピポーラ線上を探すことにより容易に求めることができる。   In FIG. 8, if the point of interest on the object T to be examined is Pt (xt, yt, zt), a certain point Pa (xa, ya) reflected in the reference camera (two-dimensional photoelectric conversion element 55a of the first imaging unit 55). ) Corresponds to the point Pb (xb, yb) on the other camera (two-dimensional photoelectric conversion element 60a of the second imaging unit 60). The base line is a straight line connecting the optical center of the reference camera (first imaging unit 55) and the optical center of the other camera (second imaging unit 60). A surface composed of a straight line passing through the optical center of the reference camera (first imaging unit 55) and the point of interest Pt (xt, yt, zt) and the base line is referred to as an epipolar surface. Furthermore, a straight line where this epipolar plane and the other camera (second imaging unit 60) intersect is called an epipolar line. In FIG. 8, a certain point Pa (xa, ya) reflected in the reference camera (the two-dimensional photoelectric conversion element 55a of the first imaging unit 55) is the other camera (the two-dimensional photoelectric conversion element 60a of the second imaging unit 60). ) Is projected onto the epipolar line (point Pb (xb, yb)). Using this condition, when the peak position in the second imaging unit 60 corresponding to the peak position obtained in the first imaging unit 55 is obtained, it can be easily obtained by searching on the epipolar line.

以上説明した構成の3次元形状測定装置51において、制御部56は、第1実施形態の図3で示したフローチャートと同様の処理を行う。   In the three-dimensional shape measuring apparatus 51 having the configuration described above, the control unit 56 performs the same processing as the flowchart shown in FIG. 3 of the first embodiment.

ただし、ステップS3においては、制御部56は、第1撮像部55および第2撮像部60の両方を制御して撮像を開始する。そして、第1撮像部55および第2撮像部60は、同期して(同じタイミングで)被検物体Tを撮像する。   However, in step S3, the control unit 56 controls both the first imaging unit 55 and the second imaging unit 60 to start imaging. And the 1st imaging part 55 and the 2nd imaging part 60 image the to-be-tested object T synchronously (at the same timing).

また、ステップS5においては、制御部56は、第1撮像部55および第2撮像部60のそれぞれの出力について、エピポーラ条件を利用して経時変化に対応した出力を算出する。制御部56は、また、ステップS6においても、第1撮像部55および第2撮像部60のそれぞれの出力について、環境光成分を補正する。また、ステップS7においても、制御部56は、環境光成分の補正後の第1撮像部55および第2撮像部60のそれぞれの出力を、2次関数に近似する。   In step S5, the control unit 56 calculates an output corresponding to a change with time using the epipolar condition for each output of the first imaging unit 55 and the second imaging unit 60. Also in step S6, the control unit 56 corrects the ambient light component for the respective outputs of the first imaging unit 55 and the second imaging unit 60. Also in step S7, the control unit 56 approximates each output of the first imaging unit 55 and the second imaging unit 60 after correction of the ambient light component to a quadratic function.

そして、ステップS8およびステップS9において、制御部56は、第1撮像部55および第2撮像部60の間の対応座標を求めて、被検物体Tの3次元形状を演算する。具体的には、制御部56は、撮像タイミングに基づいて対応座標を特定する。ある時刻で被検物体Tに投光される光ビームは1本である。したがって、ある時刻において第1撮像部55および第2撮像部60により撮像される光ビームは対応し、かつ、エピポーラ条件に従っている。そして、この1本の光ビームが走査される場合、出力のピークが被検物体T上の注目点を通過するタイミングは、第1撮像部55および第2撮像部60で同じである。そして、エピポーラ線上における被検物体T上の注目点の対応座標は、エピポーラ線と光ビームとの交点として求めることができる。制御部56は、このようにして求めた注目点の対応座標に基づき、公知技術と同様に被検物体Tの3次元形状を演算する。   In step S8 and step S9, the control unit 56 calculates the three-dimensional shape of the test object T by obtaining corresponding coordinates between the first imaging unit 55 and the second imaging unit 60. Specifically, the control unit 56 specifies corresponding coordinates based on the imaging timing. One light beam is projected onto the test object T at a certain time. Therefore, the light beams imaged by the first imaging unit 55 and the second imaging unit 60 at a certain time correspond to each other and comply with the epipolar condition. When this single light beam is scanned, the timing at which the output peak passes through the point of interest on the test object T is the same in the first imaging unit 55 and the second imaging unit 60. And the corresponding coordinate of the attention point on the to-be-tested object T on an epipolar line can be calculated | required as an intersection of an epipolar line and a light beam. The control unit 56 calculates the three-dimensional shape of the test object T based on the corresponding coordinates of the attention point obtained in this way, as in the known technique.

以上説明したように、第2実施形態によれば、第1撮像部55と第2撮像部60とが異なる方向から被検物体Tを撮像するように配置され、2つの撮像手段の経時変化に伴う出力を、それぞれ2次関数に近似し、近似した後の出力に基づいてエピポーラ条件を利用して被検物体上の所定の位置を前記光ビームが通過する時刻を検出する。したがって、ステレオ法を用いることにより、第1実施形態の効果に加えて、より高精度な測定を実現することができる。   As described above, according to the second embodiment, the first imaging unit 55 and the second imaging unit 60 are arranged so as to image the test object T from different directions. Each accompanying output is approximated to a quadratic function, and the time at which the light beam passes through a predetermined position on the object to be detected is detected using epipolar conditions based on the output after the approximation. Therefore, by using the stereo method, in addition to the effect of the first embodiment, more accurate measurement can be realized.

また、従来の技術では、金属面のように拡散反射が不安定である被検物体においては、2つの撮像手段により撮像される光ビームの強度が異なってしまい、単純に1回の撮像で得られた画像対を用いて3次元形状測定を行うと、最大で光ビームのスリット幅分の不確定性が出てしまっていた。しかし、第2実施形態によれば、金属面のように拡散反射が不安定である被検物体であっても、2つの撮像手段の対応点を走査タイミングに還元して求めることにより、高いコントラストに対応しつつ、拡散反射の不安定性に対応することができる。   Further, in the conventional technique, the intensity of the light beam picked up by the two image pickup means is different for a test object such as a metal surface where the diffuse reflection is unstable. When the three-dimensional shape measurement was performed using the obtained image pair, the uncertainty of the slit width of the light beam appeared at the maximum. However, according to the second embodiment, a high contrast can be obtained by reducing the corresponding points of the two imaging means to the scanning timing even for a test object with unstable diffuse reflection such as a metal surface. It is possible to cope with the instability of diffuse reflection.

なお、上記した各実施形態では、投光部(投光部2および投光部52)から投光される光ビームは、1本のスリット形状である例を示したが、弁別が可能である限り複数本のスリット形状であっても良い。   In each of the above-described embodiments, the light beam projected from the light projecting units (the light projecting unit 2 and the light projecting unit 52) is an example of a single slit shape, but can be discriminated. A plurality of slit shapes may be used.

また、上記した各実施形態では、投光部2を駆動して被検物体との相対位置を変更する例を示したが、投光部2を固定し、被検物体を駆動して相対位置を変更する構成としても良い。ただし、この場合には、被検物体の移動量に応じて、撮像により生成した画像をシフトする必要がある。そのため、特に対数特性を有する撮像部では、画素間の特性差が発生するおそれがある。   In each of the above-described embodiments, the example in which the light projecting unit 2 is driven to change the relative position with the test object has been described. However, the light projecting unit 2 is fixed and the test object is driven to perform the relative position. It is good also as a structure which changes. However, in this case, it is necessary to shift an image generated by imaging in accordance with the amount of movement of the object to be examined. For this reason, there is a possibility that a characteristic difference between pixels may occur particularly in an imaging unit having a logarithmic characteristic.

また、上記した各実施形態では、投光部(投光部2および投光部52)自体を、投光部駆動ステージ(投光部駆動ステージ3および投光部駆動ステージ53)により駆動する例を示したが、測定精度よりも測定レンジを優先する用途においては、ポリゴンミラー等で光ビームの投光角を走査する構成としても良い。この場合、ある画素を光ビームが通過する際に、被検物体への投光角が変化してしまうことがある。そのため、拡散光が不安定な被検物体の場合には、測定精度が低下する場合がある。   In each of the above embodiments, the light projecting units (the light projecting unit 2 and the light projecting unit 52) themselves are driven by the light projecting unit drive stage (the light projecting unit drive stage 3 and the light projecting unit drive stage 53). However, in an application in which the measurement range is given priority over the measurement accuracy, the projection angle of the light beam may be scanned with a polygon mirror or the like. In this case, when the light beam passes through a certain pixel, the projection angle to the object to be measured may change. For this reason, in the case of a test object in which diffused light is unstable, measurement accuracy may be reduced.

第1実施形態の3次元形状測定装置1の構成を示す図である。It is a figure which shows the structure of the three-dimensional shape measuring apparatus 1 of 1st Embodiment. 対数カメラの特性について説明する図である。It is a figure explaining the characteristic of a logarithmic camera. 対数カメラの特性について説明する別の図である。It is another figure explaining the characteristic of a logarithmic camera. ガウス形状を有する光ビームのプロファイルの例を示す図である。It is a figure which shows the example of the profile of the light beam which has a Gaussian shape. 第1実施形態の制御部6の測定時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of the measurement of the control part 6 of 1st Embodiment. 経時変化に対応した出力について説明する図である。It is a figure explaining the output corresponding to a time-dependent change. 第2実施形態の3次元形状測定装置51の構成を示す図である。It is a figure which shows the structure of the three-dimensional shape measuring apparatus 51 of 2nd Embodiment. エピポーラ条件について説明する図である。It is a figure explaining epipolar conditions.

符号の説明Explanation of symbols

1・51…3次元形状測定装置,2・52…投光部、3・53…投光部駆動ステージ、4・54…被検物体ホルダ、5…撮像部、5a・55a・60a…2次元光電変換素子、6・56…制御部、7・57…レーザ射出部、8・58…シリンドリカルレンズ、55…第1撮像部、60…第2撮像部
DESCRIPTION OF SYMBOLS 1.51 ... Three-dimensional shape measuring apparatus, 2.52 ... Projection part, 3.53 ... Projection part drive stage, 4.54 ... Test object holder, 5 ... Imaging part, 5a, 55a, 60a ... Two-dimensional Photoelectric conversion element, 6 · 56, control unit, 7 · 57, laser emitting unit, 8 · 58, cylindrical lens, 55, first imaging unit, 60, second imaging unit

Claims (6)

スリット形状を有し、かつ、スリットの長手方向と垂直な方向の強度がガウス分布を有する光ビームを、被検物体に対して第1の方向から投光する投光手段と、
前記投光手段と前記被検物体との相対位置を変更する変更手段と、
少なくとも一部の領域の光電変換に対数特性を有する2次元光電変換素子を有し、前記被検物体から反射した前記光ビームの像を、前記第1の方向と異なる方向から前記2次元光電変換素子により撮像する第1の撮像手段と、
前記第1の撮像手段の出力に基づいて、前記被検物上における前記光ビームの位置を検出する検出手段と、
複数の異なる前記相対位置における前記検出手段による検出結果に基づいて、前記被検物体の3次元形状を演算する演算手段と
を備えたことを特徴とする3次元形状測定装置。
A light projecting means for projecting a light beam having a slit shape and having a Gaussian distribution of intensity in a direction perpendicular to the longitudinal direction of the slit from the first direction with respect to the test object;
Changing means for changing a relative position between the light projecting means and the test object;
A two-dimensional photoelectric conversion element having a logarithmic characteristic for photoelectric conversion in at least a part of the region, and the image of the light beam reflected from the test object is converted from the direction different from the first direction from the two-dimensional photoelectric conversion; First imaging means for imaging with an element;
Detecting means for detecting a position of the light beam on the object based on an output of the first imaging means;
A three-dimensional shape measuring apparatus, comprising: a calculating means for calculating a three-dimensional shape of the object to be detected based on detection results by the detecting means at a plurality of different relative positions.
請求項1に記載の3次元形状測定装置において、
前記第1の撮像手段の出力を、前記ガウス分布に対応する2次関数に近似する第1の近似手段を備え、
前記検出手段は、前記2次関数に近似された前記出力に基づいて前記光ビームの位置を検出する
ことを特徴とする3次元形状測定装置。
The three-dimensional shape measuring apparatus according to claim 1,
First approximation means for approximating the output of the first imaging means to a quadratic function corresponding to the Gaussian distribution;
The detection means detects the position of the light beam based on the output approximated to the quadratic function.
請求項1または請求項2に記載の3次元形状測定装置において、
前記第1の近似手段は、前記第1の撮像手段の出力として、経時変化に伴う出力を2次関数に近似し、
前記検出手段は、前記被検物上の所定の位置を前記光ビームが通過する時刻を検出する
ことを特徴とする3次元形状測定装置。
In the three-dimensional shape measuring apparatus according to claim 1 or 2,
The first approximating means approximates an output accompanying a change with time to a quadratic function as an output of the first imaging means,
The detection means detects a time when the light beam passes through a predetermined position on the test object.
請求項1から請求項3の何れか1項に記載の3次元形状測定装置において、
環境光成分に相当する出力を取得する取得手段をさらに備え、
前記検出手段は、前記第1の撮像手段の出力を、前記取得手段により取得した前記環境光成分に相当する出力に基づいて補正した後に、前記光ビームの位置を検出する
ことを特徴とする3次元形状測定装置。
In the three-dimensional shape measuring apparatus according to any one of claims 1 to 3,
It further comprises an acquisition means for acquiring an output corresponding to the ambient light component,
The detection means detects the position of the light beam after correcting the output of the first imaging means based on an output corresponding to the ambient light component acquired by the acquisition means. Dimensional shape measuring device.
請求項3に記載の3次元形状測定装置において、
少なくとも一部の領域の光電変換に対数特性を有する第2の2次元光電変換素子を有し、前記被検物体から反射した前記光ビームの像を、前記第1の方向および前記第1の撮像手段が撮像する方向と異なる第2の方向から前記第2の2次元光電変換素子により撮像する第2の撮像手段と、
前記第2の撮像手段の出力を2次関数に近似する第2の近似手段とをさらに備え、
前記検出手段は、前記第1の方向と前記第2の方向と前記第1の近似手段の出力とに基づいて、前記第1の撮像手段上の前記光ビームに対応する前記第2の撮像手段上の光ビームの位置を、前記第2の近似手段の出力を用いて検出する
ことを特徴とする3次元形状測定装置。
The three-dimensional shape measuring apparatus according to claim 3,
A second two-dimensional photoelectric conversion element having a logarithmic characteristic for photoelectric conversion in at least a part of the region; and an image of the light beam reflected from the object to be examined is represented in the first direction and the first imaging Second imaging means for imaging by the second two-dimensional photoelectric conversion element from a second direction different from the direction in which the means images;
Second approximation means for approximating the output of the second imaging means to a quadratic function;
The detection means is the second imaging means corresponding to the light beam on the first imaging means based on the first direction, the second direction, and the output of the first approximation means. The position of the upper light beam is detected by using the output of the second approximating means.
請求項5に記載の3次元形状測定装置において、
環境光成分に相当する出力を取得する取得手段をさらに備え、
前記近似手段は、前記第1の撮像手段の出力および前記第2の撮像手段の出力を、前記取得手段により取得した前記環境光成分に相当する出力に基づいて補正した後に、それぞれ2次関数に近似する
ことを特徴とする3次元形状測定装置。
The three-dimensional shape measuring apparatus according to claim 5,
It further comprises an acquisition means for acquiring an output corresponding to the ambient light component,
The approximating means corrects the output of the first imaging means and the output of the second imaging means based on the output corresponding to the ambient light component acquired by the acquiring means, and then converts them into quadratic functions. A three-dimensional shape measuring apparatus characterized by approximating.
JP2008023908A 2008-02-04 2008-02-04 Three-dimensional shape measuring device Withdrawn JP2009186216A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008023908A JP2009186216A (en) 2008-02-04 2008-02-04 Three-dimensional shape measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008023908A JP2009186216A (en) 2008-02-04 2008-02-04 Three-dimensional shape measuring device

Publications (1)

Publication Number Publication Date
JP2009186216A true JP2009186216A (en) 2009-08-20

Family

ID=41069617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008023908A Withdrawn JP2009186216A (en) 2008-02-04 2008-02-04 Three-dimensional shape measuring device

Country Status (1)

Country Link
JP (1) JP2009186216A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011158386A (en) * 2010-02-02 2011-08-18 Kurabo Ind Ltd Non-contact three-dimensional measuring apparatus and method
JP2018141810A (en) * 2018-06-07 2018-09-13 株式会社ニコン Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011158386A (en) * 2010-02-02 2011-08-18 Kurabo Ind Ltd Non-contact three-dimensional measuring apparatus and method
JP2018141810A (en) * 2018-06-07 2018-09-13 株式会社ニコン Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium

Similar Documents

Publication Publication Date Title
US7643159B2 (en) Three-dimensional shape measuring system, and three-dimensional shape measuring method
JP4821934B1 (en) Three-dimensional shape measuring apparatus and robot system
US20040201856A1 (en) Laser digitizer system for dental applications
US6721679B2 (en) Distance measuring apparatus and distance measuring method
US10151580B2 (en) Methods of inspecting a 3D object using 2D image processing
JP2005321278A (en) Three dimensional shape input apparatus
TWI420081B (en) Distance measuring system and distance measuring method
JP2003130621A (en) Method and system for measuring three-dimensional shape
TW201640102A (en) Mask inspection apparatus and mask inspection method
JP2010164334A (en) Device and method for measuring inside shape
JP2004317495A (en) Method and instrument for measuring noncontactly three-dimensional shape
JP2007508557A (en) Device for scanning three-dimensional objects
CN112634376A (en) Calibration method and device, calibration equipment and storage medium
KR100926019B1 (en) Defective particle measuring apparatus and defective particle measuring method
JP2009186216A (en) Three-dimensional shape measuring device
JP2002022424A (en) Three-dimensional measuring apparatus
JP6270264B2 (en) Information processing apparatus, information processing method, program, measurement apparatus, and measurement method
JP5163163B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
CN112710662A (en) Generation method and device, generation system and storage medium
JP2010025803A (en) Inspection device having positioning function, program therefor, inspection method of inspection device having positioning function
JP2006216834A (en) Height measuring method in electron-beam writing apparatus
JP7198731B2 (en) Imaging device and focus adjustment method
Heist et al. Depth-of-field extension in structured-light 3D surface imaging by fast chromatic focus stacking
JP2024007646A (en) Three-dimensional measurement device using multi-view line sensing method
JP2007158577A (en) Method and device for correcting image data

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110405