JP2960684B2 - Three-dimensional shape detection method and device - Google Patents

Three-dimensional shape detection method and device

Info

Publication number
JP2960684B2
JP2960684B2 JP8204478A JP20447896A JP2960684B2 JP 2960684 B2 JP2960684 B2 JP 2960684B2 JP 8204478 A JP8204478 A JP 8204478A JP 20447896 A JP20447896 A JP 20447896A JP 2960684 B2 JP2960684 B2 JP 2960684B2
Authority
JP
Japan
Prior art keywords
sample
focus
dimensional shape
focal
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP8204478A
Other languages
Japanese (ja)
Other versions
JPH0926312A (en
Inventor
泰夫 中川
シュリ−・ケ−・ナイヤ−
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP8204478A priority Critical patent/JP2960684B2/en
Publication of JPH0926312A publication Critical patent/JPH0926312A/en
Application granted granted Critical
Publication of JP2960684B2 publication Critical patent/JP2960684B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、焦点位置が異なる
複数の画像から、任意の対象物の立体的形状が精度良好
にして検出されるようにした立体形状検出方法及びその
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for detecting a three-dimensional shape of an arbitrary object with high accuracy from a plurality of images having different focal positions. .

【0002】[0002]

【従来の技術】これまで、焦点位置に着目した立体形状
検出方法としては、特開昭61−124809号公報に
記載されたものが知られている。これによる場合、被検
査体としての凹凸パターンからは焦点位置を変えてそれ
ぞれパターン検出が行なわれ、これら焦点位置情報とパ
ターン位置情報とからパターンの平面的および立体的な
寸法が算出されるようになっている。より具体的には、
LSIウエハのパターンを例として、これより焦点調製
機構により焦点面を順次変化させた画像が検出され、そ
の映像信号の最もシャープな部分を抽出、合成すること
によって、段差パターンでの上の段差エッヂ、下の段
差エッヂの何れに対してもピントの合った段差パターン
の検出、最もシャープな部分が抽出される場合での焦
点位置からはパターンの立体的寸法(厚さ)の検出、
フォトレジストのパターンの場合、コントラスト最大の
映像信号からは、その変化率最大点としてパターン段差
部での上下端位置の検出、といったことなどが可能とな
っている。
2. Description of the Related Art Heretofore, a method described in Japanese Patent Application Laid-Open No. 61-124809 has been known as a method for detecting a three-dimensional shape focusing on a focus position. In this case, the focus position is changed from the concavo-convex pattern as the object to be inspected, pattern detection is performed, and the planar and three-dimensional dimensions of the pattern are calculated from the focus position information and the pattern position information. Has become. More specifically,
By taking an LSI wafer pattern as an example, an image in which the focal plane is sequentially changed by the focus adjusting mechanism is detected, and the sharpest portion of the video signal is extracted and synthesized, thereby forming the upper edge of the step pattern. , Detection of a step pattern in focus on any of the lower step edges, detection of a three-dimensional dimension (thickness) of the pattern from the focal position when the sharpest part is extracted,
In the case of a photoresist pattern, from the video signal having the maximum contrast, it is possible to detect the upper and lower end positions at the pattern step as the maximum rate of change.

【0003】一方、論文「分散値を利用した画像合成
法」(電子通信学会論文誌’83/10 Vol.J6
6−D No.10)によれば、焦点位置の異なる画像
から小領域毎の明るさの分散を求め、これより各画像の
中で合焦部分を抽出したうえ合成することによって、画
像全体に亘って焦点の合った画像が得られるようになっ
ている。
[0003] On the other hand, a dissertation “Image synthesis method using variance value” (Transactions of the Institute of Electronics and Communication Engineers, '83 / 10 Vol.
6-D No. According to 10), the variance of the brightness of each small area is obtained from the images having different focal positions, and the in-focus portions are extracted from each image and combined with each other, so that the entire image is in focus. Images are obtained.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、特開昭
61−124809号公報によれば、薄膜パターン段差
部での上下端位置など、固有のコントラストや固有な信
号波形上の特徴を有する部分の位置を特定することによ
って、段差パターン部での上下端位置や厚さが検出され
得ても、段差パターンの平坦部を含む立体形状全体まで
は検出され得ないものとなっている。
However, according to Japanese Patent Application Laid-Open No. 61-124809, the position of a portion having a unique contrast or a unique signal waveform characteristic, such as the upper and lower end positions at a step portion of a thin film pattern. Is specified, even if the upper and lower end positions and the thickness of the step pattern portion can be detected, the entire three-dimensional shape including the flat portion of the step pattern cannot be detected.

【0005】一方、論文「分散値を利用した画像合成
法」では、焦点位置が異なる画像から全面合焦の画像が
得られているが、それら画像から立体形状を求めること
までは考慮されていないものとなっている。
[0005] On the other hand, in the paper "Image synthesis method using variance value", images which are entirely in focus are obtained from images having different focal positions, but consideration is not given to obtaining a three-dimensional shape from these images. It has become something.

【0006】したがって、これまでは、焦点位置の異な
る画像から立体形状は何等検出されていなく、ましてや
高さ方向(Z方向)に例えばΔZづつ焦点位置を変化さ
せて得た画像から、ΔZより細かい高さ分解能をもつよ
うにして立体形状を検出することは何等考えられていな
いものとなっている。
Therefore, no three-dimensional shape has been detected so far from an image having a different focal position, and a finer than ΔZ is obtained from an image obtained by changing the focal position by, for example, ΔZ in the height direction (Z direction). Detecting a three-dimensional shape with a height resolution has not been considered at all.

【0007】本発明の目的は、焦点位置が異なる画像よ
り、対象物の立体形状を精度良好にして検出し得る立体
形状検出方法及びその装置を供するにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a method and an apparatus for detecting a three-dimensional shape capable of detecting a three-dimensional shape of an object with high accuracy from images having different focal positions.

【0008】また、本発明の他の目的は、画像間の焦点
位置差よりもより細かい分解能で以て、対象物の立体形
状を検出し得る立体形状検出方法及びその装置、また、
拡散表面や鏡面など、テックスチャをもたない表面を有
する対象物であっても、その対象物の立体形状を検出し
得る立体形状検出方法及びその装置、更に、より高速に
対象物の立体形状が検出され得る立体形状検出方法及び
その装置、また、特に第1の目的に関連してより高速に
対象物の立体形状が検出され得る立体形状検出方法及び
その装置をそれぞれ供するにある。
Another object of the present invention is to provide a method and an apparatus for detecting a three-dimensional shape capable of detecting a three-dimensional shape of an object with a resolution finer than a focal position difference between images.
Even for an object having a surface having no texture, such as a diffusion surface or a mirror surface, a three-dimensional shape detection method and apparatus capable of detecting the three-dimensional shape of the object, and further, the three-dimensional shape of the object at higher speed The object of the present invention is to provide a three-dimensional shape detection method and apparatus capable of detecting a three-dimensional shape, and a three-dimensional shape detection method and apparatus capable of detecting a three-dimensional shape of an object at higher speed, particularly in relation to the first object.

【0009】[0009]

【課題を解決するための手段】上記目的は、立体形状検
出方法において、撮像手段の光軸方向で撮像手段の焦点
と試料との相対的な位置を変化させて試料の表面を撮像
することにより焦点位置の異なる複数の画像を得、この
複数の画像のそれぞれの画像において試料の表面の合焦
点位置を検出し、この検出した試料の表面の合焦点位置
の情報から補間により異なる焦点位置の間の試料の表面
の合焦点位置を算出し、撮像して検出した合焦点位置の
情報と補間により算出した合焦点位置の情報とに基づい
て試料の立体形状を求めることにより達成される。
The object of the present invention is to provide a method for detecting a three-dimensional shape, wherein the relative position between the focal point of the imaging means and the sample is changed in the optical axis direction of the imaging means to image the surface of the sample. A plurality of images having different focus positions are obtained, a focus position on the surface of the sample is detected in each image of the plurality of images, and interpolation is performed between the different focus positions by interpolation from the information on the focus position on the detected surface of the sample. This is achieved by calculating the in-focus position of the surface of the sample and calculating the three-dimensional shape of the sample based on the information on the in-focus position detected by imaging and the information on the in-focus position calculated by interpolation.

【0010】また、上記目的は、立体形状検出装置を、
試料の表面を撮像する撮像手段と、この撮像手段の光軸
方向で撮像手段の焦点と試料との相対的な位置を変化さ
せる相対位置変化手段と、この相対位置変化手段で撮像
手段の焦点と試料との相対的な位置を変化させながら撮
像手段で試料の表面を撮像して得た焦点位置の異なる複
数の画像からこの複数の画像のそれぞれの画像において
試料の表面の合焦点位置を検出する合焦点位置検出手段
と、この合焦点位置検出手段で検出した複数の画像のそ
れぞれに対応する試料の表面の合焦点位置の情報に基い
て異なる焦点位置の間の試料の表面の合焦点位置を内挿
により求める演算手段と、合焦点位置検出手段で検出し
た合焦点位置の情報と演算手段で内挿して求めた異なる
焦点位置の間の試料の表面の合焦点位置の情報に基づい
て試料の立体形状を算出する立体形状算出手段とを備え
て構成することにより達成される。
Further, the above object is to provide a three-dimensional shape detecting device,
Imaging means for imaging the surface of the sample; relative position changing means for changing the relative position between the focus of the imaging means and the sample in the optical axis direction of the imaging means; and the focal point of the imaging means with the relative position changing means. From a plurality of images having different focal positions obtained by imaging the surface of the sample by the imaging means while changing the relative position with respect to the sample, the in-focus position of the surface of the sample is detected in each of the plurality of images. Focusing position detection means and, based on information on the focusing position on the surface of the sample corresponding to each of the plurality of images detected by the focusing position detection means, determine the focusing position on the surface of the sample between different focusing positions. The calculation means obtained by interpolation, the information of the focus position detected by the focus position detection means and the information of the focus position on the surface of the sample between the different focus positions obtained by interpolation by the calculation means. 3D shape It is achieved by constituting a three-dimensional shape calculating means for calculating.

【0011】[0011]

【0012】[0012]

【0013】[0013]

【発明の実施の形態】以下、本発明を図1から図9によ
り説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to FIGS.

【0014】先ず本発明に係る立体形状検出装置につい
て説明すれば、図1はその概略構成を対象物1とともに
示したものである。本例での対象物はその表面が金属粒
子の焼結体など、ランダムで鮮明なテックスチャを有す
るものとして仮定されており、その表面の合焦測度が通
常の明視野照明状態下で検出されるようになている。
First, a three-dimensional shape detecting apparatus according to the present invention will be described. FIG. 1 shows a schematic configuration thereof together with an object 1. In this example, the object is assumed to have a random and sharp texture, such as a sintered body of metal particles, and a focus measure of the surface is detected under normal bright-field illumination conditions. It is like that.

【0015】即ち、対象物1はランプ6からの照明光が
照明レンズ5、ハーフミラー4を介し照明されている状
態で、その高さが試料台2を介し上下機構3によって上
下動されている間に、その画像が結像レンズ7を介しT
Vカメラや1次元イメージセンサなどの各種撮像手段と
しての像検出器8で検出されるようになっている。結像
レンズ7やこれを含む画像検出光学系全体を上下動させ
ても同様に画像が検出されるが、何れにしてもこれによ
り異なる焦点位置での画像が複数得られるわけである。
本例では説明の簡単化上、合焦点位置の高さはZ1,Z
2,Z3(Z3−Z2=Z2−Z1=ΔZ)(一定)と
して仮定)として示されており、また、図示の状態では
画像検出光学系の焦点位置はZ2に一致するものとして
示されたものとなっている。さて、図2(a)にはそれ
ら高さZ1,Z2,Z3各々に対応する映像信号V1,
V2,V3が例示されているが、一般に映像信号は合焦
点位置部分が最も鮮明であり信号振幅が大きく、しかも
その部分での周波数も大きなものとなっている。再び図
1に戻り説明すれば、合焦速度検出部9では像検出器8
からのそれら映像信号V1,V2,V3より入力画面上
での点各々について合焦測度が求められるようになって
いる。ここにいう合焦測度とは、その点での焦点の合い
具合を代表して示す数値として定義されるが、合焦測度
は例えば以下のようにして求められるようになってい
る。
That is, the object 1 is illuminated by the illumination light from the lamp 6 via the illumination lens 5 and the half mirror 4, and its height is moved up and down by the vertical mechanism 3 via the sample table 2. In the meantime, the image is
The image is detected by an image detector 8 as various imaging means such as a V camera and a one-dimensional image sensor. An image is similarly detected by moving the imaging lens 7 and the entire image detecting optical system including the same up and down, but in any case, a plurality of images at different focal positions are obtained.
In this example, for simplicity of description, the height of the focal point position is Z1, Z
2, Z3 (assumed to be Z3-Z2 = Z2-Z1 = ΔZ) (constant), and in the state shown, the focal position of the image detection optical system is shown as matching Z2. It has become. FIG. 2A shows video signals V1, V2 corresponding to the heights Z1, Z2, Z3, respectively.
Although V2 and V3 are illustrated, in general, the video signal is the sharpest at the focal point portion, the signal amplitude is large, and the frequency at that portion is also large. Referring back to FIG. 1, the focusing speed detecting section 9 includes the image detector 8.
From the video signals V1, V2, and V3 from the above, a focus measure can be obtained for each point on the input screen. Here, the focus measure is defined as a numerical value representative of the degree of focus at that point. The focus measure is determined, for example, as follows.

【0016】即ち、合焦点位置の高さZi(i=1,
2,…,n)での対象物からの検出画像をVi(x,
y)とすれば、検出画像Vi(x,y)からコントラス
ト画像Ci(x,y)は(数1)によって求められるよ
うになっている。
That is, the height Zi (i = 1, 1) of the focal point position
The detected image from the object at (2,..., N) is represented by Vi (x,
y), the contrast image Ci (x, y) is obtained from the detected image Vi (x, y) by (Equation 1).

【0017】[0017]

【数1】 (Equation 1)

【0018】更にCi(x,y)からは合焦測度Fi
(x,y)が(数2)によって求められる。
Further, from Ci (x, y), a focus measure Fi is obtained.
(X, y) is obtained by (Equation 2).

【0019】[0019]

【数2】 (Equation 2)

【0020】但し、m,m′は予め定められた定数であ
り、局部画像の加算領域を示すものとなっている。
Here, m and m 'are predetermined constants and indicate the addition area of the local image.

【0021】(数2)より明らかなように、本例での合
焦測度Fi(x,y)はコントラスト画像Ci(x,
y)の局所加算、即ち、平滑化に相当したものとなって
いる。
As is clear from (Equation 2), the focus measure Fi (x, y) in this example is a contrast image Ci (x, y).
This corresponds to local addition of y), that is, smoothing.

【0022】図3はその合焦測度検出部の一具体的構成
を示したものである。図示のように、検出画像Vi
(x,y)での映像信号はA/D変換回路12で順次デ
ィジタル量に変換されたうえシフトレジスタ(検出画像
−走査線分の容量をもつ)13,14を順次介されるこ
とによって、シフトレジスタ13,14各々からは1走
査線前、2走査線前の映像信号が併せて得られるように
なっている。したがって、これら画像信号とA/D変換
回路12からの映像信号とをコントラスト抽出回路15
に入力せしめれば、コントラスト抽出回路15ではそれ
ら映像信号各々にもとづきその内部で式(1)に従って
コントラスト画像Ci(x,y)が求められるものであ
る。このようにして求められたコントラスト画像Ci
(x,y)はその後A/D変換回路12からの映像信号
と同様にして、シフトレジスタ(検出画像−走査線分の
容量)16,17を順次介され、シフトレジスタ16,
17各々からのものとともに平滑化回路18に入力さ
れ、平滑化回路18では(数2)に従って焦点量Fi
(x,y)が求められるものである。平滑化回路18へ
の入力は図示のようであることから、本例では既述の定
数m′は1であり、これに応じてmの値も1に設定され
たものとなっている。以上の処理はパイプライン的に処
理され得ることから、その処理は実時間的に行なわれ得
るものとなっている。
FIG. 3 shows a specific configuration of the focusing measure detecting section. As shown, the detected image Vi
The video signal at (x, y) is sequentially converted to a digital amount by an A / D conversion circuit 12 and sequentially passed through shift registers (having the capacity of a detected image-scanning line) 13 and 14 to be shifted. From the registers 13 and 14, video signals one scanning line before and two scanning lines before can be obtained together. Therefore, these image signals and the video signal from the A / D conversion circuit 12 are converted into a contrast extraction circuit 15.
, The contrast extraction circuit 15 obtains a contrast image Ci (x, y) in accordance with equation (1) based on each of the video signals. The contrast image Ci thus obtained
(X, y) is subsequently passed through shift registers (detected image-capacity for scanning lines) 16 and 17 in the same manner as the video signal from the A / D conversion circuit 12, and
17 together with the one from each of them, and is input to the smoothing circuit 18, where the focal amount Fi is calculated according to (Equation 2).
(X, y) is required. Since the input to the smoothing circuit 18 is as shown in the figure, the constant m 'described above is 1 in this example, and the value of m is set to 1 accordingly. Since the above processing can be performed in a pipeline manner, the processing can be performed in real time.

【0023】なお、コントラスト画像Ci(x,y)が
算出された際に、その値が予め定められるしきい値T1
以下の場合には、Ci(x,y)は以下のように処理さ
れてもよい。
When the contrast image Ci (x, y) is calculated, its value is set to a predetermined threshold value T1.
In the following cases, Ci (x, y) may be processed as follows.

【0024】[0024]

【数3】 (Equation 3)

【0025】これは、焦点ずれ部分でのノイズ除去のた
めの処理である。また、本例では、コントラスト画像C
i(x,y)は、3(x方向の画素数)×3(y方向の
画素数)画素に対する2次微分の絶対値和として表現さ
れているが、これに限定されることなく、5×5画素な
ど、より大きな局所画像範囲内での2次微分であっても
よい。2次微分以外にはラプラシアン、ガウシアンラプ
ラシアン、1次微分、2×2画素のロバーツグラディエ
ントなど、各種の微分オペレータをCi(x,y)算出
のために適用し得るものとなっている。場合によって
は、(数4)として示すように、濃度の分数値よりCi
(x,y)が求められてもよいものである。
This is a process for removing noise in a defocused portion. In this example, the contrast image C
Although i (x, y) is expressed as the sum of absolute values of the second derivative with respect to 3 (the number of pixels in the x direction) × 3 (the number of pixels in the y direction), the present invention is not limited to this. It may be a second derivative within a larger local image range such as × 5 pixels. In addition to the second derivative, various derivative operators such as Laplacian, Gaussian Laplacian, first derivative, and 2 × 2 pixel Roberts gradient can be applied for calculating Ci (x, y). In some cases, as shown in (Equation 4), Ci is calculated from the fractional value of the concentration.
(X, y) may be obtained.

【0026】[0026]

【数4】 (Equation 4)

【0027】但し、Vμ(x,y)は次式で与えられる
平均濃度である。
Here, Vμ (x, y) is an average density given by the following equation.

【0028】[0028]

【数5】 (Equation 5)

【0029】更に、(数2)では平滑化のための局所加
算が行なわれているが、これは平均値処理や中間値処理
であっても、また、その他のノイズ処理であってもよ
い。尤も、検出画像が極めて均質なテックスチャを有
し、ノイズ成分も極めて少ない場合には、その処理は省
略可能となっている。
Further, in (Equation 2), local addition for smoothing is performed, but this may be average value processing, intermediate value processing, or other noise processing. However, if the detected image has an extremely uniform texture and an extremely small noise component, the processing can be omitted.

【0030】さて、以上のようにして合焦測度Fiが求
められるが、図2(b)は図2(a)に示す映像信号V
1,V2,V3各々に関連した合焦測度F1,F2,F
3を一次元的に示したものである。これより合焦点部分
に対応した映像信号位置では合焦測度が大として検出さ
れるようになっている。
The focus measure Fi is obtained as described above. FIG. 2B shows the video signal V shown in FIG.
Focusing measures F1, F2, F associated with 1, V2, V3 respectively
3 is one-dimensionally shown. As a result, the focus measure is detected as being large at the video signal position corresponding to the focused portion.

【0031】次に合焦測度最大値位置検出について説明
すれば、いま、対象物上の点各々について図4(a)に
示すようにFi(x,y)(i=1,2…,n)が求め
られているとして、これらFi(x,y)より合焦測度
が最大となる焦点位置を求めるようにすれば、最終的に
対象物の立体形状Z(x,y)が求めることになる。
Next, a description will be given of the detection of the focus measure maximum value position. Now, as shown in FIG. 4A, Fi (x, y) (i = 1, 2,..., N) for each point on the object ) Is determined, if the focus position at which the focus measure is maximized is determined from these Fi (x, y), the three-dimensional shape Z (x, y) of the object is finally determined. Become.

【0032】より具体的に説明すれば、図4(b)は図
4(a)に示す対象物上のある座標点(x,y)につい
てのFiの値をプロットしたものであるが、合焦測度F
が最大値Fpとなる場合でのz座標Zpを求めるようにす
れば、これがその座標点(x,y)での高さとして求め
られるというものである。図1(c)は図1(b)にお
けるx方向任意座標位置XでのFiの分布を示すが、こ
の分布より合焦測度Fの最大値Fpを求め、これに対す
るz座標Zpを求めるようにすれば、このz座標Zpが
任意座標位置Xでの高さとして求められ、結果的に対象
物の立体形状が検出されるものであることが判る。
[0032] than In detail, FIG. 4 (b) coordinate point with a target Butsujo shown in FIG. 4 (a) (x, y ) but is a plot of the values of F i for, Focusing measure F
Is determined to be the maximum value at the coordinate point (x, y) if the z-coordinate Zp is determined when the maximum value Fp is obtained. FIG. 1 (c) shows the distribution of F i in the x-direction an arbitrary coordinate position X in FIG. 1 (b), the to this distribution the maximum value Fp of the focus measure F than to determine the z-coordinate Zp to this In this case, the z coordinate Zp is obtained as the height at the arbitrary coordinate position X, and as a result, it can be seen that the three-dimensional shape of the object is detected.

【0033】以上のように合焦測度Fの最大値Fpに対
するz座標Zpを求めることが必要となるが、z座標Zp
は例えば以下のようにして求められるものとなってい
る。
As described above, it is necessary to find the z coordinate Zp with respect to the maximum value Fp of the focusing measure F.
Is obtained, for example, as follows.

【0034】即ち、この方法ではFi(x,y)のデー
タ分布は(数6)に示すように、ガウス分布として仮定
されるようになっている。
That is, in this method, the data distribution of F i (x, y) is assumed to be a Gaussian distribution as shown in (Equation 6).

【0035】[0035]

【数6】 (Equation 6)

【0036】但し、σはFの分散を示す。Here, σ indicates the variance of F.

【0037】この(数6)にもとづきz座標Zpを求め
るには、座標点(x,y)についてのFi(x,y)
(i=1,2…,n)の中より最大値Fmとそのz座標
Zm、更にその前のFm-1(x,y)とそのz座標
m-1、およびその後のFm-1(x,y)とそのz座標Z
m+1が求められるようになっている。結果的に(Fm−
1,Zm-1),(Fm,Zm),(Fm+1,Zm+1)がF
i(x,y)の中より求められるものであるが、これら
を(数6)中のF,zに代入すれば、未知数としてのF
p,σ,Zpが以下のように、容易に求められるものであ
る。
In order to obtain the z coordinate Zp based on this (Equation 6), F i (x, y) for the coordinate point (x, y)
(I = 1, 2,..., N), the maximum value Fm and its z coordinate Zm, the previous Fm -1 (x, y) and its z coordinate Zm -1 , and the subsequent Fm- 1 (x, y) and its z coordinate Z
m + 1 is now required. As a result, (Fm-
1, Zm-1), ( Fm, Zm), (F m + 1, Z m + 1) is F
i is obtained from (x, y), but by substituting these into F and z in (Equation 6), F
p, σ, and Zp are easily determined as follows.

【0038】[0038]

【数7】 (Equation 7)

【0039】である。Is as follows.

【0040】[0040]

【数8】 (Equation 8)

【0041】[0041]

【数9】 (Equation 9)

【0042】したがって、対象物上の座標点(x,y)
全てについて、(数7)に従って演算すれば、対象物の
立体形状Z(x,y)が求められるわけである。ZPを
求めるのに(数8),(数9)は必ずしも必要とはされ
ないが、FPの値が予め設定されているしきい値Tzよ
りも大きく、しかもσの値が予め設定されているしきい
値T3よりも小さい場合のみ(数7)で得られた値をそ
のままZPとして用い、それ以外の場合はZPとして特
殊な値、例えば0を用いるようにすれば、Z1からZn
までの何れでも焦点が合わない背景部などを除去し得る
ものとなっている。
Therefore, the coordinate point (x, y) on the object
By performing the calculation according to (Equation 7) for all of them, the three-dimensional shape Z (x, y) of the target object can be obtained. (Equation 8) and (Equation 9) are not necessarily required to obtain ZP, but the value of FP is larger than a preset threshold Tz, and the value of σ is set in advance. Only when the value is smaller than the threshold value T3, the value obtained in (Equation 7) is used as it is as ZP. In other cases, a special value, for example, 0 is used as ZP.
In any of the above cases, a background portion or the like out of focus can be removed.

【0043】以上の合焦測度最大値位置は、合焦測度最
大値位置検出部10で検出されるが、図5はその具体的
構成(但し、しきい値T2,T3による判定処理は含ま
ず)を示したものである。これによる場合、3つの連続
したFi(x,y),Fi-1(x,y),Fi-2(x,
y)を更新可として記憶するフレームメモリ19,2
0,21、これらフレームメモリ19,20,21にF
i(x,y)を選択的に書き込むための選択回路22、
フレームメモリ19,20,21の何れか2つからはF
i-2(x,y),Fi-1(x,y)を、また、合焦測度検
出部9からのFi(x,y)を入力としてFi-1(x,
y)が最大か否かを判定する最大値抽出回路23、任意
の座標点(x,y)においてFi-1(x,y)が極大で
あった場合に、Fi-1(x,y)をFm(x,y)として
書き込むフレームメモリ24、その場合に最大値抽出回
路23内において求められたΔz×(i−1)(=
m)をZm として書き込むフレームメモリ24´、そ
の場合にFi-2(x,y)をFm -1(x,y)として書き
込むフレームメモリ25、その場合にFi(x,y)を
m+1(x,y)として書き込むフレームメモリ26、
およびFm-1(x,y),Fm(x,y),Fm+1(x,
y)やZm,Zm+1=Zm−Δz),Zm+1(=Zm+Δ
z)に基づき(数7)によりZp(x,y)を求める最
大値位置検出回路27より構成されたものとなってい
る。
The above-described focus measure maximum value position is detected by the focus measure maximum value position detection unit 10, but FIG. 5 shows a specific configuration thereof (however, judgment processing by threshold values T2 and T3 is not included. ). In this case, three consecutive F i (x, y), F i-1 (x, y), F i-2 (x, y
frame memories 19, 2 for storing y) as updatable
0, 21 and F are stored in these frame memories 19, 20, 21.
a selection circuit 22 for selectively writing i (x, y);
F from any two of the frame memories 19, 20, 21
i-2 (x, y) and F i-1 (x, y), and F i (x, y) from the focus measure detection unit 9 as input, and F i-1 (x, y)
y) the maximum value extraction circuit determines whether or not the maximum is 23, any coordinate point (x, if F i-1 (x, y) were maximum in y), F i-1 (x, y) is written as F m (x, y), in which case Δz × (i−1) (=
Z m ) is written as Z m , a frame memory 24 ′ in which F i−2 (x, y) is written as F m −1 (x, y), and in that case, Fi (x, y) , The frame memory 26 which writes the data as F m + 1 (x, y)
And F m-1 (x, y), F m (x, y), F m + 1 (x, y
y), Z m , Z m + 1 = Zm−Δz), Z m + 1 (= Zm + Δ
The maximum value position detection circuit 27 for obtaining Zp (x, y) based on (Equation 7) based on (z).

【0044】この合焦測度最大値位検出部10での動作
について説明すれば、選択回路22では合焦測度検出部
9より実時間で送出されるFi(x,y)を最も古い2
フレーム(検出画面)前のFi-2(x,y)が記憶され
ているフレームメモリ19,20,21の何れかに新た
なFi(x,yとして書き込むようになっている。この
結果、フレームメモリ19,20,21の残された2つ
にはそのFi(x,y)に対し1フレーム前、2フレー
ム前のFi-1(x,y),Fi-2(x,y)が常に記憶さ
れていることになるものである。最大値抽出回路23で
はまた検出画像が得られる度に、フレームメモリ19,
20,21の何れか2つからのFi-1(x,y),Fi-2(x,
y)と合焦測度検出部9からのFi(x,y)とにもと
づき(数10)で示される関係が座標点(x,y)各々
で成立するか否かが判定されているものである。
The operation of the focus-measurement-maximum-value detecting unit 10 will be described. In the selection circuit 22, Fi (x, y) sent from the focus-measurement-measurement detecting unit 9 in real time is the oldest one.
A new Fi (x, y) is written in any of the frame memories 19, 20, and 21 in which F i-2 (x, y) before the frame (detection screen) is stored. The remaining two of the frame memories 19, 20, and 21 have F i-1 (x, y) and F i-2 (x, y) one frame before and two frames before the Fi (x, y). ) Is always stored in the maximum value extracting circuit 23 every time a detected image is obtained.
F i−1 (x, y), F i−2 (x, y) from any two of 20 and 21
It is determined whether or not the relationship represented by (Equation 10) is established at each coordinate point (x, y) based on y) and F i (x, y) from the focus measure detection unit 9. It is.

【0045】[0045]

【数10】 (Equation 10)

【0046】もしも(数10)が成立した場合には、F
i-1(x,y)が極大値であると見做して、次には、こ
れがこれまでにフレームメモリ24に記憶されているF
m(x,y)よりも大きいか否かが、(数11)によっ
て判定されるようになっている。
If (Equation 10) is satisfied, F
Assuming that i-1 (x, y) is the maximum value, next, this is the value of F-1 which has been stored in the frame memory 24 so far.
Whether it is greater than m (x, y) is determined by (Equation 11).

【0047】[0047]

【数11】 [Equation 11]

【0048】もしも、(数11)が成立しない場合は何
等の処理も行なわれないが、成立した場合にはそのF
i-1(x,y)をこれまでに得られた最大値であるとし
て、これを新たなFm(x,y)とする更新処理が行な
われるものである。この更新処理ではそのFi-1(x,
y)がFm(x,y)としてフレームメモリ24に書き
込まれるが、フレーム24′にはその点でのiの値にも
とづくZm(=Δz×(i−1))が、また、フレーム
メモリ25にはその点でのFi-2(x,y)がF
m-1(x,y)として、更に、フレームメモリ26には
その点でのFi(x,y)がFm+1(x,y)として書き
込まれるものである。
If (Equation 11) does not hold, no processing is performed.
Assuming that i-1 (x, y) is the maximum value obtained so far, an update process for setting this as a new Fm (x, y) is performed. In this update processing, F i-1 (x,
y) is written to the frame memory 24 as F m (x, y). In the frame 24 ′, Zm (= Δz × (i−1)) based on the value of i at that point is stored in the frame memory 24 ′. 25 has F i-2 (x, y) at that point in F
In this case, F i (x, y) at that point is written as F m + 1 (x, y) in the frame memory 26 as m−1 (x, y).

【0049】したがって、以上の処理をi=1からnま
で実行すれば、フレームメモリ24,25,26各々に
は座標点(x,y)全てについての、合焦測度最大値に
係るFm(x,y),Fm-1(x,y),Fm+1(x,y)
が、また、フレームメモリ24′にはZmが記憶されて
いることになるものである。よって、これらの値にもと
づき最大値位置検出回路27で(数7)として示されて
いる演算が行なわれれば、座標点(x,y)全てについ
BR>てZp(x,y)が求められるものである。
Therefore, if the above processing is executed from i = 1 to n, the frame memories 24, 25 and 26 store the Fm (x) related to the maximum focus measurement value for all coordinate points (x, y). , Y), F m-1 (x, y), F m + 1 (x, y)
However, Zm is stored in the frame memory 24 '. Therefore, if the calculation shown in (Expression 7) is performed by the maximum value position detection circuit 27 based on these values, all the coordinate points (x, y) are obtained.
Zp (x, y) is required.

【0050】ところで、以上の処理ではガウス分布の主
たる部分でのデータ3点にもとづきガウス分布を求め、
これよりZp(x,y)が求められているが、ガウス分
布近似はこれ以外にも、図4(b)に示した全てのデー
タ点にもとづき最小二乗近似によって求められるように
なっている。また、Fp,Zpの算出ガウス分布近似に
よる場合以外にも考えられるものとなっている。例えば
図6に示すように、Fm-1(x,y),Fm+1(x,y)
のうち小さいものとFm(x,y)とを直線で結び、こ
の直線の傾き角をαとして、Fm-1(x,y),F
m+1(x,y)のうち大きいものを通るようにして傾き
角αの直線を引くようにすれば、これら直線の交点とし
て(Fp,Zp)を求めてもよいものである。更に図7
に示すように、データ点列を折れ線近似したうえ適当に
設定されたしきい値T4との交点Z´,Z″を求めるよ
うにすれば、Zpは以下のように求められるものとなっ
ている。
In the above processing, a Gaussian distribution is obtained based on three data points in the main part of the Gaussian distribution.
From this, Zp (x, y) is obtained, but the Gaussian distribution approximation is also obtained by the least squares approximation based on all the data points shown in FIG. 4B. Further, the calculation of Fp and Zp can be considered other than the case of using Gaussian distribution approximation. For example, as shown in FIG. 6, F m-1 (x, y), F m + 1 (x, y)
Are connected to F m (x, y) by a straight line, and the inclination angle of this straight line is α, and F m−1 (x, y), F m
If a straight line having an inclination angle α is drawn so as to pass through the larger one of m + 1 (x, y), (Fp, Zp) may be obtained as the intersection of these straight lines. Further FIG.
As shown in the above, if the intersections Z 'and Z "with the appropriately set threshold value T4 are obtained by approximating the data point sequence with a polygonal line, Zp is obtained as follows. .

【0051】[0051]

【数12】 (Equation 12)

【0052】場合によってはZpはデータ点列の重心位
置として求められてもよいものである。ところで、ま
た、Zp(x,y)がガウス分布近似によって(数7)
で求められるにしても、Zpをその都度演算を行なうの
ではなく直接的に求めることも可能となっている。結局
なところ、ZpはFm,Fm-1,Fm+1の関数となること
から、図8に示すように、座標(Fm,Fm-1,Fm+1
からなる3次元メモリに、Fm,Fm-1,Fm+1の全ての
組合せに対するΔZ=Zp−Zmを予め求め、記憶して
おけば、これを参照することでZpがより高速に求めら
れるものである。その際、Fm,Fm-1,Fm+1を例えば
mで、また、Zm,Zm+1,Zm-1をΔzで正規化してお
く場合は、メモリ容量が少なくて済まされるものであ
る。更に、以上の説明では、合焦測度最大値位置検出で
は画像検出ピッチΔzよりも細かい値でZpを求めるこ
とに重点がおかれているが、Δzピッチ単位にZpを求
めるのであれば、以下の(数13)より単純にZpは求
められるものとなっている。
In some cases, Zp may be obtained as the position of the center of gravity of the data point sequence. By the way, Zp (x, y) is calculated by Gaussian distribution approximation (Equation 7).
Even if Zp is obtained, it is also possible to directly calculate Zp instead of performing calculation each time. Eventually place, Zp is the fact that the F m, F m-1, F m + 1 of the function, as shown in FIG. 8, the coordinates (F m, F m-1 , F m + 1)
3 = Zp−Zm for all combinations of F m , F m−1 , and F m + 1 is previously obtained and stored in a three-dimensional memory consisting of: It is required. At that time, in F m, F m-1, F m + 1 , for example, F m, also, if to be normalized Z m, the Z m + 1, Z m- 1 in Delta] z, with a small memory capacity It is done. Further, in the above description, the focus measurement maximum value position detection focuses on obtaining Zp with a value smaller than the image detection pitch Δz, but if Zp is obtained in Δz pitch units, From (Equation 13), Zp is simply obtained.

【0053】[0053]

【数13】 (Equation 13)

【0054】即ち、座標点(x,y)全てに対してFi
(x,y)が最大となる場合でのiを求め、これをZp
(x,y)とすればよいものである。
That is, Fi for all the coordinate points (x, y)
I at the time when (x, y) is maximized is determined, and this is Zp
(X, y).

【0055】以上合焦測度最大値位置検出にもとづいて
Zp(x,y)が求められたが、これにもとづき立体形
状表示部11では対象物1のその立体形状が表示される
ものとなっている。立体形状表示部11では合焦測度最
大値位置検出部10からのZp(x,y)全てがメモリ
に一旦記憶されたうえ、表示管に立体形状として表示さ
れるようになっているが、その表示には表示管以外にプ
リンタや、各種の表示手段を利用し得るものとなってい
る。また、単に立体形状を表示するだけではなく、Zp
(x,y)は自動検査や形状収集などに用いられること
があるから、このような場合には立体形状表示部11は
自動検査のための判定回路であったり、あるいは形状収
集のための大規模メモリや計算機であったりすることは
明らかである。
As described above, Zp (x, y) is obtained based on the detection of the maximum value of the focus measure. Based on this, the three-dimensional shape display section 11 displays the three-dimensional shape of the object 1. I have. In the three-dimensional shape display unit 11, all the Zp (x, y) from the focus measure maximum value position detection unit 10 are temporarily stored in the memory and then displayed as a three-dimensional shape on the display tube. For display, a printer or various display means can be used in addition to the display tube. In addition to displaying a three-dimensional shape, Zp
Since (x, y) may be used for automatic inspection, shape collection, and the like, in such a case, the three-dimensional shape display unit 11 is a judgment circuit for automatic inspection or a large size for shape collection. Obviously, it may be a scale memory or a computer.

【0056】最後に本発明の変形態様、あるいはより望
ましい実施態様について説明すれば、対象物の表面での
テックスチャが不鮮明な場合、あるいはテックスチャを
有しない拡散面や鏡面をその表面として有する対象物に
対しては、格子パターンやマルチスポット光を使用する
ことで、テックスチャを有しない拡散面表面に照明によ
るテックスチャを形成せしめたり、鏡面からの反射光を
多数光源像にさせることが可能であり、このようにすれ
ば拡散面や鏡面に対してもその立体形状が検出され得る
というものである。より詳細に説明すれば、図9(a)
では周囲からのライドガイド(光源部は図示省略)28
によってマルチスポット光源が形成され、対象物(図示
せず)はそれらライドガイド28によって照明されるよ
うになっている。また、図9(b)では格子状光源とし
て照明する例を示しており、暗視野照明用放物凹面鏡2
9への照明光束30によってその鏡面上には格子状パタ
ーンが形成されるようになっている。更に図9(c)で
は明視野照明とされるも、その照明側実像面上にはフィ
ルタ31が挿入されたものとなっている。フィルタ31
として、マルチスポット(多数の円形開口部)フィルタ
や、格子パターン、あるいはランダムなテックスチャを
有するフィルタなどを挿入し、合焦面ではそれらが最も
コントラスト良好に投影されるようにすれば、マルチス
ポット像や格子パターン、ランダムテックスチャが像検
出によって検出されることで、対象物の立体形状が検出
され得るものである。
Finally, a description will be given of a modified embodiment or a more preferable embodiment of the present invention. If the texture on the surface of the object is unclear, or the object has a diffusion surface or a mirror surface having no texture as its surface. For objects, a lattice pattern or multi-spot light can be used to form a texture by illumination on the surface of the diffusion surface that does not have a texture, or to make a large number of light reflected from the mirror surface into a light source image. In this way, the three-dimensional shape can be detected even on a diffusion surface or a mirror surface. More specifically, FIG.
Then, a ride guide from the surroundings (the light source unit is not shown) 28
Forms a multi-spot light source, and an object (not shown) is illuminated by the light guides 28. FIG. 9B shows an example in which illumination is performed as a lattice light source, and the parabolic concave mirror 2 for dark field illumination is used.
A grid-like pattern is formed on the mirror surface by the illuminating light beam 30 toward the mirror 9. Further, in FIG. 9C, bright field illumination is used, but a filter 31 is inserted on the illumination-side real image plane. Filter 31
By inserting a multi-spot (many circular apertures) filter, a filter having a lattice pattern or a random texture, etc. so that they are projected with the best contrast on the focal plane, the multi-spot The three-dimensional shape of the target object can be detected by detecting an image, a lattice pattern, and a random texture by image detection.

【0057】次に本例では対象物の上下動をステップ的
に行ない、各停止位置で画像検出が行なわれる場合を想
定しているが、より高速に立体形状を検出するために、
例えば速度一定として対象物と画像検出光学系との相対
的位置関係を連続的に変化せしめている間に、周期的
に、あるいは非周期的に一定時間内に亘って対象物の像
を平均的に検出するようにしてもよい。TVカメラを像
検出器として用いる場合など、蓄積型センサでは一定時
間(蓄積時間)内の間に受光部に蓄積、あるいは放電さ
れた電荷がその受光部で受光された光量に対応すること
から、対象物と画像検出光学系との間の相対的位置関係
を連続的に変化させつつ蓄積型センサで対象物の画像を
検出する場合は、蓄積時間内での変化量に対応した、平
均的な画像が得られることから、何等不具合は生じない
というものである。したがって、そのようにして画像検
出を行なう場合は、焦点位置が異なる複数の画像検出が
より高速に検出され、ひいては対象物の立体形状もまた
より高速に求められるものである。
Next, in this example, it is assumed that the vertical movement of the object is performed in a stepwise manner, and that image detection is performed at each stop position.
For example, while continuously changing the relative positional relationship between the target object and the image detection optical system at a constant speed, the image of the target object is averaged periodically or aperiodically over a certain period of time. May be detected. In the case of a storage-type sensor, such as when a TV camera is used as an image detector, the amount of charge accumulated or discharged in a light receiving unit within a certain time (accumulation time) corresponds to the amount of light received by the light receiving unit. When the image of the object is detected by the accumulation type sensor while continuously changing the relative positional relationship between the object and the image detection optical system, an average value corresponding to the amount of change within the accumulation time is used. Since no image is obtained, no problem occurs. Therefore, when performing image detection in this manner, a plurality of image detections having different focal positions are detected at higher speed, and the three-dimensional shape of the object is also obtained at higher speed.

【0058】[0058]

【発明の効果】以上説明したように、本発明によれば、
任意対象物の立体形状が確実に求められることになる。
また、焦点位置の差よりも細かく高精度に対象物の立体
形状が求められ、しかもまた検出画像数が少ない場合で
あっても立体形状が検出されることになる。更に、表面
が鏡面や拡散面であっても、対象物の立体形状が求めら
れることになる。更にまた、より高速に対象物の立体形
状が求められ、内挿による高分解能な合焦測度最大値位
置検出により最大値位置も高速に求めることができる。
As described above, according to the present invention,
The three-dimensional shape of the arbitrary object is surely determined.
Further, the three-dimensional shape of the target object is determined with higher precision than the difference in the focal position, and the three-dimensional shape is detected even when the number of detected images is small. Furthermore, even if the surface is a mirror surface or a diffusion surface, a three-dimensional shape of the object is required. Furthermore, the three-dimensional shape of the object can be obtained at a higher speed, and the maximum value position can be obtained at a high speed by detecting the maximum value of the focus measure at a high resolution by interpolation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る立体形状検出装置の概略構成を対
象物とともに示す略断面図。
FIG. 1 is a schematic sectional view showing a schematic configuration of a three-dimensional shape detection device according to the present invention together with an object.

【図2】本発明に係る処理内容の概略を説明するための
図。
FIG. 2 is a diagram for explaining an outline of processing contents according to the present invention.

【図3】その装置における構成要素としての合焦測度検
出部の一具体的構成を示すブロック図。
FIG. 3 is a block diagram showing a specific configuration of a focus measure detection unit as a component in the apparatus.

【図4】画像間に内挿された合焦測度最大値位置を求め
るための説明図。
FIG. 4 is an explanatory diagram for obtaining a focus measure maximum value position interpolated between images.

【図5】その装置における構成要素としての合焦測度最
大値位置検出部の一具体的構成を示すブロック図。
FIG. 5 is a block diagram showing a specific configuration of a focus measure maximum value position detection unit as a component in the apparatus.

【図6】画像間に内挿された合焦測度最大値位置を他の
方法によって求める場合を説明するための図。
FIG. 6 is a view for explaining a case where a focus measure maximum value position interpolated between images is obtained by another method.

【図7】画像間に内挿された合焦測度最大値位置を他の
方法によって求める場合を説明するための図。
FIG. 7 is a view for explaining a case where a focus measure maximum value position interpolated between images is obtained by another method.

【図8】画像間に内挿された合焦測度最大値位置を求め
る際に参照されるマトリックスデータを説明するための
図。
FIG. 8 is a diagram for explaining matrix data that is referred to when a focus measure maximum value position interpolated between images is obtained.

【図9】本発明に係る各種照明方式を説明するための略
断面図。
FIG. 9 is a schematic sectional view for explaining various illumination systems according to the present invention.

【符号の説明】[Explanation of symbols]

1…対象物、 3…上下機構、 4…ハーフミラ
ー、 5…照明レンズ、6…ランプ、 7…結像レ
ンズ、 8…像検出器、 9…合焦測度検出部、10
…合焦測度最大値位置検出部、 11…立体形状表
示部、28…ライトガイド、 29…暗視野照明用放物
凹面鏡、 31…フィルタ。
DESCRIPTION OF SYMBOLS 1 ... Object, 3 ... Vertical mechanism, 4 ... Half mirror, 5 ... Illumination lens, 6 ... Lamp, 7 ... Imaging lens, 8 ... Image detector, 9 ... Focusing measure detection part, 10
... Focusing-measurement-maximum-value position detecting unit, 11: three-dimensional shape display unit, 28: light guide, 29: parabolic concave mirror for dark-field illumination, 31: filter.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G01B 11/00 - 11/24 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 6 , DB name) G01B 11/00-11/24

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】撮像手段の光軸方向で前記撮像手段の焦点
と試料との相対的な位置を変化させて前記試料の表面を
撮像することにより焦点位置の異なる複数の画像を得、
該複数の画像のそれぞれの画像において前記試料の表面
の合焦点位置を検出し、該検出した前記試料の表面の合
焦点位置の情報から補間により前記異なる焦点位置の間
の前記試料の表面の合焦点位置を算出し、前記撮像して
検出した合焦点位置の情報と前記補間により算出した合
焦点位置の情報とに基づいて前記試料の立体形状を求め
ることを特徴とする立体形状検出方法。
1. A focal point of said image pickup means in an optical axis direction of said image pickup means.
And changing the relative position of the sample and the surface of the sample
Obtain a plurality of images with different focal positions by imaging,
The surface of the sample in each of the plurality of images
The in-focus position of the sample is detected, and the detected surface of the sample is focused.
Between the different focus positions by interpolation from the focus position information
Calculating the in-focus position of the surface of the sample,
The information of the detected focal point position and the focal point calculated by the interpolation
A three-dimensional shape detection method, wherein a three-dimensional shape of the sample is obtained based on information on a focal position .
【請求項2】 試料の表面を撮像する撮像手段と、該撮像
手段の光軸方向で前記撮像手段の焦点と試料との相対的
な位置を変化させる相対位置変化手段と、該相対位置変
化手段で前記撮像手段の焦点と試料との相対的な位置を
変化させながら前記撮像手段で前記試料の表面を撮像し
て得た焦点位置の異なる複数の画像から該複数の画像の
それぞれの画像において前記試料の表面の合焦点位置を
検出する合焦点位置検出手段と、該合焦点位置検出手段
で検出した前記複数の画像のそれぞれに対応する前記試
料の表面の合焦点位置の情報に基いて前記異なる焦点位
置の間の前記試料の表面の合焦点位置を補間により求め
る演算手段と、前記合焦点位置検出手段で検出した合焦
点位置の情報と前記演算手段で補間により求めた前記異
なる焦点位置の間の前記試料の表面の合焦点位置の情報
に基づいて前記試料の立体形状を算出する立体形状算出
手段とを 備えたことを特徴とする立体形状検出装置。
2. An imaging means for imaging a surface of a sample, and the imaging means
Relative to the sample and the focal point of the imaging means in the optical axis direction of the means
Relative position changing means for changing the relative position;
The relative position between the focus of the imaging means and the sample
Imaging the surface of the sample with the imaging means while changing
Of a plurality of images having different focal positions
In each image, the focal position on the surface of the sample
In-focus position detecting means for detecting, and the in-focus position detecting means
The test corresponding to each of the plurality of images detected in
The different focal positions based on the information of the focal position on the surface of the material.
The focal position on the surface of the sample between the positions
Calculating means, and the in-focus state detected by the in-focus position detecting means.
The point position information and the difference obtained by interpolation by the arithmetic means
Information on the focal position of the surface of the sample between different focal positions
Three-dimensional shape calculation for calculating the three-dimensional shape of the sample based on
And a means for detecting a three-dimensional shape.
JP8204478A 1996-08-02 1996-08-02 Three-dimensional shape detection method and device Expired - Fee Related JP2960684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8204478A JP2960684B2 (en) 1996-08-02 1996-08-02 Three-dimensional shape detection method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8204478A JP2960684B2 (en) 1996-08-02 1996-08-02 Three-dimensional shape detection method and device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP1199223A Division JP2928548B2 (en) 1989-08-02 1989-08-02 Three-dimensional shape detection method and device

Publications (2)

Publication Number Publication Date
JPH0926312A JPH0926312A (en) 1997-01-28
JP2960684B2 true JP2960684B2 (en) 1999-10-12

Family

ID=16491197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8204478A Expired - Fee Related JP2960684B2 (en) 1996-08-02 1996-08-02 Three-dimensional shape detection method and device

Country Status (1)

Country Link
JP (1) JP2960684B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066155A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010066156A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2017092131A (en) * 2015-11-05 2017-05-25 Juki株式会社 Image generation apparatus, mounting device and image generation method
US11930262B2 (en) 2019-02-27 2024-03-12 Canon Machinery Inc. Three-dimensional shape detection device, three-dimensional shape detection method, and three-dimensional shape detection program

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6025905A (en) * 1996-12-31 2000-02-15 Cognex Corporation System for obtaining a uniform illumination reflectance image during periodic structured illumination
US5912768A (en) * 1996-12-31 1999-06-15 Cognex Corporation Depth-from-defocus optical apparatus with invariance to surface reflectance properties
US5878152A (en) * 1997-05-21 1999-03-02 Cognex Corporation Depth from focal gradient analysis using object texture removal by albedo normalization
US6219461B1 (en) 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
US6148120A (en) * 1997-10-30 2000-11-14 Cognex Corporation Warping of focal images to correct correspondence error
US6538249B1 (en) 1999-07-09 2003-03-25 Hitachi, Ltd. Image-formation apparatus using charged particle beams under various focus conditions
EP1721137A1 (en) * 2004-03-01 2006-11-15 Iatia Imaging Pty Ltd. Method and apparatus for producing an image containing depth information
EP1607064B1 (en) 2004-06-17 2008-09-03 Cadent Ltd. Method and apparatus for colour imaging a three-dimensional structure
JP4696599B2 (en) * 2005-03-04 2011-06-08 株式会社ニコン Measuring device with confocal optical system
JP2007132786A (en) * 2005-11-10 2007-05-31 Dainippon Printing Co Ltd Apparatus and method for measuring shape of cell on gravure plate
JP4957027B2 (en) * 2006-03-13 2012-06-20 株式会社ニコン Overlay measuring device
JP5218429B2 (en) * 2008-01-28 2013-06-26 株式会社ニコン Three-dimensional shape measuring apparatus and method, and program
JP5484787B2 (en) * 2009-05-22 2014-05-07 株式会社ディスコ Cross-sectional shape detection method, machining apparatus, and cross-sectional shape detection program
US20110091125A1 (en) * 2009-10-15 2011-04-21 General Electric Company System and method for imaging with enhanced depth of field
US20110090327A1 (en) * 2009-10-15 2011-04-21 General Electric Company System and method for imaging with enhanced depth of field
TWI618640B (en) 2013-09-13 2018-03-21 Silicon Touch Technology Inc. Three dimensional printing system, and method for three dimensional printing
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066155A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010066156A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2017092131A (en) * 2015-11-05 2017-05-25 Juki株式会社 Image generation apparatus, mounting device and image generation method
US11930262B2 (en) 2019-02-27 2024-03-12 Canon Machinery Inc. Three-dimensional shape detection device, three-dimensional shape detection method, and three-dimensional shape detection program

Also Published As

Publication number Publication date
JPH0926312A (en) 1997-01-28

Similar Documents

Publication Publication Date Title
JP2928548B2 (en) Three-dimensional shape detection method and device
JP2960684B2 (en) Three-dimensional shape detection method and device
JP2696044B2 (en) Focus detection method, non-contact displacement measuring method and apparatus using the same
US5239170A (en) Autofocus method and apparatus for imaging microscopy using a predetermined visual imaging feature
JP6503221B2 (en) Three-dimensional information acquisition apparatus and three-dimensional information acquisition method
CN109883391B (en) Monocular distance measurement method based on digital imaging of microlens array
JP4286657B2 (en) Method for measuring line and space pattern using scanning electron microscope
JP4633245B2 (en) Surface inspection apparatus and surface inspection method
JPH1038533A (en) Instrument and method for measuring shape of tire
JP3324699B2 (en) Method and apparatus for measuring fiber diameter distribution
JP3058781B2 (en) Focusing point detection method
US5373567A (en) Method and apparatus for pattern matching
JP3871963B2 (en) Surface inspection apparatus and surface inspection method
TW200902964A (en) System and method for height measurement
JPH0821961A (en) Autofocusing device of microscope
JP2013002968A (en) Component height measuring method and apparatus therefor
JP3488762B2 (en) Image processing apparatus and image processing method
JP3652014B2 (en) Distance measuring device
JP2961140B2 (en) Image processing method
CN112710662A (en) Generation method and device, generation system and storage medium
JP4035558B2 (en) Surface inspection device
JP2723914B2 (en) Lens barrel resolution inspection system
JPH06308390A (en) Confocal microscope
JP3047017B2 (en) Image processing method
JPH0868765A (en) Detection of foreign matter due to image processing

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080730

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees