JP2004317495A - Method and instrument for measuring noncontactly three-dimensional shape - Google Patents

Method and instrument for measuring noncontactly three-dimensional shape Download PDF

Info

Publication number
JP2004317495A
JP2004317495A JP2004071128A JP2004071128A JP2004317495A JP 2004317495 A JP2004317495 A JP 2004317495A JP 2004071128 A JP2004071128 A JP 2004071128A JP 2004071128 A JP2004071128 A JP 2004071128A JP 2004317495 A JP2004317495 A JP 2004317495A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
dimensional
contact
non
phase
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004071128A
Other languages
Japanese (ja)
Other versions
JP4255865B2 (en )
Inventor
Hiroyuki Yoshida
博行 吉田
Original Assignee
Mitsutoyo Corp
株式会社ミツトヨ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To noncontactly measure a three-dimensional shape of wide measuring range in a short time. <P>SOLUTION: In this noncontact three-dimensional shape measuring method for observing a lattice pattern projected on a measuring object from another direction different from a projection direction while shifting a phase to analyze a contrast of an lattice image deformed in response to the shape of the measuring object, so as to obtain the shape, focuses in a projection side and an image pick-up side are shifted continuously to enlarge a depth-directional measuring range. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、非接触三次元形状測定方法及び装置に係り、特に、デザイン形状のデジタル化によるCADへの展開や、試作・量産部品の形状精度評価(リバースエンジニアリング)のための非接触デジタイザに用いるのに好適な、実物大の自動車等の大きな測定範囲の三次元形状を、非接触で短時間に測定することが可能な、位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じて変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定方法及び装置に関する。 The present invention relates to a non-contact three-dimensional shape measuring method and apparatus, in particular, deploy and to CAD by digitizing the design shape, used in the non-contact digitizer for shape accuracy evaluation of prototyping and mass-produced parts (reverse engineering) suitable for a three-dimensional shape of the large measurement range of an automobile or the like of real size, which can be measured in a short time without contact, the grating pattern projected to the measurement object while shifting the phase, the projection direction by observing from a different direction, the non-contact relates to a three-dimensional shape measuring method and apparatus to obtain a shape by analyzing the contrast of the grating image deformed according to the shape of the measuring object.

三次元形状を非接触で短時間に測定する技術として、特許文献1、特許文献2、特許文献3に記載されたような、測定対象に格子状のパターンを投影し、測定対象各部の高さ分布に応じて変形した格子像から三次元形状を測定する、モアレトポグラフィを利用したモアレ法がある。 As a technique for measuring a short time a three-dimensional shape in a non-contact, Patent Document 1, Patent Document 2, as described in Patent Document 3, a grid pattern is projected onto the measuring object, the height of the measurement object each portion measuring the three-dimensional shape from a lattice image deformed in accordance with the distribution, there is a moire method using moire topography. このモアレ法には、図1に示す如く、投影用と観察用の2枚の格子G1、G2を投影レンズL1と撮像レンズL2の手前に配置し、格子G1をレンズL1により測定対象に投影し、物体形状に応じて変形した格子線をレンズL2を通じてもう一つの格子G2上に結像させ、縞等高線を基準面から所定距離h1、h2、h3、…、の所に生じさせるようにした格子撮影型と、図2に示す如く、基準面に1枚の大きな格子Gを配置し、投影レンズL1の位置に点光源S、撮像レンズL2の位置に観察眼eを配置して、格子Gの光源Sによる影を測定対象上に落し、物体形状に応じて変形した格子Gの影を形成させ、これを格子Gを通して観察眼eにより観察することにより、この格子Gと変形した格子の影とによって生じるモアレ縞を観測するよ This moire method, as shown in FIG. 1, arranged two grating G1, G2 for observation and projection in front of the projection lens L1 and the imaging lens L2, the projection of the grating G1 to be measured by the lens L1 the grid lines were deformed in response to object shape is imaged on another grating G2 through lens L2, the predetermined distance fringe contours from the reference plane h1, h2, h3, ..., and so cause at the grating and shooting type, as shown in FIG. 2, to place the large lattice G of one to the reference plane, the point light source S to a position of the projection lens L1, by arranging the observing eye e to the position of the imaging lens L2, the grating G drop shadow by the light source S onto the measuring object to form a shadow of the grating G which is deformed according to the object shape, which by observing the observing eye e through grid G, and shadow grid which is deformed with this grating G to observe the moire fringes produced by にした実体格子型がある。 There are entities lattice type you. 更に、特許文献4には、実体格子型のモアレ法に対して位相シフト法を適用可能とすることが記載されている。 Furthermore, Patent Document 4, it is described that allows applying the phase shift method with respect to Moire Method entity lattice type.

一方、非特許文献1には、図3に示すような、格子パターン投影に位相シフトを組合せた非接触形状測定方法が記載されている。 On the other hand, Non-Patent Document 1, as shown in FIG. 3, the non-contact shape measuring method that combines a phase shift grating pattern projection is described.

これは、次に示すような手順で形状を測定する。 This measures the shape in the procedure as shown below.

(1)例えば照明ランプ10を用いて、投影レンズ14の手前に配置された格子フィルタ12を照明することにより、撮像光学系(撮像レンズ20)の焦点位置とは異なる位置から格子パターンを測定ワーク8に投影する。 (1) using, for example, an illumination lamp 10, by illuminating the grating filter 12 disposed in front of the projection lens 14, measured lattice pattern from the position different from the focal position of the imaging optical system (imaging lens 20) Work It is projected to 8.

(2)格子シフト機構16により、格子フィルタ12を矢印Aに示す横方向に移動(位相シフト)させ、撮像レンズ20を介して撮像素子22で得られる画像のピクセルの濃淡変化を正弦波形状にする。 (2) grid shift mechanism 16, moves the grating filter 12 in the lateral direction indicated by the arrow A by (phase shift), the density change in the image obtained by the imaging element 22 pixels through the imaging lens 20 to the sine wave shape to.

(3)等間隔の位相シフト量毎に、複数枚撮像する。 (3) at equal intervals of phase shift amount each, a plurality of sheets imaging.

(4)各画素の位相及びコントラストを計算する。 (4) calculates the phase and contrast of each pixel.

(5)測定ワーク8の位置を高さ方向(あるいは焦点方向等)へステップ移動して、(2)〜(4)を繰り返す。 (5) measuring the position of the workpiece 8 to the height direction (or the focus direction, etc.) and step movement, repeating (2) to (4). 測定ワーク8の位置は最低2回移動する。 The position of the measurement work 8 is moved at least twice.

(6)各画素の最大コントラストをとる合焦位置を求め、縞次数を求める。 (6) obtains the focus position takes the maximum contrast of each pixel, determining the fringe order.

(7)各画素の最大コントラストのときの位相を選択し、位相分布を求める。 (7) Select the phase at the maximum contrast of each pixel, we obtain a phase distribution.

(8)基準位相との位相差を計算する。 (8) calculates a phase difference between the reference phase.

(9)位相差と縞次数を用いて奥行き方向の距離(高さ)を計算する。 (9) to calculate the distance in the depth direction (height) by using the phase difference and the fringe order.

特開平10−246612号公報 JP 10-246612 discloses 米国特許第5175601号明細書 US Pat. No. 5175601 米国特許第5319445号明細書 US Pat. No. 5319445 特開2002−267429号公報 JP 2002-267429 JP

しかしながら特許文献1〜4では、図4のように、位相が2π変化する毎に同じ出力が繰返されるため、位相シフトのみでは、投影された格子の何番目のラインが映っているかを特定できず、縞の次数を決定できない。 However Patent Documents 1 to 4, as shown in FIG. 4, since the phase is the same output for each of 2π change is repeated, only the phase shift can not identify what th line of the projected grating is reflected , you can not determine the order of the fringes. 従って、測定範囲がA、B、C、D、…、のいずれかに限定され、測定範囲を1縞の次数以内にすると、格子間隔が広くなり、測定精度が落ちる。 Therefore, the measurement range A, B, C, D, ..., are limited to either, when the measuring range within the next number of 1 stripe, lattice spacing becomes wider, the measurement accuracy drops. 逆に格子間隔を小さくし、高精度を確保しようとすると、奥行き方向の測定範囲が小さくなる。 The lattice spacing smaller Conversely, if an attempt ensure high accuracy, measurement range in the depth direction is reduced. 又、ピントが合っているピクセルに比べて、ピントがボケているピクセルは測定精度が悪くなる等の問題点を有していた。 Further, as compared with the pixel is in focus, focus blur has pixel has a problem such as the measurement accuracy deteriorates.

一方、非特許文献1では、測定のステップ数が少ない場合は、最大コントラストを求める際に行うガウス関数のフィッティング時に誤差が発生するので、ステップとステップの間に位置する点の精度が落ちる。 On the other hand, Non-Patent Document 1, when the number of steps of the measurement is small, since an error occurs during the fitting of the Gaussian function to perform when determining the maximum contrast, fall the accuracy of a point located between the step and step. 移動回数を増やすことで、この誤差は減少できるが、測定時間の増大を伴う。 By increasing the number of movements, this error can be reduced, accompanied by an increase of the measuring time. また、測定ワークを動かす、あるいは照明光学系、撮像光学系を動かすため、装置が複雑になる。 Also, moving the measurement work, or the illumination optical system, for moving the imaging optical system, the apparatus becomes complicated. 更に、奥行き方向の測定範囲は、ステップ数を増やすことで広げることはできるが、測定時間、装置面の制約がある等の問題点を有していた。 Furthermore, the measurement range of the depth direction, although it is possible to widen by increasing the number of steps, the measurement time, there is a problem such that there is a restriction of the device surface.

本発明は、前記従来の問題を解決するべくなされたもので、小型化可能な単純な構成で、奥行き方向の測定範囲を拡大して、測定範囲の全体に亘って、高精度測定を実現することを課題とする。 The present invention, which solve such the conventional problems, in miniaturization possible simple construction, to expand the measurement range in the depth direction, over the entire measurement range, to achieve a high-precision measurement it is an object of the present invention.

本発明は、位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定方法において、投影側と撮像側のフォーカスを連続的にシフトさせ、奥行き方向の測定範囲を拡大するようにして、前記課題を解決したものである。 The present invention is shaped by the grating pattern projected to the measurement object while shifting the phase by observing from a different direction to the projection direction, for analyzing the contrast of the deformed grating image according to the shape of the measurement object the non-contact three-dimensional shape measuring method to obtain a continuously shifting the focus of the projection-side and the imaging side, so as to enlarge the measurement range in the depth direction is obtained by solving the above problems.

本発明は、又、位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定装置において、フォーカスと位相をシフトさせながら、測定対象に格子パターンを投影する手段と、フォーカスをシフトさせながら測定対象に投影されたパターンの画像データを入力する手段と、入力された画像データを処理して、三次元マップを作成する手段とを備えることにより、同じく前記課題を解決したものである。 The present invention also the grating pattern projected to the measurement object while shifting the phase by observing from a different direction to the projection direction, analyzing the contrast of the deformed grating image according to the shape of the measurement object in in non-contact three-dimensional shape measuring apparatus to obtain the shape, focus and while shifting the phase, and means for projecting a grating pattern to the measured object, the image data of the pattern projected to the measurement object while shifting the focus and means for inputting, by processing the input image data, by providing a means for creating a three-dimensional map, is also obtained by solving the above problems.

又、前記三次元マップを作成する手段が、フォーカス中心から縞次数を決定して、位相をアンラップし、位相の絶対値を計算する手段と、縞次数の格子面と撮像点のエピポーララインの交点の三次元位置を計算する手段とを含むようにしたものである。 Further, means for creating said three-dimensional map, to determine the fringe order from the focus center, unwrapping the phase, means for calculating the absolute value of the phase, the intersection of the epipolar line of the fringe order of the grating surface and the imaging point of it is obtained to include the means for calculating the three-dimensional position.

更に、投影光学系と撮像光学系の歪み(ディストーション)を補正する手段を備えるようにしたものである。 Moreover, in which so comprises means for correcting the projection optical system and the imaging optical system distortion of (distortion).

又、投影光学系と撮像光学系を一つのシフト機構に搭載して、Z軸方向に駆動するようにしたものである。 Also, equipped with a projection optical system and the imaging optical system into one of the shift mechanism, in which so as to drive the Z-axis direction.

本発明においては、格子の縞次数の決定を可能にし、高精度のまま奥行き方向の測定範囲を広げるため、フォーカスシフトを組合わせる。 In the present invention, it allows the determination of the fringe order of the grating, for expanding the measurement range remains the depth direction of the high-precision, combining the focus shift.

本発明によれば、格子パターンの縞次数をフォーカス中心から求め、位相をアンラップし、奥行き(Z)方向の絶対値を求めると共に、フォーカスを連続的にシフトさせているので、高精度を維持しつつ、奥行き方向の測定範囲が飛躍的に拡大する。 According to the present invention, determine the fringe order of the grating pattern from the focus center, unwrapping the phase, with the absolute value of the depth direction (Z), since the continuously shifting the focus, maintains accurate while, the measuring range in the depth direction is expanded dramatically. しかも、ピクセル毎にフォーカスが合ったときの位相から三次元座標値を計算するので、全ての測定点にピントが合った状態で座標値を求めることができ、XY方向も高精度に測定できる。 Moreover, because it calculates three-dimensional coordinate values ​​from the phase at which comes into focus for each pixel, it is possible to obtain the coordinate values ​​in focus to all the measuring points, XY direction can be measured with high accuracy.

以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, with reference to the drawings, an embodiment of the present invention in detail.

本発明を実施するための装置の全体構成を図5に示す。 The overall structure of the apparatus for carrying out the present invention shown in FIG.

本実施形態は、図3に示した従来例と同様の装置において、更に、格子フィルタ12を矢印Aで示す横方向に一定速度で移動させる格子シフト機構16ごと、格子フィルタ12を矢印Bで示す前後方向に一定速度で移動させるための第1のフォーカスシフト機構18と、カメラ等の撮像素子22を同じく矢印Bで示す前後方向に一定速度で移動させるための第2のフォーカスシフト機構24とを設けると共に、フォーカスをシフトしてもピクセルに写っている測定ワーク8上の撮像点が変化しないように、投影レンズ15及び撮像レンズ21を、いずれも像側テレセントリック光学系としたものである。 This embodiment is the same as the same apparatus as the conventional example shown in FIG. 3 further shows a lattice filter 12 each grating shift mechanism 16 for moving at a constant speed in the horizontal direction indicated by the arrow A, the grating filter 12 by the arrow B a first focus shift mechanism 18 for moving at a constant speed in the longitudinal direction, and a second focus shift mechanism 24 for moving at a constant speed in the longitudinal direction indicated by the same arrows B the image pickup device 22 such as a camera provided with, as an imaging point on the measurement workpiece 8 be shifted the focus is reflected in the pixel is not changed, a projection lens 15 and the imaging lens 21, in which were all the image-side telecentric optical system.

前記格子フィルタ12用の第1のフォーカスシフト機構18と、撮像素子22用の第2のフォーカスシフト機構24は、同期して移動するように制御される。 And the grating filter 12 first focus shift mechanism 18 for the second focus shift mechanism 24 of the imaging device 22 is controlled to move synchronously.

前記格子フィルタ12の位相シフト量に対応して、撮像素子22の撮像タイミングが決定される。 Corresponding to the phase shift amount of the grating filter 12, imaging timing of the imaging device 22 is determined. この撮像タイミングに合わせて、照明ランプ10が点灯される。 To reflect this imaging timing, illumination lamp 10 is turned on. 該照明ランプ10としては、例えばキセノンフラッシュやハロゲンランプが用いられる。 As the illumination lamp 10, for example a xenon flash or halogen lamp is used.

本発明に係る処理は、図6に示すような手順に従って行なわれる。 Process according to the present invention is carried out according to the procedure as shown in FIG. 即ち、まずステップ100で、一定速度でフォーカスと位相をシフトさせながら、連続的に測定ワーク8の画像データを入力する。 That is, first in step 100, while shifting the focus and phase at a constant speed, and inputs the image data of continuously measuring the workpiece 8. あるピクセルの濃淡波形の例を図7に示す。 An example of a shading waveform of a pixel in FIG. データ入力時間は、例えば30fpsのカメラ(撮像素子22)で128枚撮像するとして、4.3秒である。 Data input time, for example, as to 128 sheets imaged by 30fps camera (imaging element 22), is 4.3 seconds. ここで、横軸の時間tは、撮像枚数に対応している。 Here, the horizontal axis represents time t corresponds to the number of imaging.

次いでステップ200に進み、入力したデータを計算機内で処理して、三次元マップを作成する。 Next, in step 200, it processes the input data in the computer to create a three-dimensional map. 即ち、フォーカス中心と位相は、図8に示すような関係にあるので、ステップ210で、フォーカス中心から縞次数を決定して、0〜2π→0〜nπへ位相接続(アンラップと称する)し、位相の絶対値を計算する。 That is, the focus center and phase, since the relationship shown in FIG. 8, in step 210, to determine the fringe order from the focus center, (referred to as unwrapping) unwrapping the 0~2π → 0~nπ and, to calculate the absolute value of the phase. 又、図9に示す如く、縞次数の格子面と、撮像面のエピポーララインは、カメラロケーション、焦点距離、画像中心等の既知のパラメータと、ステップ210で求めた絶対位相から求まるので、ステップ220で、その交点の三次元位置を、画面座標(u,v)の撮像点の三次元位置として計算する。 Further, as shown in FIG. 9, a fringe order of the grating surface, the epipolar line of the imaging surface, the camera location, focal length, and the known parameters of the image center, etc., since obtained from the absolute phase obtained in step 210, step 220 in the three-dimensional position of the intersection is calculated as the three-dimensional position of the imaging point of screen coordinates (u, v). これを画像全体にわたって計算することで、三次元マップを作成する。 This is to calculate across the image, creating a three-dimensional map.

前出ステップ100における画像データ入力は、具体的には、図10に示す手順により行なわれる。 Image data input in step 100 supra is specifically carried out by the procedure shown in FIG. 10. 即ち、まずステップ102で、投影光学系と撮像光学系のフォーカスシフト機構18、24を初期位置へ移動させる。 That is, first in step 102, and moves the focus shift mechanism 18, 24 of the projection optical system and the imaging optical system to the initial position.

次いでステップ104で、照明ランプ10を点灯させ、格子フィルタ12のパターンを測定ワーク8上に投影する。 Then in step 104, the illumination lamp 10 is turned on to project a pattern of the grating filter 12 on the measurement workpiece 8.

次いでステップ106で、投影光学系と撮像光学系のフォーカスシフト機構18、24を、次式に示す如く、一定速度Vで移動させる。 Then in step 106, the focus shift mechanism 18, 24 of the projection optical system and the imaging optical system, as shown in the following equation, is moved at a constant velocity V.

f =V*t+z 0 …(1) z f = V * t + z 0 ... (1)

次いでステップ108に進み、格子シフト機構16を、次式に示す如く、一定速度ωで移動させる。 Next, in step 108, the grid shift mechanism 16, as shown in the following equation, is moved at a constant speed omega.

φ=ω*t+φ 0 …(2) φ = ω * t + φ 0 ... (2)

次いでステップ110に進み、必要な撮像枚数Kに到達したか否かを判定する。 Next, in step 110, it determines whether the host vehicle has reached the required number of imaging K. 撮影枚数iがKに到達したときは、そのまま、この手順を終了する。 When number of shots i reaches K is directly terminates the procedure.

一方、撮像枚数iが必要撮像枚数Kより小さい場合には、ステップ112に進んで撮像し、ステップ114で計算機のメモリへ画像を転送し、ステップ116で、格子の位相が所定値2π/n進むまで待つ。 On the other hand, if the number of imaging i should the number of imaging smaller than K captures proceeds to step 112, and transfers the image to the memory of the computer in step 114, in step 116, the lattice of the phase advances a predetermined value 2 [pi / n wait until.

前出ステップ200における三次元マップ作成に際しては、図11に示すように、画像の全画素について、左上隅の画素を(u、v)=(0,0)として、まずv=0,すなわち1行目の画素について、左端のu=0よりu=wまで、濃淡波形の抽出から三次元位置(4)の計算までを実施し、次にv=1の行について、上記処理を実施、最後のv=hの行まで同様に繰り返し実施し、画像の全画素の三次元位置の計算が終了する。 In three-dimensional map created in step 200 supra, as shown in FIG. 11, for all pixels of the image, the upper left corner of the pixel as (u, v) = (0,0), first v = 0, namely 1 for the pixels in row, until u = w from the left end of the u = 0, carried out from the extraction of shading waveforms to calculate the three-dimensional position (4), for then v = 1 line, performing the above processing, the last of v = repeatedly carried out analogously to the line h, the calculation of the three-dimensional positions of all the pixels of the image ends.

具体的には、図12に示す如く、ステップ250で画像座標の濃淡波形を抽出した後、ステップ260に進み、濃淡波形のオフセット成分と揺らぎ成分を除去する。 More specifically, as shown in FIG. 12, after extracting the gray waveform image coordinates in step 250, the process proceeds to step 260, to remove the offset component and fluctuation component of shading waveform. このステップ260における濃淡波形のオフセット成分と揺らぎ成分の除去は、濃淡波形のオフセット成分を排除すると共に、ピンボケによるワーク撮像点近傍からの反射光の入射や、周辺環境の照明変化によるオフセット成分の揺らぎを排除するために行なう。 Removal of the offset component and fluctuation component of shading waveform in step 260, along with eliminating the offset component of the shading waveform incident and the reflected light from the vicinity workpiece imaging point by defocusing, the fluctuation of the offset component due to illumination changes in the surrounding environment carried out in order to eliminate. 但し、揺らぎの変化は、位相シフトによる濃淡変化より、十分緩やかであるとする。 However, changes in fluctuations, and from shading change due to the phase shift is sufficient loose.

具体的には、図13に示す如く、ステップ262で濃淡波形の微分波形を計算することによって、オフセットと揺らぎ成分を除去できる。 More specifically, as shown in FIG. 13, by calculating the differential waveform of the shading waveform in step 262, it can remove the offset and fluctuation component. 即ち、撮像枚数がi番目の画像座標(u,v)の濃淡波形を次式 Gi=A(i)sin{(2πi/n)+φ}+B+ε(i) …(3) That is, the number of imaging is the i-th image coordinates (u, v) the density wave of the formula Gi = A (i) sin {(2πi / n) + φ} + B + ε (i) ... (3)
(但し、A(i)=波形の振幅変動、B=オフセット、ε(i)=揺らぎ成分) (However, A (amplitude variation of i) = waveform, B = offset, epsilon (i) = fluctuation component)
で表わすと、微分波形は次式となり、オフセットと揺らぎ成分を除去できる。 Expressed in the derivative waveform given by the following formula, you can remove the offset and fluctuation component.

又、離散データを微分するため、微分波形はπ/nだけ位相が進む。 Further, in order to differentiate the discrete data, a differential waveform phase advances by [pi / n.

なお、ステップ260の濃淡波形のオフセット成分と揺らぎ成分の除去は、図14に示す変形例の如く、ステップ264で、ある位相シフト量での濃淡波形のオフセット値を、その近傍(前後)±πの濃淡値の平均値として除去することも可能である。 Incidentally, removal of the offset component and fluctuation component of shading waveform in step 260, as in the modification shown in FIG. 14, in step 264, the offset value of the shading waveform in a certain phase shift amount, near (front and back) ± [pi it is also possible to removal as the average gray value.

即ち、画像座標(u,v)の濃淡波形を、前出(3)式で、表すと、iにおけるオフセット+揺らぎ成分B+ε(i)は、次の(4a)式となり、オフセットと揺らぎ成分を除去した濃淡波形g iは、次の(4b)式となる。 That is, the gray waveform of the image coordinates (u, v), in supra (3), expressed, offset in i + fluctuation component B + epsilon (i) becomes the following (4a) formula, offset and fluctuation shading waveform g i removing the component, the following expression (4b).

この場合、除去後の濃淡波形の位相は、ずれない。 In this case, the phase of the shading waveform after removal, no deviation.

図12のステップ260終了後、ステップ270に進み、フォーカス中心(図8の(1))を計算する。 After end step 260 in FIG. 12, the process proceeds to step 270 to calculate the focus center (in FIG. 8 (1)) a. このステップ270におけるフォーカス中心の計算は、縞次数を決定するべく、フォーカスが合っているZ軸方向の奥行きを計算するために行なわれる。 Calculation of the focus center in step 270, to determine the fringe order is performed to calculate the depth in the Z-axis direction that is in focus. 即ち、格子投影の位相シフトピッチが、2π/n(但しnは整数)とすると、nデータおきの濃淡変化は、フォーカスのコントラスト曲線となり、コントラスト曲線の頂点、即ち、濃淡値が最大となる位置がフォーカス中心となる。 That is, the phase shift pitch grid projection is, when 2 [pi / n (where n is an integer), shading variation of n data every becomes a focus of the contrast curve, the apex of the contrast curve, i.e., the gray value is the maximum position There becomes a focus center. 従って、コントラスト曲線を正規分布曲線と見なし、統計計算で頂点を求めることができる。 Thus, consider the contrast curve and the normal distribution curve, it can be obtained vertices statistical calculations.

具体的な処理手順を図15に示す。 The specific procedure shown in FIG. 15. ここでは、nデータおきの濃淡変化の曲線(j本の抽出波形)の2乗波形それぞれについて、度数平均値を求め、抽出波形の山の高さに対応した係数(面積比)による重み係数を付けて平均して求める。 Here, for each of the square waveform of the curve n data every shade change (j present extraction waveform), obtains the power average value, the weighting factor by a factor (area ratio) corresponding to the height of the mountain extraction waveform give and seek on average.

図12のステップ270終了後、ステップ290に進み、フォーカス中心の位相(図8の(2))(−π〜π)を計算する。 After step 270 the end of FIG. 12, the process proceeds to step 290, the focus center of the phase (in FIG. 8 (2)) (- π~π) is calculated. このステップ290における位相計算は、格子パターン投影の縞の位相を計算するために行なわれる。 Phase calculation in step 290 is performed to calculate the fringe phase of the grating pattern projected. ここで、フォーカスからずれたところの波形は、撮像点近傍の反射光が混入しているため、フォーカス中心に近いデータの重みを大きくして、位相を求めることができる。 Here, the waveform of the place shifted from the focus, the reflected light in the vicinity of the imaging point is mixed, by increasing the weight of the data near the focus center, it is possible to determine the phase.

即ち、格子パターン投影の位相シフトピッチが2π/n(但しnは整数)とすると、nデータおきの微分波形値は正規分布曲線となり、位相2πi/n(但しi=0,1,…,n−1)におけるフォーカシングのコントラスト曲線を表わす。 That is, when the phase shift the pitch of the grating pattern projected to 2 [pi / n (where n is an integer), the differential waveform value of n data every becomes normal distribution curve, the phase 2πi / n (where i = 0, 1, ..., n representing the focusing of the contrast curve in -1). 又、各位相のコントラスト曲線は、フォーカス中心の頂点の高さに比例する。 Moreover, the contrast curve for each phase is proportional to the height of the apex of the focus center. 更に、コントラスト曲線と濃淡値の中央ラインで囲まれる面積(≒nデータおきの微分波形値の総和)が、コントラスト曲線の頂点の高さに比例する。 Furthermore, the area surrounded by the center lines of the contrast curve and gray value (sum of the differential waveform value ≒ n data every) is proportional to the height of the apex of the contrast curve. そこで、図16に具体的な処理手順を示す如く、ステップ292で求めたマザーウェーブmjと積算し、ステップ300でフーリエ積分することによって、位相を求める。 Accordingly, as a specific procedure in Fig. 16, by integrating the mother wave mj determined in step 292, by Fourier integral at step 300 to determine the phase. 即ち、π/8〜(15π)/8まで、π/4毎に8つの位相のコントラスト曲線があるので、その各曲線と濃淡値の中央ラインにより囲まれる面積を求め、図17のように各位相の区間の面積により形成される正弦波を求める(フーリエ積分)。 That is, until π / 8~ (15π) / 8, there is a contrast curve of the eight phases per [pi / 4, and measuring the area surrounded by the center line of each curve and gray value, Dear as shown in FIG. 17 obtaining a sine wave formed by the area of ​​the phase section (Fourier integral). そして、マザーウェーブとこの正弦波の位相差をφとして求める。 Then, a phase difference between the sine wave and the mother wave as phi. これを、全画素(u,v)について行う。 This is done for all the pixels (u, v).

図12のステップ290終了後、ステップ310に進み、位相をアンラップし、フォーカス中心に最も近い縞次数の位相として絶対位相(図8の(3))を計算する。 After step 290 the end of FIG. 12, the process proceeds to step 310, and unwrapped phase, absolute phase as the closest fringe order number of the phase in the focus center ((3 in FIG. 8)) is calculated. このステップ310における位相のアンラップは、フォーカス中心に最も近い縞を求め、絶対位相を計算するために行なわれる。 The unwrapped phase in step 310 obtains the nearest fringes focus center is performed to calculate the absolute phase. 具体的な処理手順を図18に示す。 The specific procedure shown in FIG. 18. 即ち、図8の(2)で、左端から数えて、格子のどの縞次数に当たるかを計算する。 That is, in (2) in FIG. 8, counted from the left end, it calculates how corresponds to which fringe order of the grating. 従って、ステップ322のφfocusは、アンラップのおおよその値(アンラップの位相に近い値)になる。 Therefore, Faifocus step 322 will approximate values ​​of the unwrapped (value close to the unwrapped phase). 又、ステップ324中の式において、exp(iφ)は、−π〜+πの間の正確な位相であり、右辺第2項は、角度(φ−φfocusの端数角)を求め、 Further, in the equation in step 324, exp (Iø) is an accurate phase between -π~ + π, the second term on the right side, obtains the angle (rounded angle of φ-φfocus),
φfocus=(2π×次数)+φfocusの端数角であるので、 φfocus = because it is a fraction angle of (2π × order) + φfocus,
φunwrap=(2π×次数)+φ φunwrap = (2π × order) + φ
により正確な位相が求められる。 The exact phase is determined by.

図12のステップ310終了後、ステップ330に進み、実際の点Piの三次元位置(図8の(4))を計算して、ステップ240に戻る。 After end step 310 in FIG. 12, the process proceeds to step 330, to calculate the actual point three-dimensional position of Pi (in FIG. 8 (4)), the flow returns to step 240. このステップ330における三次元位置の計算は、撮像している点の三次元位置を計算するために行なわれる。 Calculation of the three-dimensional position in the step 330 is performed to calculate the three-dimensional position of the point being imaged. 具体的な処理手順を図19に示す。 The specific procedure shown in FIG. 19.

図6のステップ220で三次元位置を計算する際に、必要であれば、ステップ400で測定ヘッドの歪み(ディストーション)補正を行なって、高精度化を図る。 In calculating the three-dimensional position in step 220 of FIG. 6, if necessary, by performing distortion (distortion) compensation of the measuring head in step 400, improve the accuracy.

具体的には、投影光学系と撮像光学系は、図20に示すような歪みを持っているため、この歪みを考慮したカメラモデル式で補正する。 Specifically, the projection optical system and the imaging optical system, because it has distortion as shown in FIG. 20, for correcting the camera model equation in consideration of the distortion.

予め既知の格子パターンを撮影することによって得られた歪み座標(u dist ,v dist )から元のピンホール座標(x pin ,y pin )を求めるためのカメラモデル式の例を次に示す。 Pre distortion coordinates obtained by taking a known grid pattern (u dist, v dist) from the original pinhole coordinates (x pin, y pin) shown below is an example of a camera model formula for determining the.

dist =(u dist −u 0 )/f u 、y dist =(v dist −v 0 )/f v …(5) x dist = (u dist -u 0 ) / f u, y dist = (v dist -v 0) / f v ... (5)
pin =x dist +(g 1 +g 3 )x dist 2 +g 4distdist x pin = x dist + (g 1 + g 3) x dist 2 + g 4 x dist y dist
+g 1dist 2 +(k 12 +k 24 )x dist …(6) + G 1 y dist 2 + ( k 1 r 2 + k 2 r 4) x dist ... (6)
pin =x dist +g 2dist 2 +g 3distdist y pin = x dist + g 2 x dist 2 + g 3 x dist y dist
+(g 2 +g 4 )y dist 2 +(k 12 +k 24 )y dist …(7) + (G 2 + g 4) y dist 2 + (k 1 r 2 + k 2 r 4) y dist ... (7)
但し、r 2 =x dist 2 +y dist 2 However, r 2 = x dist 2 + y dist 2

一方、投影レンズによる歪みを補正するために、ピンホール座標(x pin ,y pin )から歪み座標(u dist ,v dist )を求める計算は、ニュートン法による収束計算で求めることができる。 Meanwhile, in order to correct the distortion by the projection lens, a pinhole coordinates (x pin, y pin) from the distortion coordinates (u dist, v dist) calculation for obtaining the can be determined by the convergence calculation according to Newton method. 具体的には次のようにして行なう。 Specifically performed as follows.

(1)初期値設定 (x dist ,y dist )=(x pin ,y pin ) …(8) (1) Initial value setting (x dist, y dist) = (x pin, y pin) ... (8)

(2)誤差計算 歪み座標(x dist ,y dist )を仮のピンホール座標(x temp ,y temp )へ変換し、求めたいピンホール座標との誤差(x err ,y err )を計算する。 (2) error calculation distortion coordinates (x dist, y dist) provisional pinhole coordinates (x temp, y temp) was converted into the error of the pinhole coordinates to be determined (x err, y err) is calculated.

(x err ,y err )=(x temp ,y temp )−(x pin ,y pin ) …(9) (X err, y err) = (x temp, y temp) - (x pin, y pin) ... (9)

(3)修正量計算 (∂x pin /∂x dist )=1+2(g 1 +g 3 )x dist +g 4dist (3) the correction amount calculation (∂x pin / ∂x dist) = 1 + 2 (g 1 + g 3) x dist + g 4 y dist
+k 1 (3x dist 2 +y dist 2 )+k 2 (5x dist 4 +6x dist 2dist 2 +y dist 4 + K 1 (3x dist 2 + y dist 2) + k 2 (5x dist 4 + 6x dist 2 y dist 2 + y dist 4)
…(10) …(Ten)
(∂x pin /∂y dist )=g 4dist +2g 1dist +2k 1distdist (∂x pin / ∂y dist) = g 4 x dist + 2g 1 y dist + 2k 1 x dist y dist
+4k 2 (x dist 3dist +x distdist 3 ) …(11) + 4k 2 (x dist 3 y dist + x dist y dist 3) ... (11)
(∂y pin /∂x dist )=2g 2dist +g 3dist +2k 1distdist (∂y pin / ∂x dist) = 2g 2 x dist + g 3 y dist + 2k 1 x dist y dist
+4k 2 (x dist 3dist +x distdist 3 ) …(12) + 4k 2 (x dist 3 y dist + x dist y dist 3) ... (12)
(∂y pin /∂y dist )=1+g 3dist +2(g 2 +g 4 )y dist (∂y pin / ∂y dist) = 1 + g 3 y dist +2 (g 2 + g 4) y dist
+k 1 (x dist 2 +3y dist 2 )+k 2 (x dist 4 +6x dist 2dist 2 +5y dist 4 + K 1 (x dist 2 + 3y dist 2) + k 2 (x dist 4 + 6x dist 2 y dist 2 + 5y dist 4)
…(13) …(13)

ただし、第2項による影響量は小さいことより、及び計算量を少なくするため、第2項を省略して、以下により計算してもよい。 However, from the influence amount of the second term is small, and to reduce the amount of calculation, by omitting the second term may be calculated by the following.

(4)歪み座標の修正 (x dist ,y dist )=(x dist ,y dist )−(x diff ,y diff ) …(16) (4) Correction of distortion coordinates (x dist, y dist) = (x dist, y dist) - (x diff, y diff) ... (16)

(5)収束判定 例えば(x diff <ε)、且つ(y diff <ε)であれば収束計算を終了させる。 (5) convergence determination example (x diff <epsilon), and terminates the and convergence calculation if (y diff <epsilon). そうでなければ、(2)に戻って座標を修正する。 Otherwise, modify the coordinates back to (2).

ここで、f u 、f vは焦点距離(X軸、Y軸)、u 0 、v 0は画像中心を表わす線形パラメータ、k 1 、k 2はラジアル方向の歪み係数、g 0 、g 1 、g 2 、g 3は、直交方向の歪み係数を表わす歪みパラメータである。 Here, f u, f v is the focal length (X-axis, Y-axis), u 0, v 0 is the linear parameters representing the image center, k 1, k 2 is the distortion coefficient in the radial direction, g 0, g 1, g 2, g 3 is a distortion parameters representing the distortion coefficient in the orthogonal direction.

発明者の実験によれば、前記カメラモデルでε=1×e -8の場合、平均1.5回、最大6回程度で収束する。 According to the inventors' experiments, the case in camera model ε = 1 × e -8, average 1.5 times, converge at a maximum of about 6 times.

なお、歪み補正に関しては、次の文献に詳しく記載されている。 Regarding the distortion correction is described in detail in the following literature.

Juyang Weng,”Camera Calibration with Distortion Models and Accuracy Evaluation”IEEE Trans. Juyang Weng, "Camera Calibration with Distortion Models and Accuracy Evaluation" IEEE Trans. Patt. Patt. Anal. Anal. Maching Intell. Maching Intell. vol. vol. 14,no. 14, no. 4,pp965−980 4, pp965-980
Zhengyou Zhang,”AFlexible New Technique for Camera Calibration”Dec. Zhengyou Zhang, "AFlexible New Technique for Camera Calibration" Dec. 2.1998,MSR−TR−98−71 2.1998, MSR-TR-98-71

なお、図19のステップ342〜354で、Newton−Raphson法により収束計算を行なっているのは、歪みが非線形であるので、その影響を除くためである。 In step 342 to 354 in FIG. 19, what performing convergence calculation by Newton-Raphson method, since distortion is nonlinear, it is to remove the influence.

このようにして、レンズ光学系とシフト機構系の歪みを補正することにより、XY方向の測定精度を高めることができる。 In this way, by correcting the distortion of the lens optical system and the shift mechanism system, it is possible to increase the XY direction of the measurement accuracy. なお、用途によっては歪みの補正を省略することもできる。 It is also possible to omit the correction of distortion depending on the application.

具体的な実施例のシステム構成を図21に示す。 FIG. 21 shows a system configuration of a specific example.

本実施例は、格子パターンを投影する投影部、及び、異なる視点から撮像する撮像部を持つ測定ヘッド40と、撮像した画像データから三次元マップを計算する計算機(PC)50と、これらを接続するケーブル60とを含んで構成されている。 This embodiment, connecting projection unit for projecting the grating pattern, and a measuring head 40 having an imaging unit for imaging from different viewpoints, and a computer (PC) 50 for calculating a three-dimensional map from the image data obtained by imaging, these It is configured to include a cable 60 to.

前記測定ヘッド40は、具体的には、図22(上から見た断面図)及び図23(図22のXXIII−XXIII線に沿う横断面図)に示す如く、格子フィルタ12を一定速度で移動させる格子シフト機構16と、格子パターンを投影するための照明ランプ10と、投影された格子パターンを撮像するための撮像素子(カメラ)22と、投影光学系のフォーカスを一定速度で移動させる第1のフォーカスシフト機構18と、撮像光学系のフォーカスを一定速度で移動させる第2のフォーカスシフト機構24と、フォーカスをシフトしても、ピクセルに写っているワーク上の撮像点が変化しないような、像側テレセントリック光学系を持つ投影レンズ15B、及び、撮像レンズ21と、格子フィルタ12のシフト量を検出して、カメラ22へ撮像タイミング信 The measuring head 40 is, specifically, as shown in FIG. 22 (cross-sectional view as viewed from above) and 23 (cross-sectional view taken along the line XXIII-XXIII of FIG. 22), moves the grating filter 12 at a constant speed a grating shift mechanism 16 to an illumination lamp 10 for projecting a grating pattern, an image pickup device (camera) 22 for capturing an image projected grid pattern, first move the focus of projection optical system at a constant rate and the focus shift mechanism 18, a second focus shift mechanism 24 for moving the focus of the imaging optical system at a constant speed, even if shifting the focus, such as an imaging point on the workpiece that is reflected in the pixel is not changed, projection lens 15B having the image-side telecentric optical system, and an imaging lens 21, by detecting the shift amount of the grating filter 12, an imaging timing signal to the camera 22 号を生成するカメラ制御ボード42と、格子シフト機構16の駆動装置とフォーカスシフト機構18、24の駆動装置を、同期させて移動させる制御回路(図示省略)と、撮像するときに照明ランプ10を点灯させるプロジェクタ制御ボード44とを備えている。 A camera control board 42 that generates a No., the drive of the drive unit and the focus shift mechanism 18 and 24 of the grating shift mechanism 16, a control circuit for moving in synchronization with the (not shown), the illumination lamp 10 when imaged and a projector control board 44 to be lighted. 図において、46は例えば手動の絞り、48は冷却ファンである。 In FIG, 46, for example Manual diaphragm, 48 is a cooling fan.

ここで投影光学系(15)及び撮像光学系(21)を像側テレセントリックとしているのは、フォーカスをシフトしても、ピクセルに写っている測定ワーク8上の撮像点が変化しないようにするためである。 Here are you projection optical system (15) and the imaging optical system (21) and the image-side telecentric also shifts the focus, so that the imaging point on the measurement workpiece 8 that is reflected in the pixel is not changed it is.

前記計算機50は、測定ヘッド40の撮像素子22から入力した画像をキャプチャするフレームグラバ52と、測定ヘッド40のシフト機構16、18、24を制御するモーション制御ボード54と、測定ヘッド40を制御するための、フォーカスと位相を同時にシフトさせながら、連続画像を入力し、計算機50のメインメモリへ転送する機能、測定ヘッド40の測定範囲に相当する画像をライブ表示する機能、及び、測定の奥行き範囲を設定する機能を有するソフトウェア(図示省略)と、三次元マップを作成するための、フォーカスシフトにより振幅が変動する濃淡波形から、フォーカス中心を計算する機能、フォーカス中心付近の濃淡波形の位相を計算する機能、フォーカス中心データを使って位相をアンラップする機能、光学系の The computer 50 includes a frame grabber 52 for capturing the image input from the imaging device 22 of the measuring head 40, the motion control board 54 for controlling the shift mechanism 16,18,24 of the measuring head 40, and controls the measuring head 40 for, while simultaneously shifting the focus and phase, enter the continuous image, a function of transferring the computer 50 to the main memory, the ability to live display an image corresponding to the measurement range of the measuring head 40, and, the depth range of the measurement and software (not shown) having a function of setting, for creating a three-dimensional map, a shading waveform whose amplitude varies with the focus shift, the ability to calculate the focus center, calculate the phase of the shading waveform in the vicinity of the focus center functions, the ability to unwrap the phase with the focus center data, the optical system みを考慮して、画像上の座標を補正する機能、撮像素子22のピクセルを起点とするエピポーララインと、格子パターン投影の格子面の交点を求め、ピクセルに投影されている三次元位置を計算する機能、画像データが正常に入力できたことを確認できるように、入力した連続画像を再生する機能、作成した三次元マップを表示する機能、及び、三次元マップの点群データを、IGESなどのCADフォーマットで保存する機能を有するソフトウェア(図示省略)を備えている。 Taking into account only the ability to correct the coordinates on the image, and epipolar lines originating from the pixels of the imaging device 22 obtains an intersection of the grating surface of the grating pattern projected, the three-dimensional position which is projected to the pixel calculation ability to, so as to be sure that the image data has been entered correctly, the ability to reproduce a continuous image input function of displaying a three-dimensional map created, and the point cloud data of the three-dimensional map, IGES, etc. and a software (not shown) having a function of storing in a CAD format.

本実施例により測定ワーク(ここでは自動車)8を測定している様子を図24に示す。 Measuring the workpiece by the present embodiment (where the car) showing a state of measuring 8 in Figure 24.

以下、撮像枚数を128枚とし、投影側と撮像側の間隔を500mmに設定した測定例を説明する。 Hereinafter, the number of imaging is 128 sheets, explaining the example of measurement of the distance between the projection side and the imaging side was set to 500 mm. ここで、間隔を広くすると、縞次数間が狭まり、分解能が上がる。 Here, when widening the gap, narrowed between fringe order, the resolution is increased. 今、測定ワーク8が図25に示すような形状の実物大の自動車であり、測定範囲がX方向4000mm×Y方向3000mm×Z方向2000mm、ワーク中心迄の距離が4800mm、画像サイズが320×240ピクセルであったとすると、焦点深度が無限大のピンホール光学系のときは、図26に示すように、手前から奥まではっきりと格子パターンが投影され、撮像される。 Now, the measurement work 8 is full size car having a shape as shown in FIG. 25, the measuring range is X-direction 4000 mm × Y-direction 3000 mm × Z direction 2000 mm, distance to the work center 4800 mm, the image size is 320 × 240 when the a pixel, when the focal depth is infinite pinhole optical system, as shown in FIG. 26, is clearly grating pattern from the front to the back is projected and imaged. 一方、実際の光学系は、焦点深度が有限であるので、図27のように、焦点位置によって格子パターンの投影範囲が制限される。 Meanwhile, the actual optical system, since the depth of focus is limited, as in FIG. 27, the projection range of the grating pattern is restricted by the focal position.

次に、三次元マップを作成する過程を図28乃至図31に示す。 Next, a process of creating a three-dimensional map in FIG. 28 through FIG. 31. 今、フォーカス中心画像のみから求めた三次元マップが、フルスケールの奥行き表現で図28(a)、200mmピッチの奥行き表現で図28(b)に示す如くであった場合、位相画像は図29、アンラップ位相画像は図30に示す如くとなり、最終的に得られる三次元マップ画像は、フルスケールの奥行き表現で図31(a)、200mmピッチの奥行き表現で図31(b)に示す如くとなる。 Now, if the three-dimensional map obtained from only the focus center image, Figure 28 depth representation of full scale (a), were as shown in FIG. 28 (b) in the depth representation of 200mm pitch, phase images 29 , unwrapped phase image becomes as shown in FIG. 30, finally obtained three-dimensional map image, and as shown in FIG. 31 in the depth representation of full scale (a), FIG. 31 in the depth representation of 200mm pitch (b) Become. 図では分かり難いが、特に200mmピッチの奥行き表現の場合、図31(b)は図28(b)に比べて滑らかな形状が得られていることは明らかである。 Although difficult to understand in the figure, especially in the case of the depth representation of 200mm pitch, Fig 31 (b) it is clear that smooth shape is obtained as compared with FIG. 28 (b).

実機を想定したノイズ成分を付加したデータの測定結果の誤差を図30に示す。 The error in the measurement result data by adding an assumed noise component of actual shown in FIG. タイヤは光が返ってこないため、ノイズに埋もれて低精度となっているが、他の部分については高精度な測定結果が得られている。 Since tires are not returned light, but buried in the noise and has a low accuracy, highly accurate measurement results are obtained for other portions.

なお、前記実施例では自動車が測定対象とされていたが、測定対象の種類は、これに限定されない。 Although vehicle in the embodiments have been measured, the type of the measurement target is not limited thereto. 光源も、キセノンフラッシュやハロゲンランプに限定されない。 Light source is not limited to the xenon flash or halogen lamps.

次に、画像測定機での実施例について説明する。 Next, a description will be given of an embodiment of an image measuring machine. この実施例は、(1)画像測定機の撮像光学系(測定光学系)はそのまま使用して、投影光学系を追加する、あるいは、(2)画像測定機の撮像光学系を使用せずに、図33に示す如く、撮像光学系及び投影光学系が組み込まれた測定ヘッド40を画像測定機のZ軸へ、上記画像測定機の撮像光学系と並列に取り付け、格子シフト及びフォーカスシフトを画像測定機のZ軸駆動により行う方法がある。 This example (1) image measuring apparatus of the imaging optical system (measurement optical system) as it is used to add a projection optical system, or without using an imaging optical system (2) image measuring apparatus , as shown in FIG. 33, the measuring head 40 which imaging optical system and the projection optical system is incorporated into the Z-axis of the image measuring machine, mounted in parallel to the imaging optical system of the image measuring machine, grating shift and the focus shift image a method of performing a Z-axis driving measuring machine.

図33の実施例では、格子シフト機構とフォーカスシフト機構は、Z軸方向のガイド機構60で代用できる。 In the embodiment of FIG. 33, the grating shift mechanism and the focus shift mechanism, can be replaced by the Z-axis direction of the guide mechanism 60. フォーカスシフトは、現行の画像測定機と同様に測定ヘッド40自体がZ軸方向に上下して行う。 Focus shift is likewise measuring head 40 itself and the current image measuring machine performs up and down in the Z axis direction. 格子パターンは斜めから投影されるので、測定ヘッド40が上下することで、測定ワーク8へ投影される格子パターンが移動し、位相シフトされる。 Since the grating pattern is projected from an oblique, that the measuring head 40 up and down, the grating pattern projected to the measurement work 8 is moved, is phase shifted. フォーカスシフト速度と位相シフト速度は、投影光学系の角度の調節か、格子間隔の調節で、設定する。 Focus shift speed and the phase shift rate is adjusted or the angle of the projection optical system, the regulation of the lattice spacing is set.

図において、6は測定ワーク8が載置されているステージ、11は発光素子、15、21はそれぞれ両側テレセントリックの投影レンズ及び撮像レンズ、45は照明制御回路、62はZ軸ガイド機構の送りモータ、64は該送りモータ62を制御するためのモーション制御ユニットである。 In the figure, the stage measured workpiece 8 is mounted is 6, the light emitting element 11, each double telecentric projection lens and the imaging lens 15 and 21, 45 is illumination control circuit, 62 is a feed motor of the Z-axis guide mechanism 64 is a motion control unit for controlling the motor 62 Ri said transmission.

(2)の方法であると、画像測定機に限らず、三次元測定機(Z軸がモータで、一定速で駆動できるタイプの三次元測定機)にも取り付けて使用することができる。 If it is the method of (2), not limited to the image measuring machine, (in Z-axis motor, the type of coordinate measuring machine which can be driven at a constant speed) the coordinate measuring machine can be used by mounting to. いずれの場合も、格子パターンが斜めから投影されるため、Z軸方向の移動のみで良い。 In either case, since the grating pattern is projected from an oblique may only move in the Z-axis direction.

又、前記説明では、格子シフト機構及びフォーカスシフト機構が、いずれも一定速度で移動するようにされていたが、シフト位置が把握できれば、一定速度で移動しなくても良い。 Further, in the above description, grating shift mechanism and the focus shift mechanism, but both were to move at a constant speed, if the shift position is grasped, may not move at a constant speed.

従来の格子投影型モアレ法の測定原理を示す光路図 Optical path diagram showing a measurement principle of a conventional grid projection type moire method 従来の実体格子型モアレ法の測定原理を示す光路図 Optical path diagram showing a measurement principle of a conventional real lattice Moire 従来の格子パターン投影+位相シフトによる非接触形状測定法の原理を示す斜視図 Perspective view showing the principle of non-contact shape measuring method according to the conventional fringe pattern projection + phase shift 同じく光路図 Also the optical path diagram 本発明の測定原理を示す斜視図 Perspective view showing the measurement principle of the present invention 本発明による測定の手順を示す流れ図 Flowchart illustrating a procedure of measurement according to the invention 本発明における、あるピクセルの濃淡波形の例を示すタイムチャート In the present invention, a time chart showing an example of a shading waveform of a pixel 同じくフォーカスと位相の関係を示す光路図 Also optical path diagram showing a relationship between the focus and the phase 同じく格子面とエピポーララインの交点を示す斜視図 Similarly perspective view showing the intersection of the grating surface and the epipolar line 同じく画像データ入力の手順を示す流れ図 Flowchart similarly showing a procedure of the image data input 同じく画素の走査方法を示す図 Figure similarly shows the scanning method of a pixel 同じく三次元マップ作成の手順を示す流れ図 Flow chart also shows a three-dimensional map creation of procedure 同じくオフセット成分と揺らぎ成分の除去の手順の一例を示す流れ図 Flow similarly showing an example of a procedure of removing the offset component and fluctuation component 同じくオフセット成分と揺らぎ成分の除去の手順の他の例を示す流れ図 Flow also showing another example of the procedure of the removal of the offset component and fluctuation component 同じくフォーカス中心計算の手順を示す流れ図 Flowchart similarly showing a procedure of the focus center calculation 同じく位相計算の手順を示す流れ図 Flowchart similarly showing a procedure of a phase calculation 同じく詳細を示す図 Figure also shows the details 同じく位相のアンラップの手順を示す流れ図 Flowchart similarly showing a procedure of unwrapped phase 同じく三次元位置計算の手順を示す流れ図 Flowchart similarly showing a procedure of a three-dimensional position calculation 同じく歪み補正の原理を示す斜視図 Perspective view also showing the principle of the distortion correction 具体的な実施例のシステム構成を示す図 It illustrates a system configuration of a specific example 実施例で用いた測定ヘッドの構成を示す断面図 Sectional view showing a measurement head used in Examples 図21のXXIII−XXIII線に沿う横断面図 Cross-sectional view taken along the line XXIII-XXIII of FIG. 21 実施例における測定の様子を示す斜視図 Perspective view showing a state of measurement in Examples 測定ワークを示す図 It shows the measurement work 焦点深度が無限大のピンホール光学系を用いたときの格子投影画像を示す図 Shows a grid projected image when the focal depth using a pinhole optics infinity 実際の光学系の格子投影画像を示す図 It shows the actual grid projection image of the optical system 三次元マップを作成する過程のフォーカス中心画像を示す図 It shows a focus central image of the process of creating a three-dimensional map 同じく位相画像を示す図 Figure similarly shows the phase image 同じくアンラップ位相画像を示す図 Figure similarly shows the unwrapped phase image 同じく三次元マップ画像の例を示す図 Figure similarly shows an example of a three-dimensional map image 同じく誤差分布画像の例を示す図 Figure similarly shows an example of error distribution image 画像測定機に搭載した実施例の構成を示す図 It shows the configuration of the embodiment is mounted to the image measuring machine

符号の説明 DESCRIPTION OF SYMBOLS

6…ステージ 8…測定ワーク 10…照明ランプ 11…発光素子 12…格子フィルタ 15、15A、15B…投影レンズ 16…格子シフト機構 18、24…フォーカスシフト機構 21…撮像レンズ 22…撮像素子 40…測定ヘッド 50…計算機(PC) 6 ... Stage 8 ... measuring workpiece 10 ... illuminating lamp 11 ... light-emitting element 12 ... grating filter 15, 15A, 15B ... projection lens 16 ... grating shift mechanism 18, 24 ... focus shift mechanism 21 ... imaging lens 22 ... imaging device 40 ... measurement head 50 ... computer (PC)
60…Z軸ガイド機構 62…送りモータ 60 ... Z-axis guide mechanism 62 ... feed motor

Claims (21)

  1. 位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定方法において、 The grating pattern projected to the measurement object while shifting the phase by observing from a different direction to the projection direction, so as to obtain a shape contrast deformed grating image according to the shape of the measuring object by analyzing the non-contact three-dimensional shape measurement method,
    投影側と撮像側のフォーカスを連続的にシフトさせて、奥行き方向の測定範囲を拡大したことを特徴とする非接触三次元形状測定方法。 Non-contact three-dimensional shape measuring method characterized in that the focus of the projection-side and the imaging side continuously shifted and expanded measurement range in the depth direction.
  2. 一定速度でフォーカスと位相をシフトさせながら、連続的に前記測定対象の画像データを入力するステップと、 While shifting the focus and phase at a constant speed, comprising the steps of: inputting image data continuously the measurement target,
    入力したデータを計算機内で処理して、三次元マップを作成するステップと を含むことを特徴とする請求項1に記載の非接触三次元形状測定方法。 The input data is treated in the computer, a non-contact three-dimensional shape measuring method according to claim 1, characterized in that it comprises a step of creating a three-dimensional map.
  3. 前記三次元マップを作成するステップが、 Step to create the three-dimensional map,
    フォーカス中心から縞次数を決定して、位相をアンラップし、位相の絶対値を計算するステップと、 A step of determining the fringe order from the focus center, unwrapping the phase, calculates the absolute value of the phase,
    縞次数の格子面と撮像点のエピポーララインの交点の三次元位置を計算するステップと、 Calculating a three-dimensional position of the intersection of the epipolar line of the fringe order of the grating surface and the imaging point,
    を含むことを特徴とする請求項2に記載の非接触三次元形状測定方法。 Non-contact three-dimensional shape measuring method according to claim 2, characterized in that it comprises a.
  4. 前記三次元マップを作成するステップが、更に、 The step of creating the three-dimensional map, further,
    画像座標の濃淡波形を抽出するステップと、 Extracting a gray waveform of image coordinates,
    該濃淡波形のオフセット成分と揺らぎ成分を除去するステップと、 Removing the offset component and fluctuation component of the concentrated light wave,
    フォーカス中心を計算するステップと、 Calculating a focus center,
    フォーカス中心の位相を計算するステップと、 Calculating a focus center of the phase,
    を含むことを特徴とする請求項3に記載の非接触三次元形状測定方法。 Non-contact three-dimensional shape measuring method according to claim 3, characterized in that it comprises a.
  5. 前記濃淡波形のオフセット成分と揺らぎ成分を除去するステップが、濃淡波形の微分波形を計算するものであることを特徴とする請求項4に記載の非接触三次元形状測定方法。 Wherein said step of removing the offset component and fluctuation component of shading waveforms, non-contact three-dimensional shape measuring method according to claim 4, characterized in that to calculate the differential waveform of the shading waveform.
  6. 前記濃淡波形のオフセット成分と揺らぎ成分を除去するステップが、前記濃淡波形のある位相シフト量近傍±πの濃淡値を平均するものであることを特徴とする請求項4に記載の非接触三次元形状測定方法。 Removing the offset component and fluctuation component of the shading waveform is a non-contact three-dimensional claim 4, wherein the is to average the gray value of the phase shift amount near ± [pi with gray waveform shape measuring method.
  7. 前記フォーカス中心を計算するステップが、nデータおきの濃淡変化の曲線の2乗波形それぞれについて、度数平均値を求め、抽出波形の山の高さに対応した係数による重み係数を付けて平均して求めるものであることを特徴とする請求項4に記載の非接触三次元形状測定方法。 Said step of calculating a focus center, each square wave of the curve n data every shade change, determine the power average value by averaging with a weight coefficient by a factor corresponding to the height of the mountain extraction waveform non-contact three-dimensional shape measuring method according to claim 4, characterized in that to determine.
  8. 前記フォーカス中心の位相を計算するステップが、マザーウェーブと積算し、フーリエ積分することによって、位相を求めるものであることを特徴とする請求項4に記載の非接触三次元形状測定方法。 Calculating the focus center of the phase is, by integrating the mother wave by Fourier integral, non-contact three-dimensional shape measuring method according to claim 4, characterized in that to determine the phase.
  9. 位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定装置において、 The grating pattern projected to the measurement object while shifting the phase by observing from a different direction to the projection direction, so as to obtain a shape contrast deformed grating image according to the shape of the measuring object by analyzing the non-contact three-dimensional shape measuring apparatus,
    フォーカスと位相をシフトさせながら、測定対象に格子パターンを投影する手段と、 While shifting the focus and phase, and means for projecting a grating pattern to the measured object,
    フォーカスをシフトさせながら測定対象に投影されたパターンの画像データを入力する手段と、 It means for inputting the image data of the pattern projected to the measurement object while shifting the focus,
    入力された画像データを処理して、三次元マップを作成する手段と、 Processes the input image data, means for creating a three-dimensional map,
    を備えたことを特徴とする非接触三次元形状測定装置。 Non-contact three-dimensional shape measuring apparatus comprising the.
  10. 前記三次元マップを作成する手段が、 It means for creating the three-dimensional map,
    フォーカス中心から縞次数を決定して、位相をアンラップし、位相の絶対値を計算する手段と、 Determines the line order from the focus center, and means for unwrapping the phase, calculates the absolute value of the phase,
    縞次数の格子面と撮像点のエピポーララインの交点の三次元位置を計算する手段と、 It means for calculating the three-dimensional position of the intersection of the epipolar line of the fringe order of the grating surface and the imaging point,
    を含むことを特徴とする請求項9に記載の非接触三次元形状測定装置。 Non-contact three-dimensional measuring apparatus according to claim 9, characterized in that it comprises a.
  11. 投影光学系と撮像光学系の歪みを補正する手段を更に備えたことを特徴とする請求項9に記載の非接触三次元形状測定装置。 Non-contact three-dimensional measuring apparatus according to claim 9, further comprising a means for correcting the distortion of the projection optical system and the imaging optical system.
  12. 投影光学系と撮像光学系が一つのシフト機構に搭載され、Z軸方向に駆動されることを特徴とする請求項9に記載の非接触三次元形状測定装置。 A projection optical system and the imaging optical system is mounted on one of the shift mechanism, a non-contact three-dimensional measuring apparatus according to claim 9, characterized in that it is driven in the Z-axis direction.
  13. 前記パターン投影手段が、 The pattern projection means,
    格子フィルタを横方向に移動させる格子シフト機構と、 Lattice shift mechanism for moving the grating filter in the horizontal direction,
    該格子シフト機構ごと、格子フィルタを前後方向に移動させる第1のフォーカスシフト機構と、 The grid for each shift mechanism, a first focus shift mechanism for moving the grating filter in the longitudinal direction,
    を含むことを特徴とする請求項9に記載の非接触三次元形状測定装置。 Non-contact three-dimensional measuring apparatus according to claim 9, characterized in that it comprises a.
  14. 前記画像データ入力手段が、 The image data input means,
    撮像素子を前後方向に移動させる第2のフォーカスシフト機構を含むことを特徴とする請求項9に記載の非接触三次元形状測定装置。 Non-contact three-dimensional measuring apparatus according to claim 9, characterized in that it comprises a second focus shift mechanism for moving the imaging device in the front-rear direction.
  15. 前記パターン投影手段の投影レンズと、前記画像データ入力手段の撮像レンズが、いずれも像側テレセントリック光学系とされていることを特徴とする請求項9に記載の非接触三次元形状測定装置。 A projection lens of the pattern projection unit, an image pickup lens of the image data input means, non-contact three-dimensional measuring apparatus according to claim 9, characterized in that both are the image-side telecentric optical system.
  16. 前記パターン投影手段で格子フィルタを移動させる第1のフォーカスシフト機構と、前記画像データ入力手段で撮像素子を移動させる第2のフォーカスシフト機構が同期して駆動されることを特徴とする請求項9に記載の非接触三次元形状測定装置。 Claim 9, characterized in that the first focus shift mechanism for moving the grating filter in the pattern projection unit, the second focus shift mechanism for moving the image sensor in the image data input means is driven synchronously non-contact three-dimensional measuring apparatus according to.
  17. 前記投影パターンの位相シフト量に対応して点灯される照明手段を更に備えたことを特徴とする請求項9に記載の非接触三次元形状測定装置。 Non-contact three-dimensional measuring apparatus according to claim 9, further comprising a lighting means which is turned on in response to the phase shift amount of the projection pattern.
  18. 前記パターン投影手段と画像データ入力手段が、測定ヘッドに一体化されていることを特徴とする請求項9に記載の非接触三次元形状測定装置。 The pattern projection unit and the image data input means, non-contact three-dimensional measuring apparatus according to claim 9, characterized in that it is integrated in the measuring head.
  19. 前記三次元マップ作成手段が計算機で構成され、 The three-dimensional map maker is composed of a computer,
    該計算機が、測定ヘッドの撮像素子から入力した画像をキャプチャするフレームグラバと、測定ヘッドのシフト機構を制御するモーション制御ボードと、測定ヘッドを制御するための、フォーカスと位相を同時にシフトさせながら、連続画像を入力し、計算機のメインメモリへ転送する機能、測定ヘッドの測定範囲に相当する画像をライブ表示する機能、及び、測定の奥行き範囲を設定する機能を有するソフトウェアと、三次元マップを作成するための、フォーカスシフトにより振幅が変動する濃淡波形から、フォーカス中心を計算する機能、フォーカス中心付近の濃淡波形の位相を計算する機能、フォーカス中心データを使って位相をアンラップする機能、光学系の歪みを考慮して、画像上の座標を補正する機能、撮像素子のピクセルを起 The computer includes a frame grabber to capture an image input from the imaging element of the measuring head, and motion control board for controlling the shifting mechanism of the measuring head, for controlling the measuring head, while simultaneously shifting the focus and phase, enter a continuous image, a function of transferring computer to the main memory, the ability to live display an image corresponding to the measurement range of the measuring head, and the software having a function of setting the depth range of the measurement, creating a three-dimensional map for from shading waveform varying amplitude by the focus shift, the ability to calculate the focus center, the ability to calculate the phase of the shading waveform in the vicinity of the focus center, the ability to unwrap the phase with the focus center data, the optical system taking into account the distortion function of correcting the coordinates on the image, the image sensor pixel electromotive とするエピポーララインと、格子パターン投影の格子面の交点を求め、ピクセルに投影されている三次元位置を計算する機能、画像データが正常に入力できたことを確認できるように、入力した連続画像を再生する機能、作成した三次元マップを表示する機能、及び、三次元マップの点群データを、CADフォーマットで保存する機能を有するソフトウェアを備えたことを特徴とする請求項9又は10に記載の非接触三次元形状測定装置。 And epipolar line to, obtain the intersection of the lattice plane of the grating pattern projected, the ability to calculate the three-dimensional position which is projected to the pixel, so it can be confirmed that the image data has been entered successfully, the input and continuous image ability to play a function of displaying a three-dimensional map created, and, wherein the point cloud data of the three-dimensional map, to claim 9 or 10, characterized in that it comprises software having a function of storing in CAD format non-contact three-dimensional shape measuring apparatus.
  20. 前記画像データ入力手段が、画像測定機の撮像光学系を利用したものであることを特徴とする請求項9に記載の非接触三次元形状測定装置。 The image data input means, non-contact three-dimensional measuring apparatus according to claim 9, characterized in that it utilizes the imaging optical system of the image measuring machine.
  21. 前記測定ヘッドが画像測定機のZ軸へ、該画像測定機の撮像光学系と並列に取り付けられ、格子シフト及びフォーカスシフトが画像測定機のZ軸駆動により行われることを特徴とする請求項18に記載の非接触三次元形状測定装置。 Wherein the Z-axis of the measuring head image measuring machine, mounted in parallel with the imaging optical system of the image measuring machine, according to claim grating shift and the focus shift is characterized by being performed by the Z-axis drive of the vision measuring machine 18 non-contact three-dimensional measuring apparatus according to.
JP2004071128A 2003-03-31 2004-03-12 Non-contact three-dimensional shape measuring method and device Active JP4255865B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003096712 2003-03-31
JP2004071128A JP4255865B2 (en) 2003-03-31 2004-03-12 Non-contact three-dimensional shape measuring method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004071128A JP4255865B2 (en) 2003-03-31 2004-03-12 Non-contact three-dimensional shape measuring method and device

Publications (2)

Publication Number Publication Date
JP2004317495A true true JP2004317495A (en) 2004-11-11
JP4255865B2 JP4255865B2 (en) 2009-04-15

Family

ID=33478741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004071128A Active JP4255865B2 (en) 2003-03-31 2004-03-12 Non-contact three-dimensional shape measuring method and device

Country Status (1)

Country Link
JP (1) JP4255865B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007315865A (en) * 2006-05-24 2007-12-06 Canon Machinery Inc Three-dimensional displacement measuring device and measuring method
DE112006003100T5 (en) 2005-11-07 2010-06-02 Daihatsu Motor Co., Ltd., Ikeda Shape recognition device and strain evaluation device
JP2010271199A (en) * 2009-05-21 2010-12-02 Canon Inc Three-dimensional shape measuring device, three-dimensional shape measuring method, and computer program
JP2010537183A (en) * 2007-08-17 2010-12-02 レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company Non-contact probe
JP2011107140A (en) * 2009-11-20 2011-06-02 Mitsutoyo Corp Apparatus and method for determining height map of surface of object
US7962303B2 (en) 2005-08-30 2011-06-14 Daihatsu Motor Co., Ltd. Distortion evaluating apparatus and distortion evaluating method
JP2012083233A (en) * 2010-10-12 2012-04-26 Canon Inc Three-dimensional shape measurement apparatus, three-dimensional shape measurement method and computer program
JP2013213769A (en) * 2012-04-03 2013-10-17 Canon Inc Image processing device, image processing method, and program
CN103900494A (en) * 2014-03-31 2014-07-02 中国科学院上海光学精密机械研究所 Homologous point rapid matching method used for binocular vision three-dimensional measurement
JP2015114309A (en) * 2013-12-16 2015-06-22 株式会社オプトン Measuring device
KR101530930B1 (en) * 2008-08-19 2015-06-24 삼성전자주식회사 Pattern projection apparatus comprising: a three-dimensional image forming apparatus having the same, and a variable focus liquid lens used therein
KR101541805B1 (en) 2014-07-01 2015-08-05 경북대학교 산학협력단 Method And Camera Apparatus For Depth Sectioning Using Structured Illumination
US9329030B2 (en) 2009-09-11 2016-05-03 Renishaw Plc Non-contact object inspection
CN106168466A (en) * 2015-05-21 2016-11-30 财团法人工业技术研究院 Full-range image detecting system and method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272573B1 (en) 2011-11-17 2013-06-10 재단법인대구경북과학기술원 Apparatus and Method for Estimating Depth Information Based Structured Light Pattern

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7962303B2 (en) 2005-08-30 2011-06-14 Daihatsu Motor Co., Ltd. Distortion evaluating apparatus and distortion evaluating method
DE112006003100B4 (en) * 2005-11-07 2012-07-19 Daihatsu Motor Co., Ltd. Shape recognition device and strain evaluation device
DE112006003100T5 (en) 2005-11-07 2010-06-02 Daihatsu Motor Co., Ltd., Ikeda Shape recognition device and strain evaluation device
JP2007315865A (en) * 2006-05-24 2007-12-06 Canon Machinery Inc Three-dimensional displacement measuring device and measuring method
USRE46012E1 (en) 2007-08-17 2016-05-24 Renishaw Plc Non-contact probe
JP2010537183A (en) * 2007-08-17 2010-12-02 レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company Non-contact probe
US8923603B2 (en) 2007-08-17 2014-12-30 Renishaw Plc Non-contact measurement apparatus and method
US8792707B2 (en) 2007-08-17 2014-07-29 Renishaw Plc Phase analysis measurement apparatus and method
KR101530930B1 (en) * 2008-08-19 2015-06-24 삼성전자주식회사 Pattern projection apparatus comprising: a three-dimensional image forming apparatus having the same, and a variable focus liquid lens used therein
JP2010271199A (en) * 2009-05-21 2010-12-02 Canon Inc Three-dimensional shape measuring device, three-dimensional shape measuring method, and computer program
US9329030B2 (en) 2009-09-11 2016-05-03 Renishaw Plc Non-contact object inspection
JP2011107140A (en) * 2009-11-20 2011-06-02 Mitsutoyo Corp Apparatus and method for determining height map of surface of object
JP2012083233A (en) * 2010-10-12 2012-04-26 Canon Inc Three-dimensional shape measurement apparatus, three-dimensional shape measurement method and computer program
JP2013213769A (en) * 2012-04-03 2013-10-17 Canon Inc Image processing device, image processing method, and program
US9605961B2 (en) 2012-04-03 2017-03-28 Canon Kabushiki Kaisha Information processing apparatus that performs three-dimensional shape measurement, information processing method, and storage medium
JP2015114309A (en) * 2013-12-16 2015-06-22 株式会社オプトン Measuring device
WO2015093194A1 (en) * 2013-12-16 2015-06-25 株式会社オプトン Measurement device
CN103900494A (en) * 2014-03-31 2014-07-02 中国科学院上海光学精密机械研究所 Homologous point rapid matching method used for binocular vision three-dimensional measurement
KR101541805B1 (en) 2014-07-01 2015-08-05 경북대학교 산학협력단 Method And Camera Apparatus For Depth Sectioning Using Structured Illumination
CN106168466A (en) * 2015-05-21 2016-11-30 财团法人工业技术研究院 Full-range image detecting system and method thereof

Also Published As

Publication number Publication date Type
JP4255865B2 (en) 2009-04-15 grant

Similar Documents

Publication Publication Date Title
US6445814B2 (en) Three-dimensional information processing apparatus and method
US5671056A (en) Three-dimensional form measuring apparatus and method
US4842411A (en) Method of automatically measuring the shape of a continuous surface
US6519359B1 (en) Range camera controller for acquiring 3D models
US20020113973A1 (en) Method of detecting posture of object and apparatus using the same
US20070097381A1 (en) Hand-size structured-light three-dimensional metrology imaging system and method
US5307151A (en) Method and apparatus for three-dimensional optical measurement of object surfaces
US20100299103A1 (en) Three dimensional shape measurement apparatus, three dimensional shape measurement method, and computer program
US20060072122A1 (en) Method and apparatus for measuring shape of an object
US6509559B1 (en) Binary optical grating and method for generating a moire pattern for 3D imaging
US20100142798A1 (en) Non-contact measurement apparatus and method
JP2009264862A (en) Three-dimensional shape measuring method and device
WO1999058930A1 (en) Structured-light, triangulation-based three-dimensional digitizer
Kühmstedt et al. 3D shape measurement with phase correlation based fringe projection
US7023559B1 (en) Method and system for measuring the relief of an object
US7684052B2 (en) Three-dimensional shape measuring apparatus, program, computer-readable recording medium, and three-dimensional shape measuring method
JP2002257528A (en) Three-dimensional shape measuring device by phase shift method
US7286246B2 (en) Method and apparatus for non-contact three-dimensional surface measurement
JPH11166818A (en) Calibrating method and device for three-dimensional shape measuring device
JP2010164334A (en) Device and method for measuring inside shape
CN1758020A (en) Stereo vision detection system based on adaptive sine streak projection
CN101782375A (en) Three-dimensional measuring device
CN1590958A (en) Measuring technology and computer numerical control technology
US20090128648A1 (en) Image processing device and image processing method for performing three dimensional measurements
JP2001319219A (en) Device and method for generating part program for image measuring apparatus, image measuring apparatus and measure result display method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150206

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250