JP4255865B2 - Non-contact three-dimensional shape measuring method and apparatus - Google Patents

Non-contact three-dimensional shape measuring method and apparatus Download PDF

Info

Publication number
JP4255865B2
JP4255865B2 JP2004071128A JP2004071128A JP4255865B2 JP 4255865 B2 JP4255865 B2 JP 4255865B2 JP 2004071128 A JP2004071128 A JP 2004071128A JP 2004071128 A JP2004071128 A JP 2004071128A JP 4255865 B2 JP4255865 B2 JP 4255865B2
Authority
JP
Japan
Prior art keywords
contact
phase
focus
dimensional shape
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004071128A
Other languages
Japanese (ja)
Other versions
JP2004317495A (en
Inventor
博行 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Priority to JP2004071128A priority Critical patent/JP4255865B2/en
Publication of JP2004317495A publication Critical patent/JP2004317495A/en
Application granted granted Critical
Publication of JP4255865B2 publication Critical patent/JP4255865B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、非接触三次元形状測定方法及び装置に係り、特に、デザイン形状のデジタル化によるCADへの展開や、試作・量産部品の形状精度評価(リバースエンジニアリング)のための非接触デジタイザに用いるのに好適な、実物大の自動車等の大きな測定範囲の三次元形状を、非接触で短時間に測定することが可能な、位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じて変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定方法及び装置に関する。   The present invention relates to a non-contact three-dimensional shape measuring method and apparatus, and more particularly, to a non-contact digitizer for development to CAD by digitizing a design shape and shape accuracy evaluation (reverse engineering) of prototype / mass production parts. It is possible to measure a three-dimensional shape in a large measurement range, such as a full-size automobile, in a non-contact manner in a short time. The present invention relates to a non-contact three-dimensional shape measuring method and apparatus for obtaining a shape by analyzing the contrast of a lattice image deformed according to the shape of a measurement object by observing from another direction.

三次元形状を非接触で短時間に測定する技術として、特許文献1、特許文献2、特許文献3に記載されたような、測定対象に格子状のパターンを投影し、測定対象各部の高さ分布に応じて変形した格子像から三次元形状を測定する、モアレトポグラフィを利用したモアレ法がある。このモアレ法には、図1に示す如く、投影用と観察用の2枚の格子G1、G2を投影レンズL1と撮像レンズL2の手前に配置し、格子G1をレンズL1により測定対象に投影し、物体形状に応じて変形した格子線をレンズL2を通じてもう一つの格子G2上に結像させ、縞等高線を基準面から所定距離h1、h2、h3、…、の所に生じさせるようにした格子撮影型と、図2に示す如く、基準面に1枚の大きな格子Gを配置し、投影レンズL1の位置に点光源S、撮像レンズL2の位置に観察眼eを配置して、格子Gの光源Sによる影を測定対象上に落し、物体形状に応じて変形した格子Gの影を形成させ、これを格子Gを通して観察眼eにより観察することにより、この格子Gと変形した格子の影とによって生じるモアレ縞を観測するようにした実体格子型がある。更に、特許文献4には、実体格子型のモアレ法に対して位相シフト法を適用可能とすることが記載されている。   As a technique for measuring a three-dimensional shape in a non-contact manner in a short time, a grid-like pattern is projected onto the measurement target as described in Patent Document 1, Patent Document 2, and Patent Document 3, and the height of each part of the measurement target is measured. There is a moire method using moire topography that measures a three-dimensional shape from a lattice image deformed according to the distribution. In this moire method, as shown in FIG. 1, two gratings G1 and G2 for projection and observation are arranged in front of the projection lens L1 and the imaging lens L2, and the grating G1 is projected onto the measurement object by the lens L1. A grating line deformed according to the object shape is imaged on another grating G2 through the lens L2, and fringe contour lines are generated at predetermined distances h1, h2, h3,... From the reference plane. As shown in FIG. 2, a large grating G is arranged on the reference plane, the point light source S is arranged at the position of the projection lens L1, and the observation eye e is arranged at the position of the imaging lens L2. The shadow of the light source S is dropped on the object to be measured, the shadow of the lattice G deformed according to the object shape is formed, and this is observed by the observation eye e through the lattice G. I'll observe the moire fringes caused by There are entities lattice type you. Further, Patent Document 4 describes that the phase shift method can be applied to the tangential lattice type moire method.

一方、非特許文献1には、図3に示すような、格子パターン投影に位相シフトを組合せた非接触形状測定方法が記載されている。   On the other hand, Non-Patent Document 1 describes a non-contact shape measuring method in which a phase shift is combined with grating pattern projection as shown in FIG.

これは、次に示すような手順で形状を測定する。   The shape is measured by the following procedure.

(1)例えば照明ランプ10を用いて、投影レンズ14の手前に配置された格子フィルタ12を照明することにより、撮像光学系(撮像レンズ20)の焦点位置とは異なる位置から格子パターンを測定ワーク8に投影する。   (1) For example, by using the illumination lamp 10 to illuminate the grating filter 12 disposed in front of the projection lens 14, a grating pattern is measured from a position different from the focal position of the imaging optical system (imaging lens 20). 8 is projected.

(2)格子シフト機構16により、格子フィルタ12を矢印Aに示す横方向に移動(位相シフト)させ、撮像レンズ20を介して撮像素子22で得られる画像のピクセルの濃淡変化を正弦波形状にする。   (2) The grating shift mechanism 16 moves the grating filter 12 in the lateral direction indicated by the arrow A (phase shift), and changes the shade of the pixel of the image obtained by the imaging element 22 via the imaging lens 20 into a sine wave shape. To do.

(3)等間隔の位相シフト量毎に、複数枚撮像する。   (3) A plurality of images are taken for each phase shift amount at equal intervals.

(4)各画素の位相及びコントラストを計算する。   (4) Calculate the phase and contrast of each pixel.

(5)測定ワーク8の位置を高さ方向(あるいは焦点方向等)へステップ移動して、(2)〜(4)を繰り返す。測定ワーク8の位置は最低2回移動する。   (5) Step the position of the measurement workpiece 8 in the height direction (or focus direction, etc.) and repeat (2) to (4). The position of the measurement workpiece 8 moves at least twice.

(6)各画素の最大コントラストをとる合焦位置を求め、縞次数を求める。   (6) A focus position for obtaining the maximum contrast of each pixel is obtained, and a fringe order is obtained.

(7)各画素の最大コントラストのときの位相を選択し、位相分布を求める。   (7) The phase at the maximum contrast of each pixel is selected to obtain the phase distribution.

(8)基準位相との位相差を計算する。   (8) The phase difference from the reference phase is calculated.

(9)位相差と縞次数を用いて奥行き方向の距離(高さ)を計算する。   (9) The distance (height) in the depth direction is calculated using the phase difference and the fringe order.

特開平10−246612号公報Japanese Patent Laid-Open No. 10-246612 米国特許第5175601号明細書US Pat. No. 5,175,601 米国特許第5319445号明細書US Pat. No. 5,319,445 特開2002−267429号公報JP 2002-267429 A 殿岡 雅仁他6名、「格子パターン投影法を用いた位相及びコントラスト検出による表面形状計測」、精密工学会誌、社団法人精密工学会、平成12年1月、第66巻第1号、p132−136Masahito Tonooka and 6 others, “Surface shape measurement by phase and contrast detection using lattice pattern projection method”, Journal of Precision Engineering, Japan Society for Precision Engineering, January 2000, Vol. 66, No. 1, p132-136

しかしながら特許文献1〜4では、図4のように、位相が2π変化する毎に同じ出力が繰返されるため、位相シフトのみでは、投影された格子の何番目のラインが映っているかを特定できず、縞の次数を決定できない。従って、測定範囲がA、B、C、D、…、のいずれかに限定され、測定範囲を1縞の次数以内にすると、格子間隔が広くなり、測定精度が落ちる。逆に格子間隔を小さくし、高精度を確保しようとすると、奥行き方向の測定範囲が小さくなる。又、ピントが合っているピクセルに比べて、ピントがボケているピクセルは測定精度が悪くなる等の問題点を有していた。   However, in Patent Documents 1 to 4, since the same output is repeated every time the phase changes by 2π as shown in FIG. 4, it is not possible to specify which line of the projected grating is reflected only by the phase shift. The order of the stripes cannot be determined. Therefore, the measurement range is limited to any one of A, B, C, D,..., And if the measurement range is within the order of one stripe, the lattice spacing is widened and the measurement accuracy is lowered. On the other hand, if the lattice interval is reduced to ensure high accuracy, the measurement range in the depth direction is reduced. In addition, compared with a pixel that is in focus, a pixel that is out of focus has problems such as poor measurement accuracy.

一方、非特許文献1では、測定のステップ数が少ない場合は、最大コントラストを求める際に行うガウス関数のフィッティング時に誤差が発生するので、ステップとステップの間に位置する点の精度が落ちる。移動回数を増やすことで、この誤差は減少できるが、測定時間の増大を伴う。また、測定ワークを動かす、あるいは照明光学系、撮像光学系を動かすため、装置が複雑になる。更に、奥行き方向の測定範囲は、ステップ数を増やすことで広げることはできるが、測定時間、装置面の制約がある等の問題点を有していた。   On the other hand, in Non-Patent Document 1, when the number of measurement steps is small, an error occurs at the time of fitting a Gaussian function performed when obtaining the maximum contrast, so that the accuracy of the points located between the steps decreases. By increasing the number of movements, this error can be reduced, but with an increase in measurement time. Further, since the measurement work is moved or the illumination optical system and the imaging optical system are moved, the apparatus becomes complicated. Furthermore, although the measurement range in the depth direction can be expanded by increasing the number of steps, there are problems such as limitations on measurement time and apparatus surface.

本発明は、前記従来の問題を解決するべくなされたもので、小型化可能な単純な構成で、奥行き方向の測定範囲を拡大して、測定範囲の全体に亘って、高精度測定を実現することを課題とする。   The present invention has been made to solve the above-described conventional problems, and with a simple configuration that can be reduced in size, expands the measurement range in the depth direction and realizes high-accuracy measurement over the entire measurement range. This is the issue.

本発明は、位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定方法において、位相と同時に投影側と撮像側のフォーカスを連続的にシフトさせ、奥行き方向の測定範囲を拡大するようにして、前記課題を解決したものである。 The present invention analyzes the contrast of the lattice image deformed according to the shape of the measurement object by observing the lattice pattern projected on the measurement object while shifting the phase from a direction different from the projection direction. In the non-contact three-dimensional shape measurement method that obtains the above-mentioned problem, the focus on the projection side and the imaging side is continuously shifted simultaneously with the phase to expand the measurement range in the depth direction. is there.

本発明は、又、位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定装置において、フォーカスと位相をシフトさせながら、測定対象に格子パターンを投影する手段と、フォーカスをシフトさせながら測定対象に投影されたパターンの画像データを入力する手段と、入力された画像データを処理して、三次元マップを作成する手段とを備えることにより、同じく前記課題を解決したものである。   The present invention also analyzes the contrast of the lattice image deformed according to the shape of the measurement object by observing the lattice pattern projected onto the measurement object while shifting the phase from a direction different from the projection direction. In a non-contact three-dimensional shape measuring apparatus that obtains a shape by means of, a means for projecting a lattice pattern onto the measurement object while shifting the focus and phase, and image data of the pattern projected onto the measurement object while shifting the focus The above-mentioned problem is similarly solved by providing a means for inputting the image data and a means for processing the input image data to create a three-dimensional map.

又、前記三次元マップを作成する手段が、フォーカス中心から縞次数を決定して、位相をアンラップし、位相の絶対値を計算する手段と、縞次数の格子面と撮像点のエピポーララインの交点の三次元位置を計算する手段とを含むようにしたものである。   Further, the means for creating the three-dimensional map determines the fringe order from the focus center, unwraps the phase, calculates the absolute value of the phase, and the intersection of the grating plane of the fringe order and the epipolar line of the imaging point And a means for calculating the three-dimensional position.

更に、投影光学系と撮像光学系の歪み(ディストーション)を補正する手段を備えるようにしたものである。   Further, a means for correcting distortion (distortion) of the projection optical system and the imaging optical system is provided.

又、投影光学系と撮像光学系を一つのシフト機構に搭載して、Z軸方向に駆動するようにしたものである。   Further, the projection optical system and the imaging optical system are mounted on one shift mechanism and driven in the Z-axis direction.

本発明においては、格子の縞次数の決定を可能にし、高精度のまま奥行き方向の測定範囲を広げるため、フォーカスシフトを組合わせる。   In the present invention, the focus shift is combined to enable determination of the fringe order of the grating and to extend the measurement range in the depth direction with high accuracy.

本発明によれば、格子パターンの縞次数をフォーカス中心から求め、位相をアンラップし、奥行き(Z)方向の絶対値を求めると共に、フォーカスを連続的にシフトさせているので、高精度を維持しつつ、奥行き方向の測定範囲が飛躍的に拡大する。しかも、ピクセル毎にフォーカスが合ったときの位相から三次元座標値を計算するので、全ての測定点にピントが合った状態で座標値を求めることができ、XY方向も高精度に測定できる。   According to the present invention, the fringe order of the grating pattern is obtained from the focus center, the phase is unwrapped, the absolute value in the depth (Z) direction is obtained, and the focus is continuously shifted, so that high accuracy is maintained. However, the measurement range in the depth direction is dramatically expanded. In addition, since the three-dimensional coordinate value is calculated from the phase when each pixel is in focus, the coordinate value can be obtained with all the measurement points in focus, and the XY directions can also be measured with high accuracy.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明を実施するための装置の全体構成を図5に示す。   FIG. 5 shows the overall configuration of an apparatus for carrying out the present invention.

本実施形態は、図3に示した従来例と同様の装置において、更に、格子フィルタ12を矢印Aで示す横方向に一定速度で移動させる格子シフト機構16ごと、格子フィルタ12を矢印Bで示す前後方向に一定速度で移動させるための第1のフォーカスシフト機構18と、カメラ等の撮像素子22を同じく矢印Bで示す前後方向に一定速度で移動させるための第2のフォーカスシフト機構24とを設けると共に、フォーカスをシフトしてもピクセルに写っている測定ワーク8上の撮像点が変化しないように、投影レンズ15及び撮像レンズ21を、いずれも像側テレセントリック光学系としたものである。   In this embodiment, in the same apparatus as the conventional example shown in FIG. 3, the lattice filter 12 is indicated by an arrow B together with the lattice shift mechanism 16 that moves the lattice filter 12 at a constant speed in the lateral direction indicated by the arrow A. A first focus shift mechanism 18 for moving in the front-rear direction at a constant speed, and a second focus shift mechanism 24 for moving the image sensor 22 such as a camera in the front-rear direction, also indicated by arrow B, at a constant speed. In addition, both the projection lens 15 and the imaging lens 21 are image-side telecentric optical systems so that the imaging point on the measurement workpiece 8 shown in the pixel does not change even when the focus is shifted.

前記格子フィルタ12用の第1のフォーカスシフト機構18と、撮像素子22用の第2のフォーカスシフト機構24は、同期して移動するように制御される。   The first focus shift mechanism 18 for the lattice filter 12 and the second focus shift mechanism 24 for the image sensor 22 are controlled to move in synchronization.

前記格子フィルタ12の位相シフト量に対応して、撮像素子22の撮像タイミングが決定される。この撮像タイミングに合わせて、照明ランプ10が点灯される。該照明ランプ10としては、例えばキセノンフラッシュやハロゲンランプが用いられる。   Corresponding to the phase shift amount of the grating filter 12, the imaging timing of the imaging element 22 is determined. The illumination lamp 10 is turned on in accordance with this imaging timing. As the illumination lamp 10, for example, a xenon flash or a halogen lamp is used.

本発明に係る処理は、図6に示すような手順に従って行なわれる。即ち、まずステップ100で、一定速度でフォーカスと位相をシフトさせながら、連続的に測定ワーク8の画像データを入力する。あるピクセルの濃淡波形の例を図7に示す。データ入力時間は、例えば30fpsのカメラ(撮像素子22)で128枚撮像するとして、4.3秒である。ここで、横軸の時間tは、撮像枚数に対応している。   The processing according to the present invention is performed according to a procedure as shown in FIG. That is, first, in step 100, image data of the measurement workpiece 8 is continuously input while shifting the focus and phase at a constant speed. An example of the light and shade waveform of a certain pixel is shown in FIG. The data input time is 4.3 seconds assuming that 128 images are captured by a 30 fps camera (image sensor 22), for example. Here, the time t on the horizontal axis corresponds to the number of captured images.

次いでステップ200に進み、入力したデータを計算機内で処理して、三次元マップを作成する。即ち、フォーカス中心と位相は、図8に示すような関係にあるので、ステップ210で、フォーカス中心から縞次数を決定して、0〜2π→0〜nπへ位相接続(アンラップと称する)し、位相の絶対値を計算する。又、図9に示す如く、縞次数の格子面と、撮像面のエピポーララインは、カメラロケーション、焦点距離、画像中心等の既知のパラメータと、ステップ210で求めた絶対位相から求まるので、ステップ220で、その交点の三次元位置を、画面座標(u,v)の撮像点の三次元位置として計算する。これを画像全体にわたって計算することで、三次元マップを作成する。   Next, the process proceeds to step 200, where the input data is processed in the computer to create a three-dimensional map. That is, since the focus center and the phase are in a relationship as shown in FIG. 8, in step 210, the fringe order is determined from the focus center, and the phase connection (referred to as unwrapping) is performed from 0 to 2π → 0 to nπ. Calculate the absolute value of the phase. Further, as shown in FIG. 9, the lattice plane of the fringe order and the epipolar line of the imaging surface are obtained from known parameters such as the camera location, focal length, and image center, and the absolute phase obtained in step 210. Then, the three-dimensional position of the intersection is calculated as the three-dimensional position of the imaging point of the screen coordinates (u, v). A three-dimensional map is created by calculating this over the entire image.

前出ステップ100における画像データ入力は、具体的には、図10に示す手順により行なわれる。即ち、まずステップ102で、投影光学系と撮像光学系のフォーカスシフト機構18、24を初期位置へ移動させる。   Specifically, the image data input in the above step 100 is performed according to the procedure shown in FIG. That is, first, in step 102, the focus shift mechanisms 18 and 24 of the projection optical system and the imaging optical system are moved to the initial positions.

次いでステップ104で、照明ランプ10を点灯させ、格子フィルタ12のパターンを測定ワーク8上に投影する。   Next, at step 104, the illumination lamp 10 is turned on, and the pattern of the grid filter 12 is projected onto the measurement work 8.

次いでステップ106で、投影光学系と撮像光学系のフォーカスシフト機構18、24を、次式に示す如く、一定速度Vで移動させる。   Next, at step 106, the focus shift mechanisms 18, 24 of the projection optical system and the imaging optical system are moved at a constant speed V as shown in the following equation.

f=V*t+z0 …(1) z f = V * t + z 0 (1)

次いでステップ108に進み、格子シフト機構16を、次式に示す如く、一定速度ωで移動させる。   Next, in step 108, the lattice shift mechanism 16 is moved at a constant speed ω as shown in the following equation.

φ=ω*t+φ0 …(2) φ = ω * t + φ 0 (2)

次いでステップ110に進み、必要な撮像枚数Kに到達したか否かを判定する。撮影枚数iがKに到達したときは、そのまま、この手順を終了する。   Next, the routine proceeds to step 110, where it is determined whether or not the necessary number of images K has been reached. When the number of shots i has reached K, this procedure is terminated.

一方、撮像枚数iが必要撮像枚数Kより小さい場合には、ステップ112に進んで撮像し、ステップ114で計算機のメモリへ画像を転送し、ステップ116で、格子の位相が所定値2π/n進むまで待つ。   On the other hand, if the number i of images to be captured is smaller than the required number K of images to be captured, the process proceeds to step 112, where the image is captured, the image is transferred to the memory of the computer at step 114, Wait until.

前出ステップ200における三次元マップ作成に際しては、図11に示すように、画像の全画素について、左上隅の画素を(u、v)=(0,0)として、まずv=0,すなわち1行目の画素について、左端のu=0よりu=wまで、濃淡波形の抽出から三次元位置(4)の計算までを実施し、次にv=1の行について、上記処理を実施、最後のv=hの行まで同様に繰り返し実施し、画像の全画素の三次元位置の計算が終了する。   When creating the three-dimensional map in the above step 200, as shown in FIG. 11, with respect to all the pixels of the image, the pixel at the upper left corner is (u, v) = (0, 0), and v = 0, that is, 1 For the pixels in the row, from the left end u = 0 to u = w, the processing from the extraction of the grayscale waveform to the calculation of the three-dimensional position (4) is performed, and then the above processing is performed for the row of v = 1. This is repeated until v = h, and the calculation of the three-dimensional positions of all the pixels of the image is completed.

具体的には、図12に示す如く、ステップ250で画像座標の濃淡波形を抽出した後、ステップ260に進み、濃淡波形のオフセット成分と揺らぎ成分を除去する。このステップ260における濃淡波形のオフセット成分と揺らぎ成分の除去は、濃淡波形のオフセット成分を排除すると共に、ピンボケによるワーク撮像点近傍からの反射光の入射や、周辺環境の照明変化によるオフセット成分の揺らぎを排除するために行なう。但し、揺らぎの変化は、位相シフトによる濃淡変化より、十分緩やかであるとする。   Specifically, as shown in FIG. 12, after extracting the grayscale waveform of the image coordinates in step 250, the process proceeds to step 260, where the offset component and the fluctuation component of the grayscale waveform are removed. The removal of the offset component of the grayscale waveform and the fluctuation component in this step 260 eliminates the offset component of the grayscale waveform, and the fluctuation of the offset component due to the incident of reflected light from the vicinity of the workpiece imaging point due to defocusing or illumination change in the surrounding environment. To eliminate. However, the change in fluctuation is assumed to be more gradual than the change in density due to the phase shift.

具体的には、図13に示す如く、ステップ262で濃淡波形の微分波形を計算することによって、オフセットと揺らぎ成分を除去できる。即ち、撮像枚数がi番目の画像座標(u,v)の濃淡波形を次式
Gi=A(i)sin{(2πi/n)+φ}+B+ε(i) …(3)
(但し、A(i)=波形の振幅変動、B=オフセット、ε(i)=揺らぎ成分)
で表わすと、微分波形は次式となり、オフセットと揺らぎ成分を除去できる。
Specifically, as shown in FIG. 13, the offset and fluctuation components can be removed by calculating the differential waveform of the grayscale waveform in step 262. That is, the gray waveform of the image coordinates (u, v) with the number of images taken is the following expression: Gi = A (i) sin {(2πi / n) + φ} + B + ε (i) (3)
(However, A (i) = Amplitude fluctuation of waveform, B = Offset, ε (i) = Fluctuation component)
In this case, the differential waveform becomes the following equation, and the offset and fluctuation components can be removed.

Figure 0004255865
Figure 0004255865

又、離散データを微分するため、微分波形はπ/nだけ位相が進む。   Further, in order to differentiate discrete data, the phase of the differentiated waveform advances by π / n.

なお、ステップ260の濃淡波形のオフセット成分と揺らぎ成分の除去は、図14に示す変形例の如く、ステップ264で、ある位相シフト量での濃淡波形のオフセット値を、その近傍(前後)±πの濃淡値の平均値として除去することも可能である。   Note that the grayscale waveform offset component and the fluctuation component in step 260 are removed in step 264 by changing the grayscale waveform offset value at a certain phase shift amount in the vicinity (before and after) ± π as in the modification shown in FIG. It is also possible to remove it as an average value of gray values.

即ち、画像座標(u,v)の濃淡波形を、前出(3)式で、表すと、iにおけるオフセット+揺らぎ成分B+ε(i)は、次の(4a)式となり、オフセットと揺らぎ成分を除去した濃淡波形gi は、次の(4b)式となる。 That is, when the grayscale waveform of the image coordinates (u, v) is expressed by the above equation (3), the offset + fluctuation component B + ε (i) at i becomes the following equation (4a), and the offset and fluctuation are expressed as follows: The gray waveform g i from which the component is removed is expressed by the following equation (4b).

Figure 0004255865
Figure 0004255865

この場合、除去後の濃淡波形の位相は、ずれない。   In this case, the phase of the grayscale waveform after removal is not shifted.

図12のステップ260終了後、ステップ270に進み、フォーカス中心(図8の(1))を計算する。このステップ270におけるフォーカス中心の計算は、縞次数を決定するべく、フォーカスが合っているZ軸方向の奥行きを計算するために行なわれる。即ち、格子投影の位相シフトピッチが、2π/n(但しnは整数)とすると、nデータおきの濃淡変化は、フォーカスのコントラスト曲線となり、コントラスト曲線の頂点、即ち、濃淡値が最大となる位置がフォーカス中心となる。従って、コントラスト曲線を正規分布曲線と見なし、統計計算で頂点を求めることができる。   After step 260 in FIG. 12 is completed, the process proceeds to step 270 to calculate the focus center ((1) in FIG. 8). The calculation of the focus center in step 270 is performed in order to calculate the depth in the Z-axis direction in focus in order to determine the fringe order. That is, if the phase shift pitch of the grating projection is 2π / n (where n is an integer), the density change every n data becomes the focus contrast curve, and the vertex of the contrast curve, that is, the position where the density value is maximum. Becomes the focus center. Accordingly, the contrast curve is regarded as a normal distribution curve, and the vertex can be obtained by statistical calculation.

具体的な処理手順を図15に示す。ここでは、nデータおきの濃淡変化の曲線(j本の抽出波形)の2乗波形それぞれについて、度数平均値を求め、抽出波形の山の高さに対応した係数(面積比)による重み係数を付けて平均して求める。   A specific processing procedure is shown in FIG. Here, the frequency average value is obtained for each of the square waveforms of the gradation change curve (j extracted waveforms) every n data, and the weighting coefficient by the coefficient (area ratio) corresponding to the peak height of the extracted waveform is obtained. Add and average.

図12のステップ270終了後、ステップ290に進み、フォーカス中心の位相(図8の(2))(−π〜π)を計算する。このステップ290における位相計算は、格子パターン投影の縞の位相を計算するために行なわれる。ここで、フォーカスからずれたところの波形は、撮像点近傍の反射光が混入しているため、フォーカス中心に近いデータの重みを大きくして、位相を求めることができる。   After step 270 in FIG. 12 is completed, the process proceeds to step 290, where the phase at the focus center ((2) in FIG. 8) (−π to π) is calculated. The phase calculation in this step 290 is performed to calculate the phase of the fringes of the grating pattern projection. Here, since the reflected light near the imaging point is mixed in the waveform deviated from the focus, the phase can be obtained by increasing the weight of data close to the focus center.

即ち、格子パターン投影の位相シフトピッチが2π/n(但しnは整数)とすると、nデータおきの微分波形値は正規分布曲線となり、位相2πi/n(但しi=0,1,…,n−1)におけるフォーカシングのコントラスト曲線を表わす。又、各位相のコントラスト曲線は、フォーカス中心の頂点の高さに比例する。更に、コントラスト曲線と濃淡値の中央ラインで囲まれる面積(≒nデータおきの微分波形値の総和)が、コントラスト曲線の頂点の高さに比例する。そこで、図16に具体的な処理手順を示す如く、ステップ292で求めたマザーウェーブmjと積算し、ステップ300でフーリエ積分することによって、位相を求める。即ち、π/8〜(15π)/8まで、π/4毎に8つの位相のコントラスト曲線があるので、その各曲線と濃淡値の中央ラインにより囲まれる面積を求め、図17のように各位相の区間の面積により形成される正弦波を求める(フーリエ積分)。そして、マザーウェーブとこの正弦波の位相差をφとして求める。これを、全画素(u,v)について行う。   That is, if the phase shift pitch of the lattice pattern projection is 2π / n (where n is an integer), the differential waveform value every n data becomes a normal distribution curve, and the phase 2πi / n (where i = 0, 1,..., N) 1 represents a focusing contrast curve in -1). The contrast curve for each phase is proportional to the height of the vertex at the focus center. Furthermore, the area surrounded by the center line of the contrast curve and the gray value (≈the sum of differential waveform values every n data) is proportional to the height of the vertex of the contrast curve. Therefore, as shown in a specific processing procedure in FIG. 16, the phase is obtained by integrating with the mother wave mj obtained in step 292 and performing Fourier integration in step 300. That is, since there are eight phase contrast curves for each π / 4 from π / 8 to (15π) / 8, the area surrounded by each curve and the central line of the gray value is obtained, and as shown in FIG. Find the sine wave formed by the area of the phase interval (Fourier integration). Then, the phase difference between the mother wave and the sine wave is obtained as φ. This is performed for all pixels (u, v).

図12のステップ290終了後、ステップ310に進み、位相をアンラップし、フォーカス中心に最も近い縞次数の位相として絶対位相(図8の(3))を計算する。このステップ310における位相のアンラップは、フォーカス中心に最も近い縞を求め、絶対位相を計算するために行なわれる。具体的な処理手順を図18に示す。即ち、図8の(2)で、左端から数えて、格子のどの縞次数に当たるかを計算する。従って、ステップ322のφfocusは、アンラップのおおよその値(アンラップの位相に近い値)になる。又、ステップ324中の式において、exp(iφ)は、−π〜+πの間の正確な位相であり、右辺第2項は、角度(φ−φfocusの端数角)を求め、
φfocus=(2π×次数)+φfocusの端数角
であるので、
φunwrap=(2π×次数)+φ
により正確な位相が求められる。
After step 290 in FIG. 12 is completed, the process proceeds to step 310 where the phase is unwrapped and the absolute phase ((3) in FIG. 8) is calculated as the phase of the fringe order closest to the focus center. The unwrapping of the phase in step 310 is performed in order to obtain the fringe closest to the focus center and calculate the absolute phase. A specific processing procedure is shown in FIG. That is, in (2) of FIG. 8, which fringe order of the lattice is counted from the left end. Therefore, φfocus in step 322 becomes an approximate value of unwrapping (a value close to the phase of unwrapping). In the expression in step 324, exp (iφ) is an accurate phase between −π and + π, and the second term on the right side obtains an angle (fractional angle of φ−φfocus),
Since φfocus = (2π × order) + φfocus fractional angle,
φunwrap = (2π × order) + φ
Therefore, an accurate phase is obtained.

図12のステップ310終了後、ステップ330に進み、実際の点Piの三次元位置(図8の(4))を計算して、ステップ240に戻る。このステップ330における三次元位置の計算は、撮像している点の三次元位置を計算するために行なわれる。具体的な処理手順を図19に示す。   After step 310 in FIG. 12 is completed, the process proceeds to step 330, where the actual three-dimensional position of the point Pi ((4) in FIG. 8) is calculated, and the process returns to step 240. The calculation of the three-dimensional position in step 330 is performed to calculate the three-dimensional position of the point being imaged. A specific processing procedure is shown in FIG.

図6のステップ220で三次元位置を計算する際に、必要であれば、ステップ400で測定ヘッドの歪み(ディストーション)補正を行なって、高精度化を図る。   When calculating the three-dimensional position in step 220 in FIG. 6, if necessary, the distortion (distortion) of the measurement head is corrected in step 400 to achieve high accuracy.

具体的には、投影光学系と撮像光学系は、図20に示すような歪みを持っているため、この歪みを考慮したカメラモデル式で補正する。   Specifically, since the projection optical system and the imaging optical system have a distortion as shown in FIG. 20, the correction is performed by a camera model formula taking this distortion into consideration.

予め既知の格子パターンを撮影することによって得られた歪み座標(udist,vdist)から元のピンホール座標(xpin,ypin)を求めるためのカメラモデル式の例を次に示す。 An example of a camera model formula for obtaining the original pinhole coordinates (x pin , y pin ) from the distortion coordinates (u dist , v dist ) obtained by photographing a known lattice pattern in advance is shown below.

dist=(udist−u0)/fu、ydist=(vdist−v0)/fv …(5)
pin=xdist+(g1+g3)xdist 2+g4distdist
+g1dist 2+(k12+k24)xdist …(6)
pin=xdist+g2dist 2+g3distdist
+(g2+g4)ydist 2+(k12+k24)ydist…(7)
但し、r2=xdist 2+ydist 2
x dist = (u dist −u 0 ) / f u , y dist = (v dist −v 0 ) / f v (5)
x pin = x dist + (g 1 + g 3 ) x dist 2 + g 4 x dist y dist
+ G 1 y dist 2 + (k 1 r 2 + k 2 r 4 ) x dist (6)
y pin = x dist + g 2 x dist 2 + g 3 x dist y dist
+ (G 2 + g 4 ) y dist 2 + (k 1 r 2 + k 2 r 4 ) y dist (7)
However, r 2 = x dist 2 + y dist 2

一方、投影レンズによる歪みを補正するために、ピンホール座標(xpin,ypin)から歪み座標(udist,vdist)を求める計算は、ニュートン法による収束計算で求めることができる。具体的には次のようにして行なう。 On the other hand, calculation for obtaining distortion coordinates (u dist , v dist ) from pinhole coordinates (x pin , y pin ) in order to correct distortion due to the projection lens can be obtained by convergence calculation by Newton's method. Specifically, this is performed as follows.

(1)初期値設定
(xdist,ydist)=(xpin,ypin) …(8)
(1) Initial value setting (x dist , y dist ) = (x pin , y pin ) (8)

(2)誤差計算
歪み座標(xdist,ydist)を仮のピンホール座標(xtemp,ytemp)へ変換し、求めたいピンホール座標との誤差(xerr,yerr)を計算する。
(2) Error calculation The distortion coordinates (x dist , y dist ) are converted into temporary pinhole coordinates (x temp , y temp ), and errors (x err , y err ) with the desired pinhole coordinates are calculated.

(xerr,yerr)=(xtemp,ytemp)−(xpin,ypin) …(9) (X err , y err ) = (x temp , y temp ) − (x pin , y pin ) (9)

(3)修正量計算
(∂xpin/∂xdist)=1+2(g1+g3)xdist+g4dist
+k1(3xdist 2+ydist 2)+k2(5xdist 4+6xdist 2dist 2+ydist 4
…(10)
(∂xpin/∂ydist)=g4dist+2g1dist+2k1distdist
+4k2(xdist 3dist+xdistdist 3) …(11)
(∂ypin/∂xdist)=2g2dist+g3dist+2k1distdist
+4k2(xdist 3dist+xdistdist 3) …(12)
(∂ypin/∂ydist)=1+g3dist+2(g2+g4)ydist
+k1(xdist 2+3ydist 2)+k2(xdist 4+6xdist 2dist 2+5ydist 4
…(13)
(3) Correction amount calculation (∂x pin / ∂x dist ) = 1 + 2 (g 1 + g 3 ) x dist + g 4 y dist
+ K 1 (3x dist 2 + y dist 2 ) + k 2 (5x dist 4 + 6x dist 2 y dist 2 + y dist 4 )
…(Ten)
(∂x pin / ∂y dist ) = g 4 x dist + 2g 1 y dist + 2k 1 x dist y dist
+ 4k 2 (x dist 3 y dist + x dist y dist 3 ) (11)
(∂y pin / ∂x dist ) = 2g 2 x dist + g 3 y dist + 2k 1 x dist y dist
+ 4k 2 (x dist 3 y dist + x dist y dist 3 ) (12)
(∂y pin / ∂y dist ) = 1 + g 3 y dist +2 (g 2 + g 4 ) y dist
+ K 1 (x dist 2 + 3y dist 2 ) + k 2 (x dist 4 + 6x dist 2 y dist 2 + 5y dist 4 )
…(13)

Figure 0004255865
Figure 0004255865

ただし、第2項による影響量は小さいことより、及び計算量を少なくするため、第2項を省略して、以下により計算してもよい。   However, in order to reduce the influence amount by the second term and to reduce the calculation amount, the second term may be omitted and the calculation may be performed as follows.

(4)歪み座標の修正
(xdist,ydist)=(xdist,ydist)−(xdiff,ydiff) …(16)
(4) Correction of distortion coordinates (x dist , y dist ) = (x dist , y dist ) − (x diff , y diff ) (16)

(5)収束判定
例えば(xdiff<ε)、且つ(ydiff<ε)であれば収束計算を終了させる。そうでなければ、(2)に戻って座標を修正する。
(5) Convergence determination For example, if (x diff <ε) and (y diff <ε), the convergence calculation is terminated. Otherwise, return to (2) to correct the coordinates.

ここで、fu、fvは焦点距離(X軸、Y軸)、u0、v0は画像中心を表わす線形パラメータ、k1、k2はラジアル方向の歪み係数、g0、g1、g2、g3は、直交方向の歪み係数を表わす歪みパラメータである。 Here, f u and f v are focal lengths (X-axis and Y-axis), u 0 and v 0 are linear parameters representing the image center, k 1 and k 2 are radial distortion coefficients, g 0 , g 1 , g 2 and g 3 are distortion parameters representing distortion coefficients in the orthogonal direction.

発明者の実験によれば、前記カメラモデルでε=1×e-8の場合、平均1.5回、最大6回程度で収束する。 According to the inventor's experiment, when ε = 1 × e −8 in the camera model, convergence is achieved on average 1.5 times and maximum 6 times.

なお、歪み補正に関しては、次の文献に詳しく記載されている。   The distortion correction is described in detail in the following document.

Juyang Weng,”Camera Calibration with Distortion Models and Accuracy Evaluation”IEEE Trans.Patt.Anal.Maching Intell.vol.14,no.4,pp965−980
Zhengyou Zhang,”AFlexible New Technique for Camera Calibration”Dec.2.1998,MSR−TR−98−71
Juyang Weng, “Camera Calibration with Distribution Models and Accuracy Evaluation” IEEE Trans. Patt. Anal. Machining Intel. vol. 14, no. 4, pp 965-980
Zhengyou Zhang, “AFlexible New Technique for Camera Calibration” Dec. 2.1998, MSR-TR-98-71

なお、図19のステップ342〜354で、Newton−Raphson法により収束計算を行なっているのは、歪みが非線形であるので、その影響を除くためである。   The reason why the convergence calculation is performed by the Newton-Raphson method in steps 342 to 354 in FIG. 19 is to eliminate the influence of distortion because the distortion is nonlinear.

このようにして、レンズ光学系とシフト機構系の歪みを補正することにより、XY方向の測定精度を高めることができる。なお、用途によっては歪みの補正を省略することもできる。   Thus, by correcting the distortion of the lens optical system and the shift mechanism system, the measurement accuracy in the XY directions can be increased. Depending on the application, correction of distortion can be omitted.

具体的な実施例のシステム構成を図21に示す。   The system configuration of a specific embodiment is shown in FIG.

本実施例は、格子パターンを投影する投影部、及び、異なる視点から撮像する撮像部を持つ測定ヘッド40と、撮像した画像データから三次元マップを計算する計算機(PC)50と、これらを接続するケーブル60とを含んで構成されている。   In this embodiment, a measurement unit 40 having a projection unit for projecting a lattice pattern and an imaging unit for imaging from different viewpoints, and a computer (PC) 50 for calculating a three-dimensional map from the captured image data are connected. And the cable 60 to be configured.

前記測定ヘッド40は、具体的には、図22(上から見た断面図)及び図23(図22のXXIII−XXIII線に沿う横断面図)に示す如く、格子フィルタ12を一定速度で移動させる格子シフト機構16と、格子パターンを投影するための照明ランプ10と、投影された格子パターンを撮像するための撮像素子(カメラ)22と、投影光学系のフォーカスを一定速度で移動させる第1のフォーカスシフト機構18と、撮像光学系のフォーカスを一定速度で移動させる第2のフォーカスシフト機構24と、フォーカスをシフトしても、ピクセルに写っているワーク上の撮像点が変化しないような、像側テレセントリック光学系を持つ投影レンズ15B、及び、撮像レンズ21と、格子フィルタ12のシフト量を検出して、カメラ22へ撮像タイミング信号を生成するカメラ制御ボード42と、格子シフト機構16の駆動装置とフォーカスシフト機構18、24の駆動装置を、同期させて移動させる制御回路(図示省略)と、撮像するときに照明ランプ10を点灯させるプロジェクタ制御ボード44とを備えている。図において、46は例えば手動の絞り、48は冷却ファンである。   Specifically, the measuring head 40 moves the grating filter 12 at a constant speed as shown in FIG. 22 (cross-sectional view seen from above) and FIG. 23 (cross-sectional view taken along line XXIII-XXIII in FIG. 22). A grating shift mechanism 16, an illumination lamp 10 for projecting the grating pattern, an imaging device (camera) 22 for imaging the projected grating pattern, and a first for moving the focus of the projection optical system at a constant speed. The focus shift mechanism 18, the second focus shift mechanism 24 that moves the focus of the imaging optical system at a constant speed, and even if the focus is shifted, the imaging point on the workpiece shown in the pixel does not change. The shift amount of the projection lens 15B having the image side telecentric optical system, the imaging lens 21, and the grating filter 12 is detected, and the imaging timing signal is transmitted to the camera 22. A control circuit (not shown) for moving the camera control board 42 for generating a signal, the driving device for the lattice shift mechanism 16 and the driving devices for the focus shift mechanisms 18 and 24 in synchronization, and the illumination lamp 10 for imaging. And a projector control board 44 to be lit. In the figure, 46 is a manual diaphragm, for example, and 48 is a cooling fan.

ここで投影光学系(15)及び撮像光学系(21)を像側テレセントリックとしているのは、フォーカスをシフトしても、ピクセルに写っている測定ワーク8上の撮像点が変化しないようにするためである。   Here, the projection optical system (15) and the imaging optical system (21) are image-side telecentric so that the imaging point on the measurement workpiece 8 shown in the pixel does not change even when the focus is shifted. It is.

前記計算機50は、測定ヘッド40の撮像素子22から入力した画像をキャプチャするフレームグラバ52と、測定ヘッド40のシフト機構16、18、24を制御するモーション制御ボード54と、測定ヘッド40を制御するための、フォーカスと位相を同時にシフトさせながら、連続画像を入力し、計算機50のメインメモリへ転送する機能、測定ヘッド40の測定範囲に相当する画像をライブ表示する機能、及び、測定の奥行き範囲を設定する機能を有するソフトウェア(図示省略)と、三次元マップを作成するための、フォーカスシフトにより振幅が変動する濃淡波形から、フォーカス中心を計算する機能、フォーカス中心付近の濃淡波形の位相を計算する機能、フォーカス中心データを使って位相をアンラップする機能、光学系の歪みを考慮して、画像上の座標を補正する機能、撮像素子22のピクセルを起点とするエピポーララインと、格子パターン投影の格子面の交点を求め、ピクセルに投影されている三次元位置を計算する機能、画像データが正常に入力できたことを確認できるように、入力した連続画像を再生する機能、作成した三次元マップを表示する機能、及び、三次元マップの点群データを、IGESなどのCADフォーマットで保存する機能を有するソフトウェア(図示省略)を備えている。   The computer 50 controls the frame grabber 52 that captures an image input from the image sensor 22 of the measurement head 40, the motion control board 54 that controls the shift mechanisms 16, 18, and 24 of the measurement head 40, and the measurement head 40. A function for inputting continuous images while simultaneously shifting the focus and phase and transferring them to the main memory of the computer 50, a function for live display of an image corresponding to the measurement range of the measurement head 40, and a measurement depth range. The function to calculate the focus center from the grayscale waveform whose amplitude changes due to the focus shift to create a 3D map and the phase of the grayscale waveform near the focus center to create a 3D map Function, unwrapping phase using focus center data, optical system The function to correct the coordinates on the image taking into account only the intersection of the epipolar line starting from the pixel of the image sensor 22 and the lattice plane of the lattice pattern projection, and calculating the three-dimensional position projected on the pixel Function to replay the input continuous image, the function to display the created 3D map, and the point cloud data of the 3D map to IGES etc. Software (not shown) having a function of saving in the CAD format.

本実施例により測定ワーク(ここでは自動車)8を測定している様子を図24に示す。   FIG. 24 shows a state in which the measurement workpiece (in this case, an automobile) 8 is being measured according to this embodiment.

以下、撮像枚数を128枚とし、投影側と撮像側の間隔を500mmに設定した測定例を説明する。ここで、間隔を広くすると、縞次数間が狭まり、分解能が上がる。今、測定ワーク8が図25に示すような形状の実物大の自動車であり、測定範囲がX方向4000mm×Y方向3000mm×Z方向2000mm、ワーク中心迄の距離が4800mm、画像サイズが320×240ピクセルであったとすると、焦点深度が無限大のピンホール光学系のときは、図26に示すように、手前から奥まではっきりと格子パターンが投影され、撮像される。一方、実際の光学系は、焦点深度が有限であるので、図27のように、焦点位置によって格子パターンの投影範囲が制限される。   Hereinafter, a measurement example in which the number of captured images is 128 and the interval between the projection side and the imaging side is set to 500 mm will be described. Here, when the interval is widened, the stripe order is narrowed, and the resolution is increased. Now, the measurement workpiece 8 is a full-size automobile having a shape as shown in FIG. 25, the measurement range is 4000 mm in the X direction, 3000 mm in the Y direction, 2000 mm in the Z direction, the distance to the center of the workpiece is 4800 mm, and the image size is 320 × 240. If it is a pixel, in the case of a pinhole optical system with an infinite depth of focus, as shown in FIG. 26, a lattice pattern is clearly projected from the near side to the back and imaged. On the other hand, since the actual optical system has a limited depth of focus, the projection range of the lattice pattern is limited by the focal position as shown in FIG.

次に、三次元マップを作成する過程を図28乃至図31に示す。今、フォーカス中心画像のみから求めた三次元マップが、フルスケールの奥行き表現で図28(a)、200mmピッチの奥行き表現で図28(b)に示す如くであった場合、位相画像は図29、アンラップ位相画像は図30に示す如くとなり、最終的に得られる三次元マップ画像は、フルスケールの奥行き表現で図31(a)、200mmピッチの奥行き表現で図31(b)に示す如くとなる。図では分かり難いが、特に200mmピッチの奥行き表現の場合、図31(b)は図28(b)に比べて滑らかな形状が得られていることは明らかである。   Next, the process of creating a three-dimensional map is shown in FIGS. Now, when the three-dimensional map obtained from only the focus center image is as shown in FIG. 28A in full scale depth representation and in FIG. 28B in 200 mm pitch depth representation, the phase image is as shown in FIG. The unwrapped phase image is as shown in FIG. 30, and the finally obtained three-dimensional map image is as shown in FIG. 31 (a) with a full-scale depth representation and as shown in FIG. 31 (b) with a depth representation of 200 mm pitch. Become. Although it is difficult to understand in the figure, it is clear that a smooth shape is obtained in FIG. 31B compared to FIG.

実機を想定したノイズ成分を付加したデータの測定結果の誤差を図30に示す。タイヤは光が返ってこないため、ノイズに埋もれて低精度となっているが、他の部分については高精度な測定結果が得られている。   FIG. 30 shows an error in the measurement result of data added with noise components assuming an actual machine. Since tires do not return light, they are buried in noise and have low accuracy, but high-precision measurement results are obtained for other portions.

なお、前記実施例では自動車が測定対象とされていたが、測定対象の種類は、これに限定されない。光源も、キセノンフラッシュやハロゲンランプに限定されない。   In the embodiment, the automobile is the measurement object, but the type of the measurement object is not limited to this. The light source is not limited to a xenon flash or a halogen lamp.

次に、画像測定機での実施例について説明する。この実施例は、(1)画像測定機の撮像光学系(測定光学系)はそのまま使用して、投影光学系を追加する、あるいは、(2)画像測定機の撮像光学系を使用せずに、図33に示す如く、撮像光学系及び投影光学系が組み込まれた測定ヘッド40を画像測定機のZ軸へ、上記画像測定機の撮像光学系と並列に取り付け、格子シフト及びフォーカスシフトを画像測定機のZ軸駆動により行う方法がある。   Next, an example of an image measuring machine will be described. In this embodiment, (1) the imaging optical system (measurement optical system) of the image measuring machine is used as it is and a projection optical system is added, or (2) the imaging optical system of the image measuring machine is not used. 33, a measuring head 40 incorporating an imaging optical system and a projection optical system is attached to the Z axis of the image measuring machine in parallel with the imaging optical system of the image measuring machine, and a lattice shift and a focus shift are imaged. There is a method in which the measuring machine performs Z-axis driving.

図33の実施例では、格子シフト機構とフォーカスシフト機構は、Z軸方向のガイド機構60で代用できる。フォーカスシフトは、現行の画像測定機と同様に測定ヘッド40自体がZ軸方向に上下して行う。格子パターンは斜めから投影されるので、測定ヘッド40が上下することで、測定ワーク8へ投影される格子パターンが移動し、位相シフトされる。フォーカスシフト速度と位相シフト速度は、投影光学系の角度の調節か、格子間隔の調節で、設定する。   In the embodiment of FIG. 33, the lattice shift mechanism and the focus shift mechanism can be substituted by the guide mechanism 60 in the Z-axis direction. The focus shift is performed by the measurement head 40 moving up and down in the Z-axis direction as in the current image measuring machine. Since the grating pattern is projected obliquely, the grating pattern projected onto the measurement workpiece 8 moves and is phase-shifted when the measuring head 40 moves up and down. The focus shift speed and the phase shift speed are set by adjusting the angle of the projection optical system or adjusting the lattice spacing.

図において、6は測定ワーク8が載置されているステージ、11は発光素子、15、21はそれぞれ両側テレセントリックの投影レンズ及び撮像レンズ、45は照明制御回路、62はZ軸ガイド機構の送りモータ、64は該送りモータ62を制御するためのモーション制御ユニットである。   In the figure, 6 is a stage on which a measurement workpiece 8 is placed, 11 is a light emitting element, 15 and 21 are both telecentric projection and imaging lenses, 45 is an illumination control circuit, and 62 is a Z-axis guide mechanism feed motor. 64 are motion control units for controlling the feed motor 62.

(2)の方法であると、画像測定機に限らず、三次元測定機(Z軸がモータで、一定速で駆動できるタイプの三次元測定機)にも取り付けて使用することができる。いずれの場合も、格子パターンが斜めから投影されるため、Z軸方向の移動のみで良い。   The method (2) is not limited to an image measuring machine, but can be used by attaching to a coordinate measuring machine (a coordinate measuring machine of a type that can be driven at a constant speed by a motor with a Z-axis). In either case, since the lattice pattern is projected obliquely, only the movement in the Z-axis direction is required.

又、前記説明では、格子シフト機構及びフォーカスシフト機構が、いずれも一定速度で移動するようにされていたが、シフト位置が把握できれば、一定速度で移動しなくても良い。   In the above description, the lattice shift mechanism and the focus shift mechanism are both moved at a constant speed. However, if the shift position can be grasped, it may not be moved at a constant speed.

従来の格子投影型モアレ法の測定原理を示す光路図Optical path diagram showing the measurement principle of the conventional grating projection type moire method 従来の実体格子型モアレ法の測定原理を示す光路図Optical path diagram showing the measurement principle of the conventional solid lattice moire method 従来の格子パターン投影+位相シフトによる非接触形状測定法の原理を示す斜視図A perspective view showing the principle of a conventional non-contact shape measurement method using grating pattern projection and phase shift 同じく光路図Same optical path diagram 本発明の測定原理を示す斜視図The perspective view which shows the measurement principle of this invention 本発明による測定の手順を示す流れ図Flow chart showing the measurement procedure according to the invention 本発明における、あるピクセルの濃淡波形の例を示すタイムチャートThe time chart which shows the example of the shading waveform of a certain pixel in this invention 同じくフォーカスと位相の関係を示す光路図Optical path diagram showing the relationship between focus and phase 同じく格子面とエピポーララインの交点を示す斜視図The perspective view which similarly shows the intersection of a lattice plane and an epipolar line 同じく画像データ入力の手順を示す流れ図A flow chart showing the procedure for inputting image data 同じく画素の走査方法を示す図The figure which similarly shows the scanning method of a pixel 同じく三次元マップ作成の手順を示す流れ図A flow chart showing the same procedure for creating a 3D map 同じくオフセット成分と揺らぎ成分の除去の手順の一例を示す流れ図Similarly, a flowchart showing an example of the procedure for removing the offset component and the fluctuation component 同じくオフセット成分と揺らぎ成分の除去の手順の他の例を示す流れ図Similarly, a flowchart showing another example of the procedure for removing the offset component and the fluctuation component 同じくフォーカス中心計算の手順を示す流れ図A flow chart showing the procedure for calculating the focus center 同じく位相計算の手順を示す流れ図Flow chart showing the same phase calculation procedure 同じく詳細を示す図Figure showing details in the same way 同じく位相のアンラップの手順を示す流れ図Flow chart showing the same phase unwrap procedure 同じく三次元位置計算の手順を示す流れ図Flow chart showing the same 3D position calculation procedure 同じく歪み補正の原理を示す斜視図A perspective view showing the principle of distortion correction 具体的な実施例のシステム構成を示す図The figure which shows the system configuration | structure of a specific Example. 実施例で用いた測定ヘッドの構成を示す断面図Sectional drawing which shows the structure of the measurement head used in the Example 図21のXXIII−XXIII線に沿う横断面図Cross section along line XXIII-XXIII in FIG. 実施例における測定の様子を示す斜視図The perspective view which shows the mode of the measurement in an Example 測定ワークを示す図Diagram showing measurement workpiece 焦点深度が無限大のピンホール光学系を用いたときの格子投影画像を示す図Figure showing a grid projection image when using a pinhole optical system with an infinite depth of focus 実際の光学系の格子投影画像を示す図The figure which shows the lattice projection image of an actual optical system 三次元マップを作成する過程のフォーカス中心画像を示す図Diagram showing the focus center image in the process of creating a 3D map 同じく位相画像を示す図Figure showing the same phase image 同じくアンラップ位相画像を示す図Figure showing the unwrapped phase image 同じく三次元マップ画像の例を示す図The figure which shows the example of the same 3D map image 同じく誤差分布画像の例を示す図The figure which shows the example of the error distribution image similarly 画像測定機に搭載した実施例の構成を示す図The figure which shows the structure of the Example mounted in the image measuring machine

符号の説明Explanation of symbols

6…ステージ
8…測定ワーク
10…照明ランプ
11…発光素子
12…格子フィルタ
15、15A、15B…投影レンズ
16…格子シフト機構
18、24…フォーカスシフト機構
21…撮像レンズ
22…撮像素子
40…測定ヘッド
50…計算機(PC)
60…Z軸ガイド機構
62…送りモータ
DESCRIPTION OF SYMBOLS 6 ... Stage 8 ... Measurement workpiece 10 ... Illumination lamp 11 ... Light emitting element 12 ... Lattice filter 15, 15A, 15B ... Projection lens 16 ... Lattice shift mechanism 18, 24 ... Focus shift mechanism 21 ... Imaging lens 22 ... Imaging element 40 ... Measurement Head 50 ... Computer (PC)
60 ... Z-axis guide mechanism 62 ... Feed motor

Claims (21)

位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定方法において、
位相と同時に投影側と撮像側のフォーカスを連続的にシフトさせて、奥行き方向の測定範囲を拡大したことを特徴とする非接触三次元形状測定方法。
By observing the lattice pattern projected on the measurement object while shifting the phase from a direction different from the projection direction, the shape is obtained by analyzing the contrast of the deformed lattice image corresponding to the shape of the measurement object. In the non-contact three-dimensional shape measuring method,
A non-contact three-dimensional shape measurement method, wherein the depth and the measurement range in the depth direction are expanded by continuously shifting the focus on the projection side and the imaging side simultaneously with the phase .
一定速度でフォーカスと位相をシフトさせながら、連続的に前記測定対象の画像データを入力するステップと、
入力したデータを計算機内で処理して、三次元マップを作成するステップと
を含むことを特徴とする請求項1に記載の非接触三次元形状測定方法。
Inputting the measurement target image data continuously while shifting the focus and phase at a constant speed;
The non-contact three-dimensional shape measuring method according to claim 1, further comprising: processing the input data in a computer to create a three-dimensional map.
前記三次元マップを作成するステップが、
フォーカス中心から縞次数を決定して、位相をアンラップし、位相の絶対値を計算するステップと、
縞次数の格子面と撮像点のエピポーララインの交点の三次元位置を計算するステップと、
を含むことを特徴とする請求項2に記載の非接触三次元形状測定方法。
Creating the three-dimensional map comprises:
Determining the fringe order from the focus center, unwrapping the phase, and calculating the absolute value of the phase;
Calculating the three-dimensional position of the intersection of the fringe order lattice plane and the imaging point epipolar line;
The non-contact three-dimensional shape measuring method according to claim 2, comprising:
前記三次元マップを作成するステップが、更に、
画像座標の濃淡波形を抽出するステップと、
該濃淡波形のオフセット成分と揺らぎ成分を除去するステップと、
フォーカス中心を計算するステップと、
フォーカス中心の位相を計算するステップと、
を含むことを特徴とする請求項3に記載の非接触三次元形状測定方法。
Creating the three-dimensional map further comprises:
Extracting a gray scale waveform of image coordinates;
Removing the offset component and the fluctuation component of the gray waveform;
Calculating a focus center;
Calculating the phase of the focus center;
The non-contact three-dimensional shape measuring method according to claim 3, comprising:
前記濃淡波形のオフセット成分と揺らぎ成分を除去するステップが、濃淡波形の微分波形を計算するものであることを特徴とする請求項4に記載の非接触三次元形状測定方法。   5. The non-contact three-dimensional shape measuring method according to claim 4, wherein the step of removing the offset component and the fluctuation component of the gray waveform calculates a differential waveform of the gray waveform. 前記濃淡波形のオフセット成分と揺らぎ成分を除去するステップが、前記濃淡波形のある位相シフト量近傍±πの濃淡値を平均するものであることを特徴とする請求項4に記載の非接触三次元形状測定方法。   5. The non-contact three-dimensional image according to claim 4, wherein the step of removing the offset component and the fluctuation component of the grayscale waveform averages the grayscale values in the vicinity of a phase shift amount ± π of the grayscale waveform. Shape measurement method. 前記フォーカス中心を計算するステップが、nデータおきの濃淡変化の曲線の2乗波形それぞれについて、度数平均値を求め、抽出波形の山の高さに対応した係数による重み係数を付けて平均して求めるものであることを特徴とする請求項4に記載の非接触三次元形状測定方法。   The step of calculating the focus center calculates a frequency average value for each square waveform of the gradation change curve every n data, and adds a weighting coefficient by a coefficient corresponding to the height of the peak of the extracted waveform and averages it. The non-contact three-dimensional shape measuring method according to claim 4, wherein the non-contact three-dimensional shape measuring method is obtained. 前記フォーカス中心の位相を計算するステップが、マザーウェーブと積算し、フーリエ積分することによって、位相を求めるものであることを特徴とする請求項4に記載の非接触三次元形状測定方法。   5. The non-contact three-dimensional shape measuring method according to claim 4, wherein the step of calculating the phase of the focus center is to obtain the phase by integrating with a mother wave and performing Fourier integration. 位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定装置において、
フォーカスと位相をシフトさせながら、測定対象に格子パターンを投影する手段と、
フォーカスをシフトさせながら測定対象に投影されたパターンの画像データを入力する手段と、
入力された画像データを処理して、三次元マップを作成する手段と、
を備えたことを特徴とする非接触三次元形状測定装置。
By observing the lattice pattern projected on the measurement object while shifting the phase from a direction different from the projection direction, the shape is obtained by analyzing the contrast of the deformed lattice image corresponding to the shape of the measurement object. In the non-contact three-dimensional shape measuring apparatus,
Means for projecting a grating pattern onto a measurement object while shifting the focus and phase;
Means for inputting image data of a pattern projected on the measurement object while shifting the focus;
Means for processing the input image data to create a three-dimensional map;
A non-contact three-dimensional shape measuring apparatus comprising:
前記三次元マップを作成する手段が、
フォーカス中心から縞次数を決定して、位相をアンラップし、位相の絶対値を計算する手段と、
縞次数の格子面と撮像点のエピポーララインの交点の三次元位置を計算する手段と、
を含むことを特徴とする請求項9に記載の非接触三次元形状測定装置。
Means for creating the three-dimensional map;
Means for determining the fringe order from the focus center, unwrapping the phase, and calculating the absolute value of the phase;
Means for calculating the three-dimensional position of the intersection of the lattice plane of the fringe order and the epipolar line of the imaging point;
The non-contact three-dimensional shape measuring apparatus according to claim 9, comprising:
投影光学系と撮像光学系の歪みを補正する手段を更に備えたことを特徴とする請求項9に記載の非接触三次元形状測定装置。   The non-contact three-dimensional shape measuring apparatus according to claim 9, further comprising means for correcting distortion of the projection optical system and the imaging optical system. 投影光学系と撮像光学系が一つのシフト機構に搭載され、Z軸方向に駆動されることを特徴とする請求項9に記載の非接触三次元形状測定装置。   The non-contact three-dimensional shape measuring apparatus according to claim 9, wherein the projection optical system and the imaging optical system are mounted on one shift mechanism and driven in the Z-axis direction. 前記パターン投影手段が、
格子フィルタを横方向に移動させる格子シフト機構と、
該格子シフト機構ごと、格子フィルタを前後方向に移動させる第1のフォーカスシフト機構と、
を含むことを特徴とする請求項9に記載の非接触三次元形状測定装置。
The pattern projecting means;
A grating shift mechanism for moving the grating filter in the lateral direction;
A first focus shift mechanism for moving the lattice filter in the front-rear direction for each lattice shift mechanism;
The non-contact three-dimensional shape measuring apparatus according to claim 9, comprising:
前記画像データ入力手段が、
撮像素子を前後方向に移動させる第2のフォーカスシフト機構を含むことを特徴とする請求項9に記載の非接触三次元形状測定装置。
The image data input means is
The non-contact three-dimensional shape measuring apparatus according to claim 9, further comprising a second focus shift mechanism that moves the image sensor in the front-rear direction.
前記パターン投影手段の投影レンズと、前記画像データ入力手段の撮像レンズが、いずれも像側テレセントリック光学系とされていることを特徴とする請求項9に記載の非接触三次元形状測定装置。   The non-contact three-dimensional shape measuring apparatus according to claim 9, wherein the projection lens of the pattern projection unit and the imaging lens of the image data input unit are both image side telecentric optical systems. 前記パターン投影手段で格子フィルタを移動させる第1のフォーカスシフト機構と、前記画像データ入力手段で撮像素子を移動させる第2のフォーカスシフト機構が同期して駆動されることを特徴とする請求項9に記載の非接触三次元形状測定装置。   10. The first focus shift mechanism for moving a lattice filter by the pattern projection unit and the second focus shift mechanism for moving an image sensor by the image data input unit are driven in synchronization. The non-contact three-dimensional shape measuring apparatus described in 1. 前記投影パターンの位相シフト量に対応して点灯される照明手段を更に備えたことを特徴とする請求項9に記載の非接触三次元形状測定装置。   The non-contact three-dimensional shape measuring apparatus according to claim 9, further comprising an illumination unit that is turned on in accordance with a phase shift amount of the projection pattern. 前記パターン投影手段と画像データ入力手段が、測定ヘッドに一体化されていることを特徴とする請求項9に記載の非接触三次元形状測定装置。   The non-contact three-dimensional shape measuring apparatus according to claim 9, wherein the pattern projecting unit and the image data input unit are integrated with a measuring head. 前記三次元マップ作成手段が計算機で構成され、
該計算機が、測定ヘッドの撮像素子から入力した画像をキャプチャするフレームグラバと、測定ヘッドのシフト機構を制御するモーション制御ボードと、測定ヘッドを制御するための、フォーカスと位相を同時にシフトさせながら、連続画像を入力し、計算機のメインメモリへ転送する機能、測定ヘッドの測定範囲に相当する画像をライブ表示する機能、及び、測定の奥行き範囲を設定する機能を有するソフトウェアと、三次元マップを作成するための、フォーカスシフトにより振幅が変動する濃淡波形から、フォーカス中心を計算する機能、フォーカス中心付近の濃淡波形の位相を計算する機能、フォーカス中心データを使って位相をアンラップする機能、光学系の歪みを考慮して、画像上の座標を補正する機能、撮像素子のピクセルを起点とするエピポーララインと、格子パターン投影の格子面の交点を求め、ピクセルに投影されている三次元位置を計算する機能、画像データが正常に入力できたことを確認できるように、入力した連続画像を再生する機能、作成した三次元マップを表示する機能、及び、三次元マップの点群データを、CADフォーマットで保存する機能を有するソフトウェアを備えたことを特徴とする請求項9又は10に記載の非接触三次元形状測定装置。
The three-dimensional map creating means is composed of a computer,
While the computer simultaneously shifts the focus and phase for controlling the measurement head, the frame grabber for capturing the image input from the image sensor of the measurement head, the motion control board for controlling the shift mechanism of the measurement head, Creates a 3D map and software that has the function of inputting continuous images and transferring them to the main memory of the computer, the function of displaying live images corresponding to the measurement range of the measurement head, and the function of setting the measurement depth range. Function to calculate the focus center from the grayscale waveform whose amplitude fluctuates due to focus shift, the function to calculate the phase of the grayscale waveform near the focus center, the function to unwrap the phase using the focus center data, the optical system A function to correct the coordinates on the image taking distortion into account A function that calculates the intersection of the epipolar line and the lattice plane of the lattice pattern projection, calculates the three-dimensional position projected on the pixel, and the input continuous image so that it can be confirmed that the image data has been input normally 11. The software according to claim 9, further comprising software having a function of playing back, a function of displaying a created three-dimensional map, and a function of saving point cloud data of the three-dimensional map in a CAD format. Non-contact three-dimensional shape measuring device.
前記画像データ入力手段が、画像測定機の撮像光学系を利用したものであることを特徴とする請求項9に記載の非接触三次元形状測定装置。   The non-contact three-dimensional shape measuring apparatus according to claim 9, wherein the image data input means uses an imaging optical system of an image measuring machine. 前記測定ヘッドが画像測定機のZ軸へ、該画像測定機の撮像光学系と並列に取り付けられ、格子シフト及びフォーカスシフトが画像測定機のZ軸駆動により行われることを特徴とする請求項18に記載の非接触三次元形状測定装置。   19. The measuring head is attached to the Z axis of the image measuring machine in parallel with the imaging optical system of the image measuring machine, and lattice shift and focus shift are performed by Z axis driving of the image measuring machine. The non-contact three-dimensional shape measuring apparatus described in 1.
JP2004071128A 2003-03-31 2004-03-12 Non-contact three-dimensional shape measuring method and apparatus Expired - Lifetime JP4255865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004071128A JP4255865B2 (en) 2003-03-31 2004-03-12 Non-contact three-dimensional shape measuring method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003096712 2003-03-31
JP2004071128A JP4255865B2 (en) 2003-03-31 2004-03-12 Non-contact three-dimensional shape measuring method and apparatus

Publications (2)

Publication Number Publication Date
JP2004317495A JP2004317495A (en) 2004-11-11
JP4255865B2 true JP4255865B2 (en) 2009-04-15

Family

ID=33478741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004071128A Expired - Lifetime JP4255865B2 (en) 2003-03-31 2004-03-12 Non-contact three-dimensional shape measuring method and apparatus

Country Status (1)

Country Link
JP (1) JP4255865B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272573B1 (en) 2011-11-17 2013-06-10 재단법인대구경북과학기술원 Apparatus and Method for Estimating Depth Information Based Structured Light Pattern
WO2019146861A1 (en) * 2018-01-23 2019-08-01 한국표준과학연구원 System and method for compensating for non-linear response characteristic in phase-shifting deflectometry

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4282643B2 (en) 2005-08-30 2009-06-24 ダイハツ工業株式会社 Strain evaluation apparatus and strain evaluation method
JP4741344B2 (en) 2005-11-07 2011-08-03 ダイハツ工業株式会社 Shape recognition apparatus and distortion evaluation apparatus
JP2007315865A (en) * 2006-05-24 2007-12-06 Canon Machinery Inc Three-dimensional displacement measuring device and measuring method
EP2183546B1 (en) 2007-08-17 2015-10-21 Renishaw PLC Non-contact probe
KR101530930B1 (en) * 2008-08-19 2015-06-24 삼성전자주식회사 Pattern projecting apparatus, 3D imaging apparatus having the same, and varifocal liquid lens being used in the same
JP5395507B2 (en) * 2009-05-21 2014-01-22 キヤノン株式会社 Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and computer program
GB0915904D0 (en) 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
EP2327956B1 (en) * 2009-11-20 2014-01-22 Mitutoyo Corporation Method and apparatus for determining the height of a number of spatial positions on a sample
JP5595211B2 (en) * 2010-10-12 2014-09-24 キヤノン株式会社 Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and computer program
JP6041513B2 (en) 2012-04-03 2016-12-07 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2015114309A (en) * 2013-12-16 2015-06-22 株式会社オプトン Measuring device
CN103900494B (en) * 2014-03-31 2016-06-08 中国科学院上海光学精密机械研究所 For the homologous points fast matching method of binocular vision 3 D measurement
KR101541805B1 (en) 2014-07-01 2015-08-05 경북대학교 산학협력단 Method And Camera Apparatus For Depth Sectioning Using Structured Illumination
CN106168466B (en) * 2015-05-21 2019-06-28 财团法人工业技术研究院 Global image detection system and detection method thereof
US10591277B2 (en) * 2016-07-28 2020-03-17 Liberty Reach Inc. Method and system for measuring outermost dimension of a vehicle positioned at an inspection station
JP2018132452A (en) * 2017-02-16 2018-08-23 キヤノン株式会社 Image processor, image processing method, and program
KR20190025793A (en) * 2017-09-01 2019-03-12 (주)비에스텍 3d integration optical measurement systems and 3d integration optical measurement method for non-contact type 3d meter
JP7004244B2 (en) * 2017-12-27 2022-01-21 オムロン株式会社 Image processing system, image processing method, and its program
CN117804381B (en) * 2024-03-01 2024-05-10 成都信息工程大学 Three-dimensional reconstruction method for object based on camera array focusing structure light

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272573B1 (en) 2011-11-17 2013-06-10 재단법인대구경북과학기술원 Apparatus and Method for Estimating Depth Information Based Structured Light Pattern
WO2019146861A1 (en) * 2018-01-23 2019-08-01 한국표준과학연구원 System and method for compensating for non-linear response characteristic in phase-shifting deflectometry
JP2021511520A (en) * 2018-01-23 2021-05-06 コリア リサーチ インスティトゥート オブ スタンダード アンド サイエンス Systems and methods for compensating for nonlinear response characteristics with phase shift deflection measurements
JP7001835B2 (en) 2018-01-23 2022-01-20 コリア リサーチ インスティトゥート オブ スタンダード アンド サイエンス Systems and methods for compensating nonlinear response characteristics with phase shift deflection measurements

Also Published As

Publication number Publication date
JP2004317495A (en) 2004-11-11

Similar Documents

Publication Publication Date Title
JP4255865B2 (en) Non-contact three-dimensional shape measuring method and apparatus
US7286246B2 (en) Method and apparatus for non-contact three-dimensional surface measurement
JP4480488B2 (en) Measuring device, computer numerical control device, and program
JP5029618B2 (en) Three-dimensional shape measuring apparatus, method and program by pattern projection method
EP2183546B1 (en) Non-contact probe
US7400414B2 (en) Hand-size structured-light three-dimensional metrology imaging system and method
EP1777487B1 (en) Three-dimensional shape measuring apparatus, program and three-dimensional shape measuring method
US9441959B2 (en) Calibration method and shape measuring apparatus
KR20130032368A (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
JP5385703B2 (en) Inspection device, inspection method, and inspection program
JP5515432B2 (en) 3D shape measuring device
JP2021182011A (en) Surface shape measurement device and stitching measurement method thereof
JP6035031B2 (en) Three-dimensional shape measuring device using multiple grids
JP2007508557A (en) Device for scanning three-dimensional objects
JP2012132727A (en) Three-dimensional measuring device and three-dimensional measurement method
JP2012013592A (en) Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine
KR101465996B1 (en) Method for measurement of high speed 3d shape using selective long period
JP2017125707A (en) Measurement method and measurement device
US6867871B2 (en) Moiré grating noise eliminating method
JP5786999B2 (en) Three-dimensional shape measuring device, calibration method for three-dimensional shape measuring device
KR100379948B1 (en) Three-Dimensional Shape Measuring Method
JP2009186216A (en) Three-dimensional shape measuring device
KR100483345B1 (en) A scanning system based upon two-wavelength projection Moire method and its autonomous calibration using registration for multi-head system
Sciammarella et al. High Precision Gear Contouring Using Projection Moiré
JP2003329425A (en) Method and device for measuring surface shape

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4255865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150206

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250