JP4255865B2 - Non-contact three-dimensional shape measuring method and apparatus - Google Patents
Non-contact three-dimensional shape measuring method and apparatus Download PDFInfo
- Publication number
- JP4255865B2 JP4255865B2 JP2004071128A JP2004071128A JP4255865B2 JP 4255865 B2 JP4255865 B2 JP 4255865B2 JP 2004071128 A JP2004071128 A JP 2004071128A JP 2004071128 A JP2004071128 A JP 2004071128A JP 4255865 B2 JP4255865 B2 JP 4255865B2
- Authority
- JP
- Japan
- Prior art keywords
- contact
- phase
- focus
- dimensional shape
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000005259 measurement Methods 0.000 claims description 79
- 238000003384 imaging method Methods 0.000 claims description 50
- 230000003287 optical effect Effects 0.000 claims description 45
- 230000007246 mechanism Effects 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 20
- 230000010363 phase shift Effects 0.000 claims description 14
- 238000005286 illumination Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 9
- 238000000691 measurement method Methods 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 10
- 238000012937 correction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 2
- 229910052736 halogen Inorganic materials 0.000 description 2
- 150000002367 halogens Chemical class 0.000 description 2
- 229910052724 xenon Inorganic materials 0.000 description 2
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 2
- 238000002940 Newton-Raphson method Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、非接触三次元形状測定方法及び装置に係り、特に、デザイン形状のデジタル化によるCADへの展開や、試作・量産部品の形状精度評価(リバースエンジニアリング)のための非接触デジタイザに用いるのに好適な、実物大の自動車等の大きな測定範囲の三次元形状を、非接触で短時間に測定することが可能な、位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じて変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定方法及び装置に関する。 The present invention relates to a non-contact three-dimensional shape measuring method and apparatus, and more particularly, to a non-contact digitizer for development to CAD by digitizing a design shape and shape accuracy evaluation (reverse engineering) of prototype / mass production parts. It is possible to measure a three-dimensional shape in a large measurement range, such as a full-size automobile, in a non-contact manner in a short time. The present invention relates to a non-contact three-dimensional shape measuring method and apparatus for obtaining a shape by analyzing the contrast of a lattice image deformed according to the shape of a measurement object by observing from another direction.
三次元形状を非接触で短時間に測定する技術として、特許文献1、特許文献2、特許文献3に記載されたような、測定対象に格子状のパターンを投影し、測定対象各部の高さ分布に応じて変形した格子像から三次元形状を測定する、モアレトポグラフィを利用したモアレ法がある。このモアレ法には、図1に示す如く、投影用と観察用の2枚の格子G1、G2を投影レンズL1と撮像レンズL2の手前に配置し、格子G1をレンズL1により測定対象に投影し、物体形状に応じて変形した格子線をレンズL2を通じてもう一つの格子G2上に結像させ、縞等高線を基準面から所定距離h1、h2、h3、…、の所に生じさせるようにした格子撮影型と、図2に示す如く、基準面に1枚の大きな格子Gを配置し、投影レンズL1の位置に点光源S、撮像レンズL2の位置に観察眼eを配置して、格子Gの光源Sによる影を測定対象上に落し、物体形状に応じて変形した格子Gの影を形成させ、これを格子Gを通して観察眼eにより観察することにより、この格子Gと変形した格子の影とによって生じるモアレ縞を観測するようにした実体格子型がある。更に、特許文献4には、実体格子型のモアレ法に対して位相シフト法を適用可能とすることが記載されている。
As a technique for measuring a three-dimensional shape in a non-contact manner in a short time, a grid-like pattern is projected onto the measurement target as described in
一方、非特許文献1には、図3に示すような、格子パターン投影に位相シフトを組合せた非接触形状測定方法が記載されている。
On the other hand, Non-Patent
これは、次に示すような手順で形状を測定する。 The shape is measured by the following procedure.
(1)例えば照明ランプ10を用いて、投影レンズ14の手前に配置された格子フィルタ12を照明することにより、撮像光学系(撮像レンズ20)の焦点位置とは異なる位置から格子パターンを測定ワーク8に投影する。
(1) For example, by using the
(2)格子シフト機構16により、格子フィルタ12を矢印Aに示す横方向に移動(位相シフト)させ、撮像レンズ20を介して撮像素子22で得られる画像のピクセルの濃淡変化を正弦波形状にする。
(2) The
(3)等間隔の位相シフト量毎に、複数枚撮像する。 (3) A plurality of images are taken for each phase shift amount at equal intervals.
(4)各画素の位相及びコントラストを計算する。 (4) Calculate the phase and contrast of each pixel.
(5)測定ワーク8の位置を高さ方向(あるいは焦点方向等)へステップ移動して、(2)〜(4)を繰り返す。測定ワーク8の位置は最低2回移動する。
(5) Step the position of the
(6)各画素の最大コントラストをとる合焦位置を求め、縞次数を求める。 (6) A focus position for obtaining the maximum contrast of each pixel is obtained, and a fringe order is obtained.
(7)各画素の最大コントラストのときの位相を選択し、位相分布を求める。 (7) The phase at the maximum contrast of each pixel is selected to obtain the phase distribution.
(8)基準位相との位相差を計算する。 (8) The phase difference from the reference phase is calculated.
(9)位相差と縞次数を用いて奥行き方向の距離(高さ)を計算する。 (9) The distance (height) in the depth direction is calculated using the phase difference and the fringe order.
しかしながら特許文献1〜4では、図4のように、位相が2π変化する毎に同じ出力が繰返されるため、位相シフトのみでは、投影された格子の何番目のラインが映っているかを特定できず、縞の次数を決定できない。従って、測定範囲がA、B、C、D、…、のいずれかに限定され、測定範囲を1縞の次数以内にすると、格子間隔が広くなり、測定精度が落ちる。逆に格子間隔を小さくし、高精度を確保しようとすると、奥行き方向の測定範囲が小さくなる。又、ピントが合っているピクセルに比べて、ピントがボケているピクセルは測定精度が悪くなる等の問題点を有していた。
However, in
一方、非特許文献1では、測定のステップ数が少ない場合は、最大コントラストを求める際に行うガウス関数のフィッティング時に誤差が発生するので、ステップとステップの間に位置する点の精度が落ちる。移動回数を増やすことで、この誤差は減少できるが、測定時間の増大を伴う。また、測定ワークを動かす、あるいは照明光学系、撮像光学系を動かすため、装置が複雑になる。更に、奥行き方向の測定範囲は、ステップ数を増やすことで広げることはできるが、測定時間、装置面の制約がある等の問題点を有していた。
On the other hand, in
本発明は、前記従来の問題を解決するべくなされたもので、小型化可能な単純な構成で、奥行き方向の測定範囲を拡大して、測定範囲の全体に亘って、高精度測定を実現することを課題とする。 The present invention has been made to solve the above-described conventional problems, and with a simple configuration that can be reduced in size, expands the measurement range in the depth direction and realizes high-accuracy measurement over the entire measurement range. This is the issue.
本発明は、位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定方法において、位相と同時に投影側と撮像側のフォーカスを連続的にシフトさせ、奥行き方向の測定範囲を拡大するようにして、前記課題を解決したものである。 The present invention analyzes the contrast of the lattice image deformed according to the shape of the measurement object by observing the lattice pattern projected on the measurement object while shifting the phase from a direction different from the projection direction. In the non-contact three-dimensional shape measurement method that obtains the above-mentioned problem, the focus on the projection side and the imaging side is continuously shifted simultaneously with the phase to expand the measurement range in the depth direction. is there.
本発明は、又、位相をシフトさせつつ測定対象に投影した格子パターンを、投影方向とは別の方向から観測することにより、測定対象の形状に応じた変形した格子像のコントラストを解析することで形状を得るようにした非接触三次元形状測定装置において、フォーカスと位相をシフトさせながら、測定対象に格子パターンを投影する手段と、フォーカスをシフトさせながら測定対象に投影されたパターンの画像データを入力する手段と、入力された画像データを処理して、三次元マップを作成する手段とを備えることにより、同じく前記課題を解決したものである。 The present invention also analyzes the contrast of the lattice image deformed according to the shape of the measurement object by observing the lattice pattern projected onto the measurement object while shifting the phase from a direction different from the projection direction. In a non-contact three-dimensional shape measuring apparatus that obtains a shape by means of, a means for projecting a lattice pattern onto the measurement object while shifting the focus and phase, and image data of the pattern projected onto the measurement object while shifting the focus The above-mentioned problem is similarly solved by providing a means for inputting the image data and a means for processing the input image data to create a three-dimensional map.
又、前記三次元マップを作成する手段が、フォーカス中心から縞次数を決定して、位相をアンラップし、位相の絶対値を計算する手段と、縞次数の格子面と撮像点のエピポーララインの交点の三次元位置を計算する手段とを含むようにしたものである。 Further, the means for creating the three-dimensional map determines the fringe order from the focus center, unwraps the phase, calculates the absolute value of the phase, and the intersection of the grating plane of the fringe order and the epipolar line of the imaging point And a means for calculating the three-dimensional position.
更に、投影光学系と撮像光学系の歪み(ディストーション)を補正する手段を備えるようにしたものである。 Further, a means for correcting distortion (distortion) of the projection optical system and the imaging optical system is provided.
又、投影光学系と撮像光学系を一つのシフト機構に搭載して、Z軸方向に駆動するようにしたものである。 Further, the projection optical system and the imaging optical system are mounted on one shift mechanism and driven in the Z-axis direction.
本発明においては、格子の縞次数の決定を可能にし、高精度のまま奥行き方向の測定範囲を広げるため、フォーカスシフトを組合わせる。 In the present invention, the focus shift is combined to enable determination of the fringe order of the grating and to extend the measurement range in the depth direction with high accuracy.
本発明によれば、格子パターンの縞次数をフォーカス中心から求め、位相をアンラップし、奥行き(Z)方向の絶対値を求めると共に、フォーカスを連続的にシフトさせているので、高精度を維持しつつ、奥行き方向の測定範囲が飛躍的に拡大する。しかも、ピクセル毎にフォーカスが合ったときの位相から三次元座標値を計算するので、全ての測定点にピントが合った状態で座標値を求めることができ、XY方向も高精度に測定できる。 According to the present invention, the fringe order of the grating pattern is obtained from the focus center, the phase is unwrapped, the absolute value in the depth (Z) direction is obtained, and the focus is continuously shifted, so that high accuracy is maintained. However, the measurement range in the depth direction is dramatically expanded. In addition, since the three-dimensional coordinate value is calculated from the phase when each pixel is in focus, the coordinate value can be obtained with all the measurement points in focus, and the XY directions can also be measured with high accuracy.
以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本発明を実施するための装置の全体構成を図5に示す。 FIG. 5 shows the overall configuration of an apparatus for carrying out the present invention.
本実施形態は、図3に示した従来例と同様の装置において、更に、格子フィルタ12を矢印Aで示す横方向に一定速度で移動させる格子シフト機構16ごと、格子フィルタ12を矢印Bで示す前後方向に一定速度で移動させるための第1のフォーカスシフト機構18と、カメラ等の撮像素子22を同じく矢印Bで示す前後方向に一定速度で移動させるための第2のフォーカスシフト機構24とを設けると共に、フォーカスをシフトしてもピクセルに写っている測定ワーク8上の撮像点が変化しないように、投影レンズ15及び撮像レンズ21を、いずれも像側テレセントリック光学系としたものである。
In this embodiment, in the same apparatus as the conventional example shown in FIG. 3, the
前記格子フィルタ12用の第1のフォーカスシフト機構18と、撮像素子22用の第2のフォーカスシフト機構24は、同期して移動するように制御される。
The first
前記格子フィルタ12の位相シフト量に対応して、撮像素子22の撮像タイミングが決定される。この撮像タイミングに合わせて、照明ランプ10が点灯される。該照明ランプ10としては、例えばキセノンフラッシュやハロゲンランプが用いられる。
Corresponding to the phase shift amount of the
本発明に係る処理は、図6に示すような手順に従って行なわれる。即ち、まずステップ100で、一定速度でフォーカスと位相をシフトさせながら、連続的に測定ワーク8の画像データを入力する。あるピクセルの濃淡波形の例を図7に示す。データ入力時間は、例えば30fpsのカメラ(撮像素子22)で128枚撮像するとして、4.3秒である。ここで、横軸の時間tは、撮像枚数に対応している。
The processing according to the present invention is performed according to a procedure as shown in FIG. That is, first, in
次いでステップ200に進み、入力したデータを計算機内で処理して、三次元マップを作成する。即ち、フォーカス中心と位相は、図8に示すような関係にあるので、ステップ210で、フォーカス中心から縞次数を決定して、0〜2π→0〜nπへ位相接続(アンラップと称する)し、位相の絶対値を計算する。又、図9に示す如く、縞次数の格子面と、撮像面のエピポーララインは、カメラロケーション、焦点距離、画像中心等の既知のパラメータと、ステップ210で求めた絶対位相から求まるので、ステップ220で、その交点の三次元位置を、画面座標(u,v)の撮像点の三次元位置として計算する。これを画像全体にわたって計算することで、三次元マップを作成する。
Next, the process proceeds to step 200, where the input data is processed in the computer to create a three-dimensional map. That is, since the focus center and the phase are in a relationship as shown in FIG. 8, in
前出ステップ100における画像データ入力は、具体的には、図10に示す手順により行なわれる。即ち、まずステップ102で、投影光学系と撮像光学系のフォーカスシフト機構18、24を初期位置へ移動させる。
Specifically, the image data input in the
次いでステップ104で、照明ランプ10を点灯させ、格子フィルタ12のパターンを測定ワーク8上に投影する。
Next, at
次いでステップ106で、投影光学系と撮像光学系のフォーカスシフト機構18、24を、次式に示す如く、一定速度Vで移動させる。
Next, at
zf=V*t+z0 …(1) z f = V * t + z 0 (1)
次いでステップ108に進み、格子シフト機構16を、次式に示す如く、一定速度ωで移動させる。
Next, in
φ=ω*t+φ0 …(2) φ = ω * t + φ 0 (2)
次いでステップ110に進み、必要な撮像枚数Kに到達したか否かを判定する。撮影枚数iがKに到達したときは、そのまま、この手順を終了する。 Next, the routine proceeds to step 110, where it is determined whether or not the necessary number of images K has been reached. When the number of shots i has reached K, this procedure is terminated.
一方、撮像枚数iが必要撮像枚数Kより小さい場合には、ステップ112に進んで撮像し、ステップ114で計算機のメモリへ画像を転送し、ステップ116で、格子の位相が所定値2π/n進むまで待つ。 On the other hand, if the number i of images to be captured is smaller than the required number K of images to be captured, the process proceeds to step 112, where the image is captured, the image is transferred to the memory of the computer at step 114, Wait until.
前出ステップ200における三次元マップ作成に際しては、図11に示すように、画像の全画素について、左上隅の画素を(u、v)=(0,0)として、まずv=0,すなわち1行目の画素について、左端のu=0よりu=wまで、濃淡波形の抽出から三次元位置(4)の計算までを実施し、次にv=1の行について、上記処理を実施、最後のv=hの行まで同様に繰り返し実施し、画像の全画素の三次元位置の計算が終了する。
When creating the three-dimensional map in the
具体的には、図12に示す如く、ステップ250で画像座標の濃淡波形を抽出した後、ステップ260に進み、濃淡波形のオフセット成分と揺らぎ成分を除去する。このステップ260における濃淡波形のオフセット成分と揺らぎ成分の除去は、濃淡波形のオフセット成分を排除すると共に、ピンボケによるワーク撮像点近傍からの反射光の入射や、周辺環境の照明変化によるオフセット成分の揺らぎを排除するために行なう。但し、揺らぎの変化は、位相シフトによる濃淡変化より、十分緩やかであるとする。
Specifically, as shown in FIG. 12, after extracting the grayscale waveform of the image coordinates in
具体的には、図13に示す如く、ステップ262で濃淡波形の微分波形を計算することによって、オフセットと揺らぎ成分を除去できる。即ち、撮像枚数がi番目の画像座標(u,v)の濃淡波形を次式
Gi=A(i)sin{(2πi/n)+φ}+B+ε(i) …(3)
(但し、A(i)=波形の振幅変動、B=オフセット、ε(i)=揺らぎ成分)
で表わすと、微分波形は次式となり、オフセットと揺らぎ成分を除去できる。
Specifically, as shown in FIG. 13, the offset and fluctuation components can be removed by calculating the differential waveform of the grayscale waveform in
(However, A (i) = Amplitude fluctuation of waveform, B = Offset, ε (i) = Fluctuation component)
In this case, the differential waveform becomes the following equation, and the offset and fluctuation components can be removed.
又、離散データを微分するため、微分波形はπ/nだけ位相が進む。 Further, in order to differentiate discrete data, the phase of the differentiated waveform advances by π / n.
なお、ステップ260の濃淡波形のオフセット成分と揺らぎ成分の除去は、図14に示す変形例の如く、ステップ264で、ある位相シフト量での濃淡波形のオフセット値を、その近傍(前後)±πの濃淡値の平均値として除去することも可能である。
Note that the grayscale waveform offset component and the fluctuation component in
即ち、画像座標(u,v)の濃淡波形を、前出(3)式で、表すと、iにおけるオフセット+揺らぎ成分B+ε(i)は、次の(4a)式となり、オフセットと揺らぎ成分を除去した濃淡波形gi は、次の(4b)式となる。 That is, when the grayscale waveform of the image coordinates (u, v) is expressed by the above equation (3), the offset + fluctuation component B + ε (i) at i becomes the following equation (4a), and the offset and fluctuation are expressed as follows: The gray waveform g i from which the component is removed is expressed by the following equation (4b).
この場合、除去後の濃淡波形の位相は、ずれない。 In this case, the phase of the grayscale waveform after removal is not shifted.
図12のステップ260終了後、ステップ270に進み、フォーカス中心(図8の(1))を計算する。このステップ270におけるフォーカス中心の計算は、縞次数を決定するべく、フォーカスが合っているZ軸方向の奥行きを計算するために行なわれる。即ち、格子投影の位相シフトピッチが、2π/n(但しnは整数)とすると、nデータおきの濃淡変化は、フォーカスのコントラスト曲線となり、コントラスト曲線の頂点、即ち、濃淡値が最大となる位置がフォーカス中心となる。従って、コントラスト曲線を正規分布曲線と見なし、統計計算で頂点を求めることができる。
After
具体的な処理手順を図15に示す。ここでは、nデータおきの濃淡変化の曲線(j本の抽出波形)の2乗波形それぞれについて、度数平均値を求め、抽出波形の山の高さに対応した係数(面積比)による重み係数を付けて平均して求める。 A specific processing procedure is shown in FIG. Here, the frequency average value is obtained for each of the square waveforms of the gradation change curve (j extracted waveforms) every n data, and the weighting coefficient by the coefficient (area ratio) corresponding to the peak height of the extracted waveform is obtained. Add and average.
図12のステップ270終了後、ステップ290に進み、フォーカス中心の位相(図8の(2))(−π〜π)を計算する。このステップ290における位相計算は、格子パターン投影の縞の位相を計算するために行なわれる。ここで、フォーカスからずれたところの波形は、撮像点近傍の反射光が混入しているため、フォーカス中心に近いデータの重みを大きくして、位相を求めることができる。
After step 270 in FIG. 12 is completed, the process proceeds to step 290, where the phase at the focus center ((2) in FIG. 8) (−π to π) is calculated. The phase calculation in this
即ち、格子パターン投影の位相シフトピッチが2π/n(但しnは整数)とすると、nデータおきの微分波形値は正規分布曲線となり、位相2πi/n(但しi=0,1,…,n−1)におけるフォーカシングのコントラスト曲線を表わす。又、各位相のコントラスト曲線は、フォーカス中心の頂点の高さに比例する。更に、コントラスト曲線と濃淡値の中央ラインで囲まれる面積(≒nデータおきの微分波形値の総和)が、コントラスト曲線の頂点の高さに比例する。そこで、図16に具体的な処理手順を示す如く、ステップ292で求めたマザーウェーブmjと積算し、ステップ300でフーリエ積分することによって、位相を求める。即ち、π/8〜(15π)/8まで、π/4毎に8つの位相のコントラスト曲線があるので、その各曲線と濃淡値の中央ラインにより囲まれる面積を求め、図17のように各位相の区間の面積により形成される正弦波を求める(フーリエ積分)。そして、マザーウェーブとこの正弦波の位相差をφとして求める。これを、全画素(u,v)について行う。
That is, if the phase shift pitch of the lattice pattern projection is 2π / n (where n is an integer), the differential waveform value every n data becomes a normal distribution curve, and the phase 2πi / n (where i = 0, 1,..., N) 1 represents a focusing contrast curve in -1). The contrast curve for each phase is proportional to the height of the vertex at the focus center. Furthermore, the area surrounded by the center line of the contrast curve and the gray value (≈the sum of differential waveform values every n data) is proportional to the height of the vertex of the contrast curve. Therefore, as shown in a specific processing procedure in FIG. 16, the phase is obtained by integrating with the mother wave mj obtained in
図12のステップ290終了後、ステップ310に進み、位相をアンラップし、フォーカス中心に最も近い縞次数の位相として絶対位相(図8の(3))を計算する。このステップ310における位相のアンラップは、フォーカス中心に最も近い縞を求め、絶対位相を計算するために行なわれる。具体的な処理手順を図18に示す。即ち、図8の(2)で、左端から数えて、格子のどの縞次数に当たるかを計算する。従って、ステップ322のφfocusは、アンラップのおおよその値(アンラップの位相に近い値)になる。又、ステップ324中の式において、exp(iφ)は、−π〜+πの間の正確な位相であり、右辺第2項は、角度(φ−φfocusの端数角)を求め、
φfocus=(2π×次数)+φfocusの端数角
であるので、
φunwrap=(2π×次数)+φ
により正確な位相が求められる。
After
Since φfocus = (2π × order) + φfocus fractional angle,
φunwrap = (2π × order) + φ
Therefore, an accurate phase is obtained.
図12のステップ310終了後、ステップ330に進み、実際の点Piの三次元位置(図8の(4))を計算して、ステップ240に戻る。このステップ330における三次元位置の計算は、撮像している点の三次元位置を計算するために行なわれる。具体的な処理手順を図19に示す。
After step 310 in FIG. 12 is completed, the process proceeds to step 330, where the actual three-dimensional position of the point Pi ((4) in FIG. 8) is calculated, and the process returns to step 240. The calculation of the three-dimensional position in
図6のステップ220で三次元位置を計算する際に、必要であれば、ステップ400で測定ヘッドの歪み(ディストーション)補正を行なって、高精度化を図る。
When calculating the three-dimensional position in
具体的には、投影光学系と撮像光学系は、図20に示すような歪みを持っているため、この歪みを考慮したカメラモデル式で補正する。 Specifically, since the projection optical system and the imaging optical system have a distortion as shown in FIG. 20, the correction is performed by a camera model formula taking this distortion into consideration.
予め既知の格子パターンを撮影することによって得られた歪み座標(udist,vdist)から元のピンホール座標(xpin,ypin)を求めるためのカメラモデル式の例を次に示す。 An example of a camera model formula for obtaining the original pinhole coordinates (x pin , y pin ) from the distortion coordinates (u dist , v dist ) obtained by photographing a known lattice pattern in advance is shown below.
xdist=(udist−u0)/fu、ydist=(vdist−v0)/fv …(5)
xpin=xdist+(g1+g3)xdist 2+g4xdistydist
+g1ydist 2+(k1r2+k2r4)xdist …(6)
ypin=xdist+g2xdist 2+g3xdistydist
+(g2+g4)ydist 2+(k1r2+k2r4)ydist…(7)
但し、r2=xdist 2+ydist 2
x dist = (u dist −u 0 ) / f u , y dist = (v dist −v 0 ) / f v (5)
x pin = x dist + (g 1 + g 3 ) x dist 2 + g 4 x dist y dist
+ G 1 y dist 2 + (k 1 r 2 + k 2 r 4 ) x dist (6)
y pin = x dist + g 2 x dist 2 + g 3 x dist y dist
+ (G 2 + g 4 ) y dist 2 + (k 1 r 2 + k 2 r 4 ) y dist (7)
However, r 2 = x dist 2 + y dist 2
一方、投影レンズによる歪みを補正するために、ピンホール座標(xpin,ypin)から歪み座標(udist,vdist)を求める計算は、ニュートン法による収束計算で求めることができる。具体的には次のようにして行なう。 On the other hand, calculation for obtaining distortion coordinates (u dist , v dist ) from pinhole coordinates (x pin , y pin ) in order to correct distortion due to the projection lens can be obtained by convergence calculation by Newton's method. Specifically, this is performed as follows.
(1)初期値設定
(xdist,ydist)=(xpin,ypin) …(8)
(1) Initial value setting (x dist , y dist ) = (x pin , y pin ) (8)
(2)誤差計算
歪み座標(xdist,ydist)を仮のピンホール座標(xtemp,ytemp)へ変換し、求めたいピンホール座標との誤差(xerr,yerr)を計算する。
(2) Error calculation The distortion coordinates (x dist , y dist ) are converted into temporary pinhole coordinates (x temp , y temp ), and errors (x err , y err ) with the desired pinhole coordinates are calculated.
(xerr,yerr)=(xtemp,ytemp)−(xpin,ypin) …(9) (X err , y err ) = (x temp , y temp ) − (x pin , y pin ) (9)
(3)修正量計算
(∂xpin/∂xdist)=1+2(g1+g3)xdist+g4ydist
+k1(3xdist 2+ydist 2)+k2(5xdist 4+6xdist 2ydist 2+ydist 4)
…(10)
(∂xpin/∂ydist)=g4xdist+2g1ydist+2k1xdistydist
+4k2(xdist 3ydist+xdistydist 3) …(11)
(∂ypin/∂xdist)=2g2xdist+g3ydist+2k1xdistydist
+4k2(xdist 3ydist+xdistydist 3) …(12)
(∂ypin/∂ydist)=1+g3ydist+2(g2+g4)ydist
+k1(xdist 2+3ydist 2)+k2(xdist 4+6xdist 2ydist 2+5ydist 4)
…(13)
(3) Correction amount calculation (∂x pin / ∂x dist ) = 1 + 2 (g 1 + g 3 ) x dist + g 4 y dist
+ K 1 (3x dist 2 + y dist 2 ) + k 2 (5x dist 4 + 6x dist 2 y dist 2 + y dist 4 )
…(Ten)
(∂x pin / ∂y dist ) = g 4 x dist + 2g 1 y dist + 2k 1 x dist y dist
+ 4k 2 (x dist 3 y dist + x dist y dist 3 ) (11)
(∂y pin / ∂x dist ) = 2g 2 x dist + g 3 y dist + 2k 1 x dist y dist
+ 4k 2 (x dist 3 y dist + x dist y dist 3 ) (12)
(∂y pin / ∂y dist ) = 1 + g 3 y dist +2 (g 2 + g 4 ) y dist
+ K 1 (x dist 2 + 3y dist 2 ) + k 2 (x dist 4 + 6x dist 2 y dist 2 + 5y dist 4 )
…(13)
ただし、第2項による影響量は小さいことより、及び計算量を少なくするため、第2項を省略して、以下により計算してもよい。 However, in order to reduce the influence amount by the second term and to reduce the calculation amount, the second term may be omitted and the calculation may be performed as follows.
(4)歪み座標の修正
(xdist,ydist)=(xdist,ydist)−(xdiff,ydiff) …(16)
(4) Correction of distortion coordinates (x dist , y dist ) = (x dist , y dist ) − (x diff , y diff ) (16)
(5)収束判定
例えば(xdiff<ε)、且つ(ydiff<ε)であれば収束計算を終了させる。そうでなければ、(2)に戻って座標を修正する。
(5) Convergence determination For example, if (x diff <ε) and (y diff <ε), the convergence calculation is terminated. Otherwise, return to (2) to correct the coordinates.
ここで、fu、fvは焦点距離(X軸、Y軸)、u0、v0は画像中心を表わす線形パラメータ、k1、k2はラジアル方向の歪み係数、g0、g1、g2、g3は、直交方向の歪み係数を表わす歪みパラメータである。 Here, f u and f v are focal lengths (X-axis and Y-axis), u 0 and v 0 are linear parameters representing the image center, k 1 and k 2 are radial distortion coefficients, g 0 , g 1 , g 2 and g 3 are distortion parameters representing distortion coefficients in the orthogonal direction.
発明者の実験によれば、前記カメラモデルでε=1×e-8の場合、平均1.5回、最大6回程度で収束する。 According to the inventor's experiment, when ε = 1 × e −8 in the camera model, convergence is achieved on average 1.5 times and maximum 6 times.
なお、歪み補正に関しては、次の文献に詳しく記載されている。 The distortion correction is described in detail in the following document.
Juyang Weng,”Camera Calibration with Distortion Models and Accuracy Evaluation”IEEE Trans.Patt.Anal.Maching Intell.vol.14,no.4,pp965−980
Zhengyou Zhang,”AFlexible New Technique for Camera Calibration”Dec.2.1998,MSR−TR−98−71
Juyang Weng, “Camera Calibration with Distribution Models and Accuracy Evaluation” IEEE Trans. Patt. Anal. Machining Intel. vol. 14, no. 4, pp 965-980
Zhengyou Zhang, “AFlexible New Technique for Camera Calibration” Dec. 2.1998, MSR-TR-98-71
なお、図19のステップ342〜354で、Newton−Raphson法により収束計算を行なっているのは、歪みが非線形であるので、その影響を除くためである。
The reason why the convergence calculation is performed by the Newton-Raphson method in
このようにして、レンズ光学系とシフト機構系の歪みを補正することにより、XY方向の測定精度を高めることができる。なお、用途によっては歪みの補正を省略することもできる。 Thus, by correcting the distortion of the lens optical system and the shift mechanism system, the measurement accuracy in the XY directions can be increased. Depending on the application, correction of distortion can be omitted.
具体的な実施例のシステム構成を図21に示す。 The system configuration of a specific embodiment is shown in FIG.
本実施例は、格子パターンを投影する投影部、及び、異なる視点から撮像する撮像部を持つ測定ヘッド40と、撮像した画像データから三次元マップを計算する計算機(PC)50と、これらを接続するケーブル60とを含んで構成されている。
In this embodiment, a
前記測定ヘッド40は、具体的には、図22(上から見た断面図)及び図23(図22のXXIII−XXIII線に沿う横断面図)に示す如く、格子フィルタ12を一定速度で移動させる格子シフト機構16と、格子パターンを投影するための照明ランプ10と、投影された格子パターンを撮像するための撮像素子(カメラ)22と、投影光学系のフォーカスを一定速度で移動させる第1のフォーカスシフト機構18と、撮像光学系のフォーカスを一定速度で移動させる第2のフォーカスシフト機構24と、フォーカスをシフトしても、ピクセルに写っているワーク上の撮像点が変化しないような、像側テレセントリック光学系を持つ投影レンズ15B、及び、撮像レンズ21と、格子フィルタ12のシフト量を検出して、カメラ22へ撮像タイミング信号を生成するカメラ制御ボード42と、格子シフト機構16の駆動装置とフォーカスシフト機構18、24の駆動装置を、同期させて移動させる制御回路(図示省略)と、撮像するときに照明ランプ10を点灯させるプロジェクタ制御ボード44とを備えている。図において、46は例えば手動の絞り、48は冷却ファンである。
Specifically, the measuring
ここで投影光学系(15)及び撮像光学系(21)を像側テレセントリックとしているのは、フォーカスをシフトしても、ピクセルに写っている測定ワーク8上の撮像点が変化しないようにするためである。
Here, the projection optical system (15) and the imaging optical system (21) are image-side telecentric so that the imaging point on the
前記計算機50は、測定ヘッド40の撮像素子22から入力した画像をキャプチャするフレームグラバ52と、測定ヘッド40のシフト機構16、18、24を制御するモーション制御ボード54と、測定ヘッド40を制御するための、フォーカスと位相を同時にシフトさせながら、連続画像を入力し、計算機50のメインメモリへ転送する機能、測定ヘッド40の測定範囲に相当する画像をライブ表示する機能、及び、測定の奥行き範囲を設定する機能を有するソフトウェア(図示省略)と、三次元マップを作成するための、フォーカスシフトにより振幅が変動する濃淡波形から、フォーカス中心を計算する機能、フォーカス中心付近の濃淡波形の位相を計算する機能、フォーカス中心データを使って位相をアンラップする機能、光学系の歪みを考慮して、画像上の座標を補正する機能、撮像素子22のピクセルを起点とするエピポーララインと、格子パターン投影の格子面の交点を求め、ピクセルに投影されている三次元位置を計算する機能、画像データが正常に入力できたことを確認できるように、入力した連続画像を再生する機能、作成した三次元マップを表示する機能、及び、三次元マップの点群データを、IGESなどのCADフォーマットで保存する機能を有するソフトウェア(図示省略)を備えている。
The
本実施例により測定ワーク(ここでは自動車)8を測定している様子を図24に示す。 FIG. 24 shows a state in which the measurement workpiece (in this case, an automobile) 8 is being measured according to this embodiment.
以下、撮像枚数を128枚とし、投影側と撮像側の間隔を500mmに設定した測定例を説明する。ここで、間隔を広くすると、縞次数間が狭まり、分解能が上がる。今、測定ワーク8が図25に示すような形状の実物大の自動車であり、測定範囲がX方向4000mm×Y方向3000mm×Z方向2000mm、ワーク中心迄の距離が4800mm、画像サイズが320×240ピクセルであったとすると、焦点深度が無限大のピンホール光学系のときは、図26に示すように、手前から奥まではっきりと格子パターンが投影され、撮像される。一方、実際の光学系は、焦点深度が有限であるので、図27のように、焦点位置によって格子パターンの投影範囲が制限される。
Hereinafter, a measurement example in which the number of captured images is 128 and the interval between the projection side and the imaging side is set to 500 mm will be described. Here, when the interval is widened, the stripe order is narrowed, and the resolution is increased. Now, the
次に、三次元マップを作成する過程を図28乃至図31に示す。今、フォーカス中心画像のみから求めた三次元マップが、フルスケールの奥行き表現で図28(a)、200mmピッチの奥行き表現で図28(b)に示す如くであった場合、位相画像は図29、アンラップ位相画像は図30に示す如くとなり、最終的に得られる三次元マップ画像は、フルスケールの奥行き表現で図31(a)、200mmピッチの奥行き表現で図31(b)に示す如くとなる。図では分かり難いが、特に200mmピッチの奥行き表現の場合、図31(b)は図28(b)に比べて滑らかな形状が得られていることは明らかである。 Next, the process of creating a three-dimensional map is shown in FIGS. Now, when the three-dimensional map obtained from only the focus center image is as shown in FIG. 28A in full scale depth representation and in FIG. 28B in 200 mm pitch depth representation, the phase image is as shown in FIG. The unwrapped phase image is as shown in FIG. 30, and the finally obtained three-dimensional map image is as shown in FIG. 31 (a) with a full-scale depth representation and as shown in FIG. 31 (b) with a depth representation of 200 mm pitch. Become. Although it is difficult to understand in the figure, it is clear that a smooth shape is obtained in FIG. 31B compared to FIG.
実機を想定したノイズ成分を付加したデータの測定結果の誤差を図30に示す。タイヤは光が返ってこないため、ノイズに埋もれて低精度となっているが、他の部分については高精度な測定結果が得られている。 FIG. 30 shows an error in the measurement result of data added with noise components assuming an actual machine. Since tires do not return light, they are buried in noise and have low accuracy, but high-precision measurement results are obtained for other portions.
なお、前記実施例では自動車が測定対象とされていたが、測定対象の種類は、これに限定されない。光源も、キセノンフラッシュやハロゲンランプに限定されない。 In the embodiment, the automobile is the measurement object, but the type of the measurement object is not limited to this. The light source is not limited to a xenon flash or a halogen lamp.
次に、画像測定機での実施例について説明する。この実施例は、(1)画像測定機の撮像光学系(測定光学系)はそのまま使用して、投影光学系を追加する、あるいは、(2)画像測定機の撮像光学系を使用せずに、図33に示す如く、撮像光学系及び投影光学系が組み込まれた測定ヘッド40を画像測定機のZ軸へ、上記画像測定機の撮像光学系と並列に取り付け、格子シフト及びフォーカスシフトを画像測定機のZ軸駆動により行う方法がある。
Next, an example of an image measuring machine will be described. In this embodiment, (1) the imaging optical system (measurement optical system) of the image measuring machine is used as it is and a projection optical system is added, or (2) the imaging optical system of the image measuring machine is not used. 33, a measuring
図33の実施例では、格子シフト機構とフォーカスシフト機構は、Z軸方向のガイド機構60で代用できる。フォーカスシフトは、現行の画像測定機と同様に測定ヘッド40自体がZ軸方向に上下して行う。格子パターンは斜めから投影されるので、測定ヘッド40が上下することで、測定ワーク8へ投影される格子パターンが移動し、位相シフトされる。フォーカスシフト速度と位相シフト速度は、投影光学系の角度の調節か、格子間隔の調節で、設定する。
In the embodiment of FIG. 33, the lattice shift mechanism and the focus shift mechanism can be substituted by the
図において、6は測定ワーク8が載置されているステージ、11は発光素子、15、21はそれぞれ両側テレセントリックの投影レンズ及び撮像レンズ、45は照明制御回路、62はZ軸ガイド機構の送りモータ、64は該送りモータ62を制御するためのモーション制御ユニットである。
In the figure, 6 is a stage on which a
(2)の方法であると、画像測定機に限らず、三次元測定機(Z軸がモータで、一定速で駆動できるタイプの三次元測定機)にも取り付けて使用することができる。いずれの場合も、格子パターンが斜めから投影されるため、Z軸方向の移動のみで良い。 The method (2) is not limited to an image measuring machine, but can be used by attaching to a coordinate measuring machine (a coordinate measuring machine of a type that can be driven at a constant speed by a motor with a Z-axis). In either case, since the lattice pattern is projected obliquely, only the movement in the Z-axis direction is required.
又、前記説明では、格子シフト機構及びフォーカスシフト機構が、いずれも一定速度で移動するようにされていたが、シフト位置が把握できれば、一定速度で移動しなくても良い。 In the above description, the lattice shift mechanism and the focus shift mechanism are both moved at a constant speed. However, if the shift position can be grasped, it may not be moved at a constant speed.
6…ステージ
8…測定ワーク
10…照明ランプ
11…発光素子
12…格子フィルタ
15、15A、15B…投影レンズ
16…格子シフト機構
18、24…フォーカスシフト機構
21…撮像レンズ
22…撮像素子
40…測定ヘッド
50…計算機(PC)
60…Z軸ガイド機構
62…送りモータ
DESCRIPTION OF SYMBOLS 6 ...
60 ... Z-axis guide mechanism 62 ... Feed motor
Claims (21)
位相と同時に投影側と撮像側のフォーカスを連続的にシフトさせて、奥行き方向の測定範囲を拡大したことを特徴とする非接触三次元形状測定方法。 By observing the lattice pattern projected on the measurement object while shifting the phase from a direction different from the projection direction, the shape is obtained by analyzing the contrast of the deformed lattice image corresponding to the shape of the measurement object. In the non-contact three-dimensional shape measuring method,
A non-contact three-dimensional shape measurement method, wherein the depth and the measurement range in the depth direction are expanded by continuously shifting the focus on the projection side and the imaging side simultaneously with the phase .
入力したデータを計算機内で処理して、三次元マップを作成するステップと
を含むことを特徴とする請求項1に記載の非接触三次元形状測定方法。 Inputting the measurement target image data continuously while shifting the focus and phase at a constant speed;
The non-contact three-dimensional shape measuring method according to claim 1, further comprising: processing the input data in a computer to create a three-dimensional map.
フォーカス中心から縞次数を決定して、位相をアンラップし、位相の絶対値を計算するステップと、
縞次数の格子面と撮像点のエピポーララインの交点の三次元位置を計算するステップと、
を含むことを特徴とする請求項2に記載の非接触三次元形状測定方法。 Creating the three-dimensional map comprises:
Determining the fringe order from the focus center, unwrapping the phase, and calculating the absolute value of the phase;
Calculating the three-dimensional position of the intersection of the fringe order lattice plane and the imaging point epipolar line;
The non-contact three-dimensional shape measuring method according to claim 2, comprising:
画像座標の濃淡波形を抽出するステップと、
該濃淡波形のオフセット成分と揺らぎ成分を除去するステップと、
フォーカス中心を計算するステップと、
フォーカス中心の位相を計算するステップと、
を含むことを特徴とする請求項3に記載の非接触三次元形状測定方法。 Creating the three-dimensional map further comprises:
Extracting a gray scale waveform of image coordinates;
Removing the offset component and the fluctuation component of the gray waveform;
Calculating a focus center;
Calculating the phase of the focus center;
The non-contact three-dimensional shape measuring method according to claim 3, comprising:
フォーカスと位相をシフトさせながら、測定対象に格子パターンを投影する手段と、
フォーカスをシフトさせながら測定対象に投影されたパターンの画像データを入力する手段と、
入力された画像データを処理して、三次元マップを作成する手段と、
を備えたことを特徴とする非接触三次元形状測定装置。 By observing the lattice pattern projected on the measurement object while shifting the phase from a direction different from the projection direction, the shape is obtained by analyzing the contrast of the deformed lattice image corresponding to the shape of the measurement object. In the non-contact three-dimensional shape measuring apparatus,
Means for projecting a grating pattern onto a measurement object while shifting the focus and phase;
Means for inputting image data of a pattern projected on the measurement object while shifting the focus;
Means for processing the input image data to create a three-dimensional map;
A non-contact three-dimensional shape measuring apparatus comprising:
フォーカス中心から縞次数を決定して、位相をアンラップし、位相の絶対値を計算する手段と、
縞次数の格子面と撮像点のエピポーララインの交点の三次元位置を計算する手段と、
を含むことを特徴とする請求項9に記載の非接触三次元形状測定装置。 Means for creating the three-dimensional map;
Means for determining the fringe order from the focus center, unwrapping the phase, and calculating the absolute value of the phase;
Means for calculating the three-dimensional position of the intersection of the lattice plane of the fringe order and the epipolar line of the imaging point;
The non-contact three-dimensional shape measuring apparatus according to claim 9, comprising:
格子フィルタを横方向に移動させる格子シフト機構と、
該格子シフト機構ごと、格子フィルタを前後方向に移動させる第1のフォーカスシフト機構と、
を含むことを特徴とする請求項9に記載の非接触三次元形状測定装置。 The pattern projecting means;
A grating shift mechanism for moving the grating filter in the lateral direction;
A first focus shift mechanism for moving the lattice filter in the front-rear direction for each lattice shift mechanism;
The non-contact three-dimensional shape measuring apparatus according to claim 9, comprising:
撮像素子を前後方向に移動させる第2のフォーカスシフト機構を含むことを特徴とする請求項9に記載の非接触三次元形状測定装置。 The image data input means is
The non-contact three-dimensional shape measuring apparatus according to claim 9, further comprising a second focus shift mechanism that moves the image sensor in the front-rear direction.
該計算機が、測定ヘッドの撮像素子から入力した画像をキャプチャするフレームグラバと、測定ヘッドのシフト機構を制御するモーション制御ボードと、測定ヘッドを制御するための、フォーカスと位相を同時にシフトさせながら、連続画像を入力し、計算機のメインメモリへ転送する機能、測定ヘッドの測定範囲に相当する画像をライブ表示する機能、及び、測定の奥行き範囲を設定する機能を有するソフトウェアと、三次元マップを作成するための、フォーカスシフトにより振幅が変動する濃淡波形から、フォーカス中心を計算する機能、フォーカス中心付近の濃淡波形の位相を計算する機能、フォーカス中心データを使って位相をアンラップする機能、光学系の歪みを考慮して、画像上の座標を補正する機能、撮像素子のピクセルを起点とするエピポーララインと、格子パターン投影の格子面の交点を求め、ピクセルに投影されている三次元位置を計算する機能、画像データが正常に入力できたことを確認できるように、入力した連続画像を再生する機能、作成した三次元マップを表示する機能、及び、三次元マップの点群データを、CADフォーマットで保存する機能を有するソフトウェアを備えたことを特徴とする請求項9又は10に記載の非接触三次元形状測定装置。 The three-dimensional map creating means is composed of a computer,
While the computer simultaneously shifts the focus and phase for controlling the measurement head, the frame grabber for capturing the image input from the image sensor of the measurement head, the motion control board for controlling the shift mechanism of the measurement head, Creates a 3D map and software that has the function of inputting continuous images and transferring them to the main memory of the computer, the function of displaying live images corresponding to the measurement range of the measurement head, and the function of setting the measurement depth range. Function to calculate the focus center from the grayscale waveform whose amplitude fluctuates due to focus shift, the function to calculate the phase of the grayscale waveform near the focus center, the function to unwrap the phase using the focus center data, the optical system A function to correct the coordinates on the image taking distortion into account A function that calculates the intersection of the epipolar line and the lattice plane of the lattice pattern projection, calculates the three-dimensional position projected on the pixel, and the input continuous image so that it can be confirmed that the image data has been input normally 11. The software according to claim 9, further comprising software having a function of playing back, a function of displaying a created three-dimensional map, and a function of saving point cloud data of the three-dimensional map in a CAD format. Non-contact three-dimensional shape measuring device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004071128A JP4255865B2 (en) | 2003-03-31 | 2004-03-12 | Non-contact three-dimensional shape measuring method and apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003096712 | 2003-03-31 | ||
JP2004071128A JP4255865B2 (en) | 2003-03-31 | 2004-03-12 | Non-contact three-dimensional shape measuring method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004317495A JP2004317495A (en) | 2004-11-11 |
JP4255865B2 true JP4255865B2 (en) | 2009-04-15 |
Family
ID=33478741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004071128A Expired - Lifetime JP4255865B2 (en) | 2003-03-31 | 2004-03-12 | Non-contact three-dimensional shape measuring method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4255865B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101272573B1 (en) | 2011-11-17 | 2013-06-10 | 재단법인대구경북과학기술원 | Apparatus and Method for Estimating Depth Information Based Structured Light Pattern |
WO2019146861A1 (en) * | 2018-01-23 | 2019-08-01 | 한국표준과학연구원 | System and method for compensating for non-linear response characteristic in phase-shifting deflectometry |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4282643B2 (en) | 2005-08-30 | 2009-06-24 | ダイハツ工業株式会社 | Strain evaluation apparatus and strain evaluation method |
JP4741344B2 (en) | 2005-11-07 | 2011-08-03 | ダイハツ工業株式会社 | Shape recognition apparatus and distortion evaluation apparatus |
JP2007315865A (en) * | 2006-05-24 | 2007-12-06 | Canon Machinery Inc | Three-dimensional displacement measuring device and measuring method |
EP2183546B1 (en) | 2007-08-17 | 2015-10-21 | Renishaw PLC | Non-contact probe |
KR101530930B1 (en) * | 2008-08-19 | 2015-06-24 | 삼성전자주식회사 | Pattern projecting apparatus, 3D imaging apparatus having the same, and varifocal liquid lens being used in the same |
JP5395507B2 (en) * | 2009-05-21 | 2014-01-22 | キヤノン株式会社 | Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and computer program |
GB0915904D0 (en) | 2009-09-11 | 2009-10-14 | Renishaw Plc | Non-contact object inspection |
EP2327956B1 (en) * | 2009-11-20 | 2014-01-22 | Mitutoyo Corporation | Method and apparatus for determining the height of a number of spatial positions on a sample |
JP5595211B2 (en) * | 2010-10-12 | 2014-09-24 | キヤノン株式会社 | Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and computer program |
JP6041513B2 (en) | 2012-04-03 | 2016-12-07 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2015114309A (en) * | 2013-12-16 | 2015-06-22 | 株式会社オプトン | Measuring device |
CN103900494B (en) * | 2014-03-31 | 2016-06-08 | 中国科学院上海光学精密机械研究所 | For the homologous points fast matching method of binocular vision 3 D measurement |
KR101541805B1 (en) | 2014-07-01 | 2015-08-05 | 경북대학교 산학협력단 | Method And Camera Apparatus For Depth Sectioning Using Structured Illumination |
CN106168466B (en) * | 2015-05-21 | 2019-06-28 | 财团法人工业技术研究院 | Global image detection system and detection method thereof |
US10591277B2 (en) * | 2016-07-28 | 2020-03-17 | Liberty Reach Inc. | Method and system for measuring outermost dimension of a vehicle positioned at an inspection station |
JP2018132452A (en) * | 2017-02-16 | 2018-08-23 | キヤノン株式会社 | Image processor, image processing method, and program |
KR20190025793A (en) * | 2017-09-01 | 2019-03-12 | (주)비에스텍 | 3d integration optical measurement systems and 3d integration optical measurement method for non-contact type 3d meter |
JP7004244B2 (en) * | 2017-12-27 | 2022-01-21 | オムロン株式会社 | Image processing system, image processing method, and its program |
CN117804381B (en) * | 2024-03-01 | 2024-05-10 | 成都信息工程大学 | Three-dimensional reconstruction method for object based on camera array focusing structure light |
-
2004
- 2004-03-12 JP JP2004071128A patent/JP4255865B2/en not_active Expired - Lifetime
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101272573B1 (en) | 2011-11-17 | 2013-06-10 | 재단법인대구경북과학기술원 | Apparatus and Method for Estimating Depth Information Based Structured Light Pattern |
WO2019146861A1 (en) * | 2018-01-23 | 2019-08-01 | 한국표준과학연구원 | System and method for compensating for non-linear response characteristic in phase-shifting deflectometry |
JP2021511520A (en) * | 2018-01-23 | 2021-05-06 | コリア リサーチ インスティトゥート オブ スタンダード アンド サイエンス | Systems and methods for compensating for nonlinear response characteristics with phase shift deflection measurements |
JP7001835B2 (en) | 2018-01-23 | 2022-01-20 | コリア リサーチ インスティトゥート オブ スタンダード アンド サイエンス | Systems and methods for compensating nonlinear response characteristics with phase shift deflection measurements |
Also Published As
Publication number | Publication date |
---|---|
JP2004317495A (en) | 2004-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4255865B2 (en) | Non-contact three-dimensional shape measuring method and apparatus | |
US7286246B2 (en) | Method and apparatus for non-contact three-dimensional surface measurement | |
JP4480488B2 (en) | Measuring device, computer numerical control device, and program | |
JP5029618B2 (en) | Three-dimensional shape measuring apparatus, method and program by pattern projection method | |
EP2183546B1 (en) | Non-contact probe | |
US7400414B2 (en) | Hand-size structured-light three-dimensional metrology imaging system and method | |
EP1777487B1 (en) | Three-dimensional shape measuring apparatus, program and three-dimensional shape measuring method | |
US9441959B2 (en) | Calibration method and shape measuring apparatus | |
KR20130032368A (en) | Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium | |
JP5385703B2 (en) | Inspection device, inspection method, and inspection program | |
JP5515432B2 (en) | 3D shape measuring device | |
JP2021182011A (en) | Surface shape measurement device and stitching measurement method thereof | |
JP6035031B2 (en) | Three-dimensional shape measuring device using multiple grids | |
JP2007508557A (en) | Device for scanning three-dimensional objects | |
JP2012132727A (en) | Three-dimensional measuring device and three-dimensional measurement method | |
JP2012013592A (en) | Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine | |
KR101465996B1 (en) | Method for measurement of high speed 3d shape using selective long period | |
JP2017125707A (en) | Measurement method and measurement device | |
US6867871B2 (en) | Moiré grating noise eliminating method | |
JP5786999B2 (en) | Three-dimensional shape measuring device, calibration method for three-dimensional shape measuring device | |
KR100379948B1 (en) | Three-Dimensional Shape Measuring Method | |
JP2009186216A (en) | Three-dimensional shape measuring device | |
KR100483345B1 (en) | A scanning system based upon two-wavelength projection Moire method and its autonomous calibration using registration for multi-head system | |
Sciammarella et al. | High Precision Gear Contouring Using Projection Moiré | |
JP2003329425A (en) | Method and device for measuring surface shape |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090128 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120206 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4255865 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120206 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150206 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |