JP2009204343A - Three-dimensional shape measurement method and device - Google Patents
Three-dimensional shape measurement method and device Download PDFInfo
- Publication number
- JP2009204343A JP2009204343A JP2008044827A JP2008044827A JP2009204343A JP 2009204343 A JP2009204343 A JP 2009204343A JP 2008044827 A JP2008044827 A JP 2008044827A JP 2008044827 A JP2008044827 A JP 2008044827A JP 2009204343 A JP2009204343 A JP 2009204343A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- pixel
- data
- dimensional
- dimensional shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、被計測物体の3次元形状計測方法および装置に関する。 The present invention relates to a method and apparatus for measuring a three-dimensional shape of an object to be measured.
従来から、非接触かつ自動処理により被計測物体の3次元形状を計測する方法として、いわゆる位相シフト法が知られている。位相シフト法は、互いに位相をずらした正弦波縞パターン光による照明状態のもとで撮像した複数の縞パターン画像つまり複数の輝度分布データを用いて、画像全体について定まる1つの位相状態について画素点毎の位相を求め、その位相の分布データを3次元座標決定の基礎データとする。3次元形状計測結果は、位相分布データと撮像の幾何学条件等から得られ、各画素に被計測物体表面の3次元座標を割り当てた距離画像として得られる。 Conventionally, a so-called phase shift method is known as a method for measuring the three-dimensional shape of an object to be measured by non-contact and automatic processing. The phase shift method uses a plurality of fringe pattern images captured under illumination conditions with sinusoidal fringe pattern lights whose phases are shifted from each other, that is, a plurality of luminance distribution data, and pixel points for one phase state determined for the entire image. Each phase is obtained, and the distribution data of the phase is used as basic data for determining the three-dimensional coordinates. The three-dimensional shape measurement result is obtained from the phase distribution data and the geometric conditions of imaging, and is obtained as a distance image in which the three-dimensional coordinates of the surface of the measurement object are assigned to each pixel.
位相シフト法を用いて3次元形状計測を行う場合に、被計測物体表面に反射率の異なる部分、例えば、文字や柄があると、これらの文字や柄と背景部分の境界において計測誤差が発生する。その原因は、境界部分における注目画素の輝度がその周辺画素の輝度に影響されてぼけて真の輝度から変化することによる。このぼけは、撮像の際の焦点ぼけやレンズの変調伝達関数特性に基づくぼけによる。縞パターン画像がぼけると基礎データとする位相の分布データが誤差を含み、計測誤差が発生する。 When performing three-dimensional shape measurement using the phase shift method, if there are parts with different reflectivities on the surface of the object being measured, such as characters or patterns, measurement errors occur at the boundaries between these characters or patterns and the background part. To do. This is because the luminance of the pixel of interest in the boundary portion is affected by the luminance of the surrounding pixels and is blurred and changes from the true luminance. This blur is caused by a focus blur at the time of imaging or a blur based on a modulation transfer function characteristic of the lens. When the fringe pattern image is blurred, the phase distribution data as the basic data includes an error, and a measurement error occurs.
上述の誤差の発生をシミュレーションにより図16乃至図21を参照して説明する。図16、図17に示すように一様照明のもとで明部(領域x2)と暗部(領域x1,x3)とが2値の輝度値L1,L2となるコントラストのある対象領域に対して、強制的にぼけを発生させて比較する。図18(a)〜(d)は、明度がx方向に正弦波状に変化する照明のもとで、それぞれ位相変化分δφを0(初期位相状態)から、π/2,π,3π/2とした場合の、x0方向に沿った輝度変化の計算値を示す。これはぼけのないデータである。図19(a)〜(d)は、図18(a)〜(d)の輝度変化に標準偏差σのガウス移動平均処理を行って、計算により強制的に輝度変化をぼかして得たデータである。図20は、図18(a)〜(d)から算出した位相分布と、図19(a)〜(d)から算出した位相分布とを重ねて示している。図21は、図20において位相差ΔPが生じている部分Dを拡大して示している。 The generation of the error will be described with reference to FIGS. 16 to 21 by simulation. As shown in FIGS. 16 and 17, for a target region having a contrast in which a bright portion (region x2) and a dark portion (regions x1 and x3) have binary luminance values L1 and L2 under uniform illumination. Forcibly generate blur and compare. 18 (a) to 18 (d) show that the phase change δφ is changed from 0 (initial phase state) to π / 2, π, and 3π / 2 under the illumination whose brightness changes in a sine wave shape in the x direction. The calculated value of the luminance change along the x0 direction is shown. This is unblurred data. 19A to 19D are data obtained by performing a Gaussian moving average process with a standard deviation σ on the luminance changes of FIGS. 18A to 18D and forcibly blurring the luminance changes by calculation. is there. FIG. 20 shows the phase distribution calculated from FIGS. 18A to 18D and the phase distribution calculated from FIGS. 19A to 19D in an overlapping manner. FIG. 21 is an enlarged view of a portion D where the phase difference ΔP occurs in FIG.
図20に示すように、明暗の境界xbの位置で、破線で示したぼかし有りの位相値は、実線で示したぼかしのない正しい位相値から変化して、位相差ΔPの誤差を有している。位相差ΔPの大きさは、明暗の境界線に垂直な方向、すなわち、輝度(明度)の勾配方向と縞パターンの変化方向(図17乃至図21ではx方向)とがなす角度(γとする)によって変化する。シミュレーションによると、角度γが0゜のときが誤差がもっとも大きく、90゜のときに誤差は最小になり、誤差の大きさはこの間で角度γの大きさと共に単調減少する。 As shown in FIG. 20, the phase value with blurring indicated by the broken line at the position of the light / dark boundary xb changes from the correct phase value without blurring indicated by the solid line, and has an error of phase difference ΔP. Yes. The magnitude of the phase difference ΔP is defined as an angle (γ) formed by a direction perpendicular to the boundary between light and dark, that is, a gradient direction of luminance (brightness) and a change direction of the fringe pattern (x direction in FIGS. 17 to 21). ). According to the simulation, the error is the largest when the angle γ is 0 °, and the error is minimized when the angle γ is 90 °, and the magnitude of the error decreases monotonously with the magnitude of the angle γ.
上述のような特性を有する位相シフト法は、被計測物体上に反射率の異なる部分があると、その部分の明暗状態が表面形状を反映しないものとなって計測誤差を発生するので、被計測物体は白く塗装して計測される。従って、位相シフト法による3次元形状計測は、例えば、3次元CADに基づいて製作された製品が正しい形状にできているかを検証するために、白塗装された試作段階の物体について行われるが、実際の生産工程におけるインライン計測には殆ど使われていない。 In the phase shift method having the above-described characteristics, if there is a part with different reflectance on the object to be measured, the brightness state of that part does not reflect the surface shape and a measurement error occurs. The object is painted white and measured. Therefore, the three-dimensional shape measurement by the phase shift method is performed on a white-painted prototype stage object, for example, in order to verify whether a product manufactured based on the three-dimensional CAD has a correct shape. It is rarely used for in-line measurement in the actual production process.
ところで、位相シフト法において、カメラの視野方向と投影装置による投影方向とが異なることに加え被計測物体が3次元形状であることにより発生する自己隠蔽(いわゆるオクルージョン)や、影、乱反射、などの影響を解消するため、異なる複数の方向から縞パターン光を投影したり、被計測物体を回転させたりして、計測精度を上げることが提案されている(例えば、特許文献1参照)。
しかしながら、上述したように、従来の位相シフト法は実際の生産工程におけるインライン計測には殆ど使われていない。また、上述した特許文献1に示されるような位相シフト法による計測方法は、被計測物体表面の反射率の違いにより発生する計測誤差を解決することができない。
However, as described above, the conventional phase shift method is hardly used for in-line measurement in an actual production process. In addition, the measurement method based on the phase shift method as described in
本発明は、上記課題を解消するものであって、簡単な構成により、表面に文字や柄などによる反射率の異なる領域が混在する被計測物体についても計測精度を向上できる位相シフト法による3次元形状計測方法および装置を提供することを目的とする。 The present invention solves the above-described problem, and has a simple configuration and a three-dimensional phase shift method that can improve the measurement accuracy even for an object to be measured in which areas having different reflectances such as characters and patterns are mixed on the surface. An object is to provide a shape measuring method and apparatus.
上記課題を達成するために、請求項1の発明は、明度が正弦波状に変化する縞パターンを異なる位相で3回以上被計測物体に投影して一定位置から複数の画像を撮像し、これらの画像を用いて画像中の各画素毎に被計測物体の3次元座標を求める位相シフト法による3次元形状計測方法において、被計測物体の計測領域上方に撮像部を設置し、前記撮像部の光軸と1つの投影用光軸とで構成される平面を複数設定し、前記平面の1つについて該平面に対して所定の角度を有しかつ前記撮像部の光軸に直交する直線の方向としたパターン変化方向に沿って明度が変化する縞パターンを該平面を構成する投影用光軸方向から前記計測領域に投影すると共に前記撮像部によって撮像して位相シフト法により該計測領域の3次元座標を取得するステップを、前記各平面について独立に行うことにより複数種類の3次元座標データを取得する座標計測ステップと、前記計測領域を均一な照明光のもとで撮像した画像を微分処理し該画像中の画素毎に輝度の勾配方向を求めるステップを、前記各平面について独立に、前記投影用光軸方向からの照明と前記撮像部による撮像とによって行うことにより複数種類の勾配方向データを取得する勾配取得ステップと、前記各平面毎の3次元座標データと勾配方向データとから成る複数の組における互いに他の組の画像中の画素に対応する各画素について、それぞれ前記輝度の勾配方向と前記パターン変化方向とのなす角度または該角度に相当する傾き成分を求め、各組における当該画素に対する3次元座標をこれらの角度または傾き成分に基づいて合成して当該画素における3次元座標の計測結果とする画素データ決定ステップと、を含むものである。
In order to achieve the above object, the invention of
請求項2の発明は、請求項1に記載の3次元形状計測方法において、前記画素データ決定ステップは、前記3次元座標を合成する際に、前記複数の組における輝度の勾配方向と前記パターン変化方向とのなす角度を互いに比較して90゜により近い角度を与える組から3次元座標を選択して当該画素における計測結果とするものである。 According to a second aspect of the present invention, in the three-dimensional shape measurement method according to the first aspect, when the pixel data determining step synthesizes the three-dimensional coordinates, the luminance gradient direction and the pattern change in the plurality of sets are combined. A three-dimensional coordinate is selected from a set that gives an angle closer to 90 ° by comparing the angle formed with the direction with each other to obtain a measurement result at the pixel.
請求項3の発明は、請求項1に記載の3次元形状計測方法において、前記画素データ決定ステップは、前記勾配取得ステップにおける微分処理による微分値の大きさが前記複数の組における互いに対応する画素のいずれについても予め定めた閾値より小さくなる場合には、前記各組における当該画素に対する3次元座標を互いに均等に合成して当該画素における3次元座標の計測結果とするものである。 According to a third aspect of the present invention, in the three-dimensional shape measurement method according to the first aspect, in the pixel data determination step, pixels whose differential values obtained by the differential processing in the gradient acquisition step correspond to each other in the plurality of sets. If any of these is smaller than a predetermined threshold value, the three-dimensional coordinates for the pixel in each set are evenly combined with each other to obtain a measurement result of the three-dimensional coordinates for the pixel.
請求項4の発明は、請求項1乃至請求項3のいずれか一項に記載の3次元形状計測方法を用いる3次元形状計測装置である。 A fourth aspect of the present invention is a three-dimensional shape measurement apparatus using the three-dimensional shape measurement method according to any one of the first to third aspects.
請求項1の発明によれば、輝度の勾配方向とパターン変化方向のなす角度または該角度に相当する傾き成分を求め、各組における注目画素に対する3次元座標をこれらの角度または傾き成分に基づいて合成して当該画素における3次元座標の計測結果とするので、被計測物体上に文字や柄等による反射率が異なる領域が存在する場合であっても反射率の変化部分(画像中の輝度変化部分)で発生する計測誤差を低減できると共に、ランダムノイズによる計測誤差を低減することができ、精度の高い計測ができる。3次元座標(座標値)の合成は、複数のパターン変化方向のもとでの計測結果を、各計測における輝度の勾配方向とパターン変化方向のなす角度または該角度に相当する傾き成分の大きさに応じた重みを付けて合成することにより行えばよい。 According to the first aspect of the present invention, the angle formed by the gradient direction of the brightness and the pattern change direction or an inclination component corresponding to the angle is obtained, and the three-dimensional coordinates for the target pixel in each set are obtained based on the angle or the inclination component. As a result of combining and measuring the three-dimensional coordinates at the pixel, even if there is a region with different reflectivity due to characters, patterns, etc. on the object to be measured, the reflectance change portion (luminance change in the image) The measurement error generated in (Part) can be reduced, the measurement error due to random noise can be reduced, and highly accurate measurement can be performed. In the synthesis of three-dimensional coordinates (coordinate values), a measurement result under a plurality of pattern change directions is obtained by calculating the angle between the luminance gradient direction and the pattern change direction in each measurement or the magnitude of the inclination component corresponding to the angle. It may be performed by adding weights according to the above.
請求項2の発明によれば、輝度の勾配方向とパターン変化方向とのなす角度を比較して最適と考えられる3次元座標の計測結果を選択するので、選択するだけの簡単な操作によって、簡単な構成による精度の高い計測ができる。これは、合成における重み付けを”1”と”0”とした場合に相当する。
According to the invention of
請求項3の発明によれば、微分処理による微分値の大きさ、すなわち輝度勾配の大きさが予め定めた閾値より小さい場合には、複数の計測結果の平均値を3次元座標の計測結果とするので、ランダムノイズによる計測誤差を低減することができ、精度の高い計測ができる。これは、輝度変化が小さい場合には、輝度変化による縞パターン画像のぼけの発生が少なく、このようなぼけによる計測誤差が小さいので、ランダムノイズに注目して誤差低減を図ることができることによる。
According to the invention of
請求項4の発明によれば、表面に文字や柄などによる反射率の異なる領域が混在する被計測物体についても計測精度を向上できる位相シフト法による3次元形状計測装置を提供することができる。 According to the fourth aspect of the present invention, it is possible to provide a three-dimensional shape measuring apparatus based on the phase shift method capable of improving the measurement accuracy even for an object to be measured in which areas having different reflectances such as characters and patterns are mixed on the surface.
以下、本発明の実施形態に係る3次元形状計測装置および方法について、図面を参照して説明する。 Hereinafter, a three-dimensional shape measuring apparatus and method according to embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態)
図1は第1の実施形態に係る3次元形状計測装置の模式的構成を示し、図2は同装置の投影部と撮像部の配置を示し、図3は同装置の投影部、撮像部、および縞パターンの位置関係を示す(図3は、図2の矢印30a方向から見た図)。
(First embodiment)
FIG. 1 shows a schematic configuration of the three-dimensional shape measuring apparatus according to the first embodiment, FIG. 2 shows the arrangement of the projection unit and the imaging unit of the apparatus, and FIG. 3 shows the projection unit, imaging unit, FIG. 3 shows the positional relationship between the stripe patterns (FIG. 3 is a view seen from the direction of
3次元形状計測装置1は、文字や柄などによる反射率の異なる領域が表面に混在する被計測物体についても、位相シフト法を用いて非接触で精度良くその3次元形状を計測可能とする装置であって、画像中の画素毎に被計測物体の3次元座標を求めることができる。この3次元形状計測装置1は、基本的に、通常の位相シフト法による3次元形状計測を複数回行い、その計測結果から最良の計測結果を決定することにより、最終的に高精度の3次元形状計測を可能にする。
The three-dimensional
このため、3次元形状計測装置1は、互いに異なる方向から被計測物体の計測領域10に縞パターンを投影する2つの縞パターン投影部2と、計測領域10の上方に設置されて計測領域10を撮像する撮像部3と、縞パターン投影部2および撮像部3とを制御すると共に縞パターン投影部2および撮像部3から出力されるデータを基に計測領域10の3次元形状を求める計算を行う3次元計測処理部4とを備えている。計測領域10は、任意の3次元凹凸表面を有する被計測物体の表面領域である。
For this reason, the three-dimensional
縞パターン投影部2は、照明部21、縞パターン生成部22、および投影光学部23を備えている。照明部21は、光源と光源からの光を平行光に変換するコンデンサーレンズとを用いて構成される。縞パターン生成部22は、光の透過率が一方向に沿って正弦波状に変化する、平面上において平行縞となる縞パターンを生成する部分であり、透過型液晶板と偏光板とを用いて構成される。投影光学部23は、縞パターン生成部22で作られた縞パターンを計測対象物に投影するためのレンズで構成される。
The fringe
縞パターン投影部2は、複数設けられ、本実施形態では、A,Bの2系統を用いる例を示す。縞パターン投影部2は、実際に複数の機器を準備する必要はなく、1系統の縞パターン投影部2の配置を変えることにより2系統の動作を実現してもよい。これは、複数系統からの照明のもとで同時に撮像することはないからである。しかしながら、撮像の段取り変えに要する時間などを考えると、複数系統を固定して移動せずに用いる方が好ましい。この2系統の縞パターン投影部2と撮像部3との配置関係については、後述する。
A plurality of fringe
上述の縞パターン生成部22を構成する透過型液晶板と偏光板とは、反射型液晶板と偏光板との組合せ、縞パターンを焼き付けたフィルムと所定の位相をずらすためのそのフィルムを移動させるアクチュエータとの組合せ、またはデジタルミラーデバイス(DMD)などによって、同等の機能を実現するようにしてもよい。
The transmission type liquid crystal plate and the polarizing plate constituting the above-described stripe
撮像部3は、計測領域10からの光を光電変換して画像データを生成するための撮像素子31と、計測領域10の像を撮像素子31上に形成するための光学レンズから成る撮像光学部32とを備えている。
The
3次元計測処理部4は、縞パターンデータ作成部41と、中央制御部42と、メモリ43と、演算部44と、計測結果や撮像画像等を表示する表示部45と、本装置の操作に必要な入出力部(不図示)と、を備えている。また、演算部44は、最終的な計測結果を決定するための計測結果決定部4aを備えている。このような3次元計測処理部4は、CPU、外部記憶装置、表示装置、入力装置などを備えた一般的な構成を備えたコンピュータ、およびコンピュータ上のプロセスや機能の集合を用いて構成することができる。
The three-dimensional
表示部45は、通常のコンピュータ周辺機器として用いられる液晶ディスプレイやCRT等で構成することができる。入出力部は、簡単なスイッチ群で構成したり、通常のコンピュータ周辺機器におけるマウスやキーボード等を用いて構成される。
The
縞パターンデータ作成部41は、縞パターン投影部2の縞パターン生成部22において生成される縞パターンのもとになるデータを生成する。
The fringe pattern
中央制御部42は、縞パターン投影部2に送る縞パターンのもとデータの送信制御、縞パターン投影部2の投影制御、撮像部3の撮像制御などを行って、計測領域10に投影する縞パターンの位相を一定の位相間隔でシフトさせると共に、各位相のもとで照明した計測領域10の撮像部3による撮像を制御する。中央制御部42は、このほか、表示部45や入出力部その他の各部の制御を行う。
The
メモリ43は、3次元形状計測に必要なデータを記録するところであり、撮像部3と縞パターン投影部2の空間配置に関するデータ、撮像部3の分解能、縞パターンのピッチ、位相シフト量、撮像部3によって撮像された画像データ等のデータが記録される。
The
演算部44は、メモリ43に記録されたデータを用いて、位相シフト法における撮像画像の各画素での位相値を求め、求まった位相値に基づいて各画素点毎に計測領域10の3次元形状座標を算出する。
The
(縞パターン投影部2と撮像部3の空間配置)
本実施形態では、A,Bの2系統の縞パターン投影部2を用いており、これらを互いに直交する2平面(図2におけるA面、B面)内にそれぞれ配置する。従って、各縞パターン投影部2の投影用光軸20はA面、またはB面に含まれる。また、撮像部3は、その光軸30を前記直交するA面とB面の交線に一致させて計測領域10の上方に配置する。
(Spatial arrangement of the fringe
In the present embodiment, two stripe
ここで、直交座標系を構成する空間の座標軸X,Y,Z、および画像面における座標軸x,yを定義する。Z軸は撮像部3の光軸30とし、X軸、Y軸はそれぞれA面、B面にあるとする。座標軸x,yは、座標軸X,Yに一致させて、または対応させて定義することができる。
Here, the coordinate axes X, Y, Z of the space constituting the orthogonal coordinate system and the coordinate axes x, y in the image plane are defined. The Z axis is the
(縞パターンSPの配置)
本実施形態の位相シフト法で用いられる縞パターンSPは、明度が一定方向(以下、パターン変化方向5)に沿って正弦波状に変化するパターンである。本実施形態においては、パターン変化方向5を、X,x軸方向と、Y,y軸方向とに設定している。なお、パターン変化方向5は、必ずしも投影用光軸20が含まれているA面やB面に含まれる必要はなく、これらの面に対してゼロではない任意の角度を持たせることができる。さらに一般にA面、B面も必ずしも互いに直角である必要はない。
(Arrangement of stripe pattern SP)
The fringe pattern SP used in the phase shift method of the present embodiment is a pattern in which the brightness changes in a sine wave shape along a certain direction (hereinafter, pattern change direction 5). In the present embodiment, the pattern change
(動作説明)
次に、図4、図5を参照して3次元形状計測装置1の動作を説明する。3次元形状計測装置1は、前述したように、基本的に、通常の位相シフト法による3次元形状計測を複数回行い、その計測結果から最良の計測結果を決定することにより、最終的に高精度の3次元形状計測を可能にするものである。そこで、本実施形態では、まず、上述のA,Bの2系統の縞パターン投影部2を用いて、通常の3次元形状計測が行われる。その後、演算部44の計測結果決定部4aにおいて、最良の計測結果が画素毎に決定される。
(Description of operation)
Next, the operation of the three-dimensional
図4に示す画像Gは、一様な明るさの光で照明した計測領域10を撮像したものである。画像Gには、明るい背景画像の中に暗い画像部分が写っている。図5には、その明暗領域の境界における画素gの周辺画像が拡大されて示されている。座標軸x,yは、画像Gにおける画素gの位置を決定する。また、それぞれの縞パターンSPのパターン変化方向5がx軸方向とy軸方向に設定されている。
An image G shown in FIG. 4 is an image of the
図5において、輝度の勾配方向hが示されている。輝度の勾配方向hは、画像Gの各画素における輝度値をx軸方向とy軸方向とに沿ってそれぞれ微分して得られた各微分強度を成分とするベクトル方向として、各画素g毎に算出される。なお、一様輝度の画像部分では、勾配方向は定義されない。この場合、従来技術における課題として述べたぼけによる計測誤差の発生もない。 In FIG. 5, the gradient direction h of luminance is shown. The luminance gradient direction h is a vector direction having each differential intensity obtained by differentiating the luminance value of each pixel of the image G along the x-axis direction and the y-axis direction as a component for each pixel g. Calculated. Note that the gradient direction is not defined for an image portion with uniform luminance. In this case, there is no measurement error due to blur described as a problem in the prior art.
本発明の3次元形状計測装置1は、図21を参照して説明したように、被計測物体表面の反射率の違い、特に、明暗の境界xbの位置で発生する画像のぼけによる計測誤差を解決するものである。そして、このぼけによる計測誤差の大きさは、明暗の境界線に垂直な方向、すなわち、輝度(明度)の勾配方向と縞パターンの変化方向とがなす角度(γとする)によって変化し、角度γが0゜のときが誤差がもっとも大きく、90゜のときに誤差は最小になり、0゜<γ<90゜では誤差の大きさは角度γの大きさと共に単調減少する、ということが分かっている。
As described with reference to FIG. 21, the three-dimensional
上述のぼけによる計測誤差を解消するために、計測結果決定部4aは、以下に示すように、最良の計測結果を選択して最終の計測結果を決定する。
In order to eliminate the measurement error due to the blur described above, the measurement
各縞パターンSPにおけるパターン変化方向5の単位ベクトルua,ub、および上記輝度の勾配方向hの単位ベクトルu0を定義する。なお、本実施形態の場合、単位ベクトルua,ubの方向は、それぞれx軸、y軸の方向に一致させているが、このような一致は、3次元形状計測装置1における計測にとって本質的なものではない。
The unit vectors ua and ub in the pattern change
単位ベクトルuaと単位ベクトルu0のなす角度をα、単位ベクトルubと単位ベクトルu0のなす角度をβとすると、ベクトルの内積の絶対値について以下の関係がある。
|u0・ua|=|cosα|、
|u0・ub|=|cosβ|。
When the angle formed by the unit vector ua and the unit vector u0 is α, and the angle formed by the unit vector ub and the unit vector u0 is β, the absolute value of the inner product of the vectors has the following relationship.
| U0 · ua | = | cosα |,
| U0 · ub | = | cosβ |.
角度θ(ただし、0゜<θ<180゜とする)について、|cosθ|がゼロに近いほど、θは90゜に近い。そこで、計測結果決定部4aは、上述の|cosα|と|cosβ|とを比較して、よりゼロに近い方を見つけて、そのような結果を与える縞パターン投影部2による計測結果を、注目画素gにおける3次元形状計測結果とする。図4、図5における画素gの場合、x軸方向(単位ベクトルua方向)に縞パターンの変化方向5が向いている縞パターンSPによる計測結果(A系統の縞パターン投影部2による計測結果)が、最良の計測結果として決定される。計測結果決定部4aは、このような計測結果の決定を全ての画素gについて行う。
For an angle θ (where 0 ° <θ <180 °), θ is closer to 90 ° as | cos θ | is closer to zero. Therefore, the measurement
本実施形態の3次元形状計測装置1によれば、表面に文字や柄などによる反射率の異なる領域が混在していることにより撮像された画像中の画素における輝度値が真の値から変化するような被計測物体についても、計測精度を向上することができる。
According to the three-dimensional
(第2の実施形態)
図6は第2の実施形態に係る3次元形状計測方法のフローチャートを示し、図7は同方法における点群データ取得のフローチャートを示し、図8は同方法における画像データ取得のフローチャートを示し、図9は同方法における画素データ決定のフローチャートを示す。本実施形態は、上述の第1の実施形態における3次元形状計測装置1を用いて3次元形状計測を行う方法を示すものであり、図1〜図5を適宜参照する。
(Second Embodiment)
6 shows a flowchart of the three-dimensional shape measurement method according to the second embodiment, FIG. 7 shows a flowchart of point cloud data acquisition in the method, and FIG. 8 shows a flowchart of image data acquisition in the method. 9 shows a flowchart of determining pixel data in this method. This embodiment shows a method for performing three-dimensional shape measurement using the three-dimensional
本計測方法の全体の流れが図6に示され、主なサブルーティンが図7、図8、図9に示されている。本計測方法では、処理の前半において2組の点群データ取得が行われ(S1,S2)、後半において2組の3次元形状データから各画素における最良の3次元形状データを決定する選択決定が行われる(ループLP1〜LP11,LP2〜LP22)。前半の処理は、中央制御部42の制御のもとで2つの縞パターン投影部2(投影部A,Bとする)を用いて行われる。また、後半の決定処理は、計測結果決定部4aによって行われる。以下、処理の流れに沿って説明する。
The overall flow of this measurement method is shown in FIG. 6, and the main subroutines are shown in FIGS. In this measurement method, two sets of point cloud data are acquired in the first half of the process (S1, S2), and in the second half, selection determination is performed to determine the best three-dimensional shape data for each pixel from the two sets of three-dimensional shape data. Is performed (loops LP1 to LP11, LP2 to LP22). The first half of the processing is performed using the two fringe pattern projection units 2 (projection units A and B) under the control of the
(点群データ取得)
まず、前半の点群データ取得(S1,S2)を、サブルーティンのフローチャート(図7)を参照して説明する。この処理の個々のデータを除く基本部分は、投影部A,Bにとって共通の処理である。以下において、式や変数における添字kは、投影部A,Bを識別するAまたはBを表すものとする。この点群データ取得処理では、3次元形状データおよび輝度勾配データが点群データとして取得される。
(Point cloud data acquisition)
First, point cloud data acquisition (S1, S2) in the first half will be described with reference to a subroutine flowchart (FIG. 7). The basic part excluding individual data in this process is a process common to the projection units A and B. In the following, the subscript k in expressions and variables represents A or B for identifying the projection parts A and B. In this point cloud data acquisition process, three-dimensional shape data and luminance gradient data are acquired as point cloud data.
ここで、”点群データ”という用語について説明する。位相シフト法を用いる3次元形状計測では、計測領域10に対して一定の位置に固定した撮像部3によって種々の画像が撮像され参照される。これらの画像は、互いに同じ画素数、および互いに同じx,y座標系(図1参照)のもとでの同じ画素配列を有して構成されている。また、各画素は、XYZ座標系(図1参照)で定義される3次元空間における計測領域10の表面の特定の点に対応している。点群データは、これらの特定の点に関するデータ、すなわち、輝度、XYZ座標値、所定の画像についてその点における輝度の勾配方向、などのデータの総称である。通常、そのデータの種類毎に画素数と同じ数のデータの集まり(すなわち点群)となる。
Here, the term “point cloud data” will be described. In the three-dimensional shape measurement using the phase shift method, various images are captured and referenced by the
上述のように、点群データは画像中の画素毎に取得されるデータであり、点群データ取得処理は、画像を撮像する画像データ取得処理(S10)、および、演算部44による画素毎の点群データ取得のための画像処理(ループLP3〜LP33,LP4〜LP44)によって行われる。この画像処理では、位相シフト法に関する処理(S11、S12)、および本発明の特徴的処理である輝度勾配データの取得が行われる(S13)。
As described above, the point cloud data is data acquired for each pixel in the image, and the point cloud data acquisition processing includes the image data acquisition processing (S10) for capturing an image and the
画像データ取得処理(S10)を、さらに、サブルーティンのフローチャート(図8)を参照して説明する。このサブルーティンの処理では、4相の位相シフト法のための4つの縞パターン光による照明のもとでの4つの画像データと、一様照明のもとでの1つの画像データが取得される。縞パターンによる画像は輝度データIki(x,y),i=0,1,2,3として記録され(LP5〜LP55)、一様照明による画像は輝度データIk(x,y)として記録される(S24〜S26)。ここで、x,yは画像上の画素の位置を示す座標であり、画像のサイズに応じてx=0,1,・・,m,y=0,1,・・,nである。なお、ここでは4相の位相シフト法を用いる例を示すが、3次元形状データを取得するためには、これに限らず3相または5相以上の位相シフト法を用いることもできる。 The image data acquisition process (S10) will be further described with reference to a subroutine flowchart (FIG. 8). In this subroutine processing, four image data under illumination with four stripe pattern lights for the four-phase phase shift method and one image data under uniform illumination are acquired. . The image by the stripe pattern is recorded as luminance data I ki (x, y), i = 0, 1, 2, 3 (LP5 to LP55), and the image by uniform illumination is recorded as luminance data I k (x, y). (S24-S26). Here, x and y are coordinates indicating the position of the pixel on the image, and x = 0, 1,..., M, y = 0, 1,. In addition, although the example which uses the phase shift method of 4 phases is shown here, in order to acquire three-dimensional shape data, not only this but the phase shift method of 3 phases or 5 phases or more can also be used.
(縞パターン光による画像データ取得)
中央制御部42は、位相変化ループ(LP5〜LP55)において、変数iの値を各ループ毎にi=0,1,2,3と変化させて、投影縞パターンデータ生成(S20)、縞パターン投影(S21)、撮像(S22)、輝度データ記録(S23)を行う。すなわち、中央制御部42は、正弦波の位相をπ/2ずつ変化させて画像データを輝度データとしてメモリ43に4回取り込む。
(Acquire image data with fringe pattern light)
In the phase change loop (LP5 to LP55), the
より具体的に述べると、3次元計測処理部4の縞パターンデータ作成部41が、投影縞パターンデータを生成する(S20)。生成された縞パターンデータは、中央制御部42の制御によって縞パターン投影部2に転送され、縞パターン投影部2より、正弦波状に明度が変化する縞パターンSPとして被計測物の計測領域10に投影される(S21)。
More specifically, the fringe pattern
縞パターン生成部22で作られる縞パターンLki(u,v)は、次式(1)に表される。この縞パターンは、明度が正弦波状に変化する。ここで、(u,v)は縞パターン投影部2の縞パターン生成部22を構成する透過型液晶板上の座標であり、b(u,v)はバイアス値、a(u,v)は振幅、φ(u)は初期位相(i=0の場合の位相)、iπ/2は初期位相からの位相シフト量(i=0,1,2,3)である。
The fringe pattern L ki (u, v) created by the fringe
撮像部3は、縞パターンが投影された被計測物の計測領域10を撮像し(S22)、撮像された各画素の輝度データから成る輝度データIki(x,y)は、3次元計測処理部4のメモリ43に記録される(S23)。
The
(一様照明による画像データ取得)
次に、中央制御部42は、縞パターン投影部2によって明るさが一様な照明光を被計測物の計測領域10に投影し(S24)、撮像部3によって撮像し(S25)、縞パターンのない一様照明での輝度データIk(x,y)をメモリに記録する(S26)。
(Image data acquisition by uniform illumination)
Next, the
縞パターンのない画像は、上述のように縞パターンが投影されていない一様照明による状態を撮像して得ることもできるが、位相シフト法計測のために取得した縞パターンの画像を合成して取得することもできる。つまり、具体的な輝度データIkの取得方法として、次の2つの方法を用いることができる。
(1)パターンのない明るさが一定の画像を投影部から投影して撮像する。
(2)Ik=Ik0+Ik1+Ik2+Ik3により合成して求める。
An image without a fringe pattern can be obtained by imaging the state of uniform illumination where the fringe pattern is not projected as described above, but the image of the fringe pattern obtained for the phase shift method measurement is synthesized. It can also be acquired. That is, the following two methods can be used as a specific method for obtaining the luminance data Ik .
(1) An image having a constant brightness without a pattern is projected from the projection unit and picked up.
(2) I k = I k0 + I k1 + I k2 + I k3
(位相算出)
次に、図7に戻って、位相算出(S11)を説明し、その後、3次元データ計算(S12)を説明する。まず、上述の縞パターン投影と撮像によって得られた各画素の輝度値Iki(x,y)(i=0,1,2,3)から、次式(2)によって定義される位相φ(x,y)が算出される(S11)。算出は演算部44において行われる。
(Phase calculation)
Next, returning to FIG. 7, the phase calculation (S11) will be described, and then the three-dimensional data calculation (S12) will be described. First, from the luminance value I ki (x, y) (i = 0, 1, 2, 3) of each pixel obtained by the above-described fringe pattern projection and imaging, the phase φ ( x, y) is calculated (S11). The calculation is performed in the
この位相φ(x,y)は、画像全体について定まる1つの位相状態について、座標(x,y)で定まる画素点毎の位相(位相値)の分布データである。この式で表される位相分布データと撮像の幾何学条件等から、被計測物体表面の3次元座標を各画素に割り当てた、いわゆる距離画像が得られる。より詳しく説明すると、計測領域10に投影された縞パターンSPは、計測領域10の3次元形状によって変調(歪曲)される。投影時の位相φ(u)と、撮像した画像から求めた位相φ(x,y)は、もとが同じものであるので、撮像部3の撮像素子31上の座標と液晶板上の座標の対応関係を得ることができる。従って、三角測量の原理によって被計測物表面の計測領域10の3次元座標X,Y,Zが、次式(3)によって求められる(S12)。
This phase φ (x, y) is distribution data of a phase (phase value) for each pixel point determined by coordinates (x, y) in one phase state determined for the entire image. A so-called distance image in which the three-dimensional coordinates of the surface of the object to be measured are assigned to each pixel is obtained from the phase distribution data represented by this equation and the geometric conditions of imaging. More specifically, the fringe pattern SP projected on the
ここで、(X,Y,Z)は3次元空間における計測領域10の表面の点の座標、u(φ)は液晶板上における画素の座標(位相が変化する方向の座標)である。またpc,ppはそれぞれ、撮像部3、縞パターン投影部2のキャリブレーションで求められるパラメータであり、次式(4)(5)を満足する。
Here, (X, Y, Z) is the coordinate of the point on the surface of the
上述の処理に基づいて、1つの縞パターン投影部2と撮像部3の組み合わせによる3次元形状計測結果として、画像上の画素位置(x,y)において空間座標データ(X,Y,Z)が定義された3次元点群データPk(x,y;X,Y,Z)が得られる。
Based on the above-described processing, the spatial coordinate data (X, Y, Z) at the pixel position (x, y) on the image is obtained as a three-dimensional shape measurement result by the combination of one fringe
(輝度勾配データ計算)
図7における処理の後半では、一様照明での輝度データIk(x,y)について輝度勾配データを求める計算が行われる(S13)。輝度勾配は、画像のx方向、y方向について輝度データの微分値を算出して求められる。この算出には、例えばSobelフィルタを用いることができる。輝度データIkに対応するx方向の微分値Dkx(x,y)、y方向の微分値Dky(x,y)は、それぞれ次式(6)(7)で求められる。
(Brightness gradient data calculation)
In the latter half of the processing in FIG. 7, calculation for obtaining luminance gradient data is performed for luminance data I k (x, y) in uniform illumination (S13). The luminance gradient is obtained by calculating a differential value of luminance data in the x direction and y direction of the image. For this calculation, for example, a Sobel filter can be used. The differential value D kx (x, y) in the x direction and the differential value D ky (x, y) in the y direction corresponding to the luminance data I k are obtained by the following equations (6) and (7), respectively.
輝度の勾配方向を表す角度θk(x,y)はこれらの微分値から次式(8)で求められる。この角度θk(x,y)は画像におけるx軸方向となす角度として定義されている。 The angle θ k (x, y) representing the luminance gradient direction is obtained from the differential value by the following equation (8). This angle θ k (x, y) is defined as an angle formed with the x-axis direction in the image.
本実施形態の3次元形状計測方法では、輝度の勾配方向と、縞パターンSPの変化方向とのなす角度が、投影部A,Bのどちらの場合においてより90゜に近いか、を判定に用いるので、θk(x,y)の値は0゜から90゜の範囲の値でよい。従って、x方向微分値、y方向微分値の絶対値を用いて、次式(9)のように求めた角度Θk(x,y)を用いることもできる。以下では、便宜上、角度Θk(x,y)を用いるものとして説明する。また、これらの角度θk(x,y)、または角度Θk(x,y)が定義できなく、存在しない場合には、「999」などの所定の異常値を角度値として与えておくものとする。 In the three-dimensional shape measurement method of the present embodiment, it is used for determination whether the angle formed by the luminance gradient direction and the change direction of the fringe pattern SP is closer to 90 ° in either of the projection portions A and B. Therefore, the value of θ k (x, y) may be in the range of 0 ° to 90 °. Therefore, the angle Θ k (x, y) obtained by the following equation (9) using the absolute values of the x-direction differential value and the y-direction differential value can also be used. Hereinafter, for the sake of convenience, description will be made assuming that the angle Θ k (x, y) is used. Further, when these angles θ k (x, y) or angles Θ k (x, y) cannot be defined and do not exist, a predetermined abnormal value such as “999” is given as an angle value. And
以上の処理により、図6のステップS1,S2における、投影部A,Bによる2組の点群データ取得が完了し、3次元形状データPk(x,y;X,Y,Z),k=A,B、輝度勾配データΘk(x,y),Dkx(x,y),Dky(x,y),k=A,Bが取得される。以下では、図6における各画素における最良の3次元形状データの選択による画素データの決定の処理を説明する(ループLP1〜LP11、LP2〜LP22)。なお、Pk(x,y;X,Y,Z)をPk(x,y)と表記し、選択決定された最終の3次元形状データをP(x,y;X,Y,Z)、またはP(x,y)と表記する。 With the above processing, two sets of point cloud data acquisition by the projection units A and B in steps S1 and S2 in FIG. 6 is completed, and the three-dimensional shape data P k (x, y; X, Y, Z), k = A, B, luminance gradient data Θ k (x, y), D kx (x, y), D ky (x, y), k = A, B are acquired. Hereinafter, a process of determining pixel data by selecting the best three-dimensional shape data in each pixel in FIG. 6 will be described (loops LP1 to LP11, LP2 to LP22). Note that P k (x, y; X, Y, Z) is expressed as P k (x, y), and the final selected three-dimensional shape data is P (x, y; X, Y, Z). Or P (x, y).
(画素データの決定)
ループ処理において(ループLP1〜LP11,LP2〜LP22)、座標x,yによって指定された特定の画素について、PA(x,y),PB(x,y)の存在の如何が判断され、いずれか一方のみが存在する場合には、その値が選択され、P(x,y)=PA(x,y)、または、P(x,y)=PB(x,y)とされる(S6、またはS8)。また、いずれも存在していなければ(S3とS7でNo)、P(x,y)は、非存在とされ、「999」などの所定の異常値がP(x,y)に与えられる(S9)。
(Determination of pixel data)
In the loop processing (loops LP1 to LP11, LP2 to LP22), it is determined whether or not P A (x, y), P B (x, y) exists for a specific pixel specified by coordinates x, y. When only one of them exists, the value is selected and P (x, y) = P A (x, y) or P (x, y) = P B (x, y) is set. (S6 or S8). If neither exists (No in S3 and S7), P (x, y) is not present, and a predetermined abnormal value such as “999” is given to P (x, y) ( S9).
上述の処理(S6,S8,S9)は、各縞パターン投影部2からの投影方向に依存して発生する3次元立体形状に起因する隠蔽(影ができる、いわゆるオクルージョン)のため計測結果がなくなる場合の対応処理である。これにより、2種類の測定結果のうち、一方が隠蔽の影響を受ける場合、他方を正しい計測結果として選択することができる。
The above-described processing (S6, S8, S9) has no measurement result due to concealment (so-called occlusion where a shadow is formed) due to a three-dimensional solid shape generated depending on the projection direction from each fringe
PA(x,y),PB(x,y)がいずれも存在する場合(S3とS4でYes)、輝度勾配に基づく画素データの決定が行われる(S5)。 When both P A (x, y) and P B (x, y) exist (Yes in S3 and S4), the pixel data is determined based on the luminance gradient (S5).
輝度勾配に基づく画素データの選択決定を、サブルーティンのフローチャート(図8)を参照して説明する。まず、輝度勾配データである角度ΘA(x,y),ΘB(x,y)の存在の如何が判断され(#1)、いずれか一方の角度が、上述のように「999」とされて、存在しない場合(#1でNo)、デフォルトでP(x,y)=PA(x,y)とされる(#4)。なお、これらの角度がいずれも存在しない場合は、輝度勾配が定義されない状態、すなわち、輝度勾配がない状態であり、注目画素の周辺画素において一様輝度分布となっていることを示す。 The selection of pixel data based on the luminance gradient will be described with reference to a subroutine flowchart (FIG. 8). First, it is determined whether or not the angles Θ A (x, y) and Θ B (x, y), which are brightness gradient data, exist (# 1), and one of the angles is “999” as described above. If it does not exist (No in # 1), the default is P (x, y) = P A (x, y) (# 4). Note that when none of these angles exists, it indicates that the luminance gradient is not defined, that is, there is no luminance gradient, and the luminance distribution is uniform in the peripheral pixels of the target pixel.
角度ΘA(x,y),ΘB(x,y)のいずれも存在する場合には(#1でYes)、パターン変化方向の角度(ηA,ηBとする)と、角度ΘA(x,y),ΘB(x,y)との差の絶対値としての角度α,βが求められる(#2)。この角度α,βは、第1の実施形態における図5に示した角度α,βに相当する。また、角度ηA,ηBは、同じく図5に示した単位ベクトルua,ubの方向に相当し、本実施形態の場合、x軸方向を基準にするとηA=0,ηB=90゜である。 When both of the angles Θ A (x, y) and Θ B (x, y) exist (Yes in # 1), the angle in the pattern change direction (referred to as η A and η B ) and the angle Θ A The angles α and β as absolute values of the difference from (x, y), Θ B (x, y) are obtained (# 2). The angles α and β correspond to the angles α and β shown in FIG. 5 in the first embodiment. Also, the angles η A and η B correspond to the directions of the unit vectors ua and ub shown in FIG. 5, and in this embodiment, η A = 0 and η B = 90 ° with respect to the x-axis direction. It is.
次に、上述の角度α,βのいずれが90゜に近いか判断され、角度αが角度βよりも90゜に近い場合、つまり、β<α≦90゜の場合(#3でYes)、P(x,y)=PA(x,y)とされる(#4)。また、角度αが角度βよりも90゜に近くはない場合(#3でNo)、P(x,y)=PB(x,y)とされる(#5)。 Next, it is determined which of the angles α and β is closer to 90 °. If the angle α is closer to 90 ° than the angle β, that is, if β <α ≦ 90 ° (Yes in # 3), P (x, y) = P A (x, y) is set (# 4). When the angle α is not closer to 90 ° than the angle β (No in # 3), P (x, y) = P B (x, y) is set (# 5).
上記では、角度ΘA(x,y),ΘB(x,y)を用いて最良のデータを選択決定する旨説明したが、同様の選択決定は、輝度勾配データであるx方向の微分値Dkx(x,y)、y方向の微分値Dky(x,y)を用いて行うこともできる。この方法によると、角度ΘA(x,y),ΘB(x,y)を求めるための逆正接の計算が不要であるので、より少ない計算処理量で処理できる利点がある。 In the above description, it has been described that the best data is selected and determined using the angles Θ A (x, y) and Θ B (x, y). It can also be performed using D kx (x, y) and the differential value D ky (x, y) in the y direction. According to this method, it is not necessary to calculate an arc tangent for obtaining the angles Θ A (x, y) and Θ B (x, y). Therefore, there is an advantage that the processing can be performed with a smaller calculation processing amount.
本実施形態の場合、角度ηA,ηBが、ηA=0,ηB=90゜であるので、微分値を用いる選択決定は、次の関係によって行うことができる。ただし、次式は、投影部Aのデータにより判断するので、投影部A,Bによって得られた輝度勾配の方向が互いに略等しい場合に適用される。
DAy≧DAx の場合、P(x,y)=PA(x,y)、
DAy<DAx の場合、P(x,y)=PB(x,y)。
In the case of the present embodiment, the angles η A and η B are η A = 0 and η B = 90 °. Therefore, the selection determination using the differential value can be performed by the following relationship. However, since the following equation is determined based on the data of the projection unit A, it is applied when the directions of the luminance gradients obtained by the projection units A and B are substantially equal to each other.
If D Ay ≧ D Ax , P (x, y) = P A (x, y),
If D Ay <D Ax , then P (x, y) = P B (x, y).
上述のような画素データの決定処理が、全画素について行われることにより、最適選択された最終の3次元座標データ、すなわち3次元形状計測結果P(x,y)、より明示的にP(x,y;X,Y,Z)が取得される。 The pixel data determination process as described above is performed for all pixels, so that the optimally selected final three-dimensional coordinate data, that is, the three-dimensional shape measurement result P (x, y), more explicitly P (x , Y; X, Y, Z).
本実施形態の3次元形状計測方法によれば、輝度の勾配方向とパターン変化方向とのなす角度を比較して最適と考えられる3次元座標の計測結果を選択するので、表面に文字や柄などによる反射率の異なる領域が混在する被計測物体についても、選択するだけの簡単な操作によって、精度の高い計測ができる。また、異なる方向からの投影部A,Bによる点群データの比較と選択により、隠蔽(オクルージョン)による計測結果の欠損を回避できる。 According to the three-dimensional shape measurement method of this embodiment, the measurement result of the three-dimensional coordinates considered to be optimal is selected by comparing the angle formed between the gradient direction of the brightness and the pattern change direction, so that characters, patterns, etc. are applied to the surface. Even an object to be measured in which regions having different reflectivities due to the above can be measured with high accuracy by a simple operation only by selecting. Further, by comparing and selecting the point cloud data from the projection units A and B from different directions, it is possible to avoid a loss of measurement results due to occlusion.
(第3の実施形態)
図10は第3の実施形態に係る3次元形状計測方法および装置を説明するための投影部、撮像部、および縞パターンの位置関係を示す。本実施形態は、第1または第2の実施形態における2つの縞パターン投影部2を3つとする構成にしたものである。各縞パターン投影部2の配置面A,B,Cは、面間の角度をφ1,φ2とされ、縞パターンSPのパターン変化方向5も配置面A,B,Cに応じて設定されている。角度φ1,φ2は、例えば、それぞれ60゜とすることにより、第1の実施形態における90゜の場合よりも、ぼけに対する誤差回避をより効果的に行えるので、より精度良く3次元形状計測を行える。
(Third embodiment)
FIG. 10 shows a positional relationship between a projection unit, an imaging unit, and a fringe pattern for explaining a three-dimensional shape measurement method and apparatus according to the third embodiment. In the present embodiment, the two striped
本発明の3次元形状計測方法および装置は、より一般的に、縞パターン投影部2(より基本的に投影用光軸、以下同様)を2つ以上設けることができ、その数を増やすことにより、ぼけに対する誤差回避をより効果的に行える。また、多数の計測結果を統計処理することにより、ランダムノイズ誤差を低減したりできる。縞パターン投影部2の数は、測定に係る時間や、必要な計測精度や、設備費等の兼ね合いで決定すればよい。
More generally, the three-dimensional shape measuring method and apparatus of the present invention can be provided with two or more fringe pattern projection units 2 (more basically, projection optical axes, the same applies hereinafter), and by increasing the number thereof. , It is possible to more effectively avoid errors due to blur. Further, random noise errors can be reduced by statistically processing a large number of measurement results. The number of the fringe
ここで、縞パターン投影部2を任意の数だけ備えた場合の、一般的な3次元形状計測方法について説明する。なお、説明の便宜のため、図1乃至図10に示した各部の名称や符号等を参照するが、それらの構成に限定されるものではない。この3次元形状計測方法では、第1、第2の実施形態同様に、明度が正弦波状に変化する縞パターンSPを異なる位相で3回以上被計測物体の計測領域10に投影して、一定位置に配置された撮像部3により撮像することにより、各画像間で互いに画素位置が対応づけられた複数の画像を撮像し、これらの画像を用いて画像中の各画素毎に被計測物体の3次元座標を求める位相シフト法を用いる。
Here, a general three-dimensional shape measurement method when an arbitrary number of the fringe
この3次元形状計測方法は、座標計測ステップと、勾配取得ステップと、画素データ決定ステップと、を含んでおり、各ステップを以下に詳述する。 This three-dimensional shape measurement method includes a coordinate measurement step, a gradient acquisition step, and a pixel data determination step, and each step will be described in detail below.
座標計測ステップでは、被計測物体の計測領域10上方に撮像部3を設置し、撮像部3の光軸30と1つの投影用光軸20とで構成される平面を複数設定し、前記平面の1つについて該平面に対して所定の角度を有しかつ撮像部3の光軸30に直交する直線の方向としたパターン変化方向5に沿って明度が変化する縞パターンSPを該平面を構成する投影用光軸20方向から計測領域10に投影すると共に撮像部3によって撮像して位相シフト法により該計測領域の3次元座標(X,Y,Z)を取得するステップを、前記各平面について独立に行うことにより複数種類の3次元座標データPk(x,y;X,Y,Z)を取得する。ここで、X,Y,Zは計測領域10に設定された空間座標、x,yは画像に設定された座標である。ここで、添字kは、各投影用光軸20等を識別する変数であり、第1の実施形態におけるA,B等を識別する添字である。
In the coordinate measurement step, the
勾配取得ステップでは、計測領域10を均一な照明光のもとで撮像した画像を微分処理し該画像中の画素毎に輝度の勾配方向hを求めるステップを、前記各平面について独立に投影用光軸20方向からの照明と撮像部3による撮像とによって行うことにより複数種類の勾配方向データを取得する。輝度の勾配方向hは、角度θk(x,y)、x方向の微分値Dkx(x,y)、y方向の微分値Dky(x,y)等で表される。
In the gradient acquisition step, the step of differentiating the image obtained by imaging the
この勾配取得ステップと上述の座標計測ステップとは、互いに順番を入れ替えて実行することができる。また、これらのステップをそれぞれ一括して行わずに、互いに前記各平面毎(各投影用光軸20毎)のステップによってまとめて行うようにしてもよい。 The gradient acquisition step and the coordinate measurement step described above can be executed with the order reversed. Further, these steps may be collectively performed by steps for each plane (each projection optical axis 20) without performing them all at once.
画素データ決定ステップでは、各投影用光軸20毎の3次元座標データPk(x,y;X,Y,Z)と勾配方向データθk(x,y),Dkx(x,y),Dky(x,y)から成る複数の組における互いに他の組の画像中の画素に対応する各画素について、それぞれ輝度の勾配方向hとパターン変化方向5とのなす角度γまたは該角度γに相当する傾き成分を求め、各組における当該画素に対する3次元座標X,Y,Zをこれらの角度γまたは傾き成分に基づいて合成して当該画素における3次元座標の計測結果P(x,y;X,Y,Z)とする。
In the pixel data determination step, the three-dimensional coordinate data P k (x, y; X, Y, Z) and gradient direction data θ k (x, y), D kx (x, y) for each projection
また、上述の画素データ決定ステップは、3次元座標を合成する際に、前記互いに対応する各画素について求めた輝度の勾配方向と前記パターン変化方向とのなす角度γを比較して90゜により近い角度γを与える組から3次元座標を選択して当該画素における計測結果P(x,y;X,Y,Z)とすることができる。これは、合成時の重み付けを、選択した1つのデータについて”1”とし、他のデータの全てについて”0”とした場合に相当する。 Further, in the pixel data determination step described above, when the three-dimensional coordinates are synthesized, the angle γ formed by the luminance gradient direction obtained for each of the corresponding pixels and the pattern change direction is compared and is closer to 90 °. A three-dimensional coordinate can be selected from the set that gives the angle γ, and the measurement result P (x, y; X, Y, Z) at the pixel can be obtained. This corresponds to a case where the weighting at the time of synthesis is “1” for one selected data and “0” for all other data.
(第4の実施形態)
図11は第4の実施形態に係る3次元形状計測方法を説明するフローチャートを示し、図12は同方法における画素データ決定のフローチャートを示す。本実施形態の3次元形状計測方法は、第2の実施形態における、「輝度勾配(すなわち角度)に基づく画素データ決定の処理」を、「微分強度(すなわち輝度分布の微分値)」に基づいて行うところが異なっており、他の点は第2の実施形態と同様である。
(Fourth embodiment)
FIG. 11 is a flowchart for explaining a three-dimensional shape measuring method according to the fourth embodiment, and FIG. 12 is a flowchart for determining pixel data in the method. The three-dimensional shape measurement method of this embodiment is based on “differential intensity (that is, a differential value of a luminance distribution)” in “process of determining pixel data based on luminance gradient (that is, angle)” in the second embodiment. The operation is different and the other points are the same as in the second embodiment.
従って、図11に示すフローチャートは、第2の実施形態のフローチャート(図6)におけるステップS5を、輝度強度に基づく画素データ決定の内容(S50)、に置き換えたものとなっている。なお、図11のフローチャートにおけるステップS1,S2では、角度勾配を表す角度θk(x,y)やΘk(x,y)の導出は不要である。また、ここでいう「微分強度」は、画像中の輝度変化の微分値のことであり、x方向の微分強度Dkxとy方向の微分強度Dkyがある(kはAまたはB)。これらは、前述の勾配方向データであって、Dkx=Dkx(x,y),Dky=Dky(x,y)である。 Therefore, the flowchart shown in FIG. 11 is obtained by replacing step S5 in the flowchart (FIG. 6) of the second embodiment with the content of pixel data determination based on the luminance intensity (S50). In steps S1 and S2 in the flowchart of FIG. 11, it is not necessary to derive the angles θ k (x, y) and Θ k (x, y) representing the angle gradient. Further, the “differential intensity” here is a differential value of a luminance change in the image, and includes a differential intensity D kx in the x direction and a differential intensity D ky in the y direction (k is A or B). These are the above-described gradient direction data, and D kx = D kx (x, y) and D ky = D ky (x, y).
以下では、ステップS50の具体的処理を示すサブルーティン(図12)を説明し、他の説明は省略する。ここでも、図1〜図5、および図6を適宜参照する。 Below, the subroutine (FIG. 12) which shows the specific process of step S50 is demonstrated, and other description is abbreviate | omitted. Here again, FIGS. 1 to 5 and FIG. 6 are referred to as appropriate.
画素データ決定サブルーティンの最初のステップで、2つの投影部A,Bのもとで得られた微分強度が、互いにx方向成分同士と閾値Tx、およびy方向成分同士と閾値Tyで比較される(#10)。例えば、x方向について、微分強度DAxが微分強度DBxに閾値Txを加えた値よりも大きい(DAx>DBx+Tx)場合に(#10でYes)、投影部Bによる3次元形状データが、xy座標を有する注目画素に対する最終データとして選択決定されP(x,y)=PB(x,y)とされる(#14)。 In the first step of the pixel data determination subroutine, the differential intensities obtained under the two projection parts A and B are compared with each other in the x direction component and the threshold value T x , and in the y direction component and the threshold value T y . (# 10). For example, in the x direction, when the differential intensity D Ax is larger than the value obtained by adding the threshold T x to the differential intensity D Bx (D Ax > D Bx + T x ) (Yes in # 10), the three-dimensional by the projection unit B The shape data is selected and determined as final data for the pixel of interest having xy coordinates, and P (x, y) = P B (x, y) is set (# 14).
上述の選択決定の判定は、隠蔽(オクルージョン)による誤計測を回避するためのものである。すなわち、隠蔽によって画像に影が生じ、その影の境界線によって微分強度が強くなってしまう場所において、そのような影の影響が少ないと考えられるより信頼性の高い計測結果を選択する処理である。上の例では、微分強度DAxが微分強度DBxに閾値Txを加えた値よりも大きいので(DAx>DBx+Tx)、投影部Aによる3次元形状データPA(x,y)には隠蔽による影の影響があると判断され、PB(x,y)が選択され決定されている。 The determination of the selection decision described above is for avoiding erroneous measurement due to occlusion. That is, in a place where a shadow is generated in the image due to concealment and the differential intensity becomes strong due to the boundary line of the shadow, it is a process of selecting a more reliable measurement result considered to be less affected by such a shadow. . In the above example, since the differential intensity D Ax is larger than the value obtained by adding the threshold T x to the differential intensity D Bx (D Ax > D Bx + T x ), the three-dimensional shape data P A (x, y by the projection unit A) ) Is determined to have a shadow effect due to concealment, and P B (x, y) is selected and determined.
同様に、y方向についても、微分強度DAyが微分強度DByに閾値Tyを加えた値よりも大きい(DAy>DBy+Ty)場合に(#10でYes)、P(x,y)=PB(x,y)とされる(#14)。この処理を言い換えると、x方向とy方向のいずれかにおいて、異常に大きい輝度微分強度を有するような3次元形状データは、隠蔽による影の影響を含む可能性があるので除外する処理と言える。 Similarly, in the y direction, if the differential intensity D Ay is larger than the value obtained by adding the threshold T y to the differential intensity D By (D Ay > D By + T y ) (Yes in # 10), P (x, y) = P B (x, y) (# 14). In other words, it can be said that the three-dimensional shape data having an abnormally large luminance differential intensity in either the x direction or the y direction is excluded because it may include the influence of shadows due to concealment.
上述とは逆の場合には、すなわち、投影部Bによる微分強度が異常に大きい場合には(#11でYes)、同様の理由で、P(x,y)=PA(x,y)とされる(#13)。 In the opposite case, that is, when the differential intensity by the projection unit B is abnormally large (Yes in # 11), P (x, y) = P A (x, y) for the same reason. (# 13).
いずれの微分強度も、閾値Tx,Tyによって判断されるような大きな異常値を持たない場合に(#10でNo、#11でNo)、投影部Aに関する微分強度のxy方向の成分の大小比較が行われる(#12)。この大小比較は、隠蔽による影響がない状況下で、文字や柄などによる反射率の異なる領域の境界部分におけるぼけの影響による計測誤差の発生を回避するために行われる。この場合、隠蔽もなく、また、一様な照明のもとでの画像に基づく輝度の微分強度なので、投影部A,Bのいずれに基づく微分強度も互いに同等の値を有すると考えられ、いずれの微分強度を用いても有効に大小比較できると考えられる。 When none of the differential intensities has a large abnormal value as judged by the thresholds T x and T y (No in # 10, No in # 11), the differential intensity of the differential intensity related to the projection unit A in the xy direction A size comparison is performed (# 12). This size comparison is performed in order to avoid the occurrence of a measurement error due to the influence of blurring at the boundary part of the region where the reflectance is different due to characters, patterns, etc., under the situation where there is no influence by concealment. In this case, since there is no concealment and the differential intensity of the luminance based on the image under uniform illumination, it is considered that the differential intensity based on either of the projection parts A and B has an equivalent value. It can be considered that the magnitude can be effectively compared even using the differential intensity of.
上述のぼけの影響による計測誤差は、画像の輝度の勾配方向と、縞パターンの変化方向との角度が90゜に近いほど小さいので、DAy≧DAxの場合(#12でYes)、P(x,y)=PA(x,y)とすればよい(#13)。 The measurement error due to the above-described blur is smaller as the angle between the gradient direction of the luminance of the image and the change direction of the fringe pattern is closer to 90 °. Therefore, when D Ay ≧ D Ax (Yes in # 12), P (x, y) = P a (x, y) and may be (# 13).
補足説明すると、本実施形態の3次元形状計測方法は、第2の実施形態と同様に、第1の実施形態の構成の3次元形状計測装置を用いることを想定しているので、投影部Aによる縞パターンの変化方向はX軸方向(x軸方向)である。また、投影部Bによる縞パターンの変化方向はY軸方向(y軸方向)である。 Supplementally, since the three-dimensional shape measurement method of the present embodiment is assumed to use the three-dimensional shape measurement apparatus having the configuration of the first embodiment, similarly to the second embodiment, the projection unit A The change direction of the fringe pattern due to is the X-axis direction (x-axis direction). Further, the change direction of the fringe pattern by the projection unit B is the Y-axis direction (y-axis direction).
そこで、DAy≧DAxの場合、輝度の勾配方向は、x軸方向よりも、y軸方向に傾いていることになる。つまり、x軸とy軸とは直角なので、輝度の勾配方向は、x軸方向に対してより大きな、90゜に近い角度を有することになり、x軸方向に縞パターン変化方向を有する場合の3次元形状データPA(x,y)が、より誤差の少ないデータとして選択される。逆の場合、すなわち、DAy≧DAxではない場合(#12でNo)、P(x,y)=PB(x,y)とされる(#14)。 Therefore, when D Ay ≧ D Ax , the luminance gradient direction is inclined in the y-axis direction rather than the x-axis direction. That is, since the x-axis and the y-axis are at right angles, the luminance gradient direction has a larger angle close to 90 ° with respect to the x-axis direction, and the stripe pattern change direction in the x-axis direction. The three-dimensional shape data P A (x, y) is selected as data with less error. In the opposite case, that is, when D Ay ≧ D Ax is not satisfied (No in # 12), P (x, y) = P B (x, y) is set (# 14).
(第5の実施形態)
図13は第5の実施形態に係る3次元形状計測方法における画素データ決定のフローチャートを示す。本実施形態の3次元形状計測方法は、上述の第4の実施形態と同様に「微分強度(すなわち輝度分布の微分値)」に基づいて「画素データ決定の処理」を行うが、2つの計測データのうちいずれかを選択するのではなく、所定の重み付けのもとで、2つの計測データを合成したデータを最終の「画素データ」すなわち3次元形状計測データとするところが異なり、他の点は第4の実施形態と同様である。
(Fifth embodiment)
FIG. 13 shows a flowchart of pixel data determination in the three-dimensional shape measurement method according to the fifth embodiment. The three-dimensional shape measurement method of this embodiment performs “pixel data determination processing” based on “differential intensity (that is, differential value of luminance distribution)” as in the above-described fourth embodiment. Instead of selecting one of the data, the data obtained by synthesizing two pieces of measurement data under a predetermined weight is used as final “pixel data”, that is, three-dimensional shape measurement data. This is the same as in the fourth embodiment.
図13に示す本実施形態のサブルーティンのフローチャートは、第4の実施形態のフローチャート(図12)に代わるものである。ステップ#20,#21における処理は、前述の図12におけるステップ#10,#11における処理と同様なので説明は省略する。
The flowchart of the subroutine of this embodiment shown in FIG. 13 is an alternative to the flowchart of the fourth embodiment (FIG. 12). The processing in
いずれの微分強度も、閾値Tx,Tyによって判断されるような大きな異常値を持たない場合に(#20でNo、#21でNo)、次式(10)に示すように、パラメータtを設定する(#22)。 When none of the differential intensities has a large abnormal value as judged by the thresholds T x and T y (No in # 20, No in # 21), as shown in the following equation (10), the parameter t Is set (# 22).
パラメータtの設定には、投影部Aによる微分強度データDAy(x,y),DAx(x,y)が用いられているが、隠蔽もなく、また、一様な照明のもとでの画像に基づく輝度の微分強度なので、投影部A,Bのいずれに基づく微分強度データでも、同等にパラメータtを設定できると考えられる。 For setting the parameter t, differential intensity data D Ay (x, y) and D Ax (x, y) by the projection unit A are used, but there is no concealment and under uniform illumination. Therefore, it is considered that the parameter t can be set equally with the differential intensity data based on either of the projection parts A and B.
上式(12)のtは、分母を1として考えると、tがx成分に相当し、(1−t)がy成分に相当する。また、t=1なら、微分強度はx成分のみであり、輝度勾配方向はx軸方向であり、この方向に直交するy軸方向に縞パターン変化方向となっている3次元形状計測値PB(x,y)が選択決定される。 When t in the above equation (12) is considered with the denominator being 1, t corresponds to the x component and (1-t) corresponds to the y component. If t = 1, the differential intensity is only the x component, the luminance gradient direction is the x-axis direction, and the three-dimensional shape measurement value P B is the stripe pattern change direction in the y-axis direction orthogonal to this direction. (X, y) is selected and determined.
また、t=0なら、微分強度はy成分のみであり、輝度勾配方向はy軸方向であり、この方向に直交するx軸方向に縞パターン変化方向となっている3次元形状計測値PA(x,y)が選択決定される。 If t = 0, the differential intensity is only the y component, the luminance gradient direction is the y-axis direction, and the three-dimensional shape measurement value P A is the fringe pattern change direction in the x-axis direction orthogonal to this direction. (X, y) is selected and determined.
パラメータtが、0<t<1の場合には、それぞれ、PA(x,y)とPB(x,y)とからの寄与を、(1−t)とtの重み付けのもとで、P(x,y)に算入すればよいことが分かる。 When the parameter t is 0 <t <1, the contributions from P A (x, y) and P B (x, y) are respectively calculated by weighting (1−t) and t. , P (x, y) can be calculated.
上記のことから、パラメータtを用いて、次式(11)に示すように、投影部A,Bによる3次元形状計測値PA(x,y),PB(x,y)を合成して、xy座標を有する注目画素に対する最終データP(x,y)を決定する(#23)。 From the above, using the parameter t, the three-dimensional shape measurement values P A (x, y) and P B (x, y) by the projection units A and B are synthesized as shown in the following equation (11). The final data P (x, y) for the pixel of interest having xy coordinates is determined (# 23).
本実施形態の3次元形状計測方法によれば、2つの縞パターン変化方向を互いに直角方向にとって、投影部A,Bによって取得した3次元形状計測データを、輝度の勾配方向の角度(微分強度の2成分の大小関係)応じて加重平均をするので、ランダム雑音の影響を低減させることができ、かつ、反射率の混在による計測誤差(ぼけの影響)を低減させることができ、3次元形状計測の精度を向上させることができる。 According to the three-dimensional shape measurement method of the present embodiment, the two stripe pattern change directions are perpendicular to each other, and the three-dimensional shape measurement data acquired by the projection units A and B is converted into the angle of the luminance gradient direction (differential intensity). Since the weighted average is performed according to the magnitude relationship between the two components), the influence of random noise can be reduced, and the measurement error (the influence of blur) due to the mixture of reflectance can be reduced. Accuracy can be improved.
(第6の実施形態)
図14は第6の実施形態に係る3次元形状計測方法における画素データ決定のフローチャートを示す。本実施形態の3次元形状計測方法は、上述の第5の実施形態とは、注目画素における輝度の微分強度がいずれも小さい場合の処理を組み入れた点が異なり、他は第5の実施形態と同様である。すなわち、図14に示すフローチャートにおいて、ステップ#30,#31が、図13のフローチャートに追加されている。
(Sixth embodiment)
FIG. 14 is a flowchart for determining pixel data in the three-dimensional shape measurement method according to the sixth embodiment. The three-dimensional shape measurement method of the present embodiment is different from the fifth embodiment described above in that processing when the differential intensity of luminance at the target pixel is small is incorporated, and the other is the same as the fifth embodiment. It is the same. That is, in the flowchart shown in FIG. 14,
いずれの微分強度も、閾値Tx,Tyによって判断されるような大きな異常値を持たない場合に(#20でNo、#21でNo)、投影部Aに関する微分強度の成分DAy(x,y),DAx(x,y)が、それぞれ閾値T0より小さいかどうか比較される(#30)。いずれも小さい場合、すなわち、DAy(x,y)<T0、かつDAx(x,y)<T0の場合(#30でYes)、上述のパラメータtが、t=0.5とされる(#31)。 When none of the differential intensities has a large abnormal value as judged by the thresholds T x and T y (No in # 20, No in # 21), the differential intensity component D Ay (x , Y) and D Ax (x, y) are compared to determine whether each is smaller than the threshold T 0 (# 30). When both are small, that is, when D Ay (x, y) <T 0 and D Ax (x, y) <T 0 (Yes in # 30), the above-described parameter t is t = 0.5. (# 31).
上述の処理は、隠蔽もなく、また、一様な照明のもとでの画像に基づく輝度の微分強度なので、投影部A,Bのいずれに基づく微分強度も互いに同等の値を有すると考えられるので、投影部Aに関する微分強度の成分によって判断されている。 Since the above-described processing is not concealed and is a differential intensity of luminance based on an image under uniform illumination, it is considered that the differential intensity based on either of the projection parts A and B has an equivalent value. Therefore, it is determined by the differential intensity component related to the projection part A.
また、上述の輝度の微分強度の成分がいずれも小さいという条件は、微分強度の大きさそのものが小さいことを意味する。上述の処理は、注目している画素の周辺における輝度変化が少なく、輝度変化による縞パターン画像のぼけの発生が少なく、従って、このようなぼけによるによる計測誤差が小さいので、ランダムノイズに注目して誤差低減を図る処理である。 Further, the condition that all the components of the differential intensity of the luminance are small means that the magnitude of the differential intensity itself is small. The above processing has little change in luminance around the pixel of interest, and there is little occurrence of blurring of the fringe pattern image due to the change in luminance.Therefore, measurement errors due to such blur are small, so pay attention to random noise. This is a process for reducing the error.
本実施形態の3次元形状計測方法によれば、パラメータtの計算を簡略化し、t=0.5と固定値とすることにより、計算処理を少なくしながら、計測結果を平均化することによりランダム雑音の影響を低減させることができ、計測誤差を低減して精度の高い計測ができる。 According to the three-dimensional shape measurement method of the present embodiment, the calculation of the parameter t is simplified, and t = 0.5 is set to a fixed value, thereby reducing the calculation process and averaging the measurement results. The influence of noise can be reduced, and measurement errors can be reduced and highly accurate measurement can be performed.
(第7の実施形態)
図15は第7の実施形態に係る3次元形状計測方法および装置を説明するための投影部、撮像部、および縞パターンの位置関係を示す。本実施形態は、第1または第2の実施形態における2つの縞パターン投影部2を互いに対向する位置に配置する構成とし、計測領域10に投影する縞パターンSPのパターン変化方向5を互いに直交する構成としたものである。
(Seventh embodiment)
FIG. 15 shows the positional relationship between a projection unit, an imaging unit, and a fringe pattern for explaining the three-dimensional shape measurement method and apparatus according to the seventh embodiment. In the present embodiment, the two fringe
本実施形態の3次元形状計測方法および装置によると、2つの縞パターン投影部2を互いに対向する位置に配置する構成としているので、一方側からの照明によって発生する隠蔽(オクルージョン)による計測データの欠損を、他方側からの照明による計測データによって補完することができる。
According to the three-dimensional shape measurement method and apparatus of the present embodiment, since the two fringe
また、2つの縞パターン投影部2が投影する縞パターンSPのパターン変化方向5を互いに直交する構成としたので、いずれか最良の計測結果を選択するか、または両方の計測結果を合成することにより、計測領域10における反射率の異なる部分におけるぼけの発生による計測誤差を低減して計測精度を向上することができる。
In addition, since the
なお、本発明は、上記各実施形態によって示した構成に限られることなく種々の変形が可能である。例えば、上述した各実施形態の構成を矛盾のない範囲で互いに組み合わせた構成とすることができ、そのような組合せ可能な構成の実施形態は明記されていなくても当然に本発明に含まれる。また、いずれの縞パターン投影部2についても、その投影用光軸20と撮像部3の光軸30とは、必ずしも同一平面に含まれる必要はなく、互いの幾何学的な空間配置が明確であればよく、互いにねじれの位置の関係とすることもできる。また、位相シフト法で用いられる縞パターンSPは、明度が必ずしも正弦波状に変化するパターンである必要はなく、明度が周期的に変化する縞パターンであればよい。
The present invention is not limited to the configuration shown in the above embodiments, and various modifications can be made. For example, the configurations of the above-described embodiments can be combined with each other within a consistent range, and such embodiments that can be combined are naturally included in the present invention even if they are not specified. Further, in any of the fringe
1 3次元形状計測装置
2 撮像部
3 投影部
4 計測処理部
5 パターン変化方向
10 計測領域
20 撮像部光軸
30 投影用光軸
g 画素
h 勾配方向
G 画像
SP 縞パターン
X,Y,Z 3次元座標
DESCRIPTION OF
Claims (4)
被計測物体の計測領域上方に撮像部を設置し、前記撮像部の光軸と1つの投影用光軸とで構成される平面を複数設定し、前記平面の1つについて該平面に対して所定の角度を有しかつ前記撮像部の光軸に直交する直線の方向としたパターン変化方向に沿って明度が変化する縞パターンを該平面を構成する投影用光軸方向から前記計測領域に投影すると共に前記撮像部によって撮像して位相シフト法により該計測領域の3次元座標を取得するステップを、前記各平面について独立に行うことにより複数種類の3次元座標データを取得する座標計測ステップと、
前記計測領域を均一な照明光のもとで撮像した画像を微分処理し該画像中の画素毎に輝度の勾配方向を求めるステップを、前記各平面について独立に、前記投影用光軸方向からの照明と前記撮像部による撮像とによって行うことにより複数種類の勾配方向データを取得する勾配取得ステップと、
前記各平面毎の3次元座標データと勾配方向データとから成る複数の組における互いに他の組の画像中の画素に対応する各画素について、それぞれ前記輝度の勾配方向と前記パターン変化方向とのなす角度または該角度に相当する傾き成分を求め、各組における当該画素に対する3次元座標をこれらの角度または傾き成分に基づいて合成して当該画素における3次元座標の計測結果とする画素データ決定ステップと、を含むことを特徴とする3次元形状計測方法。 A fringe pattern whose brightness changes in a sine wave shape is projected onto the object to be measured three or more times with different phases, and a plurality of images are taken from a certain position. Using these images, the object to be measured is detected for each pixel in the image. In the three-dimensional shape measurement method by the phase shift method for obtaining three-dimensional coordinates,
An imaging unit is installed above the measurement area of the object to be measured, a plurality of planes configured by the optical axis of the imaging unit and one projection optical axis are set, and one of the planes is predetermined with respect to the plane. A fringe pattern whose brightness changes along a pattern change direction having a straight line direction orthogonal to the optical axis of the image pickup unit is projected onto the measurement region from the direction of the projection optical axis constituting the plane. And a coordinate measurement step of acquiring a plurality of types of three-dimensional coordinate data by independently performing the step of acquiring the three-dimensional coordinates of the measurement region by the phase shift method by imaging with the imaging unit,
The step of differentiating an image obtained by imaging the measurement area under uniform illumination light and obtaining a luminance gradient direction for each pixel in the image is independently performed for each plane from the direction of the optical axis for projection. A gradient acquisition step of acquiring a plurality of types of gradient direction data by performing illumination and imaging by the imaging unit;
For each pixel corresponding to a pixel in another set of images in a plurality of sets of three-dimensional coordinate data and gradient direction data for each plane, the luminance gradient direction and the pattern change direction are respectively formed. A pixel data determining step of obtaining an angle or an inclination component corresponding to the angle, and combining three-dimensional coordinates for the pixel in each set based on the angle or inclination component to obtain a measurement result of the three-dimensional coordinates in the pixel; The three-dimensional shape measuring method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008044827A JP5016520B2 (en) | 2008-02-26 | 2008-02-26 | Three-dimensional shape measuring method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008044827A JP5016520B2 (en) | 2008-02-26 | 2008-02-26 | Three-dimensional shape measuring method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009204343A true JP2009204343A (en) | 2009-09-10 |
JP5016520B2 JP5016520B2 (en) | 2012-09-05 |
Family
ID=41146787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008044827A Active JP5016520B2 (en) | 2008-02-26 | 2008-02-26 | Three-dimensional shape measuring method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5016520B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012013453A (en) * | 2010-06-29 | 2012-01-19 | Canon Inc | Three-dimensional measurement device, three-dimensional measurement method and program |
JP2012112952A (en) * | 2010-11-19 | 2012-06-14 | Koh Young Technology Inc | Method and apparatus of profiling surface |
JP2013534312A (en) * | 2010-07-30 | 2013-09-02 | ケーエルエー−テンカー コーポレイション | Apparatus and method for three-dimensional inspection of wafer saw marks |
EP2813808A2 (en) | 2013-06-13 | 2014-12-17 | Yamaha Hatsudoki Kabushiki Kaisha | Three-dimensional optical shape measuring apparatus |
JP2015078935A (en) * | 2013-10-17 | 2015-04-23 | 株式会社キーエンス | Three-dimensional image processor, three-dimensional image processing method, three-dimensional image processing program, and computer readable recording medium and recording device |
CN104897083A (en) * | 2015-06-11 | 2015-09-09 | 东南大学 | Three-dimensional rapid measurement method for raster projection based on defocusing phase-unwrapping of projector |
CN105043300A (en) * | 2015-05-27 | 2015-11-11 | 东莞市盟拓光电科技有限公司 | Three-dimensional measurement system capable of projecting to measured object simultaneously from multiple directions |
CN105953745A (en) * | 2015-12-29 | 2016-09-21 | 上海大学 | Phase sensitivity maximization stripe projection measurement method |
KR20170050058A (en) * | 2015-10-29 | 2017-05-11 | 삼성전자주식회사 | Apparatus and method of sensing depth information |
CN109341588A (en) * | 2018-10-08 | 2019-02-15 | 西安交通大学 | A kind of measuring three-dimensional profile method of three systems approach visual angle of binocular structure light weighting |
WO2020190284A1 (en) * | 2019-03-19 | 2020-09-24 | Hewlett-Packard Development Company, L.P. | Emulating 3d textual patterns |
JP2021110680A (en) * | 2020-01-14 | 2021-08-02 | 株式会社デンソーウェーブ | Three-dimensional measuring device |
KR20210129771A (en) * | 2020-04-20 | 2021-10-29 | 한국표준과학연구원 | System and Method for 3D measurement of freeform surfaces based on deflectometry |
US20220009259A1 (en) * | 2019-03-19 | 2022-01-13 | Hewlett-Packard Development Company, L.P. | Emulating 3d textual patterns |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0719825A (en) * | 1993-06-23 | 1995-01-20 | Sharp Corp | Substrate inspection apparatus |
JPH07234113A (en) * | 1994-02-24 | 1995-09-05 | Mazda Motor Corp | Method and apparatus for detecting shape |
JPH09297846A (en) * | 1996-04-30 | 1997-11-18 | Murata Mach Ltd | Picture recognition device |
JPH11257930A (en) * | 1998-03-13 | 1999-09-24 | Nidek Co Ltd | Three-dimensional shape measuring apparatus |
JP2004361142A (en) * | 2003-06-02 | 2004-12-24 | Yamatake Corp | Three-dimensional measuring instrument and three-dimensional measurement method |
JP2006145405A (en) * | 2004-11-19 | 2006-06-08 | Fukuoka Institute Of Technology | Three-dimensional measuring instrument, method, and program |
JP2011504586A (en) * | 2007-11-15 | 2011-02-10 | シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | Method for optically measuring the three-dimensional shape of an object |
-
2008
- 2008-02-26 JP JP2008044827A patent/JP5016520B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0719825A (en) * | 1993-06-23 | 1995-01-20 | Sharp Corp | Substrate inspection apparatus |
JPH07234113A (en) * | 1994-02-24 | 1995-09-05 | Mazda Motor Corp | Method and apparatus for detecting shape |
JPH09297846A (en) * | 1996-04-30 | 1997-11-18 | Murata Mach Ltd | Picture recognition device |
JPH11257930A (en) * | 1998-03-13 | 1999-09-24 | Nidek Co Ltd | Three-dimensional shape measuring apparatus |
JP2004361142A (en) * | 2003-06-02 | 2004-12-24 | Yamatake Corp | Three-dimensional measuring instrument and three-dimensional measurement method |
JP2006145405A (en) * | 2004-11-19 | 2006-06-08 | Fukuoka Institute Of Technology | Three-dimensional measuring instrument, method, and program |
JP2011504586A (en) * | 2007-11-15 | 2011-02-10 | シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | Method for optically measuring the three-dimensional shape of an object |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012013453A (en) * | 2010-06-29 | 2012-01-19 | Canon Inc | Three-dimensional measurement device, three-dimensional measurement method and program |
JP2013534312A (en) * | 2010-07-30 | 2013-09-02 | ケーエルエー−テンカー コーポレイション | Apparatus and method for three-dimensional inspection of wafer saw marks |
US9140546B2 (en) | 2010-07-30 | 2015-09-22 | Kla-Tencor Corporation | Apparatus and method for three dimensional inspection of wafer saw marks |
US8982330B2 (en) | 2010-11-19 | 2015-03-17 | Koh Young Technology Inc. | Method and apparatus of profiling a surface |
JP2012112952A (en) * | 2010-11-19 | 2012-06-14 | Koh Young Technology Inc | Method and apparatus of profiling surface |
KR101615946B1 (en) * | 2013-06-13 | 2016-04-27 | 야마하하쓰도키 가부시키가이샤 | Three-dimensional shape measuring apparatus |
CN104236481A (en) * | 2013-06-13 | 2014-12-24 | 雅马哈发动机株式会社 | Three-dimensional shape measuring apparatus |
KR20140145541A (en) * | 2013-06-13 | 2014-12-23 | 야마하하쓰도키 가부시키가이샤 | Three-dimensional shape measuring apparatus |
EP2813808A2 (en) | 2013-06-13 | 2014-12-17 | Yamaha Hatsudoki Kabushiki Kaisha | Three-dimensional optical shape measuring apparatus |
US9441957B2 (en) | 2013-06-13 | 2016-09-13 | Yamaha Hatsudoki Kabushiki Kaisha | Three-dimensional shape measuring apparatus |
JP2015001381A (en) * | 2013-06-13 | 2015-01-05 | ヤマハ発動機株式会社 | Three-dimensional shape measurement device |
JP2015078935A (en) * | 2013-10-17 | 2015-04-23 | 株式会社キーエンス | Three-dimensional image processor, three-dimensional image processing method, three-dimensional image processing program, and computer readable recording medium and recording device |
CN105043300A (en) * | 2015-05-27 | 2015-11-11 | 东莞市盟拓光电科技有限公司 | Three-dimensional measurement system capable of projecting to measured object simultaneously from multiple directions |
CN104897083A (en) * | 2015-06-11 | 2015-09-09 | 东南大学 | Three-dimensional rapid measurement method for raster projection based on defocusing phase-unwrapping of projector |
KR102486385B1 (en) | 2015-10-29 | 2023-01-09 | 삼성전자주식회사 | Apparatus and method of sensing depth information |
KR20170050058A (en) * | 2015-10-29 | 2017-05-11 | 삼성전자주식회사 | Apparatus and method of sensing depth information |
CN105953745A (en) * | 2015-12-29 | 2016-09-21 | 上海大学 | Phase sensitivity maximization stripe projection measurement method |
CN109341588A (en) * | 2018-10-08 | 2019-02-15 | 西安交通大学 | A kind of measuring three-dimensional profile method of three systems approach visual angle of binocular structure light weighting |
US20220009259A1 (en) * | 2019-03-19 | 2022-01-13 | Hewlett-Packard Development Company, L.P. | Emulating 3d textual patterns |
WO2020190284A1 (en) * | 2019-03-19 | 2020-09-24 | Hewlett-Packard Development Company, L.P. | Emulating 3d textual patterns |
US11574433B2 (en) * | 2019-03-19 | 2023-02-07 | Hewlett-Packard Development Company, L.P. | Emulating 3D textual patterns |
US11801699B2 (en) * | 2019-03-19 | 2023-10-31 | Hewlett-Packard Development Company, L.P. | Emulating 3D textual patterns |
JP2021110680A (en) * | 2020-01-14 | 2021-08-02 | 株式会社デンソーウェーブ | Three-dimensional measuring device |
JP7276166B2 (en) | 2020-01-14 | 2023-05-18 | 株式会社デンソーウェーブ | Three-dimensional measuring device |
KR20210129771A (en) * | 2020-04-20 | 2021-10-29 | 한국표준과학연구원 | System and Method for 3D measurement of freeform surfaces based on deflectometry |
KR102366954B1 (en) * | 2020-04-20 | 2022-02-28 | 한국표준과학연구원 | System and Method for 3D measurement of freeform surfaces based on deflectometry |
Also Published As
Publication number | Publication date |
---|---|
JP5016520B2 (en) | 2012-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5016520B2 (en) | Three-dimensional shape measuring method and apparatus | |
JP5055191B2 (en) | Three-dimensional shape measuring method and apparatus | |
JP5576726B2 (en) | Three-dimensional measuring apparatus, three-dimensional measuring method, and program | |
JP5123522B2 (en) | 3D measurement method and 3D shape measurement apparatus using the same | |
JP5252820B2 (en) | 3D measurement method and 3D shape measurement apparatus using the same | |
JP4830871B2 (en) | 3D shape measuring apparatus and 3D shape measuring method | |
WO2018163530A1 (en) | Three-dimensional shape measurement device, three-dimensional shape measurement method, and program | |
KR101445831B1 (en) | 3D measurement apparatus and method | |
JP2009019941A (en) | Shape measuring method | |
US8659765B2 (en) | Three-dimensional shape determining apparatus and three-dimensional shape determining method | |
JP2024029135A (en) | Three-dimensional sensor with opposing channels | |
JP5391053B2 (en) | 3D shape measuring method and 3D shape measuring apparatus | |
JP4797109B2 (en) | Three-dimensional shape measuring apparatus and three-dimensional shape measuring method | |
JP2012514192A (en) | 3D measurement method of object surface especially for dentistry | |
CN107810384B (en) | Stripe projection method, stripe projection apparatus, and computer program product | |
US7609389B2 (en) | Measurement apparatus for measuring surface map | |
JP2012068176A (en) | Three-dimensional shape measuring apparatus | |
JP6567199B2 (en) | Distance measuring device, distance measuring method, and distance measuring program | |
EP3070432B1 (en) | Measurement apparatus | |
JP2008170282A (en) | Shape measuring device | |
Abzal et al. | Development of a new dual‐pattern fringe projection scanner | |
JP2016008837A (en) | Shape measuring method, shape measuring device, structure manufacturing system, structure manufacturing method, and shape measuring program | |
US20140104418A1 (en) | Image capturing apparatus, control method of image capturing apparatus, three-dimensional measurement apparatus, and storage medium | |
JP2016008838A (en) | Shape measuring device, structure manufacturing system, shape measuring method, and structure manufacturing method | |
JP2014194436A (en) | Three-dimensional measurement device, three-dimensional measurement method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100824 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20120111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120529 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120608 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150615 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5016520 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |