JP2009204343A - Three-dimensional shape measurement method and device - Google Patents

Three-dimensional shape measurement method and device Download PDF

Info

Publication number
JP2009204343A
JP2009204343A JP2008044827A JP2008044827A JP2009204343A JP 2009204343 A JP2009204343 A JP 2009204343A JP 2008044827 A JP2008044827 A JP 2008044827A JP 2008044827 A JP2008044827 A JP 2008044827A JP 2009204343 A JP2009204343 A JP 2009204343A
Authority
JP
Japan
Prior art keywords
measurement
pixel
data
dimensional
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008044827A
Other languages
Japanese (ja)
Other versions
JP5016520B2 (en
Inventor
Kenichiro Nosaka
健一郎 野坂
Tomoharu Nakahara
智治 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2008044827A priority Critical patent/JP5016520B2/en
Publication of JP2009204343A publication Critical patent/JP2009204343A/en
Application granted granted Critical
Publication of JP5016520B2 publication Critical patent/JP5016520B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional shape measurement method and device using a phase shift process, capable of improving the measurement accuracy, using a simple constitution, even in measured bodies having mixed areas with different reflectances due to characters, patterns, or the like, on their surfaces. <P>SOLUTION: The device 1 includes: two stripe pattern projection sections 2 for projecting a stripe pattern on a measurement area 10 of the measured body from directions different each other; an imaging section 3; and a three-dimensional measurement processing section 4 for compute, for obtaining the three-dimensional shape of the measurement area 10, based on the data output from the imaging section 3, in order to measure the three-dimensional shape by two or more times in the phase shift process and to select and decide the best measurement result from the measurement results; the measurement result determining section 4a of the three-dimensional measurement processing section 4 determines the angle for a target pixel, between the gradient direction of the luminance of the pixel and the changing direction of the stripe pattern for the two stripe pattern projection sections 2 and determines a measurement result of the pixel, by selecting three-dimensional coordinates from the data of the projection sections 2 and to give an angle which is closer to 90°, after a mutual comparison. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、被計測物体の3次元形状計測方法および装置に関する。   The present invention relates to a method and apparatus for measuring a three-dimensional shape of an object to be measured.

従来から、非接触かつ自動処理により被計測物体の3次元形状を計測する方法として、いわゆる位相シフト法が知られている。位相シフト法は、互いに位相をずらした正弦波縞パターン光による照明状態のもとで撮像した複数の縞パターン画像つまり複数の輝度分布データを用いて、画像全体について定まる1つの位相状態について画素点毎の位相を求め、その位相の分布データを3次元座標決定の基礎データとする。3次元形状計測結果は、位相分布データと撮像の幾何学条件等から得られ、各画素に被計測物体表面の3次元座標を割り当てた距離画像として得られる。   Conventionally, a so-called phase shift method is known as a method for measuring the three-dimensional shape of an object to be measured by non-contact and automatic processing. The phase shift method uses a plurality of fringe pattern images captured under illumination conditions with sinusoidal fringe pattern lights whose phases are shifted from each other, that is, a plurality of luminance distribution data, and pixel points for one phase state determined for the entire image. Each phase is obtained, and the distribution data of the phase is used as basic data for determining the three-dimensional coordinates. The three-dimensional shape measurement result is obtained from the phase distribution data and the geometric conditions of imaging, and is obtained as a distance image in which the three-dimensional coordinates of the surface of the measurement object are assigned to each pixel.

位相シフト法を用いて3次元形状計測を行う場合に、被計測物体表面に反射率の異なる部分、例えば、文字や柄があると、これらの文字や柄と背景部分の境界において計測誤差が発生する。その原因は、境界部分における注目画素の輝度がその周辺画素の輝度に影響されてぼけて真の輝度から変化することによる。このぼけは、撮像の際の焦点ぼけやレンズの変調伝達関数特性に基づくぼけによる。縞パターン画像がぼけると基礎データとする位相の分布データが誤差を含み、計測誤差が発生する。   When performing three-dimensional shape measurement using the phase shift method, if there are parts with different reflectivities on the surface of the object being measured, such as characters or patterns, measurement errors occur at the boundaries between these characters or patterns and the background part. To do. This is because the luminance of the pixel of interest in the boundary portion is affected by the luminance of the surrounding pixels and is blurred and changes from the true luminance. This blur is caused by a focus blur at the time of imaging or a blur based on a modulation transfer function characteristic of the lens. When the fringe pattern image is blurred, the phase distribution data as the basic data includes an error, and a measurement error occurs.

上述の誤差の発生をシミュレーションにより図16乃至図21を参照して説明する。図16、図17に示すように一様照明のもとで明部(領域x2)と暗部(領域x1,x3)とが2値の輝度値L1,L2となるコントラストのある対象領域に対して、強制的にぼけを発生させて比較する。図18(a)〜(d)は、明度がx方向に正弦波状に変化する照明のもとで、それぞれ位相変化分δφを0(初期位相状態)から、π/2,π,3π/2とした場合の、x0方向に沿った輝度変化の計算値を示す。これはぼけのないデータである。図19(a)〜(d)は、図18(a)〜(d)の輝度変化に標準偏差σのガウス移動平均処理を行って、計算により強制的に輝度変化をぼかして得たデータである。図20は、図18(a)〜(d)から算出した位相分布と、図19(a)〜(d)から算出した位相分布とを重ねて示している。図21は、図20において位相差ΔPが生じている部分Dを拡大して示している。   The generation of the error will be described with reference to FIGS. 16 to 21 by simulation. As shown in FIGS. 16 and 17, for a target region having a contrast in which a bright portion (region x2) and a dark portion (regions x1 and x3) have binary luminance values L1 and L2 under uniform illumination. Forcibly generate blur and compare. 18 (a) to 18 (d) show that the phase change δφ is changed from 0 (initial phase state) to π / 2, π, and 3π / 2 under the illumination whose brightness changes in a sine wave shape in the x direction. The calculated value of the luminance change along the x0 direction is shown. This is unblurred data. 19A to 19D are data obtained by performing a Gaussian moving average process with a standard deviation σ on the luminance changes of FIGS. 18A to 18D and forcibly blurring the luminance changes by calculation. is there. FIG. 20 shows the phase distribution calculated from FIGS. 18A to 18D and the phase distribution calculated from FIGS. 19A to 19D in an overlapping manner. FIG. 21 is an enlarged view of a portion D where the phase difference ΔP occurs in FIG.

図20に示すように、明暗の境界xbの位置で、破線で示したぼかし有りの位相値は、実線で示したぼかしのない正しい位相値から変化して、位相差ΔPの誤差を有している。位相差ΔPの大きさは、明暗の境界線に垂直な方向、すなわち、輝度(明度)の勾配方向と縞パターンの変化方向(図17乃至図21ではx方向)とがなす角度(γとする)によって変化する。シミュレーションによると、角度γが0゜のときが誤差がもっとも大きく、90゜のときに誤差は最小になり、誤差の大きさはこの間で角度γの大きさと共に単調減少する。   As shown in FIG. 20, the phase value with blurring indicated by the broken line at the position of the light / dark boundary xb changes from the correct phase value without blurring indicated by the solid line, and has an error of phase difference ΔP. Yes. The magnitude of the phase difference ΔP is defined as an angle (γ) formed by a direction perpendicular to the boundary between light and dark, that is, a gradient direction of luminance (brightness) and a change direction of the fringe pattern (x direction in FIGS. 17 to 21). ). According to the simulation, the error is the largest when the angle γ is 0 °, and the error is minimized when the angle γ is 90 °, and the magnitude of the error decreases monotonously with the magnitude of the angle γ.

上述のような特性を有する位相シフト法は、被計測物体上に反射率の異なる部分があると、その部分の明暗状態が表面形状を反映しないものとなって計測誤差を発生するので、被計測物体は白く塗装して計測される。従って、位相シフト法による3次元形状計測は、例えば、3次元CADに基づいて製作された製品が正しい形状にできているかを検証するために、白塗装された試作段階の物体について行われるが、実際の生産工程におけるインライン計測には殆ど使われていない。   In the phase shift method having the above-described characteristics, if there is a part with different reflectance on the object to be measured, the brightness state of that part does not reflect the surface shape and a measurement error occurs. The object is painted white and measured. Therefore, the three-dimensional shape measurement by the phase shift method is performed on a white-painted prototype stage object, for example, in order to verify whether a product manufactured based on the three-dimensional CAD has a correct shape. It is rarely used for in-line measurement in the actual production process.

ところで、位相シフト法において、カメラの視野方向と投影装置による投影方向とが異なることに加え被計測物体が3次元形状であることにより発生する自己隠蔽(いわゆるオクルージョン)や、影、乱反射、などの影響を解消するため、異なる複数の方向から縞パターン光を投影したり、被計測物体を回転させたりして、計測精度を上げることが提案されている(例えば、特許文献1参照)。
特開平7−19825号公報
By the way, in the phase shift method, in addition to the difference between the viewing direction of the camera and the projection direction by the projection device, self-concealment (so-called occlusion), shadow, irregular reflection, etc. In order to eliminate the influence, it has been proposed to increase the measurement accuracy by projecting the stripe pattern light from a plurality of different directions or rotating the object to be measured (see, for example, Patent Document 1).
JP-A-7-19825

しかしながら、上述したように、従来の位相シフト法は実際の生産工程におけるインライン計測には殆ど使われていない。また、上述した特許文献1に示されるような位相シフト法による計測方法は、被計測物体表面の反射率の違いにより発生する計測誤差を解決することができない。   However, as described above, the conventional phase shift method is hardly used for in-line measurement in an actual production process. In addition, the measurement method based on the phase shift method as described in Patent Document 1 described above cannot solve the measurement error caused by the difference in the reflectance of the surface of the object to be measured.

本発明は、上記課題を解消するものであって、簡単な構成により、表面に文字や柄などによる反射率の異なる領域が混在する被計測物体についても計測精度を向上できる位相シフト法による3次元形状計測方法および装置を提供することを目的とする。   The present invention solves the above-described problem, and has a simple configuration and a three-dimensional phase shift method that can improve the measurement accuracy even for an object to be measured in which areas having different reflectances such as characters and patterns are mixed on the surface. An object is to provide a shape measuring method and apparatus.

上記課題を達成するために、請求項1の発明は、明度が正弦波状に変化する縞パターンを異なる位相で3回以上被計測物体に投影して一定位置から複数の画像を撮像し、これらの画像を用いて画像中の各画素毎に被計測物体の3次元座標を求める位相シフト法による3次元形状計測方法において、被計測物体の計測領域上方に撮像部を設置し、前記撮像部の光軸と1つの投影用光軸とで構成される平面を複数設定し、前記平面の1つについて該平面に対して所定の角度を有しかつ前記撮像部の光軸に直交する直線の方向としたパターン変化方向に沿って明度が変化する縞パターンを該平面を構成する投影用光軸方向から前記計測領域に投影すると共に前記撮像部によって撮像して位相シフト法により該計測領域の3次元座標を取得するステップを、前記各平面について独立に行うことにより複数種類の3次元座標データを取得する座標計測ステップと、前記計測領域を均一な照明光のもとで撮像した画像を微分処理し該画像中の画素毎に輝度の勾配方向を求めるステップを、前記各平面について独立に、前記投影用光軸方向からの照明と前記撮像部による撮像とによって行うことにより複数種類の勾配方向データを取得する勾配取得ステップと、前記各平面毎の3次元座標データと勾配方向データとから成る複数の組における互いに他の組の画像中の画素に対応する各画素について、それぞれ前記輝度の勾配方向と前記パターン変化方向とのなす角度または該角度に相当する傾き成分を求め、各組における当該画素に対する3次元座標をこれらの角度または傾き成分に基づいて合成して当該画素における3次元座標の計測結果とする画素データ決定ステップと、を含むものである。   In order to achieve the above object, the invention of claim 1 projects a plurality of images from a fixed position by projecting a fringe pattern whose brightness changes in a sinusoidal shape onto a measured object three or more times with different phases. In a three-dimensional shape measurement method based on a phase shift method for obtaining a three-dimensional coordinate of an object to be measured for each pixel in the image using an image, an imaging unit is installed above the measurement region of the object to be measured, and light from the imaging unit A plurality of planes configured by an axis and one projection optical axis, and a direction of a straight line having a predetermined angle with respect to the plane and orthogonal to the optical axis of the imaging unit. The fringe pattern whose brightness changes along the pattern change direction is projected onto the measurement area from the direction of the projection optical axis constituting the plane, and is imaged by the imaging unit, and the three-dimensional coordinates of the measurement area are obtained by the phase shift method. Step to get A coordinate measurement step for acquiring a plurality of types of three-dimensional coordinate data by performing each of the planes independently, and a differential processing of an image obtained by imaging the measurement area under uniform illumination light. Gradient acquisition step of acquiring a plurality of types of gradient direction data by performing the step of obtaining the gradient direction of the brightness for each plane independently by illumination from the projection optical axis direction and imaging by the imaging unit. And the luminance gradient direction and the pattern change direction for each of the pixels corresponding to the pixels in the other set of images in the plurality of sets of three-dimensional coordinate data and gradient direction data for each plane. The angle formed by or the inclination component corresponding to the angle is obtained, and the three-dimensional coordinates for the pixel in each set are synthesized based on the angle or inclination component. A pixel data determining step of a measurement result of the three-dimensional coordinates in the pixel Te is intended to include.

請求項2の発明は、請求項1に記載の3次元形状計測方法において、前記画素データ決定ステップは、前記3次元座標を合成する際に、前記複数の組における輝度の勾配方向と前記パターン変化方向とのなす角度を互いに比較して90゜により近い角度を与える組から3次元座標を選択して当該画素における計測結果とするものである。   According to a second aspect of the present invention, in the three-dimensional shape measurement method according to the first aspect, when the pixel data determining step synthesizes the three-dimensional coordinates, the luminance gradient direction and the pattern change in the plurality of sets are combined. A three-dimensional coordinate is selected from a set that gives an angle closer to 90 ° by comparing the angle formed with the direction with each other to obtain a measurement result at the pixel.

請求項3の発明は、請求項1に記載の3次元形状計測方法において、前記画素データ決定ステップは、前記勾配取得ステップにおける微分処理による微分値の大きさが前記複数の組における互いに対応する画素のいずれについても予め定めた閾値より小さくなる場合には、前記各組における当該画素に対する3次元座標を互いに均等に合成して当該画素における3次元座標の計測結果とするものである。   According to a third aspect of the present invention, in the three-dimensional shape measurement method according to the first aspect, in the pixel data determination step, pixels whose differential values obtained by the differential processing in the gradient acquisition step correspond to each other in the plurality of sets. If any of these is smaller than a predetermined threshold value, the three-dimensional coordinates for the pixel in each set are evenly combined with each other to obtain a measurement result of the three-dimensional coordinates for the pixel.

請求項4の発明は、請求項1乃至請求項3のいずれか一項に記載の3次元形状計測方法を用いる3次元形状計測装置である。   A fourth aspect of the present invention is a three-dimensional shape measurement apparatus using the three-dimensional shape measurement method according to any one of the first to third aspects.

請求項1の発明によれば、輝度の勾配方向とパターン変化方向のなす角度または該角度に相当する傾き成分を求め、各組における注目画素に対する3次元座標をこれらの角度または傾き成分に基づいて合成して当該画素における3次元座標の計測結果とするので、被計測物体上に文字や柄等による反射率が異なる領域が存在する場合であっても反射率の変化部分(画像中の輝度変化部分)で発生する計測誤差を低減できると共に、ランダムノイズによる計測誤差を低減することができ、精度の高い計測ができる。3次元座標(座標値)の合成は、複数のパターン変化方向のもとでの計測結果を、各計測における輝度の勾配方向とパターン変化方向のなす角度または該角度に相当する傾き成分の大きさに応じた重みを付けて合成することにより行えばよい。   According to the first aspect of the present invention, the angle formed by the gradient direction of the brightness and the pattern change direction or an inclination component corresponding to the angle is obtained, and the three-dimensional coordinates for the target pixel in each set are obtained based on the angle or the inclination component. As a result of combining and measuring the three-dimensional coordinates at the pixel, even if there is a region with different reflectivity due to characters, patterns, etc. on the object to be measured, the reflectance change portion (luminance change in the image) The measurement error generated in (Part) can be reduced, the measurement error due to random noise can be reduced, and highly accurate measurement can be performed. In the synthesis of three-dimensional coordinates (coordinate values), a measurement result under a plurality of pattern change directions is obtained by calculating the angle between the luminance gradient direction and the pattern change direction in each measurement or the magnitude of the inclination component corresponding to the angle. It may be performed by adding weights according to the above.

請求項2の発明によれば、輝度の勾配方向とパターン変化方向とのなす角度を比較して最適と考えられる3次元座標の計測結果を選択するので、選択するだけの簡単な操作によって、簡単な構成による精度の高い計測ができる。これは、合成における重み付けを”1”と”0”とした場合に相当する。   According to the invention of claim 2, since the measurement result of the three-dimensional coordinates considered to be optimum is selected by comparing the angle formed between the luminance gradient direction and the pattern change direction, it is easy to perform by a simple operation that only requires selection. High-precision measurement with a simple configuration. This corresponds to a case where weighting in synthesis is “1” and “0”.

請求項3の発明によれば、微分処理による微分値の大きさ、すなわち輝度勾配の大きさが予め定めた閾値より小さい場合には、複数の計測結果の平均値を3次元座標の計測結果とするので、ランダムノイズによる計測誤差を低減することができ、精度の高い計測ができる。これは、輝度変化が小さい場合には、輝度変化による縞パターン画像のぼけの発生が少なく、このようなぼけによる計測誤差が小さいので、ランダムノイズに注目して誤差低減を図ることができることによる。   According to the invention of claim 3, when the magnitude of the differential value obtained by the differentiation process, that is, the magnitude of the luminance gradient is smaller than a predetermined threshold value, the average value of the plurality of measurement results is calculated as the measurement result of the three-dimensional coordinates. Therefore, measurement errors due to random noise can be reduced, and highly accurate measurement can be performed. This is because, when the luminance change is small, the stripe pattern image is less likely to be blurred due to the luminance change, and the measurement error due to such blur is small. Therefore, the error can be reduced by paying attention to random noise.

請求項4の発明によれば、表面に文字や柄などによる反射率の異なる領域が混在する被計測物体についても計測精度を向上できる位相シフト法による3次元形状計測装置を提供することができる。   According to the fourth aspect of the present invention, it is possible to provide a three-dimensional shape measuring apparatus based on the phase shift method capable of improving the measurement accuracy even for an object to be measured in which areas having different reflectances such as characters and patterns are mixed on the surface.

以下、本発明の実施形態に係る3次元形状計測装置および方法について、図面を参照して説明する。   Hereinafter, a three-dimensional shape measuring apparatus and method according to embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は第1の実施形態に係る3次元形状計測装置の模式的構成を示し、図2は同装置の投影部と撮像部の配置を示し、図3は同装置の投影部、撮像部、および縞パターンの位置関係を示す(図3は、図2の矢印30a方向から見た図)。
(First embodiment)
FIG. 1 shows a schematic configuration of the three-dimensional shape measuring apparatus according to the first embodiment, FIG. 2 shows the arrangement of the projection unit and the imaging unit of the apparatus, and FIG. 3 shows the projection unit, imaging unit, FIG. 3 shows the positional relationship between the stripe patterns (FIG. 3 is a view seen from the direction of arrow 30a in FIG. 2).

3次元形状計測装置1は、文字や柄などによる反射率の異なる領域が表面に混在する被計測物体についても、位相シフト法を用いて非接触で精度良くその3次元形状を計測可能とする装置であって、画像中の画素毎に被計測物体の3次元座標を求めることができる。この3次元形状計測装置1は、基本的に、通常の位相シフト法による3次元形状計測を複数回行い、その計測結果から最良の計測結果を決定することにより、最終的に高精度の3次元形状計測を可能にする。   The three-dimensional shape measuring apparatus 1 is an apparatus that can accurately measure a three-dimensional shape in a non-contact manner using a phase shift method even for an object to be measured in which regions having different reflectances due to characters, patterns, etc. are mixed on the surface. Thus, the three-dimensional coordinates of the measured object can be obtained for each pixel in the image. The three-dimensional shape measuring apparatus 1 basically performs a three-dimensional shape measurement by a normal phase shift method a plurality of times, and determines the best measurement result from the measurement result, so that a high-precision three-dimensional shape is finally obtained. Enables shape measurement.

このため、3次元形状計測装置1は、互いに異なる方向から被計測物体の計測領域10に縞パターンを投影する2つの縞パターン投影部2と、計測領域10の上方に設置されて計測領域10を撮像する撮像部3と、縞パターン投影部2および撮像部3とを制御すると共に縞パターン投影部2および撮像部3から出力されるデータを基に計測領域10の3次元形状を求める計算を行う3次元計測処理部4とを備えている。計測領域10は、任意の3次元凹凸表面を有する被計測物体の表面領域である。   For this reason, the three-dimensional shape measuring apparatus 1 is installed above the measurement area 10 with the two fringe pattern projection units 2 that project the stripe pattern onto the measurement area 10 of the measurement object from different directions. The imaging unit 3 for imaging, the fringe pattern projection unit 2 and the imaging unit 3 are controlled, and calculation for obtaining the three-dimensional shape of the measurement region 10 is performed based on data output from the stripe pattern projection unit 2 and the imaging unit 3. And a three-dimensional measurement processing unit 4. The measurement region 10 is a surface region of an object to be measured having an arbitrary three-dimensional uneven surface.

縞パターン投影部2は、照明部21、縞パターン生成部22、および投影光学部23を備えている。照明部21は、光源と光源からの光を平行光に変換するコンデンサーレンズとを用いて構成される。縞パターン生成部22は、光の透過率が一方向に沿って正弦波状に変化する、平面上において平行縞となる縞パターンを生成する部分であり、透過型液晶板と偏光板とを用いて構成される。投影光学部23は、縞パターン生成部22で作られた縞パターンを計測対象物に投影するためのレンズで構成される。   The fringe pattern projection unit 2 includes an illumination unit 21, a fringe pattern generation unit 22, and a projection optical unit 23. The illumination unit 21 is configured using a light source and a condenser lens that converts light from the light source into parallel light. The fringe pattern generation unit 22 is a part that generates a fringe pattern that becomes a parallel stripe on a plane, in which the light transmittance changes in a sinusoidal shape along one direction, and uses a transmissive liquid crystal plate and a polarizing plate. Composed. The projection optical unit 23 includes a lens for projecting the fringe pattern created by the fringe pattern generation unit 22 onto the measurement target.

縞パターン投影部2は、複数設けられ、本実施形態では、A,Bの2系統を用いる例を示す。縞パターン投影部2は、実際に複数の機器を準備する必要はなく、1系統の縞パターン投影部2の配置を変えることにより2系統の動作を実現してもよい。これは、複数系統からの照明のもとで同時に撮像することはないからである。しかしながら、撮像の段取り変えに要する時間などを考えると、複数系統を固定して移動せずに用いる方が好ましい。この2系統の縞パターン投影部2と撮像部3との配置関係については、後述する。   A plurality of fringe pattern projection units 2 are provided, and in this embodiment, an example using two systems A and B is shown. The fringe pattern projection unit 2 does not need to actually prepare a plurality of devices, and the two-line operation may be realized by changing the arrangement of the one-line fringe pattern projection unit 2. This is because images are not captured simultaneously under illumination from a plurality of systems. However, in consideration of the time required for changing the imaging setup, it is preferable to use a plurality of systems without moving them. The arrangement relationship between the two stripe pattern projection units 2 and the imaging unit 3 will be described later.

上述の縞パターン生成部22を構成する透過型液晶板と偏光板とは、反射型液晶板と偏光板との組合せ、縞パターンを焼き付けたフィルムと所定の位相をずらすためのそのフィルムを移動させるアクチュエータとの組合せ、またはデジタルミラーデバイス(DMD)などによって、同等の機能を実現するようにしてもよい。   The transmission type liquid crystal plate and the polarizing plate constituting the above-described stripe pattern generation unit 22 are a combination of a reflection type liquid crystal plate and a polarizing plate, and a film on which the stripe pattern is baked and a film for shifting a predetermined phase are moved. An equivalent function may be realized by a combination with an actuator or a digital mirror device (DMD).

撮像部3は、計測領域10からの光を光電変換して画像データを生成するための撮像素子31と、計測領域10の像を撮像素子31上に形成するための光学レンズから成る撮像光学部32とを備えている。   The imaging unit 3 is an imaging optical unit that includes an imaging element 31 for photoelectrically converting light from the measurement region 10 to generate image data, and an optical lens for forming an image of the measurement region 10 on the imaging element 31. 32.

3次元計測処理部4は、縞パターンデータ作成部41と、中央制御部42と、メモリ43と、演算部44と、計測結果や撮像画像等を表示する表示部45と、本装置の操作に必要な入出力部(不図示)と、を備えている。また、演算部44は、最終的な計測結果を決定するための計測結果決定部4aを備えている。このような3次元計測処理部4は、CPU、外部記憶装置、表示装置、入力装置などを備えた一般的な構成を備えたコンピュータ、およびコンピュータ上のプロセスや機能の集合を用いて構成することができる。   The three-dimensional measurement processing unit 4 includes a fringe pattern data creation unit 41, a central control unit 42, a memory 43, a calculation unit 44, a display unit 45 that displays measurement results and captured images, and the like. And necessary input / output units (not shown). Moreover, the calculating part 44 is provided with the measurement result determination part 4a for determining a final measurement result. Such a three-dimensional measurement processing unit 4 is configured using a computer having a general configuration including a CPU, an external storage device, a display device, an input device, and the like, and a set of processes and functions on the computer. Can do.

表示部45は、通常のコンピュータ周辺機器として用いられる液晶ディスプレイやCRT等で構成することができる。入出力部は、簡単なスイッチ群で構成したり、通常のコンピュータ周辺機器におけるマウスやキーボード等を用いて構成される。   The display unit 45 can be configured by a liquid crystal display, a CRT, or the like used as a normal computer peripheral device. The input / output unit is configured by a simple switch group or by using a mouse, a keyboard, or the like in a normal computer peripheral device.

縞パターンデータ作成部41は、縞パターン投影部2の縞パターン生成部22において生成される縞パターンのもとになるデータを生成する。   The fringe pattern data creation unit 41 generates data that is the basis of the fringe pattern generated in the fringe pattern generation unit 22 of the fringe pattern projection unit 2.

中央制御部42は、縞パターン投影部2に送る縞パターンのもとデータの送信制御、縞パターン投影部2の投影制御、撮像部3の撮像制御などを行って、計測領域10に投影する縞パターンの位相を一定の位相間隔でシフトさせると共に、各位相のもとで照明した計測領域10の撮像部3による撮像を制御する。中央制御部42は、このほか、表示部45や入出力部その他の各部の制御を行う。   The central control unit 42 performs fringe pattern data to be transmitted to the fringe pattern projection unit 2, performs transmission control of data, projection control of the fringe pattern projection unit 2, imaging control of the imaging unit 3, and the like, and is projected onto the measurement region 10. The phase of the pattern is shifted at a constant phase interval, and imaging by the imaging unit 3 in the measurement region 10 illuminated under each phase is controlled. In addition, the central control unit 42 controls the display unit 45, the input / output unit, and other units.

メモリ43は、3次元形状計測に必要なデータを記録するところであり、撮像部3と縞パターン投影部2の空間配置に関するデータ、撮像部3の分解能、縞パターンのピッチ、位相シフト量、撮像部3によって撮像された画像データ等のデータが記録される。   The memory 43 is used to record data necessary for three-dimensional shape measurement. Data relating to the spatial arrangement of the imaging unit 3 and the stripe pattern projection unit 2, the resolution of the imaging unit 3, the pitch of the stripe pattern, the phase shift amount, the imaging unit Data such as image data captured by 3 is recorded.

演算部44は、メモリ43に記録されたデータを用いて、位相シフト法における撮像画像の各画素での位相値を求め、求まった位相値に基づいて各画素点毎に計測領域10の3次元形状座標を算出する。   The calculation unit 44 obtains the phase value at each pixel of the captured image in the phase shift method using the data recorded in the memory 43, and based on the obtained phase value, the three-dimensional measurement region 10 is obtained for each pixel point. Calculate the shape coordinates.

(縞パターン投影部2と撮像部3の空間配置)
本実施形態では、A,Bの2系統の縞パターン投影部2を用いており、これらを互いに直交する2平面(図2におけるA面、B面)内にそれぞれ配置する。従って、各縞パターン投影部2の投影用光軸20はA面、またはB面に含まれる。また、撮像部3は、その光軸30を前記直交するA面とB面の交線に一致させて計測領域10の上方に配置する。
(Spatial arrangement of the fringe pattern projection unit 2 and the imaging unit 3)
In the present embodiment, two stripe pattern projection units 2 of A and B are used, and these are arranged in two planes (A plane and B plane in FIG. 2) orthogonal to each other. Accordingly, the projection optical axis 20 of each fringe pattern projection unit 2 is included in the A plane or the B plane. Further, the imaging unit 3 is arranged above the measurement region 10 with its optical axis 30 coinciding with the intersecting line of the A plane and the B plane orthogonal to each other.

ここで、直交座標系を構成する空間の座標軸X,Y,Z、および画像面における座標軸x,yを定義する。Z軸は撮像部3の光軸30とし、X軸、Y軸はそれぞれA面、B面にあるとする。座標軸x,yは、座標軸X,Yに一致させて、または対応させて定義することができる。   Here, the coordinate axes X, Y, Z of the space constituting the orthogonal coordinate system and the coordinate axes x, y in the image plane are defined. The Z axis is the optical axis 30 of the imaging unit 3, and the X axis and the Y axis are on the A plane and the B plane, respectively. The coordinate axes x and y can be defined to match or correspond to the coordinate axes X and Y.

(縞パターンSPの配置)
本実施形態の位相シフト法で用いられる縞パターンSPは、明度が一定方向(以下、パターン変化方向5)に沿って正弦波状に変化するパターンである。本実施形態においては、パターン変化方向5を、X,x軸方向と、Y,y軸方向とに設定している。なお、パターン変化方向5は、必ずしも投影用光軸20が含まれているA面やB面に含まれる必要はなく、これらの面に対してゼロではない任意の角度を持たせることができる。さらに一般にA面、B面も必ずしも互いに直角である必要はない。
(Arrangement of stripe pattern SP)
The fringe pattern SP used in the phase shift method of the present embodiment is a pattern in which the brightness changes in a sine wave shape along a certain direction (hereinafter, pattern change direction 5). In the present embodiment, the pattern change direction 5 is set to the X and x axis directions and the Y and y axis directions. The pattern change direction 5 does not necessarily need to be included in the A and B surfaces including the projection optical axis 20, and can have any non-zero angle with respect to these surfaces. Further, in general, the A surface and the B surface are not necessarily perpendicular to each other.

(動作説明)
次に、図4、図5を参照して3次元形状計測装置1の動作を説明する。3次元形状計測装置1は、前述したように、基本的に、通常の位相シフト法による3次元形状計測を複数回行い、その計測結果から最良の計測結果を決定することにより、最終的に高精度の3次元形状計測を可能にするものである。そこで、本実施形態では、まず、上述のA,Bの2系統の縞パターン投影部2を用いて、通常の3次元形状計測が行われる。その後、演算部44の計測結果決定部4aにおいて、最良の計測結果が画素毎に決定される。
(Description of operation)
Next, the operation of the three-dimensional shape measuring apparatus 1 will be described with reference to FIGS. As described above, the three-dimensional shape measuring apparatus 1 basically performs three-dimensional shape measurement by a normal phase shift method a plurality of times, and determines the best measurement result from the measurement result, thereby finally increasing the high-order shape measurement apparatus 1. This enables accurate three-dimensional shape measurement. Therefore, in this embodiment, first, normal three-dimensional shape measurement is performed using the above-described two-line stripe pattern projection unit 2 of A and B. Thereafter, the measurement result determination unit 4a of the calculation unit 44 determines the best measurement result for each pixel.

図4に示す画像Gは、一様な明るさの光で照明した計測領域10を撮像したものである。画像Gには、明るい背景画像の中に暗い画像部分が写っている。図5には、その明暗領域の境界における画素gの周辺画像が拡大されて示されている。座標軸x,yは、画像Gにおける画素gの位置を決定する。また、それぞれの縞パターンSPのパターン変化方向5がx軸方向とy軸方向に設定されている。   An image G shown in FIG. 4 is an image of the measurement region 10 illuminated with light of uniform brightness. In the image G, a dark image portion is reflected in a bright background image. FIG. 5 shows an enlarged peripheral image of the pixel g at the boundary between the light and dark regions. The coordinate axes x and y determine the position of the pixel g in the image G. Further, the pattern change direction 5 of each stripe pattern SP is set in the x-axis direction and the y-axis direction.

図5において、輝度の勾配方向hが示されている。輝度の勾配方向hは、画像Gの各画素における輝度値をx軸方向とy軸方向とに沿ってそれぞれ微分して得られた各微分強度を成分とするベクトル方向として、各画素g毎に算出される。なお、一様輝度の画像部分では、勾配方向は定義されない。この場合、従来技術における課題として述べたぼけによる計測誤差の発生もない。   In FIG. 5, the gradient direction h of luminance is shown. The luminance gradient direction h is a vector direction having each differential intensity obtained by differentiating the luminance value of each pixel of the image G along the x-axis direction and the y-axis direction as a component for each pixel g. Calculated. Note that the gradient direction is not defined for an image portion with uniform luminance. In this case, there is no measurement error due to blur described as a problem in the prior art.

本発明の3次元形状計測装置1は、図21を参照して説明したように、被計測物体表面の反射率の違い、特に、明暗の境界xbの位置で発生する画像のぼけによる計測誤差を解決するものである。そして、このぼけによる計測誤差の大きさは、明暗の境界線に垂直な方向、すなわち、輝度(明度)の勾配方向と縞パターンの変化方向とがなす角度(γとする)によって変化し、角度γが0゜のときが誤差がもっとも大きく、90゜のときに誤差は最小になり、0゜<γ<90゜では誤差の大きさは角度γの大きさと共に単調減少する、ということが分かっている。   As described with reference to FIG. 21, the three-dimensional shape measurement apparatus 1 of the present invention can reduce the measurement error due to the difference in reflectance on the surface of the object to be measured, in particular, the image blur that occurs at the position of the light / dark boundary xb. It is a solution. The magnitude of the measurement error due to the blur varies depending on the direction perpendicular to the light / dark boundary line, that is, the angle (gamma) between the gradient direction of brightness (brightness) and the change direction of the fringe pattern. It can be seen that the error is the largest when γ is 0 °, the error is minimum when 90 °, and the error decreases monotonously with the angle γ when 0 ° <γ <90 °. ing.

上述のぼけによる計測誤差を解消するために、計測結果決定部4aは、以下に示すように、最良の計測結果を選択して最終の計測結果を決定する。   In order to eliminate the measurement error due to the blur described above, the measurement result determination unit 4a selects the best measurement result and determines the final measurement result as shown below.

各縞パターンSPにおけるパターン変化方向5の単位ベクトルua,ub、および上記輝度の勾配方向hの単位ベクトルu0を定義する。なお、本実施形態の場合、単位ベクトルua,ubの方向は、それぞれx軸、y軸の方向に一致させているが、このような一致は、3次元形状計測装置1における計測にとって本質的なものではない。   The unit vectors ua and ub in the pattern change direction 5 in each stripe pattern SP and the unit vector u0 in the luminance gradient direction h are defined. In the present embodiment, the directions of the unit vectors ua and ub are made to coincide with the directions of the x-axis and the y-axis, respectively, but such coincidence is essential for measurement in the three-dimensional shape measuring apparatus 1. It is not a thing.

単位ベクトルuaと単位ベクトルu0のなす角度をα、単位ベクトルubと単位ベクトルu0のなす角度をβとすると、ベクトルの内積の絶対値について以下の関係がある。
|u0・ua|=|cosα|、
|u0・ub|=|cosβ|。
When the angle formed by the unit vector ua and the unit vector u0 is α, and the angle formed by the unit vector ub and the unit vector u0 is β, the absolute value of the inner product of the vectors has the following relationship.
| U0 · ua | = | cosα |,
| U0 · ub | = | cosβ |.

角度θ(ただし、0゜<θ<180゜とする)について、|cosθ|がゼロに近いほど、θは90゜に近い。そこで、計測結果決定部4aは、上述の|cosα|と|cosβ|とを比較して、よりゼロに近い方を見つけて、そのような結果を与える縞パターン投影部2による計測結果を、注目画素gにおける3次元形状計測結果とする。図4、図5における画素gの場合、x軸方向(単位ベクトルua方向)に縞パターンの変化方向5が向いている縞パターンSPによる計測結果(A系統の縞パターン投影部2による計測結果)が、最良の計測結果として決定される。計測結果決定部4aは、このような計測結果の決定を全ての画素gについて行う。   For an angle θ (where 0 ° <θ <180 °), θ is closer to 90 ° as | cos θ | is closer to zero. Therefore, the measurement result determination unit 4a compares | cosα | and | cosβ | described above, finds the one closer to zero, and pays attention to the measurement result by the fringe pattern projection unit 2 that gives such a result. The result is a three-dimensional shape measurement result at pixel g. In the case of the pixel g in FIGS. 4 and 5, the measurement result by the stripe pattern SP in which the stripe pattern change direction 5 is oriented in the x-axis direction (unit vector ua direction) (measurement result by the A system stripe pattern projection unit 2). Is determined as the best measurement result. The measurement result determination unit 4a determines such measurement results for all the pixels g.

本実施形態の3次元形状計測装置1によれば、表面に文字や柄などによる反射率の異なる領域が混在していることにより撮像された画像中の画素における輝度値が真の値から変化するような被計測物体についても、計測精度を向上することができる。   According to the three-dimensional shape measuring apparatus 1 of the present embodiment, the luminance value at the pixel in the imaged image changes from the true value due to a mixture of regions having different reflectances such as characters and patterns on the surface. Measurement accuracy can also be improved for such an object to be measured.

(第2の実施形態)
図6は第2の実施形態に係る3次元形状計測方法のフローチャートを示し、図7は同方法における点群データ取得のフローチャートを示し、図8は同方法における画像データ取得のフローチャートを示し、図9は同方法における画素データ決定のフローチャートを示す。本実施形態は、上述の第1の実施形態における3次元形状計測装置1を用いて3次元形状計測を行う方法を示すものであり、図1〜図5を適宜参照する。
(Second Embodiment)
6 shows a flowchart of the three-dimensional shape measurement method according to the second embodiment, FIG. 7 shows a flowchart of point cloud data acquisition in the method, and FIG. 8 shows a flowchart of image data acquisition in the method. 9 shows a flowchart of determining pixel data in this method. This embodiment shows a method for performing three-dimensional shape measurement using the three-dimensional shape measurement apparatus 1 in the first embodiment described above, and appropriately refer to FIGS.

本計測方法の全体の流れが図6に示され、主なサブルーティンが図7、図8、図9に示されている。本計測方法では、処理の前半において2組の点群データ取得が行われ(S1,S2)、後半において2組の3次元形状データから各画素における最良の3次元形状データを決定する選択決定が行われる(ループLP1〜LP11,LP2〜LP22)。前半の処理は、中央制御部42の制御のもとで2つの縞パターン投影部2(投影部A,Bとする)を用いて行われる。また、後半の決定処理は、計測結果決定部4aによって行われる。以下、処理の流れに沿って説明する。   The overall flow of this measurement method is shown in FIG. 6, and the main subroutines are shown in FIGS. In this measurement method, two sets of point cloud data are acquired in the first half of the process (S1, S2), and in the second half, selection determination is performed to determine the best three-dimensional shape data for each pixel from the two sets of three-dimensional shape data. Is performed (loops LP1 to LP11, LP2 to LP22). The first half of the processing is performed using the two fringe pattern projection units 2 (projection units A and B) under the control of the central control unit 42. Further, the latter half of the determination process is performed by the measurement result determination unit 4a. Hereinafter, it demonstrates along the flow of a process.

(点群データ取得)
まず、前半の点群データ取得(S1,S2)を、サブルーティンのフローチャート(図7)を参照して説明する。この処理の個々のデータを除く基本部分は、投影部A,Bにとって共通の処理である。以下において、式や変数における添字kは、投影部A,Bを識別するAまたはBを表すものとする。この点群データ取得処理では、3次元形状データおよび輝度勾配データが点群データとして取得される。
(Point cloud data acquisition)
First, point cloud data acquisition (S1, S2) in the first half will be described with reference to a subroutine flowchart (FIG. 7). The basic part excluding individual data in this process is a process common to the projection units A and B. In the following, the subscript k in expressions and variables represents A or B for identifying the projection parts A and B. In this point cloud data acquisition process, three-dimensional shape data and luminance gradient data are acquired as point cloud data.

ここで、”点群データ”という用語について説明する。位相シフト法を用いる3次元形状計測では、計測領域10に対して一定の位置に固定した撮像部3によって種々の画像が撮像され参照される。これらの画像は、互いに同じ画素数、および互いに同じx,y座標系(図1参照)のもとでの同じ画素配列を有して構成されている。また、各画素は、XYZ座標系(図1参照)で定義される3次元空間における計測領域10の表面の特定の点に対応している。点群データは、これらの特定の点に関するデータ、すなわち、輝度、XYZ座標値、所定の画像についてその点における輝度の勾配方向、などのデータの総称である。通常、そのデータの種類毎に画素数と同じ数のデータの集まり(すなわち点群)となる。   Here, the term “point cloud data” will be described. In the three-dimensional shape measurement using the phase shift method, various images are captured and referenced by the imaging unit 3 fixed at a fixed position with respect to the measurement region 10. These images have the same number of pixels and the same pixel arrangement under the same x and y coordinate systems (see FIG. 1). Each pixel corresponds to a specific point on the surface of the measurement region 10 in a three-dimensional space defined by the XYZ coordinate system (see FIG. 1). Point cloud data is a general term for data relating to these specific points, that is, data such as luminance, XYZ coordinate values, and the gradient direction of luminance at that point for a given image. Usually, for each type of data, the same number of data as the number of pixels is collected (that is, a point group).

上述のように、点群データは画像中の画素毎に取得されるデータであり、点群データ取得処理は、画像を撮像する画像データ取得処理(S10)、および、演算部44による画素毎の点群データ取得のための画像処理(ループLP3〜LP33,LP4〜LP44)によって行われる。この画像処理では、位相シフト法に関する処理(S11、S12)、および本発明の特徴的処理である輝度勾配データの取得が行われる(S13)。   As described above, the point cloud data is data acquired for each pixel in the image, and the point cloud data acquisition processing includes the image data acquisition processing (S10) for capturing an image and the calculation unit 44 for each pixel. This is performed by image processing for acquiring point cloud data (loops LP3 to LP33, LP4 to LP44). In this image processing, processing relating to the phase shift method (S11, S12) and acquisition of luminance gradient data which is characteristic processing of the present invention are performed (S13).

画像データ取得処理(S10)を、さらに、サブルーティンのフローチャート(図8)を参照して説明する。このサブルーティンの処理では、4相の位相シフト法のための4つの縞パターン光による照明のもとでの4つの画像データと、一様照明のもとでの1つの画像データが取得される。縞パターンによる画像は輝度データIki(x,y),i=0,1,2,3として記録され(LP5〜LP55)、一様照明による画像は輝度データI(x,y)として記録される(S24〜S26)。ここで、x,yは画像上の画素の位置を示す座標であり、画像のサイズに応じてx=0,1,・・,m,y=0,1,・・,nである。なお、ここでは4相の位相シフト法を用いる例を示すが、3次元形状データを取得するためには、これに限らず3相または5相以上の位相シフト法を用いることもできる。 The image data acquisition process (S10) will be further described with reference to a subroutine flowchart (FIG. 8). In this subroutine processing, four image data under illumination with four stripe pattern lights for the four-phase phase shift method and one image data under uniform illumination are acquired. . The image by the stripe pattern is recorded as luminance data I ki (x, y), i = 0, 1, 2, 3 (LP5 to LP55), and the image by uniform illumination is recorded as luminance data I k (x, y). (S24-S26). Here, x and y are coordinates indicating the position of the pixel on the image, and x = 0, 1,..., M, y = 0, 1,. In addition, although the example which uses the phase shift method of 4 phases is shown here, in order to acquire three-dimensional shape data, not only this but the phase shift method of 3 phases or 5 phases or more can also be used.

(縞パターン光による画像データ取得)
中央制御部42は、位相変化ループ(LP5〜LP55)において、変数iの値を各ループ毎にi=0,1,2,3と変化させて、投影縞パターンデータ生成(S20)、縞パターン投影(S21)、撮像(S22)、輝度データ記録(S23)を行う。すなわち、中央制御部42は、正弦波の位相をπ/2ずつ変化させて画像データを輝度データとしてメモリ43に4回取り込む。
(Acquire image data with fringe pattern light)
In the phase change loop (LP5 to LP55), the central control unit 42 changes the value of the variable i to i = 0, 1, 2, 3 for each loop to generate projected fringe pattern data (S20), fringe pattern. Projection (S21), imaging (S22), and luminance data recording (S23) are performed. That is, the central control unit 42 changes the phase of the sine wave by π / 2 and fetches the image data into the memory 43 four times as luminance data.

より具体的に述べると、3次元計測処理部4の縞パターンデータ作成部41が、投影縞パターンデータを生成する(S20)。生成された縞パターンデータは、中央制御部42の制御によって縞パターン投影部2に転送され、縞パターン投影部2より、正弦波状に明度が変化する縞パターンSPとして被計測物の計測領域10に投影される(S21)。   More specifically, the fringe pattern data creation unit 41 of the three-dimensional measurement processing unit 4 generates projection fringe pattern data (S20). The generated fringe pattern data is transferred to the fringe pattern projection unit 2 under the control of the central control unit 42, and the fringe pattern projection unit 2 sends the fringe pattern data to the measurement region 10 of the object to be measured as a fringe pattern SP whose brightness changes in a sine wave shape. Projected (S21).

縞パターン生成部22で作られる縞パターンLki(u,v)は、次式(1)に表される。この縞パターンは、明度が正弦波状に変化する。ここで、(u,v)は縞パターン投影部2の縞パターン生成部22を構成する透過型液晶板上の座標であり、b(u,v)はバイアス値、a(u,v)は振幅、φ(u)は初期位相(i=0の場合の位相)、iπ/2は初期位相からの位相シフト量(i=0,1,2,3)である。 The fringe pattern L ki (u, v) created by the fringe pattern generation unit 22 is expressed by the following equation (1). In the fringe pattern, the brightness changes in a sine wave shape. Here, (u, v) are coordinates on the transmission type liquid crystal plate constituting the fringe pattern generation unit 22 of the fringe pattern projection unit 2, b (u, v) is a bias value, and a (u, v) is The amplitude, φ (u) is the initial phase (phase when i = 0), and iπ / 2 is the phase shift amount from the initial phase (i = 0, 1, 2, 3).

Figure 2009204343
Figure 2009204343

撮像部3は、縞パターンが投影された被計測物の計測領域10を撮像し(S22)、撮像された各画素の輝度データから成る輝度データIki(x,y)は、3次元計測処理部4のメモリ43に記録される(S23)。 The imaging unit 3 images the measurement area 10 of the measurement object on which the fringe pattern is projected (S22), and the luminance data I ki (x, y) including the luminance data of each captured pixel is a three-dimensional measurement process. It is recorded in the memory 43 of the unit 4 (S23).

(一様照明による画像データ取得)
次に、中央制御部42は、縞パターン投影部2によって明るさが一様な照明光を被計測物の計測領域10に投影し(S24)、撮像部3によって撮像し(S25)、縞パターンのない一様照明での輝度データI(x,y)をメモリに記録する(S26)。
(Image data acquisition by uniform illumination)
Next, the central control unit 42 projects illumination light with uniform brightness on the measurement area 10 of the measurement object by the fringe pattern projection unit 2 (S24), images by the imaging unit 3 (S25), and the fringe pattern. Luminance data I k (x, y) in uniform illumination without any data is recorded in the memory (S26).

縞パターンのない画像は、上述のように縞パターンが投影されていない一様照明による状態を撮像して得ることもできるが、位相シフト法計測のために取得した縞パターンの画像を合成して取得することもできる。つまり、具体的な輝度データIの取得方法として、次の2つの方法を用いることができる。
(1)パターンのない明るさが一定の画像を投影部から投影して撮像する。
(2)I=Ik0+Ik1+Ik2+Ik3により合成して求める。
An image without a fringe pattern can be obtained by imaging the state of uniform illumination where the fringe pattern is not projected as described above, but the image of the fringe pattern obtained for the phase shift method measurement is synthesized. It can also be acquired. That is, the following two methods can be used as a specific method for obtaining the luminance data Ik .
(1) An image having a constant brightness without a pattern is projected from the projection unit and picked up.
(2) I k = I k0 + I k1 + I k2 + I k3

(位相算出)
次に、図7に戻って、位相算出(S11)を説明し、その後、3次元データ計算(S12)を説明する。まず、上述の縞パターン投影と撮像によって得られた各画素の輝度値Iki(x,y)(i=0,1,2,3)から、次式(2)によって定義される位相φ(x,y)が算出される(S11)。算出は演算部44において行われる。
(Phase calculation)
Next, returning to FIG. 7, the phase calculation (S11) will be described, and then the three-dimensional data calculation (S12) will be described. First, from the luminance value I ki (x, y) (i = 0, 1, 2, 3) of each pixel obtained by the above-described fringe pattern projection and imaging, the phase φ ( x, y) is calculated (S11). The calculation is performed in the calculation unit 44.

Figure 2009204343
Figure 2009204343

この位相φ(x,y)は、画像全体について定まる1つの位相状態について、座標(x,y)で定まる画素点毎の位相(位相値)の分布データである。この式で表される位相分布データと撮像の幾何学条件等から、被計測物体表面の3次元座標を各画素に割り当てた、いわゆる距離画像が得られる。より詳しく説明すると、計測領域10に投影された縞パターンSPは、計測領域10の3次元形状によって変調(歪曲)される。投影時の位相φ(u)と、撮像した画像から求めた位相φ(x,y)は、もとが同じものであるので、撮像部3の撮像素子31上の座標と液晶板上の座標の対応関係を得ることができる。従って、三角測量の原理によって被計測物表面の計測領域10の3次元座標X,Y,Zが、次式(3)によって求められる(S12)。   This phase φ (x, y) is distribution data of a phase (phase value) for each pixel point determined by coordinates (x, y) in one phase state determined for the entire image. A so-called distance image in which the three-dimensional coordinates of the surface of the object to be measured are assigned to each pixel is obtained from the phase distribution data represented by this equation and the geometric conditions of imaging. More specifically, the fringe pattern SP projected on the measurement region 10 is modulated (distorted) by the three-dimensional shape of the measurement region 10. Since the phase φ (u) at the time of projection and the phase φ (x, y) obtained from the captured image are originally the same, the coordinates on the image sensor 31 of the imaging unit 3 and the coordinates on the liquid crystal plate Can be obtained. Therefore, the three-dimensional coordinates X, Y, Z of the measurement area 10 on the surface of the object to be measured are obtained by the following equation (3) by the principle of triangulation (S12).

Figure 2009204343
Figure 2009204343

ここで、(X,Y,Z)は3次元空間における計測領域10の表面の点の座標、u(φ)は液晶板上における画素の座標(位相が変化する方向の座標)である。またp,pはそれぞれ、撮像部3、縞パターン投影部2のキャリブレーションで求められるパラメータであり、次式(4)(5)を満足する。 Here, (X, Y, Z) is the coordinate of the point on the surface of the measurement region 10 in the three-dimensional space, and u (φ) is the coordinate of the pixel on the liquid crystal plate (the coordinate in the direction in which the phase changes). P c and p p are parameters obtained by calibration of the imaging unit 3 and the fringe pattern projection unit 2, respectively, and satisfy the following expressions (4) and (5).

Figure 2009204343
Figure 2009204343
Figure 2009204343
Figure 2009204343

上述の処理に基づいて、1つの縞パターン投影部2と撮像部3の組み合わせによる3次元形状計測結果として、画像上の画素位置(x,y)において空間座標データ(X,Y,Z)が定義された3次元点群データP(x,y;X,Y,Z)が得られる。 Based on the above-described processing, the spatial coordinate data (X, Y, Z) at the pixel position (x, y) on the image is obtained as a three-dimensional shape measurement result by the combination of one fringe pattern projection unit 2 and the imaging unit 3. The defined three-dimensional point cloud data P k (x, y; X, Y, Z) is obtained.

(輝度勾配データ計算)
図7における処理の後半では、一様照明での輝度データI(x,y)について輝度勾配データを求める計算が行われる(S13)。輝度勾配は、画像のx方向、y方向について輝度データの微分値を算出して求められる。この算出には、例えばSobelフィルタを用いることができる。輝度データIに対応するx方向の微分値Dkx(x,y)、y方向の微分値Dky(x,y)は、それぞれ次式(6)(7)で求められる。
(Brightness gradient data calculation)
In the latter half of the processing in FIG. 7, calculation for obtaining luminance gradient data is performed for luminance data I k (x, y) in uniform illumination (S13). The luminance gradient is obtained by calculating a differential value of luminance data in the x direction and y direction of the image. For this calculation, for example, a Sobel filter can be used. The differential value D kx (x, y) in the x direction and the differential value D ky (x, y) in the y direction corresponding to the luminance data I k are obtained by the following equations (6) and (7), respectively.

Figure 2009204343
Figure 2009204343
Figure 2009204343
Figure 2009204343

輝度の勾配方向を表す角度θ(x,y)はこれらの微分値から次式(8)で求められる。この角度θ(x,y)は画像におけるx軸方向となす角度として定義されている。 The angle θ k (x, y) representing the luminance gradient direction is obtained from the differential value by the following equation (8). This angle θ k (x, y) is defined as an angle formed with the x-axis direction in the image.

Figure 2009204343
Figure 2009204343

本実施形態の3次元形状計測方法では、輝度の勾配方向と、縞パターンSPの変化方向とのなす角度が、投影部A,Bのどちらの場合においてより90゜に近いか、を判定に用いるので、θ(x,y)の値は0゜から90゜の範囲の値でよい。従って、x方向微分値、y方向微分値の絶対値を用いて、次式(9)のように求めた角度Θ(x,y)を用いることもできる。以下では、便宜上、角度Θ(x,y)を用いるものとして説明する。また、これらの角度θ(x,y)、または角度Θ(x,y)が定義できなく、存在しない場合には、「999」などの所定の異常値を角度値として与えておくものとする。 In the three-dimensional shape measurement method of the present embodiment, it is used for determination whether the angle formed by the luminance gradient direction and the change direction of the fringe pattern SP is closer to 90 ° in either of the projection portions A and B. Therefore, the value of θ k (x, y) may be in the range of 0 ° to 90 °. Therefore, the angle Θ k (x, y) obtained by the following equation (9) using the absolute values of the x-direction differential value and the y-direction differential value can also be used. Hereinafter, for the sake of convenience, description will be made assuming that the angle Θ k (x, y) is used. Further, when these angles θ k (x, y) or angles Θ k (x, y) cannot be defined and do not exist, a predetermined abnormal value such as “999” is given as an angle value. And

Figure 2009204343
Figure 2009204343

以上の処理により、図6のステップS1,S2における、投影部A,Bによる2組の点群データ取得が完了し、3次元形状データP(x,y;X,Y,Z),k=A,B、輝度勾配データΘ(x,y),Dkx(x,y),Dky(x,y),k=A,Bが取得される。以下では、図6における各画素における最良の3次元形状データの選択による画素データの決定の処理を説明する(ループLP1〜LP11、LP2〜LP22)。なお、P(x,y;X,Y,Z)をP(x,y)と表記し、選択決定された最終の3次元形状データをP(x,y;X,Y,Z)、またはP(x,y)と表記する。 With the above processing, two sets of point cloud data acquisition by the projection units A and B in steps S1 and S2 in FIG. 6 is completed, and the three-dimensional shape data P k (x, y; X, Y, Z), k = A, B, luminance gradient data Θ k (x, y), D kx (x, y), D ky (x, y), k = A, B are acquired. Hereinafter, a process of determining pixel data by selecting the best three-dimensional shape data in each pixel in FIG. 6 will be described (loops LP1 to LP11, LP2 to LP22). Note that P k (x, y; X, Y, Z) is expressed as P k (x, y), and the final selected three-dimensional shape data is P (x, y; X, Y, Z). Or P (x, y).

(画素データの決定)
ループ処理において(ループLP1〜LP11,LP2〜LP22)、座標x,yによって指定された特定の画素について、P(x,y),P(x,y)の存在の如何が判断され、いずれか一方のみが存在する場合には、その値が選択され、P(x,y)=P(x,y)、または、P(x,y)=P(x,y)とされる(S6、またはS8)。また、いずれも存在していなければ(S3とS7でNo)、P(x,y)は、非存在とされ、「999」などの所定の異常値がP(x,y)に与えられる(S9)。
(Determination of pixel data)
In the loop processing (loops LP1 to LP11, LP2 to LP22), it is determined whether or not P A (x, y), P B (x, y) exists for a specific pixel specified by coordinates x, y. When only one of them exists, the value is selected and P (x, y) = P A (x, y) or P (x, y) = P B (x, y) is set. (S6 or S8). If neither exists (No in S3 and S7), P (x, y) is not present, and a predetermined abnormal value such as “999” is given to P (x, y) ( S9).

上述の処理(S6,S8,S9)は、各縞パターン投影部2からの投影方向に依存して発生する3次元立体形状に起因する隠蔽(影ができる、いわゆるオクルージョン)のため計測結果がなくなる場合の対応処理である。これにより、2種類の測定結果のうち、一方が隠蔽の影響を受ける場合、他方を正しい計測結果として選択することができる。   The above-described processing (S6, S8, S9) has no measurement result due to concealment (so-called occlusion where a shadow is formed) due to a three-dimensional solid shape generated depending on the projection direction from each fringe pattern projection unit 2. This is a case handling process. Thereby, when one of the two types of measurement results is affected by concealment, the other can be selected as a correct measurement result.

(x,y),P(x,y)がいずれも存在する場合(S3とS4でYes)、輝度勾配に基づく画素データの決定が行われる(S5)。 When both P A (x, y) and P B (x, y) exist (Yes in S3 and S4), the pixel data is determined based on the luminance gradient (S5).

輝度勾配に基づく画素データの選択決定を、サブルーティンのフローチャート(図8)を参照して説明する。まず、輝度勾配データである角度Θ(x,y),Θ(x,y)の存在の如何が判断され(#1)、いずれか一方の角度が、上述のように「999」とされて、存在しない場合(#1でNo)、デフォルトでP(x,y)=P(x,y)とされる(#4)。なお、これらの角度がいずれも存在しない場合は、輝度勾配が定義されない状態、すなわち、輝度勾配がない状態であり、注目画素の周辺画素において一様輝度分布となっていることを示す。 The selection of pixel data based on the luminance gradient will be described with reference to a subroutine flowchart (FIG. 8). First, it is determined whether or not the angles Θ A (x, y) and Θ B (x, y), which are brightness gradient data, exist (# 1), and one of the angles is “999” as described above. If it does not exist (No in # 1), the default is P (x, y) = P A (x, y) (# 4). Note that when none of these angles exists, it indicates that the luminance gradient is not defined, that is, there is no luminance gradient, and the luminance distribution is uniform in the peripheral pixels of the target pixel.

角度Θ(x,y),Θ(x,y)のいずれも存在する場合には(#1でYes)、パターン変化方向の角度(η,ηとする)と、角度Θ(x,y),Θ(x,y)との差の絶対値としての角度α,βが求められる(#2)。この角度α,βは、第1の実施形態における図5に示した角度α,βに相当する。また、角度η,ηは、同じく図5に示した単位ベクトルua,ubの方向に相当し、本実施形態の場合、x軸方向を基準にするとη=0,η=90゜である。 When both of the angles Θ A (x, y) and Θ B (x, y) exist (Yes in # 1), the angle in the pattern change direction (referred to as η A and η B ) and the angle Θ A The angles α and β as absolute values of the difference from (x, y), Θ B (x, y) are obtained (# 2). The angles α and β correspond to the angles α and β shown in FIG. 5 in the first embodiment. Also, the angles η A and η B correspond to the directions of the unit vectors ua and ub shown in FIG. 5, and in this embodiment, η A = 0 and η B = 90 ° with respect to the x-axis direction. It is.

次に、上述の角度α,βのいずれが90゜に近いか判断され、角度αが角度βよりも90゜に近い場合、つまり、β<α≦90゜の場合(#3でYes)、P(x,y)=P(x,y)とされる(#4)。また、角度αが角度βよりも90゜に近くはない場合(#3でNo)、P(x,y)=P(x,y)とされる(#5)。 Next, it is determined which of the angles α and β is closer to 90 °. If the angle α is closer to 90 ° than the angle β, that is, if β <α ≦ 90 ° (Yes in # 3), P (x, y) = P A (x, y) is set (# 4). When the angle α is not closer to 90 ° than the angle β (No in # 3), P (x, y) = P B (x, y) is set (# 5).

上記では、角度Θ(x,y),Θ(x,y)を用いて最良のデータを選択決定する旨説明したが、同様の選択決定は、輝度勾配データであるx方向の微分値Dkx(x,y)、y方向の微分値Dky(x,y)を用いて行うこともできる。この方法によると、角度Θ(x,y),Θ(x,y)を求めるための逆正接の計算が不要であるので、より少ない計算処理量で処理できる利点がある。 In the above description, it has been described that the best data is selected and determined using the angles Θ A (x, y) and Θ B (x, y). It can also be performed using D kx (x, y) and the differential value D ky (x, y) in the y direction. According to this method, it is not necessary to calculate an arc tangent for obtaining the angles Θ A (x, y) and Θ B (x, y). Therefore, there is an advantage that the processing can be performed with a smaller calculation processing amount.

本実施形態の場合、角度η,ηが、η=0,η=90゜であるので、微分値を用いる選択決定は、次の関係によって行うことができる。ただし、次式は、投影部Aのデータにより判断するので、投影部A,Bによって得られた輝度勾配の方向が互いに略等しい場合に適用される。
Ay≧DAx の場合、P(x,y)=P(x,y)、
Ay<DAx の場合、P(x,y)=P(x,y)。
In the case of the present embodiment, the angles η A and η B are η A = 0 and η B = 90 °. Therefore, the selection determination using the differential value can be performed by the following relationship. However, since the following equation is determined based on the data of the projection unit A, it is applied when the directions of the luminance gradients obtained by the projection units A and B are substantially equal to each other.
If D Ay ≧ D Ax , P (x, y) = P A (x, y),
If D Ay <D Ax , then P (x, y) = P B (x, y).

上述のような画素データの決定処理が、全画素について行われることにより、最適選択された最終の3次元座標データ、すなわち3次元形状計測結果P(x,y)、より明示的にP(x,y;X,Y,Z)が取得される。   The pixel data determination process as described above is performed for all pixels, so that the optimally selected final three-dimensional coordinate data, that is, the three-dimensional shape measurement result P (x, y), more explicitly P (x , Y; X, Y, Z).

本実施形態の3次元形状計測方法によれば、輝度の勾配方向とパターン変化方向とのなす角度を比較して最適と考えられる3次元座標の計測結果を選択するので、表面に文字や柄などによる反射率の異なる領域が混在する被計測物体についても、選択するだけの簡単な操作によって、精度の高い計測ができる。また、異なる方向からの投影部A,Bによる点群データの比較と選択により、隠蔽(オクルージョン)による計測結果の欠損を回避できる。   According to the three-dimensional shape measurement method of this embodiment, the measurement result of the three-dimensional coordinates considered to be optimal is selected by comparing the angle formed between the gradient direction of the brightness and the pattern change direction, so that characters, patterns, etc. are applied to the surface. Even an object to be measured in which regions having different reflectivities due to the above can be measured with high accuracy by a simple operation only by selecting. Further, by comparing and selecting the point cloud data from the projection units A and B from different directions, it is possible to avoid a loss of measurement results due to occlusion.

(第3の実施形態)
図10は第3の実施形態に係る3次元形状計測方法および装置を説明するための投影部、撮像部、および縞パターンの位置関係を示す。本実施形態は、第1または第2の実施形態における2つの縞パターン投影部2を3つとする構成にしたものである。各縞パターン投影部2の配置面A,B,Cは、面間の角度をφ1,φ2とされ、縞パターンSPのパターン変化方向5も配置面A,B,Cに応じて設定されている。角度φ1,φ2は、例えば、それぞれ60゜とすることにより、第1の実施形態における90゜の場合よりも、ぼけに対する誤差回避をより効果的に行えるので、より精度良く3次元形状計測を行える。
(Third embodiment)
FIG. 10 shows a positional relationship between a projection unit, an imaging unit, and a fringe pattern for explaining a three-dimensional shape measurement method and apparatus according to the third embodiment. In the present embodiment, the two striped pattern projection units 2 in the first or second embodiment are configured to be three. The arrangement planes A, B, and C of each fringe pattern projection unit 2 have angles between the planes of φ1 and φ2, and the pattern change direction 5 of the stripe pattern SP is also set according to the arrangement planes A, B, and C. . By setting each of the angles φ1 and φ2 to 60 °, for example, it is possible to more effectively avoid errors with respect to blur than in the case of 90 ° in the first embodiment, so that three-dimensional shape measurement can be performed with higher accuracy. .

本発明の3次元形状計測方法および装置は、より一般的に、縞パターン投影部2(より基本的に投影用光軸、以下同様)を2つ以上設けることができ、その数を増やすことにより、ぼけに対する誤差回避をより効果的に行える。また、多数の計測結果を統計処理することにより、ランダムノイズ誤差を低減したりできる。縞パターン投影部2の数は、測定に係る時間や、必要な計測精度や、設備費等の兼ね合いで決定すればよい。   More generally, the three-dimensional shape measuring method and apparatus of the present invention can be provided with two or more fringe pattern projection units 2 (more basically, projection optical axes, the same applies hereinafter), and by increasing the number thereof. , It is possible to more effectively avoid errors due to blur. Further, random noise errors can be reduced by statistically processing a large number of measurement results. The number of the fringe pattern projection units 2 may be determined in consideration of the measurement time, necessary measurement accuracy, equipment cost, and the like.

ここで、縞パターン投影部2を任意の数だけ備えた場合の、一般的な3次元形状計測方法について説明する。なお、説明の便宜のため、図1乃至図10に示した各部の名称や符号等を参照するが、それらの構成に限定されるものではない。この3次元形状計測方法では、第1、第2の実施形態同様に、明度が正弦波状に変化する縞パターンSPを異なる位相で3回以上被計測物体の計測領域10に投影して、一定位置に配置された撮像部3により撮像することにより、各画像間で互いに画素位置が対応づけられた複数の画像を撮像し、これらの画像を用いて画像中の各画素毎に被計測物体の3次元座標を求める位相シフト法を用いる。   Here, a general three-dimensional shape measurement method when an arbitrary number of the fringe pattern projection units 2 are provided will be described. For convenience of explanation, the names and symbols of the respective parts shown in FIGS. 1 to 10 are referred to, but the present invention is not limited to these configurations. In this three-dimensional shape measurement method, as in the first and second embodiments, the fringe pattern SP whose brightness changes in a sine wave shape is projected onto the measurement area 10 of the object to be measured three or more times with different phases, and a fixed position is obtained. The plurality of images in which the pixel positions are associated with each other are captured by the imaging unit 3 disposed in the image, and 3 of the measured object is obtained for each pixel in the image using these images. A phase shift method for obtaining dimensional coordinates is used.

この3次元形状計測方法は、座標計測ステップと、勾配取得ステップと、画素データ決定ステップと、を含んでおり、各ステップを以下に詳述する。   This three-dimensional shape measurement method includes a coordinate measurement step, a gradient acquisition step, and a pixel data determination step, and each step will be described in detail below.

座標計測ステップでは、被計測物体の計測領域10上方に撮像部3を設置し、撮像部3の光軸30と1つの投影用光軸20とで構成される平面を複数設定し、前記平面の1つについて該平面に対して所定の角度を有しかつ撮像部3の光軸30に直交する直線の方向としたパターン変化方向5に沿って明度が変化する縞パターンSPを該平面を構成する投影用光軸20方向から計測領域10に投影すると共に撮像部3によって撮像して位相シフト法により該計測領域の3次元座標(X,Y,Z)を取得するステップを、前記各平面について独立に行うことにより複数種類の3次元座標データP(x,y;X,Y,Z)を取得する。ここで、X,Y,Zは計測領域10に設定された空間座標、x,yは画像に設定された座標である。ここで、添字kは、各投影用光軸20等を識別する変数であり、第1の実施形態におけるA,B等を識別する添字である。 In the coordinate measurement step, the imaging unit 3 is installed above the measurement area 10 of the object to be measured, a plurality of planes configured by the optical axis 30 of the imaging unit 3 and one projection optical axis 20 are set, and the plane One stripe pattern SP having a predetermined angle with respect to the plane and having a brightness change along a pattern change direction 5 that is a straight line direction orthogonal to the optical axis 30 of the imaging unit 3 constitutes the plane. The step of projecting from the direction of the projection optical axis 20 onto the measurement area 10 and picking up an image by the imaging unit 3 and acquiring the three-dimensional coordinates (X, Y, Z) of the measurement area by the phase shift method is independent for each plane. To obtain a plurality of types of three-dimensional coordinate data P k (x, y; X, Y, Z). Here, X, Y, and Z are spatial coordinates set in the measurement region 10, and x and y are coordinates set in the image. Here, the subscript k is a variable for identifying each projection optical axis 20 and the like, and is a subscript for identifying A, B, and the like in the first embodiment.

勾配取得ステップでは、計測領域10を均一な照明光のもとで撮像した画像を微分処理し該画像中の画素毎に輝度の勾配方向hを求めるステップを、前記各平面について独立に投影用光軸20方向からの照明と撮像部3による撮像とによって行うことにより複数種類の勾配方向データを取得する。輝度の勾配方向hは、角度θ(x,y)、x方向の微分値Dkx(x,y)、y方向の微分値Dky(x,y)等で表される。 In the gradient acquisition step, the step of differentiating the image obtained by imaging the measurement region 10 under uniform illumination light to obtain the luminance gradient direction h for each pixel in the image is performed independently for each plane. A plurality of types of gradient direction data are acquired by performing illumination from the direction of the axis 20 and imaging by the imaging unit 3. The luminance gradient direction h is represented by an angle θ k (x, y), a differential value D kx (x, y) in the x direction, a differential value D ky (x, y) in the y direction, and the like.

この勾配取得ステップと上述の座標計測ステップとは、互いに順番を入れ替えて実行することができる。また、これらのステップをそれぞれ一括して行わずに、互いに前記各平面毎(各投影用光軸20毎)のステップによってまとめて行うようにしてもよい。   The gradient acquisition step and the coordinate measurement step described above can be executed with the order reversed. Further, these steps may be collectively performed by steps for each plane (each projection optical axis 20) without performing them all at once.

画素データ決定ステップでは、各投影用光軸20毎の3次元座標データP(x,y;X,Y,Z)と勾配方向データθ(x,y),Dkx(x,y),Dky(x,y)から成る複数の組における互いに他の組の画像中の画素に対応する各画素について、それぞれ輝度の勾配方向hとパターン変化方向5とのなす角度γまたは該角度γに相当する傾き成分を求め、各組における当該画素に対する3次元座標X,Y,Zをこれらの角度γまたは傾き成分に基づいて合成して当該画素における3次元座標の計測結果P(x,y;X,Y,Z)とする。 In the pixel data determination step, the three-dimensional coordinate data P k (x, y; X, Y, Z) and gradient direction data θ k (x, y), D kx (x, y) for each projection optical axis 20 are used. , D ky (x, y), the angle γ formed by the luminance gradient direction h and the pattern change direction 5 or the angle γ for each pixel corresponding to the pixels in the other set of images. The three-dimensional coordinates X, Y, and Z for the pixel in each set are synthesized based on the angle γ or the inclination component, and the measurement result P (x, y of the three-dimensional coordinate at the pixel is obtained. X, Y, Z).

また、上述の画素データ決定ステップは、3次元座標を合成する際に、前記互いに対応する各画素について求めた輝度の勾配方向と前記パターン変化方向とのなす角度γを比較して90゜により近い角度γを与える組から3次元座標を選択して当該画素における計測結果P(x,y;X,Y,Z)とすることができる。これは、合成時の重み付けを、選択した1つのデータについて”1”とし、他のデータの全てについて”0”とした場合に相当する。   Further, in the pixel data determination step described above, when the three-dimensional coordinates are synthesized, the angle γ formed by the luminance gradient direction obtained for each of the corresponding pixels and the pattern change direction is compared and is closer to 90 °. A three-dimensional coordinate can be selected from the set that gives the angle γ, and the measurement result P (x, y; X, Y, Z) at the pixel can be obtained. This corresponds to a case where the weighting at the time of synthesis is “1” for one selected data and “0” for all other data.

(第4の実施形態)
図11は第4の実施形態に係る3次元形状計測方法を説明するフローチャートを示し、図12は同方法における画素データ決定のフローチャートを示す。本実施形態の3次元形状計測方法は、第2の実施形態における、「輝度勾配(すなわち角度)に基づく画素データ決定の処理」を、「微分強度(すなわち輝度分布の微分値)」に基づいて行うところが異なっており、他の点は第2の実施形態と同様である。
(Fourth embodiment)
FIG. 11 is a flowchart for explaining a three-dimensional shape measuring method according to the fourth embodiment, and FIG. 12 is a flowchart for determining pixel data in the method. The three-dimensional shape measurement method of this embodiment is based on “differential intensity (that is, a differential value of a luminance distribution)” in “process of determining pixel data based on luminance gradient (that is, angle)” in the second embodiment. The operation is different and the other points are the same as in the second embodiment.

従って、図11に示すフローチャートは、第2の実施形態のフローチャート(図6)におけるステップS5を、輝度強度に基づく画素データ決定の内容(S50)、に置き換えたものとなっている。なお、図11のフローチャートにおけるステップS1,S2では、角度勾配を表す角度θ(x,y)やΘ(x,y)の導出は不要である。また、ここでいう「微分強度」は、画像中の輝度変化の微分値のことであり、x方向の微分強度Dkxとy方向の微分強度Dkyがある(kはAまたはB)。これらは、前述の勾配方向データであって、Dkx=Dkx(x,y),Dky=Dky(x,y)である。 Therefore, the flowchart shown in FIG. 11 is obtained by replacing step S5 in the flowchart (FIG. 6) of the second embodiment with the content of pixel data determination based on the luminance intensity (S50). In steps S1 and S2 in the flowchart of FIG. 11, it is not necessary to derive the angles θ k (x, y) and Θ k (x, y) representing the angle gradient. Further, the “differential intensity” here is a differential value of a luminance change in the image, and includes a differential intensity D kx in the x direction and a differential intensity D ky in the y direction (k is A or B). These are the above-described gradient direction data, and D kx = D kx (x, y) and D ky = D ky (x, y).

以下では、ステップS50の具体的処理を示すサブルーティン(図12)を説明し、他の説明は省略する。ここでも、図1〜図5、および図6を適宜参照する。   Below, the subroutine (FIG. 12) which shows the specific process of step S50 is demonstrated, and other description is abbreviate | omitted. Here again, FIGS. 1 to 5 and FIG. 6 are referred to as appropriate.

画素データ決定サブルーティンの最初のステップで、2つの投影部A,Bのもとで得られた微分強度が、互いにx方向成分同士と閾値T、およびy方向成分同士と閾値Tで比較される(#10)。例えば、x方向について、微分強度DAxが微分強度DBxに閾値Tを加えた値よりも大きい(DAx>DBx+T)場合に(#10でYes)、投影部Bによる3次元形状データが、xy座標を有する注目画素に対する最終データとして選択決定されP(x,y)=P(x,y)とされる(#14)。 In the first step of the pixel data determination subroutine, the differential intensities obtained under the two projection parts A and B are compared with each other in the x direction component and the threshold value T x , and in the y direction component and the threshold value T y . (# 10). For example, in the x direction, when the differential intensity D Ax is larger than the value obtained by adding the threshold T x to the differential intensity D Bx (D Ax > D Bx + T x ) (Yes in # 10), the three-dimensional by the projection unit B The shape data is selected and determined as final data for the pixel of interest having xy coordinates, and P (x, y) = P B (x, y) is set (# 14).

上述の選択決定の判定は、隠蔽(オクルージョン)による誤計測を回避するためのものである。すなわち、隠蔽によって画像に影が生じ、その影の境界線によって微分強度が強くなってしまう場所において、そのような影の影響が少ないと考えられるより信頼性の高い計測結果を選択する処理である。上の例では、微分強度DAxが微分強度DBxに閾値Tを加えた値よりも大きいので(DAx>DBx+T)、投影部Aによる3次元形状データP(x,y)には隠蔽による影の影響があると判断され、P(x,y)が選択され決定されている。 The determination of the selection decision described above is for avoiding erroneous measurement due to occlusion. That is, in a place where a shadow is generated in the image due to concealment and the differential intensity becomes strong due to the boundary line of the shadow, it is a process of selecting a more reliable measurement result considered to be less affected by such a shadow. . In the above example, since the differential intensity D Ax is larger than the value obtained by adding the threshold T x to the differential intensity D Bx (D Ax > D Bx + T x ), the three-dimensional shape data P A (x, y by the projection unit A) ) Is determined to have a shadow effect due to concealment, and P B (x, y) is selected and determined.

同様に、y方向についても、微分強度DAyが微分強度DByに閾値Tを加えた値よりも大きい(DAy>DBy+T)場合に(#10でYes)、P(x,y)=P(x,y)とされる(#14)。この処理を言い換えると、x方向とy方向のいずれかにおいて、異常に大きい輝度微分強度を有するような3次元形状データは、隠蔽による影の影響を含む可能性があるので除外する処理と言える。 Similarly, in the y direction, if the differential intensity D Ay is larger than the value obtained by adding the threshold T y to the differential intensity D By (D Ay > D By + T y ) (Yes in # 10), P (x, y) = P B (x, y) (# 14). In other words, it can be said that the three-dimensional shape data having an abnormally large luminance differential intensity in either the x direction or the y direction is excluded because it may include the influence of shadows due to concealment.

上述とは逆の場合には、すなわち、投影部Bによる微分強度が異常に大きい場合には(#11でYes)、同様の理由で、P(x,y)=P(x,y)とされる(#13)。 In the opposite case, that is, when the differential intensity by the projection unit B is abnormally large (Yes in # 11), P (x, y) = P A (x, y) for the same reason. (# 13).

いずれの微分強度も、閾値T,Tによって判断されるような大きな異常値を持たない場合に(#10でNo、#11でNo)、投影部Aに関する微分強度のxy方向の成分の大小比較が行われる(#12)。この大小比較は、隠蔽による影響がない状況下で、文字や柄などによる反射率の異なる領域の境界部分におけるぼけの影響による計測誤差の発生を回避するために行われる。この場合、隠蔽もなく、また、一様な照明のもとでの画像に基づく輝度の微分強度なので、投影部A,Bのいずれに基づく微分強度も互いに同等の値を有すると考えられ、いずれの微分強度を用いても有効に大小比較できると考えられる。 When none of the differential intensities has a large abnormal value as judged by the thresholds T x and T y (No in # 10, No in # 11), the differential intensity of the differential intensity related to the projection unit A in the xy direction A size comparison is performed (# 12). This size comparison is performed in order to avoid the occurrence of a measurement error due to the influence of blurring at the boundary part of the region where the reflectance is different due to characters, patterns, etc., under the situation where there is no influence by concealment. In this case, since there is no concealment and the differential intensity of the luminance based on the image under uniform illumination, it is considered that the differential intensity based on either of the projection parts A and B has an equivalent value. It can be considered that the magnitude can be effectively compared even using the differential intensity of.

上述のぼけの影響による計測誤差は、画像の輝度の勾配方向と、縞パターンの変化方向との角度が90゜に近いほど小さいので、DAy≧DAxの場合(#12でYes)、P(x,y)=P(x,y)とすればよい(#13)。 The measurement error due to the above-described blur is smaller as the angle between the gradient direction of the luminance of the image and the change direction of the fringe pattern is closer to 90 °. Therefore, when D Ay ≧ D Ax (Yes in # 12), P (x, y) = P a (x, y) and may be (# 13).

補足説明すると、本実施形態の3次元形状計測方法は、第2の実施形態と同様に、第1の実施形態の構成の3次元形状計測装置を用いることを想定しているので、投影部Aによる縞パターンの変化方向はX軸方向(x軸方向)である。また、投影部Bによる縞パターンの変化方向はY軸方向(y軸方向)である。   Supplementally, since the three-dimensional shape measurement method of the present embodiment is assumed to use the three-dimensional shape measurement apparatus having the configuration of the first embodiment, similarly to the second embodiment, the projection unit A The change direction of the fringe pattern due to is the X-axis direction (x-axis direction). Further, the change direction of the fringe pattern by the projection unit B is the Y-axis direction (y-axis direction).

そこで、DAy≧DAxの場合、輝度の勾配方向は、x軸方向よりも、y軸方向に傾いていることになる。つまり、x軸とy軸とは直角なので、輝度の勾配方向は、x軸方向に対してより大きな、90゜に近い角度を有することになり、x軸方向に縞パターン変化方向を有する場合の3次元形状データP(x,y)が、より誤差の少ないデータとして選択される。逆の場合、すなわち、DAy≧DAxではない場合(#12でNo)、P(x,y)=P(x,y)とされる(#14)。 Therefore, when D Ay ≧ D Ax , the luminance gradient direction is inclined in the y-axis direction rather than the x-axis direction. That is, since the x-axis and the y-axis are at right angles, the luminance gradient direction has a larger angle close to 90 ° with respect to the x-axis direction, and the stripe pattern change direction in the x-axis direction. The three-dimensional shape data P A (x, y) is selected as data with less error. In the opposite case, that is, when D Ay ≧ D Ax is not satisfied (No in # 12), P (x, y) = P B (x, y) is set (# 14).

(第5の実施形態)
図13は第5の実施形態に係る3次元形状計測方法における画素データ決定のフローチャートを示す。本実施形態の3次元形状計測方法は、上述の第4の実施形態と同様に「微分強度(すなわち輝度分布の微分値)」に基づいて「画素データ決定の処理」を行うが、2つの計測データのうちいずれかを選択するのではなく、所定の重み付けのもとで、2つの計測データを合成したデータを最終の「画素データ」すなわち3次元形状計測データとするところが異なり、他の点は第4の実施形態と同様である。
(Fifth embodiment)
FIG. 13 shows a flowchart of pixel data determination in the three-dimensional shape measurement method according to the fifth embodiment. The three-dimensional shape measurement method of this embodiment performs “pixel data determination processing” based on “differential intensity (that is, differential value of luminance distribution)” as in the above-described fourth embodiment. Instead of selecting one of the data, the data obtained by synthesizing two pieces of measurement data under a predetermined weight is used as final “pixel data”, that is, three-dimensional shape measurement data. This is the same as in the fourth embodiment.

図13に示す本実施形態のサブルーティンのフローチャートは、第4の実施形態のフローチャート(図12)に代わるものである。ステップ#20,#21における処理は、前述の図12におけるステップ#10,#11における処理と同様なので説明は省略する。   The flowchart of the subroutine of this embodiment shown in FIG. 13 is an alternative to the flowchart of the fourth embodiment (FIG. 12). The processing in steps # 20 and # 21 is the same as the processing in steps # 10 and # 11 in FIG.

いずれの微分強度も、閾値T,Tによって判断されるような大きな異常値を持たない場合に(#20でNo、#21でNo)、次式(10)に示すように、パラメータtを設定する(#22)。 When none of the differential intensities has a large abnormal value as judged by the thresholds T x and T y (No in # 20, No in # 21), as shown in the following equation (10), the parameter t Is set (# 22).

Figure 2009204343
Figure 2009204343

パラメータtの設定には、投影部Aによる微分強度データDAy(x,y),DAx(x,y)が用いられているが、隠蔽もなく、また、一様な照明のもとでの画像に基づく輝度の微分強度なので、投影部A,Bのいずれに基づく微分強度データでも、同等にパラメータtを設定できると考えられる。 For setting the parameter t, differential intensity data D Ay (x, y) and D Ax (x, y) by the projection unit A are used, but there is no concealment and under uniform illumination. Therefore, it is considered that the parameter t can be set equally with the differential intensity data based on either of the projection parts A and B.

上式(12)のtは、分母を1として考えると、tがx成分に相当し、(1−t)がy成分に相当する。また、t=1なら、微分強度はx成分のみであり、輝度勾配方向はx軸方向であり、この方向に直交するy軸方向に縞パターン変化方向となっている3次元形状計測値P(x,y)が選択決定される。 When t in the above equation (12) is considered with the denominator being 1, t corresponds to the x component and (1-t) corresponds to the y component. If t = 1, the differential intensity is only the x component, the luminance gradient direction is the x-axis direction, and the three-dimensional shape measurement value P B is the stripe pattern change direction in the y-axis direction orthogonal to this direction. (X, y) is selected and determined.

また、t=0なら、微分強度はy成分のみであり、輝度勾配方向はy軸方向であり、この方向に直交するx軸方向に縞パターン変化方向となっている3次元形状計測値P(x,y)が選択決定される。 If t = 0, the differential intensity is only the y component, the luminance gradient direction is the y-axis direction, and the three-dimensional shape measurement value P A is the fringe pattern change direction in the x-axis direction orthogonal to this direction. (X, y) is selected and determined.

パラメータtが、0<t<1の場合には、それぞれ、P(x,y)とP(x,y)とからの寄与を、(1−t)とtの重み付けのもとで、P(x,y)に算入すればよいことが分かる。 When the parameter t is 0 <t <1, the contributions from P A (x, y) and P B (x, y) are respectively calculated by weighting (1−t) and t. , P (x, y) can be calculated.

上記のことから、パラメータtを用いて、次式(11)に示すように、投影部A,Bによる3次元形状計測値P(x,y),P(x,y)を合成して、xy座標を有する注目画素に対する最終データP(x,y)を決定する(#23)。 From the above, using the parameter t, the three-dimensional shape measurement values P A (x, y) and P B (x, y) by the projection units A and B are synthesized as shown in the following equation (11). The final data P (x, y) for the pixel of interest having xy coordinates is determined (# 23).

Figure 2009204343
Figure 2009204343

本実施形態の3次元形状計測方法によれば、2つの縞パターン変化方向を互いに直角方向にとって、投影部A,Bによって取得した3次元形状計測データを、輝度の勾配方向の角度(微分強度の2成分の大小関係)応じて加重平均をするので、ランダム雑音の影響を低減させることができ、かつ、反射率の混在による計測誤差(ぼけの影響)を低減させることができ、3次元形状計測の精度を向上させることができる。   According to the three-dimensional shape measurement method of the present embodiment, the two stripe pattern change directions are perpendicular to each other, and the three-dimensional shape measurement data acquired by the projection units A and B is converted into the angle of the luminance gradient direction (differential intensity). Since the weighted average is performed according to the magnitude relationship between the two components), the influence of random noise can be reduced, and the measurement error (the influence of blur) due to the mixture of reflectance can be reduced. Accuracy can be improved.

(第6の実施形態)
図14は第6の実施形態に係る3次元形状計測方法における画素データ決定のフローチャートを示す。本実施形態の3次元形状計測方法は、上述の第5の実施形態とは、注目画素における輝度の微分強度がいずれも小さい場合の処理を組み入れた点が異なり、他は第5の実施形態と同様である。すなわち、図14に示すフローチャートにおいて、ステップ#30,#31が、図13のフローチャートに追加されている。
(Sixth embodiment)
FIG. 14 is a flowchart for determining pixel data in the three-dimensional shape measurement method according to the sixth embodiment. The three-dimensional shape measurement method of the present embodiment is different from the fifth embodiment described above in that processing when the differential intensity of luminance at the target pixel is small is incorporated, and the other is the same as the fifth embodiment. It is the same. That is, in the flowchart shown in FIG. 14, steps # 30 and # 31 are added to the flowchart of FIG.

いずれの微分強度も、閾値T,Tによって判断されるような大きな異常値を持たない場合に(#20でNo、#21でNo)、投影部Aに関する微分強度の成分DAy(x,y),DAx(x,y)が、それぞれ閾値Tより小さいかどうか比較される(#30)。いずれも小さい場合、すなわち、DAy(x,y)<T、かつDAx(x,y)<Tの場合(#30でYes)、上述のパラメータtが、t=0.5とされる(#31)。 When none of the differential intensities has a large abnormal value as judged by the thresholds T x and T y (No in # 20, No in # 21), the differential intensity component D Ay (x , Y) and D Ax (x, y) are compared to determine whether each is smaller than the threshold T 0 (# 30). When both are small, that is, when D Ay (x, y) <T 0 and D Ax (x, y) <T 0 (Yes in # 30), the above-described parameter t is t = 0.5. (# 31).

上述の処理は、隠蔽もなく、また、一様な照明のもとでの画像に基づく輝度の微分強度なので、投影部A,Bのいずれに基づく微分強度も互いに同等の値を有すると考えられるので、投影部Aに関する微分強度の成分によって判断されている。   Since the above-described processing is not concealed and is a differential intensity of luminance based on an image under uniform illumination, it is considered that the differential intensity based on either of the projection parts A and B has an equivalent value. Therefore, it is determined by the differential intensity component related to the projection part A.

また、上述の輝度の微分強度の成分がいずれも小さいという条件は、微分強度の大きさそのものが小さいことを意味する。上述の処理は、注目している画素の周辺における輝度変化が少なく、輝度変化による縞パターン画像のぼけの発生が少なく、従って、このようなぼけによるによる計測誤差が小さいので、ランダムノイズに注目して誤差低減を図る処理である。   Further, the condition that all the components of the differential intensity of the luminance are small means that the magnitude of the differential intensity itself is small. The above processing has little change in luminance around the pixel of interest, and there is little occurrence of blurring of the fringe pattern image due to the change in luminance.Therefore, measurement errors due to such blur are small, so pay attention to random noise. This is a process for reducing the error.

本実施形態の3次元形状計測方法によれば、パラメータtの計算を簡略化し、t=0.5と固定値とすることにより、計算処理を少なくしながら、計測結果を平均化することによりランダム雑音の影響を低減させることができ、計測誤差を低減して精度の高い計測ができる。   According to the three-dimensional shape measurement method of the present embodiment, the calculation of the parameter t is simplified, and t = 0.5 is set to a fixed value, thereby reducing the calculation process and averaging the measurement results. The influence of noise can be reduced, and measurement errors can be reduced and highly accurate measurement can be performed.

(第7の実施形態)
図15は第7の実施形態に係る3次元形状計測方法および装置を説明するための投影部、撮像部、および縞パターンの位置関係を示す。本実施形態は、第1または第2の実施形態における2つの縞パターン投影部2を互いに対向する位置に配置する構成とし、計測領域10に投影する縞パターンSPのパターン変化方向5を互いに直交する構成としたものである。
(Seventh embodiment)
FIG. 15 shows the positional relationship between a projection unit, an imaging unit, and a fringe pattern for explaining the three-dimensional shape measurement method and apparatus according to the seventh embodiment. In the present embodiment, the two fringe pattern projection units 2 in the first or second embodiment are arranged at positions facing each other, and the pattern change directions 5 of the fringe patterns SP projected on the measurement region 10 are orthogonal to each other. It is a configuration.

本実施形態の3次元形状計測方法および装置によると、2つの縞パターン投影部2を互いに対向する位置に配置する構成としているので、一方側からの照明によって発生する隠蔽(オクルージョン)による計測データの欠損を、他方側からの照明による計測データによって補完することができる。   According to the three-dimensional shape measurement method and apparatus of the present embodiment, since the two fringe pattern projection units 2 are arranged at positions facing each other, measurement data of occlusion generated by illumination from one side is stored. The deficiency can be complemented by measurement data from illumination from the other side.

また、2つの縞パターン投影部2が投影する縞パターンSPのパターン変化方向5を互いに直交する構成としたので、いずれか最良の計測結果を選択するか、または両方の計測結果を合成することにより、計測領域10における反射率の異なる部分におけるぼけの発生による計測誤差を低減して計測精度を向上することができる。   In addition, since the pattern change directions 5 of the stripe patterns SP projected by the two stripe pattern projection units 2 are configured to be orthogonal to each other, either the best measurement result is selected, or both measurement results are synthesized. In addition, the measurement accuracy can be improved by reducing the measurement error due to the occurrence of blurring in the portions of the measurement region 10 having different reflectivities.

なお、本発明は、上記各実施形態によって示した構成に限られることなく種々の変形が可能である。例えば、上述した各実施形態の構成を矛盾のない範囲で互いに組み合わせた構成とすることができ、そのような組合せ可能な構成の実施形態は明記されていなくても当然に本発明に含まれる。また、いずれの縞パターン投影部2についても、その投影用光軸20と撮像部3の光軸30とは、必ずしも同一平面に含まれる必要はなく、互いの幾何学的な空間配置が明確であればよく、互いにねじれの位置の関係とすることもできる。また、位相シフト法で用いられる縞パターンSPは、明度が必ずしも正弦波状に変化するパターンである必要はなく、明度が周期的に変化する縞パターンであればよい。   The present invention is not limited to the configuration shown in the above embodiments, and various modifications can be made. For example, the configurations of the above-described embodiments can be combined with each other within a consistent range, and such embodiments that can be combined are naturally included in the present invention even if they are not specified. Further, in any of the fringe pattern projection units 2, the projection optical axis 20 and the optical axis 30 of the imaging unit 3 do not necessarily need to be included in the same plane, and the geometrical spatial arrangement of each other is clear. What is necessary is just to have a twist position relationship with each other. Further, the stripe pattern SP used in the phase shift method does not necessarily have to be a pattern in which the brightness changes in a sine wave shape, and may be a stripe pattern in which the brightness changes periodically.

本発明の第1の実施形態に係る3次元形状計測装置の模式的構成図。1 is a schematic configuration diagram of a three-dimensional shape measuring apparatus according to a first embodiment of the present invention. 同上装置の投影部と撮像部の配置を示す模式的斜視図。The typical perspective view which shows arrangement | positioning of the projection part and imaging part of an apparatus same as the above. 同上装置の投影部、撮像部、および縞パターンの位置関係を示す平面図。The top view which shows the positional relationship of the projection part of an apparatus same as the above, an imaging part, and a fringe pattern. 同上装置において撮像される画像の例。The example of the image imaged in an apparatus same as the above. 同上装置において3次元座標データ選択に用いられる輝度の勾配方向の図。The figure of the gradient direction of the brightness | luminance used for three-dimensional coordinate data selection in an apparatus same as the above. 第2の実施形態に係る3次元形状計測方法を説明するフローチャート。The flowchart explaining the three-dimensional shape measuring method which concerns on 2nd Embodiment. 同上方法における点群データ取得のフローチャート。The flowchart of point cloud data acquisition in a method same as the above. 同上方法における画像データ取得のフローチャート。The flowchart of the image data acquisition in a method same as the above. 同上方法における画素データ決定のフローチャート。The flowchart of the pixel data determination in a method same as the above. 第3の実施形態に係る3次元形状計測方法および装置を説明するための投影部、撮像部、および縞パターンの位置関係を示す平面図。The top view which shows the positional relationship of the projection part, imaging part, and fringe pattern for demonstrating the three-dimensional shape measuring method and apparatus which concern on 3rd Embodiment. 第4の実施形態に係る3次元形状計測方法を説明するフローチャート。The flowchart explaining the three-dimensional shape measuring method which concerns on 4th Embodiment. 同上方法における画素データ決定のフローチャート。The flowchart of the pixel data determination in a method same as the above. 第5の実施形態に係る3次元形状計測方法における画素データ決定のフローチャート。The flowchart of the pixel data determination in the three-dimensional shape measuring method which concerns on 5th Embodiment. 第6の実施形態に係る3次元形状計測方法における画素データ決定のフローチャート。The flowchart of the pixel data determination in the three-dimensional shape measuring method which concerns on 6th Embodiment. 第7の実施形態に係る3次元形状計測方法および装置を説明するための投影部、撮像部、および縞パターンの位置関係を示す平面図。The top view which shows the positional relationship of the projection part, imaging part, and striped pattern for demonstrating the three-dimensional shape measuring method and apparatus which concern on 7th Embodiment. 従来および本発明が適用される反射率の異なる領域を含む計測領域の一様照明のもとでの画像。The image under the uniform illumination of the measurement area | region containing the area | region where the reflectance differs in the past and this invention. 図16の画像におけるx0方向に沿った輝度値変化を示すグラフ。The graph which shows the luminance value change along the x0 direction in the image of FIG. (a)〜(d)はそれぞれ図16の画像を明度がx方向に正弦波状に変化する照明のもとで位相変化分を初期位相0から、π/2,π,3π/2とした場合のx0方向に沿った輝度値変化の計算値を示すグラフ。(A) to (d) in the case of changing the phase change amount from the initial phase 0 to π / 2, π, and 3π / 2 under the illumination in which the brightness of the image in FIG. 16 changes sinusoidally in the x direction. The graph which shows the calculated value of the luminance value change along x0 direction. (a)〜(d)はそれぞれ図18(a)〜(d)の輝度値に移動平均処理を行って輝度変化をぼかした状態のグラフ。(A)-(d) is a graph of the state which carried out the moving average process to the luminance value of FIG. 18 (a)-(d), respectively, and blurred the luminance change. 図18(a)〜(d)から算出した初期位相のx方向の変化を示すグラフと図19(a)〜(d)から算出した初期位相のx方向の変化を示すグラフを重ねて示したグラフ。The graph showing the change in the x direction of the initial phase calculated from FIGS. 18A to 18D is overlapped with the graph showing the change in the x direction of the initial phase calculated from FIGS. 19A to 19D. Graph. 図20のD部を拡大したグラフ。The graph which expanded the D section of FIG.

符号の説明Explanation of symbols

1 3次元形状計測装置
2 撮像部
3 投影部
4 計測処理部
5 パターン変化方向
10 計測領域
20 撮像部光軸
30 投影用光軸
g 画素
h 勾配方向
G 画像
SP 縞パターン
X,Y,Z 3次元座標
DESCRIPTION OF SYMBOLS 1 3D shape measuring device 2 Imaging part 3 Projection part 4 Measurement processing part 5 Pattern change direction 10 Measurement area 20 Imaging part Optical axis 30 Projection optical axis g Pixel h Gradient direction G Image SP Stripe pattern X, Y, Z 3D Coordinate

Claims (4)

明度が正弦波状に変化する縞パターンを異なる位相で3回以上被計測物体に投影して一定位置から複数の画像を撮像し、これらの画像を用いて画像中の各画素毎に被計測物体の3次元座標を求める位相シフト法による3次元形状計測方法において、
被計測物体の計測領域上方に撮像部を設置し、前記撮像部の光軸と1つの投影用光軸とで構成される平面を複数設定し、前記平面の1つについて該平面に対して所定の角度を有しかつ前記撮像部の光軸に直交する直線の方向としたパターン変化方向に沿って明度が変化する縞パターンを該平面を構成する投影用光軸方向から前記計測領域に投影すると共に前記撮像部によって撮像して位相シフト法により該計測領域の3次元座標を取得するステップを、前記各平面について独立に行うことにより複数種類の3次元座標データを取得する座標計測ステップと、
前記計測領域を均一な照明光のもとで撮像した画像を微分処理し該画像中の画素毎に輝度の勾配方向を求めるステップを、前記各平面について独立に、前記投影用光軸方向からの照明と前記撮像部による撮像とによって行うことにより複数種類の勾配方向データを取得する勾配取得ステップと、
前記各平面毎の3次元座標データと勾配方向データとから成る複数の組における互いに他の組の画像中の画素に対応する各画素について、それぞれ前記輝度の勾配方向と前記パターン変化方向とのなす角度または該角度に相当する傾き成分を求め、各組における当該画素に対する3次元座標をこれらの角度または傾き成分に基づいて合成して当該画素における3次元座標の計測結果とする画素データ決定ステップと、を含むことを特徴とする3次元形状計測方法。
A fringe pattern whose brightness changes in a sine wave shape is projected onto the object to be measured three or more times with different phases, and a plurality of images are taken from a certain position. Using these images, the object to be measured is detected for each pixel in the image. In the three-dimensional shape measurement method by the phase shift method for obtaining three-dimensional coordinates,
An imaging unit is installed above the measurement area of the object to be measured, a plurality of planes configured by the optical axis of the imaging unit and one projection optical axis are set, and one of the planes is predetermined with respect to the plane. A fringe pattern whose brightness changes along a pattern change direction having a straight line direction orthogonal to the optical axis of the image pickup unit is projected onto the measurement region from the direction of the projection optical axis constituting the plane. And a coordinate measurement step of acquiring a plurality of types of three-dimensional coordinate data by independently performing the step of acquiring the three-dimensional coordinates of the measurement region by the phase shift method by imaging with the imaging unit,
The step of differentiating an image obtained by imaging the measurement area under uniform illumination light and obtaining a luminance gradient direction for each pixel in the image is independently performed for each plane from the direction of the optical axis for projection. A gradient acquisition step of acquiring a plurality of types of gradient direction data by performing illumination and imaging by the imaging unit;
For each pixel corresponding to a pixel in another set of images in a plurality of sets of three-dimensional coordinate data and gradient direction data for each plane, the luminance gradient direction and the pattern change direction are respectively formed. A pixel data determining step of obtaining an angle or an inclination component corresponding to the angle, and combining three-dimensional coordinates for the pixel in each set based on the angle or inclination component to obtain a measurement result of the three-dimensional coordinates in the pixel; The three-dimensional shape measuring method characterized by including.
前記画素データ決定ステップは、前記3次元座標を合成する際に、前記複数の組における輝度の勾配方向と前記パターン変化方向とのなす角度を互いに比較して90゜により近い角度を与える組から3次元座標を選択して当該画素における計測結果とすることを特徴とする請求項1に記載の3次元形状計測方法。   In the pixel data determining step, when the three-dimensional coordinates are synthesized, the angle formed by the gradient direction of the brightness and the pattern change direction in the plurality of sets is compared with each other to give an angle closer to 90 °. The three-dimensional shape measurement method according to claim 1, wherein a dimensional coordinate is selected to obtain a measurement result at the pixel. 前記画素データ決定ステップは、前記勾配取得ステップにおける微分処理による微分値の大きさが前記複数の組における互いに対応する画素のいずれについても予め定めた閾値より小さくなる場合には、前記各組における当該画素に対する3次元座標を互いに均等に合成して当該画素における3次元座標の計測結果とすることを特徴とする請求項1に記載の3次元形状計測方法。   In the pixel data determination step, when the magnitude of the differential value obtained by the differential processing in the gradient acquisition step is smaller than a predetermined threshold value for any of the corresponding pixels in the plurality of sets, the pixel data determination step The three-dimensional shape measurement method according to claim 1, wherein the three-dimensional coordinates for the pixel are evenly combined with each other to obtain a measurement result of the three-dimensional coordinates at the pixel. 請求項1乃至請求項3のいずれか一項に記載の3次元形状計測方法を用いる3次元形状計測装置。   A three-dimensional shape measuring apparatus using the three-dimensional shape measuring method according to any one of claims 1 to 3.
JP2008044827A 2008-02-26 2008-02-26 Three-dimensional shape measuring method and apparatus Active JP5016520B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008044827A JP5016520B2 (en) 2008-02-26 2008-02-26 Three-dimensional shape measuring method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008044827A JP5016520B2 (en) 2008-02-26 2008-02-26 Three-dimensional shape measuring method and apparatus

Publications (2)

Publication Number Publication Date
JP2009204343A true JP2009204343A (en) 2009-09-10
JP5016520B2 JP5016520B2 (en) 2012-09-05

Family

ID=41146787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008044827A Active JP5016520B2 (en) 2008-02-26 2008-02-26 Three-dimensional shape measuring method and apparatus

Country Status (1)

Country Link
JP (1) JP5016520B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012013453A (en) * 2010-06-29 2012-01-19 Canon Inc Three-dimensional measurement device, three-dimensional measurement method and program
JP2012112952A (en) * 2010-11-19 2012-06-14 Koh Young Technology Inc Method and apparatus of profiling surface
JP2013534312A (en) * 2010-07-30 2013-09-02 ケーエルエー−テンカー コーポレイション Apparatus and method for three-dimensional inspection of wafer saw marks
EP2813808A2 (en) 2013-06-13 2014-12-17 Yamaha Hatsudoki Kabushiki Kaisha Three-dimensional optical shape measuring apparatus
JP2015078935A (en) * 2013-10-17 2015-04-23 株式会社キーエンス Three-dimensional image processor, three-dimensional image processing method, three-dimensional image processing program, and computer readable recording medium and recording device
CN104897083A (en) * 2015-06-11 2015-09-09 东南大学 Three-dimensional rapid measurement method for raster projection based on defocusing phase-unwrapping of projector
CN105043300A (en) * 2015-05-27 2015-11-11 东莞市盟拓光电科技有限公司 Three-dimensional measurement system capable of projecting to measured object simultaneously from multiple directions
CN105953745A (en) * 2015-12-29 2016-09-21 上海大学 Phase sensitivity maximization stripe projection measurement method
KR20170050058A (en) * 2015-10-29 2017-05-11 삼성전자주식회사 Apparatus and method of sensing depth information
CN109341588A (en) * 2018-10-08 2019-02-15 西安交通大学 A kind of measuring three-dimensional profile method of three systems approach visual angle of binocular structure light weighting
WO2020190284A1 (en) * 2019-03-19 2020-09-24 Hewlett-Packard Development Company, L.P. Emulating 3d textual patterns
JP2021110680A (en) * 2020-01-14 2021-08-02 株式会社デンソーウェーブ Three-dimensional measuring device
KR20210129771A (en) * 2020-04-20 2021-10-29 한국표준과학연구원 System and Method for 3D measurement of freeform surfaces based on deflectometry
US20220009259A1 (en) * 2019-03-19 2022-01-13 Hewlett-Packard Development Company, L.P. Emulating 3d textual patterns

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0719825A (en) * 1993-06-23 1995-01-20 Sharp Corp Substrate inspection apparatus
JPH07234113A (en) * 1994-02-24 1995-09-05 Mazda Motor Corp Method and apparatus for detecting shape
JPH09297846A (en) * 1996-04-30 1997-11-18 Murata Mach Ltd Picture recognition device
JPH11257930A (en) * 1998-03-13 1999-09-24 Nidek Co Ltd Three-dimensional shape measuring apparatus
JP2004361142A (en) * 2003-06-02 2004-12-24 Yamatake Corp Three-dimensional measuring instrument and three-dimensional measurement method
JP2006145405A (en) * 2004-11-19 2006-06-08 Fukuoka Institute Of Technology Three-dimensional measuring instrument, method, and program
JP2011504586A (en) * 2007-11-15 2011-02-10 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method for optically measuring the three-dimensional shape of an object

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0719825A (en) * 1993-06-23 1995-01-20 Sharp Corp Substrate inspection apparatus
JPH07234113A (en) * 1994-02-24 1995-09-05 Mazda Motor Corp Method and apparatus for detecting shape
JPH09297846A (en) * 1996-04-30 1997-11-18 Murata Mach Ltd Picture recognition device
JPH11257930A (en) * 1998-03-13 1999-09-24 Nidek Co Ltd Three-dimensional shape measuring apparatus
JP2004361142A (en) * 2003-06-02 2004-12-24 Yamatake Corp Three-dimensional measuring instrument and three-dimensional measurement method
JP2006145405A (en) * 2004-11-19 2006-06-08 Fukuoka Institute Of Technology Three-dimensional measuring instrument, method, and program
JP2011504586A (en) * 2007-11-15 2011-02-10 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method for optically measuring the three-dimensional shape of an object

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012013453A (en) * 2010-06-29 2012-01-19 Canon Inc Three-dimensional measurement device, three-dimensional measurement method and program
JP2013534312A (en) * 2010-07-30 2013-09-02 ケーエルエー−テンカー コーポレイション Apparatus and method for three-dimensional inspection of wafer saw marks
US9140546B2 (en) 2010-07-30 2015-09-22 Kla-Tencor Corporation Apparatus and method for three dimensional inspection of wafer saw marks
US8982330B2 (en) 2010-11-19 2015-03-17 Koh Young Technology Inc. Method and apparatus of profiling a surface
JP2012112952A (en) * 2010-11-19 2012-06-14 Koh Young Technology Inc Method and apparatus of profiling surface
KR101615946B1 (en) * 2013-06-13 2016-04-27 야마하하쓰도키 가부시키가이샤 Three-dimensional shape measuring apparatus
CN104236481A (en) * 2013-06-13 2014-12-24 雅马哈发动机株式会社 Three-dimensional shape measuring apparatus
KR20140145541A (en) * 2013-06-13 2014-12-23 야마하하쓰도키 가부시키가이샤 Three-dimensional shape measuring apparatus
EP2813808A2 (en) 2013-06-13 2014-12-17 Yamaha Hatsudoki Kabushiki Kaisha Three-dimensional optical shape measuring apparatus
US9441957B2 (en) 2013-06-13 2016-09-13 Yamaha Hatsudoki Kabushiki Kaisha Three-dimensional shape measuring apparatus
JP2015001381A (en) * 2013-06-13 2015-01-05 ヤマハ発動機株式会社 Three-dimensional shape measurement device
JP2015078935A (en) * 2013-10-17 2015-04-23 株式会社キーエンス Three-dimensional image processor, three-dimensional image processing method, three-dimensional image processing program, and computer readable recording medium and recording device
CN105043300A (en) * 2015-05-27 2015-11-11 东莞市盟拓光电科技有限公司 Three-dimensional measurement system capable of projecting to measured object simultaneously from multiple directions
CN104897083A (en) * 2015-06-11 2015-09-09 东南大学 Three-dimensional rapid measurement method for raster projection based on defocusing phase-unwrapping of projector
KR102486385B1 (en) 2015-10-29 2023-01-09 삼성전자주식회사 Apparatus and method of sensing depth information
KR20170050058A (en) * 2015-10-29 2017-05-11 삼성전자주식회사 Apparatus and method of sensing depth information
CN105953745A (en) * 2015-12-29 2016-09-21 上海大学 Phase sensitivity maximization stripe projection measurement method
CN109341588A (en) * 2018-10-08 2019-02-15 西安交通大学 A kind of measuring three-dimensional profile method of three systems approach visual angle of binocular structure light weighting
US20220009259A1 (en) * 2019-03-19 2022-01-13 Hewlett-Packard Development Company, L.P. Emulating 3d textual patterns
WO2020190284A1 (en) * 2019-03-19 2020-09-24 Hewlett-Packard Development Company, L.P. Emulating 3d textual patterns
US11574433B2 (en) * 2019-03-19 2023-02-07 Hewlett-Packard Development Company, L.P. Emulating 3D textual patterns
US11801699B2 (en) * 2019-03-19 2023-10-31 Hewlett-Packard Development Company, L.P. Emulating 3D textual patterns
JP2021110680A (en) * 2020-01-14 2021-08-02 株式会社デンソーウェーブ Three-dimensional measuring device
JP7276166B2 (en) 2020-01-14 2023-05-18 株式会社デンソーウェーブ Three-dimensional measuring device
KR20210129771A (en) * 2020-04-20 2021-10-29 한국표준과학연구원 System and Method for 3D measurement of freeform surfaces based on deflectometry
KR102366954B1 (en) * 2020-04-20 2022-02-28 한국표준과학연구원 System and Method for 3D measurement of freeform surfaces based on deflectometry

Also Published As

Publication number Publication date
JP5016520B2 (en) 2012-09-05

Similar Documents

Publication Publication Date Title
JP5016520B2 (en) Three-dimensional shape measuring method and apparatus
JP5055191B2 (en) Three-dimensional shape measuring method and apparatus
JP5576726B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and program
JP5123522B2 (en) 3D measurement method and 3D shape measurement apparatus using the same
JP5252820B2 (en) 3D measurement method and 3D shape measurement apparatus using the same
JP4830871B2 (en) 3D shape measuring apparatus and 3D shape measuring method
WO2018163530A1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and program
KR101445831B1 (en) 3D measurement apparatus and method
JP2009019941A (en) Shape measuring method
US8659765B2 (en) Three-dimensional shape determining apparatus and three-dimensional shape determining method
JP2024029135A (en) Three-dimensional sensor with opposing channels
JP5391053B2 (en) 3D shape measuring method and 3D shape measuring apparatus
JP4797109B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2012514192A (en) 3D measurement method of object surface especially for dentistry
CN107810384B (en) Stripe projection method, stripe projection apparatus, and computer program product
US7609389B2 (en) Measurement apparatus for measuring surface map
JP2012068176A (en) Three-dimensional shape measuring apparatus
JP6567199B2 (en) Distance measuring device, distance measuring method, and distance measuring program
EP3070432B1 (en) Measurement apparatus
JP2008170282A (en) Shape measuring device
Abzal et al. Development of a new dual‐pattern fringe projection scanner
JP2016008837A (en) Shape measuring method, shape measuring device, structure manufacturing system, structure manufacturing method, and shape measuring program
US20140104418A1 (en) Image capturing apparatus, control method of image capturing apparatus, three-dimensional measurement apparatus, and storage medium
JP2016008838A (en) Shape measuring device, structure manufacturing system, shape measuring method, and structure manufacturing method
JP2014194436A (en) Three-dimensional measurement device, three-dimensional measurement method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100824

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120608

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5016520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250