JP5252820B2 - 3D measurement method and 3D shape measurement apparatus using the same - Google Patents

3D measurement method and 3D shape measurement apparatus using the same Download PDF

Info

Publication number
JP5252820B2
JP5252820B2 JP2007083049A JP2007083049A JP5252820B2 JP 5252820 B2 JP5252820 B2 JP 5252820B2 JP 2007083049 A JP2007083049 A JP 2007083049A JP 2007083049 A JP2007083049 A JP 2007083049A JP 5252820 B2 JP5252820 B2 JP 5252820B2
Authority
JP
Japan
Prior art keywords
value
measurement
phase
luminance
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007083049A
Other languages
Japanese (ja)
Other versions
JP2008241483A (en
Inventor
健一郎 野坂
智治 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2007083049A priority Critical patent/JP5252820B2/en
Publication of JP2008241483A publication Critical patent/JP2008241483A/en
Application granted granted Critical
Publication of JP5252820B2 publication Critical patent/JP5252820B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、位相シフト法を用いた画像処理によって計測対象物の計測領域における3次元形状を計測する3次元計測方法及びその装置に関する。   The present invention relates to a three-dimensional measurement method and apparatus for measuring a three-dimensional shape in a measurement region of a measurement object by image processing using a phase shift method.

一般に、物体の3次元形状を非接触で計測する方法としては、例えば、高速且つ高精度の計測が可能な位相シフト法が挙げられる。この位相シフト法では、まず、計測対象物に正弦波形状の縞パターンを投影してカメラで撮像する過程を、縞パターンの位相を一定間隔(例えば、π/2)でずらして複数回実行する。次に、撮像して得られた複数枚の撮像画像の各画素における輝度値の変化から縞パターンの位相情報を算出し、この位相情報に基づいて計測対象物の計測領域における3次元形状の演算を行う。   In general, as a method for measuring the three-dimensional shape of an object in a non-contact manner, for example, there is a phase shift method capable of high-speed and high-precision measurement. In this phase shift method, first, a process of projecting a sinusoidal fringe pattern onto a measurement object and imaging with a camera is executed a plurality of times while shifting the phase of the fringe pattern at a constant interval (for example, π / 2). . Next, the phase information of the fringe pattern is calculated from the change of the luminance value at each pixel of the plurality of captured images obtained by imaging, and the calculation of the three-dimensional shape in the measurement region of the measurement object based on this phase information I do.

従って、位相シフト法では、計測対象物の反射率、撮像の際のノイズの重畳や正弦波形状の歪等の影響によって、上述した輝度値の信頼性が低下すると、正確な縞パターンの位相情報を求めることができず、3次元形状の計測精度が低下する虞がある。そこで、3次元形状の計測過程において輝度値の信頼性を評価する等、位相シフト法による計測を高精度化するための種々の技術が開発されている。   Therefore, in the phase shift method, if the reliability of the above-described luminance value decreases due to the influence of the reflectivity of the measurement object, noise superposition during imaging, distortion of the sine wave shape, or the like, accurate phase information of the fringe pattern Cannot be obtained, and the measurement accuracy of the three-dimensional shape may be reduced. Accordingly, various techniques have been developed to improve the measurement by the phase shift method, such as evaluating the reliability of the luminance value in the measurement process of the three-dimensional shape.

例えば、特許文献1では、縞パターンを投影する投影光学部を複数配置し、それぞれ異なる方向から計測対象物を投影して撮像し、これにより得られる複数枚の撮像画像の各画素における輝度値の変化の大きさ(コントラストの強さ)を比較し、コントラストが最も大きい投影方向からのデータを基に計測対象物の立体情報を演算する技術が開示されている。   For example, in Patent Document 1, a plurality of projection optical units that project a fringe pattern are arranged, the measurement object is projected and imaged from different directions, and the luminance value of each pixel of a plurality of captured images obtained thereby is captured. A technique is disclosed in which the magnitude of change (the strength of contrast) is compared, and the three-dimensional information of the measurement object is calculated based on data from the projection direction with the highest contrast.

また、特許文献2では、輝度飽和領域、コントラスト低下領域、コントラスト低下領域の境界領域及び位相エラー領域を抽出する位相値信頼性判定部を設け、算出される縞パターンの位相情報が信頼できない上記領域においては、別途再測定を行う等して、信頼性の高い位相情報を取得し、全体として精度の高い3次元計測を可能にした技術が開示されている。
特開2004−309240号公報 特開2006−23178号公報
Further, in Patent Document 2, a phase value reliability determination unit that extracts a luminance saturation region, a contrast reduction region, a boundary region of the contrast reduction region, and a phase error region is provided, and the above-described region where the phase information of the calculated fringe pattern is not reliable Discloses a technique that enables highly accurate three-dimensional measurement as a whole by acquiring phase information with high reliability by separately performing re-measurement or the like.
JP 2004-309240 A JP 2006-23178 A

しかしながら、上述のような従来技術においては、コントラストの低下による計測精度の低下や輝度値の飽和による誤計測への対応等は可能であるが、計測対象物に反射率の異なる部分がある場合には、この境界付近において撮像のボケが生じて誤計測が発生していた。そのため、計測に際し計測対象物を白塗装する等して、計測対象物の反射率を一定にする必要があった。故に、位相シフト法は、計測対象物への塗装が許される分野、例えば、リバースエンジニアリングやモデリング等には使用されているが、塗装が許されない分野、例えば、生産ラインにおけるワークの外観検査等には使用されていなかった。   However, in the conventional technology as described above, it is possible to cope with a decrease in measurement accuracy due to a decrease in contrast or an erroneous measurement due to saturation of a luminance value. In the vicinity of this boundary, imaging blurring occurred and erroneous measurement occurred. Therefore, it has been necessary to make the reflectance of the measurement object constant by, for example, painting the measurement object white during measurement. Therefore, the phase shift method is used in fields where painting on the measurement object is permitted, for example, reverse engineering and modeling, but is not permitted in painting, for example, visual inspection of workpieces on the production line. Was not used.

ところで、上記ワークの外観検査は、現在、撮像画像の輝度情報からエッジ等の2次元的な画像特徴を抽出し、計測領域における種々の関係を特徴計測で求める画像処理によって行われている。一方で、近年、計測対象物を構成する製品のコストダウンや計測対象物の複雑化が進むことに伴って、計測対象物におけるロス率のさらなる削減が求められ、より精度の高い検査が必要とされている。例えば、成形品の外観検査では、成形品の上に載ったゴミ、成形品の表面に埋め込まれた異物や表面の変色等の識別が必要とされている。このような識別性が必要とされるのは、成形品の上に載ったゴミは後工程で拭き取ることができるので不良と判断されないが、成形品の樹脂の中に埋まっている異物や樹脂の変色は修正ができないので不良と判断されるためである。   Incidentally, the appearance inspection of the workpiece is currently performed by image processing in which two-dimensional image features such as edges are extracted from the luminance information of the captured image and various relationships in the measurement region are obtained by feature measurement. On the other hand, in recent years, as the cost of products that make up the measurement object has been reduced and the complexity of the measurement object has progressed, further reduction in the loss rate of the measurement object is required, and more accurate inspection is required. Has been. For example, in the appearance inspection of a molded product, it is necessary to identify dust placed on the molded product, foreign matter embedded in the surface of the molded product, discoloration of the surface, and the like. Such discriminability is required because the dust placed on the molded product can be wiped off in a later process, so it is not judged as defective, but the foreign material or resin embedded in the resin of the molded product This is because the discoloration cannot be corrected and is judged to be defective.

しかしながら、上述した画像処理では、成形品の上に載ったゴミ、成形品の表面に埋め込まれた異物や表面の変色等は正常部分との濃淡が異なるので、それらを一様に不良として検出することは可能であるが、それらをそれぞれ識別して検出することは困難であり、これらの理由で不良と判断されたものは、再度作業者がチェックするか、不良とみなし破棄するしかなかった。ここで、再度作業者がチェックする場合には、作業工数が余分にかかり、破棄する場合には、拭き取れば良品となるものを捨てることになるので、歩留まりが下がり、どちらの場合も製品のコストアップにつながる無駄なコストを発生させていた。   However, in the above-described image processing, the dust on the molded product, the foreign matter embedded in the surface of the molded product, the discoloration of the surface, and the like are different from the normal part, so they are detected as uniform defects. However, it is difficult to identify and detect each of them, and those judged as defective for these reasons have to be checked again by the operator or regarded as defective and discarded. Here, if the operator checks again, it takes extra work man-hours, and if it is discarded, it will throw away non-defective items if wiped off. It was generating useless costs leading to up.

本発明は、上記問題を解決するためになされたものであり、計測対象物が複数の反射率を有する場合であっても、撮像のボケによる影響を排除して計測領域における3次元形状を高速且つ高精度に計測できるようにすることで、計測領域における識別性能を向上させた3次元計測方法及びそれを用いた装置を提供することを目的とする。   The present invention has been made to solve the above-described problem. Even when a measurement object has a plurality of reflectances, the influence of blurring of imaging is eliminated, and a three-dimensional shape in a measurement region is accelerated. It is another object of the present invention to provide a three-dimensional measurement method and an apparatus using the same, in which discrimination performance in a measurement region is improved by enabling measurement with high accuracy.

上記目的を達成するために請求項1の発明は、計測対象物に縞パターンを当該縞パターンの位相をシフトさせて複数回投影して撮像する位相シフト法を用いることにより、計測対象物が複数の反射率を有する場合の計測対象物の計測領域における3次元形状を計測する3次元計測方法であって、前記計測領域における画像から得られる輝度値分布を縞パターンに直交する方向に微分した輝度微分値と、計測対象物の反射率の差異が縞パターンから得られる位相値に及ぼす影響を補正するための位相補正値との補正関係を予め求めておき、3次元形状を計測する際に、前記計測領域から輝度微分値を算出し、前記補正関係から得られる位相補正値に基づいて前記反射率の差異による影響を受けた位相値を補正し、前記補正された位相値を、位相シフト法を用いて計算を行うことにより、前記計測領域における3次元形状を計測するものである。   In order to achieve the above object, the invention of claim 1 uses a phase shift method in which a fringe pattern is projected onto a measurement object by shifting the phase of the fringe pattern and projected a plurality of times to obtain a plurality of measurement objects. A three-dimensional measurement method for measuring a three-dimensional shape in a measurement region of a measurement object having a reflectance of a luminance obtained by differentiating a luminance value distribution obtained from an image in the measurement region in a direction orthogonal to a fringe pattern When obtaining a correction relationship between the differential value and the phase correction value for correcting the influence of the difference in reflectance of the measurement object on the phase value obtained from the fringe pattern in advance, when measuring a three-dimensional shape, A luminance differential value is calculated from the measurement region, the phase value affected by the difference in reflectance is corrected based on the phase correction value obtained from the correction relationship, and the corrected phase value is converted into the phase By performing calculation using the shift method, and measures the three-dimensional shape of the measurement region.

請求項2の発明は、請求項1に記載の3次元計測方法において、前記計測対象物の表面反射率が異なる2種類のもので構成されており、測定時におけるそれぞれの輝度値(L1、L2)が既知の場合において、前記補正関係を、(a)前記それぞれの輝度値(L1、L2)と、(b)前記計測領域について前記輝度値分布の縞パターンを直交する方向の輝度値を前記それぞれの輝度値の平均値((L1+L2)/2)をしきい値として2値化して求めた理想的なエッジでの輝度値に基づいて求まるMTFの形状から推定される標準偏差σの値と、の値に対応した位相補正値の補正テーブルとして求めておき、3次元形状を計測する際に、前記補正テーブルに基づいて、前記反射率の差異による影響を受けた位相値を補正して前記計測領域における3次元形状を計測するものである。 According to a second aspect of the present invention, in the three-dimensional measurement method according to the first aspect, the measurement object is composed of two types having different surface reflectances, and the respective luminance values (L1, L2) at the time of measurement. ) in the case is known, said correction relation, and (a) the respective luminance values (L1, L2), wherein the luminance value in a direction perpendicular to (b) stripe pattern of the measuring region and the luminance value distribution for The standard deviation σ estimated from the shape of the MTF obtained based on the luminance value at the ideal edge obtained by binarizing the average value ((L1 + L2) / 2) of the respective luminance values as a threshold value; As a correction table of phase correction values corresponding to the above values, when measuring a three-dimensional shape, the phase value affected by the difference in reflectivity is corrected based on the correction table, and the In the measurement area It is intended to measure the three-dimensional shape that.

請求項3の発明は、請求項1又は請求項2に記載の発明において、前記計測領域の輝度値分布を得た後に、前記画像の平滑化処理をして輝度微分値を算出するものである。 According to a third aspect of the invention, in the first or second aspect of the invention, after obtaining the luminance value distribution of the measurement region, the image is smoothed to calculate a luminance differential value. .

請求項4の発明は、請求項1乃至請求項3の何れか一項に記載の発明において、予め求めておいた複数の補正関係の中から、前記算出された輝度微分値を前記方向にさらに微分することで得られる輝度2次微分値を用いて、特定の補正関係を選択するものである。 According to a fourth aspect of the invention, in the invention according to any one of the first to third aspects, the calculated luminance differential value is further increased in the direction from a plurality of correction relationships obtained in advance. A specific correction relationship is selected using a luminance second-order differential value obtained by differentiation.

請求項5の発明は、請求項1乃至請求項4の何れか一項に記載の発明において、前記算出された輝度微分値が予め設定した規定値以上である場合に限り、前記反射率の差異による影響を受けた位相値を補正する。 A fifth aspect of the present invention is the invention according to any one of the first to fourth aspects, wherein the difference in reflectance is limited only when the calculated luminance differential value is equal to or greater than a preset specified value. The phase value affected by is corrected.

請求項6の発明は、光の輝度が変化する縞パターンを計測対象物に投影する縞パターン投影部と、縞パターンが投影された計測対象物を撮像する撮像部と、前記撮像部から出力される画像データに基づいて、計測対象物の計測領域における3次元形状を計測するための演算を行う3次元計測処理部と、を備えた3次元形状計測装置において、前記計測領域における画像から得られる輝度値分布を縞パターンに直交する方向に微分した輝度微分値と、計測対象物の反射率の差異が縞パターンから得られる位相値に及ぼす影響を補正するための位相補正値との補正関係を予め求めて記憶させる記憶部を備え、前記3次元計測処理部は、3次元形状を計測する際に、前記計測領域から輝度微分値を算出し、前記補正関係から得られる位相補正値に基づいて前記反射率の差異による影響を受けた位相値を補正し、前記補正された位相値を位相シフト法を用いて計算を行うことにより、計測対象物が複数の反射率を有する場合の前記計測領域における3次元形状を計測するものである。 According to a sixth aspect of the present invention, a fringe pattern projecting unit that projects a fringe pattern whose light luminance changes on a measurement object, an imaging unit that images the measurement object on which the fringe pattern is projected, and the imaging unit are output. Obtained from an image in the measurement region, in a three-dimensional shape measurement apparatus comprising: a three-dimensional measurement processing unit that performs a calculation for measuring a three-dimensional shape in a measurement region of a measurement target based on image data to be measured The correction relationship between the luminance differential value obtained by differentiating the luminance value distribution in the direction perpendicular to the fringe pattern and the phase correction value for correcting the influence of the difference in reflectance of the measurement object on the phase value obtained from the fringe pattern. A storage unit that is obtained and stored in advance, and the three-dimensional measurement processing unit calculates a differential luminance value from the measurement region when measuring a three-dimensional shape, and based on the phase correction value obtained from the correction relationship. And correcting the phase value affected by the difference in reflectance, and calculating the corrected phase value using a phase shift method, whereby the measurement object has a plurality of reflectances. The three-dimensional shape in the region is measured.

請求項1の発明によれば、計測対象物の反射率の差異による影響を排除した位相値を算出することができるので、計測領域における3次元形状を高精度に計測することができる。   According to the first aspect of the present invention, it is possible to calculate the phase value excluding the influence due to the difference in the reflectance of the measurement object, so that the three-dimensional shape in the measurement region can be measured with high accuracy.

請求項2の発明によれば、計測対象物が撮像する方向に大きく異なる部分を有した場合であっても、反射率の差異による影響を排除して高精度に計測することができる。   According to the second aspect of the present invention, even when the measurement object has a portion that differs greatly in the imaging direction, it is possible to measure with high accuracy by eliminating the influence of the difference in reflectance.

請求項3の発明によれば、ノイズによる輝度微分値への影響を低減させることができ、3次元形状をより一層高精度に計測することができる。 According to the invention of claim 3 , it is possible to reduce the influence of the noise on the luminance differential value, and to measure the three-dimensional shape with higher accuracy.

請求項4の発明によれば、計測対象物の反射率の差異による影響を確実に排除することができるので、3次元形状をより一層高精度に計測することができる。 According to the invention of claim 4, since the influence due to the difference in reflectance of the measurement object can be surely eliminated, the three-dimensional shape can be measured with higher accuracy.

請求項5の発明によれば、ノイズによる輝度値の細かい(瞬間的な)変動の影響を排除することができるので、3次元形状をより一層高精度且つ高速に計測することができる。 According to the fifth aspect of the invention, it is possible to eliminate the influence of fine (instantaneous) fluctuations in the luminance value due to noise, so that the three-dimensional shape can be measured with higher accuracy and at higher speed.

請求項6の発明によれば、計測対象物が複数の反射率を有する場合であっても、計測領域における3次元形状を高精度に計測することができる3次元形状計測装置が得られる。 According to the invention of claim 6 , even if the measurement object has a plurality of reflectances, a three-dimensional shape measuring apparatus capable of measuring the three-dimensional shape in the measurement region with high accuracy can be obtained.

(第1の実施形態)
本発明の第1の実施形態に係る3次元計測方法について図1乃至図13を参照して説明する。本実施形態が適用されるのは、計測対象物の表面が反射率の異なる二種類のもので構成されており、計測時におけるそれぞれの輝度値(L1,L2)が既知であり、さらに、光学系による撮像のボケの度合いを表すσの値も既知(計測対象物の計測領域において一定)である場合が考えられる。例えば、平面である白地の紙に単色のインクで文字が描かれているものを3次元計測する場合等に相当する。図1は、本実施形態の3次元計測方法を実行できる3次元形状計測装置の概略構成を示す。3次元形状計測装置1は、位相シフト法を用いて、計測対象物の計測領域における3次元形状を非接触で計測するためのものであって、計測対象物6に光の輝度が正弦波状に変化する縞パターンを投影する縞パターン投影ユニット2(縞パターン投影部)と、縞パターンが投影された計測対象物6を撮像する撮像ユニット3(撮像部)と、縞パターン投影ユニット2及び撮像ユニット3を制御すると共に、それらのユニットから出力された各種データに基づいて計測領域における3次元形状を計測するための各種処理を行う3次元計測処理ユニット4(3次元計測処理部)と、計算結果及び撮像画像等を表示する表示ユニット5とを備える。
(First embodiment)
A three-dimensional measurement method according to the first embodiment of the present invention will be described with reference to FIGS. This embodiment is applied because the surface of the measurement object is composed of two types having different reflectivities, the respective luminance values (L1, L2) at the time of measurement are known, and further, optical It is conceivable that the value of σ representing the degree of blurring of imaging by the system is also known (constant in the measurement region of the measurement object). For example, this corresponds to a case where three-dimensional measurement is performed on a white paper that is a flat surface and characters are drawn with a single color ink. FIG. 1 shows a schematic configuration of a three-dimensional shape measuring apparatus that can execute the three-dimensional measuring method of the present embodiment. The three-dimensional shape measurement apparatus 1 is for measuring a three-dimensional shape in a measurement region of a measurement object in a non-contact manner using a phase shift method, and the luminance of light on the measurement object 6 is sinusoidal. A fringe pattern projection unit 2 (stripe pattern projection unit) that projects a changing fringe pattern, an imaging unit 3 (imaging unit) that images a measurement object 6 on which the stripe pattern is projected, a fringe pattern projection unit 2 and an imaging unit 3, a 3D measurement processing unit 4 (3D measurement processing unit) that performs various processes for measuring a 3D shape in the measurement region based on various data output from these units, and a calculation result And a display unit 5 for displaying captured images and the like.

縞パターン投影ユニット2は、照明部21と、縞パターン生成部22と、投影光学部23とを備える。照明部21は、光源と光源からの光を平行光に変換するコンデンサーレンズとで構成され、縞パターン生成部22は透過型液晶と偏光板とで構成される。投影光学部23は、縞パターン生成部22で作られた縞パターンを計測対象物6に投影するためのレンズである。これによって、縞パターン投影ユニット2は、縞パターンの投影ができ、さらに、縞パターン生成部22を取り外すことで、一様な光の投影ができる。なお、本実施形態においては、縞パターン生成部22に透過型液晶と偏光板を使用したが、反射型液晶と偏光板との組合せ、フィルムに焼き付けた縞パターンと所定の間隔で位相をずらすためのアクチュエータとの組合せ及びデジタルミラーデバイス(DMD)でも同等の機能を実現することができる。   The fringe pattern projection unit 2 includes an illumination unit 21, a fringe pattern generation unit 22, and a projection optical unit 23. The illumination unit 21 includes a light source and a condenser lens that converts light from the light source into parallel light, and the stripe pattern generation unit 22 includes a transmissive liquid crystal and a polarizing plate. The projection optical unit 23 is a lens for projecting the fringe pattern created by the fringe pattern generation unit 22 onto the measurement object 6. Thereby, the fringe pattern projection unit 2 can project the fringe pattern, and further, by removing the fringe pattern generation unit 22, it can project the uniform light. In the present embodiment, the transmissive liquid crystal and the polarizing plate are used for the fringe pattern generation unit 22. However, in order to shift the phase at a predetermined interval from the combination of the reflective liquid crystal and the polarizing plate, the fringe pattern baked on the film. Equivalent functions can be realized with a combination of the actuator and digital mirror device (DMD).

撮像ユニット3は、被写体の像を光電変換するための撮像素子31と、計測対象物6の像を撮像素子31上に作るための光学レンズから成る撮像光学部32と、を備える。これによって、計測対象物6に投影され、その表面上で変形された縞パターン等の像が撮像光学部32により結像される。撮像素子31は、この縞パターン等の像を画像信号に変換して出力する。   The imaging unit 3 includes an imaging element 31 for photoelectrically converting a subject image and an imaging optical unit 32 including an optical lens for creating an image of the measurement object 6 on the imaging element 31. Thereby, an image such as a fringe pattern projected onto the measurement object 6 and deformed on the surface thereof is formed by the imaging optical unit 32. The image sensor 31 converts an image such as a stripe pattern into an image signal and outputs the image signal.

3次元計測処理ユニット4は、縞パターンデータ作成部41と、投影・撮像制御部42と、メモリ43と、演算部44と、を備える。縞パターンデータ作成部41は、縞パターン生成部22において縞パターンを生成するための縞パターンデータを作成する。投影・撮像制御部42は、縞パターンデータを縞パターン投影ユニット2に転送し、この縞パターンデータに基づいて投影して撮像するための制御を行う。メモリ43は、縞パターン投影ユニット2で設定されたカメラ分解能、入射角度、縞パターンピッチ及び位相シフトステップ数や、撮像ユニット3で撮像された撮像画像、さらには、この撮像画像に後述する画像処理を施した画像等、各ユニットから出力されるデータを記録する。演算部44は、メモリ43内のデータを読み出して、計測対象物6の計測領域における3次元形状を計測するために、縞パターンの位相値の算出や撮像画像の画像処理等の各種演算を行う。表示ユニット5は、上記各部における処理の結果を表示するディスプレイ等である。   The three-dimensional measurement processing unit 4 includes a fringe pattern data creation unit 41, a projection / imaging control unit 42, a memory 43, and a calculation unit 44. The fringe pattern data creation unit 41 creates fringe pattern data for generating a fringe pattern in the fringe pattern generation unit 22. The projection / imaging control unit 42 transfers the fringe pattern data to the fringe pattern projection unit 2 and performs control for projecting and imaging based on the fringe pattern data. The memory 43 stores the camera resolution, the incident angle, the fringe pattern pitch, and the number of phase shift steps set in the fringe pattern projection unit 2, the captured image captured by the imaging unit 3, and image processing described later on the captured image. The data output from each unit, such as an image subjected to, is recorded. The calculation unit 44 reads out the data in the memory 43 and performs various calculations such as calculation of the phase value of the fringe pattern and image processing of the captured image in order to measure the three-dimensional shape of the measurement target 6 in the measurement region. . The display unit 5 is a display or the like that displays the processing results in the above-described units.

ところで、計測対象物が複数の反射率を有する場合、撮像ユニット3の撮像のボケによって、撮像画像の明暗の境界付近での、算出される縞パターンの位相値が正しい値からずれてしまうために、計測対象物の明暗の境界部分において誤計測が発生する。そこで、上述のメモリ43には、計測領域における画像から得られる輝度値分布を投影する縞パターンに直交する方向に微分した輝度微分値と、計測対象物の反射率の差異が縞パターンの位相値に及ぼす影響を補正するための位相補正値との補正関係を、計測を行う前に記憶させておく。   By the way, when the measurement object has a plurality of reflectances, the phase value of the calculated fringe pattern near the boundary of the light and darkness of the captured image is shifted from the correct value due to the blur of the imaging of the imaging unit 3. Incorrect measurement occurs at the boundary between the light and dark of the measurement object. Therefore, in the above-described memory 43, the difference between the luminance differential value obtained by differentiating the luminance value distribution obtained from the image in the measurement region in the direction orthogonal to the stripe pattern and the reflectance of the measurement object is the phase value of the stripe pattern. The correction relationship with the phase correction value for correcting the influence on the image is stored before measurement.

この補正関係は、コントラストがある平面上に正弦波の縞模様を投影し、その後光学系によるボケが生じたときに縞パターンの位相値を復元するシミュレーションを、コンピュータ等を使用して実行することにより求める。ここで、このシミュレーションの手順について説明する。図2乃至図10は、このシミュレーションにおける下記の各状態を示す。   This correction relationship is to execute a simulation using a computer or the like to project a sine wave stripe pattern on a plane with contrast and then restore the phase value of the stripe pattern when blurring occurs due to the optical system. Ask for. Here, the procedure of this simulation will be described. 2 to 10 show the following states in this simulation.

まず、計測対象物の表面に明るい領域と暗い領域によるコントラストがある状態を、図2に示すように、明るい方と暗い方の二つの輝度値(L1,L2)だけが存在する状態とし、x,y座標を設定してx方向の輝度値分布で表現する。   First, a state where there is a contrast between a bright area and a dark area on the surface of an object to be measured is a state in which only two brightness values (L1, L2) of brighter and darker exist as shown in FIG. , y coordinate is set and expressed by x-direction luminance value distribution.

次に、図3に示すように、この輝度値分布(図2)に、初期位相0,π/2,π,3π/2の4種類の正弦波を重ね合わせた輝度値分布を生成する。このとき、正弦波の位相方向がx方向になるように重ね合わせる。さらに、図4に示すように、これらの輝度値分布(図3)それぞれに標準偏差σの正規分布を用いた移動平均を行うことによってぼかし状態を生じさせる。これら、ぼかし前及びぼかし後の状態の輝度値分布がそれぞれ、撮像ユニット3側にボケがない場合の4枚の撮像画像の輝度値分布(図3(a)〜(d))と、ボケがある場合の4枚の撮像画像の輝度値分布((図4(a)〜(d))に相当する。   Next, as shown in FIG. 3, a luminance value distribution is generated by superimposing four types of sine waves of initial phases 0, π / 2, π, and 3π / 2 on this luminance value distribution (FIG. 2). At this time, superimposition is performed so that the phase direction of the sine wave is in the x direction. Furthermore, as shown in FIG. 4, a blurring state is generated by performing a moving average using a normal distribution with a standard deviation σ on each of these luminance value distributions (FIG. 3). The brightness value distributions before and after the blur are the brightness value distributions (FIGS. 3A to 3D) of the four captured images when there is no blur on the imaging unit 3 side. This corresponds to the luminance value distribution ((FIGS. 4A to 4D) of four captured images in a certain case.

次に、ぼかし前の(ボケがない)状態の輝度値分布(図3(a)〜(d))から縞パターンの位相値を算出し、ぼかし後の(ボケがある)状態の輝度値分布(図4(a)〜(d))から同じく縞パターンの位相値を算出する。図5は、これら縞パターンの位相値をそれぞれプロットしたものである。ここで、明暗(明るい領域と暗い領域)の境界付近において、2つの位相値に誤差が生じている部分が存在する。ぼかし前の状態が正しい位相値であるから、この二つの位相値の差(位相差P)、すなわちぼかし後の状態の位相値から、ぼかし前の状態の位相値を差し引いたものが、撮像のボケによる位相の誤差である。この位相差を位相補正値として、後述する位相値の補正の際に使用する。   Next, the phase value of the fringe pattern is calculated from the luminance value distribution (FIGS. 3A to 3D) in the state before blurring (no blur), and the luminance value distribution in the state after blurring (with blur) Similarly, the phase value of the fringe pattern is calculated from (FIGS. 4A to 4D). FIG. 5 is a plot of the phase values of these fringe patterns. Here, in the vicinity of the boundary between light and dark (bright area and dark area), there is a portion where an error occurs in the two phase values. Since the state before blurring is a correct phase value, the difference between these two phase values (phase difference P), that is, the phase value after blurring, which is obtained by subtracting the phase value before blurring is the value of imaging. This is a phase error due to blur. This phase difference is used as a phase correction value when correcting the phase value described later.

図6は、横軸を画素の位置として、図2に示した輝度値分布をx方向に微分した輝度微分値Dと位相差Pをそれぞれプロットしたものである。ここで、位相差Pの変化は輝度微分値Dの変化とほぼ一致しているが、輝度微分値Dをさらにx方向に微分した輝度2次微分値D2が0でない範囲において、位相差Pの方がやや暗い領域にずれていることがわかる。   FIG. 6 plots a luminance differential value D and a phase difference P obtained by differentiating the luminance value distribution shown in FIG. 2 in the x direction with the horizontal axis as the pixel position. Here, the change in the phase difference P substantially coincides with the change in the luminance differential value D. However, in the range where the luminance secondary differential value D2 obtained by further differentiating the luminance differential value D in the x direction is not 0, the phase difference P It can be seen that the image is slightly darker.

図7は、輝度微分値Dと位相差Pの関係を示したD-Pグラフである。全体として、8の字を描いたようなグラフになっている。ここで、D-Pグラフを、上述の輝度2次微分値D2の符号によって二つに分割し、それぞれを、原点を通る三次関数で近似する。原点付近での傾きが大きいほうが、輝度2次微分値D2>0のときのグラフである。このとき、D-Pグラフは(式1)のように表される。   FIG. 7 is a DP graph showing the relationship between the luminance differential value D and the phase difference P. Overall, the graph looks like a figure of 8. Here, the D-P graph is divided into two by the sign of the above-described luminance second-order differential value D2, and each is approximated by a cubic function passing through the origin. The larger the slope near the origin, the graph is when the luminance second derivative D2> 0. At this time, the DP graph is expressed as (Equation 1).

ここで、(式1)及び(式2)の係数a1,b1,c1,a2,b2,c2は、L1,L2,σそれぞれの値によって異なるため、L1,L2,σの値を変化させ、それぞれの組み合わせに対して(式1)の係数a1,b1,c1,a2,b2,c2を求める。図8は、L1,L2,σのうちそれぞれ一つのパラメータだけを変化させた状態を示すものである。図8(a)の、L1だけを変化させた場合には、D2>0のときの原点付近の傾きはほとんど変化せず、図8(b)の、L2だけを変化させた場合にはD2<0のときの原点付近の傾きがほとんど変化しないことがわかる。また、図8(c)の、σを変化させた場合には、D2の符号に関わらず、全体の傾きが変化することがわかる。 Here, since the coefficients a 1 , b 1 , c 1 , a 2 , b 2 , and c 2 in (Equation 1) and (Equation 2) differ depending on the values of L1, L2, and σ, respectively, L1, L2, σ The coefficients a 1 , b 1 , c 1 , a 2 , b 2 , c 2 of (Equation 1) are obtained for each combination. FIG. 8 shows a state in which only one parameter of L1, L2, and σ is changed. When only L1 in FIG. 8A is changed, the inclination near the origin when D2> 0 hardly changes, and when only L2 in FIG. 8B is changed, D2 is changed. It can be seen that the inclination near the origin when <0 hardly changes. It can also be seen that when σ in FIG. 8C is changed, the overall inclination changes regardless of the sign of D2.

このようなシミュレーションによって求めた係数a1,b1,c1,a2,b2,c2が上記補正関係であり、図9に示すように、L1,L2,σの値に対応させたテーブルとして上記補正関係のテーブルを作成しておき、実際の計測時における位相の誤差の補正に用いる。なお、ここでは、D-Pグラフを、三次関数を用いて近似したが、上述の8の字を描いたような特性を示す奇数次の関数を用いて近似してもよい。また、このような奇数次関数による近似を行わず、図10に示すように、シミュレーションによって得られたD-Pグラフにおけるプロット点間を補間することによって、輝度微分値Dに対する位相差Pそのものをテーブルとして保持しておいてもよい。以下、上記これらのテーブルをD-P補正テーブルと称する。 The coefficients a 1 , b 1 , c 1 , a 2 , b 2 , and c 2 obtained by such a simulation are in the above correction relationship, and correspond to the values of L1, L2, and σ as shown in FIG. A table of the above correction relation is created as a table and used for correcting phase errors during actual measurement. Here, the DP graph is approximated by using a cubic function, but may be approximated by using an odd-order function that exhibits characteristics such as the above-described figure of 8. Further, as shown in FIG. 10, the phase difference P itself with respect to the luminance differential value D is used as a table by interpolating between plot points in the DP graph obtained by the simulation without performing such approximation by the odd-order function. You may keep it. Hereinafter, these tables are referred to as DP correction tables.

次に、本実施形態に係る3次元形状計測方法の計測手順について説明する。以下の計測手順は、主に演算部44により実行される。図11は、本実施形態のフローチャートを示す。また、図12は、この計測手順の概要を模式化したものを示す。ここで、下記に記すのは投影する縞パターンの正弦波の位相を1/4周期ずつ変化させる4相の位相シフト法の例であるが、本実施形態においては、3相又は5相以上の位相シフト法であっても構わない。なお、撮像画像における各点とは各画素に対応するものである。   Next, a measurement procedure of the three-dimensional shape measurement method according to this embodiment will be described. The following measurement procedure is mainly executed by the calculation unit 44. FIG. 11 shows a flowchart of the present embodiment. FIG. 12 shows a schematic outline of this measurement procedure. Here, the following is an example of a four-phase phase shift method in which the phase of the sine wave of the fringe pattern to be projected is changed by ¼ period, but in this embodiment, three or more phases are used. The phase shift method may be used. Note that each point in the captured image corresponds to each pixel.

まず、ステップS1に示されるように、計測対象物6に所定の光を投影して撮像し、所定の撮像画像を取得する処理が実行される。ここで、このステップS1に係る位相変化・投影処理について具体的に説明する。図13は、そのフローチャートを示す。次のステップLS11の処理は、ステップLE11の処理と組み合わされ、この間(本実施形態においては、ステップS11からS13)の処理を、0〜3まで順次iの値を増加させて繰り返す処理である。すなわち、下記ステップS11、S12及びS13が、後述する縞パターンの位相をπ/2ずつシフトさせて実行される。まず、ステップS11の、縞パターンデータ作成部41で作成した正弦波状の縞パターンデータLi(u,v)に基づいて、縞パターンを生成する処理が実行される。縞パターンデータLi(u,v)は(式3)のように表される。 First, as shown in step S <b> 1, a process is performed in which predetermined light is projected and imaged on the measurement object 6 to acquire a predetermined captured image. Here, the phase change / projection processing according to step S1 will be specifically described. FIG. 13 shows the flowchart. The processing of the next step LS11 is combined with the processing of step LE11, and during this time (in the present embodiment, steps S11 to S13) is a processing that is repeated by sequentially increasing the value of i from 0 to 3. That is, the following steps S11, S12, and S13 are executed by shifting the phase of the fringe pattern described later by π / 2. First, processing for generating a fringe pattern is executed based on the sinusoidal fringe pattern data L i (u, v) created by the fringe pattern data creation unit 41 in step S11. The fringe pattern data L i (u, v) is expressed as (Equation 3).

ここで、(u,v)は縞パターン投影ユニット2の液晶上の座標、b(u,v)はバイアス値、a(u,v)は振幅値、φ(u)は位相値、iπ/2は位相シフト量(i=0,1,2,3)である。縞パターンの輝度はu方向に対して変化し、uは位相φの関数となっておりu(φ)と表すこともできる。   Here, (u, v) is a coordinate on the liquid crystal of the fringe pattern projection unit 2, b (u, v) is a bias value, a (u, v) is an amplitude value, φ (u) is a phase value, iπ / 2 is a phase shift amount (i = 0, 1, 2, 3). The luminance of the fringe pattern changes with respect to the u direction, and u is a function of the phase φ and can also be expressed as u (φ).

次に、縞パターン投影ユニット2によって上記縞パターンデータLi(u,v)の縞パターンを計測対象物6に投影する処理が実行され(S12)、縞パターンが投影された計測対象物6を撮像ユニット3で撮像する処理が実行される(S13)。このとき、撮像画像上の座標を(x,y)とし、撮像画像のx方向が正弦波状の縞パターンに直交する方向となるようする。次に、撮像された撮像画像における各点での輝度値Ii(x,y)をメモリ43に記録する処理が実行される(S14)。このとき、撮像画像の各画素の位置は、撮像画像上の座標(x,y)によって表される。このステップLS11からLE11までの処理は、図12(a)に示す内容に対応する。 Next, a process of projecting the stripe pattern of the stripe pattern data L i (u, v) onto the measurement object 6 is executed by the stripe pattern projection unit 2 (S12), and the measurement object 6 onto which the stripe pattern is projected is displayed. Processing for imaging with the imaging unit 3 is executed (S13). At this time, the coordinates on the captured image are set to (x, y), and the x direction of the captured image is set to be a direction orthogonal to the sinusoidal stripe pattern. Next, a process of recording the luminance value I i (x, y) at each point in the captured image in the memory 43 is executed (S14). At this time, the position of each pixel of the captured image is represented by coordinates (x, y) on the captured image. The processing from step LS11 to LE11 corresponds to the contents shown in FIG.

次に、縞パターン投影ユニット2により、一様な光を計測対象物6に投影する処理が実行され(S15)、一様な光が投影された計測対象物6を撮像ユニット3で撮像する処理が実行される(S16)。さらに、この1枚の撮像画像をメモリ43に記録する処理が実行される(S17)。この撮像画像を画像Itとする。なお、この画像Itは、一様な光を投影して撮像する方法で取得する以外に、上述した、縞パターンの位相をシフトさせて投影して撮像した4枚の撮像画像を平均することで取得したものであってもよい。以上が、ステップS1に係る位相変化・投影処理についての説明である。   Next, a process of projecting uniform light onto the measurement object 6 is executed by the fringe pattern projection unit 2 (S15), and a process of imaging the measurement object 6 onto which the uniform light is projected by the imaging unit 3 Is executed (S16). Further, a process of recording this one captured image in the memory 43 is executed (S17). This captured image is set as an image It. The image It is obtained by averaging the four captured images captured by shifting the phase of the fringe pattern and projecting the image, in addition to obtaining the image It by projecting and capturing uniform light. It may be acquired. The above is the description of the phase change / projection processing according to step S1.

上述のステップS1の処理が実行されると、ステップS2の、画像Itの輝度についてのx方向の微分画像Dtを生成する処理が実行される。これは、画像Itから得られる輝度値分布をx方向に微分して撮像画像上の各点における輝度微分値を算出するためのものである。ここで、微分のオペレータは、上述したシミュレーションにおいてD-P補正テーブルを求めたときと同じものを使用する。   When the process of step S1 described above is executed, the process of generating a differential image Dt in the x direction for the luminance of the image It in step S2 is executed. This is for differentiating the luminance value distribution obtained from the image It in the x direction to calculate the luminance differential value at each point on the captured image. Here, the same differentiation operator as that used when the DP correction table is obtained in the above-described simulation is used.

次のステップLS1の処理は、ステップLE1の処理と組み合わされ、この間(本実施形態においては、ステップLS2からLE2)の処理を、全てのy座標値において実行されるまで繰り返す処理であり、さらに次のステップLS2の処理は、ステップLE2の処理と組み合わされ、この間(本実施形態においては、ステップS3からS5)の処理を、全てのx座標値において実行されるまで繰り返す処理である。従って、下記ステップS3、S4、及びS5の処理は、撮像画像の全画素において実行される。   The process of the next step LS1 is combined with the process of step LE1, and the process during this period (in this embodiment, steps LS2 to LE2) is repeated until it is executed for all y coordinate values. The process in step LS2 is combined with the process in step LE2, and the process in this period (in the present embodiment, steps S3 to S5) is repeated until all x coordinate values are executed. Accordingly, the following steps S3, S4, and S5 are executed for all pixels of the captured image.

次に、ステップS3に示されるように、縞パターンの位相値を算出する処理が実行される。具体的には、メモリ43に記録された各画素の輝度値Ii(x,y)(i=0,1,2,3)から、各画素について正弦波を当てはめて、各画素における縞パターンの位相値φ(x,y)を計算する。位相値φ(x,y)は(式4)のように表される。このステップS3の処理は、図12(b)に示す内容に対応する。 Next, as shown in step S3, processing for calculating the phase value of the fringe pattern is executed. Specifically, a sine wave is applied to each pixel from the luminance value I i (x, y) (i = 0,1,2,3) of each pixel recorded in the memory 43, and the fringe pattern in each pixel The phase value φ (x, y) of is calculated. The phase value φ (x, y) is expressed as (Equation 4). The processing in step S3 corresponds to the contents shown in FIG.

次に、ステップS4に示されるように、撮像のボケによる縞パターンの位相値の誤差を補正する処理が実行される。具体的には、予め既知であるL1,L2,σの値に対応したD-P補正テーブルから位相補正値Pを取得し、位相値φ(x,y)を補正した位相値φ'(x,y)を計算する。位相値φ'(x,y)は(式5)のように表される。このステップS4の処理は、図12(c)に示す内容に対応する。   Next, as shown in step S4, processing for correcting an error in the phase value of the fringe pattern due to imaging blur is executed. Specifically, the phase correction value P is acquired from the DP correction table corresponding to the values of L1, L2, and σ that are known in advance, and the phase value φ ′ (x, y) obtained by correcting the phase value φ (x, y) ). The phase value φ ′ (x, y) is expressed as (Equation 5). The processing in step S4 corresponds to the contents shown in FIG.

次に、ステップS5に示されるように、撮像画像の画素の位置(x,y)について、3次元座標X(x,y)、Y(x,y)、Z(x,y)を計算する処理が実行される。具体的には、計測対象物6に投影された縞パターンは計測対象物6の3次元形状により変調されているが、投影時の位相値φ(u)と、撮像画像から求めた位相値φ(x,y)は同じものであるため、撮像素子31上の座標と液晶上の座標の対応関係が得られ、三角測量の原理によって計測対象物6表面の3次元座標が求められる。3次元座標X(x,y),Y(x,y),Z(x,y)は(式6)のように表される。   Next, as shown in step S5, three-dimensional coordinates X (x, y), Y (x, y), and Z (x, y) are calculated for the pixel position (x, y) of the captured image. Processing is executed. Specifically, the fringe pattern projected on the measurement object 6 is modulated by the three-dimensional shape of the measurement object 6, but the phase value φ (u) at the time of projection and the phase value φ obtained from the captured image. Since (x, y) is the same, the correspondence between the coordinates on the image sensor 31 and the coordinates on the liquid crystal is obtained, and the three-dimensional coordinates of the surface of the measurement object 6 are obtained by the principle of triangulation. The three-dimensional coordinates X (x, y), Y (x, y), and Z (x, y) are expressed as (Equation 6).

ここで、u(f)は位相から液晶の素子上の画素へ対応付ける関数、pc,ppはそれぞれ撮像ユニット3、縞パターン投影ユニット2のキャリブレーションで求められるパラメータであり、次の(式7)、(式8)を満足する。このステップS5の処理は、図12(d)に示す内容に対応する。 Here, u (f) is a function for associating the phase with the pixel on the liquid crystal element, and p c and p p are parameters obtained by calibration of the imaging unit 3 and the fringe pattern projection unit 2, respectively. 7) and (Formula 8) are satisfied. The processing in step S5 corresponds to the content shown in FIG.

以上の手順によって、計測対象物の計測領域における3次元形状が計測される。従って、計測対象物の反射率の差異による影響を排除した位相値を算出することができるので、計測領域における3次元形状を高精度に計測することができる。   By the above procedure, the three-dimensional shape in the measurement region of the measurement object is measured. Therefore, since the phase value excluding the influence due to the difference in reflectance of the measurement object can be calculated, the three-dimensional shape in the measurement region can be measured with high accuracy.

(第2の実施形態)
本発明の第2の実施形態に係る3次元計測方法について図面を参照して説明する。本実施形態が適用されるのは、計測対象物の表面反射率が異なる二種類のもので構成されており、計測時におけるそれぞれの輝度値(L1,L2)が既知であり、さらに、光学系による撮像のボケの度合いを表すσの値が撮像画像中で異なる(計測対象物の計測領域において一定でない)場合が考えられる。例えば、高さ方向が大きく異なる部分がある単色の形状部に、別途異なる単色のインクで文字が描かれているものを3次元計測する場合等に相当する。本実施形態の3次元計測方法を実行できる3次元形状計測装置については、第1の実施形態と同様である(以下、同様)。
(Second Embodiment)
A three-dimensional measurement method according to a second embodiment of the present invention will be described with reference to the drawings. This embodiment is applied to two types of objects having different surface reflectances of the measurement object, the respective luminance values (L1, L2) at the time of measurement are known, and the optical system It is conceivable that the value of σ representing the degree of blurring of imaging due to is different in the captured image (not constant in the measurement region of the measurement object). For example, this corresponds to a case where three-dimensional measurement is performed on a single-color shape portion having a portion whose height direction is greatly different, in which characters are drawn with different single-color inks. The three-dimensional shape measurement apparatus that can execute the three-dimensional measurement method of the present embodiment is the same as that of the first embodiment (hereinafter the same).

図14は、本実施形態のフローチャートを示す。ここで、前述の図11に示す各ステップと同等のステップについては、同符合を付しており、以下のフローチャートにおいても、同様に同符合を付す。まず、ステップS1、S2の処理が実行される。   FIG. 14 shows a flowchart of the present embodiment. Here, steps equivalent to the steps shown in FIG. 11 described above are given the same reference numerals, and the same reference numerals are also given in the following flowcharts. First, steps S1 and S2 are executed.

次に、ステップS6に示されるように、σの値を算出する処理が実行される。ここで、このステップS6に係るσの算出処理について具体的に説明する。図15は、そのフローチャートを示す。まず、ステップS61に示されるように、輝度値が変化する位置にある画素の集まりを、σの値を算出すべき補正対象範囲として抽出する処理が実行される。具体的には、微分画像Dt全体から、x方向の輝度値がL1からL2に、又はL2からL1に変化する(このとき、輝度微分値は0から変化して0に戻る)間に位置する画素の集まりを、1つの補正対象範囲として区切って抽出し、さらに、この補正対象範囲の個数pを抽出する。   Next, as shown in step S6, a process for calculating the value of σ is executed. Here, the calculation process of σ according to step S6 will be specifically described. FIG. 15 shows the flowchart. First, as shown in step S61, a process of extracting a collection of pixels at a position where the luminance value changes as a correction target range in which the value of σ is to be calculated is executed. Specifically, the entire differential image Dt is located while the luminance value in the x direction changes from L1 to L2 or from L2 to L1 (at this time, the luminance differential value changes from 0 and returns to 0). A collection of pixels is extracted by being divided as one correction target range, and the number p of the correction target ranges is extracted.

次のステップLS61の処理は、ステップLE61の処理と組み合わされ、この間(本実施形態においては、ステップS62及びS63)の処理を、上述のp個全ての補正対象範囲について実行されるまで繰り返す処理である。   The process of the next step LS61 is combined with the process of step LE61, and the process during this period (in this embodiment, steps S62 and S63) is repeated until it is executed for all the p correction target ranges described above. is there.

次に、ステップS62に示されるように、補正対象範囲内のMTFを計算する処理が実行される。具体的には、補正対象範囲内について、画像Itのx方向の輝度値と、L1,L2の値から推測される理想的なエッジでの輝度値に基づいて、エッジ拡がり関数によるMTFの推定を行う。ここで、理想的なエッジは、画像Itのx方向の輝度値を(L1+L2)/2のしきい値で二値化したものとする。このMTFは既知の通り、光学系を1つの伝達系とみなしたとき、その伝達性能を表す指標であって、空間周波数毎に定義されるものであり、(式9)のように表される。   Next, as shown in step S62, processing for calculating the MTF within the correction target range is executed. Specifically, for the correction target range, based on the luminance value in the x direction of the image It and the luminance value at the ideal edge estimated from the values of L1 and L2, MTF estimation by the edge spread function is performed. Do. Here, the ideal edge is obtained by binarizing the luminance value in the x direction of the image It with a threshold value of (L1 + L2) / 2. As is known, this MTF is an index representing the transmission performance when the optical system is regarded as one transmission system, and is defined for each spatial frequency, and is expressed as (Equation 9). .

ここで、ESF(x)はエッジ拡がり関数(撮像されたエッジのプロファイル)、E(x)は理想的なエッジのプロファイル、h(x)は[0,W]を窓領域とするハニング窓、ξは空間周波数、f[]はフーリエ変換である。   Where ESF (x) is the edge spread function (imaged edge profile), E (x) is the ideal edge profile, h (x) is the Hanning window with [0, W] as the window region, ξ is a spatial frequency, and f [] is a Fourier transform.

次に、ステップS63に示されるように、MTFより補正対象範囲内のσの値を計算する処理が実行される。具体的には、撮像のボケを正規分布と仮定したときの標準偏差σの値に対するMTFを予め求めておき、(式9)で求められたMTFがどのσの値に対するMTFの形状に最も近いかを最小二乗法で判定することで、最適なσの値を選択する。以上が、ステップS6に係るσの算出処理についての説明である。   Next, as shown in step S63, a process of calculating the value of σ within the correction target range from the MTF is executed. Specifically, the MTF for the standard deviation σ value when the blur of imaging is assumed to be a normal distribution is obtained in advance, and the MTF obtained by (Equation 9) is closest to the shape of the MTF for which σ value. Is determined by the least square method, and an optimal value of σ is selected. The above is the description of the σ calculation process according to step S6.

次のステップLS1以降の処理は、第1の実施形態と同様である。このように、算出したσの値と、予め既知であるL1,L2を用いて、縞パターンの位相値の誤差を補正することにより、計測対象物が撮像する方向に大きく異なる部分を有しており、撮像のボケ度合いが、計測対象物の計測領域において一定でない場合であっても、反射率の差異による影響を排除して高精度に計測することができる。   The processing after the next step LS1 is the same as in the first embodiment. In this way, by correcting the error of the phase value of the fringe pattern using the calculated σ value and L1 and L2 that are known in advance, the measurement object has a part that differs greatly in the imaging direction. Thus, even when the degree of blur of imaging is not constant in the measurement region of the measurement object, it is possible to measure with high accuracy by eliminating the influence of the difference in reflectance.

(第3の実施形態)
本発明の第3の実施形態に係る3次元計測方法について図面を参照して説明する。本実施形態が適用される場合として、計測対象物表面の反射率が多様であるため、L1,L2の値が画像It中の位置によって異なり、画像Itを二種類の輝度値のみで表すことが適切でない場合が考えられる。
(Third embodiment)
A three-dimensional measurement method according to a third embodiment of the present invention will be described with reference to the drawings. As a case where the present embodiment is applied, the reflectance of the surface of the measurement object is diverse, so the values of L1 and L2 vary depending on the position in the image It, and the image It can be represented by only two types of luminance values. It may be inappropriate.

図16は、本実施形態のフローチャートを示す。まず、第2の実施形態と同様に、ステップS1からS6までの処理が実行される。次に、S7に示されるように、画像Itを輝度値によって領域分割し、分割された領域内の画像毎に、その画像の輝度値を代表する代表輝度値を求める処理が実行される。このとき、領域分割は、近接画素の統合や輪郭線の抽出等によって行い、領域内の画像毎の代表輝度値は、その画像の輝度値の平均値を用いる。   FIG. 16 shows a flowchart of the present embodiment. First, similarly to the second embodiment, the processing from steps S1 to S6 is executed. Next, as shown in S <b> 7, the image It is divided into regions based on the luminance values, and for each image in the divided region, processing for obtaining a representative luminance value that represents the luminance value of the image is executed. At this time, the region division is performed by integrating adjacent pixels, extracting a contour line, or the like, and the average luminance value of the image is used as the representative luminance value for each image in the region.

次のステップLS3の処理とさらに次のステップLS4の処理は、ステップLS1の処理とステップLS2の処理に対応する処理である。従って、下記ステップS3、S8、S4及びS5の処理は、撮像画像の全画素において実行される。   The process of the next step LS3 and the process of the next step LS4 are processes corresponding to the process of step LS1 and the process of step LS2. Accordingly, the following steps S3, S8, S4, and S5 are executed for all pixels of the captured image.

次に、ステップS3の処理が実行され、ステップS8に示されるように、注目する画素におけるL1及びL2を求める処理が実行される。具体的には、注目する画素が所属する領域の代表輝度値(La)と、この領域とx方向において隣接する領域のうち、より自身の画素から近い領域の代表輝度値(Lb)とを比較し、明るいほうの代表輝度値をL1、暗いほうの代表輝度値をL2とする。従って、L1,L2は(式10)及び(式11)のように表される。 Next, the process of step S3 is executed, and as shown in step S8, the process of obtaining L1 and L2 in the pixel of interest is executed. Specifically, the representative luminance value (L a ) of the region to which the pixel of interest belongs, and the representative luminance value (L b ) of the region closer to its own pixel among the regions adjacent to this region in the x direction The brighter representative luminance value is L1, and the darker representative luminance value is L2. Therefore, L1 and L2 are expressed as (Equation 10) and (Equation 11).

次に、ステップS4、S5の処理が実行される。このように、注目する画素ごとにL1,L2の値を求めて、縞パターンの位相値の誤差を補正することにより、複数の反射率が計測対象物上の各部分で大きく異なる場合であっても、反射率の差異による影響を排除して高精度に計測することができる。   Next, steps S4 and S5 are executed. In this way, the values of L1 and L2 are obtained for each pixel of interest, and the error in the phase value of the fringe pattern is corrected, so that a plurality of reflectivities greatly differ in each part on the measurement object. However, it is possible to measure with high accuracy by eliminating the influence of the difference in reflectance.

(第4の実施形態)
本発明の第4の実施形態に係る3次元計測方法について図面を参照して説明する。
本実施形態が適用されるのは、投影系又は撮像系のノイズによって輝度値にばらつきが生じる場合が考えられる。
(Fourth embodiment)
A three-dimensional measurement method according to the fourth embodiment of the present invention will be described with reference to the drawings.
This embodiment can be applied to the case where the brightness value varies due to noise in the projection system or the imaging system.

図17は、本実施形態のフローチャートを示す。まず、ステップS1の処理が実行される。次に、ステップS9の、画像Itにメディアンフィルタ又は移動平均フィルタを施し、画像Itを平滑化する処理が実行される。次のステップS2以降の処理は、第3の実施形態と同様である。   FIG. 17 shows a flowchart of the present embodiment. First, the process of step S1 is executed. Next, a process of applying a median filter or a moving average filter to the image It in step S9 to smooth the image It is executed. The processing after the next step S2 is the same as that of the third embodiment.

このようにして画像Itの平滑化を行った後、微分画像Dtを生成することにより、ノイズによる輝度微分値への影響を低減させることができ、3次元形状をより一層高精度に計測することができる。   By smoothing the image It in this way and generating the differential image Dt, it is possible to reduce the influence of the noise on the luminance differential value and to measure the three-dimensional shape with higher accuracy. Can do.

(第5の実施形態)
本発明の第5の実施形態に係る3次元計測方法について図面を参照して説明する。本実施形態が適用されるのは、第4の実施形態と同様に、投影系又は撮像系のノイズによって輝度値にばらつきが生じる場合が考えられる。
(Fifth embodiment)
A three-dimensional measurement method according to a fifth embodiment of the present invention will be described with reference to the drawings. As in the fourth embodiment, the present embodiment may be applied when the luminance value varies due to noise in the projection system or the imaging system.

図18は、本実施形態のフローチャートを示す。本実施形態においても、第4の実施形態と同様に、ステップS1からS7までの処理が実行される。次のステップLS5の処理とさらに次のステップLS6の処理は、ステップLS1の処理とステップLS2の処理に対応する処理である。従って、下記ステップS3、S8、S10、S4及びS5の処理は、撮像画像の全画素において実行される。   FIG. 18 shows a flowchart of the present embodiment. Also in the present embodiment, the processes from Steps S1 to S7 are executed as in the fourth embodiment. The process of the next step LS5 and the process of the next step LS6 are processes corresponding to the process of step LS1 and the process of step LS2. Accordingly, the following steps S3, S8, S10, S4 and S5 are executed for all pixels of the captured image.

次に、ステップS3、S8の処理が実行され、ステップS10の、輝度微分値の絶対値が予め設定した規定値以上であるかを判断する処理が実行される。輝度微分値の絶対値が規定値以上である場合には、ステップS4の処理が実行される。図19は、輝度微分値の絶対値が規定値以上である画素の範囲(補正実行範囲)を示す。   Next, the processes of steps S3 and S8 are executed, and the process of determining whether or not the absolute value of the luminance differential value is greater than or equal to a preset specified value in step S10 is executed. If the absolute value of the luminance differential value is greater than or equal to the specified value, the process of step S4 is executed. FIG. 19 shows a pixel range (correction execution range) in which the absolute value of the luminance differential value is equal to or greater than a specified value.

次に、ステップS5の処理が実行される。このように、輝度微分値が予め設定した規定値以上である限り、位相値を補正するようにすることで、ノイズによる輝度値の細かい(瞬間的な)変動の影響を排除することができるので、3次元形状をより一層高精度且つ高速に計測することができる。   Next, the process of step S5 is performed. As described above, as long as the luminance differential value is equal to or larger than a predetermined value set in advance, the influence of fine (instantaneous) fluctuation of the luminance value due to noise can be eliminated by correcting the phase value. The three-dimensional shape can be measured with higher accuracy and higher speed.

なお、本発明は、上記各種実施形態の構成に限られず、発明の趣旨を変更しない範囲で種々の変形が可能である。例えば、上記補正関係を、縞パターン投影ユニット2及び撮像ユニット3から出力されるデータを記録するメモリ43とは別に設けたメモリに記憶させてもよい。   In addition, this invention is not restricted to the structure of the said various embodiment, A various deformation | transformation is possible in the range which does not change the meaning of invention. For example, the correction relationship may be stored in a memory provided separately from the memory 43 that records data output from the fringe pattern projection unit 2 and the imaging unit 3.

本発明の第1の実施形態に係る3次元計測方法を実行できる3次元形状計測装置を示すブロック構成図。The block block diagram which shows the three-dimensional shape measuring apparatus which can perform the three-dimensional measuring method which concerns on the 1st Embodiment of this invention. (a)は補正関係を求めるためのシミュレーションにおいて、コントラストがある平面上を示す概略図、(b)は図2(a)のx方向の輝度値分布を示す図。(A) is the schematic which shows on a plane with a contrast in the simulation for calculating | requiring correction | amendment relationship, (b) is a figure which shows the luminance value distribution of the x direction of Fig.2 (a). (a)は図2(b)の図に初期位相0の正弦波を重ね合わせた図、(b)は同じく初期位相π/2の正弦波を重ね合わせた図、(c)は同じく初期位相πの正弦波を重ね合わせた図、(d)は同じく初期位相3π/2の正弦波を重ね合わせた図。2A is a diagram in which a sine wave with an initial phase of 0 is superimposed on the diagram of FIG. 2B, FIG. 2B is a diagram in which a sine wave with an initial phase of π / 2 is superimposed, and FIG. The figure which piled up the sine wave of (pi), (d) is the figure which piled up the sine wave of the initial phase 3π / 2 similarly. (a)は図3(a)の図に移動平均を行った図、(b)は図3(b)の図に移動平均を行った図、(c)は図3(c)の図に移動平均を行った図、(d)は図3(d)の図に移動平均を行った図。(A) is the figure which performed the moving average to the figure of Fig.3 (a), (b) is the figure which performed the moving average to the figure of FIG.3 (b), (c) is the figure of FIG.3 (c). The figure which performed the moving average, (d) is the figure which performed the moving average to the figure of FIG.3 (d). (a)は、図3(a)〜(d)及び図4(a)〜(d)から算出したぼかし前及びぼかし後のx方向の位相値を示す図、(b)は図5(a)のA部の拡大図、(c)は図5(a)のB部の拡大図。(A) is a figure which shows the phase value of the x direction before and after blurring computed from Drawing 3 (a)-(d) and Drawing 4 (a)-(d), and (b) is Drawing 5 (a) ) Is an enlarged view of a portion A, and FIG. 5C is an enlarged view of a portion B of FIG. 図2の輝度値分布を微分した輝度微分値Dと図5で示した位相差Pを画素の位置毎に示す図。The figure which shows the luminance differential value D which differentiated the luminance value distribution of FIG. 2, and the phase difference P shown in FIG. 5 for every position of a pixel. 上記輝度微分値Dと上記位相差Pの関係を示すグラフ(D-Pグラフ)。A graph (D-P graph) showing the relationship between the luminance differential value D and the phase difference P. (a)はL1を変数とし、L2,σを定数とした場合のD-Pグラフの変化を示す図、(b)はL2を変数とし、L1,σを定数とした場合のD-Pグラフの変化を示す図、(c)はσを変数とし、L1,L2を定数とした場合のD-Pグラフの変化を示す図。(A) shows changes in DP graph when L1 is a variable and L2 and σ are constants. (B) shows changes in DP graph when L2 is a variable and L1 and σ are constants. FIG. 4C is a diagram showing a change in the DP graph when σ is a variable and L1 and L2 are constants. 輝度微分値Dと位相差Pの関係を奇数次関数で近似した場合のテーブルを示す図。The figure which shows the table at the time of approximating the relationship between the luminance differential value D and the phase difference P with an odd-order function. 上記関係を奇数次関数で近似しない場合のテーブルを示す図。The figure which shows the table when the said relationship is not approximated by an odd-order function. 上記計測方法の計測手順を示すフローチャート。The flowchart which shows the measurement procedure of the said measuring method. (a)乃至(d)は上記計測手順での主要な処理を示す模式図。(A) thru | or (d) is a schematic diagram which shows the main processes in the said measurement procedure. 上記計測方法での位相変化・投影処理の手順を示すフローチャート。The flowchart which shows the procedure of the phase change and projection process by the said measuring method. 本発明の第2の実施形態に係る3次元計測方法の計測手順を示すフローチャート。The flowchart which shows the measurement procedure of the three-dimensional measuring method which concerns on the 2nd Embodiment of this invention. 上記計測方法でのσ算出の手順を示すフローチャート。The flowchart which shows the procedure of (sigma) calculation by the said measuring method. 本発明の第3の実施形態に係る3次元計測方法の計測手順を示すフローチャート。The flowchart which shows the measurement procedure of the three-dimensional measuring method which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施形態に係る3次元計測方法の計測手順を示すフローチャート。The flowchart which shows the measurement procedure of the three-dimensional measuring method which concerns on the 4th Embodiment of this invention. 本発明の第5の実施形態に係る3次元計測方法の計測手順を示すフローチャート。The flowchart which shows the measurement procedure of the three-dimensional measuring method which concerns on the 5th Embodiment of this invention. 上記計測方法での補正実行範囲を示す図。The figure which shows the correction | amendment execution range in the said measuring method.

符号の説明Explanation of symbols

1 3次元形状計測装置
2 縞パターン投影ユニット(縞パターン投影部)
3 撮像ユニット(撮像部)
4 3次元計測処理ユニット(3次元計測処理部)
5 表示ユニット
6 計測対象物
21 照明部
22 縞パターン生成部
23 投影光学部
31 撮像素子
32 撮像光学部
41 縞パターンデータ作成部
42 投影・撮像制御部
43 メモリ(記憶部)
44 演算部
DESCRIPTION OF SYMBOLS 1 3D shape measuring apparatus 2 Stripe pattern projection unit (stripe pattern projection unit)
3 Imaging unit (imaging unit)
4 3D measurement processing unit (3D measurement processing unit)
DESCRIPTION OF SYMBOLS 5 Display unit 6 Measurement object 21 Illumination part 22 Stripe pattern production | generation part 23 Projection optical part 31 Imaging element 32 Imaging optical part 41 Stripe pattern data creation part 42 Projection / imaging control part 43 Memory (storage part)
44 Calculation unit

Claims (6)

計測対象物に縞パターンを当該縞パターンの位相をシフトさせて複数回投影して撮像する位相シフト法を用いることにより、計測対象物が複数の反射率を有する場合の計測対象物の計測領域における3次元形状を計測する3次元計測方法であって、
前記計測領域における画像から得られる輝度値分布を縞パターンに直交する方向に微分した輝度微分値と、計測対象物の反射率の差異が縞パターンから得られる位相値に及ぼす影響を補正するための位相補正値との補正関係を予め求めておき、
3次元形状を計測する際に、前記計測領域から輝度微分値を算出し、前記補正関係から得られる位相補正値に基づいて前記反射率の差異による影響を受けた位相値を補正し、前記補正された位相値を、位相シフト法を用いて計算を行うことにより、前記計測領域における3次元形状を計測することを特徴とする3次元計測方法。
In the measurement area of the measurement object when the measurement object has a plurality of reflectivities by using the phase shift method of projecting and imaging the fringe pattern on the measurement object by shifting the phase of the fringe pattern multiple times A three-dimensional measurement method for measuring a three-dimensional shape,
A luminance differential value obtained by differentiating the luminance value distribution obtained from the image in the measurement region in a direction orthogonal to the fringe pattern, and the influence of the difference in reflectance of the measurement object on the phase value obtained from the fringe pattern Obtain a correction relationship with the phase correction value in advance,
When measuring a three-dimensional shape, a luminance differential value is calculated from the measurement region, a phase value affected by the difference in reflectance is corrected based on a phase correction value obtained from the correction relationship, and the correction A three-dimensional measurement method characterized in that a three-dimensional shape in the measurement region is measured by calculating a phase value obtained using a phase shift method.
前記計測対象物の表面反射率が異なる2種類のもので構成されており、測定時におけるそれぞれの輝度値(L1、L2)が既知の場合において、
前記補正関係を、(a)前記それぞれの輝度値(L1、L2)と、(b)前記計測領域について前記輝度値分布の縞パターンを直交する方向の輝度値を前記それぞれの輝度値の平均値((L1+L2)/2)をしきい値として2値化して求めた理想的なエッジでの輝度値に基づいて求まるMTFの形状から推定される標準偏差σの値と、の値に対応した位相補正値の補正テーブルとして求めておき、
3次元形状を計測する際に、前記補正テーブルに基づいて、前記反射率の差異による影響を受けた位相値を補正して前記計測領域における3次元形状を計測することを特徴とする請求項1に記載の3次元計測方法。
In the case where the measurement object is composed of two types having different surface reflectances, and the respective luminance values (L1, L2) at the time of measurement are known,
It said correction relationship, (a) the respective luminance values (L1, L2), (b ) the measurement region and the luminance value average of the respective brightness values the luminance value in a direction perpendicular to the stripe pattern of distribution for The phase corresponding to the value of the standard deviation σ estimated from the shape of the MTF obtained based on the luminance value at the ideal edge obtained by binarization using ((L1 + L2) / 2) as a threshold value Obtain it as a correction value correction table,
2. The three-dimensional shape in the measurement region is measured by correcting a phase value affected by the difference in reflectance based on the correction table when measuring a three-dimensional shape. The three-dimensional measurement method described in 1.
前記計測領域の輝度値分布を得た後に、前記画像の平滑化処理をして輝度微分値を算出することを特徴とする請求項1又は請求項2に記載の3次元計測方法。 Wherein after obtaining the luminance value distribution of the measurement area, the three-dimensional measurement method according to claim 1 or claim 2 and a smoothing processing of the image and calculates the differential luminance value. 予め求めておいた複数の補正関係の中から、前記算出された輝度微分値を前記方向にさらに微分することで得られる輝度2次微分値を用いて、特定の補正関係を選択することを特徴とする請求項1乃至請求項3の何れか一項に記載の3次元計測方法。 A specific correction relationship is selected using a luminance secondary differential value obtained by further differentiating the calculated luminance differential value in the direction from a plurality of correction relationships obtained in advance. The three-dimensional measurement method according to any one of claims 1 to 3 . 前記算出された輝度微分値が予め設定した規定値以上である場合に限り、前記反射率の差異による影響を受けた位相値を補正することを特徴とする請求項1乃至請求項4の何れか一項に記載の3次元計測方法。 Only if the calculated differential luminance value is greater than or equal to a prescribed value set in advance, any one of claims 1 to 4, characterized in that to correct the phase value affected by the difference in the reflectance The three-dimensional measurement method according to one item. 光の輝度が変化する縞パターンを計測対象物に投影する縞パターン投影部と、
縞パターンが投影された計測対象物を撮像する撮像部と、
前記撮像部から出力される画像データに基づいて、計測対象物の計測領域における3次元形状を計測するための演算を行う3次元計測処理部と、を備えた3次元形状計測装置において、
前記計測領域における画像から得られる輝度値分布を縞パターンに直交する方向に微分した輝度微分値と、計測対象物の反射率の差異が縞パターンから得られる位相値に及ぼす影響を補正するための位相補正値との補正関係を予め求めて記憶させる記憶部を備え、
前記3次元計測処理部は、3次元形状を計測する際に、前記計測領域から輝度微分値を算出し、前記補正関係から得られる位相補正値に基づいて前記反射率の差異による影響を受けた位相値を補正し、前記補正された位相値を位相シフト法を用いて計算を行うことにより、計測対象物が複数の反射率を有する場合の前記計測領域における3次元形状を計測することを特徴とする3次元形状計測装置。
A fringe pattern projection unit that projects a fringe pattern in which the brightness of light changes onto a measurement object;
An imaging unit that images a measurement object onto which the fringe pattern is projected;
A three-dimensional shape measurement apparatus comprising: a three-dimensional measurement processing unit that performs a calculation for measuring a three-dimensional shape in a measurement region of a measurement object based on image data output from the imaging unit;
A luminance differential value obtained by differentiating the luminance value distribution obtained from the image in the measurement region in a direction orthogonal to the fringe pattern, and the influence of the difference in reflectance of the measurement object on the phase value obtained from the fringe pattern A storage unit for preliminarily obtaining and storing a correction relationship with the phase correction value;
When measuring the three-dimensional shape, the three-dimensional measurement processing unit calculates a luminance differential value from the measurement region, and is influenced by the difference in reflectance based on the phase correction value obtained from the correction relationship. A three-dimensional shape in the measurement region when the measurement object has a plurality of reflectances is measured by correcting the phase value and calculating the corrected phase value using a phase shift method. A three-dimensional shape measuring apparatus.
JP2007083049A 2007-03-27 2007-03-27 3D measurement method and 3D shape measurement apparatus using the same Expired - Fee Related JP5252820B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007083049A JP5252820B2 (en) 2007-03-27 2007-03-27 3D measurement method and 3D shape measurement apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007083049A JP5252820B2 (en) 2007-03-27 2007-03-27 3D measurement method and 3D shape measurement apparatus using the same

Publications (2)

Publication Number Publication Date
JP2008241483A JP2008241483A (en) 2008-10-09
JP5252820B2 true JP5252820B2 (en) 2013-07-31

Family

ID=39913013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007083049A Expired - Fee Related JP5252820B2 (en) 2007-03-27 2007-03-27 3D measurement method and 3D shape measurement apparatus using the same

Country Status (1)

Country Link
JP (1) JP5252820B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105157612A (en) * 2015-05-19 2015-12-16 南昌航空大学 Three-dimensional measurement method based on pulse width modulation fringe

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4629136B2 (en) * 2008-10-15 2011-02-09 富士フイルム株式会社 Ranging device, ranging method and program
DE102010064593A1 (en) 2009-05-21 2015-07-30 Koh Young Technology Inc. Form measuring device and method
JP5595211B2 (en) * 2010-10-12 2014-09-24 キヤノン株式会社 Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and computer program
US9188433B2 (en) * 2012-05-24 2015-11-17 Qualcomm Incorporated Code in affine-invariant spatial mask
JP2014225182A (en) * 2013-05-17 2014-12-04 株式会社リコー Image projection system, image processing apparatus, and program
CN103759669B (en) * 2014-01-03 2016-11-23 河南科技大学 A kind of monocular vision measuring method of heavy parts
KR101613829B1 (en) 2014-05-08 2016-04-20 조춘식 Method and Apparatus for 3D Shape Measuring By Using Derivative Moire
JP6525770B2 (en) * 2015-06-30 2019-06-05 キヤノン株式会社 Measuring device and article manufacturing method
JP2017110975A (en) 2015-12-15 2017-06-22 キヤノン株式会社 Measuring device, system, measurement method, determination method, and program
CN106091988B (en) * 2016-06-17 2018-09-11 太原科技大学 A kind of compensation method of high-temperature forging three-dimensional dimension measurement accuracy
WO2018198828A1 (en) * 2017-04-28 2018-11-01 コニカミノルタ株式会社 Defect inspection image generating device and defect inspection image generating method
JP6557319B2 (en) * 2017-12-25 2019-08-07 株式会社キーエンス 3D image processing apparatus, 3D image processing apparatus head unit, 3D image processing method, 3D image processing program, computer-readable recording medium, and recorded apparatus
CN112097670B (en) * 2020-08-27 2022-02-11 江苏科技大学 Method and equipment for measuring three-dimensional surface shape of high-reflectivity object
JP7448824B2 (en) 2020-12-11 2024-03-13 株式会社デンソーウェーブ 3D measurement system and 3D measurement method
CN113916153B (en) * 2021-10-12 2023-11-28 深圳市其域创新科技有限公司 Active and passive combined structured light three-dimensional measurement method
CN114777687B (en) * 2022-05-09 2023-06-09 湖北工业大学 Regional phase error compensation method and device based on probability distribution function
CN115031659B (en) * 2022-06-08 2024-06-25 华侨大学 Axial trans-scale precise three-dimensional microscopic measurement method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3525964B2 (en) * 1995-07-05 2004-05-10 株式会社エフ・エフ・シー 3D shape measurement method for objects
JP4256059B2 (en) * 2000-10-04 2009-04-22 シーケーディ株式会社 3D measuring device
JP2006084286A (en) * 2004-09-15 2006-03-30 Olympus Corp Three-dimensional measuring method and its measuring device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105157612A (en) * 2015-05-19 2015-12-16 南昌航空大学 Three-dimensional measurement method based on pulse width modulation fringe

Also Published As

Publication number Publication date
JP2008241483A (en) 2008-10-09

Similar Documents

Publication Publication Date Title
JP5252820B2 (en) 3D measurement method and 3D shape measurement apparatus using the same
Chen et al. Adaptive projection intensity adjustment for avoiding saturation in three-dimensional shape measurement
Usamentiaga et al. Multi-camera calibration for accurate geometric measurements in industrial environments
TWI475186B (en) A tire shape detecting method and a tire shape detecting device
US9097514B2 (en) Device and method for inspecting tyre shape
Wang et al. 3D measurement of crater wear by phase shifting method
JP5016520B2 (en) Three-dimensional shape measuring method and apparatus
CN101986098B (en) Tricolor projection-based Fourier transform three-dimensional measuring method
JP5123522B2 (en) 3D measurement method and 3D shape measurement apparatus using the same
CN107607060A (en) A kind of phase error compensation method in the measurement applied to grating tripleplane
JP4894628B2 (en) Appearance inspection method and appearance inspection apparatus
CN108362226B (en) Double four-step phase shift method for improving phase measurement precision of image overexposure area
Dufour et al. Integrated digital image correlation for the evaluation and correction of optical distortions
JP4998711B2 (en) Apparatus and method for measuring surface distortion
CN104075659A (en) Three-dimensional imaging recognition method based on RGB structure light source
CN113587852A (en) Color fringe projection three-dimensional measurement method based on improved three-step phase shift
CN116608794B (en) Anti-texture 3D structured light imaging method, system, device and storage medium
CN111006599B (en) Object surface micro-scale measurement method based on pixel grating and computer vision
CN116559179A (en) Reflective surface morphology and defect detection method and system thereof
KR20100041026A (en) Apparatus and method for 3-d profilometry using color projection moire technique
Schoenleber et al. Fast and flexible shape control with adaptive LCD fringe masks
Liu et al. High-resolution three-dimensional surface imaging microscope based on digital fringe projection technique
CN112414304A (en) Postweld weld surface three-dimensional measurement method based on laser grating projection
JP2008170282A (en) Shape measuring device
CN116824069B (en) Self-adaptive stripe method for detecting saturation point by using high-frequency signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130416

R150 Certificate of patent or registration of utility model

Ref document number: 5252820

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees