JP5633058B1 - 3D measuring apparatus and 3D measuring method - Google Patents

3D measuring apparatus and 3D measuring method Download PDF

Info

Publication number
JP5633058B1
JP5633058B1 JP2013150585A JP2013150585A JP5633058B1 JP 5633058 B1 JP5633058 B1 JP 5633058B1 JP 2013150585 A JP2013150585 A JP 2013150585A JP 2013150585 A JP2013150585 A JP 2013150585A JP 5633058 B1 JP5633058 B1 JP 5633058B1
Authority
JP
Japan
Prior art keywords
pattern light
pattern
dimensional
measurement object
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013150585A
Other languages
Japanese (ja)
Other versions
JP2015021862A (en
Inventor
エドモンド ワイ イエン ソ
エドモンド ワイ イエン ソ
徐 剛
剛 徐
朋弘 仲道
朋弘 仲道
暁明 牛
暁明 牛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto Robotics Corp
Original Assignee
3D Media Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3D Media Co Ltd filed Critical 3D Media Co Ltd
Priority to JP2013150585A priority Critical patent/JP5633058B1/en
Application granted granted Critical
Publication of JP5633058B1 publication Critical patent/JP5633058B1/en
Publication of JP2015021862A publication Critical patent/JP2015021862A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】鏡面反射成分の強い計測対象物の場合にも、適切に3次元計測を行うことができる3次元計測装置及び3次元計測方法を提供する。【解決手段】パターン光を計測対象物2に投光するプロジェクタ3と、プロジェクタ3より前記パターン光が投光された計測対象物2をそれぞれ異なる方向から撮像する複数の撮像手段4と、プロジェクタ3とそれぞれの撮像手段4との間の校正を行う校正手段81と、それぞれの撮像手段4により撮像された画像に基づいて、それぞれ3次元点群を計測する3次元点群計測手段83と、3次元点群計測手段により計測されたそれぞれの3次元点群を校正手段により得られた校正結果に基づいて、パターン投光手段の座標系に射影し、それぞれの信頼度を比較することによりそれぞれの3次元点群の計測結果を統合する統合手段84と、を備える3次元計測装置1。【選択図】図1A three-dimensional measuring apparatus and a three-dimensional measuring method capable of appropriately performing three-dimensional measurement even in the case of a measurement object having a strong specular reflection component. A projector 3 that projects pattern light onto a measurement object 2, a plurality of imaging means 4 that images the measurement object 2 onto which the pattern light has been projected from the projector 3 from different directions, and a projector 3 Calibrating means 81 for calibrating between the imaging means 4 and each imaging means 4, three-dimensional point group measuring means 83 for measuring a three-dimensional point group based on images captured by the imaging means 4, 3 Based on the calibration results obtained by the calibration means, the respective three-dimensional point groups measured by the dimension point group measurement means are projected onto the coordinate system of the pattern projecting means, and the respective reliability is compared by projecting them. A three-dimensional measurement apparatus 1 comprising: an integration unit 84 that integrates measurement results of a three-dimensional point group. [Selection] Figure 1

Description

本発明は、計測対象物にパターン光を投光して3次元計測を行うための3次元計測装置及び3次元計測方法に関する。   The present invention relates to a three-dimensional measurement apparatus and a three-dimensional measurement method for performing three-dimensional measurement by projecting pattern light onto a measurement object.

従来から、物体の3次元形状を計測する方法としては、例えば、異なる位置に設けられた基準カメラと参照カメラとの2台以上のカメラで計測対象物を撮影して得られた複数の画像の間で対応する画素を特定し、対応付けられた基準画像上の画素と、参照画像上の画素との位置の差(視差)に三角測量の原理を適用することにより、基準カメラから当該画素に対応する計測対象物上の点までの距離を計測するステレオ法と呼ばれるものがある(例えば、特許文献1参照)。しかしながら、従来のステレオ法では、計測対象物が白い壁等の特徴がほとんどない対象である場合には、画像間での対応付けを行うことは困難である。   Conventionally, as a method for measuring the three-dimensional shape of an object, for example, a plurality of images obtained by photographing a measurement object with two or more cameras, that is, a reference camera and a reference camera provided at different positions are used. By identifying the corresponding pixel between them and applying the principle of triangulation to the difference in position (parallax) between the pixel on the associated reference image and the pixel on the reference image. There is what is called a stereo method for measuring a distance to a point on a corresponding measurement object (for example, see Patent Document 1). However, in the conventional stereo method, when the measurement object is an object having almost no feature such as a white wall, it is difficult to perform association between images.

また、計測対象物の3次元形状を計測するために、例えば、レーザー光を計測対象物に投光して、その反射光を計測することにより各点までの距離を計測する方法や計測対象物にパターン光を投光して、計測対象物に投影されたパターンの形状を測定することにより計測対象物の3次元形状を計測する光切断法等の能動的手法が従来から知られている(例えば、特許文献2参照)。また、計測対象物の形状を計測するために、対象物に縞パターンを投影するとともに、該縞パターンを位相シフトさせながら複数回撮影し、撮影した各縞パターン画像に基づいて、対象物の形状を計測する位相シフト法と呼ばれるものがある(例えば、特許文献3参照)。   Further, in order to measure the three-dimensional shape of the measurement object, for example, a method of measuring the distance to each point by projecting a laser beam onto the measurement object and measuring the reflected light or the measurement object Conventionally, an active method such as a light cutting method for measuring the three-dimensional shape of a measurement object by projecting pattern light onto the object and measuring the shape of the pattern projected onto the measurement object is known ( For example, see Patent Document 2). Further, in order to measure the shape of the measurement object, a stripe pattern is projected onto the object, and the stripe pattern is imaged a plurality of times while being phase-shifted. There is a so-called phase shift method for measuring (see, for example, Patent Document 3).

特開2001−091245号公報JP 2001-091245 A 特開2008−292434号公報JP 2008-292434 A 特開平11−014327号公報JP-A-11-014327

しかしながら、光沢面を有する金属製品等の鏡面反射成分の強い計測対象物では、図1に示すように、パターン光の入射角θinと等しい反射角θoutの近傍で非常に強い光(矢印の長さは反射強度を示している)が反射されるため、計測対象物の向きによっては、撮影した画像が部分的に真っ白になる、所謂白飛びという現象が生じる場合がある。また、逆にパターン光の入射角と等しい反射角から大きく離れると光がほとんど反射されないため、撮影した画像が部分的に真っ黒になる、所謂黒潰れという現象が生じる場合がある。このような白飛びや黒潰れが生じた場合には、パターン光が読み取れなくなるため、3次元計測が適切に行えなくなるという問題があった。   However, in a measurement object having a strong specular reflection component such as a metallic product having a glossy surface, as shown in FIG. 1, very strong light (the length of the arrow) is near the reflection angle θout equal to the incident angle θin of the pattern light. Is reflected), so that depending on the direction of the measurement object, a so-called whitening phenomenon may occur in which a photographed image is partially whitened. On the contrary, if the distance is far from the reflection angle equal to the incident angle of the pattern light, the light is hardly reflected, so that a so-called black crushing phenomenon may occur in which the photographed image is partially black. When such whiteout or blackout occurs, pattern light cannot be read, and there is a problem that three-dimensional measurement cannot be performed properly.

本発明は、上記のような課題に鑑みてなされたものであって、鏡面反射成分の強い計測対象物の場合にも、適切に3次元計測を行うことができる3次元計測装置及び3次元計測方法を提供することを目的とする。   The present invention has been made in view of the above problems, and a three-dimensional measurement apparatus and a three-dimensional measurement capable of appropriately performing three-dimensional measurement even in the case of a measurement object having a strong specular reflection component. It aims to provide a method.

上記目的を達成するために、請求項1に記載の3次元計測装置は、パターン光を計測対象物に投光するパターン投光手段と、前記パターン投光手段により前記パターン光が投光された前記計測対象物をそれぞれ異なる方向から撮像する3台以上の撮像手段と、前記パターン投光手段と前記それぞれの撮像手段との間の関係を示した回転行列、並進ベクトル、焦点距離、主点、歪み係数からなる非線形の数式モデルを用い、前記数式モデルへ非線形最小二乗法を適用する事により、前記撮像手段と前記パターン投光手段との間の校正に用いる回転行列、並進ベクトル、焦点距離、主点、歪み係数の最適解を算出して校正を行う校正手段と、前記それぞれの撮像手段により撮像された画像に基づいて、それぞれ3次元点群を計測する3次元点群計測手段と、前記3次元点群計測手段により計測された前記それぞれの3次元点群を前記校正手段により得られた校正結果に基づいて、所定の座標系に射影し、それぞれの信頼度を比較することにより前記それぞれの3次元点群の計測結果を統合する統合手段と、を備えることを特徴としている。 In order to achieve the above object, the three-dimensional measuring apparatus according to claim 1, wherein the pattern light is projected by a pattern light projecting unit that projects pattern light onto a measurement object, and the pattern light projecting unit. Three or more imaging means for imaging the measurement object from different directions, a rotation matrix, a translation vector, a focal length, a principal point, showing the relationship between the pattern light projecting means and the respective imaging means , Using a nonlinear mathematical model composed of a distortion coefficient, by applying a nonlinear least square method to the mathematical model, a rotation matrix used for calibration between the imaging unit and the pattern projecting unit, a translation vector, a focal length, principal point, and calibration means for calibrating by calculating the optimal solution of the distortion factor, on the basis of the images captured by the respective imaging means, 3D point group meter for measuring the three-dimensional point group respectively And the respective three-dimensional point groups measured by the three-dimensional point group measuring means are projected onto a predetermined coordinate system based on the calibration result obtained by the calibration means, and the respective reliability is compared. And integrating means for integrating the measurement results of the respective three-dimensional point groups.

請求項2に記載の3次元計測装置は、前記パターン光は、縞パターン光であって、前記パターン投光手段は、前記縞パターン光の縞方向が前記パターン投光手段と前記各撮像手段のそれぞれのエピポーラ線に対して平行にならないように前記縞パターン光を前記計測対象物に投光することを特徴としている。   The three-dimensional measuring apparatus according to claim 2, wherein the pattern light is a fringe pattern light, and the pattern projecting unit has a fringe direction of the fringe pattern light between the pattern projecting unit and each imaging unit. The stripe pattern light is projected onto the measurement object so as not to be parallel to each epipolar line.

請求項3に記載の3次元計測装置は、前記パターン投光手段により前記計測対象物に投光されるパターン光が、前記計測対象物の表面で反射して、前記撮像手段に直接入射する直接反射成分と、前記パターン投光手段により前記計測対象物に投光されるパターン光が、前記計測対象物の表面で反射した後、前記表面と異なる部分で反射して、前記撮像手段に入射する間接反射成分とを分離する間接反射成分分離手段を備えることを特徴としている。   The three-dimensional measurement apparatus according to claim 3, wherein the pattern light projected onto the measurement object by the pattern light projecting unit is reflected directly on the surface of the measurement object and directly enters the imaging unit. The reflection component and the pattern light projected on the measurement object by the pattern light projecting means are reflected by the surface of the measurement object, and then reflected by a portion different from the surface and enter the imaging means. Indirect reflection component separation means for separating the indirect reflection component is provided.

請求項4に記載の3次元計測方法は、パターン光を計測対象物に投光するパターン投光手段と該パターン投光手段により前記パターン光が投光された前記計測対象物をそれぞれ異なる方向から撮像する3台以上の撮像手段との間の関係を示した回転行列、並進ベクトル、焦点距離、主点、歪み係数からなる非線形の数式モデルを用い、前記数式モデルへ非線形最小二乗法を適用する事により、前記撮像手段と前記パターン投光手段との間の校正に用いる回転行列、並進ベクトル、焦点距離、主点、歪み係数の最適解を算出して校正を行う校正ステップと、前記それぞれの撮像手段により撮像された画像に基づいて、それぞれ3次元点群を計測する3次元点群計測ステップと、前記3次元点群計測ステップにより計測された前記それぞれの3次元点群を前記校正ステップにより得られた校正結果に基づいて、前記パターン投光手段の座標系に射影し、それぞれの信頼度を比較することにより前記それぞれの3次元点群の計測結果を統合する統合ステップと、を有することを特徴としている。 The three-dimensional measuring method according to claim 4, wherein a pattern projecting unit that projects pattern light onto a measurement object and the measurement object onto which the pattern light is projected by the pattern projecting unit are viewed from different directions. Using a nonlinear mathematical model composed of a rotation matrix, translation vector, focal length, principal point, and distortion coefficient indicating the relationship between three or more imaging means for imaging, and applying a nonlinear least square method to the mathematical model A calibration step for performing calibration by calculating an optimum solution of a rotation matrix, a translation vector, a focal length, a principal point, and a distortion coefficient used for calibration between the imaging unit and the pattern projecting unit, and A three-dimensional point group measuring step for measuring a three-dimensional point group based on an image picked up by the image pickup means, and the respective third order measured by the three-dimensional point group measuring step. Based on the calibration result obtained in the calibration step, the point cloud is projected onto the coordinate system of the pattern projecting means, and the reliability of the respective three-dimensional point cloud is integrated by comparing the reliability. And an integration step.

請求項5に記載の3次元計測方法は、前記パターン光は、縞パターン光であって、前記パターン投光手段は、前記縞パターン光の縞方向が前記パターン投光手段と前記各撮像手段のそれぞれのエピポーラ線に対して平行にならないように前記縞パターン光を前記計測対象物に投光することを特徴としている。   The three-dimensional measurement method according to claim 5, wherein the pattern light is a fringe pattern light, and the pattern projecting unit has a fringe direction of the fringe pattern light between the pattern projecting unit and each imaging unit. The stripe pattern light is projected onto the measurement object so as not to be parallel to each epipolar line.

請求項6に記載の3次元計測方法は、前記3次元点群計測ステップを行う前に、前記パターン投光手段により前記計測対象物に投光されるパターン光が、前記計測対象物の表面で反射して、前記撮像手段に直接入射する直接反射成分と、前記パターン投光手段により前記計測対象物に投光されるパターン光が、前記計測対象物の表面で反射した後、前記表面と異なる部分で反射して、前記撮像手段に入射する間接反射成分とを分離する間接反射成分分離ステップを有することを特徴としている。   The three-dimensional measurement method according to claim 6, wherein the pattern light projected onto the measurement object by the pattern projecting unit is performed on the surface of the measurement object before performing the three-dimensional point cloud measurement step. The direct reflection component that is reflected and directly incident on the imaging unit and the pattern light that is projected onto the measurement object by the pattern projecting unit are reflected from the surface of the measurement object and then differ from the surface. An indirect reflection component separating step for separating the indirect reflection component reflected from the portion and incident on the imaging means is provided.

請求項1及び2に記載の発明によれば、パターン投光手段によりパターン光が投光された計測対象物をそれぞれ異なる方向から撮像する3台以上の撮像手段を備えており、それぞれの撮像手段により撮像された画像に基づいて、計測されたそれぞれ3次元点群を校正手段により得られた校正結果に基づいて所定の座標系に射影し、それぞれの信頼度を比較することによりそれぞれの3次元点群の計測結果を統合する。従って、計測対象物の鏡面反射成分が強いため、いずれかの撮像手段で白飛びが生じた場合や、反射光が弱いため、黒潰れが生じたような場合でも、異なる方向から撮像した他の撮像手段により得られる画像に基づいて計測される信頼度の高いそれぞれの3次元点群の計測結果を得ることができるので、適切な3次元計測を行うことができる。
According to the first and second aspects of the present invention, the image pickup device includes three or more image pickup units that pick up images of the measurement object projected with the pattern light by the pattern light projecting unit from different directions. Based on the image picked up by the above, each measured three-dimensional point cloud is projected onto a predetermined coordinate system based on the calibration result obtained by the calibration means, and the respective three-dimensional points are compared by comparing the reliability. Integrate point cloud measurement results. Therefore, the specular reflection component of the object to be measured is strong, so even if whiteout occurs in any of the imaging means or the reflected light is weak and blackout occurs, Since the measurement result of each three-dimensional point group with high reliability measured based on the image obtained by the imaging means can be obtained, appropriate three-dimensional measurement can be performed.

請求項2及び5に記載の発明によれば、各撮像手段により得られる画像のエピポーラ線とパターン投光手段により投光される縞パターン光の縞方向が平行にならないので、3次元点群の計測を適切に行うことができる。   According to the second and fifth aspects of the present invention, since the epipolar line of the image obtained by each imaging unit and the fringe direction of the fringe pattern light projected by the pattern projecting unit are not parallel, Measurement can be performed appropriately.

請求項3及び6に記載の発明によれば、直接反射成分と相互反射成分とを分離することにより、パターン光が実際に投光されていない箇所からパターン光が読み取られることにより3次元計測にずれが生じることを防止することができるので、3次元計測の精度をより向上させることができる。   According to the third and sixth aspects of the invention, by separating the direct reflection component and the mutual reflection component, the pattern light is read from a portion where the pattern light is not actually projected, thereby enabling three-dimensional measurement. Since it is possible to prevent the deviation from occurring, the accuracy of the three-dimensional measurement can be further improved.

本発明に係る3次元計測装置の構成の一例を示す概略模式図である。It is a schematic diagram which shows an example of a structure of the three-dimensional measuring apparatus which concerns on this invention. 本発明に係る3次元計測装置による処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process by the three-dimensional measuring apparatus which concerns on this invention. 校正ボードを用いた校正の仕方について説明するための概略説明図である。It is a schematic explanatory drawing for demonstrating the method of calibration using a calibration board. 校正ボードを用いた校正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the calibration process using a calibration board. グレイコードによる構造化光投影法のパターン光の一例を示す概略図である。It is the schematic which shows an example of the pattern light of the structured light projection method by a Gray code. 位相シフトによる位相解析法のパターン光の一例を示す概略図である。It is the schematic which shows an example of the pattern light of the phase analysis method by a phase shift. 直接反射成分と間接反射成分との分離に用いるパターン光の一例を示す概略図である。It is the schematic which shows an example of the pattern light used for isolation | separation of a direct reflection component and an indirect reflection component.

以下に本発明の実施形態に係る3次元計測装置1について、図面を参照しつつ説明する。3次元計測装置1は、パターン光を照射した計測対象物2を撮像して3次元計測を行うものであって、図1に示すように、計測対象物2にパターン光を投光するためのプロジェクタ(パターン投光手段)3と、パターン光が投光された計測対象物2をそれぞれ異なる方向から撮像する複数の撮像手段4(4a〜4f)と、それぞれの撮像手段4a〜4fにより得られた画像を用いて計測対象物2の3次元計測のための演算処理等を行うコンピュータ5とを備えている。   Hereinafter, a three-dimensional measurement apparatus 1 according to an embodiment of the present invention will be described with reference to the drawings. The three-dimensional measuring apparatus 1 performs the three-dimensional measurement by imaging the measurement object 2 irradiated with the pattern light, and projects the pattern light onto the measurement object 2 as shown in FIG. Obtained by the projector (pattern light projecting means) 3, a plurality of image capturing means 4 (4a to 4f) for capturing the measurement object 2 on which the pattern light is projected from different directions, and the respective image capturing means 4a to 4f. And a computer 5 that performs arithmetic processing and the like for three-dimensional measurement of the measurement object 2 using the obtained image.

プロジェクタ3は、従来から3次元計測に用いられている種々のパターン光を計測対象物2に投光するためのものであり、例えば、図5〜7に示すようなパターン光を投光するものである。このようなパターン光を計測対象物2に投光することにより、計測対象物2が白い特徴がほとんどない対象物であっても、3次元計測を行うことができる。尚、プロジェクタ3から投光されるパターン光は、これらに限定されるものではなく、従来から3次元計測に用いられている種々のパターン光を用いることができる。   The projector 3 is for projecting various pattern lights conventionally used for three-dimensional measurement onto the measurement object 2, for example, projecting pattern lights as shown in FIGS. It is. By projecting such pattern light onto the measurement object 2, three-dimensional measurement can be performed even if the measurement object 2 is an object having almost no white feature. The pattern light projected from the projector 3 is not limited to these, and various pattern lights conventionally used for three-dimensional measurement can be used.

撮像手段4a〜4fは、それぞれ撮像素子とこの撮像素子の結像面に計測対象物2の像を結像させるレンズとを備えている。撮像素子としては、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等のイメージセンサが用いられる。この撮像手段4a〜4fのレンズには同じものが使用され、視野角及び解像度も略一致するように設定されている。また、撮像手段4a〜4fは、感度が略一致するものが使用される。また、計測対象物2の3次元計測処理を行うにあたっては、予め撮像手段4a〜4fの校正を行うことにより、カメラパラメータ等を調整しておく。尚、図1では、撮像手段4を6台配置した例を示しているが、撮像手段4の台数及び配置の仕方はこれに限定されるものではなく、少なくとも異なる方向を向くように複数配置されていれば良いが、より適切な3次元計測を行うために、3台以上の撮像手段4が配置されていることが好ましい。   Each of the imaging units 4a to 4f includes an imaging element and a lens that forms an image of the measurement object 2 on the imaging surface of the imaging element. As the image sensor, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS) is used. The same lenses are used for the imaging means 4a to 4f, and the viewing angle and the resolution are set to substantially match. In addition, as the imaging means 4a to 4f, those having substantially the same sensitivity are used. Further, when performing the three-dimensional measurement process of the measurement object 2, the camera parameters and the like are adjusted in advance by calibrating the imaging units 4a to 4f. Although FIG. 1 shows an example in which six image pickup means 4 are arranged, the number of image pickup means 4 and the manner of arrangement are not limited to this, and a plurality of image pickup means 4 are arranged to face at least different directions. However, in order to perform more appropriate three-dimensional measurement, it is preferable that three or more imaging units 4 are arranged.

これらの撮像手段4a〜4fにより取得されたそれぞれの画像データは、コンピュータ5へと入力される。コンピュータ5は、撮像手段4a〜4fにより取得されたそれぞれの画像データを用いて計測対象物2の3次元情報を得るための演算等を行うものであり、CPU(Central Proceessing Unit)6と、ハードディスク7と、画像処理部8と、RAM(Random Access Memory)9と、表示部10と、操作部11等を備えている。また、これら各部は、図1に示すように、互いにシステムバス12に接続され、このシステムバス12を介して種々のデータ等が入出力されて、CPU6の制御の下、種々の処理が実行される。   The respective image data acquired by these imaging means 4 a to 4 f are input to the computer 5. The computer 5 performs operations for obtaining three-dimensional information of the measurement object 2 using the respective image data acquired by the imaging means 4a to 4f, and includes a CPU (Central Processing Unit) 6 and a hard disk 7, an image processing unit 8, a RAM (Random Access Memory) 9, a display unit 10, an operation unit 11, and the like. Further, as shown in FIG. 1, these units are mutually connected to a system bus 12, and various data and the like are input / output via the system bus 12, and various processes are executed under the control of the CPU 6. The

ハードディスク7では、プロジェクタ3と各撮像手段4a〜4fとの間の校正を行うための処理プログラムや各撮像手段4a〜4fから入力される画像データに基づいて計測対象物2の3次元計測を行うための処理プログラム等が格納されている。尚、本実施形態では、これらの処理等を行うためのプログラムをハードディスク7に格納している例を示しているが、これに代えて、コンピュータ読み取り可能な記憶媒体(不図示)に格納しておき、この記録媒体から処理プログラムを読み出すように構成することも可能である   In the hard disk 7, three-dimensional measurement of the measurement object 2 is performed based on a processing program for performing calibration between the projector 3 and each of the imaging units 4a to 4f and image data input from each of the imaging units 4a to 4f. A processing program or the like is stored. In this embodiment, an example in which a program for performing these processes is stored in the hard disk 7 is used. Instead, the program is stored in a computer-readable storage medium (not shown). It is also possible to read the processing program from this recording medium.

画像処理部8は、ハードディスク7に格納される処理プログラムに基づいて、CPU6の制御の下、プロジェクタ3と各撮像手段4a〜4fとの間の校正や計測対象物2の3次元計測を行うための演算処理等を行うものである。RAM9は、ハードディスク7から読み出された処理プログラムを一時的に記憶したり、CPU5の作業領域等として用いられるものである。   The image processing unit 8 performs calibration between the projector 3 and each of the imaging units 4a to 4f and three-dimensional measurement of the measurement object 2 under the control of the CPU 6 based on a processing program stored in the hard disk 7. The arithmetic processing is performed. The RAM 9 temporarily stores a processing program read from the hard disk 7 and is used as a work area for the CPU 5.

表示部10は、液晶ディスプレイ等から構成されるものであって、各撮像手段4a〜4fにより取得した画像等を表示するものである。操作部11は、マウスやキーボード等で構成されており、操作者が種々のデータ及び操作指令等の入力を行うために使用されるものである。   The display unit 10 is composed of a liquid crystal display or the like, and displays images and the like acquired by the imaging units 4a to 4f. The operation unit 11 includes a mouse, a keyboard, and the like, and is used by an operator to input various data and operation commands.

以下、この3次元計測装置1による計測対象物2の3次元計測を行う処理の流れについて図2のフローチャートを用いながら説明する。尚、図2に示す処理は、ハードディスク7に格納された処理プログラムに従ってCPU6の制御の下、画像処理部8等により実行されるものである。   Hereinafter, the flow of processing for performing the three-dimensional measurement of the measurement object 2 by the three-dimensional measurement apparatus 1 will be described with reference to the flowchart of FIG. 2 is executed by the image processing unit 8 or the like under the control of the CPU 6 in accordance with a processing program stored in the hard disk 7.

まず、計測対象物2の3次元計測処理を行うにあたって、プロジェクタ3と各撮像手段4a〜4f間の校正を行う(S101)。ここでは、図3に示すような校正ボード13を用いて、校正手段81により各撮像手段4a〜4fに設定されるカメラ座標系とプロジェクタ3に設定されるプロジェクタ座標系との間の回転及び並進を校正する。この校正に用いられる校正ボード13は、図3に示すように、平面状に形成されており、基準位置を示す円状のドットパターン13aを複数有するものである。   First, in performing the three-dimensional measurement process of the measurement object 2, calibration between the projector 3 and each of the imaging units 4a to 4f is performed (S101). Here, using the calibration board 13 as shown in FIG. 3, rotation and translation between the camera coordinate system set for each of the imaging units 4 a to 4 f and the projector coordinate system set for the projector 3 by the calibration unit 81. Calibrate. As shown in FIG. 3, the calibration board 13 used for this calibration is formed in a planar shape and has a plurality of circular dot patterns 13a indicating the reference position.

図4のフローチャートに示すように、校正処理を行うにあたって、まずは所定の位置に配置された校正ボード13をパターン光が投光されていない状態又は真っ黒の画像を投光した状態で各撮像手段4a〜4fにより撮影する(S201)。   As shown in the flowchart of FIG. 4, when performing the calibration process, first, each imaging unit 4a is set in a state where the pattern board is not projected or a black image is projected on the calibration board 13 arranged at a predetermined position. Photograph by ~ 4f (S201).

次に、プロジェクタ3からパターン光を投光した校正ボード13を各撮像手段4a〜4fにより撮影する(S202)。尚、このプロジェクタ3から投光されるパターン光の投光タイミングと、各撮像手段4a〜4fによる撮影タイミングは、コンピュータ5のタイミング同期手段(不図示)により同期するよう制御されている。S202では、まずはプロジェクタ3からパターン光として、例えば、図5に示すような縞パターン光の一種である縦方向のグレイコードパターンを校正ボード13に投光した状態で各撮像手段4a〜4fにより撮影する。この際、プロジェクタ3は、グレイコードパターンを縞方向がプロジェクタ3と各撮像手段4a〜4fのそれぞれのエピポーラ線に対して平行にならないように斜め向きに投光する。これにより、各撮像手段4a〜4fにより得られる画像のエピポーラ線とグレイコードパターンの縞方向が平行になることを防止することができる。次に、プロジェクタ3からパターン光として、例えば、図6に示すような縞パターン光の一種である縦方向の位相シフトパターンを校正ボード13に投光した状態で各撮像手段4a〜4fにより撮影する。この際も、グレイコードパターンの投光と同様に、プロジェクタ3は、位相シフトパターンを縞方向がプロジェクタ3と各撮像手段4a〜4fのそれぞれのエピポーラ線に対して平行にならないように斜め向きに投光する。つまり、エピポーラ線と縞パターンの同位相の向きが平行にならいように位相シフトパターンを投光する。そして、今度はプロジェクタ3からパターン光として、横方向のグレイコードパターンを校正ボード13に投光した状態で各撮像手段4a〜4fにより撮影する。更に、プロジェクタ3からパターン光として、横方向の位相シフトパターンを校正ボード13に投光した状態で各撮像手段4a〜4fにより撮影する。このようなS201及びS202の撮影を、校正ボード13の姿勢を変えながら複数回(15〜30回程度)繰り返し行う。   Next, the calibration board 13 on which the pattern light is projected from the projector 3 is photographed by each of the imaging means 4a to 4f (S202). Note that the light projection timing of the pattern light projected from the projector 3 and the photographing timing by each of the imaging units 4a to 4f are controlled to be synchronized by a timing synchronization unit (not shown) of the computer 5. In S202, first, as the pattern light from the projector 3, for example, a vertical gray code pattern which is a kind of stripe pattern light as shown in FIG. To do. At this time, the projector 3 projects the gray code pattern in an oblique direction so that the fringe direction is not parallel to the epipolar lines of the projector 3 and the imaging units 4a to 4f. Thereby, it can prevent that the epipolar line of the image obtained by each imaging means 4a-4f and the stripe direction of a gray code pattern become parallel. Next, as the pattern light from the projector 3, for example, a vertical phase shift pattern, which is a kind of stripe pattern light as shown in FIG. . At this time, similarly to the projection of the gray code pattern, the projector 3 tilts the phase shift pattern so that the fringe direction is not parallel to the epipolar lines of the projector 3 and the imaging units 4a to 4f. Flood light. That is, the phase shift pattern is projected so that the same phase direction of the epipolar line and the stripe pattern is not parallel. Then, the image pickup means 4 a to 4 f shoots with the horizontal gray code pattern projected onto the calibration board 13 as pattern light from the projector 3 this time. Further, the image pickup means 4 a to 4 f shoots with the phase shift pattern in the horizontal direction projected onto the calibration board 13 as pattern light from the projector 3. Such photographing in S201 and S202 is repeated a plurality of times (about 15 to 30 times) while changing the posture of the calibration board 13.

このS202で投光するグレイコードパターンを用いた構造化光投影法は、プロジェクタ3から図5に示すようなグレイコードと呼ばれる特殊な2進符号の縞パターンを投光することで計測を行う手法である。この構造化光投影法では、図5に示すように、パターン光を(a)〜(c)の順に投光することにより空間をグレイコードで表現された領域に分割できる。ここで、撮像されるパターンの黒い部分は0に対応し、白い部分は1に対応する。図5(a)では、全体を2分割し、2つの領域を0,1に符号化する。また、図5(b)では、明部と暗部の4つ領域を0,1,1,0に符号化する。また、図5(c)では、8つの領域を0,1,1,0,0,1,1,0に符号化する。これにより、各領域に符号化された領域番号が付与され、図5では、各領域が(0,0,0)、(0,0,1)、(0,1,1)、(0,1,0)、(1,1,0)、(1,1,1)、(1,0,1)、(1,0,0)として判断することができる。このように3つのグレイコードパターンを用いた場合には、空間を8分割することができる。そして、この分割された領域を示す番号である空間コードと撮像手段4の視線により三点測量の原理を用いて三次元座標を計算することができる。尚、さらに詳細に形状計測を行う場合には、明部と暗部の領域を順に縮小しながらm枚のグレイコードパターンを投光することで、プロジェクタ3の照射領域を2の領域に分割することができる。 In the structured light projection method using the gray code pattern projected in S202, a measurement is performed by projecting a special binary code fringe pattern called a gray code as shown in FIG. It is. In this structured light projection method, as shown in FIG. 5, the pattern light is projected in the order of (a) to (c), so that the space can be divided into regions represented by gray codes. Here, the black part of the pattern to be imaged corresponds to 0, and the white part corresponds to 1. In FIG. 5A, the whole is divided into two and the two areas are encoded into 0 and 1. In FIG. 5B, the four areas of the bright part and the dark part are encoded into 0, 1, 1, 0. In FIG. 5C, the eight areas are encoded into 0, 1, 1, 0, 0, 1, 1, 0. As a result, an encoded region number is assigned to each region. In FIG. 5, each region is assigned (0, 0, 0), (0, 0, 1), (0, 1, 1), (0, 1, 0), (1, 1, 0), (1, 1, 1), (1, 0, 1), (1, 0, 0). Thus, when three gray code patterns are used, the space can be divided into eight. Then, the three-dimensional coordinates can be calculated by using the three-point surveying principle based on the space code which is a number indicating the divided area and the line of sight of the imaging means 4. In the case of measuring the shape in more detail, the irradiation area of the projector 3 is divided into 2 m areas by projecting m gray code patterns while sequentially reducing the bright and dark areas. be able to.

また、S202で投光する位相シフトパターンを用いた位相解析法では、図6に示すような輝度値が余弦波状に分布したストライプ状のパターン光を、その位相をπ/2ずつ、1周期分(2π)だけシフトさせながら計測対象物2に投光し、各撮像手段4a〜4fによりそれぞれ複数回撮影して、位相分布を求める。また、必要に応じて位相接続を行って、パターン光の出射方向を一意に特定する。位相値は連続した実数値として得ることができるので、サブピクセルで各撮像手段4とプロジェクタ3を対応付けることができる。また、全画素に対して1ピクセル毎に独立して位相を求めることができるため、高密度で3次元情報を得ることができる。位相シフトパターンの輝度分布は、下記の数式(1)のように表わされる。

Figure 0005633058
Further, in the phase analysis method using the phase shift pattern projected in S202, stripe-shaped pattern light in which luminance values are distributed in a cosine wave as shown in FIG. The light is projected onto the measurement object 2 while being shifted by (2π), and each of the imaging units 4a to 4f is photographed a plurality of times to obtain the phase distribution. Further, phase connection is performed as necessary to uniquely specify the emission direction of the pattern light. Since the phase value can be obtained as a continuous real value, each imaging means 4 and the projector 3 can be associated with each other by sub-pixels. In addition, since the phase can be obtained independently for every pixel with respect to all the pixels, three-dimensional information can be obtained with high density. The luminance distribution of the phase shift pattern is expressed as the following formula (1).
Figure 0005633058

また、位相シフト量αをπ/2ごとに変えた場合のある一点(x,y)における輝度をそれぞれI(x,y),I(x,y),I(x,y),I(x,y)とすると、これらの輝度は下記の数式(2)のように表わされる。

Figure 0005633058
In addition, the luminance at one point (x, y) when the phase shift amount α is changed every π / 2 is I 0 (x, y), I 1 (x, y), I 2 (x, y), respectively. , I 3 (x, y), these luminances are expressed by the following formula (2).
Figure 0005633058

これにより、その位置(x,y)での位相Φは、数式(3)のように表わされ、位相シフト量αは、数式(4)のように表わされる。尚、位相シフトパターンを用いた位相解析法では、周期性があるため、位相接続(アンラッピング)の問題があるが、ここでは、この問題を解決するために、位相シフト法にグレイコードパターンを用いた構造化光投影法を組み合わせ、各位相周期に独立したグレイコードを割り当てることでロバスト且つ高密度な対応付けを可能にしている。

Figure 0005633058
Figure 0005633058
As a result, the phase Φ at the position (x, y) is expressed as Equation (3), and the phase shift amount α is expressed as Equation (4). The phase analysis method using the phase shift pattern has a problem of phase connection (unwrapping) because of its periodicity. Here, in order to solve this problem, a gray code pattern is added to the phase shift method. By combining the structured light projection methods used and assigning independent gray codes to each phase period, robust and high-density association is possible.
Figure 0005633058
Figure 0005633058

次に、校正手段81では、S201で得られたそれぞれの画像データを用いて、各撮像手段4a〜4f間の校正を行う(S203)。本実施形態では、撮像手段4a〜4fの6台を用いているので、撮像手段4aと4b間、撮像手段4aと4c間、撮像手段4aと4d間、撮像手段4aと4e間、撮像手段4aと4f間、撮像手段4bと4c間、撮像手段4bと4d間、撮像手段4bと4e間、撮像手段4bと4f間、撮像手段4cと4d間、撮像手段4cと4e間、撮像手段4cと4f間、撮像手段4dと4e間、撮像手段4dと4f間、撮像手段4eと4f間のそれぞれの関係を全て同時に最適化して校正を行う。   Next, the calibration unit 81 performs calibration between the imaging units 4a to 4f using the respective image data obtained in S201 (S203). In this embodiment, since six imaging means 4a to 4f are used, between the imaging means 4a and 4b, between the imaging means 4a and 4c, between the imaging means 4a and 4d, between the imaging means 4a and 4e, and between the imaging means 4a. 4f, between the imaging means 4b and 4c, between the imaging means 4b and 4d, between the imaging means 4b and 4e, between the imaging means 4b and 4f, between the imaging means 4c and 4d, between the imaging means 4c and 4e, and between the imaging means 4c and Calibration is performed by simultaneously optimizing all the relationships between the imaging units 4d and 4e, between the imaging units 4d and 4f, and between the imaging units 4e and 4f.

また、校正手段81では、S203で得られた各撮像手段4a〜4fの校正結果を用いて、S201の撮影により取得した画像データ毎に、校正ボード13のそれぞれのドットパターン13aの中心点の3次元座標を算出する(S204)。   Further, the calibration unit 81 uses the calibration result of each of the imaging units 4a to 4f obtained in S203, and sets 3 of the center points of the respective dot patterns 13a of the calibration board 13 for each image data acquired by photographing in S201. Dimensional coordinates are calculated (S204).

そして、S202の撮影により得られた画像データを用いて、校正ボード13のそれぞれのドットパターン13aの中心点の2次元座標に対して、横方向の位相と縦方向の位相を計算し、この横方向と縦方向の位相値から、プロジェクタ画像上の対応する画素のサブピクセル座標を算出する(S205)。尚、プロジェクタ画像とは、プロジェクタ3が投光するパターンが構成されている画像自体のことであり、この画像はパターンが形成される際に予め規定されている。   Then, using the image data obtained by the photographing in S202, the horizontal phase and the vertical phase are calculated with respect to the two-dimensional coordinates of the center point of each dot pattern 13a of the calibration board 13, and the horizontal direction is calculated. From the phase value in the direction and the vertical direction, sub-pixel coordinates of the corresponding pixel on the projector image are calculated (S205). The projector image is an image itself in which a pattern projected by the projector 3 is configured, and this image is defined in advance when the pattern is formed.

次に、校正手段81では、S204で算出した校正ボード13のドットパターン13aの3次元座標とS205で算出されたプロジェクタ画像の2次元座標との対応付けを行うことにより、プロジェクタ3の射影行列Pを求め、この射影行列Pを分解することにより、プロジェクタ3の回転行列R、並進ベクトルt、及び内部パラメータ行列K(焦点距離μνと主点μνを含む)の初期値を算出する(S206)。 Next, the calibration unit 81 associates the three-dimensional coordinates of the dot pattern 13a of the calibration board 13 calculated in S204 with the two-dimensional coordinates of the projector image calculated in S205, thereby projecting the projection matrix P of the projector 3. seeking P, by decomposing the projection matrix P P, the rotation matrix P R of the projector 3, the translation vector P t, and the internal parameter matrix P K (focal length P f μ, P f ν and principal point P mu c , P ν c are included) (S206).

そして、M台(本実施形態では6台)の撮像手段4の校正として、下記の数式(5)の逆投影誤差を最小化することにより、各撮像手段4とプロジェクタ3の外部パラメータ及び内部パラメータを同時に最適化する(S207)。尚、ここで最適化する外部パラメータは各撮像手段4のカメラ座標系とプロジェクタ3のプロジェクタ座標系との間の回転行列Rと並進ベクトルtで、内部パラメータは焦点距離f=[μν]、主点=[μν]、及び歪み係数k=[]である。また、数式(5)の[^μ^ν]は、仮定パラメータで投光された点の座標を表わし、下記の数式(6)の形式で算出される。また、逆投影誤差の最小化には、例えば、標準的Levenberg−Marquardt法を用いることができる。尚、プロジェクタ3と各撮像手段4a〜4f間の校正は、本実施形態の方法に限定されるものではなく、他の従来公知の校正方法を用いても良い。

Figure 0005633058
Figure 0005633058
Then, as calibration of the M imaging means 4 (six in this embodiment), the external parameters and internal parameters of each imaging means 4 and the projector 3 are minimized by minimizing the back projection error of the following formula (5). Are simultaneously optimized (S207). The external parameters to be optimized here are a rotation matrix j R and a translation vector j t between the camera coordinate system of each imaging means 4 and the projector coordinate system of the projector 3, and the internal parameters are focal lengths j f = [ j f μ, j f ν], principal point j u c = [j μ c , j ν c], and the distortion coefficient j k = [j k 1, j k 2, j k 3, j p 1, j p 2 ]. [ J ^ μ i , j ^ ν i ] in Expression (5) represents the coordinates of the projected point with the assumed parameters, and is calculated in the following Expression (6). Further, for example, a standard Levenberg-Marquardt method can be used to minimize the backprojection error. The calibration between the projector 3 and each of the imaging units 4a to 4f is not limited to the method of this embodiment, and other conventionally known calibration methods may be used.
Figure 0005633058
Figure 0005633058

このように計測対象物2の3次元計測処理を行うにあたって、予め校正ボード13を用いて、プロジェクタ3と各撮像手段4a〜4f間の校正を行っておく(S101)。そして、その後、間接反射成分分離手段82により、プロジェクタ3により計測対象物2に投光されるパターン光が、計測対象物2の表面で反射して、それぞれの撮像手段4に直接入射するそれぞれの直接反射成分と、プロジェクタ3により計測対象物2に投光されるパターン光が、計測対象物2の表面で反射した後、前記表面と異なる部分で反射して、それぞれの撮像手段4に入射するそれぞれの間接反射成分とを分離するための解析を行う(S102)。S102では、パターン光としてプロジェクタ3から図7に示すような白黒のチェスボードパターンを計測対象物2に投光し、各撮像手段4により撮影する。このチェスボードパターンは、図7に示すように、正方形状の白黒パターンが規則正しく並んで配置されており、2次元的に十分に高周波であり、且つパターンの中の白い部分の比率β=0.5である。ここで、撮像手段4で観測される光Lは、下記の数式(7)のように表わされる。

Figure 0005633058
Thus, when performing the three-dimensional measurement process of the measurement object 2, the calibration between the projector 3 and each of the imaging units 4a to 4f is performed in advance using the calibration board 13 (S101). Then, the pattern light projected onto the measurement object 2 by the projector 3 by the indirect reflection component separation means 82 is reflected from the surface of the measurement object 2 and directly enters each imaging means 4. The direct reflection component and the pattern light projected on the measurement object 2 by the projector 3 are reflected by the surface of the measurement object 2, then reflected by a portion different from the surface, and enter each imaging unit 4. An analysis for separating each indirect reflection component is performed (S102). In S <b> 102, a black and white chessboard pattern as shown in FIG. 7 is projected from the projector 3 as pattern light onto the measurement object 2 and photographed by each imaging unit 4. As shown in FIG. 7, this chessboard pattern has square black-and-white patterns arranged regularly, has a sufficiently high frequency two-dimensionally, and has a white portion ratio β = 0. 5. Here, the light L observed by the imaging means 4 is expressed as the following mathematical formula (7).
Figure 0005633058

この際、投光したパターン光の2次元的な周波数が十分に高い場合には、計測対象物2の表面に投光されている部分(パターン画像の白い部分)と投光されていない部分(パターン画像の黒い部分)の輝度は、それぞれ下記の数式(8)により計算できる。これにより、パターンの中の白い部分の比率βが既知の高周波数パターンとその反転したパターンを投光して撮影した2枚の画像から直接反射成分と間接反射成分を求めることができる。尚、実際にはパターンの白黒の境界の部分の輝度は正確に計測できないため、S102では、プロジェクタ3から計測対象物2に対して、まず白黒のチェスボードパターンをそのまま投光し、次いで順にチェスボードパターンを縦方向に窓半分幅だけずらしたパターン、横方向に窓半分幅だけずらしたパターン、及び斜め方向に窓対角半分幅だけずらしたパターンの4つのパターンと、この4つのパターンそれぞれの白黒を反転させたパターンの計8つのそれぞれのパターンが投光された計測対象物2を各撮像手段4により撮影して得られたそれぞれの複数枚の画像から各画素の最大輝度をLon、最小輝度をLoffとして計算する。

Figure 0005633058
At this time, when the two-dimensional frequency of the projected pattern light is sufficiently high, a portion projected on the surface of the measurement object 2 (a white portion of the pattern image) and a portion not projected ( The brightness of the black portion of the pattern image can be calculated by the following formula (8). As a result, the direct reflection component and the indirect reflection component can be obtained from two images captured by projecting a high-frequency pattern with a known white portion ratio β in the pattern and an inverted pattern thereof. In practice, since the luminance at the black and white boundary portion of the pattern cannot be measured accurately, in step S102, the projector 3 first projects the black and white chessboard pattern as it is, and then sequentially checks the chessboard. There are four patterns: a pattern in which the board pattern is shifted in the vertical direction by half the window width, a pattern in which the horizontal pattern is shifted by half the window width, and a pattern in which the board pattern is shifted in the diagonal direction by half the window diagonal width. The maximum luminance of each pixel is set to Lon and the minimum from each of a plurality of images obtained by photographing the measurement object 2 on which a total of eight patterns of black and white are projected by each imaging means 4 The luminance is calculated as Loff.
Figure 0005633058

次に、3次元計測装置1では、3次元点群計測手段83により各撮像手段4a〜4fにより撮影された画像に基づいて、計測対象物2の3次元点群を計測する(S103)。S103では、校正処理のS202と同様にグレイコードパターンを用いた構造化光投影法と位相シフトパターンを用いた位相解析法を組み合わせた方法により各撮像手段4a〜4fで撮影された画像データに基づいて、3次元点群をそれぞれ計測する。これにより、各撮像手段4a〜4fの計6台分の3次元点群の計測結果を得ることができる。尚、この際も、S202と同様にプロジェクタ3は、グレイコードパターンと位相シフトパターンの縞方向がプロジェクタ3と各撮像手段4a〜4fのそれぞれのエピポーラ線に対して平行にならないようにそれぞれ別々に投光する。また、グレイコードパターンを用いた構造化光投影法において、撮像手段4により撮影されたパターン光画像を2値化処理しデコードする際、パターン光画像中の輝度分布は計測対象物2の表面反射率によって変動し、又、間接反射成分も含まれるため、単純な閾値処理では安定した2値化処理が行えない場合がある。そこで、ここでは、S102による間接反射成分の解析により求められる注目画素の間接反射成分Lgの最大値を二値化閾値として用いる。具体的には、この間接反射成分Lgよりも明るい画素を白画素と判断し、直接反射成分Ldよりも暗い画素を黒画素と判断する。これにより、直接反射成分と間接反射成分を分離することができる。尚、計測対象物2の3次元点群を計測する方法は、これに限定されるものではなく、従来公知のパターン光を用いた方法であっても良い。   Next, in the three-dimensional measuring apparatus 1, the three-dimensional point group of the measuring object 2 is measured based on the images photographed by the imaging units 4a to 4f by the three-dimensional point group measuring unit 83 (S103). In S103, based on the image data photographed by each of the imaging units 4a to 4f by a method in which the structured light projection method using the gray code pattern and the phase analysis method using the phase shift pattern are combined as in S202 of the calibration process. Then, each 3D point group is measured. Thereby, the measurement result of the three-dimensional point group for a total of six of each imaging means 4a-4f can be obtained. In this case as well, similarly to S202, the projector 3 is separately provided so that the stripe directions of the gray code pattern and the phase shift pattern are not parallel to the epipolar lines of the projector 3 and the imaging units 4a to 4f. Flood light. Further, in the structured light projection method using the gray code pattern, when the pattern light image photographed by the imaging unit 4 is binarized and decoded, the luminance distribution in the pattern light image is the surface reflection of the measurement object 2. Since it varies depending on the rate and also includes an indirect reflection component, there is a case where a stable binarization process cannot be performed by a simple threshold process. Therefore, here, the maximum value of the indirect reflection component Lg of the target pixel obtained by the analysis of the indirect reflection component in S102 is used as the binarization threshold. Specifically, a pixel brighter than the indirect reflection component Lg is determined as a white pixel, and a pixel darker than the direct reflection component Ld is determined as a black pixel. Thereby, the direct reflection component and the indirect reflection component can be separated. Note that the method of measuring the three-dimensional point group of the measurement object 2 is not limited to this, and may be a method using a conventionally known pattern light.

そして、3次元計測装置1では、統合手段84によりS103で計測されたそれぞれの3次元点群をS101の処理により得られた校正結果に基づいて、プロジェクタ3の座標系に射影し、それぞれの信頼度を比較することによりそれぞれの3次元点群の計測結果を統合する(S104)。S104では、例えば、撮像手段4aで撮影された画像に基づいて計測された3次元点群をプロジェクタ3の座標系に射影し、座標を整数化する。そして、射影された画素に既に3次元座標が付与されている場合には、信頼度を比較し、信頼度の高い方を残し、信頼度の低い方については候補から削除する。本実施形態では、信頼度の比較に、S103の位相シフトパターンを用いた位相解析法を行う際に得られる輝度の振幅aを比較し、この振幅aが高い方を信頼性が高いものとして選択する。このような処理を各撮像手段4で撮影された画像に基づいて計測されたそれぞれの3次元点群について繰り返し行い、残りの3次元点群もプロジェクタ座標系で統合する。これにより、計測対象物2の鏡面反射成分が強いため、いずれかの撮像手段4で白飛びが生じた場合や、反射光が弱いため、黒潰れが生じたような場合でも、異なる方向から撮像した他の撮像手段4により得られる画像に基づいて計測される信頼度の高いそれぞれの3次元点群の計測結果を得ることができるので、適切な3次元計測を行うことができる。尚、信頼度の比較に用いる値は、輝度の振幅aに限定されるものではなく、3次元点群の計測の仕方等に応じて、他の値を用いて信頼度を比較するようにしても良い。また、S104では、S103で得られた3次元点群をそれぞれプロジェクタ座標系に射影して信頼度を比較しているが、他の所定の座標系に射影して信頼度を比較するようにしても良い。   Then, in the three-dimensional measuring apparatus 1, each three-dimensional point group measured in S103 by the integrating unit 84 is projected onto the coordinate system of the projector 3 based on the calibration result obtained by the processing in S101, and the respective reliability is obtained. By comparing the degrees, the measurement results of the respective three-dimensional point groups are integrated (S104). In S104, for example, a three-dimensional point group measured based on an image photographed by the imaging unit 4a is projected onto the coordinate system of the projector 3, and the coordinates are converted into integers. If three-dimensional coordinates have already been assigned to the projected pixel, the reliability is compared, the higher reliability is left, and the lower reliability is deleted from the candidates. In the present embodiment, the luminance amplitude a obtained when performing the phase analysis method using the phase shift pattern of S103 is compared for reliability comparison, and the higher amplitude a is selected as having higher reliability. To do. Such processing is repeatedly performed for each three-dimensional point group measured based on the image photographed by each imaging unit 4, and the remaining three-dimensional point group is also integrated in the projector coordinate system. As a result, since the specular reflection component of the measurement object 2 is strong, even if whiteout occurs in any of the imaging means 4 or the reflected light is weak, even if black crushing occurs, images are taken from different directions. Since it is possible to obtain the measurement results of the respective three-dimensional point groups with high reliability measured based on the images obtained by the other imaging means 4, appropriate three-dimensional measurement can be performed. Note that the value used for comparison of the reliability is not limited to the luminance amplitude a, and the reliability is compared using other values depending on the measurement method of the three-dimensional point group. Also good. In S104, the reliability is compared by projecting the three-dimensional point group obtained in S103 to the projector coordinate system, but the reliability is compared by projecting to the other predetermined coordinate system. Also good.

本実施形態では、プロジェクタ3を1台配置し、撮像手段4をそれぞれ異なる方向に複数配置しているが、プロジェクタ3と複数の撮像手段4の関係を入れ替えても良い。具体的には、プロジェクタ3をそれぞれ異なる向きに複数配置し、それぞれのプロジェクタ3からパターン光が投光された計測対象物2を、1台の撮像手段4により複数回撮影するようにしても良い。この場合にも、各プロジェクタ3と撮像手段4との間の関係を予め校正しておき、それぞれプロジェクタ3と撮像手段4により計測対象物2の3次元点群の計測を行うことにより、プロジェクタ3の台数分の3次元点群の計測結果を得ることができる。そして、この3次元点群の計測結果を統合することで、信頼度の高い3次元計測を行うことができる。   In the present embodiment, one projector 3 is arranged and a plurality of imaging units 4 are arranged in different directions, but the relationship between the projector 3 and the plurality of imaging units 4 may be switched. Specifically, a plurality of projectors 3 may be arranged in different directions, and the measurement object 2 on which pattern light is projected from each projector 3 may be photographed a plurality of times by a single imaging unit 4. . Also in this case, the relationship between each projector 3 and the image pickup means 4 is calibrated in advance, and the projector 3 and the image pickup means 4 respectively measure the three-dimensional point group of the measurement object 2, whereby the projector 3 As a result, it is possible to obtain the measurement results of the three-dimensional point group corresponding to the number. Then, by integrating the measurement results of the three-dimensional point group, highly reliable three-dimensional measurement can be performed.

尚、本発明の実施形態は上述の形態に限るものではなく、本発明の思想の範囲を逸脱しない範囲で適宜変更することができる。   In addition, embodiment of this invention is not restricted to the above-mentioned form, In the range which does not deviate from the range of the thought of this invention, it can change suitably.

本発明に係る3次元計測装置及び3次元計測方法は、静的又は動的計測対象物の3次元計測を高速且つ高精度に行うための技術として有効に利用することができる。   The three-dimensional measurement apparatus and the three-dimensional measurement method according to the present invention can be effectively used as a technique for performing three-dimensional measurement of a static or dynamic measurement object at high speed and with high accuracy.

1 3次元計測装置
2 計測対象物
3 プロジェクタ(パターン投光手段)
4、4a〜4f 撮像手段
81 校正手段
82 間接反射成分分離手段
83 3次元点群計測手段
84 統合手段
DESCRIPTION OF SYMBOLS 1 3D measuring device 2 Measurement object 3 Projector (pattern light projection means)
4, 4a to 4f Image pickup means 81 Calibration means 82 Indirect reflection component separation means 83 Three-dimensional point group measurement means 84 Integration means

Claims (6)

パターン光を計測対象物に投光するパターン投光手段と、
前記パターン投光手段により前記パターン光が投光された前記計測対象物をそれぞれ異なる方向から撮像する3台以上の撮像手段と、
前記パターン投光手段と前記それぞれの撮像手段との間の関係を示した回転行列、並進ベクトル、焦点距離、主点、歪み係数からなる非線形の数式モデルを用い、前記数式モデルへ非線形最小二乗法を適用する事により、前記撮像手段と前記パターン投光手段との間の校正に用いる回転行列、並進ベクトル、焦点距離、主点、歪み係数の最適解を算出して校正を行う校正手段と、
前記それぞれの撮像手段により撮像された画像に基づいて、それぞれ3次元点群を計測する3次元点群計測手段と、
前記3次元点群計測手段により計測された前記それぞれの3次元点群を前記校正手段により得られた校正結果に基づいて、所定の座標系に射影し、それぞれの信頼度を比較することにより前記それぞれの3次元点群の計測結果を統合する統合手段と、を備えることを特徴とする3次元計測装置。
Pattern light projecting means for projecting pattern light onto a measurement object;
Three or more imaging means for imaging the measurement object projected with the pattern light by the pattern light projecting means from different directions;
Using a nonlinear mathematical model comprising a rotation matrix, a translation vector, a focal length, a principal point, and a distortion coefficient indicating the relationship between the pattern light projecting means and the respective imaging means, a nonlinear least square method is applied to the mathematical model. By applying a calibration means for calculating and correcting the rotation matrix, translation vector, focal length, principal point, distortion coefficient used for calibration between the imaging means and the pattern light projecting means, and
Three-dimensional point cloud measuring means for measuring a three-dimensional point cloud based on images captured by the respective imaging means;
By projecting each of the three-dimensional point groups measured by the three-dimensional point group measuring unit onto a predetermined coordinate system based on the calibration result obtained by the calibration unit, and comparing the respective reliability levels. A three-dimensional measurement apparatus comprising: an integration unit that integrates measurement results of the respective three-dimensional point groups.
前記パターン光は、縞パターン光であって、
前記パターン投光手段は、前記縞パターン光の縞方向が前記パターン投光手段と前記各撮像手段のそれぞれのエピポーラ線に対して平行にならないように前記縞パターン光を前記計測対象物に投光することを特徴とする請求項1に記載の3次元計測装置。
The pattern light is a stripe pattern light,
The pattern projecting unit projects the fringe pattern light onto the measurement object so that the fringe direction of the fringe pattern light is not parallel to the epipolar lines of the pattern projecting unit and each imaging unit. The three-dimensional measuring apparatus according to claim 1, wherein:
前記パターン投光手段により前記計測対象物に投光されるパターン光が、前記計測対象物の表面で反射して、前記撮像手段に直接入射する直接反射成分と、前記パターン投光手段により前記計測対象物に投光されるパターン光が、前記計測対象物の表面で反射した後、前記表面と異なる部分で反射して、前記撮像手段に入射する間接反射成分とを分離する間接反射成分分離手段を備えることを特徴とする請求項1又は2に記載の3次元計測装置。   The pattern light projected on the measurement object by the pattern light projecting means is reflected by the surface of the measurement object and directly incident on the imaging means, and the measurement by the pattern light projecting means. Indirect reflection component separation means for separating the indirect reflection component incident on the imaging means after the pattern light projected on the object is reflected from the surface of the measurement object and then reflected by a portion different from the surface. The three-dimensional measuring apparatus according to claim 1, comprising: パターン光を計測対象物に投光するパターン投光手段と該パターン投光手段により前記パターン光が投光された前記計測対象物をそれぞれ異なる方向から撮像する3台以上の撮像手段との間の関係を示した回転行列、並進ベクトル、焦点距離、主点、歪み係数からなる非線形の数式モデルを用い、前記数式モデルへ非線形最小二乗法を適用する事により、前記撮像手段と前記パターン投光手段との校正に用いる回転行列、並進ベクトル、焦点距離、主点、歪み係数の最適解を算出して校正を行う校正ステップと、
前記それぞれの撮像手段により撮像された画像に基づいて、それぞれ3次元点群を計測する3次元点群計測ステップと、
前記3次元点群計測ステップにより計測された前記それぞれの3次元点群を前記校正ステップにより得られた校正結果に基づいて、所定の座標系に射影し、それぞれの信頼度を比較することにより前記それぞれの3次元点群の計測結果を統合する統合ステップと、を有することを特徴とする3次元計測方法。
Between pattern light projecting means for projecting pattern light onto a measurement object and three or more image capturing means for capturing images of the measurement object on which the pattern light is projected by the pattern light projecting means from different directions. By using a nonlinear mathematical model composed of a rotation matrix, a translation vector, a focal length, a principal point, and a distortion coefficient indicating the relationship, and applying a nonlinear least square method to the mathematical model, the imaging unit and the pattern projecting unit A calibration step for calculating and calibrating the optimal solution of rotation matrix, translation vector, focal length, principal point, distortion coefficient used for calibration with
A three-dimensional point cloud measuring step for measuring a three-dimensional point cloud based on the images picked up by the respective image pickup means;
Based on the calibration result obtained by the calibration step, the respective three-dimensional point group measured by the three-dimensional point group measurement step is projected onto a predetermined coordinate system, and the reliability is compared with each other. An integration step of integrating the measurement results of the respective three-dimensional point groups.
前記パターン光は、縞パターン光であって、
前記パターン投光手段は、前記縞パターン光の縞方向が前記パターン投光手段と前記各撮像手段のそれぞれのエピポーラ線に対して平行にならないように前記縞パターン光を前記計測対象物に投光することを特徴とする請求項4に記載の3次元計測方法。
The pattern light is a stripe pattern light,
The pattern projecting unit projects the fringe pattern light onto the measurement object so that the fringe direction of the fringe pattern light is not parallel to the epipolar lines of the pattern projecting unit and each imaging unit. The three-dimensional measurement method according to claim 4, wherein:
前記3次元点群計測ステップを行う前に、前記パターン投光手段により前記計測対象物に投光されるパターン光が、前記計測対象物の表面で反射して、前記撮像手段に直接入射する直接反射成分と、前記パターン投光手段により前記計測対象物に投光されるパターン光が、前記計測対象物の表面で反射した後、前記表面と異なる部分で反射して、前記撮像手段に入射する間接反射成分とを分離する間接反射成分分離ステップを有することを特徴とする請求項4又は5に記載の3次元計測方法。   Before performing the three-dimensional point cloud measurement step, the pattern light projected onto the measurement object by the pattern light projecting means is reflected directly on the surface of the measurement object and directly enters the imaging means. The reflection component and the pattern light projected on the measurement object by the pattern light projecting means are reflected by the surface of the measurement object, and then reflected by a portion different from the surface and enter the imaging means. 6. The three-dimensional measuring method according to claim 4, further comprising an indirect reflection component separating step for separating the indirect reflection component.
JP2013150585A 2013-07-19 2013-07-19 3D measuring apparatus and 3D measuring method Active JP5633058B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013150585A JP5633058B1 (en) 2013-07-19 2013-07-19 3D measuring apparatus and 3D measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013150585A JP5633058B1 (en) 2013-07-19 2013-07-19 3D measuring apparatus and 3D measuring method

Publications (2)

Publication Number Publication Date
JP5633058B1 true JP5633058B1 (en) 2014-12-03
JP2015021862A JP2015021862A (en) 2015-02-02

Family

ID=52139010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013150585A Active JP5633058B1 (en) 2013-07-19 2013-07-19 3D measuring apparatus and 3D measuring method

Country Status (1)

Country Link
JP (1) JP5633058B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104567727A (en) * 2014-12-24 2015-04-29 天津大学 Three-dimensional target and global unified calibration method for linear structured light profile sensor
CN107167092A (en) * 2017-05-18 2017-09-15 上海晶电新能源有限公司 A kind of heliostat surface testing system and method based on many mesh image recognitions
CN110163958A (en) * 2019-05-05 2019-08-23 盎锐(上海)信息科技有限公司 Modeling method and device based on projection grating modeling
JP2021004863A (en) * 2019-06-27 2021-01-14 株式会社キーエンス Inspection apparatus
CN112639395A (en) * 2018-09-27 2021-04-09 雅马哈发动机株式会社 Three-dimensional measuring apparatus
US11426876B2 (en) 2018-04-05 2022-08-30 Omron Corporation Information processing apparatus, information processing method, and program

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016166807A1 (en) * 2015-04-14 2016-10-20 ヤマハ発動機株式会社 Appearance inspection apparatus and appearance inspection method
JP6800597B2 (en) * 2016-03-30 2020-12-16 キヤノン株式会社 Controls, control methods and programs
JP2018146449A (en) * 2017-03-07 2018-09-20 オムロン株式会社 Device and method for measuring three-dimensional shape
JP6658625B2 (en) 2017-03-08 2020-03-04 オムロン株式会社 Three-dimensional shape measuring device and three-dimensional shape measuring method
JP6975106B2 (en) * 2018-07-31 2021-12-01 株式会社デンソーアイティーラボラトリ 3D shape measurement system, 3D shape measurement method, and 3D shape measurement program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11241906A (en) * 1997-12-05 1999-09-07 Nippon Telegr & Teleph Corp <Ntt> Method for measuring distance, distance measuring device and record medium storing distance measuring program
JP2002280287A (en) * 2001-03-19 2002-09-27 Nikon Corp Method and device for detecting position, method and device for exposure, and method of manufacturing device
JP2004077410A (en) * 2002-08-22 2004-03-11 Ishikawajima Harima Heavy Ind Co Ltd Target projection type three-dimensional geometry measuring method and target projection type three-dimensional geometry measuring apparatus
JP2006105755A (en) * 2004-10-05 2006-04-20 Nec Engineering Ltd Three-dimensional shape measurement system and measurement method
JP2007518098A (en) * 2004-01-15 2007-07-05 テクニオン リサーチ アンド ディベロップメント ファウンデーション リミテッド 3D video scanner
JP2012058076A (en) * 2010-09-09 2012-03-22 3D Media Co Ltd Three-dimensional measurement device and three-dimensional measurement method
WO2012047774A2 (en) * 2010-10-08 2012-04-12 Omron Corporation Shape measuring apparatus and shape measuring method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11241906A (en) * 1997-12-05 1999-09-07 Nippon Telegr & Teleph Corp <Ntt> Method for measuring distance, distance measuring device and record medium storing distance measuring program
JP2002280287A (en) * 2001-03-19 2002-09-27 Nikon Corp Method and device for detecting position, method and device for exposure, and method of manufacturing device
JP2004077410A (en) * 2002-08-22 2004-03-11 Ishikawajima Harima Heavy Ind Co Ltd Target projection type three-dimensional geometry measuring method and target projection type three-dimensional geometry measuring apparatus
JP2007518098A (en) * 2004-01-15 2007-07-05 テクニオン リサーチ アンド ディベロップメント ファウンデーション リミテッド 3D video scanner
JP2006105755A (en) * 2004-10-05 2006-04-20 Nec Engineering Ltd Three-dimensional shape measurement system and measurement method
JP2012058076A (en) * 2010-09-09 2012-03-22 3D Media Co Ltd Three-dimensional measurement device and three-dimensional measurement method
WO2012047774A2 (en) * 2010-10-08 2012-04-12 Omron Corporation Shape measuring apparatus and shape measuring method
JP2013543591A (en) * 2010-10-08 2013-12-05 オムロン株式会社 Shape measuring apparatus and shape measuring method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6014011256; 徐 剛(外3名): 'ステレオカメラと位相シフトによる拡散反射面と鏡面の3次元形状計測' 情報処理学会研究報告 CVIM,[コンピュータビジョンとイメージメディア] 2007-CVIM-157 (7), 20070111, pp. 45-51, 一般社団法人情報処理学会 *
JPN6014021862; '4.1 ステレオ方式' 画像情報処理2 テキスト2 , 2010, pp. 32-37, 3次元ビジョン研究室 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104567727A (en) * 2014-12-24 2015-04-29 天津大学 Three-dimensional target and global unified calibration method for linear structured light profile sensor
CN104567727B (en) * 2014-12-24 2017-05-24 天津大学 Global unified calibration method for linear structured light profile sensor through three-dimensional target
CN107167092A (en) * 2017-05-18 2017-09-15 上海晶电新能源有限公司 A kind of heliostat surface testing system and method based on many mesh image recognitions
CN107167092B (en) * 2017-05-18 2019-12-13 上海晶电新能源有限公司 heliostat surface shape detection system and method based on multi-view image recognition
US11426876B2 (en) 2018-04-05 2022-08-30 Omron Corporation Information processing apparatus, information processing method, and program
CN112639395A (en) * 2018-09-27 2021-04-09 雅马哈发动机株式会社 Three-dimensional measuring apparatus
CN110163958A (en) * 2019-05-05 2019-08-23 盎锐(上海)信息科技有限公司 Modeling method and device based on projection grating modeling
CN110163958B (en) * 2019-05-05 2023-02-10 上海盎维信息技术有限公司 Modeling method and device based on projection grating modeling
JP2021004863A (en) * 2019-06-27 2021-01-14 株式会社キーエンス Inspection apparatus
JP7247031B2 (en) 2019-06-27 2023-03-28 株式会社キーエンス inspection equipment

Also Published As

Publication number Publication date
JP2015021862A (en) 2015-02-02

Similar Documents

Publication Publication Date Title
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
Khoshelham Accuracy analysis of kinect depth data
US9007602B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and computer-readable medium storing control program
US11763518B2 (en) Method and system for generating a three-dimensional image of an object
US10699476B2 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
JP6363863B2 (en) Information processing apparatus and information processing method
US20180262737A1 (en) Scan colorization with an uncalibrated camera
US20120176478A1 (en) Forming range maps using periodic illumination patterns
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
JP2018514237A (en) Texture mapping apparatus and method for dental 3D scanner
KR20130032368A (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
CN111047650B (en) Parameter calibration method for time-of-flight camera
CN105306922A (en) Method and device for obtaining depth camera reference diagram
Shim et al. Time-of-flight sensor and color camera calibration for multi-view acquisition
Wilm et al. Accurate and simple calibration of DLP projector systems
JP2011075336A (en) Three-dimensional shape measuring instrument and method
JP2018009927A (en) Image processing device, image processing method and program
GB2569609A (en) Method and device for digital 3D reconstruction
EP3048581B1 (en) Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium
JP5743433B2 (en) 3D shape measuring device
KR101314101B1 (en) System for three-dimensional measurement and method therefor
KR20130019080A (en) Image apparatus for combining plenoptic camera and depth camera, and image processing method
US20200234458A1 (en) Apparatus and method for encoding in structured depth camera system
JP5968370B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and program
TWI480507B (en) Method and system for three-dimensional model reconstruction

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140922

R150 Certificate of patent or registration of utility model

Ref document number: 5633058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250