JP2007132715A - Three-dimensional measuring method, measuring device, restoring method, and restoring device - Google Patents
Three-dimensional measuring method, measuring device, restoring method, and restoring device Download PDFInfo
- Publication number
- JP2007132715A JP2007132715A JP2005323904A JP2005323904A JP2007132715A JP 2007132715 A JP2007132715 A JP 2007132715A JP 2005323904 A JP2005323904 A JP 2005323904A JP 2005323904 A JP2005323904 A JP 2005323904A JP 2007132715 A JP2007132715 A JP 2007132715A
- Authority
- JP
- Japan
- Prior art keywords
- image
- difference area
- area
- coordinate position
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、光学的に差異となる差異領域を用いたステレオ視により物体の形状を高精度で計測することができる方法および装置、差異領域を用いたステレオ視により物体の形状を高精度で計測し、その三次元形状を表示画面上に三次元モデルとして復元する方法および装置に関する。 The present invention provides a method and apparatus capable of measuring the shape of an object with high accuracy by stereo viewing using a difference area that is optically different, and measuring the shape of an object with high accuracy by stereo viewing using a difference area. The present invention also relates to a method and apparatus for restoring the three-dimensional shape as a three-dimensional model on a display screen.
惑星における鉱物資源の調査において、コストや安全性の点からローバを用いた惑星探索が注目されている。ローバは、その鉱物資源の三次元形状等を測定するための測定装置を搭載している。測定装置の測定精度を向上させる場合、その重量が大きくなり、消費電力が増大するため、ローバに搭載できる測定装置には限界がある。このため、ローバに搭載した測定装置を用いて三次元形状等を測定する方法では、測定精度に限界があった。 In the survey of mineral resources on planets, planetary exploration using rover has attracted attention from the viewpoint of cost and safety. The rover is equipped with a measuring device for measuring the three-dimensional shape of the mineral resource. When measuring accuracy of a measuring device is increased, its weight increases and power consumption increases, so there is a limit to the measuring device that can be mounted on a rover. For this reason, the method of measuring a three-dimensional shape or the like using a measuring device mounted on a rover has a limit in measurement accuracy.
この問題に鑑み、高精度で測定するには、例えば、ローバにマニピュレータを搭載し、鉱物資源を、マニピュレータを用いて採取し、持ち帰る方法が考えられる。マニピュレータに関しては、ジョイスティックやスレーブアームを用いた遠隔操作に関する研究が数多く行われているが、惑星は地球からの空間的距離が大きく、通信時間遅れの問題が生じるため、正確に目標物体を把握することは困難である。このため、マニピュレータを用いて目標とする鉱物資源を採取することは困難であると考えられる。 In view of this problem, in order to measure with high accuracy, for example, a method of mounting a manipulator on a rover, collecting a mineral resource using the manipulator, and taking it home can be considered. As for manipulators, a lot of research on remote control using joysticks and slave arms has been conducted, but the planet has a large spatial distance from the earth and causes a problem of communication time delay, so it accurately grasps the target object. It is difficult. For this reason, it is thought that it is difficult to extract a target mineral resource using a manipulator.
三次元形状を測定する方法として、ステレオ視による方法、光レーダ法、アクティブステレオ法等がある。ステレオ視による方法は、2台のカメラを使用して異なる2つの視点から同一対象を観測し、それぞれの画像上への投影位置の違いから、対象の三次元情報を得ようとするものである。この方法は、少ない装置で、簡単に計測することができるという利点を有するものの、高精度で測定することができないといった問題がある。光レーダ法は、測定対象となる物体に光を当て、その光が戻ってくるまでの時間を計測することにより、距離画像を得る方法である。また、アクティブステレオ法は、カメラを2台使用する代わりに、1台を、光を発生する機械に置き換えて計測する方法である。これらの方法は、ステレオ視による方法に比較して、高精度な測定結果を得ることができるという利点を有するものの、光や超音波等のエネルギーを放出する機器が必要であり、装置が大きく、重量が増大し、さらには消費電力も増大するといった問題があり、特に、上記ローバに搭載することは困難であった。 As a method for measuring a three-dimensional shape, there are a method using stereo vision, an optical radar method, an active stereo method, and the like. In the stereo vision method, two cameras are used to observe the same object from two different viewpoints, and three-dimensional information of the object is obtained from the difference in projection position on each image. . Although this method has the advantage that it can be easily measured with a small number of devices, there is a problem that it cannot be measured with high accuracy. The optical radar method is a method of obtaining a distance image by applying light to an object to be measured and measuring the time until the light returns. The active stereo method is a method in which one camera is replaced with a machine that generates light instead of using two cameras. Although these methods have the advantage of being able to obtain highly accurate measurement results compared to methods based on stereo vision, a device that emits energy such as light and ultrasonic waves is necessary, and the device is large, There is a problem that the weight increases and the power consumption also increases. In particular, it is difficult to mount on the rover.
そこで、上記ステレオ視による方法を用い、高精度の三次元形状を復元する方法および装置が提案されている(例えば、特許文献1〜3参照)。ここで提案されている特許文献1に記載の装置は、カメラで撮影可能な範囲に存在する対象物の三次元形状データをステレオ計測処理によって生成し、三次元位置データが得られた点と得られなかった点との境界をチェーン状につなぎ合わせ、そのつなぎ合わせた閉曲線を抽出することによりデータ欠落部を抽出し、閉曲線上の点の高さデータの平均値とデータ欠落部内の各点の位置データからデータ欠落部の各点の三次元位置データを計算し、設定するものである。この装置では、データ欠落点のない三次元形状データを生成するため、高精度の三次元モデルを復元することができる。
In view of this, a method and apparatus for restoring a highly accurate three-dimensional shape using the method based on stereo vision has been proposed (see, for example,
上記特許文献2に記載のシステムは、測定対象物を異なるアングルから撮影して得られた複数の画像データから測定対象物のエッジ等を示す特徴データを抽出し、特徴データに基づいて画像データ間の拘束条件を算出し、この拘束条件を満たすような特徴データの対応付けを行い、与えられた画像データ中の一箇所の長さのデータと、特徴データと拘束条件とから算出される透視投影変換行列とから、三次元形状を復元するものである。このシステムでは、誤対応や精度の低い特徴データ間の対応付けを防止して、対応付けの精度を向上させ、高精度の三次元形状を復元することができる。
The system described in
上記特許文献3に記載の装置は、物体を撮影した二次元輝度画像データについてエッジを検出し、エッジから物体の表面の滑らかさを示すパラメータを算出し、このパラメータを用いて陰影情報として反射地図パラメータを決定し、この反射地図パラメータを用いて三次元形状を復元する画像データを生成するものである。 The apparatus described in Patent Document 3 detects an edge from two-dimensional luminance image data obtained by photographing an object, calculates a parameter indicating the smoothness of the surface of the object from the edge, and uses this parameter as a reflection map as shadow information. The parameters are determined, and image data for restoring the three-dimensional shape is generated using the reflection map parameters.
これらの装置およびシステムは、カメラといった撮影手段と、画像データを処理する処理手段とを備えた簡単な装置で、高精度の三次元形状を復元することができるものの、閉曲線を生成および抽出して三次元位置データを計算する必要があり、画像データ中の一箇所の長さのデータを与えるとともに、特徴データを抽出して拘束条件を計算し、その特徴データと拘束条件から透視投影変換行列を算出する必要があり、また、物体の表面の滑らかさを示すパラメータを算出し、このパラメータを用いて陰影情報として反射地図パラメータを決定する必要があり、計算時間がかかるといった問題があった。計算時間を短縮するため、高い計算処理性能を有するコンピュータを使用することができるが、上記ローバのように搭載できる装置の重量、消費電力等が限定される場合、コンピュータの処理性能も限定されるため、できるだけ簡単で、高精度で、消費電力に鑑み短い計算時間で三次元形状を復元できる装置および方法が望まれている。 These devices and systems are simple devices equipped with a photographing means such as a camera and a processing means for processing image data, and can restore a highly accurate three-dimensional shape, but generate and extract a closed curve. It is necessary to calculate three-dimensional position data, giving the data of the length of one place in the image data, extracting the feature data and calculating the constraint condition, and calculating the perspective projection transformation matrix from the feature data and constraint condition There is a problem in that it is necessary to calculate, and it is necessary to calculate a parameter indicating the smoothness of the surface of the object, and to determine a reflection map parameter as shadow information using this parameter, which requires a calculation time. In order to shorten the calculation time, a computer having high calculation processing performance can be used. However, when the weight, power consumption, etc. of a device that can be mounted like the rover are limited, the processing performance of the computer is also limited. Therefore, an apparatus and a method that can restore a three-dimensional shape as easily as possible, with high accuracy, and in a short calculation time in view of power consumption are desired.
ステレオ視における画像間の対応付けにおいて、曖昧さは必ず生じる重要な問題である。この問題を解決するべく、局所的な濃度パターン(ローカルサポート)を手がかりとして画像間を対応付けする方法が多く提案されている。例えば、左右一方の画像内の注目点の周りにウィンドウを設定し、そのウィンドウをテンプレートとして他方の画像のエピポーラ線(他方の撮影手段に投影された、一方の撮影手段と注目点とを結ぶ直線)上のあらかじめ設定した探索範囲内でマッチングを行う方法や、ウィンドウ内の中心からの距離に応じてガウス分布型の重みを付けたローカルサポートを利用する方法や、ウィンドウ内の濃度と視差の分布を考慮したウィンドウ内で可変なローカルサポートを利用する方法等が提案されている。これらのローカルサポートを利用した方法は、多くの仮定や推測をベースとしているため、この曖昧さの問題を本質的に解決することはできず、例えば、ローカルサポートによる対応付けを強くすると、視差の細かい変化や急激な変化が抑制され、全体的に滑らかな形状になってしまうといった問題があった。
本発明は、上記課題に鑑みてなされたものであり、対応付けの曖昧さを除去でき、簡単かつ高精度で三次元形状を計測することが可能な方法および装置を提供することを目的とする。また、本発明は、三次元形状を計測し、その三次元形状を表示画面上に三次元モデルとして復元する方法および復元装置も提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a method and apparatus capable of removing the ambiguity of correspondence and measuring a three-dimensional shape easily and with high accuracy. . Another object of the present invention is to provide a method and an apparatus for measuring a three-dimensional shape and restoring the three-dimensional shape as a three-dimensional model on a display screen.
本発明者等は、上記課題に鑑みて鋭意検討を加えてきたところ、焦点距離が等しく、較正が正確に行われており、光軸が互いに平行で、かつ各画像面が同一平面上に載るように左右に並んだレンズを備えるカメラを配置し、光学的に差異となる差異領域として影を用い、まず、カメラで影のない画像を取得し、次に、地面に影を投影することができる棒等をスライドさせ、その影が写るように連続して複数撮影し、影が写った複数の画像の各領域の輝度値を、該各領域と同じ座標位置にある影のない画像の各領域の輝度値で減算処理して影の領域のみに輝度を有する画像を生成させることで、カメラで撮影した2つの画像をマッチングする際の探索範囲を限定してマッチング精度を向上させることができ、これにより、対応付けの曖昧さを除去でき、簡単に、かつ高精度の三次元形状を計測できることを見出した。上記課題は、本発明の三次元計測方法、計測装置、三次元形状の復元方法および復元装置を提供することにより達成される。 The inventors of the present invention have made extensive studies in view of the above problems. As a result, the focal lengths are equal, the calibration is performed accurately, the optical axes are parallel to each other, and the image planes are on the same plane. In this way, a camera with lenses arranged on the left and right sides is arranged, and shadows are used as the difference areas that are optically different. First, a shadowless image is acquired by the camera, and then the shadows are projected onto the ground. Slide a stick, etc., and shoot multiple shots in succession so that the shadow is reflected.The brightness value of each region of the multiple images with the shadow is calculated for each image of the shadowless image at the same coordinate position as each region. By subtracting the brightness value of the area and generating an image with brightness only in the shadow area, the search range when matching two images captured by the camera can be limited to improve the matching accuracy. This removes the ambiguity of the mapping It can easily and found that can measure a highly accurate three-dimensional shape. The above-mentioned subject is achieved by providing the three-dimensional measuring method, measuring device, three-dimensional shape restoration method, and restoration device of the present invention.
本発明の三次元計測方法は、同時に2つの画像を撮影可能な撮影手段により物体を撮影するステップと、光学的に差異となる差異領域を発生させ、物体上を、差異領域を移動させるステップと、撮影手段により差異領域が含まれるように物体を複数撮影するステップと、差異領域と物体とを含む複数の画像の各領域の輝度値と、該各領域と同じ二次元座標位置にある差異領域を含まない画像の各領域の輝度値との差分を求め、差異領域に輝度を有する複数の減算処理画像を生成するステップと、複数組の減算処理画像の、撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索するステップと、第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算するステップとを含む。 The three-dimensional measurement method of the present invention includes a step of photographing an object by a photographing unit capable of photographing two images at the same time, a step of generating a difference region that is optically different, and moving the difference region on the object; , A step of photographing a plurality of objects so as to include a different area by the photographing means, a luminance value of each area of a plurality of images including the different area and the object, and a different area at the same two-dimensional coordinate position as each of the areas A difference between the brightness value of each area of the image not including the image and generating a plurality of subtracted images having brightness in the difference area, and a plurality of sets of subtracted images are captured from one side of the imaging means Each of the difference areas included in the plurality of second subtraction images captured from the other side of the imaging unit and subtracted, corresponding to each portion of the difference areas included in the plurality of first subtraction images subjected to the subtraction process. Part A step of searching based on the shape portion having the characteristic of the difference area, a two-dimensional coordinate position data of each part of the difference area included in the first subtraction image, and a search of the difference area included in the second subtraction image. And calculating the three-dimensional coordinate position of each portion using the corresponding two-dimensional coordinate position data of each portion.
輝度変化がほとんどない差異領域以外の部分、差異領域内における輝度変化の小さい領域では、視点が異なる投影による幾何学的な歪みやランダムノイズの影響により、正確なマッチングポイント(他方の減算処理画像の対応する各部分)を見つけることが困難である。差異領域のエッジ(縁部)は、輝度の変化が大きいという特徴を有しているため、マッチング処理の際の曖昧さを軽減し、正確なマッチングポイントを容易に見つけることを可能にする。このため、同一の二次元座標位置に輝度値を持つ第1減算処理画像が複数存在する場合、マッチング対象となる画素の周辺領域の類似度を元にマッチングを行う領域ベースの対応点探索手法を用いることが好ましく、マッチング対象となるすべての二次元座標位置に対して、周辺画素を含む所定領域を指定するウィンドウ内に差異領域のエッジが入る第1減算処理画像を探索し、検出された第1減算処理画像と、対応する第2減算処理画像を用いてマッチングを行うことが好ましい。 In areas other than the difference area where there is almost no change in brightness, and areas where the change in brightness is small within the difference area, the exact matching point (the other subtraction image of the other subtracted image) is affected by geometric distortion and random noise caused by projections with different viewpoints. It is difficult to find each corresponding part). Since the edge (edge) of the difference area has a characteristic that the change in luminance is large, ambiguity during the matching process is reduced, and an accurate matching point can be easily found. For this reason, when there are a plurality of first subtraction processing images having luminance values at the same two-dimensional coordinate position, a region-based corresponding point search method that performs matching based on the similarity of the peripheral region of the pixel to be matched is performed. It is preferable to use the first subtraction processing image in which the edge of the difference area enters the window for designating the predetermined area including the peripheral pixels for all the two-dimensional coordinate positions to be matched. It is preferable to perform matching using the 1 subtraction processing image and the corresponding second subtraction processing image.
このウィンドウ内の輝度値の分散が最大になる第1減算処理画像(左右同時に撮影可能な撮影手段であれば、例えば左画像)を探索するステップを含むことが好ましい。探索時間を短縮するため、特に、エピポーラ線に平行な方向の分散の平均値が最大になる第1減算処理画像を探索することが好ましい。この分散または分散の平均値が最大になる第1減算処理画像には、差異領域のエッジが含まれる確率が高く、上述したようにエッジは、正確なマッチングポイントを容易に見つけることができるからである。また、上記探索するステップは、ウィンドウの二次元座標位置を保持しつつ、ウィンドウ内の画素の輝度値の分散が最大となる1つの第1減算処理画像を探索するステップと、ウィンドウを移動させるステップと、移動した二次元座標位置において分散が最大となる他の第1減算処理画像を探索するステップと、移動させるステップと他の第1減算処理画像を探索するステップとを繰り返すステップとを含むことができる。このウィンドウを移動させるステップでは、ウィンドウを、エピポーラ線に沿って移動させることができる。また、ウィンドウ内の中心に位置する中心画素が1画素ずつ紙面に対して右方向に移動するように、ウィンドウを移動させることができる。 It is preferable to include a step of searching for a first subtraction-processed image (for example, a left image in the case of photographing means capable of photographing right and left simultaneously) that maximizes the dispersion of luminance values in the window. In order to shorten the search time, it is particularly preferable to search for the first subtraction processing image in which the average value of the dispersion in the direction parallel to the epipolar line is maximized. The first subtraction processing image in which the variance or the average value of the variance is maximized has a high probability that the edge of the difference area is included, and the edge can easily find an exact matching point as described above. is there. The searching step includes a step of searching for one first subtraction image that maximizes the variance of the luminance values of pixels in the window while maintaining the two-dimensional coordinate position of the window, and a step of moving the window. And a step of searching for another first subtraction image having the maximum variance at the moved two-dimensional coordinate position, a step of moving, and a step of searching for another first subtraction image. Can do. In the step of moving the window, the window can be moved along the epipolar line. Further, the window can be moved so that the center pixel located at the center in the window moves rightward with respect to the paper surface by one pixel.
本発明では、三次元計測方法を実施するための装置も提供する。この装置は、同時に2つの画像を撮影可能な撮影手段と、光学的に差異となる差異領域を発生させる手段と、物体上を、差異領域を移動させる可動手段と、差異領域と物体とを含む複数の画像の各領域の輝度値と、該各領域と同じ二次元座標位置にある差異領域を含まない画像の各領域の輝度値との差分を求め、差異領域に輝度を有する複数の減算処理画像を生成させ、複数組の減算処理画像の、撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索し、第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算する計算処理手段とを含む。この計算処理手段は、減算処理、マッチング(対応付け)のための探索、三次元座標位置の計算を、プログラムを実行することにより処理することができ、具体的には、そのプログラムが記録された記録媒体と、そのプログラムを読み出して実行するプロセッサとを含んで構成することができる。 The present invention also provides an apparatus for performing the three-dimensional measurement method. The apparatus includes a photographing unit capable of photographing two images at the same time, a unit that generates a difference area that is optically different, a movable unit that moves the difference area on the object, and the difference area and the object. The difference between the luminance value of each area of the plurality of images and the luminance value of each area of the image not including the difference area at the same two-dimensional coordinate position as each of the areas is obtained, and a plurality of subtraction processes having luminance in the difference area Generating the image, and the other of the imaging means corresponding to each part of the difference area included in the plurality of first subtraction images captured and subtracted from one side of the imaging means of the plurality of sets of subtraction processing images Each of the different areas included in the plurality of second subtraction-processed images photographed from the side and subtracted is searched based on the shape part having the characteristics of the different areas, and the different areas included in the first subtraction-processed image 2D coordinate position of each part of Using the data and the two-dimensional coordinate position data of the searched corresponding respective portions of the difference region in the second subtraction image, and a calculation processing unit for calculating a three-dimensional coordinate positions of the respective parts. This calculation processing means can process a subtraction process, a search for matching (association), and a calculation of a three-dimensional coordinate position by executing a program. Specifically, the program is recorded. A recording medium and a processor that reads and executes the program can be configured.
本発明の三次元形状の復元方法は、上記計測方法における各ステップに加え、各組の減算処理画像について計算された差異領域の各部分における三次元座標位置データを用いて、差異領域の三次元形状をそれぞれ生成し、該三次元形状を撮影時刻順に配列させ、表示装置に三次元モデルとして表示させるステップを含むものである。 The three-dimensional shape restoration method of the present invention uses the three-dimensional coordinate position data in each part of the difference area calculated for each set of subtraction images in addition to each step in the measurement method, Each of the shapes is generated, the three-dimensional shapes are arranged in order of photographing time, and displayed on the display device as a three-dimensional model.
本発明の復元装置は、上記計測装置に、物体の三次元モデルを表示する表示装置を含み、上記計測装置の計算処理手段が、各組の減算処理画像について計算された差異領域の各部分における三次元座標位置データを用いて、差異領域の三次元形状をそれぞれ生成させ、該三次元形状を撮影時刻順に配列させ、表示装置に三次元モデルとして表示させる。 The restoration apparatus according to the present invention includes a display device that displays a three-dimensional model of an object in the measurement device, and the calculation processing means of the measurement device uses a difference area calculated for each set of subtraction processing images. Using the three-dimensional coordinate position data, three-dimensional shapes of the difference areas are generated, the three-dimensional shapes are arranged in order of photographing times, and displayed on the display device as a three-dimensional model.
本発明の三次元計測方法および計測装置を提供することにより、対応付けの曖昧さを除去でき、簡単かつ高精度で三次元形状を計測することができる。また、本発明の三次元形状の復元方法および復元装置を提供することにより、遠隔地にある物体の三次元形状を、表示画面上に正確に復元することができる。本発明の装置は、装置数が少なくて済み、マッチング処理の時間を短縮することができるため、装置重量を軽くすることができ、計算処理に必要とされる消費電力を低減することができるため、積載可能な装置が限定されるローバに好適である。 By providing the three-dimensional measurement method and the measurement apparatus of the present invention, the ambiguity of correspondence can be removed, and a three-dimensional shape can be measured easily and with high accuracy. In addition, by providing the three-dimensional shape restoration method and restoration device of the present invention, the three-dimensional shape of an object at a remote place can be accurately restored on the display screen. Since the apparatus of the present invention requires only a small number of apparatuses and can shorten the matching process time, the apparatus weight can be reduced and the power consumption required for the calculation process can be reduced. It is suitable for a rover where a stackable device is limited.
以下、本発明を図面に示した具体的な実施の形態をもって説明するが、本発明は、後述する実施の形態に限定されるものではない。また、光学的に差異となる差異領域として影を用いて本発明を詳細に説明するが、この差異領域としては、光が照射された領域を用いることもでき、例えば、レーザ光照射領域、スリット光照射領域、背景色以外の例えば赤色ライト照射領域や青色ライト照射領域等を用いることができる。まず、図1に鉱物資源を観測するためのローバを例示する。図1には、三次元計測を行うため、マニピュレータ10を移動させているところが示している。マニピュレータ10は、手の構造をした機械を遠隔より作動させて人間の代わりに作業をする装置である。マニピュレータ10は、鉱物資源等を採取し、持ち帰るために使用することができる。
The present invention will be described below with reference to specific embodiments shown in the drawings, but the present invention is not limited to the embodiments described below. In addition, the present invention will be described in detail using a shadow as a difference area that is optically different. However, as this difference area, an area irradiated with light can be used, for example, a laser light irradiation area, a slit, or the like. For example, a red light irradiation region or a blue light irradiation region other than the light irradiation region and the background color can be used. First, FIG. 1 illustrates a rover for observing mineral resources. FIG. 1 shows the
図1に示すローバは、様々な鉱物資源を観測するために、撮影対象領域の少なくとも一部が重複するように同時に2つの画像を撮影可能な撮影手段11と、移動手段として車輪12と、撮影した画像データを計算処理する図示しない計算処理手段とを備えている。マニピュレータ10は、影(光学的に差異となる差異領域)を発生させる手段として用いることができ、図示しない可動手段に連結されており、この可動手段によって図1の矢線Aで表されるように移動させることができる。マニピュレータ10の影13は、ハロゲンランプ等の光源14によって発生し、マニピュレータ10の移動に伴って移動する。
In order to observe various mineral resources, the rover shown in FIG. 1 has a photographing
ローバに設けられた撮影手段11は、地面上の鉱物資源15を撮影することができ、鉱物資源15上にマニピュレータ10の影13が発生している場合、鉱物資源15と影13とを撮影することができる。撮影手段11は同時に2つの画像を、例えば、数十〜数百ミリ秒の時間間隔で連続して撮影することができる。また、撮影手段11は、ローバの車輪12を回転させない限り、地面上の特定位置を撮影する。図1に示す実施形態では、マニピュレータ10のみが移動しているため、撮影された画像は、影13のみの位置が異なる画像となる。
The photographing means 11 provided in the rover can photograph the
撮影された画像は、画像データとして図示しない計算処理手段に送られる。図示しない計算処理手段では、影13と物体である鉱物資源15とを含む複数の画像の各領域の輝度値を、その各領域と同じ二次元座標位置にある影を含まない画像の各領域の輝度値で減算し、影領域に輝度を有する複数の減算処理画像を生成し、撮影手段11により撮影され、減算処理された複数組の減算処理画像に含まれる影領域の各部分を、影領域の特徴を有する形状部分に基づき探索して対応付けを行い、対応する各部分の二次元座標位置データを用いて、その各部分の三次元座標位置を計算する。この計算処理については、以下に詳述する。
The captured image is sent as image data to calculation processing means (not shown). In the calculation processing means (not shown), the luminance value of each region of the plurality of images including the
図1に示す実施形態において三次元計測装置は、上記撮影手段11と、影を発生させるマニピュレータ10および光源14と、マニピュレータ10を移動可能にさせる可動手段と、計算処理手段とを含む構成とされている。
In the embodiment shown in FIG. 1, the three-dimensional measurement apparatus includes the photographing
図2は、光学的に差異となる差異領域として影を用いた場合の三次元計測装置を詳細に示した図である。図2に示す装置は、光軸20、21が平行で、かつ画像面が同一平面上となる同時に2つの画像を撮影可能な撮影手段22と、影23を発生させる棒状部材24および光源25と、棒状部材24を連結し、物体26上を影23aが横断するように棒状部材24を移動可能にさせる可動手段27と、撮影された複数の画像を用いて三次元座標位置を計算する計算処理手段28とを含む構成とされる。ここでは光軸20、21が平行とされているが、本発明では撮影対象領域の少なくとも一部が重複するように撮影できれば良い。
FIG. 2 is a diagram showing in detail the three-dimensional measuring apparatus when a shadow is used as a different area that is optically different. The apparatus shown in FIG. 2 includes a photographing
図2に示す撮影手段22は、焦点距離が等しく、カメラパラメータが既知で、較正が正確に行われており、同時に2つの画像を撮影することができるステレオカメラとすることができる。また、撮影手段22は、上述したように、数十〜数百ミリ秒といった時間間隔で連続撮影できるものとされる。
The imaging means 22 shown in FIG. 2 can be a stereo camera that has the same focal length, known camera parameters, is accurately calibrated, and can capture two images simultaneously. Further, as described above, the photographing
棒状部材24は、単なる棒のほか、マニピュレータを挙げることができる。光源25は、太陽光であっても良いが、ハロゲンランプ等の照明装置とすることができる。可動手段27は、棒やマニピュレータ等の棒状部材24を連結し、影23を地面に投影させた状態でスライドさせることができるものとすることができる。なお、影23を発生させることができる部材であれば、いかなる形状の部材であっても良いが、撮影手段22で同時に撮影された左右画像において、例えば、左画像を右画像にマッチング処理する際の探索範囲を限定するためには、幅が細長い影を発生させることができる棒状部材24であることが好ましい。また、本発明では、上述したように、光を用いることもでき、差異領域を発生させる手段として、レーザ光照射手段、スリット光照射手段、赤色ライトや青色ライト等を挙げることができる。可動手段は、これら照射手段またはライトの照射領域を移動させることができ、これらの照射手段またはライトを載置することができる、例えば、回転盤等とすることができる。
The rod-shaped
ここで、撮影手段22で撮影された2つの画像をそれぞれ、左画像、右画像とし、図3に撮影された複数の画像を示す。図3(a)は、左画像を示し、図3(b)は右画像を示す。番号1で示された画像は、影を発生させていないときの1回目のシャッターを押して撮影した影のない画像である。番号2で示された画像は、影を発生させ、紙面に対して右側から左側に向けて影の移動を開始した後、2回目のシャッターを押して撮影した画像で、番号kで示された画像は、k回目のシャッターを押して撮影した画像で、番号nで示された画像は、n回目のシャッターを押して撮影した画像である。撮影手段22の向き、位置は変更しないため、図3(a)に示されるように番号1の左画像に表される地面および物体の輝度値と、番号2〜nの左画像に表される地面および物体の輝度値は影の領域を除いてほぼ同じ値となる。
Here, the two images photographed by the photographing
図2に示す計算処理手段28は、番号2〜nの左画像を、番号1の左画像で減算処理する。具体的には、図4に示すような処理を行う。図4(a)は、番号kの左画像を減算処理しているところを示した図で、図4(b)は、番号kの右画像を減算処理しているところを示した図である。番号1の左画像および右画像の輝度値をI1(X,Y)とし、番号kの左画像および右画像の輝度値Ik(X,Y)とし、減算処理した減算処理画像の輝度値I’k(X,Y)とすれば、以下の式を用いて減算処理を行うことができる。ただし、差異領域として光が照射された領域を用いる場合には、Ik(X,Y)からI1(X,Y)を減算することになる。
The calculation processing means 28 shown in FIG. 2 subtracts the left images of
減算処理後の左画像および右画像は、図4(a)、(b)に示すように、差異領域(ここでは影領域)のみに輝度を有する画像となる。撮影手段で撮影された影の領域は輝度値が0となるため、減算処理後の影領域の輝度値はI1に等しい値となる。撮影手段により撮影された左画像および右画像の影領域の空間的位置は等しく、また、影領域以外はすべて輝度値が0となる。したがって、左画像と右画像とをマッチングする際の探索範囲は、影領域が存在する部分に限定することができ、これにより、マッチングを容易にするとともにマッチング精度を向上させることができる。なお、マッチング処理の詳細については後述する。 As shown in FIGS. 4A and 4B, the left image and the right image after the subtraction process are images having luminance only in the difference area (here, the shadow area). Since the shadow area photographed by the photographing means has a luminance value of 0, the luminance value of the shadow area after the subtraction process is equal to I 1 . The spatial positions of the shadow areas of the left image and the right image taken by the photographing means are equal, and the luminance value is 0 for all areas other than the shadow areas. Therefore, the search range when matching the left image and the right image can be limited to a portion where the shadow region exists, and thereby matching can be facilitated and matching accuracy can be improved. Details of the matching process will be described later.
左画像と右画像とのマッチングが完了した後、物体における点Pの三次元座標位置(X,Y,Z)を以下の式を用いて計算する。まず、点Pの左画像への投影点(x1,y1)、点Pの右座標への投影点(x2,y2)を抽出する。具体的には、左画像において点Pに対応する投影点(x1,y1)を選択し、マッチング処理によって対応付けが完了しているため、右画像の投影点(x2,y2)を左画像の投影点(x1,y1)から導出する。2つのレンズを備える撮影手段の焦点距離f、基線長(焦点間距離)bは予め設定されており、既知であるため、次に、上記投影点座標および以下の式を用いて、点Pの三次元座標位置を計算する。 After the matching between the left image and the right image is completed, the three-dimensional coordinate position (X, Y, Z) of the point P in the object is calculated using the following formula. First, the projection point (x 1 , y 1 ) of the point P on the left image and the projection point (x 2 , y 2 ) of the point P on the right coordinate are extracted. Specifically, since the projection point (x 1 , y 1 ) corresponding to the point P in the left image is selected and the matching is completed by the matching process, the projection point (x 2 , y 2 ) of the right image is completed. Is derived from the projection point (x 1 , y 1 ) of the left image. Since the focal length f and the base line length (inter-focal distance) b of the photographing means including two lenses are set in advance and are already known, next, using the projection point coordinates and the following formula, Calculate the 3D coordinate position.
式2〜式4中のd(=x1−x2)は、視差である。これらの計算および処理は、上記のように、プログラムを実行することによって行うことができ、計算処理手段は、このプログラムが記録された記録媒体、このプログラムを読み出し、実行するプロセッサを含むコンピュータとすることができる。
D (= x 1 −x 2 ) in
ここで、計算処理手段による処理を図5に示すフローチャートを参照して説明する。計算処理手段は、撮影手段によって撮影された画像データを撮影時間順に受け取り、メモリやハードディスクといった記憶装置に記憶する(ステップ500)。例えば、1〜nの番号とともに、左画像、右画像に分けてデータを記憶する。各画像データには、各画素における輝度値データが含まれる。次に、番号1の左画像データおよび右画像データを読み出す(ステップ510)。番号2の左画像データおよび右画像データを読み出し(ステップ520)、減算処理する(ステップ530)。番号を1つ増加し(ステップ540)、番号がn+1に到達したか判定する(ステップ550)。nは、撮影回数で、例えば、記憶装置に記憶する左画像データの数として決定することができる。計算処理手段は、受け取ったデータの数をカウントし、そのデータ数をnとして設定することができる。番号がn+1に到達していない場合、ステップ530に戻り、減算処理する。番号がn+1に到達した場合には、減算処理する画像がないため、ステップ560へ進み、左画像に含まれる影領域の各部分に対応する右画像に含まれる影領域の各部分をそれぞれ探索する。すなわち、左画像に対応する右画像のマッチングポイントを探索する。マッチングポイントが探索された後、上記式(2)〜式(4)を用いて、物体の各点における三次元座標位置を計算する(ステップ570)。
Here, the processing by the calculation processing means will be described with reference to the flowchart shown in FIG. The calculation processing means receives the image data photographed by the photographing means in order of photographing time and stores them in a storage device such as a memory or a hard disk (step 500). For example, the data is stored separately for the left image and the right image together with the
本発明では、正確なマッチングポイントを見つけるのを容易にするため、差異領域のエッジを利用することができる。エッジは、差異領域の縁部であり、輝度値が大きく変化する部分である。この輝度値が大きく変化する部分は、形状的に大きな特徴を有している。 In the present invention, the edge of the difference area can be used to facilitate finding an exact matching point. The edge is an edge portion of the different area, and is a portion where the luminance value greatly changes. The portion where the luminance value changes greatly has a large feature in shape.
図6に示すように、所定領域を指定するウィンドウ60の二次元座標位置を固定し、撮影手段により撮影された複数の左画像の中から、ウィンドウ60内の輝度値の分散が最大となる左画像を探索することが好ましい。これは、分散が最大になる左画像には影領域61のエッジが含まれる確率が高いからである。なお、この探索は、左画像に限らず、右画像であってもよい。ウィンドウ60は、所定数の画素を含み、その位置での分散が最大となる左画像を探索した後、ウィンドウ60内の中心に位置する中心画素が1画素ほど紙面に対して右に向けて移動するように移動される。すなわち、次のウィンドウ60の位置で分散が最大となる左画像を探索する。ウィンドウ60をエピポーラ線に沿って移動させ、Bで示される範囲のみを探索することで、探索範囲をさらに絞り込むことができる。
As shown in FIG. 6, the two-dimensional coordinate position of the
図7は、ウィンドウ60を所定位置に固定し、複数の左画像の中から分散が最大となる左画像を探索しているところを示した図である。図7では、ウィンドウが各左画像の同一の二次元座標位置(x,y)に固定されており、数個の画素(ピクセル)を指定している。各左画像に付された番号は、撮影順に付された画像番号である。図7には、番号7および11が付されている左画像のウィンドウ内に、影領域のエッジが含まれているのが示されている。
FIG. 7 is a diagram showing a state where the
図8は、画像番号と、画素(x,y)を中心としたウィンドウ内のエピポーラ線に平行方向の分散の平均値である評価値Ci(x,y)との関係を示した図である。画素(x,y)の画像番号iにおける評価値Ci(x,y)は、以下に示す評価関数を用いて計算される。 FIG. 8 is a diagram showing the relationship between the image number and the evaluation value Ci (x, y) that is the average value of dispersion in the direction parallel to the epipolar line in the window centered on the pixel (x, y). . The evaluation value Ci (x, y) in the image number i of the pixel (x, y) is calculated using the following evaluation function.
上記2Wはウィンドウの幅であり、2hがウィンドウの高さである。また、I(x,y)は二次元座標位置(x,y)における輝度値である。図8では、ウィンドウ内に輝度値を有する画素がない場合、すなわち番号1〜6、13〜32の場合には評価値0であり、ウィンドウ内に影領域が含まれる場合、すなわち番号7〜12の場合には輝度値を有し、ウィンドウ内の画素の輝度値に分散があるため、評価値を有する。特に、影領域のエッジを含む番号7、11は、輝度値の分散が大きいため、番号7、11における評価値Cが番号8〜10、12に比較して大きくなっている。評価値が最大となる左画像は、番号7で表される画像であり、このウィンドウの位置における左右画像のマッチングは番号7の左画像およびそれに対応する右画像を用いることにより、容易にマッチングすることができる。実際にマッチングは、番号7の左画像のウィンドウ内の画素を、それに対応する右画像の画素と対応付けることにより行うことができる。
2W is the width of the window, and 2h is the height of the window. I (x, y) is a luminance value at the two-dimensional coordinate position (x, y). In FIG. 8, when there is no pixel having a luminance value in the window, that is, when the numbers are 1 to 6 and 13 to 32, the evaluation value is 0, and when the shadow area is included in the window, that is, the
図9を参照して、影領域のエッジを探索する処理を詳細に説明する。画像中の画素数と同じ数の値を保持できる二次元配列MaxC(二次元座標ごとに最大の評価値を保持する配列)とMaxCImage(二次元座標ごとに評価値が最大となる画像番号を保持する配列)を準備する。例えば、これらの配列は、テーブルとして記憶装置内に保持することができる。ステップ900として、番号iの左画像を記憶装置から読み出す。番号iの左画像は撮影手段によりi番目に撮影された画像である。x=0、y=0を初期値とし、二次元座標位置(x,y)の画素を中心とした幅2W、高さ2hのウィンドウを生成する(ウィンドウが画像からはみ出る場合は、画素の存在する領域をウィンドウとする)(ステップ910)。ウィンドウ内の中心画素(x,y)に輝度値があるか否かを判定する(ステップ920)。輝度値を有する場合、ウィンドウ内に影領域を含んでおり、ステップ930で上記式5および6を用いて評価値Ci(x,y)を計算する。次に、その評価値Ci(x,y)がこれまでに計算され、記憶されている同一二次元座標位置の評価値の最大値MaxC(x,y)より大きいか否かを判定する(ステップ940)。大きい場合には、最大の評価値としてMaxC(x,y)の値を更新し、画像番号iをMaxCImage(x,y)に記憶する(ステップ950)。ステップ920で輝度値を有しないと判定された場合、または、ステップ950で記憶した後、次の画像に移動し(ステップ960)、画像iにおいてすべての画素の評価が終わったか否かを判定する(ステップ970)。評価が終わっているのであれば、画像番号iを1つ増加し(ステップ980)、その増加した番号がn+1と等しいか否かを判定する(ステップ990)。n+1に等しくない場合には、ステップ900に戻り、その番号の画像を読み出す。n+1に到達した場合は、それ以上の画像はないため、その二次元座標位置(W,h)の画素を中心としたウィンドウ内の輝度値の分散が最大となる画像の探索を終了する(ステップ1000)。
With reference to FIG. 9, the process of searching for the edge of the shadow area will be described in detail. Two-dimensional array MaxC (array that holds the maximum evaluation value for each two-dimensional coordinate) that can hold the same number of values as the number of pixels in the image and MaxCImage (image number that gives the maximum evaluation value for each two-dimensional coordinate) To be prepared). For example, these arrays can be held as a table in the storage device. In
図10は、評価値が最大となる左画像を探索した後、二次元座標位置(x,y)において、評価値Cが最大となる左画像のMaxCImage(x,y)と、それと対応する右画像を読み出し、左画像のMaxCImage(x,y)を中心としたウィンドウに対して、右画像からウィンドウ内の輝度分布が最も一致する(一致度の高い)ウィンドウを求めた図である。なお、求め方については後述する。図10に示すように、ウィンドウ内に影領域のエッジが入ることにより、マッチングを正確に行うことが可能になる。また、1つの二次元位置座標に対して、1つの画像を対応させることにより、同一の二次元座標位置に輝度値を有する減算画像が複数存在しても、マッチングを行う回数が1回のみ(すなわち、1つの画像の画素数のみ)となるため、画像の取得数は増加するものの、マッチング回数を減少させることができ、マッチング処理を高速化することができる。 In FIG. 10, after searching for the left image with the maximum evaluation value, MaxCImage (x, y) of the left image with the maximum evaluation value C at the two-dimensional coordinate position (x, y) and the right corresponding to it. It is the figure which read the image and calculated | required the window where the luminance distribution in a window corresponds most (high degree of coincidence) from the right image with respect to the window centering on MaxCImage (x, y) of the left image. The method of obtaining will be described later. As shown in FIG. 10, when the edge of the shadow region enters the window, matching can be performed accurately. Further, by associating one image with one two-dimensional position coordinate, even when there are a plurality of subtracted images having luminance values at the same two-dimensional coordinate position, the number of times of matching is only one ( That is, since the number of acquired images increases, the number of matching operations can be reduced and the matching process can be speeded up.
左画像の画素(xL,yL)に対応する右画像の画素(xR,yR)が検出された場合、左画像においてxLよりも右側の画素に対応する右画像の画素はxRよりも右側に存在するという拘束条件を用いることにより、マッチングの際の探索範囲を限定し、さらに、マッチング処理を高速化することができる。しかしながら、この拘束条件を用いた探索方法は、誤差の伝播を生じる可能性があり、連続した画素で、画像番号が同じ左右画像を用いる場合のみこの方法を採用し、隣接する二次元座標位置にある画素であっても、画像番号が異なる左右画像を用いて探索する場合には、この拘束条件を用いることなくマッチングを行う。これにより、誤差の伝播を抑制しつつ、マッチング処理を高速化することができる。 When the pixel (x R , y R ) of the right image corresponding to the pixel (x L , y L ) of the left image is detected, the pixel of the right image corresponding to the pixel on the right side of x L in the left image is x By using a constraint condition that exists on the right side of R, it is possible to limit the search range in matching and further speed up the matching process. However, the search method using this constraint condition may cause error propagation, and this method is used only when the left and right images having the same image number are used with consecutive pixels, and are used at adjacent two-dimensional coordinate positions. Even for a certain pixel, when searching using left and right images having different image numbers, matching is performed without using this constraint condition. Thereby, the matching process can be speeded up while suppressing the propagation of errors.
本発明では、上記計測方法の各ステップを含む復元方法および上記計測装置を含む復元装置を提供することができる。物体を三次元モデルとして復元する方法では、各組の減算処理画像について、差異領域の各部分における三次元座標位置データを計算した後、その三次元座標位置データを用いて、差異領域の三次元形状をそれぞれ生成する。次に、生成した各三次元形状を撮影時刻順に配列させ、表示装置に表示させる。これにより、三次元モデルとして物体の三次元形状を復元することができる。上述したように、物体の各点の三次元座標位置を、高精度で計測することができるため、高精度で三次元形状を復元することができる。 In the present invention, a restoration method including each step of the measurement method and a restoration device including the measurement device can be provided. In the method of restoring an object as a three-dimensional model, for each set of subtraction images, after calculating the three-dimensional coordinate position data in each part of the difference area, the three-dimensional coordinate position data is used to calculate the three-dimensional difference area. Each shape is generated. Next, the generated three-dimensional shapes are arranged in order of photographing time and displayed on the display device. Thereby, the three-dimensional shape of the object can be restored as a three-dimensional model. As described above, since the three-dimensional coordinate position of each point of the object can be measured with high accuracy, the three-dimensional shape can be restored with high accuracy.
復元装置は、上記計測装置に、物体の三次元モデルを表示する表示装置を含んで構成される。ただし、計測装置に含まれる計算処理手段は、各組の減算処理画像について計算された差異領域の各部分における三次元座標位置データを用いて、差異領域の三次元形状をそれぞれ生成させ、該三次元形状を撮影時刻順に配列させ、表示装置に三次元モデルとして表示させる機能をさらに有するものとされる。これもまた、プログラムを実行することにより処理することができ、プログラムとして記録媒体に含めることができる。表示装置としては、ディスプレイを用いることができる。 The restoration device includes the measurement device including a display device that displays a three-dimensional model of the object. However, the calculation processing means included in the measurement device generates the three-dimensional shape of the difference area using the three-dimensional coordinate position data in each part of the difference area calculated for each set of subtraction processing images, and The original shape is arranged in order of photographing time and further has a function of displaying it as a three-dimensional model on the display device. This can also be processed by executing the program, and can be included in the recording medium as a program. A display can be used as the display device.
ここで、ステレオカメラ、光学的に差異となる差異領域としての影を発生させる手段として、ハロゲンランプと棒状部材を使用し、画像処理手段としてパーソナルコンピュータを使用して、三次元形状の復元を、本発明による方法と、従来のステレオ視による方法とを使用して行った結果を以下に示す。 Here, as a means for generating a shadow as a difference area that is optically different from a stereo camera, a halogen lamp and a rod-shaped member are used, and a personal computer is used as an image processing means to restore a three-dimensional shape. The results obtained using the method according to the invention and the conventional stereo vision method are shown below.
ステレオカメラにより同時に撮影される左右画像のマッチングに、領域ベースマッチングにおいて代表的で、高速演算が可能な二乗残差法(SSD)が広く用いられている。このSSDは、左画像のウィンドウの輝度値と右画像のウィンドウの輝度値の差分を評価値R(x,y)とし、評価値が最小となる位置を最良のマッチングポイントとするものであり、以下の式によって評価値R(x,y)を算出することができる。 A square residual method (SSD), which is representative in region-based matching and capable of high-speed computation, is widely used for matching left and right images simultaneously captured by a stereo camera. In this SSD, the difference between the luminance value of the window of the left image and the luminance value of the window of the right image is set as the evaluation value R (x, y), and the position where the evaluation value is minimum is set as the best matching point. The evaluation value R (x, y) can be calculated by the following formula.
しかしながら、SSDは、ウィンドウ内の輝度差をそのまま比較するため、輝度変化の少ない部分では高い一致度を示すが、輝度値が急激に変化するエッジ部分では一致度が低くなる。そこで、本発明では、分散の類似度により対応付けするZNCC法を採用する。このZNCC法を採用することにより、急激な輝度値の変化に対して正確に対応付けすることができる。ZNCC法は、以下の式により得られる相関係数RZNCCが最大となる画素を対応点とする方法である。 However, since the SSD compares the luminance differences in the windows as they are, the degree of coincidence is high in the portion where the luminance change is small, but the degree of coincidence is low in the edge portion where the luminance value changes rapidly. Therefore, in the present invention, the ZNCC method is used in which the association is performed based on the similarity of dispersion. By adopting this ZNCC method, it is possible to accurately correspond to a sudden change in luminance value. The ZNCC method is a method in which a pixel having a maximum correlation coefficient R ZNCC obtained by the following equation is used as a corresponding point.
上記と同様、2Wがウィンドウの幅であり、2hがウィンドウの高さであり、I(x,y)は二次元座標位置(x,y)における輝度値である。ILは左画像の輝度値、IRは右画像の輝度値を示す。 Similarly to the above, 2W is the width of the window, 2h is the height of the window, and I (x, y) is a luminance value at the two-dimensional coordinate position (x, y). Luminance value I L is the left image, I R indicates the luminance value of the right image.
図11を参照して、対応点を探索する処理を詳細に説明する。ステップ1100において、番号iの左右画像を記憶装置から読み出す。保存されている配列の要素MaxCImage(xL,yL)が現在の画像番号iと等しいか否か(現在の画像の画素(xL,yL)が、二次元座標位置(xL,yL)における最大の評価値MaxC(xL,yL)を有するか)を判定する(ステップ1110)。等しい場合、ステップ1120に進み、xL=0、yL=0を初期値とし、左画像に二次元座標位置(xL,yL)の画素を中心とした幅2W、高さ2hのウィンドウを生成する(ステップ1120)。また、右画像に、xR=0、yR=yLを初期値とし、二次元座標位置(xR,yR)を中心とした幅2W、高さ2hのウィンドウを生成する(ステップ1130)。等しくない場合、その読み出した画像以外にエッジを含む可能性を持つ画像が存在することを示し、この画像からマッチングは行われない。ステップ1140で、右画像のウィンドウ内に輝度値があるかを判定する。輝度値がある場合、ステップ1150に進み、左右画像のウィンドウを用い、評価値RZNCCを上記式8〜13を使用して算出する。輝度値がない場合、上記のように、その読み出した画像以外にエッジを含む可能性を持つ画像が存在することを示し、この画像からマッチングは行われない。ステップ1160で、評価値RZNCCが、記憶装置に記憶されている最大の評価値MaxRZNCCより大きいか否かを判定する。大きい場合にはその算出した評価値RZNCCを最大の評価値MaxRZNCCとして記憶し、二次元座標位置(xR,yR)を(xL,yL)の対応点として記憶する(ステップ1170)。小さい場合またはステップ1170で記憶後、右画像の二次元座標位置のx軸座標を1増加させ(ステップ1180)、ステップ1110に戻る。このようにして、x軸座標上の対応点を探索する。なお、対応点は、エピポーラ線上にあるため、x軸座標上のみを探索すればよい。すなわち、左画像の探索対象画素を1つ移動する(ステップ1190)。番号iの画像の全ての画素に対してステップ1110〜ステップ1190の処理を行った後(ステップ1200)、画像番号を1つ増加させ(ステップ1210)、上記の処理を繰り返す。画像番号がn+1に達したところで(ステップ1220)、全てのマッチング処理を終了する(ステップ1230)。
With reference to FIG. 11, the process of searching for corresponding points will be described in detail. In
従来のステレオ法による三次元計測において、図2に示す撮影手段22により同時に撮影された影のない2つの画像(図3(a)の番号1で示される左画像、図3(b)の番号1で示される右画像)から、上記ZNCC法を用いてマッチング処理を行った結果を、図12(a)に示す。
In three-dimensional measurement by the conventional stereo method, two images without shadows (left image indicated by
本発明の方法により、図2に示す撮影手段22により同時に撮影した、影のない2つの画像および影のある複数の画像(図3(a)の番号1〜nで示される複数の左画像、図3(b)の番号1〜nで示される複数の右画像)から、探索範囲が限定された複数の減算処理画像を得、これらを影のエッジによってマッチング処理を行った結果を図12(b)に示す。
According to the method of the present invention, two images without shadow and a plurality of shadowed images (a plurality of left images indicated by
従来のステレオ法では、左右1組の画像のみの利用でマッチング処理できるが、本発明の方法では、複数組の画像、例えば、32組の画像を利用してマッチング処理する必要があり、利用する画像数は増加する。しかしながら、それぞれの画像の探索範囲が限定されており、無駄な探索、すなわち輝度値が0となる減算処理画像をスキップさせることができるため、計算コストに抑制することができる。また、本発明の方法で復元された三次元形状モデルは、図12(a)と図12(b)とを比較してもわかるように、従来の方法によるマッチング処理では困難な、画面を合成する際の背景に利用する画像であるテクスチャの少ない領域に対しても有効であることが見出された。 In the conventional stereo method, matching processing can be performed by using only one set of left and right images. However, in the method of the present invention, it is necessary to perform matching processing using a plurality of sets of images, for example, 32 sets of images. The number of images increases. However, the search range of each image is limited, and a useless search, that is, a subtraction-processed image with a luminance value of 0 can be skipped, so that the calculation cost can be suppressed. In addition, the three-dimensional shape model restored by the method of the present invention synthesizes a screen, which is difficult to perform by the matching method according to the conventional method, as can be seen by comparing FIG. 12 (a) and FIG. 12 (b). It was found that the method is also effective for a region having a small amount of texture, which is an image used as a background.
ここに、本発明の方法によりマッチング処理した場合と従来のステレオ法によりマッチング処理した場合のマッチング点数、ミスマッチ点数(孤立点数)、計算時間を以下の表1に示す。画像は320×240画素のものと、640×480画素のものについて計算を行った。なお、ウィンドウのサイズはそれぞれ、11×7画素、21×13画素の領域を指定するものを用いた。対応点数は、マッチングが取れた画素のうち、孤立点と判定されないかった点の数とし、孤立点は周囲48画素のz軸方向の値の平均値との差が1cm以上あるものとした。 Table 1 below shows the number of matching points, the number of mismatch points (number of isolated points), and the calculation time when matching is performed by the method of the present invention and when matching is performed by the conventional stereo method. Calculations were performed for 320 × 240 pixel images and 640 × 480 pixel images. In addition, the window size used was to specify an area of 11 × 7 pixels and 21 × 13 pixels, respectively. The number of corresponding points was the number of pixels that were not determined to be isolated from the matched pixels, and the isolated points had a difference of 1 cm or more from the average value of the surrounding 48 pixels in the z-axis direction.
表1に示すように、本発明の方法を用いた場合、従来のステレオ法に比べ、孤立点数を大幅に減少させることができ、マッチング処理におけるミスマッチングを軽減していると言える。相関係数RZNCCの平均値は、従来のステレオ法に比べて大きな値を示しており、多くの画素で、高い一致度が得られている。また、本発明の方法は従来のステレオ法に比較して大幅に計算時間を短縮することができ、これにより、マッチング精度を向上させることができ、計算コストを削減することができることが見出された。 As shown in Table 1, it can be said that when the method of the present invention is used, the number of isolated points can be greatly reduced as compared with the conventional stereo method, and mismatching in matching processing is reduced. The average value of the correlation coefficient RZNCC is larger than that of the conventional stereo method, and a high degree of coincidence is obtained for many pixels. Further, it has been found that the method of the present invention can greatly reduce the calculation time compared to the conventional stereo method, thereby improving the matching accuracy and reducing the calculation cost. It was.
本発明の計測装置は、簡単な装置であるため、小型かつ軽量とすることができ、計算時間を短縮することができるため、消費電力を低減することができる。また、高精度で三次元計測することができるため、ローバに搭載するのに好適である。 Since the measuring device of the present invention is a simple device, it can be made small and light, and the calculation time can be shortened. Therefore, power consumption can be reduced. Moreover, since three-dimensional measurement can be performed with high accuracy, it is suitable for mounting on a rover.
10…マニピュレータ、11…撮影手段、12…車輪、13…影、14…光源、15…鉱物資源、20、21…光軸、22…撮影手段、23、23a…影、24…棒状部材、25…光源、26…物体、27…可動手段、28…計算処理手段、60…ウィンドウ、61…影領域
DESCRIPTION OF
Claims (8)
同時に2つの画像を撮影可能な撮影手段により前記物体を撮影するステップと、
光学的に差異となる差異領域を発生させ、前記物体上を、前記差異領域を移動させるステップと、
前記撮影手段により前記差異領域が含まれるように前記物体を複数撮影するステップと、
前記差異領域と前記物体とを含む各画像の各領域の輝度値を、該各領域と同じ二次元座標位置にある前記差異領域を含まない画像の各領域の輝度値で減算し、差異領域に輝度を有する複数組の減算処理画像を生成するステップと、
前記複数組の減算処理画像の、前記撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、前記撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索するステップと、
前記第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと前記第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算するステップとを含む、方法。 A method for measuring the three-dimensional shape of an object,
Photographing the object by photographing means capable of photographing two images at the same time;
Generating a difference area that is optically different, and moving the difference area on the object;
Photographing a plurality of the objects so that the difference area is included by the photographing means;
The brightness value of each area of each image including the difference area and the object is subtracted by the brightness value of each area of the image not including the difference area at the same two-dimensional coordinate position as the area, Generating a plurality of sets of subtracted images having luminance;
From the other side of the imaging unit corresponding to each part of the difference area included in the plurality of first subtraction processing images captured and subtracted from one side of the imaging unit of the plurality of sets of subtraction processing images. Searching for each part of the difference area included in the plurality of second subtraction-processed images that have been photographed and subtracted based on the shape part having the characteristics of the difference area;
Using the two-dimensional coordinate position data of each part of the difference area included in the first subtraction image and the two-dimensional coordinate position data of each corresponding part searched for the difference area included in the second subtraction image. And calculating the three-dimensional coordinate position of each portion.
同時に2つの画像を撮影可能な撮影手段と、
光学的に差異となる差異領域を発生させる手段と、
前記物体上を、前記差異領域を移動させる可動手段と、
前記差異領域と前記物体とを含む各画像の各領域の輝度値を、該各領域と同じ二次元座標位置にある前記差異領域を含まない画像の各領域の輝度値で減算して、差異領域に輝度を有する複数組の減算処理画像を生成させ、前記複数組の減算処理画像の、前記撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、前記撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索し、前記第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと前記第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算する計算処理手段とを含む、計測装置。 An apparatus for measuring the three-dimensional shape of an object,
Photographing means capable of photographing two images at the same time;
Means for generating a difference area that is optically different;
Movable means for moving the difference area on the object;
The difference area is obtained by subtracting the luminance value of each area of each image including the different area and the object by the luminance value of each area of the image not including the different area at the same two-dimensional coordinate position as each of the areas. A plurality of sets of subtracted images having luminance, and the difference regions included in the plurality of first subtracted images captured from the one side of the photographing unit and subtracted. Search for each part of the difference area included in the plurality of second subtraction-processed images photographed from the other side of the photographing unit and corresponding to each part based on the shape part having the characteristic of the difference area. Two-dimensional coordinate position data of each part of the difference area included in the first subtraction processing image and two-dimensional coordinate position data of each corresponding part searched for the difference area included in the second subtraction processing image. Use the tertiary of each part And a calculation processing unit for calculating a coordinate position, the measuring apparatus.
同時に2つの画像を撮影可能な撮影手段により前記物体を撮影するステップと、
光学的に差異となる差異領域を発生させ、前記物体上を、前記差異領域を移動させるステップと、
前記2つの撮影手段により前記差異領域が含まれるように前記物体を複数撮影するステップと、
前記差異領域と前記物体とを含む各画像の各領域の輝度値を、該各領域と同じ二次元座標位置にある前記差異領域を含まない画像の各領域の輝度値で減算し、差異領域に輝度を有する複数組の減算処理画像を生成するステップと、
前記複数組の減算処理画像の、前記撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、前記撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索するステップと、
前記第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと前記第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、前記差異領域の三次元形状をそれぞれ生成し、該三次元形状を撮影時刻順に配列させ、表示装置に三次元モデルとして表示させるステップとを含む、復元方法。 A method for measuring a three-dimensional shape of an object and restoring the three-dimensional shape,
Photographing the object by photographing means capable of photographing two images at the same time;
Generating a difference area that is optically different, and moving the difference area on the object;
Photographing a plurality of the objects so that the different areas are included by the two photographing means;
The brightness value of each area of each image including the difference area and the object is subtracted by the brightness value of each area of the image not including the difference area at the same two-dimensional coordinate position as the area, Generating a plurality of sets of subtracted images having luminance;
From the other side of the imaging unit corresponding to each part of the difference area included in the plurality of first subtraction processing images captured and subtracted from one side of the imaging unit of the plurality of sets of subtraction processing images. Searching for each part of the difference area included in the plurality of second subtraction-processed images that have been photographed and subtracted based on the shape part having the characteristics of the difference area;
Using the two-dimensional coordinate position data of each part of the difference area included in the first subtraction image and the two-dimensional coordinate position data of each corresponding part searched for the difference area included in the second subtraction image. Generating a three-dimensional shape of each of the different areas, arranging the three-dimensional shapes in order of photographing time, and displaying the three-dimensional shape on a display device as a three-dimensional model.
同時に2つの画像を撮影可能な撮影手段と、
光学的に差異となる差異領域を発生させる手段と、
前記物体上を、前記差異領域を移動させる可動手段と、
前記物体の三次元モデルを表示する表示装置と、
前記差異領域と前記物体とを含む各画像の各領域の輝度値を、該各領域と同じ二次元座標位置にある前記差異領域を含まない画像の各領域の輝度値で減算して、差異領域に輝度を有する複数組の減算処理画像を生成させ、前記複数組の減算処理画像の、前記撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、前記撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索し、前記第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと前記第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算し、各組の前記減算処理画像について計算された前記差異領域の各部分における三次元座標位置データを用いて、前記差異領域の三次元形状をそれぞれ生成させ、該三次元形状を撮影時刻順に配列させ、前記表示装置に前記三次元モデルとして表示させる計算処理手段とを含む、復元装置。
An apparatus for measuring the three-dimensional shape of an object and restoring the three-dimensional shape,
Photographing means capable of photographing two images at the same time;
Means for generating a difference area that is optically different;
Movable means for moving the difference area on the object;
A display device for displaying a three-dimensional model of the object;
The difference area is obtained by subtracting the luminance value of each area of each image including the different area and the object by the luminance value of each area of the image not including the different area at the same two-dimensional coordinate position as each of the areas. A plurality of sets of subtracted images having luminance, and the difference regions included in the plurality of first subtracted images captured from the one side of the photographing unit and subtracted. Search for each part of the difference area included in the plurality of second subtraction-processed images photographed from the other side of the photographing means and corresponding to each part based on the shape part having the characteristic of the difference area. Two-dimensional coordinate position data of each part of the difference area included in the first subtraction processing image and two-dimensional coordinate position data of each corresponding part searched for the difference area included in the second subtraction processing image. Use the tertiary of each part A coordinate position is calculated, and using the three-dimensional coordinate position data in each part of the difference area calculated for each set of the subtraction processing images, a three-dimensional shape of the difference area is generated, and the three-dimensional shape is calculated. And a calculation processing unit arranged in order of photographing time and displayed on the display device as the three-dimensional model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005323904A JP4784270B2 (en) | 2005-11-08 | 2005-11-08 | Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005323904A JP4784270B2 (en) | 2005-11-08 | 2005-11-08 | Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007132715A true JP2007132715A (en) | 2007-05-31 |
JP4784270B2 JP4784270B2 (en) | 2011-10-05 |
Family
ID=38154513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005323904A Expired - Fee Related JP4784270B2 (en) | 2005-11-08 | 2005-11-08 | Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4784270B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020537210A (en) * | 2017-10-06 | 2020-12-17 | バーンスタイン,アーロン | Generation of one or more luminosity edges to form a three-dimensional model of an object |
WO2021193672A1 (en) * | 2020-03-27 | 2021-09-30 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0791927A (en) * | 1993-08-06 | 1995-04-07 | Murata Mach Ltd | Three dimensional measuring device |
JP2001183120A (en) * | 1999-12-24 | 2001-07-06 | Minolta Co Ltd | Method and device for three-dimensional input |
JP2001194126A (en) * | 2000-01-14 | 2001-07-19 | Sony Corp | Apparatus and method for measuring three-dimensional shape and program providing medium |
JP2002109518A (en) * | 2000-10-02 | 2002-04-12 | Mitsutoyo Corp | Three-dimensional shape restoring method and system therefor |
JP2004069497A (en) * | 2002-08-06 | 2004-03-04 | Sumitomo Osaka Cement Co Ltd | Monitoring apparatus and monitoring method |
-
2005
- 2005-11-08 JP JP2005323904A patent/JP4784270B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0791927A (en) * | 1993-08-06 | 1995-04-07 | Murata Mach Ltd | Three dimensional measuring device |
JP2001183120A (en) * | 1999-12-24 | 2001-07-06 | Minolta Co Ltd | Method and device for three-dimensional input |
JP2001194126A (en) * | 2000-01-14 | 2001-07-19 | Sony Corp | Apparatus and method for measuring three-dimensional shape and program providing medium |
JP2002109518A (en) * | 2000-10-02 | 2002-04-12 | Mitsutoyo Corp | Three-dimensional shape restoring method and system therefor |
JP2004069497A (en) * | 2002-08-06 | 2004-03-04 | Sumitomo Osaka Cement Co Ltd | Monitoring apparatus and monitoring method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020537210A (en) * | 2017-10-06 | 2020-12-17 | バーンスタイン,アーロン | Generation of one or more luminosity edges to form a three-dimensional model of an object |
JP7086330B2 (en) | 2017-10-06 | 2022-06-20 | アドバンスド スキャナーズ,インコーポレイテッド | Generation of one or more luminosity edges to form a three-dimensional model of an object |
WO2021193672A1 (en) * | 2020-03-27 | 2021-09-30 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
EP4131166A4 (en) * | 2020-03-27 | 2023-05-10 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional model generation method and three-dimensional model generation device |
Also Published As
Publication number | Publication date |
---|---|
JP4784270B2 (en) | 2011-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111060023B (en) | High-precision 3D information acquisition equipment and method | |
JP5099965B2 (en) | Surface reconstruction and registration using Helmholtz mutual image pairs | |
JPH05196421A (en) | Method and apparatus for determining distance between image and object | |
JP3624353B2 (en) | Three-dimensional shape measuring method and apparatus | |
JP5593177B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
WO2021140886A1 (en) | Three-dimensional model generation method, information processing device, and program | |
US20120177283A1 (en) | Forming 3d models using two images | |
CN111429523B (en) | Remote calibration method in 3D modeling | |
CN111238374B (en) | Three-dimensional model construction and measurement method based on coordinate measurement | |
JP2009515493A (en) | Determining camera movement | |
EP3382645B1 (en) | Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images | |
EP3049756B1 (en) | Modeling arrangement and method and system for modeling the topography of a three-dimensional surface | |
Remondino et al. | Design and implement a reality-based 3D digitisation and modelling project | |
CN113008195B (en) | Three-dimensional curved surface distance measuring method and system based on space point cloud | |
JP7407428B2 (en) | Three-dimensional model generation method and three-dimensional model generation device | |
CN111445529A (en) | Calibration equipment and method based on multi-laser ranging | |
JP2007508557A (en) | Device for scanning three-dimensional objects | |
CN111340959B (en) | Three-dimensional model seamless texture mapping method based on histogram matching | |
CN113066132A (en) | 3D modeling calibration method based on multi-device acquisition | |
JP4784270B2 (en) | Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus | |
JP5441752B2 (en) | Method and apparatus for estimating a 3D pose of a 3D object in an environment | |
Skuratovskyi et al. | Outdoor mapping framework: from images to 3d model | |
JP4631606B2 (en) | Image depth distribution estimation method, apparatus, and program | |
JPWO2008056427A1 (en) | Three-dimensional shape measuring method and apparatus | |
JP2004170277A (en) | 3-dimensional measurement method, 3-dimensional measurement system, image processing apparatus, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110329 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110614 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110627 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140722 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |