JP2007132715A - Three-dimensional measuring method, measuring device, restoring method, and restoring device - Google Patents

Three-dimensional measuring method, measuring device, restoring method, and restoring device Download PDF

Info

Publication number
JP2007132715A
JP2007132715A JP2005323904A JP2005323904A JP2007132715A JP 2007132715 A JP2007132715 A JP 2007132715A JP 2005323904 A JP2005323904 A JP 2005323904A JP 2005323904 A JP2005323904 A JP 2005323904A JP 2007132715 A JP2007132715 A JP 2007132715A
Authority
JP
Japan
Prior art keywords
image
difference area
area
coordinate position
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005323904A
Other languages
Japanese (ja)
Other versions
JP4784270B2 (en
Inventor
Yasuharu Kunii
康晴 國井
Takahiro Shioda
隆広 潮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chuo University
Original Assignee
Chuo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chuo University filed Critical Chuo University
Priority to JP2005323904A priority Critical patent/JP4784270B2/en
Publication of JP2007132715A publication Critical patent/JP2007132715A/en
Application granted granted Critical
Publication of JP4784270B2 publication Critical patent/JP4784270B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and device capable of removing ambiguity of matching, and measuring a three-dimensional shape easily and with high accuracy. <P>SOLUTION: In this method, an object 26 is photographed by a photographic means 22 capable of photographing two images simultaneously, a shadow 23a is moved on the object 26, and a plurality of objects 26 are photographed by the photographic means 22 so that the shadow 23a is included. A plurality of sets of subtracted image are created, by subtracting the luminance value of each region of each image that does not include shadows from the luminance value of each region of each image including the shadow 23a and objects 26, and each part of the shadow region included in a second subtracted image, photographed and subtracted from the other side that corresponds to the shadow region included in a first subtracted image photographed and subtracted from one side of the photographic means is retrieved. A three-dimensional coordinate position is calculated, by using the two-dimensional coordinate position data of each part of the shadow region included in the first subtracted image and two-dimensional coordinate position data of each corresponding part included in the second subtracted image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、光学的に差異となる差異領域を用いたステレオ視により物体の形状を高精度で計測することができる方法および装置、差異領域を用いたステレオ視により物体の形状を高精度で計測し、その三次元形状を表示画面上に三次元モデルとして復元する方法および装置に関する。   The present invention provides a method and apparatus capable of measuring the shape of an object with high accuracy by stereo viewing using a difference area that is optically different, and measuring the shape of an object with high accuracy by stereo viewing using a difference area. The present invention also relates to a method and apparatus for restoring the three-dimensional shape as a three-dimensional model on a display screen.

惑星における鉱物資源の調査において、コストや安全性の点からローバを用いた惑星探索が注目されている。ローバは、その鉱物資源の三次元形状等を測定するための測定装置を搭載している。測定装置の測定精度を向上させる場合、その重量が大きくなり、消費電力が増大するため、ローバに搭載できる測定装置には限界がある。このため、ローバに搭載した測定装置を用いて三次元形状等を測定する方法では、測定精度に限界があった。   In the survey of mineral resources on planets, planetary exploration using rover has attracted attention from the viewpoint of cost and safety. The rover is equipped with a measuring device for measuring the three-dimensional shape of the mineral resource. When measuring accuracy of a measuring device is increased, its weight increases and power consumption increases, so there is a limit to the measuring device that can be mounted on a rover. For this reason, the method of measuring a three-dimensional shape or the like using a measuring device mounted on a rover has a limit in measurement accuracy.

この問題に鑑み、高精度で測定するには、例えば、ローバにマニピュレータを搭載し、鉱物資源を、マニピュレータを用いて採取し、持ち帰る方法が考えられる。マニピュレータに関しては、ジョイスティックやスレーブアームを用いた遠隔操作に関する研究が数多く行われているが、惑星は地球からの空間的距離が大きく、通信時間遅れの問題が生じるため、正確に目標物体を把握することは困難である。このため、マニピュレータを用いて目標とする鉱物資源を採取することは困難であると考えられる。   In view of this problem, in order to measure with high accuracy, for example, a method of mounting a manipulator on a rover, collecting a mineral resource using the manipulator, and taking it home can be considered. As for manipulators, a lot of research on remote control using joysticks and slave arms has been conducted, but the planet has a large spatial distance from the earth and causes a problem of communication time delay, so it accurately grasps the target object. It is difficult. For this reason, it is thought that it is difficult to extract a target mineral resource using a manipulator.

三次元形状を測定する方法として、ステレオ視による方法、光レーダ法、アクティブステレオ法等がある。ステレオ視による方法は、2台のカメラを使用して異なる2つの視点から同一対象を観測し、それぞれの画像上への投影位置の違いから、対象の三次元情報を得ようとするものである。この方法は、少ない装置で、簡単に計測することができるという利点を有するものの、高精度で測定することができないといった問題がある。光レーダ法は、測定対象となる物体に光を当て、その光が戻ってくるまでの時間を計測することにより、距離画像を得る方法である。また、アクティブステレオ法は、カメラを2台使用する代わりに、1台を、光を発生する機械に置き換えて計測する方法である。これらの方法は、ステレオ視による方法に比較して、高精度な測定結果を得ることができるという利点を有するものの、光や超音波等のエネルギーを放出する機器が必要であり、装置が大きく、重量が増大し、さらには消費電力も増大するといった問題があり、特に、上記ローバに搭載することは困難であった。 As a method for measuring a three-dimensional shape, there are a method using stereo vision, an optical radar method, an active stereo method, and the like. In the stereo vision method, two cameras are used to observe the same object from two different viewpoints, and three-dimensional information of the object is obtained from the difference in projection position on each image. . Although this method has the advantage that it can be easily measured with a small number of devices, there is a problem that it cannot be measured with high accuracy. The optical radar method is a method of obtaining a distance image by applying light to an object to be measured and measuring the time until the light returns. The active stereo method is a method in which one camera is replaced with a machine that generates light instead of using two cameras. Although these methods have the advantage of being able to obtain highly accurate measurement results compared to methods based on stereo vision, a device that emits energy such as light and ultrasonic waves is necessary, and the device is large, There is a problem that the weight increases and the power consumption also increases. In particular, it is difficult to mount on the rover.

そこで、上記ステレオ視による方法を用い、高精度の三次元形状を復元する方法および装置が提案されている(例えば、特許文献1〜3参照)。ここで提案されている特許文献1に記載の装置は、カメラで撮影可能な範囲に存在する対象物の三次元形状データをステレオ計測処理によって生成し、三次元位置データが得られた点と得られなかった点との境界をチェーン状につなぎ合わせ、そのつなぎ合わせた閉曲線を抽出することによりデータ欠落部を抽出し、閉曲線上の点の高さデータの平均値とデータ欠落部内の各点の位置データからデータ欠落部の各点の三次元位置データを計算し、設定するものである。この装置では、データ欠落点のない三次元形状データを生成するため、高精度の三次元モデルを復元することができる。   In view of this, a method and apparatus for restoring a highly accurate three-dimensional shape using the method based on stereo vision has been proposed (see, for example, Patent Documents 1 to 3). The apparatus described in Patent Document 1 proposed here generates three-dimensional shape data of an object existing in a range that can be photographed by a camera by stereo measurement processing, and obtains the points and points where the three-dimensional position data is obtained. The data missing part is extracted by connecting the boundaries with the points that were not found in a chain, and extracting the connected closed curve, and the average value of the height data of the points on the closed curve and each point in the data missing part The three-dimensional position data of each point of the data missing part is calculated from the position data and set. In this apparatus, since three-dimensional shape data having no data missing point is generated, a highly accurate three-dimensional model can be restored.

上記特許文献2に記載のシステムは、測定対象物を異なるアングルから撮影して得られた複数の画像データから測定対象物のエッジ等を示す特徴データを抽出し、特徴データに基づいて画像データ間の拘束条件を算出し、この拘束条件を満たすような特徴データの対応付けを行い、与えられた画像データ中の一箇所の長さのデータと、特徴データと拘束条件とから算出される透視投影変換行列とから、三次元形状を復元するものである。このシステムでは、誤対応や精度の低い特徴データ間の対応付けを防止して、対応付けの精度を向上させ、高精度の三次元形状を復元することができる。   The system described in Patent Document 2 extracts feature data indicating an edge of a measurement object from a plurality of pieces of image data obtained by photographing the measurement object from different angles. A perspective projection calculated from the length data of one location in the given image data, the feature data, and the constraint condition The three-dimensional shape is restored from the transformation matrix. In this system, it is possible to prevent miscorrespondence and association between feature data with low accuracy, improve the accuracy of association, and restore a highly accurate three-dimensional shape.

上記特許文献3に記載の装置は、物体を撮影した二次元輝度画像データについてエッジを検出し、エッジから物体の表面の滑らかさを示すパラメータを算出し、このパラメータを用いて陰影情報として反射地図パラメータを決定し、この反射地図パラメータを用いて三次元形状を復元する画像データを生成するものである。   The apparatus described in Patent Document 3 detects an edge from two-dimensional luminance image data obtained by photographing an object, calculates a parameter indicating the smoothness of the surface of the object from the edge, and uses this parameter as a reflection map as shadow information. The parameters are determined, and image data for restoring the three-dimensional shape is generated using the reflection map parameters.

これらの装置およびシステムは、カメラといった撮影手段と、画像データを処理する処理手段とを備えた簡単な装置で、高精度の三次元形状を復元することができるものの、閉曲線を生成および抽出して三次元位置データを計算する必要があり、画像データ中の一箇所の長さのデータを与えるとともに、特徴データを抽出して拘束条件を計算し、その特徴データと拘束条件から透視投影変換行列を算出する必要があり、また、物体の表面の滑らかさを示すパラメータを算出し、このパラメータを用いて陰影情報として反射地図パラメータを決定する必要があり、計算時間がかかるといった問題があった。計算時間を短縮するため、高い計算処理性能を有するコンピュータを使用することができるが、上記ローバのように搭載できる装置の重量、消費電力等が限定される場合、コンピュータの処理性能も限定されるため、できるだけ簡単で、高精度で、消費電力に鑑み短い計算時間で三次元形状を復元できる装置および方法が望まれている。   These devices and systems are simple devices equipped with a photographing means such as a camera and a processing means for processing image data, and can restore a highly accurate three-dimensional shape, but generate and extract a closed curve. It is necessary to calculate three-dimensional position data, giving the data of the length of one place in the image data, extracting the feature data and calculating the constraint condition, and calculating the perspective projection transformation matrix from the feature data and constraint condition There is a problem in that it is necessary to calculate, and it is necessary to calculate a parameter indicating the smoothness of the surface of the object, and to determine a reflection map parameter as shadow information using this parameter, which requires a calculation time. In order to shorten the calculation time, a computer having high calculation processing performance can be used. However, when the weight, power consumption, etc. of a device that can be mounted like the rover are limited, the processing performance of the computer is also limited. Therefore, an apparatus and a method that can restore a three-dimensional shape as easily as possible, with high accuracy, and in a short calculation time in view of power consumption are desired.

ステレオ視における画像間の対応付けにおいて、曖昧さは必ず生じる重要な問題である。この問題を解決するべく、局所的な濃度パターン(ローカルサポート)を手がかりとして画像間を対応付けする方法が多く提案されている。例えば、左右一方の画像内の注目点の周りにウィンドウを設定し、そのウィンドウをテンプレートとして他方の画像のエピポーラ線(他方の撮影手段に投影された、一方の撮影手段と注目点とを結ぶ直線)上のあらかじめ設定した探索範囲内でマッチングを行う方法や、ウィンドウ内の中心からの距離に応じてガウス分布型の重みを付けたローカルサポートを利用する方法や、ウィンドウ内の濃度と視差の分布を考慮したウィンドウ内で可変なローカルサポートを利用する方法等が提案されている。これらのローカルサポートを利用した方法は、多くの仮定や推測をベースとしているため、この曖昧さの問題を本質的に解決することはできず、例えば、ローカルサポートによる対応付けを強くすると、視差の細かい変化や急激な変化が抑制され、全体的に滑らかな形状になってしまうといった問題があった。
特開2001−283200号公報 特開2002−109518号公報 特開平5−181980号公報
In the correspondence between images in stereo vision, ambiguity is an important problem that always occurs. In order to solve this problem, many methods for associating images with local density patterns (local support) as clues have been proposed. For example, a window is set around an attention point in one of the left and right images, and the epipolar line of the other image (a straight line connecting one imaging means and the attention point projected on the other imaging means using the window as a template) ) Matching method within the preset search range above, using local support with Gaussian weighting according to the distance from the center of the window, distribution of density and parallax in the window A method of using variable local support in a window considering the above has been proposed. Since these methods using local support are based on many assumptions and assumptions, this problem of ambiguity cannot be essentially solved. There has been a problem that fine changes and sudden changes are suppressed, resulting in an overall smooth shape.
JP 2001-283200 A JP 2002-109518 A JP-A-5-181980

本発明は、上記課題に鑑みてなされたものであり、対応付けの曖昧さを除去でき、簡単かつ高精度で三次元形状を計測することが可能な方法および装置を提供することを目的とする。また、本発明は、三次元形状を計測し、その三次元形状を表示画面上に三次元モデルとして復元する方法および復元装置も提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a method and apparatus capable of removing the ambiguity of correspondence and measuring a three-dimensional shape easily and with high accuracy. . Another object of the present invention is to provide a method and an apparatus for measuring a three-dimensional shape and restoring the three-dimensional shape as a three-dimensional model on a display screen.

本発明者等は、上記課題に鑑みて鋭意検討を加えてきたところ、焦点距離が等しく、較正が正確に行われており、光軸が互いに平行で、かつ各画像面が同一平面上に載るように左右に並んだレンズを備えるカメラを配置し、光学的に差異となる差異領域として影を用い、まず、カメラで影のない画像を取得し、次に、地面に影を投影することができる棒等をスライドさせ、その影が写るように連続して複数撮影し、影が写った複数の画像の各領域の輝度値を、該各領域と同じ座標位置にある影のない画像の各領域の輝度値で減算処理して影の領域のみに輝度を有する画像を生成させることで、カメラで撮影した2つの画像をマッチングする際の探索範囲を限定してマッチング精度を向上させることができ、これにより、対応付けの曖昧さを除去でき、簡単に、かつ高精度の三次元形状を計測できることを見出した。上記課題は、本発明の三次元計測方法、計測装置、三次元形状の復元方法および復元装置を提供することにより達成される。   The inventors of the present invention have made extensive studies in view of the above problems. As a result, the focal lengths are equal, the calibration is performed accurately, the optical axes are parallel to each other, and the image planes are on the same plane. In this way, a camera with lenses arranged on the left and right sides is arranged, and shadows are used as the difference areas that are optically different. First, a shadowless image is acquired by the camera, and then the shadows are projected onto the ground. Slide a stick, etc., and shoot multiple shots in succession so that the shadow is reflected.The brightness value of each region of the multiple images with the shadow is calculated for each image of the shadowless image at the same coordinate position as each region. By subtracting the brightness value of the area and generating an image with brightness only in the shadow area, the search range when matching two images captured by the camera can be limited to improve the matching accuracy. This removes the ambiguity of the mapping It can easily and found that can measure a highly accurate three-dimensional shape. The above-mentioned subject is achieved by providing the three-dimensional measuring method, measuring device, three-dimensional shape restoration method, and restoration device of the present invention.

本発明の三次元計測方法は、同時に2つの画像を撮影可能な撮影手段により物体を撮影するステップと、光学的に差異となる差異領域を発生させ、物体上を、差異領域を移動させるステップと、撮影手段により差異領域が含まれるように物体を複数撮影するステップと、差異領域と物体とを含む複数の画像の各領域の輝度値と、該各領域と同じ二次元座標位置にある差異領域を含まない画像の各領域の輝度値との差分を求め、差異領域に輝度を有する複数の減算処理画像を生成するステップと、複数組の減算処理画像の、撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索するステップと、第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算するステップとを含む。 The three-dimensional measurement method of the present invention includes a step of photographing an object by a photographing unit capable of photographing two images at the same time, a step of generating a difference region that is optically different, and moving the difference region on the object; , A step of photographing a plurality of objects so as to include a different area by the photographing means, a luminance value of each area of a plurality of images including the different area and the object, and a different area at the same two-dimensional coordinate position as each of the areas A difference between the brightness value of each area of the image not including the image and generating a plurality of subtracted images having brightness in the difference area, and a plurality of sets of subtracted images are captured from one side of the imaging means Each of the difference areas included in the plurality of second subtraction images captured from the other side of the imaging unit and subtracted, corresponding to each portion of the difference areas included in the plurality of first subtraction images subjected to the subtraction process. Part A step of searching based on the shape portion having the characteristic of the difference area, a two-dimensional coordinate position data of each part of the difference area included in the first subtraction image, and a search of the difference area included in the second subtraction image. And calculating the three-dimensional coordinate position of each portion using the corresponding two-dimensional coordinate position data of each portion.

輝度変化がほとんどない差異領域以外の部分、差異領域内における輝度変化の小さい領域では、視点が異なる投影による幾何学的な歪みやランダムノイズの影響により、正確なマッチングポイント(他方の減算処理画像の対応する各部分)を見つけることが困難である。差異領域のエッジ(縁部)は、輝度の変化が大きいという特徴を有しているため、マッチング処理の際の曖昧さを軽減し、正確なマッチングポイントを容易に見つけることを可能にする。このため、同一の二次元座標位置に輝度値を持つ第1減算処理画像が複数存在する場合、マッチング対象となる画素の周辺領域の類似度を元にマッチングを行う領域ベースの対応点探索手法を用いることが好ましく、マッチング対象となるすべての二次元座標位置に対して、周辺画素を含む所定領域を指定するウィンドウ内に差異領域のエッジが入る第1減算処理画像を探索し、検出された第1減算処理画像と、対応する第2減算処理画像を用いてマッチングを行うことが好ましい。 In areas other than the difference area where there is almost no change in brightness, and areas where the change in brightness is small within the difference area, the exact matching point (the other subtraction image of the other subtracted image) is affected by geometric distortion and random noise caused by projections with different viewpoints. It is difficult to find each corresponding part). Since the edge (edge) of the difference area has a characteristic that the change in luminance is large, ambiguity during the matching process is reduced, and an accurate matching point can be easily found. For this reason, when there are a plurality of first subtraction processing images having luminance values at the same two-dimensional coordinate position, a region-based corresponding point search method that performs matching based on the similarity of the peripheral region of the pixel to be matched is performed. It is preferable to use the first subtraction processing image in which the edge of the difference area enters the window for designating the predetermined area including the peripheral pixels for all the two-dimensional coordinate positions to be matched. It is preferable to perform matching using the 1 subtraction processing image and the corresponding second subtraction processing image.

このウィンドウ内の輝度値の分散が最大になる第1減算処理画像(左右同時に撮影可能な撮影手段であれば、例えば左画像)を探索するステップを含むことが好ましい。探索時間を短縮するため、特に、エピポーラ線に平行な方向の分散の平均値が最大になる第1減算処理画像を探索することが好ましい。この分散または分散の平均値が最大になる第1減算処理画像には、差異領域のエッジが含まれる確率が高く、上述したようにエッジは、正確なマッチングポイントを容易に見つけることができるからである。また、上記探索するステップは、ウィンドウの二次元座標位置を保持しつつ、ウィンドウ内の画素の輝度値の分散が最大となる1つの第1減算処理画像を探索するステップと、ウィンドウを移動させるステップと、移動した二次元座標位置において分散が最大となる他の第1減算処理画像を探索するステップと、移動させるステップと他の第1減算処理画像を探索するステップとを繰り返すステップとを含むことができる。このウィンドウを移動させるステップでは、ウィンドウを、エピポーラ線に沿って移動させることができる。また、ウィンドウ内の中心に位置する中心画素が1画素ずつ紙面に対して右方向に移動するように、ウィンドウを移動させることができる。 It is preferable to include a step of searching for a first subtraction-processed image (for example, a left image in the case of photographing means capable of photographing right and left simultaneously) that maximizes the dispersion of luminance values in the window. In order to shorten the search time, it is particularly preferable to search for the first subtraction processing image in which the average value of the dispersion in the direction parallel to the epipolar line is maximized. The first subtraction processing image in which the variance or the average value of the variance is maximized has a high probability that the edge of the difference area is included, and the edge can easily find an exact matching point as described above. is there. The searching step includes a step of searching for one first subtraction image that maximizes the variance of the luminance values of pixels in the window while maintaining the two-dimensional coordinate position of the window, and a step of moving the window. And a step of searching for another first subtraction image having the maximum variance at the moved two-dimensional coordinate position, a step of moving, and a step of searching for another first subtraction image. Can do. In the step of moving the window, the window can be moved along the epipolar line. Further, the window can be moved so that the center pixel located at the center in the window moves rightward with respect to the paper surface by one pixel.

本発明では、三次元計測方法を実施するための装置も提供する。この装置は、同時に2つの画像を撮影可能な撮影手段と、光学的に差異となる差異領域を発生させる手段と、物体上を、差異領域を移動させる可動手段と、差異領域と物体とを含む複数の画像の各領域の輝度値と、該各領域と同じ二次元座標位置にある差異領域を含まない画像の各領域の輝度値との差分を求め、差異領域に輝度を有する複数の減算処理画像を生成させ、複数組の減算処理画像の、撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索し、第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算する計算処理手段とを含む。この計算処理手段は、減算処理、マッチング(対応付け)のための探索、三次元座標位置の計算を、プログラムを実行することにより処理することができ、具体的には、そのプログラムが記録された記録媒体と、そのプログラムを読み出して実行するプロセッサとを含んで構成することができる。 The present invention also provides an apparatus for performing the three-dimensional measurement method. The apparatus includes a photographing unit capable of photographing two images at the same time, a unit that generates a difference area that is optically different, a movable unit that moves the difference area on the object, and the difference area and the object. The difference between the luminance value of each area of the plurality of images and the luminance value of each area of the image not including the difference area at the same two-dimensional coordinate position as each of the areas is obtained, and a plurality of subtraction processes having luminance in the difference area Generating the image, and the other of the imaging means corresponding to each part of the difference area included in the plurality of first subtraction images captured and subtracted from one side of the imaging means of the plurality of sets of subtraction processing images Each of the different areas included in the plurality of second subtraction-processed images photographed from the side and subtracted is searched based on the shape part having the characteristics of the different areas, and the different areas included in the first subtraction-processed image 2D coordinate position of each part of Using the data and the two-dimensional coordinate position data of the searched corresponding respective portions of the difference region in the second subtraction image, and a calculation processing unit for calculating a three-dimensional coordinate positions of the respective parts. This calculation processing means can process a subtraction process, a search for matching (association), and a calculation of a three-dimensional coordinate position by executing a program. Specifically, the program is recorded. A recording medium and a processor that reads and executes the program can be configured.

本発明の三次元形状の復元方法は、上記計測方法における各ステップに加え、各組の減算処理画像について計算された差異領域の各部分における三次元座標位置データを用いて、差異領域の三次元形状をそれぞれ生成し、該三次元形状を撮影時刻順に配列させ、表示装置に三次元モデルとして表示させるステップを含むものである。 The three-dimensional shape restoration method of the present invention uses the three-dimensional coordinate position data in each part of the difference area calculated for each set of subtraction images in addition to each step in the measurement method, Each of the shapes is generated, the three-dimensional shapes are arranged in order of photographing time, and displayed on the display device as a three-dimensional model.

本発明の復元装置は、上記計測装置に、物体の三次元モデルを表示する表示装置を含み、上記計測装置の計算処理手段が、各組の減算処理画像について計算された差異領域の各部分における三次元座標位置データを用いて、差異領域の三次元形状をそれぞれ生成させ、該三次元形状を撮影時刻順に配列させ、表示装置に三次元モデルとして表示させる。 The restoration apparatus according to the present invention includes a display device that displays a three-dimensional model of an object in the measurement device, and the calculation processing means of the measurement device uses a difference area calculated for each set of subtraction processing images. Using the three-dimensional coordinate position data, three-dimensional shapes of the difference areas are generated, the three-dimensional shapes are arranged in order of photographing times, and displayed on the display device as a three-dimensional model.

本発明の三次元計測方法および計測装置を提供することにより、対応付けの曖昧さを除去でき、簡単かつ高精度で三次元形状を計測することができる。また、本発明の三次元形状の復元方法および復元装置を提供することにより、遠隔地にある物体の三次元形状を、表示画面上に正確に復元することができる。本発明の装置は、装置数が少なくて済み、マッチング処理の時間を短縮することができるため、装置重量を軽くすることができ、計算処理に必要とされる消費電力を低減することができるため、積載可能な装置が限定されるローバに好適である。   By providing the three-dimensional measurement method and the measurement apparatus of the present invention, the ambiguity of correspondence can be removed, and a three-dimensional shape can be measured easily and with high accuracy. In addition, by providing the three-dimensional shape restoration method and restoration device of the present invention, the three-dimensional shape of an object at a remote place can be accurately restored on the display screen. Since the apparatus of the present invention requires only a small number of apparatuses and can shorten the matching process time, the apparatus weight can be reduced and the power consumption required for the calculation process can be reduced. It is suitable for a rover where a stackable device is limited.

以下、本発明を図面に示した具体的な実施の形態をもって説明するが、本発明は、後述する実施の形態に限定されるものではない。また、光学的に差異となる差異領域として影を用いて本発明を詳細に説明するが、この差異領域としては、光が照射された領域を用いることもでき、例えば、レーザ光照射領域、スリット光照射領域、背景色以外の例えば赤色ライト照射領域や青色ライト照射領域等を用いることができる。まず、図1に鉱物資源を観測するためのローバを例示する。図1には、三次元計測を行うため、マニピュレータ10を移動させているところが示している。マニピュレータ10は、手の構造をした機械を遠隔より作動させて人間の代わりに作業をする装置である。マニピュレータ10は、鉱物資源等を採取し、持ち帰るために使用することができる。   The present invention will be described below with reference to specific embodiments shown in the drawings, but the present invention is not limited to the embodiments described below. In addition, the present invention will be described in detail using a shadow as a difference area that is optically different. However, as this difference area, an area irradiated with light can be used, for example, a laser light irradiation area, a slit, or the like. For example, a red light irradiation region or a blue light irradiation region other than the light irradiation region and the background color can be used. First, FIG. 1 illustrates a rover for observing mineral resources. FIG. 1 shows the manipulator 10 being moved in order to perform three-dimensional measurement. The manipulator 10 is a device that works on behalf of a human by remotely operating a machine having a hand structure. The manipulator 10 can be used to collect mineral resources and take them home.

図1に示すローバは、様々な鉱物資源を観測するために、撮影対象領域の少なくとも一部が重複するように同時に2つの画像を撮影可能な撮影手段11と、移動手段として車輪12と、撮影した画像データを計算処理する図示しない計算処理手段とを備えている。マニピュレータ10は、影(光学的に差異となる差異領域)を発生させる手段として用いることができ、図示しない可動手段に連結されており、この可動手段によって図1の矢線Aで表されるように移動させることができる。マニピュレータ10の影13は、ハロゲンランプ等の光源14によって発生し、マニピュレータ10の移動に伴って移動する。   In order to observe various mineral resources, the rover shown in FIG. 1 has a photographing unit 11 capable of photographing two images at the same time so that at least a part of a photographing target region overlaps, a wheel 12 as a moving unit, and a photographing unit. A calculation processing means (not shown) for calculating the processed image data. The manipulator 10 can be used as a means for generating a shadow (difference area that is optically different), and is connected to a movable means (not shown), and is represented by an arrow A in FIG. 1 by this movable means. Can be moved to. The shadow 13 of the manipulator 10 is generated by a light source 14 such as a halogen lamp, and moves as the manipulator 10 moves.

ローバに設けられた撮影手段11は、地面上の鉱物資源15を撮影することができ、鉱物資源15上にマニピュレータ10の影13が発生している場合、鉱物資源15と影13とを撮影することができる。撮影手段11は同時に2つの画像を、例えば、数十〜数百ミリ秒の時間間隔で連続して撮影することができる。また、撮影手段11は、ローバの車輪12を回転させない限り、地面上の特定位置を撮影する。図1に示す実施形態では、マニピュレータ10のみが移動しているため、撮影された画像は、影13のみの位置が異なる画像となる。 The photographing means 11 provided in the rover can photograph the mineral resource 15 on the ground, and when the shadow 13 of the manipulator 10 is generated on the mineral resource 15, the mineral resource 15 and the shadow 13 are photographed. be able to. The photographing unit 11 can photograph two images simultaneously at a time interval of several tens to several hundreds of milliseconds, for example. Moreover, the imaging | photography means 11 image | photographs the specific position on the ground, unless the wheel 12 of a rover is rotated. In the embodiment shown in FIG. 1, since only the manipulator 10 is moving, the captured image is an image in which only the position of the shadow 13 is different.

撮影された画像は、画像データとして図示しない計算処理手段に送られる。図示しない計算処理手段では、影13と物体である鉱物資源15とを含む複数の画像の各領域の輝度値を、その各領域と同じ二次元座標位置にある影を含まない画像の各領域の輝度値で減算し、影領域に輝度を有する複数の減算処理画像を生成し、撮影手段11により撮影され、減算処理された複数組の減算処理画像に含まれる影領域の各部分を、影領域の特徴を有する形状部分に基づき探索して対応付けを行い、対応する各部分の二次元座標位置データを用いて、その各部分の三次元座標位置を計算する。この計算処理については、以下に詳述する。 The captured image is sent as image data to calculation processing means (not shown). In the calculation processing means (not shown), the luminance value of each region of the plurality of images including the shadow 13 and the mineral resource 15 that is the object is calculated for each region of the image that does not include the shadow at the same two-dimensional coordinate position as each region. Subtract the luminance value to generate a plurality of subtraction processing images having luminance in the shadow region, and capture each part of the shadow region included in the plurality of sets of subtraction processing images photographed by the photographing unit 11 and subtracted. A search is performed based on the shape portion having the above feature, and the three-dimensional coordinate position of each part is calculated using the two-dimensional coordinate position data of each corresponding part. This calculation process will be described in detail below.

図1に示す実施形態において三次元計測装置は、上記撮影手段11と、影を発生させるマニピュレータ10および光源14と、マニピュレータ10を移動可能にさせる可動手段と、計算処理手段とを含む構成とされている。   In the embodiment shown in FIG. 1, the three-dimensional measurement apparatus includes the photographing unit 11, a manipulator 10 and a light source 14 that generate a shadow, a movable unit that makes the manipulator 10 movable, and a calculation processing unit. ing.

図2は、光学的に差異となる差異領域として影を用いた場合の三次元計測装置を詳細に示した図である。図2に示す装置は、光軸20、21が平行で、かつ画像面が同一平面上となる同時に2つの画像を撮影可能な撮影手段22と、影23を発生させる棒状部材24および光源25と、棒状部材24を連結し、物体26上を影23aが横断するように棒状部材24を移動可能にさせる可動手段27と、撮影された複数の画像を用いて三次元座標位置を計算する計算処理手段28とを含む構成とされる。ここでは光軸20、21が平行とされているが、本発明では撮影対象領域の少なくとも一部が重複するように撮影できれば良い。 FIG. 2 is a diagram showing in detail the three-dimensional measuring apparatus when a shadow is used as a different area that is optically different. The apparatus shown in FIG. 2 includes a photographing means 22 capable of photographing two images simultaneously with the optical axes 20 and 21 being parallel and the image plane being on the same plane, a rod-shaped member 24 and a light source 25 for generating a shadow 23. A calculation process for calculating a three-dimensional coordinate position using a plurality of captured images, and a movable means 27 for connecting the rod-shaped member 24 and moving the rod-shaped member 24 so that the shadow 23a crosses the object 26. And means 28. Here, the optical axes 20 and 21 are parallel, but in the present invention, it is only necessary to be able to photograph so that at least a part of the photographing target region overlaps.

図2に示す撮影手段22は、焦点距離が等しく、カメラパラメータが既知で、較正が正確に行われており、同時に2つの画像を撮影することができるステレオカメラとすることができる。また、撮影手段22は、上述したように、数十〜数百ミリ秒といった時間間隔で連続撮影できるものとされる。   The imaging means 22 shown in FIG. 2 can be a stereo camera that has the same focal length, known camera parameters, is accurately calibrated, and can capture two images simultaneously. Further, as described above, the photographing unit 22 can continuously photograph at a time interval such as several tens to several hundred milliseconds.

棒状部材24は、単なる棒のほか、マニピュレータを挙げることができる。光源25は、太陽光であっても良いが、ハロゲンランプ等の照明装置とすることができる。可動手段27は、棒やマニピュレータ等の棒状部材24を連結し、影23を地面に投影させた状態でスライドさせることができるものとすることができる。なお、影23を発生させることができる部材であれば、いかなる形状の部材であっても良いが、撮影手段22で同時に撮影された左右画像において、例えば、左画像を右画像にマッチング処理する際の探索範囲を限定するためには、幅が細長い影を発生させることができる棒状部材24であることが好ましい。また、本発明では、上述したように、光を用いることもでき、差異領域を発生させる手段として、レーザ光照射手段、スリット光照射手段、赤色ライトや青色ライト等を挙げることができる。可動手段は、これら照射手段またはライトの照射領域を移動させることができ、これらの照射手段またはライトを載置することができる、例えば、回転盤等とすることができる。   The rod-shaped member 24 can be a simple manipulator in addition to a simple rod. The light source 25 may be sunlight, but can be an illumination device such as a halogen lamp. The movable means 27 can be slid in a state where the rod-like member 24 such as a rod or a manipulator is connected and the shadow 23 is projected on the ground. Any member can be used as long as it can generate the shadow 23. However, in the left and right images simultaneously captured by the photographing means 22, for example, when the left image is matched with the right image. In order to limit the search range, it is preferable that the rod-shaped member 24 can generate a shadow having a narrow width. In the present invention, as described above, light can also be used, and examples of means for generating the difference area include laser light irradiation means, slit light irradiation means, red light, and blue light. The movable means can move the irradiation area of the irradiation means or the light, and can be, for example, a turntable or the like on which the irradiation means or the light can be placed.

ここで、撮影手段22で撮影された2つの画像をそれぞれ、左画像、右画像とし、図3に撮影された複数の画像を示す。図3(a)は、左画像を示し、図3(b)は右画像を示す。番号1で示された画像は、影を発生させていないときの1回目のシャッターを押して撮影した影のない画像である。番号2で示された画像は、影を発生させ、紙面に対して右側から左側に向けて影の移動を開始した後、2回目のシャッターを押して撮影した画像で、番号kで示された画像は、k回目のシャッターを押して撮影した画像で、番号nで示された画像は、n回目のシャッターを押して撮影した画像である。撮影手段22の向き、位置は変更しないため、図3(a)に示されるように番号1の左画像に表される地面および物体の輝度値と、番号2〜nの左画像に表される地面および物体の輝度値は影の領域を除いてほぼ同じ値となる。   Here, the two images photographed by the photographing means 22 are a left image and a right image, respectively, and a plurality of images photographed are shown in FIG. FIG. 3A shows a left image, and FIG. 3B shows a right image. The image indicated by number 1 is a shadowless image that is captured by pressing the first shutter when no shadow is generated. The image indicated by the number 2 is an image which is generated by generating a shadow and starting the movement of the shadow from the right side to the left side with respect to the paper surface and then pressing the second shutter, and is indicated by the number k. Is an image shot by pressing the kth shutter, and the image indicated by the number n is an image shot by pressing the nth shutter. Since the orientation and position of the photographing means 22 are not changed, as shown in FIG. 3A, the brightness values of the ground and the object shown in the left image of number 1 and the left images of numbers 2 to n are shown. The brightness values of the ground and the object are almost the same except for the shadow area.

図2に示す計算処理手段28は、番号2〜nの左画像を、番号1の左画像で減算処理する。具体的には、図4に示すような処理を行う。図4(a)は、番号kの左画像を減算処理しているところを示した図で、図4(b)は、番号kの右画像を減算処理しているところを示した図である。番号1の左画像および右画像の輝度値をI(X,Y)とし、番号kの左画像および右画像の輝度値I(X,Y)とし、減算処理した減算処理画像の輝度値I’(X,Y)とすれば、以下の式を用いて減算処理を行うことができる。ただし、差異領域として光が照射された領域を用いる場合には、I(X,Y)からI(X,Y)を減算することになる。 The calculation processing means 28 shown in FIG. 2 subtracts the left images of numbers 2 to n with the left image of number 1. Specifically, processing as shown in FIG. 4 is performed. FIG. 4A is a diagram showing a subtraction process for the left image of number k, and FIG. 4B is a diagram showing a subtraction process for the right image of number k. . The luminance value of the left image and the right image of number 1 is set to I 1 (X, Y), the luminance value I k (X, Y) of the left image and the right image of number k, and the luminance value of the subtracted image subjected to the subtraction process If I ′ k (X, Y), subtraction processing can be performed using the following equation. However, when an area irradiated with light is used as the difference area, I 1 (X, Y) is subtracted from I k (X, Y).

Figure 2007132715
Figure 2007132715

減算処理後の左画像および右画像は、図4(a)、(b)に示すように、差異領域(ここでは影領域)のみに輝度を有する画像となる。撮影手段で撮影された影の領域は輝度値が0となるため、減算処理後の影領域の輝度値はIに等しい値となる。撮影手段により撮影された左画像および右画像の影領域の空間的位置は等しく、また、影領域以外はすべて輝度値が0となる。したがって、左画像と右画像とをマッチングする際の探索範囲は、影領域が存在する部分に限定することができ、これにより、マッチングを容易にするとともにマッチング精度を向上させることができる。なお、マッチング処理の詳細については後述する。 As shown in FIGS. 4A and 4B, the left image and the right image after the subtraction process are images having luminance only in the difference area (here, the shadow area). Since the shadow area photographed by the photographing means has a luminance value of 0, the luminance value of the shadow area after the subtraction process is equal to I 1 . The spatial positions of the shadow areas of the left image and the right image taken by the photographing means are equal, and the luminance value is 0 for all areas other than the shadow areas. Therefore, the search range when matching the left image and the right image can be limited to a portion where the shadow region exists, and thereby matching can be facilitated and matching accuracy can be improved. Details of the matching process will be described later.

左画像と右画像とのマッチングが完了した後、物体における点Pの三次元座標位置(X,Y,Z)を以下の式を用いて計算する。まず、点Pの左画像への投影点(x,y)、点Pの右座標への投影点(x,y)を抽出する。具体的には、左画像において点Pに対応する投影点(x,y)を選択し、マッチング処理によって対応付けが完了しているため、右画像の投影点(x,y)を左画像の投影点(x,y)から導出する。2つのレンズを備える撮影手段の焦点距離f、基線長(焦点間距離)bは予め設定されており、既知であるため、次に、上記投影点座標および以下の式を用いて、点Pの三次元座標位置を計算する。 After the matching between the left image and the right image is completed, the three-dimensional coordinate position (X, Y, Z) of the point P in the object is calculated using the following formula. First, the projection point (x 1 , y 1 ) of the point P on the left image and the projection point (x 2 , y 2 ) of the point P on the right coordinate are extracted. Specifically, since the projection point (x 1 , y 1 ) corresponding to the point P in the left image is selected and the matching is completed by the matching process, the projection point (x 2 , y 2 ) of the right image is completed. Is derived from the projection point (x 1 , y 1 ) of the left image. Since the focal length f and the base line length (inter-focal distance) b of the photographing means including two lenses are set in advance and are already known, next, using the projection point coordinates and the following formula, Calculate the 3D coordinate position.

Figure 2007132715
Figure 2007132715

Figure 2007132715
Figure 2007132715

Figure 2007132715
Figure 2007132715

式2〜式4中のd(=x−x)は、視差である。これらの計算および処理は、上記のように、プログラムを実行することによって行うことができ、計算処理手段は、このプログラムが記録された記録媒体、このプログラムを読み出し、実行するプロセッサを含むコンピュータとすることができる。 D (= x 1 −x 2 ) in Equations 2 to 4 is parallax. These calculations and processes can be performed by executing the program as described above, and the calculation processing means is a computer including a recording medium on which the program is recorded and a processor that reads and executes the program. be able to.

ここで、計算処理手段による処理を図5に示すフローチャートを参照して説明する。計算処理手段は、撮影手段によって撮影された画像データを撮影時間順に受け取り、メモリやハードディスクといった記憶装置に記憶する(ステップ500)。例えば、1〜nの番号とともに、左画像、右画像に分けてデータを記憶する。各画像データには、各画素における輝度値データが含まれる。次に、番号1の左画像データおよび右画像データを読み出す(ステップ510)。番号2の左画像データおよび右画像データを読み出し(ステップ520)、減算処理する(ステップ530)。番号を1つ増加し(ステップ540)、番号がn+1に到達したか判定する(ステップ550)。nは、撮影回数で、例えば、記憶装置に記憶する左画像データの数として決定することができる。計算処理手段は、受け取ったデータの数をカウントし、そのデータ数をnとして設定することができる。番号がn+1に到達していない場合、ステップ530に戻り、減算処理する。番号がn+1に到達した場合には、減算処理する画像がないため、ステップ560へ進み、左画像に含まれる影領域の各部分に対応する右画像に含まれる影領域の各部分をそれぞれ探索する。すなわち、左画像に対応する右画像のマッチングポイントを探索する。マッチングポイントが探索された後、上記式(2)〜式(4)を用いて、物体の各点における三次元座標位置を計算する(ステップ570)。   Here, the processing by the calculation processing means will be described with reference to the flowchart shown in FIG. The calculation processing means receives the image data photographed by the photographing means in order of photographing time and stores them in a storage device such as a memory or a hard disk (step 500). For example, the data is stored separately for the left image and the right image together with the numbers 1 to n. Each image data includes luminance value data in each pixel. Next, the left image data and right image data of number 1 are read (step 510). The left image data and the right image data of number 2 are read (step 520) and subtracted (step 530). The number is incremented by 1 (step 540), and it is determined whether the number has reached n + 1 (step 550). n is the number of times of photographing, and can be determined as, for example, the number of left image data stored in the storage device. The calculation processing means can count the number of received data and set the number of data as n. If the number has not reached n + 1, the process returns to step 530 to perform subtraction processing. When the number reaches n + 1, since there is no image to be subtracted, the process proceeds to step 560, where each part of the shadow area included in the right image corresponding to each part of the shadow area included in the left image is searched. . That is, the matching point of the right image corresponding to the left image is searched. After the matching point is searched, the three-dimensional coordinate position at each point of the object is calculated using the above formulas (2) to (4) (step 570).

本発明では、正確なマッチングポイントを見つけるのを容易にするため、差異領域のエッジを利用することができる。エッジは、差異領域の縁部であり、輝度値が大きく変化する部分である。この輝度値が大きく変化する部分は、形状的に大きな特徴を有している。   In the present invention, the edge of the difference area can be used to facilitate finding an exact matching point. The edge is an edge portion of the different area, and is a portion where the luminance value greatly changes. The portion where the luminance value changes greatly has a large feature in shape.

図6に示すように、所定領域を指定するウィンドウ60の二次元座標位置を固定し、撮影手段により撮影された複数の左画像の中から、ウィンドウ60内の輝度値の分散が最大となる左画像を探索することが好ましい。これは、分散が最大になる左画像には影領域61のエッジが含まれる確率が高いからである。なお、この探索は、左画像に限らず、右画像であってもよい。ウィンドウ60は、所定数の画素を含み、その位置での分散が最大となる左画像を探索した後、ウィンドウ60内の中心に位置する中心画素が1画素ほど紙面に対して右に向けて移動するように移動される。すなわち、次のウィンドウ60の位置で分散が最大となる左画像を探索する。ウィンドウ60をエピポーラ線に沿って移動させ、Bで示される範囲のみを探索することで、探索範囲をさらに絞り込むことができる。 As shown in FIG. 6, the two-dimensional coordinate position of the window 60 that designates a predetermined area is fixed, and the left of the plurality of left images photographed by the photographing means has the maximum variance of luminance values in the window 60. It is preferable to search for an image. This is because there is a high probability that the left image with the maximum variance includes the edge of the shadow region 61. This search is not limited to the left image, but may be the right image. The window 60 includes a predetermined number of pixels, and after searching for a left image having the maximum dispersion at the position, the center pixel located at the center in the window 60 moves to the right by about one pixel with respect to the paper surface. To be moved. That is, the left image having the maximum variance is searched for at the position of the next window 60. The search range can be further narrowed down by moving the window 60 along the epipolar line and searching only the range indicated by B.

図7は、ウィンドウ60を所定位置に固定し、複数の左画像の中から分散が最大となる左画像を探索しているところを示した図である。図7では、ウィンドウが各左画像の同一の二次元座標位置(x,y)に固定されており、数個の画素(ピクセル)を指定している。各左画像に付された番号は、撮影順に付された画像番号である。図7には、番号7および11が付されている左画像のウィンドウ内に、影領域のエッジが含まれているのが示されている。 FIG. 7 is a diagram showing a state where the window 60 is fixed at a predetermined position and a left image having the maximum variance is searched for from among a plurality of left images. In FIG. 7, the window is fixed at the same two-dimensional coordinate position (x, y) of each left image, and several pixels (pixels) are designated. The number assigned to each left image is an image number assigned in the shooting order. FIG. 7 shows that the edge of the shadow area is included in the window of the left image numbered 7 and 11.

図8は、画像番号と、画素(x,y)を中心としたウィンドウ内のエピポーラ線に平行方向の分散の平均値である評価値Ci(x,y)との関係を示した図である。画素(x,y)の画像番号iにおける評価値Ci(x,y)は、以下に示す評価関数を用いて計算される。 FIG. 8 is a diagram showing the relationship between the image number and the evaluation value Ci (x, y) that is the average value of dispersion in the direction parallel to the epipolar line in the window centered on the pixel (x, y). . The evaluation value Ci (x, y) in the image number i of the pixel (x, y) is calculated using the following evaluation function.

Figure 2007132715
Figure 2007132715

Figure 2007132715
Figure 2007132715

上記2Wはウィンドウの幅であり、2hがウィンドウの高さである。また、I(x,y)は二次元座標位置(x,y)における輝度値である。図8では、ウィンドウ内に輝度値を有する画素がない場合、すなわち番号1〜6、13〜32の場合には評価値0であり、ウィンドウ内に影領域が含まれる場合、すなわち番号7〜12の場合には輝度値を有し、ウィンドウ内の画素の輝度値に分散があるため、評価値を有する。特に、影領域のエッジを含む番号7、11は、輝度値の分散が大きいため、番号7、11における評価値Cが番号8〜10、12に比較して大きくなっている。評価値が最大となる左画像は、番号7で表される画像であり、このウィンドウの位置における左右画像のマッチングは番号7の左画像およびそれに対応する右画像を用いることにより、容易にマッチングすることができる。実際にマッチングは、番号7の左画像のウィンドウ内の画素を、それに対応する右画像の画素と対応付けることにより行うことができる。   2W is the width of the window, and 2h is the height of the window. I (x, y) is a luminance value at the two-dimensional coordinate position (x, y). In FIG. 8, when there is no pixel having a luminance value in the window, that is, when the numbers are 1 to 6 and 13 to 32, the evaluation value is 0, and when the shadow area is included in the window, that is, the numbers 7 to 12 In the case of (2), it has a luminance value, and since the luminance values of the pixels in the window have dispersion, it has an evaluation value. In particular, the numbers 7 and 11 including the edges of the shadow region have a large variance of the luminance values, and thus the evaluation value C at the numbers 7 and 11 is larger than the numbers 8 to 10 and 12. The left image with the maximum evaluation value is an image represented by the number 7, and the left and right images at this window position are easily matched by using the left image of the number 7 and the corresponding right image. be able to. Actually, the matching can be performed by associating the pixel in the window of the left image with the number 7 with the corresponding pixel of the right image.

図9を参照して、影領域のエッジを探索する処理を詳細に説明する。画像中の画素数と同じ数の値を保持できる二次元配列MaxC(二次元座標ごとに最大の評価値を保持する配列)とMaxCImage(二次元座標ごとに評価値が最大となる画像番号を保持する配列)を準備する。例えば、これらの配列は、テーブルとして記憶装置内に保持することができる。ステップ900として、番号iの左画像を記憶装置から読み出す。番号iの左画像は撮影手段によりi番目に撮影された画像である。x=0、y=0を初期値とし、二次元座標位置(x,y)の画素を中心とした幅2W、高さ2hのウィンドウを生成する(ウィンドウが画像からはみ出る場合は、画素の存在する領域をウィンドウとする)(ステップ910)。ウィンドウ内の中心画素(x,y)に輝度値があるか否かを判定する(ステップ920)。輝度値を有する場合、ウィンドウ内に影領域を含んでおり、ステップ930で上記式5および6を用いて評価値Ci(x,y)を計算する。次に、その評価値Ci(x,y)がこれまでに計算され、記憶されている同一二次元座標位置の評価値の最大値MaxC(x,y)より大きいか否かを判定する(ステップ940)。大きい場合には、最大の評価値としてMaxC(x,y)の値を更新し、画像番号iをMaxCImage(x,y)に記憶する(ステップ950)。ステップ920で輝度値を有しないと判定された場合、または、ステップ950で記憶した後、次の画像に移動し(ステップ960)、画像iにおいてすべての画素の評価が終わったか否かを判定する(ステップ970)。評価が終わっているのであれば、画像番号iを1つ増加し(ステップ980)、その増加した番号がn+1と等しいか否かを判定する(ステップ990)。n+1に等しくない場合には、ステップ900に戻り、その番号の画像を読み出す。n+1に到達した場合は、それ以上の画像はないため、その二次元座標位置(W,h)の画素を中心としたウィンドウ内の輝度値の分散が最大となる画像の探索を終了する(ステップ1000)。   With reference to FIG. 9, the process of searching for the edge of the shadow area will be described in detail. Two-dimensional array MaxC (array that holds the maximum evaluation value for each two-dimensional coordinate) that can hold the same number of values as the number of pixels in the image and MaxCImage (image number that gives the maximum evaluation value for each two-dimensional coordinate) To be prepared). For example, these arrays can be held as a table in the storage device. In step 900, the left image of number i is read from the storage device. The left image with the number i is an i-th image captured by the imaging means. A window having a width of 2W and a height of 2h centered on the pixel at the two-dimensional coordinate position (x, y) is generated with x = 0 and y = 0 as initial values (if the window protrudes from the image, the presence of the pixel) The area to be used is a window) (step 910). It is determined whether or not the center pixel (x, y) in the window has a luminance value (step 920). If it has a luminance value, a shadow area is included in the window, and in step 930, the evaluation value Ci (x, y) is calculated using Equations 5 and 6 above. Next, it is determined whether or not the evaluation value Ci (x, y) is larger than the maximum value MaxC (x, y) of the evaluation values of the same two-dimensional coordinate position calculated so far ( Step 940). If larger, the value of MaxC (x, y) is updated as the maximum evaluation value, and the image number i is stored in MaxCImage (x, y) (step 950). If it is determined in step 920 that there is no luminance value, or after storing in step 950, the process moves to the next image (step 960), and it is determined whether or not all the pixels in the image i have been evaluated. (Step 970). If the evaluation has been completed, the image number i is incremented by 1 (step 980), and it is determined whether or not the increased number is equal to n + 1 (step 990). If it is not equal to n + 1, the process returns to step 900 to read the image with that number. When n + 1 is reached, there is no more image, so the search for an image that maximizes the variance of the luminance value in the window centered on the pixel at the two-dimensional coordinate position (W, h) is terminated (step 1000).

図10は、評価値が最大となる左画像を探索した後、二次元座標位置(x,y)において、評価値Cが最大となる左画像のMaxCImage(x,y)と、それと対応する右画像を読み出し、左画像のMaxCImage(x,y)を中心としたウィンドウに対して、右画像からウィンドウ内の輝度分布が最も一致する(一致度の高い)ウィンドウを求めた図である。なお、求め方については後述する。図10に示すように、ウィンドウ内に影領域のエッジが入ることにより、マッチングを正確に行うことが可能になる。また、1つの二次元位置座標に対して、1つの画像を対応させることにより、同一の二次元座標位置に輝度値を有する減算画像が複数存在しても、マッチングを行う回数が1回のみ(すなわち、1つの画像の画素数のみ)となるため、画像の取得数は増加するものの、マッチング回数を減少させることができ、マッチング処理を高速化することができる。   In FIG. 10, after searching for the left image with the maximum evaluation value, MaxCImage (x, y) of the left image with the maximum evaluation value C at the two-dimensional coordinate position (x, y) and the right corresponding to it. It is the figure which read the image and calculated | required the window where the luminance distribution in a window corresponds most (high degree of coincidence) from the right image with respect to the window centering on MaxCImage (x, y) of the left image. The method of obtaining will be described later. As shown in FIG. 10, when the edge of the shadow region enters the window, matching can be performed accurately. Further, by associating one image with one two-dimensional position coordinate, even when there are a plurality of subtracted images having luminance values at the same two-dimensional coordinate position, the number of times of matching is only one ( That is, since the number of acquired images increases, the number of matching operations can be reduced and the matching process can be speeded up.

左画像の画素(x,y)に対応する右画像の画素(x,y)が検出された場合、左画像においてxよりも右側の画素に対応する右画像の画素はxよりも右側に存在するという拘束条件を用いることにより、マッチングの際の探索範囲を限定し、さらに、マッチング処理を高速化することができる。しかしながら、この拘束条件を用いた探索方法は、誤差の伝播を生じる可能性があり、連続した画素で、画像番号が同じ左右画像を用いる場合のみこの方法を採用し、隣接する二次元座標位置にある画素であっても、画像番号が異なる左右画像を用いて探索する場合には、この拘束条件を用いることなくマッチングを行う。これにより、誤差の伝播を抑制しつつ、マッチング処理を高速化することができる。 When the pixel (x R , y R ) of the right image corresponding to the pixel (x L , y L ) of the left image is detected, the pixel of the right image corresponding to the pixel on the right side of x L in the left image is x By using a constraint condition that exists on the right side of R, it is possible to limit the search range in matching and further speed up the matching process. However, the search method using this constraint condition may cause error propagation, and this method is used only when the left and right images having the same image number are used with consecutive pixels, and are used at adjacent two-dimensional coordinate positions. Even for a certain pixel, when searching using left and right images having different image numbers, matching is performed without using this constraint condition. Thereby, the matching process can be speeded up while suppressing the propagation of errors.

本発明では、上記計測方法の各ステップを含む復元方法および上記計測装置を含む復元装置を提供することができる。物体を三次元モデルとして復元する方法では、各組の減算処理画像について、差異領域の各部分における三次元座標位置データを計算した後、その三次元座標位置データを用いて、差異領域の三次元形状をそれぞれ生成する。次に、生成した各三次元形状を撮影時刻順に配列させ、表示装置に表示させる。これにより、三次元モデルとして物体の三次元形状を復元することができる。上述したように、物体の各点の三次元座標位置を、高精度で計測することができるため、高精度で三次元形状を復元することができる。 In the present invention, a restoration method including each step of the measurement method and a restoration device including the measurement device can be provided. In the method of restoring an object as a three-dimensional model, for each set of subtraction images, after calculating the three-dimensional coordinate position data in each part of the difference area, the three-dimensional coordinate position data is used to calculate the three-dimensional difference area. Each shape is generated. Next, the generated three-dimensional shapes are arranged in order of photographing time and displayed on the display device. Thereby, the three-dimensional shape of the object can be restored as a three-dimensional model. As described above, since the three-dimensional coordinate position of each point of the object can be measured with high accuracy, the three-dimensional shape can be restored with high accuracy.

復元装置は、上記計測装置に、物体の三次元モデルを表示する表示装置を含んで構成される。ただし、計測装置に含まれる計算処理手段は、各組の減算処理画像について計算された差異領域の各部分における三次元座標位置データを用いて、差異領域の三次元形状をそれぞれ生成させ、該三次元形状を撮影時刻順に配列させ、表示装置に三次元モデルとして表示させる機能をさらに有するものとされる。これもまた、プログラムを実行することにより処理することができ、プログラムとして記録媒体に含めることができる。表示装置としては、ディスプレイを用いることができる。 The restoration device includes the measurement device including a display device that displays a three-dimensional model of the object. However, the calculation processing means included in the measurement device generates the three-dimensional shape of the difference area using the three-dimensional coordinate position data in each part of the difference area calculated for each set of subtraction processing images, and The original shape is arranged in order of photographing time and further has a function of displaying it as a three-dimensional model on the display device. This can also be processed by executing the program, and can be included in the recording medium as a program. A display can be used as the display device.

ここで、ステレオカメラ、光学的に差異となる差異領域としての影を発生させる手段として、ハロゲンランプと棒状部材を使用し、画像処理手段としてパーソナルコンピュータを使用して、三次元形状の復元を、本発明による方法と、従来のステレオ視による方法とを使用して行った結果を以下に示す。   Here, as a means for generating a shadow as a difference area that is optically different from a stereo camera, a halogen lamp and a rod-shaped member are used, and a personal computer is used as an image processing means to restore a three-dimensional shape. The results obtained using the method according to the invention and the conventional stereo vision method are shown below.

ステレオカメラにより同時に撮影される左右画像のマッチングに、領域ベースマッチングにおいて代表的で、高速演算が可能な二乗残差法(SSD)が広く用いられている。このSSDは、左画像のウィンドウの輝度値と右画像のウィンドウの輝度値の差分を評価値R(x,y)とし、評価値が最小となる位置を最良のマッチングポイントとするものであり、以下の式によって評価値R(x,y)を算出することができる。   A square residual method (SSD), which is representative in region-based matching and capable of high-speed computation, is widely used for matching left and right images simultaneously captured by a stereo camera. In this SSD, the difference between the luminance value of the window of the left image and the luminance value of the window of the right image is set as the evaluation value R (x, y), and the position where the evaluation value is minimum is set as the best matching point. The evaluation value R (x, y) can be calculated by the following formula.

Figure 2007132715
Figure 2007132715

しかしながら、SSDは、ウィンドウ内の輝度差をそのまま比較するため、輝度変化の少ない部分では高い一致度を示すが、輝度値が急激に変化するエッジ部分では一致度が低くなる。そこで、本発明では、分散の類似度により対応付けするZNCC法を採用する。このZNCC法を採用することにより、急激な輝度値の変化に対して正確に対応付けすることができる。ZNCC法は、以下の式により得られる相関係数RZNCCが最大となる画素を対応点とする方法である。 However, since the SSD compares the luminance differences in the windows as they are, the degree of coincidence is high in the portion where the luminance change is small, but the degree of coincidence is low in the edge portion where the luminance value changes rapidly. Therefore, in the present invention, the ZNCC method is used in which the association is performed based on the similarity of dispersion. By adopting this ZNCC method, it is possible to accurately correspond to a sudden change in luminance value. The ZNCC method is a method in which a pixel having a maximum correlation coefficient R ZNCC obtained by the following equation is used as a corresponding point.

Figure 2007132715
Figure 2007132715

Figure 2007132715
Figure 2007132715

Figure 2007132715
Figure 2007132715

Figure 2007132715
Figure 2007132715

Figure 2007132715
Figure 2007132715

Figure 2007132715
Figure 2007132715

上記と同様、2Wがウィンドウの幅であり、2hがウィンドウの高さであり、I(x,y)は二次元座標位置(x,y)における輝度値である。Iは左画像の輝度値、Iは右画像の輝度値を示す。 Similarly to the above, 2W is the width of the window, 2h is the height of the window, and I (x, y) is a luminance value at the two-dimensional coordinate position (x, y). Luminance value I L is the left image, I R indicates the luminance value of the right image.

図11を参照して、対応点を探索する処理を詳細に説明する。ステップ1100において、番号iの左右画像を記憶装置から読み出す。保存されている配列の要素MaxCImage(x,y)が現在の画像番号iと等しいか否か(現在の画像の画素(x,y)が、二次元座標位置(x,y)における最大の評価値MaxC(x,y)を有するか)を判定する(ステップ1110)。等しい場合、ステップ1120に進み、x=0、y=0を初期値とし、左画像に二次元座標位置(x,y)の画素を中心とした幅2W、高さ2hのウィンドウを生成する(ステップ1120)。また、右画像に、x=0、y=yを初期値とし、二次元座標位置(x,y)を中心とした幅2W、高さ2hのウィンドウを生成する(ステップ1130)。等しくない場合、その読み出した画像以外にエッジを含む可能性を持つ画像が存在することを示し、この画像からマッチングは行われない。ステップ1140で、右画像のウィンドウ内に輝度値があるかを判定する。輝度値がある場合、ステップ1150に進み、左右画像のウィンドウを用い、評価値RZNCCを上記式8〜13を使用して算出する。輝度値がない場合、上記のように、その読み出した画像以外にエッジを含む可能性を持つ画像が存在することを示し、この画像からマッチングは行われない。ステップ1160で、評価値RZNCCが、記憶装置に記憶されている最大の評価値MaxRZNCCより大きいか否かを判定する。大きい場合にはその算出した評価値RZNCCを最大の評価値MaxRZNCCとして記憶し、二次元座標位置(x,y)を(x,y)の対応点として記憶する(ステップ1170)。小さい場合またはステップ1170で記憶後、右画像の二次元座標位置のx軸座標を1増加させ(ステップ1180)、ステップ1110に戻る。このようにして、x軸座標上の対応点を探索する。なお、対応点は、エピポーラ線上にあるため、x軸座標上のみを探索すればよい。すなわち、左画像の探索対象画素を1つ移動する(ステップ1190)。番号iの画像の全ての画素に対してステップ1110〜ステップ1190の処理を行った後(ステップ1200)、画像番号を1つ増加させ(ステップ1210)、上記の処理を繰り返す。画像番号がn+1に達したところで(ステップ1220)、全てのマッチング処理を終了する(ステップ1230)。 With reference to FIG. 11, the process of searching for corresponding points will be described in detail. In step 1100, the left and right images of number i are read from the storage device. Whether or not the element MaxCImage (x L , y L ) of the stored array is equal to the current image number i (the pixel (x L , y L ) of the current image is the two-dimensional coordinate position (x L , y L )) is judged (whether it has the maximum evaluation value MaxC (x L , y L )) (step 1110). If equal, the process proceeds to step 1120, where x L = 0 and y L = 0 are initial values, and the left image has a window of width 2W and height 2h centered on the pixel at the two-dimensional coordinate position (x L , y L ) Is generated (step 1120). Further, a window having a width 2W and a height 2h centered on the two-dimensional coordinate position (x R , y R ) is generated in the right image with x R = 0 and y R = y L as initial values (step 1130). ). If they are not equal, it indicates that there is an image having the possibility of including an edge other than the read image, and matching is not performed from this image. In step 1140, it is determined whether there is a luminance value in the window of the right image. If there is a luminance value, the process proceeds to step 1150, and the evaluation value RZNCC is calculated using the above equations 8 to 13 using the left and right image windows. When there is no luminance value, it indicates that there is an image having the possibility of including an edge other than the read image as described above, and matching is not performed from this image. In step 1160, it is determined whether or not the evaluation value R ZNCC is greater than the maximum evaluation value MaxR ZNCC stored in the storage device. If it is larger, the calculated evaluation value R ZNCC is stored as the maximum evaluation value MaxR ZNCC , and the two-dimensional coordinate position (x R , y R ) is stored as the corresponding point of (x L , y L ) (step 1170). ). If smaller, or after storing in step 1170, the x-axis coordinate of the two-dimensional coordinate position of the right image is incremented by 1 (step 1180), and the process returns to step 1110. In this way, the corresponding point on the x-axis coordinate is searched. Since the corresponding point is on the epipolar line, it is only necessary to search on the x-axis coordinate. That is, the search target pixel of the left image is moved by one (step 1190). After performing the processing of Steps 11010 to 1190 for all the pixels of the image of number i (Step 1200), the image number is incremented by 1 (Step 1210), and the above processing is repeated. When the image number reaches n + 1 (step 1220), all matching processes are terminated (step 1230).

従来のステレオ法による三次元計測において、図2に示す撮影手段22により同時に撮影された影のない2つの画像(図3(a)の番号1で示される左画像、図3(b)の番号1で示される右画像)から、上記ZNCC法を用いてマッチング処理を行った結果を、図12(a)に示す。 In three-dimensional measurement by the conventional stereo method, two images without shadows (left image indicated by number 1 in FIG. 3A and numbers in FIG. 3B) simultaneously photographed by the photographing means 22 shown in FIG. FIG. 12A shows the result of performing the matching process using the ZNCC method from the right image 1).

本発明の方法により、図2に示す撮影手段22により同時に撮影した、影のない2つの画像および影のある複数の画像(図3(a)の番号1〜nで示される複数の左画像、図3(b)の番号1〜nで示される複数の右画像)から、探索範囲が限定された複数の減算処理画像を得、これらを影のエッジによってマッチング処理を行った結果を図12(b)に示す。   According to the method of the present invention, two images without shadow and a plurality of shadowed images (a plurality of left images indicated by numbers 1 to n in FIG. 3A), which are simultaneously photographed by the photographing means 22 shown in FIG. A plurality of subtracted images with a limited search range are obtained from a plurality of right images indicated by numbers 1 to n in FIG. 3B, and the result of performing a matching process using shadow edges is shown in FIG. Shown in b).

従来のステレオ法では、左右1組の画像のみの利用でマッチング処理できるが、本発明の方法では、複数組の画像、例えば、32組の画像を利用してマッチング処理する必要があり、利用する画像数は増加する。しかしながら、それぞれの画像の探索範囲が限定されており、無駄な探索、すなわち輝度値が0となる減算処理画像をスキップさせることができるため、計算コストに抑制することができる。また、本発明の方法で復元された三次元形状モデルは、図12(a)と図12(b)とを比較してもわかるように、従来の方法によるマッチング処理では困難な、画面を合成する際の背景に利用する画像であるテクスチャの少ない領域に対しても有効であることが見出された。   In the conventional stereo method, matching processing can be performed by using only one set of left and right images. However, in the method of the present invention, it is necessary to perform matching processing using a plurality of sets of images, for example, 32 sets of images. The number of images increases. However, the search range of each image is limited, and a useless search, that is, a subtraction-processed image with a luminance value of 0 can be skipped, so that the calculation cost can be suppressed. In addition, the three-dimensional shape model restored by the method of the present invention synthesizes a screen, which is difficult to perform by the matching method according to the conventional method, as can be seen by comparing FIG. 12 (a) and FIG. 12 (b). It was found that the method is also effective for a region having a small amount of texture, which is an image used as a background.

ここに、本発明の方法によりマッチング処理した場合と従来のステレオ法によりマッチング処理した場合のマッチング点数、ミスマッチ点数(孤立点数)、計算時間を以下の表1に示す。画像は320×240画素のものと、640×480画素のものについて計算を行った。なお、ウィンドウのサイズはそれぞれ、11×7画素、21×13画素の領域を指定するものを用いた。対応点数は、マッチングが取れた画素のうち、孤立点と判定されないかった点の数とし、孤立点は周囲48画素のz軸方向の値の平均値との差が1cm以上あるものとした。   Table 1 below shows the number of matching points, the number of mismatch points (number of isolated points), and the calculation time when matching is performed by the method of the present invention and when matching is performed by the conventional stereo method. Calculations were performed for 320 × 240 pixel images and 640 × 480 pixel images. In addition, the window size used was to specify an area of 11 × 7 pixels and 21 × 13 pixels, respectively. The number of corresponding points was the number of pixels that were not determined to be isolated from the matched pixels, and the isolated points had a difference of 1 cm or more from the average value of the surrounding 48 pixels in the z-axis direction.

Figure 2007132715
Figure 2007132715

表1に示すように、本発明の方法を用いた場合、従来のステレオ法に比べ、孤立点数を大幅に減少させることができ、マッチング処理におけるミスマッチングを軽減していると言える。相関係数RZNCCの平均値は、従来のステレオ法に比べて大きな値を示しており、多くの画素で、高い一致度が得られている。また、本発明の方法は従来のステレオ法に比較して大幅に計算時間を短縮することができ、これにより、マッチング精度を向上させることができ、計算コストを削減することができることが見出された。 As shown in Table 1, it can be said that when the method of the present invention is used, the number of isolated points can be greatly reduced as compared with the conventional stereo method, and mismatching in matching processing is reduced. The average value of the correlation coefficient RZNCC is larger than that of the conventional stereo method, and a high degree of coincidence is obtained for many pixels. Further, it has been found that the method of the present invention can greatly reduce the calculation time compared to the conventional stereo method, thereby improving the matching accuracy and reducing the calculation cost. It was.

本発明の計測装置は、簡単な装置であるため、小型かつ軽量とすることができ、計算時間を短縮することができるため、消費電力を低減することができる。また、高精度で三次元計測することができるため、ローバに搭載するのに好適である。   Since the measuring device of the present invention is a simple device, it can be made small and light, and the calculation time can be shortened. Therefore, power consumption can be reduced. Moreover, since three-dimensional measurement can be performed with high accuracy, it is suitable for mounting on a rover.

ローバを例示した図。The figure which illustrated the rover. 本発明の三次元計測装置を例示した図。The figure which illustrated the three-dimensional measuring apparatus of this invention. 撮影手段により撮影された画像を示した図。The figure which showed the image image | photographed by the imaging | photography means. 減算処理しているところを示した図。The figure which showed the place which is performing the subtraction process. 計算処理手段による処理のフローを示した図。The figure which showed the flow of the process by a calculation process means. 減算処理後の影領域のみ輝度を有する左画像の1つを示した図。The figure which showed one of the left images which have a brightness | luminance only in the shadow area | region after a subtraction process. ウィンドウを所定位置に固定し、複数の左画像の中から分散が最大となる左画像を探索しているところを示した図。The figure which showed the place which is searching for the left image from which the dispersion | distribution is the maximum among several left images, fixing a window to a predetermined position. 画像番号と、ウィンドウ内の分散の平均値である評価値Ci(x,y)との関係を示した図。The figure which showed the relationship between the image number and evaluation value Ci (x, y) which is an average value of dispersion | distribution within a window. 影領域のエッジを探索する処理のフローを示した図。The figure which showed the flow of the process which searches the edge of a shadow area | region. 評価値が最大となる左画像を探索した後、その左画像のウィンドウ内の画素と、それに対応する右画像の画素とを対応付けしているところを例示した図。The figure which illustrated the place which matched the pixel in the window of the left image, and the pixel of the right image corresponding to it, after searching the left image for which an evaluation value becomes the maximum. 対応点を探索する処理のフローを示した図。The figure which showed the flow of the process which searches a corresponding point. 従来のステレオ視による方法で三次元モデルを復元した画像および本発明の方法で三次元モデルを復元した画像。The image which restored the three-dimensional model by the method by the conventional stereo vision, and the image which restored the three-dimensional model by the method of this invention.

符号の説明Explanation of symbols

10…マニピュレータ、11…撮影手段、12…車輪、13…影、14…光源、15…鉱物資源、20、21…光軸、22…撮影手段、23、23a…影、24…棒状部材、25…光源、26…物体、27…可動手段、28…計算処理手段、60…ウィンドウ、61…影領域 DESCRIPTION OF SYMBOLS 10 ... Manipulator, 11 ... Imaging | photography means, 12 ... Wheel, 13 ... Shadow, 14 ... Light source, 15 ... Mineral resource, 20, 21 ... Optical axis, 22 ... Imaging means, 23, 23a ... Shadow, 24 ... Rod-shaped member, 25 ... light source, 26 ... object, 27 ... movable means, 28 ... calculation processing means, 60 ... window, 61 ... shadow region

Claims (8)

物体の三次元形状を計測する方法であって、
同時に2つの画像を撮影可能な撮影手段により前記物体を撮影するステップと、
光学的に差異となる差異領域を発生させ、前記物体上を、前記差異領域を移動させるステップと、
前記撮影手段により前記差異領域が含まれるように前記物体を複数撮影するステップと、
前記差異領域と前記物体とを含む各画像の各領域の輝度値を、該各領域と同じ二次元座標位置にある前記差異領域を含まない画像の各領域の輝度値で減算し、差異領域に輝度を有する複数組の減算処理画像を生成するステップと、
前記複数組の減算処理画像の、前記撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、前記撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索するステップと、
前記第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと前記第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算するステップとを含む、方法。
A method for measuring the three-dimensional shape of an object,
Photographing the object by photographing means capable of photographing two images at the same time;
Generating a difference area that is optically different, and moving the difference area on the object;
Photographing a plurality of the objects so that the difference area is included by the photographing means;
The brightness value of each area of each image including the difference area and the object is subtracted by the brightness value of each area of the image not including the difference area at the same two-dimensional coordinate position as the area, Generating a plurality of sets of subtracted images having luminance;
From the other side of the imaging unit corresponding to each part of the difference area included in the plurality of first subtraction processing images captured and subtracted from one side of the imaging unit of the plurality of sets of subtraction processing images. Searching for each part of the difference area included in the plurality of second subtraction-processed images that have been photographed and subtracted based on the shape part having the characteristics of the difference area;
Using the two-dimensional coordinate position data of each part of the difference area included in the first subtraction image and the two-dimensional coordinate position data of each corresponding part searched for the difference area included in the second subtraction image. And calculating the three-dimensional coordinate position of each portion.
前記探索するステップは、前記差異領域のエッジを探索するステップを含む、請求項1に記載の方法。 The method of claim 1, wherein the searching includes searching for an edge of the difference area. 前記探索するステップは、前記複数の第1減算処理画像の中から、画像の所定領域を指定するウィンドウ内の画素の輝度値の分散が最大となる第1減算処理画像を探索するステップを含む、請求項1に記載の方法。 The step of searching includes a step of searching for a first subtraction image that maximizes the variance of the luminance values of pixels in a window that designates a predetermined region of the image from the plurality of first subtraction images. The method of claim 1. 前記探索するステップは、前記ウィンドウの二次元座標位置を保持しつつ、前記ウィンドウ内の画素の輝度値の分散が最大となる1つの第1減算処理画像を探索するステップと、前記ウィンドウを移動させるステップと、移動した二次元座標位置において前記分散が最大となる他の第1減算処理画像を探索するステップと、前記移動させるステップと前記他の第1減算処理画像を探索するステップとを繰り返すステップとを含む、請求項1に記載の方法。 The searching step includes a step of searching for one first subtraction processing image that maximizes the variance of luminance values of pixels in the window while maintaining the two-dimensional coordinate position of the window, and moving the window. A step of searching for another first subtraction image having the maximum variance at the moved two-dimensional coordinate position, a step of repeating the step of searching, and a step of searching for the other first subtraction image. The method of claim 1 comprising: 前記ウィンドウを移動させるステップは、前記ウィンドウを、エピポーラ線に沿って移動させるステップを含む、請求項4に記載の方法。 The method of claim 4, wherein moving the window comprises moving the window along an epipolar line. 物体の三次元形状を計測する装置であって、
同時に2つの画像を撮影可能な撮影手段と、
光学的に差異となる差異領域を発生させる手段と、
前記物体上を、前記差異領域を移動させる可動手段と、
前記差異領域と前記物体とを含む各画像の各領域の輝度値を、該各領域と同じ二次元座標位置にある前記差異領域を含まない画像の各領域の輝度値で減算して、差異領域に輝度を有する複数組の減算処理画像を生成させ、前記複数組の減算処理画像の、前記撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、前記撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索し、前記第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと前記第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算する計算処理手段とを含む、計測装置。
An apparatus for measuring the three-dimensional shape of an object,
Photographing means capable of photographing two images at the same time;
Means for generating a difference area that is optically different;
Movable means for moving the difference area on the object;
The difference area is obtained by subtracting the luminance value of each area of each image including the different area and the object by the luminance value of each area of the image not including the different area at the same two-dimensional coordinate position as each of the areas. A plurality of sets of subtracted images having luminance, and the difference regions included in the plurality of first subtracted images captured from the one side of the photographing unit and subtracted. Search for each part of the difference area included in the plurality of second subtraction-processed images photographed from the other side of the photographing unit and corresponding to each part based on the shape part having the characteristic of the difference area. Two-dimensional coordinate position data of each part of the difference area included in the first subtraction processing image and two-dimensional coordinate position data of each corresponding part searched for the difference area included in the second subtraction processing image. Use the tertiary of each part And a calculation processing unit for calculating a coordinate position, the measuring apparatus.
物体の三次元形状を計測し、前記三次元形状を復元する方法であって、
同時に2つの画像を撮影可能な撮影手段により前記物体を撮影するステップと、
光学的に差異となる差異領域を発生させ、前記物体上を、前記差異領域を移動させるステップと、
前記2つの撮影手段により前記差異領域が含まれるように前記物体を複数撮影するステップと、
前記差異領域と前記物体とを含む各画像の各領域の輝度値を、該各領域と同じ二次元座標位置にある前記差異領域を含まない画像の各領域の輝度値で減算し、差異領域に輝度を有する複数組の減算処理画像を生成するステップと、
前記複数組の減算処理画像の、前記撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、前記撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索するステップと、
前記第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと前記第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、前記差異領域の三次元形状をそれぞれ生成し、該三次元形状を撮影時刻順に配列させ、表示装置に三次元モデルとして表示させるステップとを含む、復元方法。
A method for measuring a three-dimensional shape of an object and restoring the three-dimensional shape,
Photographing the object by photographing means capable of photographing two images at the same time;
Generating a difference area that is optically different, and moving the difference area on the object;
Photographing a plurality of the objects so that the different areas are included by the two photographing means;
The brightness value of each area of each image including the difference area and the object is subtracted by the brightness value of each area of the image not including the difference area at the same two-dimensional coordinate position as the area, Generating a plurality of sets of subtracted images having luminance;
From the other side of the imaging unit corresponding to each part of the difference area included in the plurality of first subtraction processing images captured and subtracted from one side of the imaging unit of the plurality of sets of subtraction processing images. Searching for each part of the difference area included in the plurality of second subtraction-processed images that have been photographed and subtracted based on the shape part having the characteristics of the difference area;
Using the two-dimensional coordinate position data of each part of the difference area included in the first subtraction image and the two-dimensional coordinate position data of each corresponding part searched for the difference area included in the second subtraction image. Generating a three-dimensional shape of each of the different areas, arranging the three-dimensional shapes in order of photographing time, and displaying the three-dimensional shape on a display device as a three-dimensional model.
物体の三次元形状を計測し、前記三次元形状を復元する装置であって、
同時に2つの画像を撮影可能な撮影手段と、
光学的に差異となる差異領域を発生させる手段と、
前記物体上を、前記差異領域を移動させる可動手段と、
前記物体の三次元モデルを表示する表示装置と、
前記差異領域と前記物体とを含む各画像の各領域の輝度値を、該各領域と同じ二次元座標位置にある前記差異領域を含まない画像の各領域の輝度値で減算して、差異領域に輝度を有する複数組の減算処理画像を生成させ、前記複数組の減算処理画像の、前記撮影手段の一方の側から撮影され減算処理された複数の第1減算処理画像に含まれる差異領域の各部分に対応する、前記撮影手段の他方の側から撮影され減算処理された複数の第2減算処理画像に含まれる差異領域の各部分を、該差異領域の特徴を有する形状部分に基づいて探索し、前記第1減算処理画像に含まれる差異領域の各部分の二次元座標位置データと前記第2減算処理画像に含まれる差異領域の探索された対応する各部分の二次元座標位置データとを用いて、該各部分の三次元座標位置を計算し、各組の前記減算処理画像について計算された前記差異領域の各部分における三次元座標位置データを用いて、前記差異領域の三次元形状をそれぞれ生成させ、該三次元形状を撮影時刻順に配列させ、前記表示装置に前記三次元モデルとして表示させる計算処理手段とを含む、復元装置。
An apparatus for measuring the three-dimensional shape of an object and restoring the three-dimensional shape,
Photographing means capable of photographing two images at the same time;
Means for generating a difference area that is optically different;
Movable means for moving the difference area on the object;
A display device for displaying a three-dimensional model of the object;
The difference area is obtained by subtracting the luminance value of each area of each image including the different area and the object by the luminance value of each area of the image not including the different area at the same two-dimensional coordinate position as each of the areas. A plurality of sets of subtracted images having luminance, and the difference regions included in the plurality of first subtracted images captured from the one side of the photographing unit and subtracted. Search for each part of the difference area included in the plurality of second subtraction-processed images photographed from the other side of the photographing means and corresponding to each part based on the shape part having the characteristic of the difference area. Two-dimensional coordinate position data of each part of the difference area included in the first subtraction processing image and two-dimensional coordinate position data of each corresponding part searched for the difference area included in the second subtraction processing image. Use the tertiary of each part A coordinate position is calculated, and using the three-dimensional coordinate position data in each part of the difference area calculated for each set of the subtraction processing images, a three-dimensional shape of the difference area is generated, and the three-dimensional shape is calculated. And a calculation processing unit arranged in order of photographing time and displayed on the display device as the three-dimensional model.
JP2005323904A 2005-11-08 2005-11-08 Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus Expired - Fee Related JP4784270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005323904A JP4784270B2 (en) 2005-11-08 2005-11-08 Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005323904A JP4784270B2 (en) 2005-11-08 2005-11-08 Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus

Publications (2)

Publication Number Publication Date
JP2007132715A true JP2007132715A (en) 2007-05-31
JP4784270B2 JP4784270B2 (en) 2011-10-05

Family

ID=38154513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005323904A Expired - Fee Related JP4784270B2 (en) 2005-11-08 2005-11-08 Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus

Country Status (1)

Country Link
JP (1) JP4784270B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020537210A (en) * 2017-10-06 2020-12-17 バーンスタイン,アーロン Generation of one or more luminosity edges to form a three-dimensional model of an object
WO2021193672A1 (en) * 2020-03-27 2021-09-30 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0791927A (en) * 1993-08-06 1995-04-07 Murata Mach Ltd Three dimensional measuring device
JP2001183120A (en) * 1999-12-24 2001-07-06 Minolta Co Ltd Method and device for three-dimensional input
JP2001194126A (en) * 2000-01-14 2001-07-19 Sony Corp Apparatus and method for measuring three-dimensional shape and program providing medium
JP2002109518A (en) * 2000-10-02 2002-04-12 Mitsutoyo Corp Three-dimensional shape restoring method and system therefor
JP2004069497A (en) * 2002-08-06 2004-03-04 Sumitomo Osaka Cement Co Ltd Monitoring apparatus and monitoring method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0791927A (en) * 1993-08-06 1995-04-07 Murata Mach Ltd Three dimensional measuring device
JP2001183120A (en) * 1999-12-24 2001-07-06 Minolta Co Ltd Method and device for three-dimensional input
JP2001194126A (en) * 2000-01-14 2001-07-19 Sony Corp Apparatus and method for measuring three-dimensional shape and program providing medium
JP2002109518A (en) * 2000-10-02 2002-04-12 Mitsutoyo Corp Three-dimensional shape restoring method and system therefor
JP2004069497A (en) * 2002-08-06 2004-03-04 Sumitomo Osaka Cement Co Ltd Monitoring apparatus and monitoring method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020537210A (en) * 2017-10-06 2020-12-17 バーンスタイン,アーロン Generation of one or more luminosity edges to form a three-dimensional model of an object
JP7086330B2 (en) 2017-10-06 2022-06-20 アドバンスド スキャナーズ,インコーポレイテッド Generation of one or more luminosity edges to form a three-dimensional model of an object
WO2021193672A1 (en) * 2020-03-27 2021-09-30 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
EP4131166A4 (en) * 2020-03-27 2023-05-10 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional model generation method and three-dimensional model generation device

Also Published As

Publication number Publication date
JP4784270B2 (en) 2011-10-05

Similar Documents

Publication Publication Date Title
CN111060023B (en) High-precision 3D information acquisition equipment and method
JP5099965B2 (en) Surface reconstruction and registration using Helmholtz mutual image pairs
JPH05196421A (en) Method and apparatus for determining distance between image and object
JP3624353B2 (en) Three-dimensional shape measuring method and apparatus
JP5593177B2 (en) Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
WO2021140886A1 (en) Three-dimensional model generation method, information processing device, and program
US20120177283A1 (en) Forming 3d models using two images
CN111429523B (en) Remote calibration method in 3D modeling
CN111238374B (en) Three-dimensional model construction and measurement method based on coordinate measurement
JP2009515493A (en) Determining camera movement
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
EP3049756B1 (en) Modeling arrangement and method and system for modeling the topography of a three-dimensional surface
Remondino et al. Design and implement a reality-based 3D digitisation and modelling project
CN113008195B (en) Three-dimensional curved surface distance measuring method and system based on space point cloud
JP7407428B2 (en) Three-dimensional model generation method and three-dimensional model generation device
CN111445529A (en) Calibration equipment and method based on multi-laser ranging
JP2007508557A (en) Device for scanning three-dimensional objects
CN111340959B (en) Three-dimensional model seamless texture mapping method based on histogram matching
CN113066132A (en) 3D modeling calibration method based on multi-device acquisition
JP4784270B2 (en) Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus
JP5441752B2 (en) Method and apparatus for estimating a 3D pose of a 3D object in an environment
Skuratovskyi et al. Outdoor mapping framework: from images to 3d model
JP4631606B2 (en) Image depth distribution estimation method, apparatus, and program
JPWO2008056427A1 (en) Three-dimensional shape measuring method and apparatus
JP2004170277A (en) 3-dimensional measurement method, 3-dimensional measurement system, image processing apparatus, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110627

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees