JP2008275392A - Three-dimensional shape measurement method and system - Google Patents
Three-dimensional shape measurement method and system Download PDFInfo
- Publication number
- JP2008275392A JP2008275392A JP2007117583A JP2007117583A JP2008275392A JP 2008275392 A JP2008275392 A JP 2008275392A JP 2007117583 A JP2007117583 A JP 2007117583A JP 2007117583 A JP2007117583 A JP 2007117583A JP 2008275392 A JP2008275392 A JP 2008275392A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- projection pattern
- small area
- projector
- small
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、対象物体の3次元形状を計測する3次元形状計測方法および装置に関する。 The present invention relates to a three-dimensional shape measuring method and apparatus for measuring a three-dimensional shape of a target object.
既存の3次元計測装置の多くは三角測量の原理を用いている。図9は一般的な三角測量の原理を説明する図である。つまり、複数のカメラ画像間で「同じ点を見ている」という対応点を求めるか、或いはカメラ画像とパターン投影機(プロジェクタやレーザ発信器など)の間で「カメラ画像中の画素に投影された点は、光源からどの向きに投影されている点だったのか」という対応点を求めることができれば、その2つの投影線の交点として物体表面の3次元位置が求まるものである。 Many of the existing three-dimensional measuring apparatuses use the principle of triangulation. FIG. 9 is a diagram for explaining the principle of general triangulation. In other words, a corresponding point “seeing the same point” is obtained between a plurality of camera images, or “projected on a pixel in a camera image” between a camera image and a pattern projector (such as a projector or a laser transmitter). If it is possible to obtain a corresponding point “what direction is the projected point from the light source”, the three-dimensional position of the object surface can be obtained as the intersection of the two projection lines.
このように、複数のカメラ画像やパターン投影機から対応点を求めることが3次元計測において重要な役割を果たしていることは周知の事実であり、既存の方法においても、そのような問題を解決する目的でさまざまな工夫がなされている。一例として、ここではパターンを切り替える方法を説明する。 Thus, it is a well-known fact that finding corresponding points from a plurality of camera images and pattern projectors plays an important role in three-dimensional measurement, and even existing methods solve such problems. Various ideas are made for the purpose. As an example, a method for switching patterns will be described here.
図10は従来の投影パターンを大量に切り替える方法を説明する図である。投影機としてプロジェクタを用いて、投影パターン中の明るさを部分的に変化させながら画像を撮影し、画像の中の各画素について変化(例えば「白→黒→黒→白→・・・」のような変化)を調べる。パターンの変化のさせ方を工夫しておくことで、画像中のある画素の変化と同じように変化しているパターン内の位置は容易に特定できるため、画像中のすべての画素について対応点を求めることが可能である。 FIG. 10 is a diagram for explaining a conventional method for switching a large number of projection patterns. Using a projector as a projector, an image is taken while changing the brightness in the projection pattern partially, and each pixel in the image is changed (for example, “white → black → black → white →...”). Change). By devising how to change the pattern, you can easily identify the position in the pattern that is changing in the same way as the change of a pixel in the image. It is possible to ask.
このように、計測対象が静止物体であるという前提条件の下で、プロジェクタから投影する投影パターンを切り替えながら(投影パターンを移動させる方法も投影パターン切り替えの1部)複数回の撮影を行う方法は広く知られている。
例えば、特許文献2には、カラーの縞模様を用いた形状計測技術の一種であり、複数の画像を用いる代わりに、カラーパターンとカラーカメラを色成分毎に分離して用いることで、仮想的に複数の白黒パターンを獲得し、パターン切り替えの手間を軽減する技術が示されている。
In this way, under the precondition that the measurement target is a stationary object, a method of performing multiple shootings while switching the projection pattern projected from the projector (a method of moving the projection pattern is also a part of the projection pattern switching) Widely known.
For example,
また、特許文献3には、レーザをスキャンする、いわゆる光切断法と呼ばれる計測技術の一種が示されているが、根本的な原理は前述のパターンの切り替え方法と類似であり、「ある部分に光が当たった瞬間」という時間の情報を用いて、レーザ発信機の投影方向と画像中の画素の対応関係を求めるものである。また、特許文献4には、パターンを切り替える方式の一種である位相シフト法と呼ばれる方法で、特許文献2の技術と同様に、色成分毎に異なるパターンを用いることでパターン切り替えの手間を軽減する方法が示されている。
これらの方法では、カメラから見た同一画素の値の時々刻々の変化からプロジェクタ側の対応画素を見つけることが可能であり、見つかった対応点同士から三角測量を行うことで計測が可能となる。つまり、従来のパターン切り替え方式では、パターンの時間変化をパターン中の画素のIDとして用いていると言える。
一方、特定のパターン光を投射することによりパターン切り替えを要せずに物体の3次元形状を非接触に計測する形状計測法としては、縞模様あるいはランダムな点群などを用いる方法も知られている。
In these methods, it is possible to find a corresponding pixel on the projector side from time-to-time changes in the value of the same pixel viewed from the camera, and measurement is possible by performing triangulation from the found corresponding points. That is, in the conventional pattern switching method, it can be said that the temporal change of the pattern is used as the ID of the pixel in the pattern.
On the other hand, as a shape measurement method for measuring a three-dimensional shape of an object in a non-contact manner without projecting a pattern by projecting a specific pattern light, a method using a striped pattern or a random point group is also known. Yes.
パターンを投影した対象物体を複数カメラで撮影し、複数画像間で対応点を求める方法はステレオ・マッチングと呼ばれ、縞模様を使った方法「Rapid shape acquisition using color structured light and multi-pass dynamic programming」(L. Zhang、 B. Curless、 and S. M. Seitz、 Proc. Symposium on 3D Data Processing Visualization and Transmission、 2002)や、ランダムな点群を用いた方法「ランダムドットパターン投光ステレオを用いた物流ロボット視覚システムの開発」(橋本学、 鷲見和彦、 羽下哲司、 黒田伸一、 小平紀生、 岩田彰太郎、 日本ロボット学会誌、 Vol. 17、 No.1、 pp.48-49、 1999.)など数多くの手法が提案されている。 The method of shooting the target object on which the pattern is projected with multiple cameras and finding the corresponding points between multiple images is called stereo matching, and the method using striped pattern `` Rapid shape acquisition using color structured light and multi-pass dynamic programming (L. Zhang, B. Curless, and SM Seitz, Proc. Symposium on 3D Data Processing Visualization and Transmission, 2002) and the method using random point cloud “Logistics Robot Vision Using Random Dot Pattern Projection Stereo” "Development of the system" (Manabu Hashimoto, Kazuhiko Sumi, Tetsuji Hashita, Shinichi Kuroda, Norio Kodaira, Shotaro Iwata, Journal of the Robotics Society of Japan, Vol. 17, No.1, pp.48-49, 1999.) Has been proposed.
このようなカメラ−カメラ間の対応点に基づく方法だけではなく、カメラ−プロジェクタ間の対応点を求めるために縞模様やランダムな点群を用いる方法も存在している。
例えば、特許文献1には、カラーの縞模様を用いてカメラ−プロジェクタ間の対応点を求める3次元形状計測技術が示されている。
これらのパターンを切り替えない方法では、画像中に観測される明度や色の局所的な変化を特徴量として用い、特徴量の類似している場所の組み合わせを複数カメラ間、或いはカメラ−プロジェクタ間で探索し、見つかった対応点同士から三角測量を行うことで計測が可能となる。
In addition to such a method based on the corresponding points between the camera and the camera, there is a method using a striped pattern or a random point group in order to obtain the corresponding points between the camera and the projector.
For example,
In the method that does not switch these patterns, local changes in brightness and color observed in the image are used as feature amounts, and combinations of locations with similar feature amounts are combined between multiple cameras or between a camera and a projector. Measurement is possible by searching and performing triangulation from the found corresponding points.
以上説明したことからわかるように、何らかの方法で投影パターンの1画素毎に固有のID(識別情報)を埋め込むことができれば、撮影された画像中の各画素から取り出されたIDによって対応点を求めることが可能であり、すなわち三角測量によって3次元形状計測を行うことが可能である。図11は投影パターン内の1画素毎にID(識別情報)を設定する例を説明する図である。
従来の投影パターンを切り替える方法では、切り替え方を工夫して、異なる部分に同一の値の変化が起きないような保証を持たせた切り替え方を適用する。このため、原理的に対応点の誤認識が起きない。しかし、原理的に複数回の撮影を要するため、データ取得に時間を要し、変形や移動をする物体形状は計測不能である。
また、パターンを切り替えずに縞模様やランダムな点群などを用いる計測方法は、変形や移動をする物体形状も計測可能であるが、物体表面の形状や反射特性あるいは撮影環境等の不確定要素によって異なる部分同士が同じような特徴を持って撮影されてしまう場合があり、対応点が誤認識される危険性が知られている。
In the conventional method of switching projection patterns, the switching method is devised to apply a switching method that guarantees that the same value does not change in different parts. Therefore, in principle, erroneous recognition of corresponding points does not occur. However, in principle, since multiple imaging is required, it takes time to acquire data, and the shape of an object that is deformed or moved cannot be measured.
In addition, measurement methods using striped patterns or random point clouds without switching patterns can also measure object shapes that are deformed or moved, but uncertain factors such as object surface shape, reflection characteristics, and shooting environment Depending on the situation, different parts may be photographed with similar characteristics, and there is a known danger of misrecognizing corresponding points.
つまり、従来のパターンを切り替えない方法では、撮影された画像中のある部分が他の部分と異なる固有の特徴を有するという保証が無かった。
また、従来の方法ではパターン切り替えの有無に関わらずパターン投影と撮影をする方角は1方向しか想定されておらず、例えば対象物体の周囲から複数の装置で同時に計測を行うようなことは実現されていなかった。
That is, in the conventional method in which the pattern is not switched, there is no guarantee that a certain part in the captured image has a unique characteristic different from the other part.
In addition, in the conventional method, only one direction is assumed for pattern projection and shooting regardless of whether or not the pattern is switched. For example, it is possible to simultaneously measure with a plurality of devices from around the target object. It wasn't.
本発明は、上記問題点に鑑み、一回の撮影で対象物体の形状を計測することができて、複数方向からの同時計測も可能な投影パターンの投影方法および投影手段を備えた3次元形状計測方法および装置を提供することを目的とする。 In view of the above problems, the present invention is capable of measuring the shape of a target object in a single shooting operation, and capable of simultaneous measurement from a plurality of directions. An object is to provide a measurement method and apparatus.
上記目的を達成するために、撮影対象の表面上のある部分と別の部分が同じような特徴を持って撮影されないように、プロジェクタの投影パターンのあらゆる部分にそれぞれ固有の特徴を持たせる必要がある。
また、あるプロジェクタからの投影パターンと別のプロジェクタからの投影パターンをも判別できるように、全てのプロジェクタの投影パターンのあらゆる部分にそれぞれ固有の特徴を持たせる必要がある。
In order to achieve the above purpose, it is necessary to make each part of the projection pattern of the projector have a unique characteristic so that one part on the surface of the object to be photographed and another part are not photographed with the same characteristic. is there.
In addition, it is necessary to give unique features to all portions of the projection patterns of all projectors so that a projection pattern from one projector and a projection pattern from another projector can be discriminated.
そこで、本発明は、プロジェクタから投影する投影パターンの解像度において2画素以上の大きさの小領域を設け、個々の小領域に対して個別に識別可能な特徴的な色分布を設定し、それら多様な小領域を1画素以上の間隔で2次元的に離散分布させた投影パターンを作成・投影することで、物体表面に反射して観測される投影パターンが異なる部分同士で類似パターンとして観測されることを防ぎ、かつ、そのパターンを投影しているプロジェクタをも判別可能とする。 Therefore, the present invention provides a small area of two or more pixels in the resolution of the projection pattern projected from the projector, sets characteristic color distributions that can be individually identified for each small area, By creating and projecting a projection pattern in which a small area is two-dimensionally distributed at intervals of 1 pixel or more, a projected pattern that is reflected and observed on the object surface is observed as a similar pattern between different parts. This makes it possible to determine the projector that projects the pattern.
具体的な解決手段は以下のようになる。
(1)3次元形状計測方法は、2画素以上の大きさを有し、それぞれを識別可能な特徴的な色分布を設定した複数の小領域からなる投影パターンを対象物に投影し、投影パターンが投影されている対象物を撮像し、撮像された撮像画像中の任意の小領域の色分布に基づいて前記投影パターンの前記小領域との対応関係を求めることを特徴とする。
(2)上記(1)記載の3次元形状計測方法は、前記投影パターンを、前記小領域を周囲に1画素以上の間隔を離して2次元平面上に離散分布したパターンとしたことを特徴とする。
The specific solution is as follows.
(1) In the three-dimensional shape measurement method, a projection pattern composed of a plurality of small areas having a size of 2 pixels or more and set with a distinctive color distribution that can be distinguished from each other is projected onto the object. Is captured, and a correspondence relationship with the small area of the projection pattern is obtained based on a color distribution of an arbitrary small area in the captured image.
(2) The three-dimensional shape measurement method according to (1) is characterized in that the projection pattern is a pattern that is discretely distributed on a two-dimensional plane with an interval of one pixel or more around the small region. To do.
(3)3次元形状計測装置は、制御装置と、撮像カメラと、プロジェクタからなり、制御装置は、2画素以上の大きさを有し、それぞれを識別可能な特徴的な色分布を設定した複数の小領域からなる投影パターンを作成して前記プロジェクタにより対象物に投影させ、撮像カメラにより投影パターンが投影されている対象物を撮像し、撮像された撮像画像中の任意の小領域の色分布に基づいて前記投影パターンの前記小領域との対応関係を求めることを特徴とする。
(4)上記(3)記載の3次元形状計測装置は、前記投影パターンを、前記小領域を周囲に1画素以上の間隔を離して2次元平面上に離散分布したパターンとしたことを特徴とする。
(3) The three-dimensional shape measuring device includes a control device, an imaging camera, and a projector. The control device has a size of two or more pixels and sets a plurality of characteristic color distributions that can be distinguished from each other. A projection pattern composed of a small area is created and projected onto the object by the projector, the object on which the projection pattern is projected is imaged by the imaging camera, and the color distribution of an arbitrary small area in the captured image The correspondence relationship with the small area of the projection pattern is obtained based on the above.
(4) The three-dimensional shape measuring apparatus according to (3), wherein the projection pattern is a pattern that is discretely distributed on a two-dimensional plane with an interval of one pixel or more around the small region. To do.
本発明は、一回の撮影で得た撮像画像データに基づいて対象物体の形状を計測することができる。このため、データ取得に時間を要することなく、変形や移動をする物体の形状も計測可能となる。
また、複数のプロジェクタと複数の撮像カメラを同時に使用することで対象物体全周の形状計測も可能となる。
The present invention can measure the shape of a target object based on captured image data obtained by one shooting. For this reason, it is possible to measure the shape of an object that is deformed or moved without taking time for data acquisition.
In addition, the shape of the entire circumference of the target object can be measured by using a plurality of projectors and a plurality of imaging cameras at the same time.
本発明は、各画素が有する色情報を、位置を特定するためのID情報に兼用することができる。また、扱う情報の単位を、従来のような画素単位ではなく、2画素以上の小領域を単位としているので、IDを特定するための情報として2画素以上の豊富な色情報を用ることができる。また、小領域は2画素以上の複数の画素から構成するので、画素数を増やすことにより識別能力の高いID情報を構成することができる。 In the present invention, the color information of each pixel can be used as ID information for specifying the position. In addition, since the unit of information to be handled is not a pixel unit as in the past, but a small area of 2 pixels or more, abundant color information of 2 pixels or more may be used as information for specifying an ID. it can. In addition, since the small area is composed of a plurality of pixels of two or more pixels, ID information with high identification ability can be configured by increasing the number of pixels.
本発明は、3次元形状計測方法およびそのための計測装置において、投影パターン上のある小領域に対応する撮像画像上の抽出小領域を求める方法およびそのための手段に特徴を有する。
具体的には、1回の撮影でカメラ画像と投影パターンの間の対応関係を正確に求めるために、プロジェクタから投影する投影パターンに、その解像度において2画素以上の大きさの小領域を複数設け、個々の小領域に対して個別に識別可能な特徴的な色分布を設定し、それら多様な小領域をその周囲に1画素以上の間隔を設けて相互に2次元的に離散分布させた投影パターンを作成し、計測対象の物体に投影する。これにより、物体表面に反射して観測される投影パターンが異なる部分同士で類似パターンとして観測されることを防ぎ、かつ、そのパターンを投影しているプロジェクタをも判別可能とする。
The present invention is characterized in a method for obtaining an extracted small area on a captured image corresponding to a small area on a projection pattern and a means therefor in a three-dimensional shape measuring method and a measuring apparatus therefor.
Specifically, in order to accurately obtain the correspondence between the camera image and the projection pattern in one shooting, the projection pattern projected from the projector is provided with a plurality of small regions having a size of 2 pixels or more in the resolution. A characteristic color distribution that can be individually identified for each small area is set, and these various small areas are two-dimensionally discretely distributed with a space of one pixel or more around them. Create a pattern and project it onto the object to be measured. Thereby, it is possible to prevent the projection patterns reflected and reflected on the object surface from being observed as different patterns at different portions, and to determine the projector that projects the pattern.
小領域としては、例えば、2(縦)×2(横)画素等の正方形ブロック、2×1画素等の長方形ブロック、円形(近似)ブロック、等の任意形状、任意面積のブロックで構成する。
小領域単位の処理対象の座標データは、小領域の中心位置(例えば、2×2画素のブロックでは4画素の角が当接している位置)や、小領域を構成している画素の位置、等任意に設定できる。以下、小領域単位の処理対象の座標データは、小領域の中心位置として説明する。
For example, the small region includes a square block such as 2 (vertical) × 2 (horizontal) pixels, a rectangular block such as 2 × 1 pixels, a block having an arbitrary shape such as a circular (approximate) block, and an arbitrary area.
The coordinate data to be processed in units of small areas includes the center position of the small area (for example, the position where the corners of four pixels are in contact with each other in a 2 × 2 pixel block), the position of the pixels constituting the small area, Etc. can be set arbitrarily. Hereinafter, the coordinate data to be processed in units of small areas will be described as the center position of the small area.
小領域の周囲に設ける間隔は、複数の小領域を配置する配置パターンや、小領域の形状等の関係で、適宜形成される。
色分布は、図4および図5に示されるように、投影パターン中および撮像画像中の小領域内のRGBの値の分布を意味する。このことから、撮像画像中に観測される小領域内の
RGBの値の分布から、投影パターン中の小領域の色分布が判別される。
The intervals provided around the small regions are appropriately formed depending on the arrangement pattern in which a plurality of small regions are arranged, the shape of the small regions, and the like.
As shown in FIGS. 4 and 5, the color distribution means a distribution of RGB values in a small area in the projection pattern and in the captured image. From this, the color distribution of the small area in the projection pattern is determined from the distribution of RGB values in the small area observed in the captured image.
図4では、観測(撮像)画像中の小領域内の画像は、R成分として上から1段目および2段目の8画素分のデータが表示されているので、投影パターン中の対応する小領域のパターンとして上から1段目および2段目の8画素分がR成分値を有し(2値表示のときの値1)、上から3段目および4段目の8素分がR成分値が無い(同じく値0)として表示して、R成分のIDを特定する。即ち、R成分のIDは、
上から1段目の左から1つ目、左から2つ目、左から3つ目、左から4つ目、
上から2段目の左から1つ目、左から2つ目、左から3つ目、左から4つ目、
上から3段目の左から1つ目、左から2つ目、左から3つ目、左から4つ目、
上から4段目の左から1つ目、左から2つ目、左から3つ目、左から4つ目、
の順で表記すると、[1、1、1、1、1、1、1、1、0、0、0、0、0、0、0、0]となる。
In FIG. 4, since the image in the small region in the observation (captured) image displays data for the first and second pixels from the top as R components, the corresponding small pixels in the projection pattern are displayed. As an area pattern, 8 pixels in the first and second rows from the top have R component values (
1st from left, 1st from left, 2nd from left, 3rd from left, 4th from left,
1st from left, 2nd from left, 3rd from left, 4th from left
3rd from the top, 1st from the left, 2nd from the left, 3rd from the left, 4th from the left,
4th row from the top, 1st from the left, 2nd from the left, 3rd from the left, 4th from the left,
In this order, [1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0] is obtained.
同じようにして、G成分は[0、0、1、1、0、0、1、1、0、0、1、1、0、0、1、1]となる。また、同じようにして、B成分は[0、0、0、0、0、0、0、0、1、1、1、1、1、1、1、1]となる。
図5も同じようにして、R成分は[1、1、1、1、1、1、1、1、0、0、0、0、0、0、0、0]、G成分は[1、1、1、1、1、1、1、1、0、0、0、0、0、0、0、0]、B成分は[0、0、0、0、0、0、0、0、1、1、1、1、1、1、1、1]となる。
色情報としては、R(レッド)、G(グリーン)、B(ブルー)、C(シアン)、M(マゼンタ)、Y(イエロー)、W(ホワイト)、不表示のブラックを単体又は複数の組み合わせで用いる。
In the same way, the G component is [0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 1, 1]. Similarly, the B component is [0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1].
In the same way in FIG. 5, the R component is [1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0], and the G component is [1. 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0], the B component is [0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1].
As color information, R (red), G (green), B (blue), C (cyan), M (magenta), Y (yellow), W (white), or non-displayed black may be used alone or in combination. Used in.
図1は本発明の実施例1を説明する説明図である。
本発明の3次元形状計測方法を実行する3次元形状計測装置は、投影パターンを投影するプロジェクタ1と、撮像カメラ2と、これらを制御する制御装置5からなる。
プロジェクタ1は、計測対象物体3の外側面上に投影パターンを投影する。投影パターンは、4×4画素のブロックからなる小領域4を選択したパターンに従って互の間隔をとって離散的に設けられるように配置する。各小領域4は、それぞれ独立して識別できるIDを構成するように色分布データ(例えば、R、G、B)を有する。
FIG. 1 is an explanatory diagram for explaining a first embodiment of the present invention.
A three-dimensional shape measurement apparatus that executes the three-dimensional shape measurement method of the present invention includes a
The
撮像カメラ2は、計測対象物体上の投影パターン、即ち小領域4を1回で撮像する。
制御装置5は、プロジェクタ1と撮像カメラ2を制御して本発明の投影パターン上の小領域と撮像画像上の抽出小領域との対応づけを行い、投影パターン上の小領域の座標データと対応する撮像画像上の小領域の座標データを求めるフローを実行する対応付け方法、更には、必要に応じて、前記対応付けられた両座標データから計測対象物体の3次元座標データを求めるフローを実行する3次元位置算出方法を実行するソフトウエアを備える。
The
The
制御装置は、コンピュータで構成するのが好ましいが、演算機能およびI/O機能を有するものであれば問題はない。
小領域の持つ解像度を高く設定すれば、例えば小領域1つずつを2次元バーコードのパターンにするようなことも可能である。(一般的に用いられていることからも明らかなように、2次元バーコードのパターン同士の識別は非常に容易である。)しかし、投影パターン全体の解像度はプロジェクタの性能によって限界があるため、小領域の解像度を高くすると投影パターン内に設定できる小領域の数は少なくなり、計測データのサンプリングが粗くなるというトレードオフがある。また、小領域の解像度を高く設定するために小領域の面積を大きくすると、対象物体の局所的な形状変形の影響で計測の精度や安定性が低下するというトレードオフも存在する。
The control device is preferably configured by a computer, but there is no problem as long as it has an arithmetic function and an I / O function.
If the resolution of the small area is set high, for example, it is possible to make each small area into a two-dimensional barcode pattern. (As is clear from the general use, it is very easy to identify two-dimensional barcode patterns.) However, since the resolution of the entire projection pattern is limited by the performance of the projector, When the resolution of the small area is increased, the number of small areas that can be set in the projection pattern is reduced, and there is a trade-off that the measurement data sampling becomes rough. In addition, there is a trade-off that when the area of the small region is increased in order to set the resolution of the small region high, the measurement accuracy and stability are reduced due to the influence of local shape deformation of the target object.
このように、小領域の大きさや配置方法、個々の小領域内のパターンをどのように設定するかについては、計測対象や実装に依存する。例えば、発明者による実施例では4画素×4画素の小領域を設け、それぞれの小領域にはRGBのカラー情報をそれぞれ2値で設定した値の組み合わせによる小さなカラーパターンを持たせている。この実施例における小領域のバリエーションはたかだか数十程度であるが、カメラとプロジェクタの3次元的な配置による対応点探索範囲の拘束条件(エピポーラ拘束)と併用することで有効に働く。 As described above, the size and arrangement method of the small areas and how to set the pattern in each small area depend on the measurement target and the mounting. For example, in the embodiment by the inventor, a small area of 4 pixels × 4 pixels is provided, and each small area has a small color pattern by a combination of values in which RGB color information is set in binary. The variation of the small area in this embodiment is about several tens, but it works effectively when used together with the constraint condition (epipolar constraint) of the corresponding point search range by the three-dimensional arrangement of the camera and the projector.
図2は本発明の実施例における投影パターンの一例である。
図2では、4画素×4画素の小領域を1〜3画素の間隔を空けて配置しており、投影パターン全体の中に1200個の小領域が離散して存在している。図2では小領域は黒で示されているが、実際にはそれぞれの小領域は前述のように数十種類のRGBの組み合わせパターンの中のどれか1つのパターンが設定されている。
FIG. 2 is an example of a projection pattern in the embodiment of the present invention.
In FIG. 2, small areas of 4 pixels × 4 pixels are arranged with an interval of 1 to 3 pixels, and 1200 small areas exist discretely in the entire projection pattern. In FIG. 2, the small areas are shown in black. Actually, however, each small area is set to one of several tens of RGB combination patterns as described above.
図3は、歩行中の足に対してプロジェクタで図2の投影パターンを投影し、カメラでその反射光(すなわち足の表面に投影されたパターン)を撮影した撮像画像で検出された少領域である。
投影パターンは離散な小領域によって構成されているため、画像中でも離散な小領域が観測される。画像中で小領域を検出した後に、検出された各小領域中の色の分布を調べる。投影パターン中の小領域には個々を識別可能な特徴的色分布を設定しているため、画像中で検出された小領域の色分布も特徴的なものとなり、カメラ−カメラ間の対応点探索においても、あるいはカメラ−プロジェクタ間の対応点探索においても、誤認識を大幅に低減することができる。
FIG. 3 shows a small area detected in a captured image obtained by projecting the projection pattern of FIG. 2 on a foot while walking and photographing the reflected light (that is, the pattern projected on the surface of the foot) with a camera. is there.
Since the projection pattern is composed of discrete small areas, discrete small areas are observed in the image. After detecting the small area in the image, the color distribution in each detected small area is examined. Since a characteristic color distribution that can be identified individually is set for each small area in the projection pattern, the color distribution of the small area detected in the image is also characteristic, and the corresponding point search between the camera and the camera is performed. In addition, or in the search for corresponding points between the camera and the projector, erroneous recognition can be greatly reduced.
(拡張例)
本発明は、以上説明したように、カメラで撮影した画像中の対応点の誤認識を大幅に低減するとともに、図6、図7に示されるように、対象物体表面に複数プロジェクタから投影された投影パターンが混在しても、どのプロジェクタから投影された点であるかを判別できる特徴を備える。
図6では、プロジェクタ1Aと1Bで計測対象の物体3、この場合足に各プロジェクタ固有の投影パターンを投影し、その投影画像を撮像カメラで撮像し、撮像画像上の小領域の色分布、例えば、RGBのパターンを検出することにより、各プロジェクタ固有の投影パターンを判別する。
(Extended example)
As described above, the present invention greatly reduces the misrecognition of corresponding points in an image captured by a camera, and is projected from a plurality of projectors onto a target object surface as shown in FIGS. Even if the projection patterns are mixed, the projector can distinguish which point is the projected point.
In FIG. 6, a projection pattern unique to each projector is projected onto the
このように、複数のプロジェクタで同時にパターンを投影する場合については、例えばプロジェクタ2台の場合ではプロジェクタ1Aの投影パターンに含まれる全ての小領域にはプロジェクタ1Bの投影パターンに含まれる全ての小領域と異なる色分布を持たせる。このようなプロジェクタ毎の小領域の種類の振り分けによって、図6に示すように、画像中に観測される複数プロジェクタからの投影パターンから、各小領域のRGBの値の分布を調べることで、小領域を投影したプロジェクタを判別可能である。 As described above, when a pattern is projected simultaneously by a plurality of projectors, for example, in the case of two projectors, all the small areas included in the projection pattern of the projector 1B are included in all the small areas included in the projection pattern of the projector 1A. And have a different color distribution. By sorting the types of small areas for each projector, as shown in FIG. 6, by examining the distribution of RGB values in each small area from the projection patterns from a plurality of projectors observed in the image, The projector that projected the region can be identified.
(投影パターン上のある小領域と、撮像画像上の抽出小領域との対応付け方法の処理フローチャート)
図8は、本発明の投影パターン上のある小領域と、撮像画像上の抽出小領域との対応付け方法を説明するフローチャートである。
図8において、予め、計測対象物体の外形形状や必要な計測精度等に応じて小領域のブロックサイズを選択し、小領域のIDとなる色分布の内容情報を選択しておく。なお、これら選択事項は自動的に求まるようにすることもできる。例えば、計測対象物体の外側形状を撮像し、物体の表面の凹凸の程度に応じて小領域のブロックサイズを選択し、小領域のIDとなる色分布の内容情報を選択するようにすることもできる。
(Processing flowchart of a method for associating a small area on the projection pattern with an extracted small area on the captured image)
FIG. 8 is a flowchart for explaining a method for associating a small area on the projection pattern of the present invention with an extracted small area on the captured image.
In FIG. 8, the block size of the small area is selected in advance according to the outer shape of the measurement target object, the required measurement accuracy, etc., and the content information of the color distribution that becomes the ID of the small area is selected in advance. These selection items can be automatically obtained. For example, the outer shape of the measurement target object is imaged, the block size of the small area is selected according to the degree of unevenness on the surface of the object, and the content information of the color distribution that becomes the ID of the small area may be selected. it can.
前記選択事項を計測装置の該当するプログラムへセットした段階で、プログラムをスタートする。以下、プログラムの手順をフローチャートで示す。ステップ(手順)は「S」と省略して記載する。
(1)小領域投影パターンを投影(S1):
小領域の形状や順番や配置パターンを決めた投影パターン(図2参照)を、プロジェクタにより計測対象物体へ投影する(図3参照)。
(2)撮像(S2):
S1のプロジェクタの投影に応じて撮像カメラにより計測対象物体を1回だけ撮像する
(図3参照)。
The program is started when the selection items are set in the corresponding program of the measuring device. Hereinafter, the procedure of the program is shown by a flowchart. Step (procedure) is abbreviated as “S”.
(1) Projecting a small area projection pattern (S1):
A projection pattern (see FIG. 2) that determines the shape, order, and arrangement pattern of the small regions is projected onto the measurement target object by the projector (see FIG. 3).
(2) Imaging (S2):
The measurement target object is imaged only once by the imaging camera according to the projection of the projector in S1 (see FIG. 3).
(3)撮像画像から小領域抽出し、色分布を検出(S3):
撮像画像から小領域を適宜抽出し、この小領域の色分布を検出する。
(4)投影パターンの順番の小領域と撮像画像の抽出小領域との対応づけができたか?(S4):
投影パターンの順番の小領域と撮像画像の抽出小領域との対応づけができたか?判断し、YESの場合先に進み、NOの場合S3へ戻る。
(3) Extract a small area from the captured image and detect the color distribution (S3):
A small area is appropriately extracted from the captured image, and the color distribution of the small area is detected.
(4) Did the small area in the projection pattern order correspond to the extracted small area of the captured image? (S4):
Was the small area in the projection pattern order associated with the extracted small area of the captured image? If YES, proceed to step S3. If NO, return to step S3.
(5)投影パターン上のすべて又は必要とする小領域について、撮像画像上の小領域と対応付けできたか?(S5):
投影パターン上のすべて又は必要とする小領域について、撮像画像上の小領域と対応付けできたか?判断し、YESの場合先に進み、NOの場合S3へ戻る。
対応付けの対象となる投影パターン上の小領域は、投影パターン上のすべて又は必要とする範囲(適宜設定した範囲等)に設定できる。
この対応付けのフローチャートを実行することにより、投影パターン上のすべて又は必要とする範囲の対応付けのデータが揃う。
(5) Have all the necessary small areas on the projection pattern been associated with the small areas on the captured image? (S5):
Have all or the necessary small areas on the projection pattern been associated with the small areas on the captured image? If YES, proceed to step S3. If NO, return to step S3.
The small area on the projection pattern to be associated can be set to all or a necessary range (a range set as appropriate) on the projection pattern.
By executing this association flowchart, all or a necessary range of association data on the projection pattern is obtained.
図8では、対応付けのフローチャートの後に、点線で示した3次元位置算出のステップ6を実行して計測対象物体の表面の3次元位置データを求めることもできる。ステップ6は次のようになる。
(6)3次元位置算出(S6):
先の対応付けフローチャートを実行して得た、投影パターン上の小領域の座標データと、これに対応する撮像画像上の小領域の座標データに基づき、周知の3次元形状を演算する手段により、計測対象物体の外側面の3次元座標データを求める。
In FIG. 8, the three-dimensional position data of the surface of the measurement target object can also be obtained by executing the step 6 of calculating the three-dimensional position indicated by the dotted line after the association flowchart. Step 6 is as follows.
(6) Three-dimensional position calculation (S6):
Based on the coordinate data of the small area on the projection pattern obtained by executing the above association flowchart and the coordinate data of the small area on the captured image corresponding thereto, means for calculating a known three-dimensional shape, The three-dimensional coordinate data of the outer surface of the measurement target object is obtained.
(3次元形状演算手段)
上記のようにして対応付けできた投影パターン上の2次元座標データと撮像画像上の2次元座標データから計測対象の物体表面上の3次元座標を求める方法は、当該分野において周知事項であるので、ここでは説明を省略する。
(Three-dimensional shape calculation means)
The method for obtaining the three-dimensional coordinates on the surface of the object to be measured from the two-dimensional coordinate data on the projection pattern and the two-dimensional coordinate data on the captured image, which can be associated as described above, is a well-known matter in this field. The description is omitted here.
1、1A、1B プロジェクタ
2、2A、2B カメラ
3 計測対象の物体
4 小領域
5 制御装置
1, 1A,
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007117583A JP2008275392A (en) | 2007-04-26 | 2007-04-26 | Three-dimensional shape measurement method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007117583A JP2008275392A (en) | 2007-04-26 | 2007-04-26 | Three-dimensional shape measurement method and system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008275392A true JP2008275392A (en) | 2008-11-13 |
Family
ID=40053525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007117583A Pending JP2008275392A (en) | 2007-04-26 | 2007-04-26 | Three-dimensional shape measurement method and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008275392A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010538269A (en) * | 2007-08-28 | 2010-12-09 | アーテック・グループ・インコーポレーテッド | System and method for three-dimensional measurement of the shape of a tangible object |
JP2014178141A (en) * | 2013-03-13 | 2014-09-25 | Kagoshima Univ | Calibration system and calibration method |
JP2016501380A (en) * | 2012-12-18 | 2016-01-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Scanning device and method for positioning a scanning device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02110305A (en) * | 1988-10-19 | 1990-04-23 | Mitsubishi Electric Corp | Three-dimensional measuring device |
JP2001505302A (en) * | 1996-09-12 | 2001-04-17 | オーラメトリクス ゲーエムベーハー | A method for improving the significance of three-dimensional measurement of objects |
JP2001349713A (en) * | 2000-06-06 | 2001-12-21 | Asahi Hightech Kk | Three-dimensional shape measuring device |
JP2003042735A (en) * | 2001-08-01 | 2003-02-13 | Minolta Co Ltd | Method and apparatus for three-dimensional measurement as well as computer program |
JP2003194527A (en) * | 2001-12-21 | 2003-07-09 | Ricoh Co Ltd | Three-dimensional information acquiring system |
-
2007
- 2007-04-26 JP JP2007117583A patent/JP2008275392A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02110305A (en) * | 1988-10-19 | 1990-04-23 | Mitsubishi Electric Corp | Three-dimensional measuring device |
JP2001505302A (en) * | 1996-09-12 | 2001-04-17 | オーラメトリクス ゲーエムベーハー | A method for improving the significance of three-dimensional measurement of objects |
JP2001349713A (en) * | 2000-06-06 | 2001-12-21 | Asahi Hightech Kk | Three-dimensional shape measuring device |
JP2003042735A (en) * | 2001-08-01 | 2003-02-13 | Minolta Co Ltd | Method and apparatus for three-dimensional measurement as well as computer program |
JP2003194527A (en) * | 2001-12-21 | 2003-07-09 | Ricoh Co Ltd | Three-dimensional information acquiring system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010538269A (en) * | 2007-08-28 | 2010-12-09 | アーテック・グループ・インコーポレーテッド | System and method for three-dimensional measurement of the shape of a tangible object |
JP2016501380A (en) * | 2012-12-18 | 2016-01-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Scanning device and method for positioning a scanning device |
US9947112B2 (en) | 2012-12-18 | 2018-04-17 | Koninklijke Philips N.V. | Scanning device and method for positioning a scanning device |
JP2014178141A (en) * | 2013-03-13 | 2014-09-25 | Kagoshima Univ | Calibration system and calibration method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10699476B2 (en) | Generating a merged, fused three-dimensional point cloud based on captured images of a scene | |
JP6465682B2 (en) | Information processing apparatus, information processing method, and program | |
US20130106833A1 (en) | Method and apparatus for optical tracking of 3d pose using complex markers | |
JP6548422B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP5633058B1 (en) | 3D measuring apparatus and 3D measuring method | |
JP6566768B2 (en) | Information processing apparatus, information processing method, and program | |
JP2012058076A (en) | Three-dimensional measurement device and three-dimensional measurement method | |
JP2011185872A (en) | Information processor, and processing method and program of the same | |
CN105372259B (en) | Measurement apparatus, base board checking device and its control method, storage media | |
JP2016170122A (en) | Measurement device | |
JP2011106899A (en) | Method of processing image | |
JP5222430B1 (en) | Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus | |
CN107271445B (en) | Defect detection method and device | |
KR20180038942A (en) | Method of length measurement for 2d photography | |
JP2008275366A (en) | Stereoscopic 3-d measurement system | |
JP2008275392A (en) | Three-dimensional shape measurement method and system | |
JP5336325B2 (en) | Image processing method | |
JP6452361B2 (en) | Information processing apparatus, information processing method, and program | |
JP2011075336A (en) | Three-dimensional shape measuring instrument and method | |
JP2004077290A (en) | Apparatus and method for measuring three-dimensional shape | |
JP2001338280A (en) | Three-dimensional space information input device | |
JP5375479B2 (en) | Three-dimensional measurement system and three-dimensional measurement method | |
CN109661683A (en) | Projective structure light method, depth detection method and the project structured light device of image content-based | |
KR20150009842A (en) | System for testing camera module centering and method for testing camera module centering using the same | |
JP2011252835A (en) | Three dimensional shape measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110506 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110517 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110927 |