JP2006214893A - Computer software program for measuring three-dimensional shape of object using object measuring method and computer system - Google Patents

Computer software program for measuring three-dimensional shape of object using object measuring method and computer system Download PDF

Info

Publication number
JP2006214893A
JP2006214893A JP2005028425A JP2005028425A JP2006214893A JP 2006214893 A JP2006214893 A JP 2006214893A JP 2005028425 A JP2005028425 A JP 2005028425A JP 2005028425 A JP2005028425 A JP 2005028425A JP 2006214893 A JP2006214893 A JP 2006214893A
Authority
JP
Japan
Prior art keywords
line
feature
geometric transformation
point
software program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005028425A
Other languages
Japanese (ja)
Inventor
Kouichi Konno
晃市 今野
Tadahiro Fujimoto
忠博 藤本
Tetsushi Konno
哲士 金野
Norishige Chiba
則茂 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwate University
Original Assignee
Iwate University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwate University filed Critical Iwate University
Priority to JP2005028425A priority Critical patent/JP2006214893A/en
Priority to PCT/JP2006/301422 priority patent/WO2006082773A1/en
Publication of JP2006214893A publication Critical patent/JP2006214893A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately measure the object of a complicated shape by enabling positioning of images even when a sampling interval by a range sensor is wide. <P>SOLUTION: This computer software program includes a process for generating point group data including information of a distance of a depth direction up to measuring points of the object respectively by measuring the object from a plurality of different directions using the range sensor (a), a process for detecting as an edge by coupling a prescribed point group by a difference between the distances of the depth direction of adjacent points by processing each point group (b), a process for converting the edge into a characteristic line (c), and a process for outputting geometric conversion of the object by positioning by using the detected characteristic line (d). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、レンジセンサを用いて対象物を複数の方向から計測することで、当該対象物の三次元形状データを得る対象物測定方法およびそれを実行するためのコンピュータソフトウエアプログラムに関する。   The present invention relates to an object measurement method for obtaining three-dimensional shape data of an object by measuring the object from a plurality of directions using a range sensor, and a computer software program for executing the object measurement method.

一般に、実空間の建造物を仮想空間上に復元する有効な手段の一つとして、レンジセンサの利用が挙げられる。レンジセンサは、センサ位置から物体表面の各点までの奥行き方向の距離をデジタルデータとして測定するための測定装置である。レンジセンサから距離の情報を含んだ画像を得ることで、物体形状を3次元空間上の点群として獲得することができる。   In general, use of a range sensor is one effective means for restoring a real space building on a virtual space. The range sensor is a measuring device for measuring the distance in the depth direction from the sensor position to each point on the object surface as digital data. By obtaining an image including distance information from the range sensor, the object shape can be acquired as a point group in a three-dimensional space.

ところで、レンジセンサから得られた点群には、オクルージョンに関する問題があることが知られている。オクルージョンに関する問題とは、撮像方向により、撮像対象の一部が他の部分の陰に隠れてしまい,点群データとして獲得することができない問題をいう。オクルージョンの問題を解決するための一つの考え方として、複数の異なる位置から対象物の測定を行い、それらを3次元空間上で位置合わせすることにより統合することが考えられる。   By the way, it is known that the point cloud obtained from the range sensor has a problem related to occlusion. The problem related to occlusion is a problem in which part of the imaging target is hidden behind other parts depending on the imaging direction and cannot be acquired as point cloud data. One way to solve the occlusion problem is to measure objects from a plurality of different positions and integrate them by aligning them in a three-dimensional space.

この位置合わせの手法として、得られた点群の座標を直接利用して、点群間の最適な位置を計算し位置を合わせる手法と、特徴点や特徴線を用いて間接的に位置計算を適用して位置を合わせる手法が従来提案されている。点群を直接利用して位置を計算する手法においては、点群の座標を直接利用して最適な位置合わせを行う。このため、点や面等のように位置合わせの基準になるものが必要となり、通常は基準点としてマーカーを配置しなければならないという欠点がある。このマーカーを用いる場合、他の方向から測定した同一のマーカー同士が一致するように条件を課し、位置合わせを計算する必要がある。   As this alignment method, the coordinates of the obtained point cloud are directly used to calculate the optimal position between the point clouds and match the positions, and the position calculation is indirectly performed using feature points and feature lines. A method for aligning the position by applying has been proposed. In the method of calculating the position by directly using the point cloud, the optimum alignment is performed by directly using the coordinates of the point cloud. For this reason, a standard for alignment such as a point or a surface is required, and there is a drawback that a marker must be normally arranged as a reference point. When using this marker, it is necessary to calculate the alignment by placing a condition so that the same markers measured from other directions match.

一方、特徴点や特徴量に基づいた位置合わせを行う手法は、許容誤差を持った同一平面上にのる点群をグループ化して点群を領域分けし、平面同士の交線から幾何学的な特徴線を抽出し、平面の法線ベクトルと特徴線を用いて位置合わせを行うものである。ここで特徴量を用いて位置合わせを行う場合は、基準点として方向ベクトルや特徴線等を用いる。この特徴量に基づいた位置合わせではマーカーを必要としないために、マーカーを配置できないような部分や対象物を表現する際に有効である。   On the other hand, the method of positioning based on feature points and feature quantities is a method of grouping point groups on the same plane with tolerances to divide the point group into regions, and geometrically calculating from the intersection of the planes. A feature line is extracted, and alignment is performed using a normal vector of the plane and the feature line. Here, when alignment is performed using feature amounts, a direction vector, a feature line, or the like is used as a reference point. Since the alignment based on the feature amount does not require a marker, it is effective for expressing a portion or an object where the marker cannot be arranged.

ところで、上記特徴線を用いた位置合わせは、はっきりした直線的な特徴を持つオフィスビルのような建造物や対象物については有効であるものの、寺社や教会のような多数の凹凸等の複雑な形状を有する対象物には有効でないという問題がある。   By the way, the alignment using the above characteristic lines is effective for buildings and objects such as office buildings with clear linear characteristics, but it is complicated such as many irregularities such as temples and shrines. There is a problem that it is not effective for an object having a shape.

すなわち、この手法では、点群の測定誤差が大きい場合や、サンプリング間隔が形状の複雑度に比べて広い場合など、意図した平面形状が得られないときには、領域の分け方が変化し、その結果得られる特徴線も変化してしまう。このような場合、複数の方向から取得した点群から特徴線を求めた場合に、それぞれの点群から得られる特徴線が3次元空間上で一致するものとはならない。例えば測定した方向のサンプリング間隔が広い場合、実際の表面形状にある細かな凹凸の部分が領域分けされず、抽出される特徴線が少なくなる。このまま位置合わせを行うと、一致する特徴線が少なくなり、位置合わせが不可能になる場合がある。一方、サンプリング間隔を狭くしてしまうと測定データ多くなり、コンピュータで扱えるデータ量を超えてしまうなどの問題が生じたり、広い範囲の測定が行えない等の問題がある。   That is, in this method, when the intended planar shape cannot be obtained, such as when the measurement error of the point cloud is large or when the sampling interval is wide compared to the complexity of the shape, the method of dividing the region changes, and as a result The resulting feature line will also change. In such a case, when feature lines are obtained from point groups acquired from a plurality of directions, the feature lines obtained from the respective point groups do not match in the three-dimensional space. For example, when the sampling interval in the measured direction is wide, fine uneven portions in the actual surface shape are not divided into regions, and feature lines to be extracted are reduced. If alignment is performed as it is, there may be fewer feature lines that match, and alignment may be impossible. On the other hand, if the sampling interval is narrowed, the amount of measurement data increases, causing problems such as exceeding the amount of data that can be handled by a computer, and problems such as inability to measure over a wide range.

従って、この発明の目的は、レンジセンサによるサンプリング間隔が広い場合でも、画像同士の位置合わせが可能であり、複雑な形状の対象物を正確に計測できる計測方法を提供することにある。   Accordingly, an object of the present invention is to provide a measurement method that enables alignment of images even when a sampling interval by a range sensor is wide and accurately measures an object having a complicated shape.

上記目的を達成するため、この発明の第1の主要な観点によれば、レンジセンサを用い、異なる複数の方向から対象物を計測し、夫々について対象物の測定点までの奥行き方向の距離の情報を含む点群データを生成する工程と、前記各点群データを処理し、隣り合うピクセル同士の奥行き方向の距離の差が所定以上の点群を連結してエッジとして検出する工程と、前記各点群データを、前記検出したエッジを用いて位置合わせすることで、前記対象物の幾何学形状を出力する工程とを有することを特徴とする対象物測定方法が提供される。   In order to achieve the above object, according to a first main aspect of the present invention, a range sensor is used to measure an object from a plurality of different directions, and each of the distances in the depth direction to the measurement point of the object is measured. Generating point cloud data including information; processing each point cloud data; detecting a point cloud by connecting a point cloud in which a difference in distance between adjacent pixels in a depth direction is equal to or greater than a predetermined value; And outputting the geometric shape of the object by aligning each point cloud data using the detected edge.

本発明によれば、従来の手法とは異なる手法によって特徴量を抽出することによって、前述の問題点を解決する新しい手法が提供される。すなわち、本発明の一実施形態では、まず初めに、測定して得られる距離画像の各ピクセルとの対応関係を持った3次元座標値である点群から、エッジ検出した画像を作成し特徴線を抽出する。次に、抽出した特徴線を3次元空間上で線分化する。最終的な位置合わせでは、異なる方向から得られた互いに対応する線分どうしが3次元空間上で重なるようなペアを選択し、最適な幾何変換を誤差評価により求める。   According to the present invention, a new technique for solving the above-described problems is provided by extracting feature amounts by a technique different from the conventional technique. That is, in one embodiment of the present invention, first, an edge-detected image is created from a point group that is a three-dimensional coordinate value having a correspondence relationship with each pixel of a distance image obtained by measurement, and a feature line is created. To extract. Next, the extracted feature line is segmented in a three-dimensional space. In final alignment, a pair in which line segments corresponding to each other obtained from different directions overlap in a three-dimensional space is selected, and an optimum geometric transformation is obtained by error evaluation.

本発明によれば、形状の表面が粗い建造物や、精度の悪いデータに対しても位置合わせ可能とするために、許容誤差を考慮するトレラントモデリング手法で線分化した特徴線を用いる。また本手法では、サンプリング間隔が広い場合でも多くの特徴線を抽出可能であり、位置合わせも可能である。そのため、広範囲にわたって測定可能であることや、測定データが少なくて済む等の利点がある。   According to the present invention, feature lines that have been differentiated by a tolerant modeling method that takes into account an allowable error are used in order to enable alignment even for structures with rough surfaces or data with poor accuracy. Also, with this method, many feature lines can be extracted even when the sampling interval is wide, and alignment is also possible. Therefore, there are advantages such as being able to measure over a wide range and requiring less measurement data.

また、本発明の第2の主要観点によれば、コンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラムであって、記憶媒体と、この記憶媒体に格納され、前記コンピュータシステムに、レンジセンサを用い異なる複数の方向から対象物を計測された情報に基づいて、対象物の測定点までの奥行き方向の距離の情報を含む点群データを生成させる点群データ取得部と、この記憶媒体に格納され、前記コンピュータシステムに、前記各点群データを処理させ、隣り合う点同士の奥行き方向の距離の差が所定以上の点群を連結してエッジとして検出させる特徴線取得部と、この記憶媒体に格納され、前記コンピュータシステムに、前記エッジを特徴線に変換させる特徴線処理部と、この記憶媒体に格納され、前記コンピュータシステムに、前記各点群データを、前記検出した特徴線を用いて位置合わせすることで、前記対象物の幾何変換を出力させる幾何変換出力部と、を有することを特徴とするコンピュータソフトウエアプログラムが提供される。   According to a second main aspect of the present invention, there is provided a computer software program for measuring a three-dimensional shape of an object using a computer system, the storage medium being stored in the storage medium, Point cloud data acquisition unit that causes a computer system to generate point cloud data including distance information in a depth direction to a measurement point of an object based on information obtained by measuring the object from a plurality of different directions using a range sensor And a feature line that is stored in the storage medium, causes the computer system to process each point cloud data, and connects point clouds that have a distance difference in the depth direction between adjacent points to be detected as an edge. An acquisition unit, a feature line processing unit which is stored in the storage medium and causes the computer system to convert the edge into a feature line, and the storage medium The computer system further includes a geometric transformation output unit that outputs the geometric transformation of the object by aligning each point cloud data using the detected feature line. A computer software program is provided.

このような構成によれば、上記第1の観点に係る方法を実行できるコンピュータソフトウエアプログラムが提供される。   According to such a configuration, a computer software program capable of executing the method according to the first aspect is provided.

なお、本発明の他の特徴と顕著な効果は、次の実施形態を参照することで、当業者に明らかとなる。   Note that other features and remarkable effects of the present invention will be apparent to those skilled in the art by referring to the following embodiments.

以下、本発明の一実施形態を、実在する建造物や地形等を3次元データ化する場合を例にとって説明する。   Hereinafter, an embodiment of the present invention will be described by taking as an example a case where an existing building, topography, or the like is converted into three-dimensional data.

図1は、本発明の一実施形態におけるレンジセンサの配置図である。   FIG. 1 is a layout diagram of range sensors according to an embodiment of the present invention.

この実施形態では、撮像対象物1は日本の寺院の門である。そして、この撮像対象物1を異なる撮像方向から撮像できるように、第1〜第4のレンジセンサ2a〜2dが配置されている。各レンジセンサ2a〜2dは、この実施形態の対象物撮像システム4に接続されている。この実施形態におけるレンジセンサは、三次元レーザースキャナを備え、撮像対象物で反射したレーザを検出することで、対象物表面までの奥行き方向の距離のデータを取得できるように構成されたものである。レンジセンサは、現在公知のものでよく、また、同様の機能を有するものであれば将来利用されることになるいかなるレンジセンサであってもよい。   In this embodiment, the imaging object 1 is a Japanese temple gate. And the 1st-4th range sensors 2a-2d are arrange | positioned so that this imaging target object 1 can be imaged from a different imaging direction. Each range sensor 2a-2d is connected to the object imaging system 4 of this embodiment. The range sensor in this embodiment includes a three-dimensional laser scanner, and is configured to be able to acquire distance data in the depth direction to the object surface by detecting the laser reflected by the imaging object. . The range sensor may be a currently known range sensor, or any range sensor that will be used in the future as long as it has a similar function.

図2は、この対象物撮像システム4を示す概略構成図である。   FIG. 2 is a schematic configuration diagram showing the object imaging system 4.

このシステム4では、CPU5、RAM6,レンジセンサ用インタフェース7、キーボードやマウス等の入出力デバイス8が接続されてなるバス9に、プログラム格納部10とデータ格納部11が接続されてなる。   In this system 4, a program storage unit 10 and a data storage unit 11 are connected to a bus 9 to which a CPU 5, a RAM 6, a range sensor interface 7, and an input / output device 8 such as a keyboard and a mouse are connected.

プログラム格納部は、OS等の基本プログラム12と、レンジセンサ2a〜2dからの画像信号を受け取り点群データを出力する点群データ取得部13と、各点群データからエッジを構成する点群を特定し、各点群データの特徴線を得る特徴線取得部14と、この特徴線を三次元空間上の線分に変換し、これを統合・最適化する特徴線処理部15と、この特徴線を利用して異なるレンジセンサで得た線群同士の位置合わせを行う位置合わせ処理部16と、前記位置合わせに基づいて各点群データの幾何変換を出力する幾何変換出力部17と、を有する。そして、これらの各構成要素により処理された点群データ、特徴線データ及び幾何変換データは、前記データ格納部11に格納されるようになっている。   The program storage unit includes a basic program 12 such as an OS, a point cloud data acquisition unit 13 that receives image signals from the range sensors 2a to 2d and outputs point cloud data, and a point cloud that constitutes an edge from each point cloud data. A feature line acquisition unit 14 that identifies and obtains a feature line of each point cloud data, a feature line processing unit 15 that converts the feature line into a line segment in a three-dimensional space, integrates and optimizes the feature line, and the feature An alignment processing unit 16 that aligns line groups obtained by different range sensors using lines, and a geometric conversion output unit 17 that outputs geometric conversion of each point group data based on the alignment; Have. The point cloud data, feature line data, and geometric transformation data processed by each of these components are stored in the data storage unit 11.

なお、このシステム4は、実際には汎用コンピュータでよく、前記プログラム格納部10やデータ格納部11は、ハードディスク等の外部記憶装置でよい。前記各構成要素13〜17は、コンピュータソフトウエアの形で前記プログラム格納部10に格納され、上記CPU5によって適宜RAM6上に呼び出され実行されることで、本発明の構成要素として機能するようになっている。   The system 4 may actually be a general-purpose computer, and the program storage unit 10 and the data storage unit 11 may be an external storage device such as a hard disk. Each of the components 13 to 17 is stored in the program storage unit 10 in the form of computer software, and is appropriately called and executed on the RAM 6 by the CPU 5 to function as components of the present invention. ing.

以下、このシステムの構成を、その動作と共に説明する。図3は、この処理工程を示すフローチャートである。なお、図中のS1〜S6は、以下のステップS1〜S6に対応する。   Hereinafter, the configuration of this system will be described together with its operation. FIG. 3 is a flowchart showing this processing step. In addition, S1-S6 in a figure respond | corresponds to the following steps S1-S6.

点群データの取得Acquisition of point cloud data

前記点群データ取得部4は、第1、第2のレンジセンサ2a,2bを用いて、撮像対象1を異なる方向から測定し点群データを得る(ステップS1)。点群は、レンジセンサ2a,2bから得られる画像の各ピクセルと3次元座標値との対応関係を持つ。   The point cloud data acquisition unit 4 measures the imaging target 1 from different directions using the first and second range sensors 2a and 2b to obtain point cloud data (step S1). The point group has a correspondence between each pixel of the image obtained from the range sensors 2a and 2b and the three-dimensional coordinate value.

特徴線の抽出Feature line extraction

次に特徴線取得部14が、前記点群データから特徴線を抽出する。   Next, the feature line acquisition unit 14 extracts a feature line from the point cloud data.

この場合、まず、点群データからエッジ検出を行う(ステップS2)。このエッジ検出は、隣り合う点間で奥行き方向の距離の段差が閾値以上のものを検出することで行う。この方法を、本発明では、Depth Edge法と呼ぶ。   In this case, first, edge detection is performed from the point cloud data (step S2). This edge detection is performed by detecting a step whose distance in the depth direction is greater than or equal to a threshold value between adjacent points. In the present invention, this method is referred to as a depth edge method.

すなわち、特徴線を利用して画像間の位置合わせを行う場合、測定したそれぞれの方向から、3次元空間上で一致する特徴線ができるだけ多く得られることが望ましい。しかし、従来の画像処理における特徴検出方法は、パターンマッチングによる方法であり、この方法をもとに特徴線を抽出した場合、形状の表面にある細かな凹凸等により、その形状を特徴付ける特徴線にノイズが発生するため、必要な特徴線がうまく抽出されない場合も生じる。この特徴検出は閾値を調整することで行うが、このとき、閾値を調整して多くの特徴線を抽出するようにするほど、ノイズの発生は顕著となる。また、閾値を小さくするなどして逆にノイズの発生を抑えるようにした場合には、抽出される特徴線の数が減少し、異なる方向からの特徴線で一致するものが得られる可能性が低くなってしまう。   That is, when performing alignment between images using feature lines, it is desirable to obtain as many feature lines as possible in the three-dimensional space from each measured direction. However, the feature detection method in the conventional image processing is a method based on pattern matching, and when a feature line is extracted based on this method, the feature line is characterized by fine irregularities on the surface of the shape. Since noise is generated, a necessary feature line may not be extracted well. This feature detection is performed by adjusting the threshold value. At this time, the more the characteristic lines are extracted by adjusting the threshold value, the more noise is generated. On the other hand, when noise generation is suppressed by reducing the threshold, the number of extracted feature lines is reduced, and there is a possibility that feature lines from different directions can be obtained. It will be lower.

これに対して本発明では、ノイズの発生をできるだけ抑え、かつ、異なる方向からの特徴線で一致するもの、特に、位置合わせに有用なものができるだけ多く得られるよう、点群の奥行き方向の情報を用いて特徴線を求める。すなわち、本発明では、DepthEdgeを定義する。Depth Edgeは隣接するピクセルの奥行き値の差分が大きな部分に対応する特徴線である。各ピクセルの位置(ix、jy)は点群の1点(x、y、z)に対応しているため、前記特徴線取得部14は、各ピクセルに対応する三次元座標値のz値に対して閾値を適用することでエッジを検出する。図4は、このようにして得られた画像である。 On the other hand, in the present invention, information on the depth direction of the point cloud is obtained so that noise generation can be suppressed as much as possible, and as many as possible can be obtained by matching characteristic lines from different directions, particularly those useful for alignment. To find the feature line. That is, in the present invention, DepthEdge is defined. Depth Edge is a feature line corresponding to a portion where the difference between the depth values of adjacent pixels is large. Since the position (ix, jy) of each pixel corresponds to one point (x, y, z) of the point group, the feature line acquisition unit 14 sets the z value of the three-dimensional coordinate value corresponding to each pixel. Edges are detected by applying a threshold value to them. FIG. 4 is an image obtained in this way.

特徴線の線分化Line differentiation of feature lines

次に、特徴線処理部15は、前記特徴線を線分化する(ステップ3)。   Next, the feature line processing unit 15 differentiates the feature line (step 3).

点群から抽出した特徴線は、画像上のピクセルと奥行き値を単位として表現されている。そこで、以下に述べる処理により、この特徴線を3次元空間上での線分に変換する。ここでは、線分を決定する要素として四方向の連結ピクセル数Cd(1≦d≦4)を各ピクセルに与える。四方向とは図5に示すように、2次元画像上での右方向から左斜め下まで45度づつ回転した方向である。各方向dに対するCdは、その方向に連続するピクセルの数であり、線分を構成する点の数となる。前記特徴線処理部15は、次のアルゴリズムを適用することにより、各ピクセルのCdを決定する。   The feature lines extracted from the point group are expressed in units of pixels and depth values on the image. Therefore, this feature line is converted into a line segment in a three-dimensional space by the processing described below. Here, the number of connected pixels in four directions Cd (1 ≦ d ≦ 4) is given to each pixel as an element for determining a line segment. As shown in FIG. 5, the four directions are directions rotated by 45 degrees from the right direction on the two-dimensional image to the diagonally lower left. Cd for each direction d is the number of pixels that continue in that direction, and is the number of points that make up the line segment. The feature line processing unit 15 determines Cd of each pixel by applying the following algorithm.

(1) 初めにCdの初期化を行う。あるピクセルP(ix、jy)がエッジ部分であれば、そのすべての方向dについてCd=1とし、そうでなければCd=0とする。 (1) First, Cd is initialized. If a certain pixel P (ix, jy) is an edge portion, Cd = 1 is set for all directions d, and Cd = 0 is set otherwise.

(2) 画像の左上隅のピクセルからCdを探索する。例えばd=1、つまり探索方向を右側としたときに、あるピクセルP(ix、jy)から線分L1の作成を開始し、線分の端点とする。そしてP(ix、jy)の右側に隣接するピクセルP(ix+1、jy)の連結成分数をC'1とする。このとき、C'1の数が1であり、3次元空間上での2点間の距離Dvが閾値Disよりも短い場合、C'1=1+C1とし、着目しているピクセルP(ix、jy)のC1を0とする。 (2) Search Cd from the pixel in the upper left corner of the image. For example, when d = 1, that is, when the search direction is the right side, the creation of the line segment L1 is started from a certain pixel P (ix, jy), and is set as the end point of the line segment. The number of connected components of the pixel P (ix + 1, jy) adjacent to the right side of P (ix, jy) is set to C′1. At this time, when the number of C′1 is 1 and the distance Dv between the two points in the three-dimensional space is shorter than the threshold Dis, C′1 = 1 + C1, and the pixel P (ix, jy of interest) C1 of 0) is set to 0.

(3) 次に参照するピクセルをP(ix+1、jy)とし、同様に右隣ピクセルの連結成分数と3次元空間上での2点間距離を判定していく。もし、注目しているピクセルP(ix+n、jy)の右隣ピクセルの連結成分数が0だったり、2点間の距離Dvが閾値Disよりも大きい場合には、連結成分数の加算は行わず、線分作成も終了する。このとき点P(ix、jy)、P(ix+n、jy)を線分L1の端点とする。また、線分を構成する点の数はP(ix+n、jy)の連結成分数となり、この場合は(n+1)個となる。そして、新たなエッジ部分のピクセルを探索し、同様の処理を繰り返し行う。 (3) Next, the pixel to be referred to is P (ix + 1, jy), and similarly, the number of connected components of the right adjacent pixel and the distance between two points in the three-dimensional space are determined. If the number of connected components of the pixel to the right of the pixel of interest P (ix + n, jy) is 0 or the distance Dv between the two points is greater than the threshold Dis, the number of connected components is not added. The line segment creation is also finished. At this time, the points P (ix, jy) and P (ix + n, jy) are the end points of the line segment L1. The number of points constituting the line segment is the number of connected components of P (ix + n, jy), and in this case, (n + 1). Then, a new edge portion pixel is searched and the same processing is repeated.

以下同様に、(1)、(2)、(3)で述べた一方向での線分化アルゴリズムを四方向全てに適用することで、特徴線の線分化を行う。求められた線分の情報は特徴線データとしてデータ格納部11に格納される。 Similarly, the feature line is differentiated by applying the linear differentiation algorithm in one direction described in (1), (2), and (3) to all four directions. The obtained line segment information is stored in the data storage unit 11 as feature line data.

線分の統合化Integration of line segments

次に、特徴線処理部15は、特徴線から変換した線分の統合化を行う(ステップS4)。   Next, the feature line processing unit 15 integrates the line segments converted from the feature lines (step S4).

すなわち、上記で作成した線分は、画像上において一定方向の成分しか抽出されないので、図6に示した線分A、B、C、Dのような場合には、不連続な線分として作成されてしまう。前記特徴線処理部15は、線分A、B、C、Dを統合して一つの線分とするために、線分が乗る3次元空間上の無限直線を導出し、任意の2つの線分が次に述べる2つの条件を同時に満たすか否かを判断し、満たす場合その2つの線分を統合する。 That is, since the line segment created above extracts only components in a certain direction on the image, it is created as a discontinuous line segment in the case of the line segments A, B, C, and D shown in FIG. Will be. The feature line processing unit 15 derives an infinite straight line in a three-dimensional space on which the line segments are placed in order to integrate the line segments A, B, C, and D into one line segment, and arbitrarily two lines It is determined whether or not the minute satisfies the following two conditions at the same time, and if so, the two line segments are integrated.

(1) その2つの線分L1、L2が、一方の線分を構成する点Piが他方のいずれかの点と画像上で8方向近傍に隣接し、さらに3次元空間上での2点間の距離が閾値Disよりも小さい場合。 (1) The two line segments L1 and L2 are such that the point Pi constituting one line segment is adjacent to one of the other points in the vicinity of the eight directions on the image, and between the two points in the three-dimensional space. Is less than the threshold Dis.

(2) 図7に示すように、3次元空間上で二つの線分をまとめた新たな線分がのる無限直線L12(t)から半径R内に線分L1とL2を構成する全ての点が存在する場合。 (2) As shown in FIG. 7, all of the line segments L1 and L2 that form the line segment L1 and L2 within the radius R from the infinite straight line L12 (t) on which the two line segments are combined in the three-dimensional space. If a point exists.

上記2つの条件を満たす場合、特徴線処理部15は、以下の方法で3次元空間上の無限直線を導出する。すなわち、まず、線分上の点がのる無限直線をL(t)とし、線分を構成する任意の点PiからL(t)までの距離をd(Pi、L(t))とする。そして、無限直線L(t)と誤差のある点群Piとの距離が最小になるような無限直線を定義する。   When the above two conditions are satisfied, the feature line processing unit 15 derives an infinite straight line in the three-dimensional space by the following method. That is, first, an infinite straight line on which a point on the line segment is placed is L (t), and a distance from an arbitrary point Pi constituting the line segment to L (t) is d (Pi, L (t)). . Then, an infinite straight line is defined such that the distance between the infinite straight line L (t) and the point group Pi having an error is minimized.

この定義のため、この実施形態では、式(1)に示すような、無限直線と点群の距離の二乗和を表す評価式(EL)を導入する。

Figure 2006214893
For this definition, this embodiment introduces an evaluation formula (EL) that represents the sum of squares of the distance between the infinite line and the point group, as shown in formula (1).
Figure 2006214893

ここで、nは線分を構成する点の数である。特徴線処理部15は、最小二乗法により近似解を算出して、ELを最小にする無限直線L(t)を決定するものである。L(t)の初期値は線分の中点と、線分の端点を結んだ直線の傾きを用いる。線分を統合化した後には、構成する点の数が非常に少ない線分も多数存在する。この場合、位置合わせに有効な線分であるか、または無効なノイズであるかの判断が難しい。そこで本発明では、線分を構成する点の数を基準として、線分を降順に並べ、上位の数十個を位置合わせに用いる。   Here, n is the number of points constituting the line segment. The feature line processing unit 15 calculates an approximate solution by the least square method and determines an infinite straight line L (t) that minimizes EL. The initial value of L (t) uses the slope of a straight line connecting the midpoint of the line segment and the end points of the line segment. After unifying line segments, there are many line segments with very few points. In this case, it is difficult to determine whether the line segment is effective for alignment or invalid noise. Therefore, in the present invention, the line segments are arranged in descending order on the basis of the number of points constituting the line segment, and the top tens are used for alignment.

このようにして統合化された線分の情報は、特徴線データとしてデータ格納部11に格納される。   Information on the line segments integrated in this way is stored in the data storage unit 11 as feature line data.

線分の最適化Line segment optimization

次に、特徴線処理部15は、線分の最適化処理を行う(ステップS5)。   Next, the feature line processing unit 15 performs line segment optimization processing (step S5).

本発明における位置合わせ手法では、線分群の中から選択した幾つかの線分が、より正確に形状の特徴を表していることが求められる。そこで位置合わせに用いる線分について、隣接する他のエッジ部分の点との統合化により、線分の最適化を実現する。   In the alignment method of the present invention, it is required that some line segments selected from the line segment group more accurately represent the shape features. Therefore, optimization of the line segment is realized by integrating the line segment used for alignment with the points of other adjacent edge portions.

線分を最適化した後には、線分を構成する頂点数が増加する。具体的には以下の手順で最適化を行う。   After optimizing the line segment, the number of vertices constituting the line segment increases. Specifically, optimization is performed according to the following procedure.

(1) Depth Edge画像上で線分Lを構成する全ての点Piに隣接するエッジ部分の中で、2点間の距離が最も近い点P'を探索する。 (1) A point P ′ having the closest distance between two points is searched for in the edge portions adjacent to all the points Pi constituting the line segment L on the Depth Edge image.

(2) 点P'を含めた新しい線分L'がのる無限直線L'(t)から、半径R内にL'を構成する全ての点が存在するならば、点P'を線分Lに加える。 (2) From the infinite straight line L ′ (t) on which the new line segment L ′ including the point P ′ is located, if all the points constituting L ′ exist within the radius R, the point P ′ is defined as the line segment. Add to L.

(1)、(2)の操作を隣接するエッジ部分が無くなるまで線分毎に繰り返し行う。 The operations (1) and (2) are repeated for each line segment until there are no adjacent edge portions.

このようにして、線分の最適化が行われ、その情報は特徴線データとして前記データ格納部11に格納される。   In this way, the line segment is optimized, and the information is stored in the data storage unit 11 as feature line data.

位置合わせAlignment

次に、位置合わせ処理部16が、上記で求められた線分を利用し、複数のセンサ位置から獲得した点群どうしの相対的な位置関係を導出する(ステップS6)。   Next, the alignment processing unit 16 derives the relative positional relationship between the point groups acquired from the plurality of sensor positions by using the line segment obtained above (step S6).

この位置合わせは、逐次的に二組の線分群の間で行う。すなわち、はじめに任意の二方向から得られる線分群間で位置合わせを行い、その二つの線分群を合成し、その後、残りの方向の線分群から一つずつを選び、位置合わせと合成を行っていく。   This alignment is performed sequentially between two sets of line segments. That is, first, align the line segments obtained from any two directions, synthesize the two line segments, and then select one each from the remaining line segments and perform alignment and synthesis. Go.

二方向からの線分群に関する位置合わせでは、一方の座標系を他方の座標系に移す3次元幾何変換を考え、二方向からの線分群間で対応する線分同士が3次元空間上でできるだけ一致するような最適な幾何変換を求める。具体的には、線分ペアに対する誤差評価関数を定義し、その値が最小となる幾何変換を最小二乗法により求める。このとき、一般には、できるだけ多くの線分ペアを選んだほうが精度の高い位置合わせが可能であると言える。   In the alignment of line segments from two directions, the three-dimensional geometric transformation in which one coordinate system is transferred to the other coordinate system is considered, and corresponding line segments between two line groups match as much as possible in the three-dimensional space. Find the optimal geometric transformation. Specifically, an error evaluation function for a line segment pair is defined, and a geometric transformation that minimizes the value is obtained by the least square method. At this time, in general, it can be said that alignment with higher accuracy is possible by selecting as many line segment pairs as possible.

しかし、先に述べたように、各方向から得られる線分群が許容誤差を含み、かつ、十分な数の線分が得られない場合には、二方向からの線分群間でうまく対応する線分ペアを見つけること自体が困難である場合が多い。そこで本発明では、選択する線分のペアを最低二組選択する。ただし、ペア同士が平行にならないように選択する。また、例えば、太い円柱の中心軸方向のシルエットに対応する線分のように、測定方向によって出現の仕方が異なる線分は、位置合わせの対象としては用いないようにする。次に、選択した線分ペア以外の線分間の3次元空間上での対応関係に基づく評価値も算出し、その値も考慮に入れた幾何変換の決定を行う。本発明の位置合わせアルゴリズムでは、選択した線分ペアの最適な幾何変換を以下の4段階のステップを繰り返すことにより決定する。   However, as described above, when the line segment group obtained from each direction includes an allowable error and a sufficient number of line segments cannot be obtained, a line that corresponds well between the line segment groups from the two directions can be obtained. It is often difficult to find the minute pair itself. Therefore, in the present invention, at least two pairs of line segments to be selected are selected. However, it chooses so that a pair may not become parallel. Further, for example, a line segment that appears differently depending on the measurement direction, such as a line segment corresponding to a silhouette in the central axis direction of a thick cylinder, is not used as an object for alignment. Next, an evaluation value based on the correspondence relationship in the three-dimensional space of the line segment other than the selected line segment pair is also calculated, and the geometric transformation is determined in consideration of the value. In the alignment algorithm of the present invention, the optimal geometric transformation of the selected line segment pair is determined by repeating the following four steps.

ステップ A.初期位置設定 Step A. Initial position setting

ステップ B.回転移動変換の決定 Step B. Determination of rotational movement transformation

ステップ C.平行移動変換の決定 Step C. Determination of translation transformation

ステップ D.位置合わせ後の評価 Step D. Evaluation after alignment

また、ステップA、B、Cでは重み付けのパラメータ(後述)を持つ。そして、ステップDの評価に基づき、ステップAからステップDを繰り返すことで最適な重み付けのパラメータを求める。全ての幾何変換を決定した後はその幾何変換を用いて、二方向からの線分群の位置合わせを行う(ステップE)。 Steps A, B, and C have weighting parameters (described later). Based on the evaluation of step D, the optimum weighting parameters are obtained by repeating step A to step D. After all the geometric transformations are determined, the line segments are aligned from two directions using the geometric transformation (step E).

以下、図8のフローチャートに基づいて各工程を詳しく説明する。   Hereafter, each process is demonstrated in detail based on the flowchart of FIG.

STEP A:初期位置設定STEP A: Initial position setting

本実施例では最小二乗法により定式化された方程式の解法としてNewton法を利用する。しかしNewton法では、初期値によっては解が発散してしまうことがある。そこでこのテップでは、回転移動、及び平行移動の変換を決定する前処理としてN個のペアから二組選び、それらが近づくように初期位置を設定する。初期位置を設定することによって、解の発散を防ぐ。初期位置を設定するアルゴリズムは、二つの測定方向にそれぞれ右手系の座標軸を決定し、アフィン変換を適用して二つの座標軸を一致させる。   In the present embodiment, the Newton method is used as a method of solving an equation formulated by the least square method. However, in the Newton method, the solution may diverge depending on the initial value. Therefore, in this step, two sets are selected from the N pairs as preprocessing for determining the conversion of the rotational movement and the parallel movement, and the initial position is set so that they approach each other. Setting the initial position prevents solution divergence. The algorithm for setting the initial position determines right-handed coordinate axes in two measurement directions, and applies the affine transformation to match the two coordinate axes.

座標軸の決定手法は以下のように定義される。すなわち、一つの方向から測定した位置合わせに用いる二組の線分ペアDL、DLがそれぞれのる無限直線をDL(t)、DL(t)とする。このとき、座標軸の原点Gを2直線の交点、または最近点とする。そして、Y軸を直線DL(t)の傾きvとする。次にvと直線DL(t)の傾きvの外積の方向をZ軸とし、最後にvとZ軸との外積の方向をX軸とする。 The coordinate axis determination method is defined as follows. That is, the infinite straight lines formed by the two line segment pairs DL 1 and DL 2 used for alignment measured from one direction are defined as DL 1 (t) and DL 2 (t). At this time, the origin G of the coordinate axis is set to the intersection of two straight lines or the closest point. Then, the Y axis is set to the slope v 1 of the straight line DL 1 (t). Next, the direction of the outer product of v 1 and the slope v 2 of the straight line DL 2 (t) is taken as the Z axis, and finally the direction of the outer product of v 1 and the Z axis is taken as the X axis.

以上の操作を、もう一方の方向から得られた二つの線分に対しても行い、最後に各座標軸が一致するようにアフィン変換を行う。   The above operation is also performed on two line segments obtained from the other direction, and finally, affine transformation is performed so that the respective coordinate axes coincide.

STEP B:回転移動変換の決定  STEP B: Determination of rotational movement conversion

このステップBでは、位置合わせに選択した線分の各ペアがそれぞれ平行となるような変換を決定する。一方から測定したときのセンサの位置を原点とした座標系において、各軸の回転角度をR、R、Rとし、それぞれの回転行列を用いて回転移動を行う。 In this step B, conversion is determined so that each pair of line segments selected for alignment is parallel. In the coordinate system with the position of the sensor when measured from one point as the origin, the rotation angles of the respective axes are R x , R y , and R z, and rotational movement is performed using the respective rotation matrices.

選択した複数の線分ペアにおいて、一組の線分がのる無限直線をL(t)、L(t)とし、無限直線Lが通る点をPとする。無限直線L(t)とL(t)を平行にする場合を考える。上述したように、無限直線L(t)上の点PからL(t)までの距離はd(P、L(t))で表される。よって、回転後の線分の端点P'、P'からL(t)までの距離、及び点P'から遠くに離れた点P'、P'からL(t)までの距離を用いて式(2)、(3)を定義する。図9より二つの無限直線が平行である条件式は式(4)となる。

Figure 2006214893
Figure 2006214893
Figure 2006214893
In a plurality of selected line segment pairs, let L 1 (t) and L 2 (t) be an infinite straight line on which a set of line segments travel, and let P be a point through which the infinite straight line L 1 passes. Consider a case where the infinite straight lines L 1 (t) and L 2 (t) are parallel. As described above, the distance from the point P on the infinite line L 1 (t) to L 2 (t) is represented by d (P, L (t)). Therefore, the distance from the end points P ′ 1 and P ′ 2 to L 2 (t) of the line segment after rotation, and the points P ′ 3 and P ′ 4 to L 2 (t) far from the point P ′ 0 Equations (2) and (3) are defined using the distance to From FIG. 9, the conditional expression in which two infinite straight lines are parallel is expressed by Expression (4).
Figure 2006214893
Figure 2006214893
Figure 2006214893

よって、誤差評価関数ERは式(5)となる。

Figure 2006214893
Therefore, the error evaluation function ER is expressed by Equation (5).
Figure 2006214893

ただし、重み付けのパラメータαは式(6)を満たす。

Figure 2006214893
However, the weighting parameter α satisfies the equation (6).
Figure 2006214893

式(4)を最小にする変換を最小二乗法により求める。次の平行移動の変換を決定する場合にも、誤差評価関数を用いて同様に求める。   A transformation that minimizes the expression (4) is obtained by the least square method. When determining the conversion of the next translation, it is obtained in the same manner using the error evaluation function.

STEP C:平行移動変換の決定  STEP C: Determination of translational transformation

本ステップでは平行移動を行い、線分L1、L2がそれぞれのる無限直線L(t)、L(t)間の距離を最短にするような変換を決定する。平行移動量をT、T、Tとすると、変換後の点P'は次のようになる。

Figure 2006214893
In this step, translation is performed, and transformation is determined so as to minimize the distance between the infinite straight lines L 1 (t) and L 2 (t) on which the line segments L1 and L2 are respectively drawn. If the translation amounts are T x , T y , and T z , the converted point P ′ is as follows.
Figure 2006214893

図9に示すように、線分Lを平行移動した後の無限直線をL'(t)とする。上記と同様に、L'(t)上の点P'、P'、P'、P'を用いて、位置合わせに選択したペア間の距離が最小となる条件式は式(10)となる。

Figure 2006214893
Figure 2006214893
Figure 2006214893
As shown in FIG. 9, let L ′ 1 (t) be an infinite straight line after the line segment L 1 is translated. Similarly to the above, using the points P ′ 1 , P ′ 2 , P ′ 3 , and P ′ 4 on L ′ 1 (t), the conditional expression that minimizes the distance between the pairs selected for alignment is an expression: (10)
Figure 2006214893
Figure 2006214893
Figure 2006214893

よって、誤差評価関数ETは式(11)となる。

Figure 2006214893
Therefore, the error evaluation function ET is expressed by Equation (11).
Figure 2006214893

ただし、重み付けのパラメータβは式(12)を満たす。

Figure 2006214893
However, the weighting parameter β satisfies Expression (12).
Figure 2006214893

STEP D:位置合わせ後の評価  STEP D: Evaluation after alignment

位置合わせの各ステップでは重み付けのパラメータを用いており、位置合わせ後の線分を評価することにより設定する。   Each alignment step uses weighting parameters and is set by evaluating the line segment after alignment.

この評価ステップでは、まず初めに、位置合わせを行う二つの線分群から考えうる全てのペアについて、一組ずつ線分間を誤差評価する。このとき、各ステップで求めた幾何変換に対応する誤差評価値の総和を、式(13)で定義されるEとする。

Figure 2006214893
In this evaluation step, first, for each pair that can be considered from the two line segment groups to be aligned, the line segment is evaluated for error one by one. At this time, the sum of the error evaluation values corresponding to the geometric transformation obtained in each step is defined as E defined by Expression (13).
Figure 2006214893

そして、誤差評価値の総和Eを基に、以下の二つの基準値を用いて位置合わせ後の線分を評価する。   Based on the sum E of error evaluation values, the line segment after alignment is evaluated using the following two reference values.

(1)考えうる全てのペアにおいて、一致するペアの総数(cnt)。ただし、ある一組のペアに対する誤差評価の総和E'が閾値EmAx以下であれば、そのペアが一致していると判断する。 (1) The total number of matching pairs (cnt) among all possible pairs. However, if the sum E ′ of error evaluations for a certain pair is equal to or less than the threshold EmAx, it is determined that the pair matches.

(2)上記で幾何変換を決定する際に、式(13)で定義される、位置合わせに用いたN組の線分ペアを誤差評価した総和E。 (2) A sum E obtained by performing error evaluation on the N line segment pairs used for alignment, which is defined by Expression (13) when determining the geometric transformation as described above.

重み付けパラメータの設定法  How to set weighting parameters

上記では重み付けのパラメータα、βを用いた。このパラメータの具体的な設定法としては、まず始めに、初期値として全パラメータの値を0.5とする。次に、パラメータα、βの順に、以下のアルゴリズムを繰り返し適用することにより、最適なパラメータ値を決定していく。なお、以下では、パラメータαについて記しているが、βについても同様である。   In the above, the weighting parameters α and β are used. As a specific setting method of this parameter, first, the values of all parameters are set to 0.5 as initial values. Next, the optimal parameter value is determined by repeatedly applying the following algorithm in the order of the parameters α and β. In the following, the parameter α is described, but the same applies to β.

(1) α=0.5として前記ステップA〜Dを一度行い、初期値となるE0とcnt0を導出する。 (1) Steps A to D are performed once with α = 0.5, and E0 and cnt0 that are initial values are derived.

(2) 式(14)、及び式(15)で定義されるαとαについて、一致するペア数cnt、cnt及び誤差評価値の総和E、Eを求める。ただし、Δαを刻み幅とし、kは反復回数である。

Figure 2006214893
Figure 2006214893
(2) For α 1 and α 2 defined by Equation (14) and Equation (15), the number of matching pairs cnt 1 and cnt 2 and the sum E 1 and E 2 of error evaluation values are obtained. However, Δα is a step size, and k is the number of iterations.
Figure 2006214893
Figure 2006214893

(3) 初期値であるcntと、(2)で求めたcnt、cntを比較し、最もペア数が多い場合のパラメータを選び、その値を新たな初期値とする。 (3) The initial value cnt 0 is compared with cnt 1 and cnt 2 obtained in (2), the parameter having the largest number of pairs is selected, and the value is set as a new initial value.

(4) もしも、初期値が更新されないか、α、αについて式(16)を満たす場合は終了し、そうでなければkを一つ増やし本節の処理(2)へ進む。

Figure 2006214893
(4) If the initial value is not updated or if the expression (16) is satisfied with respect to α 1 and α 2 , the process ends. Otherwise, k is incremented by one and the process proceeds to the process (2) in this section.
Figure 2006214893

ただし、σは微小値とする。   However, σ is a minute value.

幾何変換の出力Geometric transformation output

ついで、前記幾何変換出力部17が、前記位置合わせ処理部で求めた初期位置設定、回転移動変換及び平行移動変換を幾何変換として出力する。このことで、前記レンジセンサで取得した点群データを一つの三次元画像データとして統合することができる。なお、この実施形態においては、この幾何変換出力部17は、上記4つのレンジセンサで得た点群データを前記幾何変換で変換した後の三次元画像データを出力するようになっている。   Next, the geometric transformation output unit 17 outputs the initial position setting, the rotational movement transformation, and the translational transformation obtained by the alignment processing unit as a geometric transformation. Thus, the point cloud data acquired by the range sensor can be integrated as one 3D image data. In this embodiment, the geometric transformation output unit 17 outputs three-dimensional image data obtained by converting the point cloud data obtained by the four range sensors by the geometric transformation.

以下、その実施例を説明する。   Examples thereof will be described below.

1 計測環境1 Measurement environment

この実施例においては、岩手県盛岡市志波城跡にある、平成9年に復元が完成した外郭南門を計測した。復元された外郭南門は、奈良県奈良市にある平城身や跡朱雀門に次ぐ大規模な門であり、間口が15m、高さが11.1mある。   In this example, the south gate of the outer wall of Shiba Castle, Morioka City, Iwate Prefecture, which was restored in 1997, was measured. The restored south gate is a large gate next to Heijo and the Suzaku Gate in Nara City, Nara Prefecture, with a frontage of 15m and a height of 11.1m.

使用機器は、RIEGL社製のLMS-Z210を用いた。LMS−Z210の主なスペックは以下の通りである。   The equipment used was LMS-Z210 manufactured by RIEGL. The main specifications of LMS-Z210 are as follows.

測定距離範囲:2m〜350m   Measurement distance range: 2m to 350m

ラインスキャニング範囲:±40度   Line scanning range: ± 40 degrees

フレームスキャニング範囲:0度〜333度   Frame scanning range: 0 degrees to 333 degrees

2 測定データ2 Measurement data

レンジセンサは3種類の画像を出力することができる。レンジセンサから建造物までの距離をRGBで表示した距離画像。レーザを照射した点の光度反射強度をグレースケールで表示した受光強度画像。レーザ照射点のRGBを表示したカラー画像。また、レンジセンサは画像の各ピクセルに対応した3次元座標値を点群として出力することができる。   The range sensor can output three types of images. A distance image showing the distance from the range sensor to the building in RGB. Received light intensity image showing the intensity of reflected light at the point irradiated with laser in gray scale. Color image displaying RGB of laser irradiation point. The range sensor can output a three-dimensional coordinate value corresponding to each pixel of the image as a point cloud.

3 実験結果3 Experimental results

図10と図11では、外郭南門の表側を正面と右側から測定し、本実施形態で提案した特徴線を線分化する手法を適用した結果をそれぞれ示す。図中の黒線は線分である。   FIGS. 10 and 11 show the results of applying the method of measuring the front side of the south gate from the front and the right side and performing line segmentation on the feature lines proposed in this embodiment. The black line in the figure is a line segment.

線分化に用いた閾値は、Dis=2.0、R=1.0とした。図から分かるように、形状の輪郭や壁の端などのはっきりとした特徴線が線分化されている。   The threshold values used for line differentiation were Dis = 2.0 and R = 1.0. As can be seen from the figure, distinct feature lines such as the outline of the shape and the edge of the wall are differentiated.

図12(a)、(b)では、特徴線を線分化した後、最適化を適用する前後の例を示す。ただし、各線分は2次元画像上に逆変換した。図12(b)の点線で囲まれた領域に注目すると、線分の長さが増加しているのが分かる。   FIGS. 12A and 12B show examples before and after applying optimization after line segmentation of feature lines. However, each line segment was inversely transformed onto a two-dimensional image. When attention is paid to the area surrounded by the dotted line in FIG. 12B, it can be seen that the length of the line segment increases.

図10と図11に示した線分を用いて、位置合わせを行った結果を図13、図14に示す。ただし、一致すると予想されるペアが少なかったために、幾何変換を決定する際に用いたペアを二組とし、手動で選択した。図13では位置合わせ後の線分を示し、黒い線分、白い線分はそれぞれ正面と右側から測定したときの線分である。また、線が太い部分は選択した線分である。図14では位置合わせ後の点群を示した。位置合わせが完了するまでに約9秒かかった。   The results of alignment using the line segments shown in FIGS. 10 and 11 are shown in FIGS. However, since there were few pairs that were expected to match, two pairs were used for determining the geometric transformation and were manually selected. FIG. 13 shows line segments after alignment, and the black line segment and the white line segment are line segments when measured from the front and the right side, respectively. Also, the part where the line is thick is the selected line segment. FIG. 14 shows the point group after alignment. It took about 9 seconds to complete the alignment.

本発明では、複数方向から測定して得られた点群を位置合わせする手法を提案した。まず、点群を用いてエッジ検出を行い、特徴線をエッジ部分として抽出した。そして、その特徴線を3次元空間上で閾値を用いることにより、許容誤差を考慮した線分に変換した。また、線分はエッジ検出画像を用いて最適化した。最後に、位置が合うと予想される線分のペアを選択し、それらが最適な位置に移されるような幾何変換を自動的に求めることで位置合わせを実現した。位置合わせのアルゴリズムは初期位置設定、回転移動変換の決定、平行移動変換の決定、位置合わせ後の評価の4段階に分けられる。   In the present invention, a method for aligning point clouds obtained by measuring from a plurality of directions has been proposed. First, edge detection was performed using point clouds, and feature lines were extracted as edge portions. Then, the feature line is converted into a line segment in consideration of an allowable error by using a threshold value in a three-dimensional space. The line segment was optimized using the edge detection image. Finally, we selected a pair of line segments that are expected to be aligned and automatically obtained a geometric transformation that would move them to the optimal position. The alignment algorithm is divided into four stages: initial position setting, determination of rotational movement conversion, determination of parallel movement conversion, and evaluation after alignment.

なお、本発明は、上記一実施形態に限定されるものではなく、発明の要旨を変更しない範囲で種々変形可能である。   In addition, this invention is not limited to the said one Embodiment, A various deformation | transformation is possible in the range which does not change the summary of invention.

例えば、上記一実施形態では、線分ペアの自動選択するようにしているが、オペレータが位置合わせを行う特徴線となる線分を手動で決定するようにしてもよい。また、上記の例では、レンジセンサを4つ利用したが、これに限定されるものではなく、1つのレンジセンサを順に4つの場所に配置して画像を取得するようにしてもよい。また、数も4つに限定されず、2つ以上であればよい。   For example, in the above-described embodiment, the line segment pair is automatically selected. However, the line segment to be a characteristic line to be aligned by the operator may be manually determined. In the above example, four range sensors are used. However, the present invention is not limited to this, and one range sensor may be arranged in four places in order to acquire an image. Also, the number is not limited to four, and may be two or more.

本発明の一実施形態に係る機器構成を示す模式図。The schematic diagram which shows the apparatus structure which concerns on one Embodiment of this invention. 同じく、概略構成を示す模式図。Similarly, the schematic diagram which shows schematic structure. 同じく、処理を示すフローチャート。Similarly, the flowchart which shows a process. 同じく、Depth−Edge画像を示す図。The figure which shows a Depth-Edge image similarly. 同じく、連結ピクセルの方向を示す図。Similarly, the figure which shows the direction of a connection pixel. 同じく、不連続な線分の処理を説明するための模式図。Similarly, the schematic diagram for demonstrating the process of a discontinuous line segment. 同じく、線分の統合化の処理を説明するための模式図。Similarly, the schematic diagram for demonstrating the process of integration of a line segment. 同じく、点群同士の位置合わせを示すフローチャート。Similarly, the flowchart which shows the alignment of point groups. 同じく、2つの線分の位置合わせを説明するための模式図。Similarly, the schematic diagram for demonstrating alignment of two line segments. 同じく、特徴線の線分化を説明するための模式図。Similarly, the schematic diagram for demonstrating the line differentiation of the characteristic line. 同じく、特徴線の線分化を説明するための模式図。Similarly, the schematic diagram for demonstrating the line differentiation of the characteristic line. 同じく、線分の最適化を説明するための模式図。Similarly, the schematic diagram for demonstrating optimization of a line segment. 同じく、位置合わせ後の線分を示す模式図。Similarly, the schematic diagram which shows the line segment after alignment. 同じく、位置合わせ後の点群を示す模式図。Similarly, the schematic diagram which shows the point group after alignment.

符号の説明Explanation of symbols

1…撮像対象物
2a〜2d…第1〜第4のレンジセンサ
4…対象物撮像システム
5…CPU
6…RAM
7…レンジセンサ用IF
8…入出力デバイス
9…バス
10…プログラム格納部
11…データ格納部
12…基本プログラム
13…点群データ取得部
14…特徴線取得部
15…特徴線処理部
16…位置合わせ処理部
17…幾何変換出力部
DESCRIPTION OF SYMBOLS 1 ... Imaging object 2a-2d ... 1st-4th range sensor 4 ... Object imaging system 5 ... CPU
6 ... RAM
7 ... IF for range sensor
DESCRIPTION OF SYMBOLS 8 ... Input / output device 9 ... Bus 10 ... Program storage part 11 ... Data storage part 12 ... Basic program 13 ... Point cloud data acquisition part 14 ... Feature line acquisition part 15 ... Feature line processing part 16 ... Registration processing part 17 ... Geometric Conversion output section

Claims (8)

a) レンジセンサを用い、異なる複数の方向から対象物を計測し、夫々について対象物の測定点までの奥行き方向の距離の情報を含む点群データを生成する工程と、
b) 前記各点群データを処理し、隣り合う点同士の奥行き方向の距離の差が所定以上の点群を連結してエッジとして検出する工程と、
c) 前記エッジを特徴線に変換する工程と、
d) 前記各点群データを、前記検出した特徴線を用いて位置合わせすることで、前記対象物の幾何変換を出力する工程と、
を有することを特徴とする対象物測定方法。
a) using a range sensor to measure an object from a plurality of different directions, and generating point cloud data including information on the distance in the depth direction to the measurement point of the object for each;
b) processing each of the point group data, and connecting the point groups having a distance difference between adjacent points in the depth direction of a predetermined value or more to detect them as edges;
c) converting the edge into a feature line;
d) outputting the geometric transformation of the object by aligning the point cloud data using the detected feature line;
The object measuring method characterized by having.
請求項1記載の方法において、
前記(c)工程は、複数のエッジが、ある直線に対して閾値以内で一致する場合には、それらのエッジを統合化して1本の特徴線に変換するものである
ことを特徴とする方法。
The method of claim 1, wherein
In the step (c), when a plurality of edges coincide with a certain straight line within a threshold value, the edges are integrated and converted into one feature line. .
請求項1記載の方法において、
前記(d)工程は、
2方向から取得したそれぞれの特徴線の集合に対して、同一の位置における特徴線であるかどうかを探索する工程と、
前記で得られた特徴線のペアから、位置合わせのための幾何変換を演算する工程と、
を有することを特徴とする方法。
The method of claim 1, wherein
The step (d)
Searching for feature lines at the same position for each set of feature lines acquired from two directions;
Calculating a geometric transformation for alignment from the pair of feature lines obtained above;
A method characterized by comprising:
請求項1記載の方法において、
前記(d)工程は、前記異なる複数の方向から計測した対象物のデータに、前記幾何変換を適用して三次元形状データを生成する工程を有するものであることを特徴とする方法。
The method of claim 1, wherein
The method (d) includes a step of generating three-dimensional shape data by applying the geometric transformation to data of an object measured from the plurality of different directions.
コンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラムであって、
記憶媒体と、
この記憶媒体に格納され、前記コンピュータシステムに、レンジセンサを用い異なる複数の方向から対象物を計測された情報に基づいて、対象物の測定点までの奥行き方向の距離の情報を含む点群データを生成させる点群データ取得部と、
この記憶媒体に格納され、前記コンピュータシステムに、前記各点群データを処理させ、隣り合う点同士の奥行き方向の距離の差が所定以上の点群を連結してエッジとして検出させる特徴線取得部と、
この記憶媒体に格納され、前記コンピュータシステムに、前記エッジを特徴線に変換させる特徴線処理部と、
この記憶媒体に格納され、前記コンピュータシステムに、前記各点群データを、前記検出した特徴線を用いて位置合わせすることで、前記対象物の幾何変換を出力させる幾何変換出力部と、
を有することを特徴とするコンピュータソフトウエアプログラム。
A computer software program for measuring a three-dimensional shape of an object using a computer system,
A storage medium;
Point cloud data stored in this storage medium and including information on the distance in the depth direction to the measurement point of the object based on information obtained by measuring the object from a plurality of directions using a range sensor in the computer system A point cloud data acquisition unit for generating
Feature line acquisition unit that is stored in this storage medium, causes the computer system to process each point cloud data, and connects point clouds that have a difference in distance in the depth direction between adjacent points to be detected as an edge. When,
A feature line processing unit stored in the storage medium and causing the computer system to convert the edge into a feature line;
A geometric transformation output unit that is stored in the storage medium and outputs the geometric transformation of the object by aligning the point cloud data with the detected feature line in the computer system;
A computer software program characterized by comprising:
請求項5記載のコンピュータソフトウエアプログラムにおいて、
前記特徴線取得部は、複数のエッジが、ある直線に対して閾値以内で一致する場合には、それらのエッジを統合化して1本の特徴線に変換するものである
ことを特徴とするコンピュータソフトウエアプログラム。
The computer software program according to claim 5, wherein
The feature line acquisition unit, when a plurality of edges match a certain straight line within a threshold value, integrates the edges and converts them into one feature line. Software program.
請求項5記載のコンピュータソフトウエアプログラムにおいて、
前記幾何変換出力部は、
2方向から取得したそれぞれの特徴線の集合に対して、同一の位置における特徴線であるかどうかを探索し、得られた特徴線のペアから、位置合わせのための幾何変換を演算するものであることを特徴とするコンピュータソフトウエアプログラム。
The computer software program according to claim 5, wherein
The geometric transformation output unit includes:
For each set of feature lines acquired from two directions, a search is made as to whether or not the feature lines are at the same position, and a geometric transformation for alignment is calculated from the obtained pair of feature lines. A computer software program characterized by being.
請求項5記載のコンピュータソフトウエアプログラムにおいて、
前記幾何変換出力部は、前記異なる複数の方向から計測した対象物のデータに、前記幾何変換を適用して三次元形状データを生成する工程を有するものであることを特徴とするコンピュータソフトウエアプログラム。
The computer software program according to claim 5, wherein
The geometric transformation output unit includes a step of generating three-dimensional shape data by applying the geometric transformation to data of an object measured from a plurality of different directions. .
JP2005028425A 2005-02-04 2005-02-04 Computer software program for measuring three-dimensional shape of object using object measuring method and computer system Pending JP2006214893A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005028425A JP2006214893A (en) 2005-02-04 2005-02-04 Computer software program for measuring three-dimensional shape of object using object measuring method and computer system
PCT/JP2006/301422 WO2006082773A1 (en) 2005-02-04 2006-01-30 Object measurement method and computer software program for measuring 3-dimensional shape of object by using computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005028425A JP2006214893A (en) 2005-02-04 2005-02-04 Computer software program for measuring three-dimensional shape of object using object measuring method and computer system

Publications (1)

Publication Number Publication Date
JP2006214893A true JP2006214893A (en) 2006-08-17

Family

ID=36777157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005028425A Pending JP2006214893A (en) 2005-02-04 2005-02-04 Computer software program for measuring three-dimensional shape of object using object measuring method and computer system

Country Status (2)

Country Link
JP (1) JP2006214893A (en)
WO (1) WO2006082773A1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113197A (en) * 2009-11-25 2011-06-09 Kddi Corp Method and system for image search
JP2012516493A (en) * 2009-01-27 2012-07-19 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Depth and video coprocessing
WO2012141235A1 (en) * 2011-04-13 2012-10-18 株式会社トプコン Three-dimensional point group position data processing device, three-dimensional point group position data processing system, three-dimensional point group position data processing method and program
JP2013064688A (en) * 2011-09-20 2013-04-11 Pasuko:Kk Data analyzer, data analysis method, and program
KR20140043379A (en) * 2011-06-06 2014-04-09 마이크로소프트 코포레이션 Object digitization
JP2015018360A (en) * 2013-07-10 2015-01-29 株式会社Ihi Analyzer
JP2015079518A (en) * 2008-12-29 2015-04-23 コグネックス・コーポレイション System and method for three-dimensional alignment of object using machine vision
JP2018147065A (en) * 2017-03-02 2018-09-20 株式会社トプコン Point cloud data processing device, point cloud data processing method, and point cloud data processing program
WO2020049676A1 (en) * 2018-09-06 2020-03-12 日本電気株式会社 Processing device, system, method, and non-transitory computer-readable medium
JP2020530569A (en) * 2017-08-11 2020-10-22 ズークス インコーポレイテッド Vehicle sensor calibration and positioning

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017006577A1 (en) * 2015-07-03 2017-01-12 三菱電機株式会社 Device for selecting three-dimensional point group, and method for selecting three-dimensional point group

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3178205B2 (en) * 1993-12-20 2001-06-18 ミノルタ株式会社 Image input system
JP3984346B2 (en) * 1997-12-26 2007-10-03 コニカミノルタホールディングス株式会社 Imaging apparatus and image composition method
JP2004265396A (en) * 2003-02-13 2004-09-24 Vingo:Kk Image forming system and image forming method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004533A (en) * 2008-12-29 2017-01-05 コグネックス・コーポレイション System and method for three-dimensional alignment of objects using machine vision
JP2015079518A (en) * 2008-12-29 2015-04-23 コグネックス・コーポレイション System and method for three-dimensional alignment of object using machine vision
US8780172B2 (en) 2009-01-27 2014-07-15 Telefonaktiebolaget L M Ericsson (Publ) Depth and video co-processing
JP2012516493A (en) * 2009-01-27 2012-07-19 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Depth and video coprocessing
JP2011113197A (en) * 2009-11-25 2011-06-09 Kddi Corp Method and system for image search
JP6030549B2 (en) * 2011-04-13 2016-11-24 株式会社トプコン 3D point cloud position data processing apparatus, 3D point cloud position data processing system, 3D point cloud position data processing method and program
US9053547B2 (en) 2011-04-13 2015-06-09 Kabushiki Kaisha Topcon Three-dimensional point cloud position data processing device, three-dimensional point cloud position data processing system, and three-dimensional point cloud position data processing method and program
JPWO2012141235A1 (en) * 2011-04-13 2014-07-28 株式会社トプコン 3D point cloud position data processing apparatus, 3D point cloud position data processing system, 3D point cloud position data processing method and program
WO2012141235A1 (en) * 2011-04-13 2012-10-18 株式会社トプコン Three-dimensional point group position data processing device, three-dimensional point group position data processing system, three-dimensional point group position data processing method and program
KR20190118207A (en) * 2011-06-06 2019-10-17 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Object digitization
KR102121707B1 (en) * 2011-06-06 2020-06-10 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Object digitization
KR20140043379A (en) * 2011-06-06 2014-04-09 마이크로소프트 코포레이션 Object digitization
US10460445B2 (en) 2011-06-06 2019-10-29 Microsoft Technology Licensing, Llc Object digitization
KR102031302B1 (en) * 2011-06-06 2019-10-11 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Object digitization
JP2013064688A (en) * 2011-09-20 2013-04-11 Pasuko:Kk Data analyzer, data analysis method, and program
JP2015018360A (en) * 2013-07-10 2015-01-29 株式会社Ihi Analyzer
JP2018147065A (en) * 2017-03-02 2018-09-20 株式会社トプコン Point cloud data processing device, point cloud data processing method, and point cloud data processing program
JP2020530569A (en) * 2017-08-11 2020-10-22 ズークス インコーポレイテッド Vehicle sensor calibration and positioning
JP7196156B2 (en) 2017-08-11 2022-12-26 ズークス インコーポレイテッド Vehicle sensor calibration and localization
WO2020049676A1 (en) * 2018-09-06 2020-03-12 日本電気株式会社 Processing device, system, method, and non-transitory computer-readable medium
JPWO2020049676A1 (en) * 2018-09-06 2021-08-12 日本電気株式会社 Processing equipment, systems, methods and programs
JP7060100B2 (en) 2018-09-06 2022-04-26 日本電気株式会社 Processing equipment, systems, methods and programs

Also Published As

Publication number Publication date
WO2006082773A1 (en) 2006-08-10

Similar Documents

Publication Publication Date Title
JP2006214893A (en) Computer software program for measuring three-dimensional shape of object using object measuring method and computer system
AU2018212700B2 (en) Apparatus, method, and system for alignment of 3D datasets
Yang et al. Automated registration of dense terrestrial laser-scanning point clouds using curves
Lee et al. Skeleton-based 3D reconstruction of as-built pipelines from laser-scan data
Jafari et al. Deformation tracking in 3D point clouds via statistical sampling of direct cloud-to-cloud distances
Garcia et al. A combined temporal tracking and stereo-correlation technique for accurate measurement of 3D displacements: application to sheet metal forming
Zhang et al. A 3D reconstruction method for pipeline inspection based on multi-vision
JP2011179910A (en) Device and method for measuring position and attitude, and program
Zhang et al. A modified method of discontinuity trace mapping using three-dimensional point clouds of rock mass surfaces
Eo et al. Coregistration of terrestrial lidar points by adaptive scale-invariant feature transformation with constrained geometry
Hu et al. An automatic 3D registration method for rock mass point clouds based on plane detection and polygon matching
JP2016217941A (en) Three-dimensional evaluation device, three-dimensional data measurement system and three-dimensional measurement method
JP7306192B2 (en) Synthesis processing device, synthesis processing system, and synthesis processing method
JP2001067463A (en) Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
Baráth et al. Optimal multi-view surface normal estimation using affine correspondences
Li et al. Laplacian fusion approach of multi-source point clouds for detail enhancement
Junior et al. A new variant of the ICP algorithm for pairwise 3D point cloud registration
Gonzalez-Aguilera et al. From point cloud to CAD models: Laser and optics geotechnology for the design of electrical substations
Verykokou et al. A Comparative analysis of different software packages for 3D Modelling of complex geometries
Shen et al. A 3D modeling method of indoor objects using Kinect sensor
Zhong et al. Triple screening point cloud registration method based on image and geometric features
Zhao et al. Intelligent segmentation method for blurred cracks and 3D mapping of width nephograms in concrete dams using UAV photogrammetry
JP2011022084A (en) Device and method for measuring three-dimensional pose
Zhang et al. Automatic measurement of industrial sheetmetal parts with CAD data and non-metric image sequence
JP5620741B2 (en) Information processing apparatus, information processing method, and program