JP2012230594A - Three-dimensional point group position data processor, three-dimensional point group position data processing method, three-dimensional point group position data processing system, and program - Google Patents
Three-dimensional point group position data processor, three-dimensional point group position data processing method, three-dimensional point group position data processing system, and program Download PDFInfo
- Publication number
- JP2012230594A JP2012230594A JP2011099207A JP2011099207A JP2012230594A JP 2012230594 A JP2012230594 A JP 2012230594A JP 2011099207 A JP2011099207 A JP 2011099207A JP 2011099207 A JP2011099207 A JP 2011099207A JP 2012230594 A JP2012230594 A JP 2012230594A
- Authority
- JP
- Japan
- Prior art keywords
- position data
- dimensional
- point cloud
- unit
- cloud position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 117
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000005259 measurement Methods 0.000 claims description 71
- 238000002372 labelling Methods 0.000 claims description 62
- 230000006870 function Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 230000010354 integration Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 64
- 230000008569 process Effects 0.000 description 35
- 238000004364 calculation method Methods 0.000 description 33
- 239000013598 vector Substances 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000010365 information processing Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Abstract
Description
測定対象物の三次元点群位置データから三次元形状を生成する技術が知られている。三次元点群位置データでは、二次元画像と三次元座標とが結び付けられている。すなわち、三次元点群位置データでは、測定対象物の二次元画像のデータと、この二次元画像に対応付けされた複数の測定点(点群)と、この複数の測定点の三次元空間中の位置(三次元座標)とが関連付けされている。三次元点群位置データによれば、点の集合により測定対象物の外形を再現した三次元モデルを得ることができる。また、各点の三次元座標が判るので、各点の三次元空間中における相対位置関係が把握でき、画面表示した三次元モデルの画像を回転させたり、異なる視点から見た画像に切り替えたりする処理が可能となる。 A technique for generating a three-dimensional shape from three-dimensional point cloud position data of a measurement object is known. In the three-dimensional point cloud position data, a two-dimensional image and a three-dimensional coordinate are linked. That is, in the three-dimensional point cloud position data, the data of the two-dimensional image of the measurement object, a plurality of measurement points (point cloud) associated with the two-dimensional image, and the three-dimensional space of the plurality of measurement points in the three-dimensional space. Are associated with each other (three-dimensional coordinates). According to the three-dimensional point cloud position data, it is possible to obtain a three-dimensional model that reproduces the outer shape of the measurement object using a set of points. In addition, since the three-dimensional coordinates of each point are known, the relative positional relationship of each point in the three-dimensional space can be grasped, and the image of the three-dimensional model displayed on the screen can be rotated or switched to an image viewed from a different viewpoint. Processing is possible.
例えば、特許文献1に記載の発明では、走査レーザー装置が三次元対象を走査して、ポイントクラウドを生成する。ポイントクラウドは、走査点に関する深さと法線の変化に基づいて、エッジポイントと非エッジポイントのグループに分割される。各グループを幾何学的原図にフィットさせ、フィットした幾何学的原図を拡張、交差させることで、三次元形状を生成する。
For example, in the invention described in
特許文献2に記載の発明では、三次元点群位置データからセグメント(三角ポリゴン)を形成し、隣接するポリゴン同士の連続性、法線方向、または距離に基づき、エッジおよび面を抽出する。また、各セグメントの三次元点群位置データの平面性または曲面性を、最小二乗法を用いて、平面方程式または曲面方程式に置き換え、グループ分けを行い、三次元形状を生成する。
In the invention described in
特許文献3に記載の発明では、三次元点群位置データに対して二次元矩形領域を設定し、その矩形領域に対応する測定点の合成法線ベクトルを求める。そして合成法線ベクトルがZ軸方向と一致するように、矩形領域内の全ての計測点を回転移動する。更に矩形領域内の各計測点についてZ値の標準偏差σを求め、標準偏差σが所定値を超えた場合、矩形領域の中心点と対応する計測点をノイズとして取り扱う。
In the invention described in
三次元点群位置データの点の数は、数万点〜数億点にもなる。そのため、取得した三次元点群位置データを処理し、三次元モデルを作成するにはある程度の時間が必要とされる。勿論、この処理時間は、使用する演算装置の性能、測定対象物の形状、求められる分解能等に依存するのであるが、一般的なパーソナルコンピュータを用いた場合、数時間以上を必要とする場合がある。この演算の最中は、どのような結果が得られるのか不明となるが、途中であっても概略のアウトラインだけでも知りたいというユーザの要望がある。また、三次元モデルが得られた段階で三次元点群位置データを取得する視点の設定が適切でなく、視点を変えて再度の三次元点群位置データの取得が必要となる場合があるが、この場合も最終結果に至る前に、解像度は悪くてもある程度のアウトラインが判る三次元モデルを見ることができれば、視点が適当でなかった旨が判る場合がある。このような場合、演算を最後まで行う前の段階で、この演算の妥当性がわかれば、無駄な処理を削減でき、作業を効率化することができる。このような背景において、本発明は、三次元点群位置データの処理の途中経過を知ることができる技術を提供することを目的とする。 The number of points of the three-dimensional point cloud position data is tens of thousands to hundreds of millions. Therefore, a certain amount of time is required to process the acquired 3D point cloud position data and create a 3D model. Of course, this processing time depends on the performance of the computing device used, the shape of the measurement object, the required resolution, etc., but when a general personal computer is used, it may require several hours or more. is there. During this calculation, it is unclear what kind of result will be obtained, but there is a user's desire to know only a rough outline even in the middle. In addition, when the 3D model is obtained, the viewpoint setting for acquiring 3D point cloud position data is not appropriate, and it may be necessary to change the viewpoint and acquire 3D point cloud position data again. Even in this case, if the 3D model can be seen with some outline even though the resolution is low, it may be found that the viewpoint is not appropriate before reaching the final result. In such a case, if the validity of this calculation is known at the stage before the calculation is performed to the end, useless processing can be reduced and the work efficiency can be improved. In such a background, an object of the present invention is to provide a technique capable of knowing the progress of processing of three-dimensional point cloud position data.
請求項1に記載の発明は、測定対象物の三次元点群位置データを取得する三次元点群位置データ取得部と、前記三次元点群位置データ取得部が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更部と、前記密度変更部で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去部と、前記非面領域除去部によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング部と、前記面ラベリング部によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成部とを備えることを特徴とする三次元点群位置データ処理装置である。
The invention according to
請求項1に記載の発明によれば、密度変更部において三次元点群位置データの密度が変更され、この密度が変更された三次元点群位置データに基づく三次元モデルの作成が行われる。演算の基礎データとなる三次元点群位置データの密度を下げることで、解像度は低下するが、三次元モデルの作成に要する処理の負担は軽減される。つまり、粗い三次元モデルとなるが、処理に要する時間は短縮される。よって、取得した三次元点群位置データの密度を下げ、それに基づく三次元モデルの作成を行うことで、三次元点群位置データの密度の変更を行わずに三次元モデルの作成を行う場合に比較して、より短い処理時間で三次元モデルを得ることができる。この機能を利用すると、最終的な三次元モデルが得られる前の段階で、低精度の三次元モデルをより短時間で得ることが可能となり、この低精度の三次元モデルをユーザに示すことで、ユーザは三次元点群位置データの処理の途中経過を知ることができる。また、この機能を利用すると、解像度を下げた階層を選択することで、低解像度は許容するが、短い処理時間で三次元モデルを得たい要求に応じることができる。 According to the first aspect of the present invention, the density changing unit changes the density of the three-dimensional point cloud position data, and creates a three-dimensional model based on the three-dimensional point cloud position data with the changed density. By reducing the density of the 3D point cloud position data, which is the basic data for the calculation, the resolution is reduced, but the processing load required for creating the 3D model is reduced. That is, a rough three-dimensional model is obtained, but the time required for processing is shortened. Therefore, when creating a 3D model without changing the density of the 3D point cloud position data by reducing the density of the acquired 3D point cloud position data and creating a 3D model based on it In comparison, a three-dimensional model can be obtained in a shorter processing time. By using this function, it is possible to obtain a low-accuracy 3D model in a shorter time before the final 3D model is obtained. By presenting this low-accuracy 3D model to the user, The user can know the progress of the processing of the 3D point cloud position data. In addition, if this function is used, low resolution is allowed by selecting a hierarchy with a reduced resolution, but it is possible to meet a request for obtaining a three-dimensional model in a short processing time.
請求項2に記載の発明は、請求項1に記載の発明において、前記密度変更部における密度の変更が2以上の階層で行われることを特徴とする。 According to a second aspect of the present invention, in the first aspect of the present invention, the density change in the density changing unit is performed in two or more layers.
請求項3に記載の発明は、請求項2に記載の発明において、前記密度変更部は、前記三次元モデルの作成に要する時間に基づき前記階層の数を決定することを特徴とする。解像度を落とさずに三次元モデルを作成した場合、基礎となる三次元点群位置データの密度が大きい(つまりデータ量が多い)ので、処理に要する時間は長くなる。他方で、解像度を落とした場合、基礎となる三次元点群位置データの密度が小さくなる(つまりデータ量が少なくなる)ので、処理に要する時間を短くできる。階層の数を多くした場合、より低解像度の三次元モデルの作成から処理が始められるので、1階層に係る処理時間は相対的に短くなる。したがって、1階層の処理に要する時間に基づいて、階層の数を決定することで、ユーザの要求に沿った処理が行われるように設定が行われる。
The invention according to
請求項4に記載の発明は、請求項1乃至3のいずれか一項に記載の発明において、前記三次元モデル作成部は、相対的に解像度の低い三次元モデルを作成した後に相対的に解像度の高い三次元モデルを作成することを特徴とする。
The invention according to
請求項4に記載の発明によれば、低解像度の三次元モデルの作成の後で高解像度の三次元モデルの作成が行われる。すなわち、段階的に解像度が高くなってゆく三次元モデルの作成が行われる。この解像度を段階的に上げた三次元モデルの作成においては、1段階(1階層)の処理に用いる三次元点群位置データの量を、この段階的な処理を行わない場合に比較して少なくできるので、1段階当たり(1階層あたり)の処理に要する時間を短縮することができる。このため、より早い段階で低解像度ではあるが三次元モデルを得ることができる。
According to the invention described in
請求項5に記載の発明は、請求項4に記載の発明において、前記三次元モデル作成部は、前記相対的に解像度の低い三次元モデルを作成した際に付与された前記同一ラベルの情報に基づき、前記相対的に解像度の高い三次元モデルの作成を行うことを特徴とする。 According to a fifth aspect of the present invention, in the fourth aspect of the present invention, the three-dimensional model creation unit uses the same label information given when the three-dimensional model having a relatively low resolution is created. Based on the above, a three-dimensional model having a relatively high resolution is created.
請求項5に記載の発明によれば、相対的に低解像度の階層において作成されたラベルのデータが、その下位にある相対的に高解像度の階層における処理に引き継がれる。つまり、粗いラベリングがまず行われ、次にこのラベリングのデータが引き継がれて、より細部のラベリングが行われる。こうすることで、処理の効率が高くなる。仮に、階層が変わる毎にラベリングを一から行う手順とした場合、高解像度の階層となるに従い処理の負担が増大し、最後の階層では、従来技術における処理と負担は変わらなくなる。 According to the fifth aspect of the present invention, the label data created in the relatively low resolution layer is taken over by the processing in the relatively high resolution layer below it. In other words, coarse labeling is performed first, and then the labeling data is taken over to perform more detailed labeling. By doing so, the processing efficiency is increased. Assuming that the labeling is performed from the beginning every time the layer changes, the processing load increases as the layer becomes a higher resolution layer, and the processing in the prior art does not change at the last layer.
請求項6に記載の発明は、請求項1乃至5のいずれか一項に記載の発明において、前記三次元モデルの画像を作成する三次元モデル画像作成部を更に備え、前記三次元モデル画像作成部は、前記相対的に解像度の低い三次元モデルの画像を作成した後に、前記相対的に解像度の高い三次元モデルの画像の作成を行うことを特徴とする。請求項6に記載の発明によれば、段階的に解像度が高くなる三次元モデルの画像の表示が行われるので、徐々に解像度が高くなる三次元モデルの状態をユーザが観察できる。
The invention according to
請求項7に記載の発明は、請求項6に記載の発明において、前記相対的に解像度の低い三次元モデルの画像を作成した後に、前記相対的に解像度の高い三次元モデルの作成を中止させる指示を受け付ける受付部を備えることを特徴とする。 According to a seventh aspect of the invention, in the sixth aspect of the invention, after the image of the relatively low-resolution three-dimensional model is created, the creation of the relatively high-resolution three-dimensional model is stopped. A reception unit that receives an instruction is provided.
請求項7に記載の発明によれば、最終的な高解像度の三次元モデルが作成される前の段階で処理を止めることができる。仮に、複数の段階を経ずにいきなり最終的な高解像度の三次元モデルが作成する処理とした場合、三次元モデルが得られた段階で視点の設定等の誤りに気付いても、既に処理は終了しているので、それまでの処理が無駄になる。これに対して、解像度を段階的に分けた処理で三次元モデルを得る方法では、演算量が少なくて済む低解像度の段階で誤りに気付き、その時点で処理を中止することで、無駄に行われる演算を減らすことができる。 According to the seventh aspect of the present invention, the processing can be stopped before the final high-resolution three-dimensional model is created. If the final high-resolution 3D model is created without going through multiple stages, even if you notice an error such as setting the viewpoint when the 3D model is obtained, Since it has been completed, the processing up to that point is wasted. On the other hand, in the method of obtaining a 3D model by dividing the resolution step by step, an error is noticed at the low resolution stage where the amount of calculation is small, and the processing is stopped at that point, and this is wastefully performed. Can be reduced.
請求項8に記載の発明は、請求項1乃至7のいずれか一項に記載の発明において、前記面ラベリング部によって区分けされた面同士の境界部分における三次元エッジを抽出する三次元エッジ抽出部と、前記面ラベリング部によって区分けされた面内から二次元エッジを抽出する二次元エッジ抽出部と、前記三次元エッジと前記二次元エッジを統合するエッジ統合部とを備えることを特徴とする。請求項8に記載の発明によれば、三次元モデルの作成が効率よく行われる。
The invention according to
請求項9に記載の発明は、請求項8に記載の発明において、隣接する面の間を繋ぐ境界領域面を形成する境界領域面形成部を更に備え、前記三次元エッジ抽出部は、前記境界領域面に基づいて三次元エッジの抽出を行うことを特徴とする。境界領域面を作成し、それに基づいて三次元エッジの抽出を行うことで、測定対象物の外観の特徴を精度良く再現した三次元モデルを作成することができる。
The invention according to claim 9 is the invention according to
請求項10に記載の発明は、請求項1乃至9のいずれか一項に記載の発明において、前記非面領域除去部は、複数の三次元点群位置データにより形成される局所面の平面へのフィッティング精度、曲率、他の局所面との共平面性の少なくとも一つに基づいて非面領域の除去を行うことを特徴とする。請求項10に記載の発明によれば、精度良く面の抽出を行うことができる。
A tenth aspect of the present invention is the invention according to any one of the first to ninth aspects, wherein the non-surface region removing unit is a plane of a local surface formed by a plurality of three-dimensional point group position data. The non-surface region is removed based on at least one of the fitting accuracy, curvature, and coplanarity with other local surfaces. According to the invention described in
請求項11に記載の発明は、請求項1乃至10のいずれか一項に記載の発明において、前記面ラベリング部によってラベルが付与されていない点に対して、最近傍面のラベルを付与し、前記ラベルを拡張するラベル拡張部をさらに備えることを特徴とする。ラベル拡張部でラベルを拡張することで、三次元モデルの完成度を高めることができる。
The invention according to claim 11 is the invention according to any one of
請求項12に記載の発明は、測定対象物の三次元点群位置データを取得する三次元点群位置データ取得ステップと、前記三次元点群位置データ取得ステップにおいて取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更ステップと、前記密度変更ステップで密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去ステップと、前記非面領域除去ステップにおいて除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリングステップと、 前記面ラベリングステップにおいて区分けされた面に基づき三次元モデルを作成する三次元モデル作成ステップとを有することを特徴とする三次元点群位置データ処理方法である。 The invention according to claim 12 is a three-dimensional point cloud position data acquisition step for acquiring three-dimensional point cloud position data of a measurement object, and the three-dimensional point cloud position acquired in the three-dimensional point cloud position data acquisition step. A density changing step of 3D point cloud position data for changing the density of the data, and a non-plane area removing step for removing points of the non-plane area from the 3D point cloud position data whose density has been changed in the density changing step; A surface labeling step for assigning the same label to points on the same surface with respect to points other than the points removed in the non-surface region removal step; and a three-dimensional model based on the surfaces divided in the surface labeling step. A three-dimensional point cloud position data processing method comprising: a three-dimensional model creation step for creating.
請求項13に記載の発明は、測定対象物の三次元点群位置データを取得する三次元点群位置データ取得手段と、前記三次元点群位置データ取得手段が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更手段と、前記密度変更手段で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去手段と、前記非面領域除去手段によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング手段と、前記面ラベリング手段によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成手段とを備えることを特徴とする三次元点群位置データ処理システムである。 The invention according to claim 13 is a three-dimensional point group position data acquisition unit that acquires three-dimensional point group position data of a measurement object, and the three-dimensional point group position acquired by the three-dimensional point group position data acquisition unit. 3D point cloud position data density changing means for changing data density, and non-plane area removing means for removing non-plane area points from the 3D point cloud position data whose density has been changed by the density changing means; The surface labeling means for assigning the same label to the points on the same surface with respect to the points other than the points removed by the non-surface area removing means, and the three-dimensional model based on the surface divided by the surface labeling means A three-dimensional point cloud position data processing system comprising a three-dimensional model creating means for creating.
請求項14に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを測定対象物の三次元点群位置データを取得する三次元点群位置データ取得部と、前記三次元点群位置データ取得部が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更部と、前記密度変更部で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去部と、前記非面領域除去部によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング部と、前記面ラベリング部によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成部として機能させることを特徴とするプログラムである。 The invention according to claim 14 is a program that is read and executed by a computer, the computer acquiring a three-dimensional point cloud position data acquisition unit for acquiring three-dimensional point cloud position data of the measurement object, and the three-dimensional point From the density changing unit of the 3D point cloud position data for changing the density of the 3D point cloud position data acquired by the group position data acquiring unit, and the 3D point cloud position data whose density has been changed by the density changing unit A non-surface area removing unit that removes points in the non-surface area; a surface labeling unit that gives the same label to points on the same surface with respect to points other than the points removed by the non-surface area removing unit; and It is a program characterized by functioning as a three-dimensional model creation unit that creates a three-dimensional model based on the surfaces classified by the surface labeling unit.
本発明によれば、三次元点群位置データの処理の途中経過を知ることができる技術が提供される。 ADVANTAGE OF THE INVENTION According to this invention, the technique which can know the progress in the middle of the process of 3D point cloud position data is provided.
1.第1の実施形態
(構成)
以下、発明を利用した三次元点群位置データ処理装置の一例について、図面を参照して説明する。なお以下の説明において、三次元点群位置データは、測定対象物の各測定点における三次元座標データを含んでいる。三次元座標を表示する座標系は、直交座標系または極座標系が採用される。
1. First embodiment (configuration)
Hereinafter, an example of a three-dimensional point cloud position data processing apparatus using the invention will be described with reference to the drawings. In the following description, the three-dimensional point cloud position data includes three-dimensional coordinate data at each measurement point of the measurement object. An orthogonal coordinate system or a polar coordinate system is adopted as a coordinate system for displaying three-dimensional coordinates.
図1には、三次元点群位置データ処理装置100が示されている。三次元点群位置データ処理装置100は、測定対象物の三次元点群位置データに基づいて当該測定対象物の三次元モデルを作成する機能を有している。三次元点群位置データ処理装置100は、パーソナルコンピュータ上においてソフトウェア的に構成されている。三次元点群位置データ処理装置100をパーソナルコンピュータ上で構成するプログラムは、パーソナルコンピュータ中にインストールされている。なお、このプログラムは、サーバや適当な記録媒体に記録しておき、そこから提供される形態であってもよい。
FIG. 1 shows a three-dimensional point cloud position
利用されるパーソナルコンピュータは、キーボートやタッチパネルディスプレイ等の操作入力部、液晶ディスプレイ等の画像表示装置、操作入力機能と画像表示機能を統合したユーザインターフェースであるGUI(グラフィカル・ユーザ・インターフェース)機能部、CPUおよびその他専用の演算デバイス、半導体メモリ、ハードディスク記憶部、光ディスク等の記憶媒体との間で情報のやり取りを行えるディスク記憶装置駆動部およびそのインターフェース部、USBメモリ等の携帯型記憶媒体との間で情報のやり取りを行えるインターフェース部、無線通信や有線通信を行う通信インターフェース部を必要に応じて備えている。なお、パーソナルコンピュータとしては、ノート型、携帯型、卓上型等の形態が挙げられるが、その形態は限定されない。また、汎用のパーソナルコンピュータを利用する以外に、専用のコンピュータを用意することもできる。また、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのPLD(Programmable Logic Device)等を用いて構成した専用のハードウェアによって三次元点群位置データ処理装置100を構成することも可能である。
The personal computer used is an operation input unit such as a keyboard or a touch panel display, an image display device such as a liquid crystal display, a GUI (graphical user interface) function unit which is a user interface integrating the operation input function and the image display function, Between a CPU and other dedicated arithmetic devices, semiconductor memory, hard disk storage unit, disk storage device drive unit capable of exchanging information with a storage medium such as an optical disk, and its interface unit, portable storage medium such as a USB memory As necessary, an interface unit that can exchange information and a communication interface unit that performs wireless communication and wired communication are provided. The personal computer may be a notebook type, a portable type, a desktop type, or the like, but the form is not limited. In addition to using a general-purpose personal computer, a dedicated computer can be prepared. In addition, the 3D point cloud position
三次元点群位置データ処理装置100には、測定対象物の三次元点群位置データの測定を行うレーザースキャナが接続される。このレーザースキャナが測定した三次元点群位置データが三次元点群位置データ処理装置100に入力される。なお、複数の視点から同一測定対象物の三次元点群位置データを取得し、それを統合しての三次元モデルの作成も可能である。この場合、複数の視点から得られた三次元点群位置データを統合したものを対象として処理が行われる。
Connected to the three-dimensional point cloud position
レーザースキャナは、測定対象物にレーザー光を照射し、その反射光を受光することで、レーザースキャナの設置位置(視点)から測定点までの距離、方位、仰角(または俯角)の情報を取得し、これらの情報に基づき、測定点の三次元位置座標に係る情報を算出する。また、レーザースキャナは、測定点からの反射光の強度、色、色相、彩度等に関する情報を取得する。レーザースキャナはこれらの情報に基づき、三次元座標値を含む点群位置データを算出し、それを三次元点群位置データ処理装置100に出力する。レーザースキャナの詳細な構成の一例は後述する、三次元点群位置データを取得する方法としては、レーザースキャナを用いる方法以外に、画像処理ソフトウェアを用いて立体写真画像から三次元点群位置データを抽出する方法を採用することもできる。
The laser scanner irradiates the measurement target with laser light and receives the reflected light to obtain information on the distance, azimuth, and elevation (or depression) from the laser scanner installation position (viewpoint) to the measurement point. Based on these pieces of information, information related to the three-dimensional position coordinates of the measurement point is calculated. Further, the laser scanner acquires information on the intensity, color, hue, saturation, etc. of the reflected light from the measurement point. Based on these pieces of information, the laser scanner calculates point cloud position data including three-dimensional coordinate values, and outputs it to the three-dimensional point cloud position
図1に示す三次元点群位置データ処理装置100は、三次元点群位置データ取得部101、解像度設定部102、三次元モデル作成部103、三次元モデル画像作成部104を備えている。三次元点群位置データ処理装置100には、三次元点群位置データ処理装置100を構成するパーソナルコンピュータが備える操作入力部106および画像表示装置(例えば、液晶ディスプレイ)105が接続されている。
The 3D point cloud position
三次元点群位置データ取得部101は、上述したレーザースキャナからの三次元点群位置データを取得する。なお、レーザースキャナの出力に基づき、三次元点群位置データ取得部101において三次元点群位置データの算出を行う形態も可能である。解像度設定部102は、三次元点群位置データの密度変更部の一例であり、三次元点群位置データに基づいて作成される三次元モデルの解像度の設定を行う。解像度の設定を行うための操作は、操作入力部106がユーザによって操作されることで行われる。解像度の設定は、処理の対象となる三次元点群位置データの密度を変更することで行われる。 The three-dimensional point group position data acquisition unit 101 acquires three-dimensional point group position data from the laser scanner described above. Note that a mode in which the 3D point cloud position data acquisition unit 101 calculates the 3D point cloud position data based on the output of the laser scanner is also possible. The resolution setting unit 102 is an example of a density changing unit for 3D point cloud position data, and sets the resolution of a 3D model created based on the 3D point cloud position data. The operation for setting the resolution is performed by operating the operation input unit 106 by the user. The resolution is set by changing the density of the 3D point cloud position data to be processed.
以下、解像度の設定について説明する。図2には、2次元的に分布した○で示される三次元点群位置データの分布の状態が概念的に示されている。図2には、2次元格子上で三次元点群データが分布している状態が示されている。図3には、図2の三次元点群位置データにおいて、解像度の階層が3階層に設定されている場合が示されている。図3において、三次元モデルの作成に際して、●の部分の三次元点群位置データが三次元モデルの作成に利用され、○の部分の三次元点群位置データは利用されない。 The resolution setting will be described below. FIG. 2 conceptually shows the distribution state of the three-dimensional point cloud position data indicated by ◯ distributed two-dimensionally. FIG. 2 shows a state in which three-dimensional point cloud data is distributed on a two-dimensional grid. FIG. 3 shows a case where the resolution layer is set to three layers in the three-dimensional point cloud position data of FIG. In FIG. 3, when creating the 3D model, the 3D point cloud position data of the portion ● is used for creating the 3D model, and the 3D point cloud position data of the portion ○ is not used.
図3(A)には、解像度が最も低い場合が示され、図3(B)には、解像度が中位の場合が示され、図3(C)には、解像度が最も高い場合が示されている。すなわち、図3(A)には、サンプリングの対象となる三次元点群位置データの密度が最も低い場合が示され、図3(B)には、サンプリングの対象となる三次元点群位置データの密度が中位である場合が示され、図3(C)には、サンプリングの対象となる三次元点群位置データの密度が最も高い場合が示されている。図3において、点数比というのは、図3(C)の状態の三次元点群位置データに対する三次元点群位置データの数の比である。図3に示すように、点数比が小さい程、利用される三次元点群位置データの密度は低くなり、それに対応して解像度は低くなる。これは、基礎とする三次元点群位置データの密度が低くなると、画素が粗くなり、細かい部分を再現する精度が低下するからである。なお、第n層(nは自然数)の点数比は、下記数1によって表される。
FIG. 3A shows the case where the resolution is the lowest, FIG. 3B shows the case where the resolution is medium, and FIG. 3C shows the case where the resolution is the highest. Has been. That is, FIG. 3A shows a case where the density of 3D point group position data to be sampled is the lowest, and FIG. 3B shows 3D point group position data to be sampled. The case where the density of the three-dimensional point cloud position data to be sampled is the highest is shown in FIG. 3C. In FIG. 3, the point ratio is the ratio of the number of 3D point cloud position data to the 3D point cloud position data in the state of FIG. As shown in FIG. 3, the smaller the point ratio, the lower the density of the three-dimensional point cloud position data used, and the correspondingly lower the resolution. This is because if the density of the basic three-dimensional point cloud position data is low, the pixels become coarse and the accuracy of reproducing fine portions is reduced. The score ratio of the nth layer (n is a natural number) is expressed by the following
図3(A)の場合に比較して、図3(B)の場合は利用される三次元点群位置データの密度が高いので、得られる三次元モデルの解像度(精度)は高くなる。図3(C)の場合は、利用される三次元点群位置データの密度が更に高くなるので、得られる三次元モデルの解像度(精度)は更に高くなる。図1の解像度設定部102は、図3に例示する解像度の設定を行う。 Compared to the case of FIG. 3A, the density of the three-dimensional point cloud position data used is higher in the case of FIG. 3B, so the resolution (accuracy) of the obtained three-dimensional model is higher. In the case of FIG. 3C, since the density of the three-dimensional point cloud position data used is further increased, the resolution (accuracy) of the obtained three-dimensional model is further increased. The resolution setting unit 102 in FIG. 1 sets the resolution exemplified in FIG.
図3には、階層を上げる毎に(解像度を下げる毎に)、三次元点群位置データを間引き、利用する三次元点群位置データの密度を低下させる手法が記載されている。この方法と同様の効果を得る方法として、複数の三次元点群位置データの平均値を代表値として採用し、この代表値によって第0層に対して解像度を落とした三次元点群位置データを構成する方法も採用できる。例えば、第2層の階層において、5×5画素の三次元点群位置データの平均値をこの5×5画素の領域における三次元点群位置データの代表値として採用し、次いで第1層の階層において、3×3画素の三次元点群位置データの平均値をこの3×3画素の領域における三次元点群位置データの代表値として採用し、といった方法で、三次元点群位置データの密度を設定する方法も可能である。また、図3には、解像度の設定を3階層(3段階)に設定した場合が示されているが、階層の数は、2以上が可能であり、4階層や5階層、あるいはそれ以上であってもよい。 FIG. 3 describes a method of thinning out the 3D point cloud position data and reducing the density of the 3D point cloud position data to be used each time the hierarchy is raised (every time the resolution is lowered). As a method for obtaining the same effect as this method, an average value of a plurality of three-dimensional point cloud position data is adopted as a representative value, and the three-dimensional point cloud position data obtained by reducing the resolution with respect to the 0th layer by the representative value is obtained. A configuration method can also be adopted. For example, in the second layer, the average value of the 3D point cloud position data of 5 × 5 pixels is adopted as the representative value of the 3D point cloud position data in the 5 × 5 pixel region, and then the first layer In the hierarchy, the average value of the 3D point cloud position data of 3 × 3 pixels is adopted as a representative value of the 3D point cloud position data in the 3 × 3 pixel region, and the 3D point cloud position data A method of setting the density is also possible. FIG. 3 shows a case where the resolution setting is set to three layers (three levels). However, the number of layers can be two or more, and can be four layers, five layers, or more. There may be.
図1に戻り、三次元点群位置データ処理装置100は、三次元モデル作成部103を備えている。三次元モデル作成部103は、非面領域の算出、非面領域の除去、ラベリング処理、輪郭線等の特徴部分の算出、輪郭線により構成される三次元モデルの作成、およびこれらに関連した演算を行う。三次元モデルというのは、測定対象物の輪郭線を線図として表現した測定対象物の三次元構造を視覚化した画像である。輪郭線というのは、測定対象物の三次元エッジであり、測定対象物の外観を視覚的に把握するために必要な、当該測定対象物の外形を形作っている線(outline)のことである。具体的には、折れ曲がった部分や急激に曲率が小さくなっている部分が輪郭線となる。輪郭線は、外側の輪郭の部分のみが対象となるとは限らず、凸状に飛び出している部分を特徴付ける縁の部分や、凹状に引っ込んでいる部分(例えば、溝構造の部分)を特徴づける縁の部分も対象となる。輪郭線により所謂線図が得られ、対象物の外観が把握し易い画像表示を行うことができる。なお、三次元モデルには、上述した線の情報だけではなく、測定対象物の外観を視覚的に把握する際の特徴部分となる点の情報も含まれる。また、三次元モデルをラベリングされた面によって構成される多面体として表現することも可能である。
Returning to FIG. 1, the 3D point cloud position
以下、図1の三次元モデル作成部103の詳細について説明する。図4には、三次元モデル作成部103のブロック図が示されている。三次元モデル作成部103は、非面領域算出部201、非面領域除去部202、面ラベリング部203、ラベル拡張部204、境界領域面形成部205、輪郭線算出部206、二次元エッジ算出部207、エッジ統合部208を備えている。以下、これら各機能部について説明する。
The details of the three-dimensional model creation unit 103 in FIG. 1 will be described below. FIG. 4 shows a block diagram of the three-dimensional model creation unit 103. The three-dimensional model creation unit 103 includes a non-surface
非面領域算出部201は、局所面である局所領域を取得する局所領域取得部201a、局所領域の法線ベクトルを算出する法線ベクトル算出部201b、局所領域の局所曲率を算出する局所曲率算出部201c、局所領域にフィッティングする局所平面を算出する局所平面算出部201dを備えている。
The non-surface
局所領域取得部201aは、三次元点群位置データに基づき、注目点を中心とした一辺が3〜7画素程度の正方領域(格子状の領域)を局所領域として取得する。この際、対象となる三次元点群位置データは、解像度設定部102において選択された階層の三次元点群位置データである。例えば、図3(B)の階層(解像度)が選択された場合は、全ての三次元点群位置データが処理の対象とされず、図3(B)の●で示される三次元点群位置データが処理の対象とされる。図3には、2次元に簡略化した場合の例であるが、各解像度における3×3画素の局所領域401,402,403が示されている。
The local
法線ベクトル算出部201bは、局所領域取得部201aが取得した上記の局所領域における各点の法線ベクトルの算出を行う。この法線ベクトルを算出する処理では、局所領域における三次元点群位置データに着目し、各点の法線ベクトルを算出する。この処理は、全ての三次元点群位置データを対象として行われる。すなわち、三次元点群位置データが無数の局所領域に区分けされ、各局所領域において各点の法線ベクトルの算出が行われる。
The normal vector calculation unit 201b calculates a normal vector of each point in the local region acquired by the local
局所曲率算出部201cは、上述した局所領域内の法線ベクトルのバラツキ(局所曲率)を算出する。ここでは、着目している局所領域において、各法線ベクトルの3軸成分の強度値(NVx, NVy, NVz)の平均(mNVx,mNVy,mNVz)を求める。またこの結果に基づき、さらに標準偏差(StdNVx,StdNVy,StdNVz)を求める。次に、標準偏差の二乗和の平方根を局所曲率(Local Curveture:crv)として算出する(数2)。
The local
局所平面算出部201dは、局所領域にフィッティング(近似)する局所平面を求める。この処理では、着目している局所領域の各点の三次元座標から局所平面の方程式を求める。局所平面は、着目している局所領域にフィッティングさせた平面である。ここでは、最小二乗法を用いて、当該局所領域にフィッティングする局所平面の面の方程式を算出する。具体的には、複数の異なる平面方程式を求め、更にそれらを比較し、当該局所領域にフィッティングする局所平面の面の方程式を算出する。仮に、着目している局所領域が平面であれば、局所平面と局所領域とは一致する。以上の処理を、局所領域を順次ずらしながら、全ての三次元点群位置データが対象となるように繰り返し行い、各局所領域における法線ベクトル、局所平面、局所曲率を得る。
The local
非面領域除去部202は、上で求めた各局所領域における法線ベクトル、局所平面、局所曲率に基づいて、非面領域の点を除去する処理を行う。すなわち、面(平面および曲面)を抽出するために、予め面でないと判断できる部分(非面領域)を除去する。なお、非面領域とは、平面でも曲面でもない領域であるが、下記の(1)〜(3)の閾値によっては曲率の高い曲面を含む場合がある。 The non-surface area removing unit 202 performs a process of removing points in the non-surface area based on the normal vector, local plane, and local curvature in each local area obtained above. That is, in order to extract a surface (a plane and a curved surface), a portion (non-surface region) that can be determined not to be a surface in advance is removed. The non-surface region is a region that is neither a plane nor a curved surface, but may include a curved surface with a high curvature depending on the following threshold values (1) to (3).
非面領域除去部202は、三次元点群位置データ取得部101が取得した三次元点群位置データの中から算出した非面領域の三次元点群位置データを除去する。非面領域除去の処理は、以下に示す3つの方法のうち、少なくとも一つを用いて行うことができる。ここでは、下記の(1)〜(3)の方法による判定を上述した局所領域の全てに対して行い、1以上の方法において非面領域と判定された局所領域を、非面領域を構成する局所領域として抽出する。そして、抽出された非面領域を構成する点に係る三次元点群位置データを除去する。 The non-surface area removal unit 202 removes the 3D point group position data of the non-surface area calculated from the 3D point group position data acquired by the 3D point group position data acquisition unit 101. The non-surface area removal process can be performed using at least one of the following three methods. Here, the determination by the following methods (1) to (3) is performed for all the local regions described above, and the local region determined as the non-surface region by one or more methods is configured as the non-surface region. Extract as a local region. Then, the 3D point cloud position data relating to the points constituting the extracted non-surface area is removed.
(1)局所曲率の高い部分:上述した局所曲率を予め設定しておいた閾値と比較し、閾値を超える局所曲率の局所領域を非面領域と判定する。局所曲率は、注目点とその周辺点における法線ベクトルのバラツキを表しているので、面(平面および曲率の小さい曲面)ではその値が小さく、面以外(非面)ではその値は大きくなる。したがって、予め決めた閾値よりも局所曲率が大きければ、当該局所領域を非面領域と判定する。 (1) A portion having a high local curvature: The above-described local curvature is compared with a preset threshold value, and a local region having a local curvature exceeding the threshold value is determined as a non-surface region. Since the local curvature represents the variation of the normal vector at the point of interest and its peripheral points, the value is small for a surface (a flat surface and a curved surface with a small curvature), and the value is large for a surface other than a surface (non-surface). Therefore, if the local curvature is larger than a predetermined threshold, the local region is determined as a non-surface region.
(2)局所平面へのフィッティング精度:局所領域の各点と対応する局所平面との距離を計算し、これらの距離の平均が予め設定した閾値よりも大きい場合、当該局所領域を非面領域と判定する。すなわち、局所領域が平面から乖離した状態であると、その程度が激しい程、当該局所領域の各点と対応する局所平面との距離は大きくなる。このことを利用して当該局所領域の非面の程度が判定される。 (2) Fitting accuracy to the local plane: When the distance between each point of the local area and the corresponding local plane is calculated and the average of these distances is greater than a preset threshold, the local area is determined as a non-surface area. judge. That is, when the local area is in a state of being deviated from the plane, the distance between the local plane corresponding to each point of the local area increases as the degree becomes more severe. Using this fact, the degree of non-surface of the local region is determined.
(3)共平面性のチェック:ここでは、隣接する局所領域において、対応する局所平面同士の向きを比較する。この局所平面の向きの違いが閾値を超えている場合、比較の対象となった局所領域が非面領域に属していると判定する。具体的には、対象となる2つの局所領域のそれぞれにフィッティングする2つの局所平面の法線ベクトルと、その中心点間を結ぶベクトルとの内積が0であれば、両局所平面が同一平面上に存在すると判定される。また、上記内積が大きくなる程、2つの局所平面が同一面上にない程度がより顕著であると判定され、非面の程度が高いものと判定される。 (3) Coplanarity check: Here, the directions of corresponding local planes are compared in adjacent local regions. If the difference in orientation of the local planes exceeds the threshold value, it is determined that the local area to be compared belongs to the non-plane area. Specifically, if the inner product of the normal vector of the two local planes fitted to each of the two target local regions and the vector connecting the center points is 0, both local planes are on the same plane. Is determined to exist. Further, as the inner product increases, it is determined that the degree that the two local planes are not on the same plane is more remarkable, and the degree of non-surface is determined to be higher.
上記の(1)〜(3)の方法による判定において、1以上の方法において非面領域と判定された局所領域を、非面領域を構成する局所領域として抽出する。そして、この抽出された局所領域を構成する点に係る三次元点群位置データを算出対象としている三次元点群位置データから除去する。以上のようにして、非面領域の除去が行われる。なお、除去された三次元点群位置データは、後の処理で利用する可能性があるので、適当な記憶領域に格納するなり、除去されなかった三次元点群位置データと識別できる状態とするなどして、後で利用できる状態にしておく。 In the determination by the above methods (1) to (3), a local region determined as a non-surface region by one or more methods is extracted as a local region constituting the non-surface region. Then, the 3D point cloud position data relating to the points constituting the extracted local region is removed from the 3D point cloud position data to be calculated. The non-surface area is removed as described above. Since the removed 3D point cloud position data may be used in later processing, it is stored in an appropriate storage area so that it can be identified from the 3D point cloud position data that has not been removed. To make it available for later use.
次に、面ラベリング部203について説明する。面ラベリング部203は、面抽出部の一例である。面ラベリング部203は、非面領域の三次元点群位置データが除去された三次元点群位置データに対して、法線ベクトルの連続性に基づいて面ラベリングを行う。具体的には、特定の注目点と隣接点の法線ベクトルの角度差が予め決めた閾値以下なら、それらの点に同一ラベルを貼る。この作業を繰り返すことで、連続する平面、連続する緩やかな曲面に同一ラベルが貼られ、それらを一つの面として識別可能となる。また、面ラベリングの後、法線ベクトルの角度差や法線ベクトルの3軸成分の標準偏差を用いて、ラベル(面)が平面であるか、または曲率の小さい曲面であるかを判定し、その旨を識別する識別データを各ラベルに関連付ける。 Next, the surface labeling unit 203 will be described. The surface labeling unit 203 is an example of a surface extraction unit. The surface labeling unit 203 performs surface labeling on the 3D point cloud position data from which the 3D point cloud position data of the non-surface area is removed based on the continuity of normal vectors. Specifically, if the angle difference between the normal vector of a specific point of interest and an adjacent point is less than a predetermined threshold, the same label is attached to those points. By repeating this operation, the same label is attached to a continuous flat surface and a continuous gentle curved surface, and these can be identified as one surface. Further, after the surface labeling, it is determined whether the label (surface) is a plane or a curved surface with a small curvature by using the angle difference between the normal vectors and the standard deviation of the three-axis components of the normal vectors. Identification data for identifying the fact is associated with each label.
続いて、面積の小さいラベル(面)をノイズとして除去する。なお、このノイズ除去は、面ラベリングの処理と同時に行ってもよい。この場合、面ラベリングを行いながら、同一ラベルの点数(ラベルを構成する点の数)を数え、所定以下の点の数であるラベルを取り消す処理を行う。次に、この時点でラベルが無い点に対して、最近傍面(最も近い面)と同一のラベルを付与していく。これにより、既にラベリングされた面の拡張を行う。この面の拡張に係る処理は、ラベル拡張部204において行われる。
Subsequently, the label (surface) having a small area is removed as noise. This noise removal may be performed simultaneously with the surface labeling process. In this case, while performing surface labeling, the number of points of the same label (the number of points constituting the label) is counted, and a process of canceling the label having the number of points equal to or less than a predetermined value is performed. Next, the same label as the nearest surface (closest surface) is given to the point having no label at this time. As a result, the already labeled surface is expanded. The
すなわち、ラベルの付いた面の方程式を求め、当該面とラベルが無い点との距離を求める。ラベルが無い点の周辺に複数のラベル(面)がある場合には、その距離が最も短いラベルを選択する。そして、依然としてラベルが無い点が残存している場合には、非面領域除去、ノイズ除去、およびラベル拡張における各閾値を変更し、再度関連する処理を行う。例えば、非面領域除去において、局所曲率の閾値を上げることで、非面として抽出する点の数が少なくなるようにする。または、ラベル拡張において、ラベルの無い点と最近傍面との距離の閾値を上げることで、ラベルの無い点に対してより多くのラベルを付与するようにする。 That is, the equation of the surface with the label is obtained, and the distance between the surface and the point without the label is obtained. If there are a plurality of labels (surfaces) around a point where there is no label, the label with the shortest distance is selected. If there is still a point with no label, the threshold values for non-surface area removal, noise removal, and label expansion are changed, and related processing is performed again. For example, in non-surface area removal, the number of points to be extracted as non-surface is reduced by increasing the threshold value of local curvature. Alternatively, in label expansion, by increasing the threshold of the distance between a point without a label and the nearest surface, more labels are given to the point without a label.
次に、ラベルが異なる面であっても同一面である場合にラベルを統合する。この場合、連続しない面であっても、位置または向きが等しい面同士に同じラベルを付ける。具体的には、各面の法線ベクトルの位置および向きを比較することで、連続しない同一面を抽出し、いずれかの面のラベルに統一する。この処理もラベル拡張部204において行われる。
Next, even if the labels are different surfaces, the labels are integrated when they are the same surface. In this case, even if the surfaces are not continuous, the same label is attached to the surfaces having the same position or orientation. Specifically, by comparing the position and orientation of the normal vector of each surface, the same non-continuous surface is extracted and unified to the label of any surface. This process is also performed in the
この面ラベリング部203の機能によれば、扱うデータ量を圧縮できるので、三次元点群位置データの処理を高速化できる。また必要なメモリ量を節約できる。また、測定中に紛れ込んだ通行人や通過した車両の三次元点群位置データをノイズとして除去することができる。 According to the function of the surface labeling unit 203, the amount of data to be handled can be compressed, so that the processing of the three-dimensional point cloud position data can be accelerated. In addition, the required amount of memory can be saved. In addition, it is possible to remove the three-dimensional point cloud position data of a passerby or a vehicle that has passed through during measurement as noise.
境界領域面形成部205は、隣接する面の間を繋ぐ境界領域面を形成する。この例では、隣接する面の間の非面領域に局所平面をフィッティングさせ、この局所平面を複数繋ぐことで、当該非面領域を複数の局所平面によって近似した境界領域面を形成する。これは、複数の局所平面により構成される多面体で非面領域を近似し、面と面との境界部分となる境界領域面を形成する処理と捉えることができる。なお、この多面体構造を有する境界領域面にフィッティングする滑らかな曲面を設定し、当該境界領域面をこの曲面に置き換えてもよい。
The boundary region
輪郭線算出部206は、隣接する面の三次元点群位置データに基づき、測定対象物の三次元エッジとなる輪郭線を算出(推定)する。この場合、上記の境界領域面の形成において、隣接する面から局所平面をつないでゆく処理が行われる。この際、最後に隣接した局所平面同士の交線を輪郭線として算出する。輪郭線が算出されることで、測定対象物の輪郭の画像が明確となる。境界領域面を用いた輪郭線の算出方法としては、境界領域面の中央位置を輪郭線が通るように輪郭線を設定する方法や、境界領域面の曲率が最小となる部分を輪郭線が通るように輪郭線を設定する方法も可能である。なお、境界領域面の形成を行わずに隣接する面と面との交線を輪郭線とする処理も可能である。
The
次に、二次元エッジ算出部207について説明する。二次元エッジ算出部207は、対象物からの反射光の強度分布に基づいて、ラプラシアン、プリューウィット、ソーベル、キャニーなどの公知のエッジ抽出オペレータを用いて、セグメント化(区分け)された面に対応する二次元画像の領域内からエッジを抽出する。すなわち、二次元エッジは、面内の濃淡の違いにより認識されるので、この濃淡の違いを反射光の強度の情報から抽出し、その抽出条件に閾値を設けることで、濃淡の境目をエッジとして抽出する。次に、抽出されたエッジを構成する点の三次元座標の高さ(z値)と、その近傍の輪郭線(三次元エッジ)を構成する点の三次元座標の高さ(z値)とを比較し、この差が所定の閾値以内の場合には、当該エッジを二次元エッジとして抽出する。すなわち、二次元画像上で抽出されたエッジを構成する点が、セグメント化された面上にあるか否かを判定し、面上にあると判定された場合にそれを二次元エッジとする。 Next, the two-dimensional edge calculation unit 207 will be described. Based on the intensity distribution of the reflected light from the object, the two-dimensional edge calculation unit 207 corresponds to a segmented (segmented) surface using a known edge extraction operator such as Laplacian, Plewwit, Sobel, Canny, etc. An edge is extracted from the area of the two-dimensional image to be processed. In other words, since the two-dimensional edge is recognized by the difference in shading in the surface, the difference in shading is extracted from the information on the intensity of the reflected light, and by setting a threshold value in the extraction condition, the border between the shading is used as an edge. Extract. Next, the height (z value) of the three-dimensional coordinates of the points constituting the extracted edge, and the height (z value) of the three-dimensional coordinates of the points constituting the neighboring contour line (three-dimensional edge) If the difference is within a predetermined threshold, the edge is extracted as a two-dimensional edge. That is, it is determined whether or not a point constituting the edge extracted on the two-dimensional image is on the segmented surface, and if it is determined that the point is on the surface, it is set as the two-dimensional edge.
二次元エッジの算出後、輪郭線算出部206が算出した輪郭線と二次元エッジ算出部207が算出した二次元エッジとを統合する。この処理はエッジ統合部208において行われる。これにより、三次元点群位置データに基づき、対象物を特徴付けるエッジの抽出が行われる。このエッジの抽出により、測定対象物を視認する際における測定対象物の外観を構成する特徴部分が抽出され、三次元モデルのデータが得られる。
After the calculation of the two-dimensional edge, the contour line calculated by the
図1に戻り、三次元点群位置データ処理装置100は、三次元モデル画像作成部104を備えている。三次元モデル画像作成部104は、三次元モデル作成部103で作成された三次元モデルを画像表示するための画像データを作成する。この画像データは、画像表示装置105に送られ、そこで表示される。これにより、画像表示装置105上で測定対象物の三次元モデルの画像表示が行われる。
Returning to FIG. 1, the 3D point cloud position
(処理の一例)
図5は、図1の三次元点群位置データ処理装置100で行われる処理の一例を説明するフローチャートである。図5に示すフローチャートを実行するためのプログラムは、三次元点群位置データ処理装置100を構成するパーソナルコンピュータの記憶部に記憶されており、適当な記憶領域に読み出されて当該パーソナルコンピュータによって実行される。
(Example of processing)
FIG. 5 is a flowchart for explaining an example of processing performed by the three-dimensional point cloud position
処理が開始されると(ステップS501)、まず測定対象物の三次元点群位置データの取得が行われる(ステップS502)。この処理は、三次元点群位置データ取得部101において行われる。測定対象物の三次元点群位置データを取得したら、操作入力部106に対してユーザにより行われた階層の設定数(解像度の段階の設定数)の情報を取得し(ステップS503)、階層の設定(解像度の設定)を行う。この処理は、解像度設定部102において行なわれる。 When the process is started (step S501), first, three-dimensional point cloud position data of the measurement object is acquired (step S502). This process is performed in the three-dimensional point cloud position data acquisition unit 101. When the three-dimensional point cloud position data of the measurement object is acquired, information on the number of set layers (the set number of resolution steps) performed by the user is acquired from the operation input unit 106 (step S503). Make settings (resolution settings). This process is performed in the resolution setting unit 102.
次に、ステップS503において取得した階層の最上位の階層(解像度が最も低い階層)でのラベリングを行う。この処理は、三次元モデル作成部103において、図4を参照して説明した内容に従って行われる。そして、ラベリングを行った後、ラベリングの処理の結果に基づく三次元モデルの作成を行う(ステップS505)。この処理も三次元モデル作成部103において行われる。 Next, labeling is performed on the highest layer (hierarchy with the lowest resolution) of the layers acquired in step S503. This process is performed in the 3D model creation unit 103 according to the contents described with reference to FIG. Then, after labeling, a three-dimensional model is created based on the result of the labeling process (step S505). This processing is also performed in the 3D model creation unit 103.
三次元モデルを作成したら、それを三次元モデル画像作成部104において画像化し、その画像データが画像表示装置105に送られ、そこで画像表示される(ステップS506)。この画像表示の後、ユーザによる操作入力部106に対する図5の処理の終了を指示する操作が行われたか否か、が判定され(ステップS507)、図5の処理の終了を指示する操作が行われた場合、処理を終了し(ステップS511)、そのような操作が行われていなければ、ステップS508に進む。 When the three-dimensional model is created, it is imaged by the three-dimensional model image creation unit 104, and the image data is sent to the image display device 105 where it is displayed (step S506). After this image display, it is determined whether or not an operation for instructing the end of the process in FIG. 5 is performed on the operation input unit 106 by the user (step S507), and an operation for instructing the end of the process in FIG. If not, the process ends (step S511), and if such an operation has not been performed, the process proceeds to step S508.
ステップS508では、この段階におけるラベリングの階層が一番下か否か(解像度が最大であるか否か)、が判定され、ラベリングの階層が最下層であれば、処理を終了し(ステップS511)、最下層でなければ、ステップ(509)に進む。 In step S508, it is determined whether or not the labeling layer at this stage is at the lowest level (whether or not the resolution is maximum). If the labeling layer is at the lowest layer, the process ends (step S511). If it is not the lowest layer, the process proceeds to step (509).
ステップ509では、ステップS508における判定の対象なった階層の1ランク下の階層へのラベルの引継ぎを行い、このステップS508における判定の対象となった階層の1ランク下の階層(1ランク解像度が上の階層)における再ラベリングを行う(ステップS510)。以下、ステップS509およびステップS510の詳細を説明する。
In
図6の左側には、階層化された3段階のラベリングの状態をモデル化したものが記載され、図6の右側には、上記左側のラベリングの階層に対応する測定対象物の3段階のイメージ画像が示されている。図6の場合、第2層,第1層,第0層の3階層が示されている。ここで、第2層が最も低解像度であり、第0が最も高解像度となる設定とされている。図6の場合、最下位の解像度の第2層の階層においては、図示する範囲の画像を4分割する解像度でラベリングを行い、中位の解像度の第1層の階層においては、図示する範囲の画像を16分割する解像度(第2層の場合の4倍の解像度)でラベリングを行い、最上位の解像度の第0層の階層においては、図示する範囲の画像を64分割する解像度(第2層の場合の16倍、第1層の場合の4倍の解像度)でラベリングを行う場合の例が示されている。 On the left side of FIG. 6, a modeled state of three levels of labeling is described. On the right side of FIG. 6, an image of the three levels of the measurement object corresponding to the left labeling hierarchy is shown. An image is shown. In the case of FIG. 6, three layers of the second layer, the first layer, and the zeroth layer are shown. Here, the second layer has the lowest resolution and the zeroth has the highest resolution. In the case of FIG. 6, in the second layer hierarchy of the lowest resolution, the image in the range shown is labeled with a resolution that is divided into four, and in the first layer hierarchy of the middle resolution, Labeling is performed at a resolution that divides the image into 16 (four times the resolution in the case of the second layer), and in the 0th layer of the highest resolution, a resolution (second layer) that divides the image in the range shown in the figure. In this example, labeling is performed at a resolution 16 times that of the case of (4) and 4 times that of the case of the first layer.
図6の右側には、左側の解像度に対応させて、まず第2層の階層において、壁601が一つの面としてラベリングされ、更に解像度が1階層上がった第1層の階層において、壁601の面に中で窓602が面としてラベリングされ、更に解像度が1階層上がった第0層の階層において、壁601の面において窓602よりも細かい面であるタイル(壁601を構成するタイルの面)603〜605が更に細かい面としてラベリングされた状態が示されている。
On the right side of FIG. 6, the wall 601 is first labeled as one surface in the second layer, and the resolution of the wall 601 is increased in the first layer where the resolution is increased by one layer, corresponding to the left resolution. In the plane, the
すなわち、図6の例では、第2層のラベリングでは、サンプリングする三次元点群位置データの密度が足りず、窓602やタイル603〜605は面としてラベリングされず、全体が壁601としてラベリングされる。そして、第1層のラベリングでは、サンプリングする三次元点群位置データの密度が第2層の場合よりも高くなるので、窓602が面としてラベリングされる。この際、タイル603〜605は解像度が足りずラベリングされない。そして、第0層のラベリングでは、サンプリングする三次元点群位置データの密度が第1層の場合よりも高くなるので、タイル603〜605もラベリングされ、面としてデータ化される。
That is, in the example of FIG. 6, in the second layer labeling, the density of the 3D point cloud position data to be sampled is insufficient, the
また、図6には、下層におけるラベリングに移行する再に、上層のラベルが引き継がれる場合の例が示されている。まず、第2層の階層におけるラベリングで壁601が面としてラベリングされる。そして、第2層よりも下層の第1層に移行する際、壁601のラベリングのデータはそのまま引き継がれ、第2層において面として認識された壁601を対象として、第1層の階層における更により細かい面のラベリングが行われる。そして、第1層で窓602が面としてラベリングされるのであるが、この窓602の面としてのデータは、第0層に引き継がれる。そして、第2層、第1層の階層でラベリングされた壁601および窓602を面として捉えている状態において、更に細かい面のラベリングが第0層の階層において行われる。この場合、壁601をより細かく見た場合に認識されるタイル603〜605のラベリングが行われる。この下層にラベルを引き継いでの再ラベリングを行うことで、既に行われているラベリングの作業を重複して行う無駄が省かれ、処理が効率化される。
Further, FIG. 6 shows an example in which the upper layer label is taken over again after the transition to the lower layer labeling. First, the wall 601 is labeled as a surface by labeling in the second layer. Then, when moving to the first layer lower than the second layer, the labeling data of the wall 601 is taken over as it is, and the wall 601 recognized as a plane in the second layer is targeted as the update in the first layer hierarchy. The labeling of the fine surface is performed. Then, the
仮に、図6に例示するモデルにおける第2層の面のデータ(壁601を面として把握したデータ)が、第1層の階層におけるラベリング時に引き継がれないと、第1層の階層においても再度壁601を認識するためのラベリングの処理が必要となり、演算が重複して行われる無駄が生じる。 If the data of the surface of the second layer in the model illustrated in FIG. 6 (data obtained by using the wall 601 as a surface) is not inherited at the time of labeling in the layer of the first layer, the wall in the layer of the first layer again A labeling process for recognizing 601 is required, and wasteful computation is performed.
図6に示す第2層の階層から第1層の階層に移行しての再ラベリング、あるいは第1層の階層から第0層の階層に移行しての再ラベリングが、図5のステップS509およびステップS510の処理の一例となる。 Re-labeling after moving from the second layer to the first layer or re-labeling from the first layer to the 0th layer shown in FIG. 6 is performed in steps S509 and S509 in FIG. This is an example of the process of step S510.
図5に戻り、ステップS510での再ラベリングの後、ステップS505以下の処理を再度実行し、新たにラベリングされたデータに基づく三次元モデルの作成を行い、更にその三次元モデルの画像表示を行う(ステップS506)。この処理によれば、例えば、図6の右側に示されているような、段階的に解像度が高くなり、上位の階層では表現されていなかった細部が順次表現されてゆく三次元モデルの画像表示が行われる。 Returning to FIG. 5, after the re-labeling in step S510, the processes in and after step S505 are executed again to create a three-dimensional model based on the newly labeled data, and further display the image of the three-dimensional model. (Step S506). According to this processing, for example, as shown on the right side of FIG. 6, a three-dimensional model image display in which the resolution gradually increases and details that are not expressed in the upper hierarchy are sequentially expressed. Is done.
図7には、段階的に階層を下げつつ(解像度を上げつつ)三次元モデルを作成した場合の三次元モデル画像の一例が示されている。図7には、図3および図6に示す第2層、第1層、第0層に対応する三次元モデル画像の一例が示されている。なお、図7には、解像度の違いを誇張した状態が示されている。 FIG. 7 shows an example of a three-dimensional model image when a three-dimensional model is created while lowering the hierarchy stepwise (increasing resolution). FIG. 7 shows an example of a three-dimensional model image corresponding to the second layer, the first layer, and the zeroth layer shown in FIGS. 3 and 6. FIG. 7 shows a state in which the difference in resolution is exaggerated.
図7には、5階建ての集合住宅の三次元モデル画像が示されている。図7(A)には、三次元点群位置データのサンプリング密度が最も低く、解像度が最も低位である場合が示されている。図7(A)の場合、解像度が低いので、細部の状態がほとんど表現されていない。図7(B)には、(A)の場合よりも解像度が上がり、窓の形状等は明らかになっていないが、(A)の場合よりも細部の状態が明らかになった三次元モデルの画像が示されている。図7(C)は、第0層の階層、すなわち三次元レーザースキャナが取得した三次元点群位置データのオリジナルを利用した三次元モデルの画像が示されている。この場合、窓の形状等の細部が表現された三次元モデルの画像が表示される。 FIG. 7 shows a three-dimensional model image of a five-story apartment house. FIG. 7A shows a case where the sampling density of the three-dimensional point cloud position data is the lowest and the resolution is the lowest. In the case of FIG. 7A, since the resolution is low, the state of details is hardly expressed. In FIG. 7B, the resolution is higher than in the case of (A) and the shape of the window is not clear, but the three-dimensional model in which the state of details is clearer than in the case of (A). An image is shown. FIG. 7C shows an image of a three-dimensional model using the original of the zero-th layer, that is, the three-dimensional point cloud position data acquired by the three-dimensional laser scanner. In this case, an image of a three-dimensional model in which details such as the shape of the window are expressed is displayed.
(優位性)
以上説明した例では、まず三次元レーザースキャナが測定した三次元点群位置データに基づき、解像度を段階的に変えた三次元モデルを作成する。この際、低解像度の三次元モデルの作成およびその表示、さらにその後に、ラベリングされたデータを引き継いでの高解像度の三次元モデルの作成およびその表示を行う。ここで、低解像度の三次元モデルの表示を行うことで、最終的な三次元モデルの完成の途中の段階をユーザが把握することができる。
(Superiority)
In the example described above, first, a three-dimensional model with the resolution changed stepwise is created based on the three-dimensional point cloud position data measured by the three-dimensional laser scanner. At this time, a low-resolution three-dimensional model is created and displayed, and thereafter, a high-resolution three-dimensional model is created and displayed by taking over the labeled data. Here, by displaying the low-resolution three-dimensional model, the user can grasp the stage in the middle of completing the final three-dimensional model.
例えば、図7の三次元モデルの画像表示の場合、最初の図5のステップS506の段階で第2層の三次元モデルの画像表示が行われる。ここで、視点の選択の誤りやこの視点の三次元モデルが不要であると判断される場合、処理を終了することができる。この段階で処理の対象とされた三次元点群位置データは、図3の例示の場合から明らかなように、オリジナルの三次元点群位置データに比較してデータ量が格段に少ない(この場合は1/16)。したがって、解像度が低い粗い三次元モデルの段階で処理を終了することで、全ての三次元点群位置データを処理の対象とする場合に比較して、処理時間が短縮される。また、途中で演算を止めることで、無駄な処理を行わないで済む。 For example, in the case of the image display of the three-dimensional model of FIG. 7, the image display of the second-layer three-dimensional model is performed in the first step S506 of FIG. Here, when it is determined that the viewpoint selection error or the three-dimensional model of this viewpoint is unnecessary, the processing can be terminated. The 3D point cloud position data to be processed at this stage has a significantly smaller data amount than the original 3D point cloud position data, as is apparent from the example of FIG. 3 (in this case) 1/16). Therefore, the processing time is shortened by finishing the processing at the stage of the rough three-dimensional model having a low resolution as compared with the case where all the three-dimensional point cloud position data are processed. Further, by stopping the calculation in the middle, it is not necessary to perform useless processing.
また、図7に示されるように段階的に三次元モデルの作成過程の途中経過を視認することができるため、ユーザが受けるストレスが軽減され、またユーザの作業性が向上する。また、図6に示すように階層を下げる場合に、上位の階層で得られたラベリングデータが、下位の階層に引き継がれる。このため、無駄な処理が抑制される。 Further, as shown in FIG. 7, the progress of the process of creating the three-dimensional model can be visually confirmed step by step, so that the stress received by the user is reduced and the workability of the user is improved. Also, as shown in FIG. 6, when the hierarchy is lowered, the labeling data obtained in the higher hierarchy is taken over by the lower hierarchy. For this reason, useless processing is suppressed.
また、段階的により詳細なラベリングが行われるので、図7に示すように段階的に三次元モデルの画像が詳細になる状態が表示可能となり、徐々に詳細になってゆく過程をユーザが把握し易い。また、概略のアウトラインが判ればよい三次元モデルを得たい場合に、解像度を落とした階層を指定することで、より短い演算時間で所望する精度の三次元モデルを得ることができる。 In addition, since more detailed labeling is performed step by step, it is possible to display a state in which the image of the three-dimensional model becomes more detailed as shown in FIG. 7, and the user grasps the process of gradually becoming more detailed. easy. Further, when it is desired to obtain a three-dimensional model whose outline can be understood, it is possible to obtain a three-dimensional model with desired accuracy in a shorter calculation time by designating a hierarchy with reduced resolution.
2.第2の実施形態
ここでは、階層数および解像度を決定する方法の一例を説明する。まず、特定の階層の分解能は、下記の数3によって表される。ここでの分解能は、分解できる最小寸法の値であり、その値が小さいほど、精度が高く、より細かい部分まで表現されることを意味する。
2. Second Embodiment Here, an example of a method for determining the number of layers and the resolution will be described. First, the resolution of a specific hierarchy is expressed by the following
ここで、aはスキャンピッチである。図8には、スキャンピッチa、測定対象物のスキャン範囲L、測定距離H、スキャン範囲Lにおける三次元点群位置データの数Mの関係が示されている。nは、n=0をデータの間引きのないオリジナルのスキャンデータ(例えば図3(C)の三次元点群位置データ)とした場合における何番目の層であるかを示す数値(自然数)である。図3や図6の場合から明らかなように、nの値が大きくなる程、分解能の値は大きく(つまり解像度は悪く)なる。 Here, a is the scan pitch. FIG. 8 shows the relationship between the scan pitch a, the scan range L of the measurement object, the measurement distance H, and the number M of three-dimensional point group position data in the scan range L. n is a numerical value (natural number) indicating the number of layers when n = 0 is original scan data without data thinning (for example, the three-dimensional point cloud position data in FIG. 3C). . As is clear from the cases of FIGS. 3 and 6, the larger the value of n, the larger the resolution value (that is, the lower the resolution).
階層の数(n+1)をレイヤー数という。レイヤー数は下記数4によって表される。ここで、単位処理時間は、1個の点群位置データを処理するのに要する時間であり、ユーザ解析要求時間は、ユーザが求める該当する階層の演算に要する時間である。
The number of layers (n + 1) is called the number of layers. The number of layers is represented by the following
例えば、1万個の点群位置データに要する処理時間が30m秒(1個当たり、3×10−6秒)であり、ユーザが求める一つの階層に対する解析要求時間が10秒であるとする。また、対象となるオリジナル(第0層)の三次元点群位置データの数が1000万点であるとする。この場合、上記の数4に基づいて、n=3が算出され、レイヤー数は3となる。つまり、この場合は図3や図6の場合のように階層を3段階に設定すれば、1層に対する演算に要する時間を10秒に抑えることができる。この場合、第2層→第1層→第0層と各10秒の処理が3回行われる。
For example, it is assumed that the processing time required for 10,000 point cloud position data is 30 milliseconds (3 × 10 −6 seconds per piece), and the analysis request time for one hierarchy required by the user is 10 seconds. Further, it is assumed that the number of original (0th layer) three-dimensional point cloud position data is 10 million. In this case, n = 3 is calculated based on the
また、数4を図8に示す関係式を用いて変形すると、下記数5が得られる。ここで、Tは、上記の単位処理時間であり、tは一つの階層の処理に対するユーザの解析要求時間であり、HとLは図8に示すパラメータである。また、θは使用するレーザースキャナの角度ピッチである。このθはレーザースキャナの角度制御の精度で決まる。
Further, when
数5によれば、例えば測定現場の制約からLとHが決まっており、またレーザースキャナの性能からθが決まっており、また使用するコンピュータの性能からTが決まっている場合、解析要求時間tを決めることで、レイヤー数を決めることができる。精度は悪くてもなるべく早く三次元モデルの画像を見るためには、tを短く設定する必要がある。他方において、tを短く設定すると、レイヤー数が大きくなり、より多くの階層が必要となる。
According to
一例ではあるが、選択されるレイヤー数の目安は、対象となる三次元点群位置データの数が1億以上の場合は5層、5000万〜1億点の場合は4層、1000万〜5000万点の場合は3層、500万点〜1000万点の場合は2層、500万点未満の場合は1層とするのが好ましい。 Although it is an example, the standard of the number of layers to be selected is 5 layers when the number of target 3D point cloud position data is 100 million or more, 4 layers when 10 million to 100 million points, 10 million to 10 million In the case of 50 million points, it is preferable to have 3 layers, in the case of 5 million points to 10 million points, 2 layers, and in the case of less than 5 million points, it is preferable to have 1 layer.
以下、図1に示す三次元点群位置データ処理装置100において、レイヤー数を自動設定する処理の一例を説明する。まず、ユーザは、最終的に作成される三次元モデルの画像の分解能aと三次元モデルの画像を得るのに要する処理時間tを選択し、これらの項目を操作入力部106から入力する。ここで、分解能aは、5cmや10cmといった数値が設定される。また、使用する三次元レーザースキャナによる予備測定を行い、図8のHおよびLの値を取得しておく。
Hereinafter, an example of processing for automatically setting the number of layers in the three-dimensional point cloud position
解像度設定部102は、上記入力された分解能aに基づいて、数5のθを算出する。そして、このθの値、ユーザによって指定されたt、予備測定で求めたH,L、使用するコンピュータの性能から決まるTを数5に代入し、レイヤー数を算出する。こうすることで、ユーザは面倒な操作を行うことなく、初期設定を行うことで、レイヤー数が算出され、図7に例示するような段階的に解像度が高くなる三次元モデルの画像表示を行うための設定が行われる。
The resolution setting unit 102 calculates θ in
3.第3の実施形態
以下、三次元点群位置データを処理する機能を有する三次元レーザースキャナについて説明する。この例において、三次元レーザースキャナは、測定対象物に対して測距光(レーザー光)を走査しつつ照射し、レーザー光の飛行時間に基づいて自身の位置から測定対象物上の多数の測定点までの距離を測距する。また、この三次元レーザースキャナは、レーザー光の照射方向(水平角および高低角)を検出し、距離および照射方向に基づいて測定点の三次元座標を算出する。また、この三次元レーザースキャナは、測定対象物を撮影した二次元画像(各測定点におけるRGB強度)を取得し、二次元画像と三次元座標とを結び付けた三次元点群位置データを形成する。さらに、ここで示す三次元レーザースキャナは、図1に関連して説明した三次元点群位置データ処理装置100の処理を行う機能を有している。
3. Third Embodiment Hereinafter, a three-dimensional laser scanner having a function of processing three-dimensional point cloud position data will be described. In this example, the three-dimensional laser scanner irradiates the object to be measured with distance measuring light (laser light), and performs a number of measurements on the object to be measured from its own position based on the time of flight of the laser light. Measure the distance to the point. The three-dimensional laser scanner detects the irradiation direction (horizontal angle and elevation angle) of the laser beam, and calculates the three-dimensional coordinates of the measurement point based on the distance and the irradiation direction. The three-dimensional laser scanner acquires a two-dimensional image (RGB intensity at each measurement point) obtained by photographing the measurement object, and forms three-dimensional point group position data that combines the two-dimensional image and the three-dimensional coordinates. . Further, the three-dimensional laser scanner shown here has a function of performing the processing of the three-dimensional point cloud position
(構成)
図9および図10は、三次元レーザースキャナ1の構成を示す断面図である。三次元レーザースキャナ1は、整準部22、回転機構部23、本体部27、および回転照射部28を備えている。本体部27は、測距部24、撮影部25、制御部26等から構成されている。なお、図9は、説明の便宜のため、図10に示す断面方向に対して、回転照射部28のみ側方から見た状態を示している。
(Constitution)
9 and 10 are cross-sectional views showing the configuration of the three-
整準部22は、台盤29を有し、回転機構部23は下部ケーシング30を有する。下部ケーシング30は、ピン31と2個の調整ネジ32とにより3点で台盤29に支持されている。下部ケーシング30は、ピン31の先端を支点にして傾動する。なお、台盤29と下部ケーシング30との間には、台盤29と下部ケーシング30とが互いに離反しないようにするため、引っ張りスプリング33が設けられている。
The leveling
下部ケーシング30の内部には、2個の整準モータ34が設けられている。2個の整準モータ34は、制御部26によって互いに独立して駆動される。整準モータ34の駆動により整準駆動ギア35、整準従動ギア36を介して調整ネジ32が回転し、調整ネジ32の下方への突出量が調整される。また、下部ケーシング30の内部には傾斜センサ37(図11参照)が設けられている。2個の整準モータ34は、傾斜センサ37の検出信号により駆動され、これにより整準が実行される。
Two leveling
回転機構部23は、下部ケーシング30の内部に水平角用駆動モータ38を有する。水平角用駆動モータ38の出力軸には水平回動駆動ギア39が嵌着されている。水平回動駆動ギア39は、水平回動ギア40に噛合されている。水平回動ギア40は、回転軸部41に設けられている。回転軸部41は、回転基盤42の中央部に設けられている。回転基盤42は、下部ケーシング30の上部に、軸受け部材43を介して設けられている。
The
また、回転軸部41には水平角検出器44として、例えばロータリーエンコーダが設けられている。水平角検出器44は、下部ケーシング30に対する回転軸部41の相対的回転角(水平角)を検出する。水平角は制御部26に入力され、制御部26は、その検出結果に基づき水平角用駆動モータ38を制御する。
Further, the
本体部27は、本体部ケーシング45を有する。本体部ケーシング45は、回転基盤42に固着されている。本体部ケーシング45の内部には鏡筒46が設けられている。鏡筒46は、本体部ケーシング45の回転中心と同心の回転中心を有する。鏡筒46の回転中心は、光軸47に合致されている。鏡筒46の内部には、光束分離手段としてのビームスプリッタ48が設けられている。ビームスプリッタ48は、可視光を透過し、かつ、赤外光を反射する機能を有する。光軸47は、ビームスプリッタ48によって光軸49と光軸50とに分離される。
The
測距部24は、鏡筒46の外周部に設けられている。測距部24は、発光部としてのパルスレーザ光源51を有する。パルスレーザ光源51とビームスプリッタ48との間には、穴あきミラー52、レーザー光のビームウエスト径を変更するビームウエスト変更光学系53が配設されている。測距光源部は、パルスレーザ光源51、ビームウエスト変更光学系53、穴あきミラー52で構成されている。穴あきミラー52は、パルスレーザ光を穴部52aからビームスプリッタ48に導き、測定対象物から反射して戻って来た反射レーザー光を測距受光部54に向けて反射する役割を有する。
The
パルスレーザ光源51は、制御部26の制御により所定のタイミングで赤外パルスレーザ光を発する。赤外パルスレーザ光は、ビームスプリッタ48によって高低角用回動ミラー55に向けて反射される。高低角用回動ミラー55は、赤外パルスレーザ光を測定対象物に向けて反射する。高低角用回動ミラー55は、高低角方向に回転することで、鉛直方向に延びる光軸47を高低角方向の投光光軸56に変換する。ビームスプリッタ48と高低角用回動ミラー55との間でかつ鏡筒46の内部には集光レンズ57が配設されている。
The pulse
測定対象物からの反射レーザー光は、高低角回動用ミラー55、集光レンズ57、ビームスプリッタ48、穴あきミラー52を経て測距受光部54に導かれる。また、測距受光部54には、内部参照光路を通って参照光も導かれる。反射レーザー光が測距受光部54で受光されるまでの時間と、レーザー光が内部参照光路を通って測距受光部54で受光されるまでの時間との差に基づき、光学情報処理装置1から測定対象物(測定対象点)までの距離が測定される。測距受光部54は、CMOS光センサ等の光電変化素子により構成され、検出した光のRGB強度を検出する機能も有している。
The reflected laser light from the object to be measured is guided to the distance measuring
撮影部25は、画像受光部58を備え、カメラとして機能する。画像受光部58は、鏡筒46の底部に設けられている。画像受光部58は、多数の画素が平面状に集合して配列されたもの、例えば、CCD(Charge Coupled Device)で構成されている。画像受光部58の各画素の位置は光軸50によって特定される。例えば、光軸50を原点として、X−Y座標を想定し、このX−Y座標の点として画素が定義される。
The photographing
回転照射部28は、投光ケーシング59の内部に収納されている。投光ケーシング59の周壁の一部は、投光窓となっている。図10に示すように、鏡筒46のフランジ部60には、一対のミラーホルダー板61が対向して設けられている。ミラーホルダー板61には、回動軸62が掛け渡されている。高低角用回動ミラー55は、回動軸62に固定されている。回動軸62の一端部には高低角ギア63が嵌着されている。回動軸62の他端側には高低角検出器64が設けられている。高低角検出器64は、高低角用回動ミラー55の回動角を検出し、その検出結果を制御部26に出力する。
The
ミラーホルダー板61の一方には、高低角用駆動モータ65が取り付けられている。高低角用駆動モータ65の出力軸には駆動ギア66が嵌着されている。駆動ギア66は、回転軸62に取り付けられた高低角ギア63に噛合されている。高低角用駆動モータ65は、高低角検出器64の検出結果に基づき、制御部26の制御により適宜駆動される。
A high and low
投光ケーシング59の上部には、照星照門67が設けられている。照星照門67は、測定対象物を概略視準するのに用いられる。照星照門67を用いた視準方向は、投光光軸56の延びる方向、および回動軸62の延びる方向に対して直交する方向とされている。また、図10に示すように、投光ケーシング59の上部には、GPSアンテナ81が配置されている。GPSアンテナにより、GPS情報が取得され、内部で行われる演算にGPS情報を利用することができる構成とされている。
On the upper part of the
図11は、制御部のブロック図である。制御部26には、水平角検出器44、高低角検出器64、傾斜センサ37、GPSアンテナ81からの検出信号が入力される。また、制御部26は、操作部6から操作指示信号が入力される。制御部26は、水平角用駆動モータ38、高低角用駆動モータ65、整準モータ34を駆動制御する共に、作業状況、測定結果等を表示する表示部7を制御する。制御部26には、メモリカード、HDD等の外部記憶装置68が着脱可能とされている。
FIG. 11 is a block diagram of the control unit. Detection signals from the
制御部26は、演算部4、記憶部5、水平駆動部69、高低駆動部70、整準駆動部71、距離データ処理部72、画像データ処理部73等から構成されている。記憶部5は、測距や高低角と水平角の検出を行うために必要なシーケンスプログラム、演算プログラム、測定データの処理を実行する測定データ処理プログラム、画像処理を行う画像処理プログラム、三次元点群位置データから面を抽出し、更に輪郭線を算出するプログラム、この算出した輪郭線を表示部7に表示させるための画像表示プログラム、三次元点群位置データの再取得に係る処理を制御するプログラム等の各種のプログラムを格納すると共に、これらの各種のプログラムを統合管理するための統合管理プログラム等を格納する。また、記憶部5は、測定データ、画像データ等の各種のデータを格納する。水平駆動部69は、水平角用駆動モータ38を駆動制御し、高低駆動部70は、高低角用駆動モータ65を駆動制御し、整準駆動部71は、整準モータ34を駆動制御する。距離データ処理部72は、測距部24によって得られた距離データを処理し、画像データ処理部73は、撮影部25により得られた画像データを処理する。
The
また、制御部26は、GPS受信部82を備えている。GPS受信部82は、GPSアンテナが受信したGPS衛星からの信号を処理し、地球上における座標データを算出する。これは、通常のGPS受信装置と同じである。GPSから得られた位置情報は、後述する三次元点群位置データ処理部100’に入力される。
The
図12は、演算部4のブロック図である。演算部4は、三次元座標演算部74、リンク形成部75、グリッド形成部9、三次元点群位置データ処理部100’を備えている。三次元座標演算部74には、距離データ処理部72から測定対象点の距離データが入力され、水平角検出器44および高低角検出器64から測定対象点の方向データ(水平角および高低角)が入力される。三次元座標演算部74は、入力された距離データと方向データとに基づき、光学情報処理装置1の位置を原点(0,0,0)とした各測定点の三次元座標(直交座標)を算出する。
FIG. 12 is a block diagram of the
リンク形成部75には、画像データ処理部73から画像データおよび三次元座標演算部74が算出した各測定点の三次元座標の座標データが入力される。リンク形成部75は、画像データ(各測定点のRGB強度)と三次元座標を結び付けた三次元点群位置データ2を形成する。つまり、リンク形成部75は、測定対象物のある点に着目した場合、その着目点の二次元画像中における位置と、その着目点の三次元座標とを関連付けしたものを作成する。この関連付けされたデータは、全ての測定点について算出され、それらが三次元点群位置データ2となる。
The link forming unit 75 receives the image data from the image
リンク形成部75は、以上の三次元点群位置データ2をグリッド形成部9に出力する。グリッド形成部9は、三次元点群位置データ2の隣接点の点間距離が一定でない場合に、等間隔のグリッド(メッシュ)を形成し、グリッドの交点に最も近い点を登録する。または、グリッド形成部9は、線形補間法やバイキュービック法を用いて、グリッドの交点位置に全点を補正する。なお、三次元点群位置データ2の点間距離が一定である場合には、グリッド形成部9の処理を省略することができる。
The link forming unit 75 outputs the above three-dimensional point
以下、グリッドの形成手順について説明する。図13は、点間距離が一定でない三次元点群位置データを示す概念図であり、図14は、形成したグリッドを示す概念図である。図13に示すように、各列の平均水平間隔H1−Nを求め、さらに列間の平均水平間隔の差分ΔHi,jを算出し、その平均をグリッドの水平間隔ΔHとする(数6)。垂直方向の間隔は、各列での垂直方向の隣接点との距離ΔVN,Hを算出し、画像サイズW,Hの画像全体におけるΔVN,Hの平均を垂直間隔ΔVとする(数7)。そして、図14に示すように、算出した水平間隔ΔHおよび垂直間隔ΔVのグリッドを形成する。 Hereinafter, the grid formation procedure will be described. FIG. 13 is a conceptual diagram showing three-dimensional point group position data in which the distance between points is not constant, and FIG. 14 is a conceptual diagram showing a formed grid. As shown in FIG. 13, the average horizontal interval H 1-N of each column is obtained, and the difference ΔH i, j of the average horizontal interval between the columns is calculated, and the average is set as the horizontal interval ΔH of the grid (Equation 6 ). The vertical interval is calculated by calculating the distance ΔV N, H from the vertical adjacent point in each column, and the average of ΔV N, H in the entire image of the image sizes W, H is defined as the vertical interval ΔV (Equation 7 ). Then, as shown in FIG. 14, a grid with the calculated horizontal interval ΔH and vertical interval ΔV is formed.
次に、形成したグリッドの交点に最も近い点を登録する。この際、交点から各点までの距離には所定の閾値を設けて、登録を制限する。例えば、閾値は、水平間隔ΔHおよび垂直間隔ΔVの1/2とする。なお、線形補間法やバイキュービック法のように、交点との距離に応じた重みを付けて全点を補正してもよい。ただし、補間を行った場合には、本来計測していない点となる。 Next, the point closest to the intersection of the formed grids is registered. At this time, a predetermined threshold is provided for the distance from the intersection to each point to limit registration. For example, the threshold value is ½ of the horizontal interval ΔH and the vertical interval ΔV. It should be noted that all points may be corrected by applying a weight according to the distance from the intersection, such as a linear interpolation method or a bicubic method. However, when interpolation is performed, the point is not originally measured.
以上のようにして得られた三次元点群位置データは、三次元点群位置データ処理部100’に出力される。三次元点群位置データ処理部100’は、第1の実施形態で説明した三次元点群位置データ処理装置100と同様の動作を行う専用の集積回路である。三次元点群位置データ処理部100’は、例えばFPGA等により構成されている。また、三次元点群位置データ処理部100’の動作においてユーザに提示される画像の表示が液晶ディスプレイである表示部7において行われる。
The three-dimensional point cloud position data obtained as described above is output to the three-dimensional point cloud position data processing unit 100 '. The three-dimensional point cloud position
三次元点群位置データ処理部100’には、GPS受信部82から得られた地球上における座標データが入力される。この構成によれば、三次元点群位置データ処理部100’で取り扱われる座標がGPSから得られた位置データ(例えば、電子地図情報)とリンクされる。これにより、例えば、三次元レーザースキャナ1の設置位置を電子地図上に画面表示することができ、また測定対象物の電子地図上における座標を特定することができる。
The coordinate data on the earth obtained from the
(その他)
制御部26の構成において、グリッド形成部9から三次元点群位置データが外部に出力される形態とすると、図9、図10に示す装置は、第1の実施形態で示したパーソナルコンピュータを利用した三次元点群位置データ処理装置100と組み合わせて使用可能な三次元レーザースキャナとなる。また、三次元点群位置データ処理部100’が行う処理を分散して行う構成も可能である。例えば、三次元点群位置データ処理部100’の機能の一部を通信回線で結ばれたサーバで行うような構成も可能である。これは、図1の三次元点群位置データ処理装置100の場合も同じである。これらの構成は、本発明の三次元点群位置データ処理システムの一例として把握される。
(Other)
In the configuration of the
本発明を複数の視点から得られた三次元点群位置データの処理に利用することもできる。この場合、第1の視点から得られた三次元点群位置データと、第1の視点とは異なる視点である第2の視点から得られた三次元点群位置データとを統合した三次元点群位置データを対象として処理を行う。視点の数は、2つ以上であってもよい。視点の数を複数とすることで、ある視点からは死角となる部分が他の視点から得られた三次元点群位置データによって補完され、三次元モデルを回転させて表示させた場合における死角となって画像情報が欠落した部分の発生(オクルージョンの発生)が抑えられる。 The present invention can also be used for processing three-dimensional point cloud position data obtained from a plurality of viewpoints. In this case, a 3D point obtained by integrating 3D point cloud position data obtained from the first viewpoint and 3D point cloud position data obtained from a second viewpoint that is a viewpoint different from the first viewpoint. Processing is performed on the group position data. The number of viewpoints may be two or more. By setting the number of viewpoints to multiple, the part that becomes a blind spot from one viewpoint is complemented by the 3D point cloud position data obtained from another viewpoint, and the blind spot when the 3D model is rotated and displayed Therefore, the occurrence of a portion where image information is missing (occurrence of occlusion) is suppressed.
本発明は、三次元情報の測定を行う技術に利用することができる。 The present invention can be used in a technique for measuring three-dimensional information.
1…三次元レーザースキャナ、2…三次元点群位置データ、22…整準部、23…回転機構部、24…測距部、25…撮影部、26…制御部、27…本体部、28…回転照射部、29…台盤、30…下部ケーシング、31…ピン、32…調整ネジ、33…引っ張りスプリング、34…整準モータ、35…整準駆動ギア、36…整準従動ギア、37…傾斜センサ、38…水平回動モータ、39…水平回動駆動ギア、40…水平回動ギア、41…回転軸部、42…回転基盤、43…軸受部材、44…水平角検出器、45…本体部ケーシング、46…鏡筒、47…光軸、48…ビームスプリッタ、49,50…光軸、51…パルスレーザ光源、52…穴あきミラー、53…ビームウエスト変更光学系、54…測距受光部、55…高低角用回動ミラー、56…投光光軸、57…集光レンズ、58…画像受光部、59…投光ケーシング、60…フランジ部、61…ミラーホルダー板、62…回動軸、63…高低角ギア、64…高低角検出器、65…高低角用駆動モータ、66…駆動ギア、67…照星照門、68…外部記憶装置、69…水平駆動部、70…高低駆動部、71…整準駆動部、72…距離データ処理部、73…画像データ処理部、81…GPSアンテナ、82…GPS受信部、100’…三次元点群位置データ処理部。
DESCRIPTION OF
Claims (14)
前記三次元点群位置データ取得部が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更部と、
前記密度変更部で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去部と、
前記非面領域除去部によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング部と、
前記面ラベリング部によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成部と
を備えることを特徴とする三次元点群位置データ処理装置。 A 3D point cloud position data acquisition unit for acquiring 3D point cloud position data of the measurement object;
A density changing unit for three-dimensional point group position data for changing the density of the three-dimensional point group position data acquired by the three-dimensional point group position data acquiring unit;
A non-surface region removing unit that removes points of the non-surface region from the three-dimensional point cloud position data whose density has been changed by the density changing unit;
A surface labeling unit that gives the same label to points on the same surface, with respect to points other than the points removed by the non-surface region removing unit,
A three-dimensional point cloud position data processing apparatus comprising: a three-dimensional model creating unit that creates a three-dimensional model based on the surfaces classified by the surface labeling unit.
前記三次元モデル画像作成部は、前記相対的に解像度の低い三次元モデルの画像を作成した後に、前記相対的に解像度の高い三次元モデルの画像の作成を行うことを特徴とする請求項1乃至5のいずれか一項に記載の三次元点群位置データ処理装置。 A three-dimensional model image creating unit for creating an image of the three-dimensional model;
2. The 3D model image creation unit creates the 3D model image with a relatively high resolution after creating the 3D model image with a relatively low resolution. The three-dimensional point cloud position data processing device according to any one of claims 1 to 5.
前記面ラベリング部によって区分けされた面内から二次元エッジを抽出する二次元エッジ抽出部と、
前記三次元エッジと前記二次元エッジを統合するエッジ統合部と
を備えることを特徴とする請求項1乃至7のいずれか一項に記載の三次元点群位置データ処理装置。 A three-dimensional edge extraction unit that extracts a three-dimensional edge at a boundary portion between the surfaces divided by the surface labeling unit;
A two-dimensional edge extraction unit that extracts a two-dimensional edge from the plane divided by the surface labeling unit;
The three-dimensional point cloud position data processing device according to claim 1, further comprising: an edge integration unit that integrates the three-dimensional edge and the two-dimensional edge.
前記三次元エッジ抽出部は、前記境界領域面に基づいて三次元エッジの抽出を行うことを特徴とする請求項8に記載の三次元点群位置データ処理装置。 A boundary region surface forming part that forms a boundary region surface connecting between adjacent surfaces;
9. The three-dimensional point cloud position data processing apparatus according to claim 8, wherein the three-dimensional edge extraction unit extracts a three-dimensional edge based on the boundary region surface.
前記三次元点群位置データ取得ステップにおいて取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更ステップと、
前記密度変更ステップで密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去ステップと、
前記非面領域除去ステップにおいて除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリングステップと、
前記面ラベリングステップにおいて区分けされた面に基づき三次元モデルを作成する三次元モデル作成ステップと
を有することを特徴とする三次元点群位置データ処理方法。 3D point cloud position data acquisition step for acquiring 3D point cloud position data of the measurement object;
A density changing step of 3D point cloud position data for changing the density of the 3D point cloud position data acquired in the 3D point cloud position data acquiring step;
A non-surface region removal step of removing non-surface region points from the three-dimensional point cloud position data whose density has been changed in the density change step;
A surface labeling step for giving the same label to points on the same surface for points other than the points removed in the non-surface region removing step;
A three-dimensional point cloud position data processing method, comprising: a three-dimensional model creation step for creating a three-dimensional model based on the surfaces classified in the surface labeling step.
前記三次元点群位置データ取得手段が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更手段と、
前記密度変更手段で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去手段と、
前記非面領域除去手段によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング手段と、
前記面ラベリング手段によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成手段と
を備えることを特徴とする三次元点群位置データ処理システム。 3D point cloud position data acquisition means for acquiring 3D point cloud position data of the measurement object;
3D point cloud position data density changing means for changing the density of the 3D point cloud position data acquired by the 3D point cloud position data acquiring means;
Non-surface area removing means for removing non-surface area points from the three-dimensional point cloud position data whose density has been changed by the density changing means;
A surface labeling unit that gives the same label to a point on the same surface with respect to a point other than the point removed by the non-surface region removing unit,
A three-dimensional point cloud position data processing system comprising: a three-dimensional model creating means for creating a three-dimensional model based on the surfaces classified by the surface labeling means.
コンピュータを
測定対象物の三次元点群位置データを取得する三次元点群位置データ取得部と、
前記三次元点群位置データ取得部が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更部と、
前記密度変更部で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去部と、
前記非面領域除去部によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング部と、
前記面ラベリング部によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成部と
して機能させることを特徴とするプログラム。 A program that is read and executed by a computer,
A three-dimensional point cloud position data acquisition unit for acquiring three-dimensional point cloud position data of a measurement object;
A density changing unit for three-dimensional point group position data for changing the density of the three-dimensional point group position data acquired by the three-dimensional point group position data acquiring unit;
A non-surface region removing unit that removes points of the non-surface region from the three-dimensional point cloud position data whose density has been changed by the density changing unit;
A surface labeling unit that gives the same label to points on the same surface, with respect to points other than the points removed by the non-surface region removing unit,
A program that functions as a three-dimensional model creation unit that creates a three-dimensional model based on the surfaces classified by the surface labeling unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011099207A JP5711039B2 (en) | 2011-04-27 | 2011-04-27 | 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011099207A JP5711039B2 (en) | 2011-04-27 | 2011-04-27 | 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012230594A true JP2012230594A (en) | 2012-11-22 |
JP5711039B2 JP5711039B2 (en) | 2015-04-30 |
Family
ID=47432075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011099207A Active JP5711039B2 (en) | 2011-04-27 | 2011-04-27 | 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5711039B2 (en) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103759671A (en) * | 2014-01-10 | 2014-04-30 | 西北农林科技大学 | Non-contact scanning method of dental cast three-dimensional surface data |
WO2015049853A1 (en) | 2013-10-02 | 2015-04-09 | パナソニックIpマネジメント株式会社 | Dimension measurement device, dimension measurement method, dimension measurement system, and program |
JP2015158772A (en) * | 2014-02-24 | 2015-09-03 | アジア航測株式会社 | Stand-alone point group data display device, server-client point group data display system and point group data display program |
CN105389410A (en) * | 2014-08-25 | 2016-03-09 | 株式会社三丰 | three-dimensional model generating method and three-dimensional model generating system |
JP2016045780A (en) * | 2014-08-25 | 2016-04-04 | 株式会社ミツトヨ | Three-dimensional model generation method, three-dimensional model generation system, and three-dimensional model generation program |
EP3051493A1 (en) | 2015-01-27 | 2016-08-03 | Kabushiki Kaisha Topcon | Survey data processing device, survey data processing method, and program therefor |
JP2017505471A (en) * | 2013-12-13 | 2017-02-16 | アヴィバ ソリューションズ リミテッド | Image rendering of laser scan data |
JP2017097822A (en) * | 2016-02-01 | 2017-06-01 | ベステラ株式会社 | Three-dimensional image display system, three-dimensional image display device, three-dimensional image display method and three-dimensional image display system of plant facility |
CN106885530A (en) * | 2017-03-02 | 2017-06-23 | 华南理工大学 | The three-dimensional information acquisition method and system of a kind of microstructural surfaces |
EP3370209A1 (en) | 2017-03-02 | 2018-09-05 | Topcon Corporation | Point cloud data processing device, point cloud data processing method, and point cloud data processing program |
JP2018531402A (en) * | 2015-10-12 | 2018-10-25 | グラウンドプルーブ・ピーティーワイ・リミテッド | Slope stability rider |
US10127709B2 (en) | 2014-11-28 | 2018-11-13 | Panasonic Intellectual Property Management Co., Ltd. | Modeling device, three-dimensional model generating device, modeling method, and program |
CN109282746A (en) * | 2018-09-25 | 2019-01-29 | 上海润居工程检测咨询有限公司 | A kind of old housing quality detection system |
EP3454008A1 (en) | 2017-09-06 | 2019-03-13 | Topcon Corporation | Survey data processing device, survey data processing method, and survey data processing program |
US10354447B2 (en) | 2016-09-16 | 2019-07-16 | Topcon Corporation | Image processing device, image processing method, and image processing program |
US10382747B2 (en) | 2016-09-27 | 2019-08-13 | Topcon Corporation | Image processing apparatus, image processing method, and image processing program |
WO2019160022A1 (en) | 2018-02-14 | 2019-08-22 | 株式会社トプコン | Installation stand of unmanned aircraft, measurement method, measurement device, measurement system and program |
JP2019179217A (en) * | 2018-03-30 | 2019-10-17 | 日産自動車株式会社 | Map correction method and map correction device |
EP3628968A1 (en) | 2018-09-25 | 2020-04-01 | Topcon Corporation | Survey data processing device, survey data processing method, and survey data processing program |
WO2020145140A1 (en) * | 2019-01-08 | 2020-07-16 | ソニー株式会社 | Information processing device and method |
JPWO2019065299A1 (en) * | 2017-09-29 | 2020-10-22 | ソニー株式会社 | Information processing equipment and methods |
WO2020240949A1 (en) | 2019-05-31 | 2020-12-03 | 公益財団法人かずさDna研究所 | Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program |
CN112204383A (en) * | 2018-05-30 | 2021-01-08 | 株式会社尼康 | Information processing device, information processing method, information processing program, and microscope |
EP3771886A1 (en) | 2019-07-30 | 2021-02-03 | Topcon Corporation | Surveying apparatus, surveying method, and surveying program |
EP3792591A1 (en) | 2019-08-26 | 2021-03-17 | Topcon Corporation | Surveying data processing device, surveying data processing method, and surveying data processing program |
US10969493B2 (en) | 2017-09-19 | 2021-04-06 | Topcon Corporation | Data processing device, data processing method, and data processing program |
EP3869151A1 (en) * | 2020-02-24 | 2021-08-25 | RIEGL Laser Measurement Systems GmbH | Device for measuring an environment |
CN113471659A (en) * | 2021-06-21 | 2021-10-01 | 湖南赛能环保科技有限公司 | Acoustic radar antenna for acquiring three-dimensional wind field from ground to low altitude |
CN113511503A (en) * | 2021-06-17 | 2021-10-19 | 北京控制工程研究所 | Independent intelligent method for collecting, collecting and collecting uncertain objects in extraterrestrial exploration |
JP2022058770A (en) * | 2020-03-03 | 2022-04-12 | キヤノン株式会社 | Image processing apparatus, image processing system, image processing method, and program |
EP4008997A1 (en) | 2020-07-27 | 2022-06-08 | Topcon Corporation | Surveying system, surveying method, and surveying program |
WO2023170726A1 (en) * | 2022-03-07 | 2023-09-14 | 日本電信電話株式会社 | Point group data display device, point group data storage device, point group data display method, and point group data display program |
WO2024009409A1 (en) * | 2022-07-05 | 2024-01-11 | 日本電信電話株式会社 | Point group visualization device, point group visualization program, and point group visualization method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09198524A (en) * | 1996-01-11 | 1997-07-31 | Microsoft Corp | Progressive mesh |
JP2000339498A (en) * | 1999-05-31 | 2000-12-08 | Minolta Co Ltd | Three-dimensional shape data processor |
JP2002015308A (en) * | 2000-06-30 | 2002-01-18 | Minolta Co Ltd | Generating method for geometric model |
JP2003141567A (en) * | 2001-11-07 | 2003-05-16 | Japan Science & Technology Corp | Three-dimensional city model generating device and method of generating three-dimensional city model |
JP2003296706A (en) * | 2002-04-05 | 2003-10-17 | Asahi Koyo Kk | Method and device for extracting building, and method and device for vectorizing sample data |
JP2004078511A (en) * | 2002-08-16 | 2004-03-11 | Fuji Xerox Co Ltd | System and method for distributing data of three-dimensional shape |
JP2005308553A (en) * | 2004-04-21 | 2005-11-04 | Topcon Corp | Three-dimensional image measuring device and method |
-
2011
- 2011-04-27 JP JP2011099207A patent/JP5711039B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09198524A (en) * | 1996-01-11 | 1997-07-31 | Microsoft Corp | Progressive mesh |
JP2000339498A (en) * | 1999-05-31 | 2000-12-08 | Minolta Co Ltd | Three-dimensional shape data processor |
JP2002015308A (en) * | 2000-06-30 | 2002-01-18 | Minolta Co Ltd | Generating method for geometric model |
JP2003141567A (en) * | 2001-11-07 | 2003-05-16 | Japan Science & Technology Corp | Three-dimensional city model generating device and method of generating three-dimensional city model |
JP2003296706A (en) * | 2002-04-05 | 2003-10-17 | Asahi Koyo Kk | Method and device for extracting building, and method and device for vectorizing sample data |
JP2004078511A (en) * | 2002-08-16 | 2004-03-11 | Fuji Xerox Co Ltd | System and method for distributing data of three-dimensional shape |
JP2005308553A (en) * | 2004-04-21 | 2005-11-04 | Topcon Corp | Three-dimensional image measuring device and method |
Cited By (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105593637A (en) * | 2013-10-02 | 2016-05-18 | 松下知识产权经营株式会社 | Dimension measurement device, dimension measurement method, dimension measurement system, and program |
WO2015049853A1 (en) | 2013-10-02 | 2015-04-09 | パナソニックIpマネジメント株式会社 | Dimension measurement device, dimension measurement method, dimension measurement system, and program |
US10060734B2 (en) | 2013-10-02 | 2018-08-28 | Panasonic Intellectual Property Management Co., Ltd. | Dimension measurement device, dimension measurement method, dimension measurement system, and program |
US10467805B2 (en) | 2013-12-13 | 2019-11-05 | Aveva Solutions Limited | Image rendering of laser scan data |
JP2017505471A (en) * | 2013-12-13 | 2017-02-16 | アヴィバ ソリューションズ リミテッド | Image rendering of laser scan data |
CN103759671A (en) * | 2014-01-10 | 2014-04-30 | 西北农林科技大学 | Non-contact scanning method of dental cast three-dimensional surface data |
JP2015158772A (en) * | 2014-02-24 | 2015-09-03 | アジア航測株式会社 | Stand-alone point group data display device, server-client point group data display system and point group data display program |
JP2016045781A (en) * | 2014-08-25 | 2016-04-04 | 株式会社ミツトヨ | Three-dimensional model generation method, three-dimensional model generation system, and three-dimensional model generation program |
JP2016045780A (en) * | 2014-08-25 | 2016-04-04 | 株式会社ミツトヨ | Three-dimensional model generation method, three-dimensional model generation system, and three-dimensional model generation program |
CN105389410A (en) * | 2014-08-25 | 2016-03-09 | 株式会社三丰 | three-dimensional model generating method and three-dimensional model generating system |
US10127709B2 (en) | 2014-11-28 | 2018-11-13 | Panasonic Intellectual Property Management Co., Ltd. | Modeling device, three-dimensional model generating device, modeling method, and program |
EP3051493A1 (en) | 2015-01-27 | 2016-08-03 | Kabushiki Kaisha Topcon | Survey data processing device, survey data processing method, and program therefor |
JP2018531402A (en) * | 2015-10-12 | 2018-10-25 | グラウンドプルーブ・ピーティーワイ・リミテッド | Slope stability rider |
JP7076372B2 (en) | 2015-10-12 | 2022-05-27 | グラウンドプルーブ・ピーティーワイ・リミテッド | Slope stability rider |
JP2017097822A (en) * | 2016-02-01 | 2017-06-01 | ベステラ株式会社 | Three-dimensional image display system, three-dimensional image display device, three-dimensional image display method and three-dimensional image display system of plant facility |
US10354447B2 (en) | 2016-09-16 | 2019-07-16 | Topcon Corporation | Image processing device, image processing method, and image processing program |
US10382747B2 (en) | 2016-09-27 | 2019-08-13 | Topcon Corporation | Image processing apparatus, image processing method, and image processing program |
US10810699B2 (en) | 2017-03-02 | 2020-10-20 | Topcon Corporation | Point cloud data processing device, point cloud data processing method, and point cloud data processing program |
EP3370209A1 (en) | 2017-03-02 | 2018-09-05 | Topcon Corporation | Point cloud data processing device, point cloud data processing method, and point cloud data processing program |
CN106885530A (en) * | 2017-03-02 | 2017-06-23 | 华南理工大学 | The three-dimensional information acquisition method and system of a kind of microstructural surfaces |
EP3454008A1 (en) | 2017-09-06 | 2019-03-13 | Topcon Corporation | Survey data processing device, survey data processing method, and survey data processing program |
US10565730B2 (en) | 2017-09-06 | 2020-02-18 | Topcon Corporation | Survey data processing device, survey data processing method, and survey data processing program |
US10969493B2 (en) | 2017-09-19 | 2021-04-06 | Topcon Corporation | Data processing device, data processing method, and data processing program |
JP7268599B2 (en) | 2017-09-29 | 2023-05-08 | ソニーグループ株式会社 | Information processing device and method |
JPWO2019065299A1 (en) * | 2017-09-29 | 2020-10-22 | ソニー株式会社 | Information processing equipment and methods |
US11221216B2 (en) | 2018-02-14 | 2022-01-11 | Topcon Corporation | Placement table for unmanned aerial vehicle, surveying method, surveying device, surveying system and program |
WO2019160022A1 (en) | 2018-02-14 | 2019-08-22 | 株式会社トプコン | Installation stand of unmanned aircraft, measurement method, measurement device, measurement system and program |
JP7154025B2 (en) | 2018-03-30 | 2022-10-17 | 日産自動車株式会社 | Map correction method and map correction device |
JP2019179217A (en) * | 2018-03-30 | 2019-10-17 | 日産自動車株式会社 | Map correction method and map correction device |
CN112204383A (en) * | 2018-05-30 | 2021-01-08 | 株式会社尼康 | Information processing device, information processing method, information processing program, and microscope |
CN109282746A (en) * | 2018-09-25 | 2019-01-29 | 上海润居工程检测咨询有限公司 | A kind of old housing quality detection system |
EP3628968A1 (en) | 2018-09-25 | 2020-04-01 | Topcon Corporation | Survey data processing device, survey data processing method, and survey data processing program |
WO2020145140A1 (en) * | 2019-01-08 | 2020-07-16 | ソニー株式会社 | Information processing device and method |
WO2020240949A1 (en) | 2019-05-31 | 2020-12-03 | 公益財団法人かずさDna研究所 | Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program |
US11941852B2 (en) | 2019-05-31 | 2024-03-26 | Kazusa Dna Research Institute | Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program |
EP3771886A1 (en) | 2019-07-30 | 2021-02-03 | Topcon Corporation | Surveying apparatus, surveying method, and surveying program |
US11725938B2 (en) | 2019-07-30 | 2023-08-15 | Topcon Corporation | Surveying apparatus, surveying method, and surveying program |
EP3792591A1 (en) | 2019-08-26 | 2021-03-17 | Topcon Corporation | Surveying data processing device, surveying data processing method, and surveying data processing program |
US11580696B2 (en) | 2019-08-26 | 2023-02-14 | Topcon Corporation | Surveying data processing device, surveying data processing method, and surveying data processing program |
EP3869151A1 (en) * | 2020-02-24 | 2021-08-25 | RIEGL Laser Measurement Systems GmbH | Device for measuring an environment |
JP2022058770A (en) * | 2020-03-03 | 2022-04-12 | キヤノン株式会社 | Image processing apparatus, image processing system, image processing method, and program |
JP7439146B2 (en) | 2020-03-03 | 2024-02-27 | キヤノン株式会社 | Image processing system, image processing method and program |
EP4008997A1 (en) | 2020-07-27 | 2022-06-08 | Topcon Corporation | Surveying system, surveying method, and surveying program |
EP4246088A1 (en) | 2020-07-27 | 2023-09-20 | Topcon Corporation | Surveying system, surveying method, and surveying program |
CN113511503B (en) * | 2021-06-17 | 2022-09-23 | 北京控制工程研究所 | Independent intelligent method for collecting, collecting and collecting uncertain objects by extraterrestrial detection |
CN113511503A (en) * | 2021-06-17 | 2021-10-19 | 北京控制工程研究所 | Independent intelligent method for collecting, collecting and collecting uncertain objects in extraterrestrial exploration |
CN113471659A (en) * | 2021-06-21 | 2021-10-01 | 湖南赛能环保科技有限公司 | Acoustic radar antenna for acquiring three-dimensional wind field from ground to low altitude |
CN113471659B (en) * | 2021-06-21 | 2024-04-16 | 湖南赛能环保科技有限公司 | Sodar antenna for acquiring three-dimensional wind field from ground to low altitude |
WO2023170726A1 (en) * | 2022-03-07 | 2023-09-14 | 日本電信電話株式会社 | Point group data display device, point group data storage device, point group data display method, and point group data display program |
WO2024009409A1 (en) * | 2022-07-05 | 2024-01-11 | 日本電信電話株式会社 | Point group visualization device, point group visualization program, and point group visualization method |
Also Published As
Publication number | Publication date |
---|---|
JP5711039B2 (en) | 2015-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5711039B2 (en) | 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program | |
JP6236118B2 (en) | 3D data processing apparatus, 3D data processing system, 3D data processing method and program | |
JP5593177B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
JP5620200B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
JP5462093B2 (en) | Point cloud data processing device, point cloud data processing system, point cloud data processing method, and point cloud data processing program | |
JP5343042B2 (en) | Point cloud data processing apparatus and point cloud data processing program | |
JP5465128B2 (en) | Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and point cloud position data processing program | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
EP2976748B1 (en) | Image-based 3d panorama | |
JP5480914B2 (en) | Point cloud data processing device, point cloud data processing method, and point cloud data processing program | |
US10681269B2 (en) | Computer-readable recording medium, information processing method, and information processing apparatus | |
JP6541920B1 (en) | INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD | |
JP7420815B2 (en) | System and method for selecting complementary images from a plurality of images for 3D geometric extraction | |
WO2022078439A1 (en) | Apparatus and method for acquisition and matching of 3d information of space and object | |
WO2022078438A1 (en) | Indoor 3d information acquisition device | |
JP7392101B2 (en) | Point cloud data processing device, point cloud data processing method, and program | |
JP7170234B2 (en) | Inspection device and inspection method | |
JP2006003276A (en) | Three dimensional geometry measurement system | |
JP7326446B2 (en) | Image display device, method and program | |
JP2022141624A (en) | Road surface condition survey system, road surface condition survey device and road surface condition survey method | |
JP2022124909A (en) | Information processor | |
CN113544462A (en) | Quantity calculation device and quantity calculation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5711039 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |