JP2012230594A - Three-dimensional point group position data processor, three-dimensional point group position data processing method, three-dimensional point group position data processing system, and program - Google Patents

Three-dimensional point group position data processor, three-dimensional point group position data processing method, three-dimensional point group position data processing system, and program Download PDF

Info

Publication number
JP2012230594A
JP2012230594A JP2011099207A JP2011099207A JP2012230594A JP 2012230594 A JP2012230594 A JP 2012230594A JP 2011099207 A JP2011099207 A JP 2011099207A JP 2011099207 A JP2011099207 A JP 2011099207A JP 2012230594 A JP2012230594 A JP 2012230594A
Authority
JP
Japan
Prior art keywords
position data
dimensional
point cloud
unit
cloud position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011099207A
Other languages
Japanese (ja)
Other versions
JP5711039B2 (en
Inventor
Nobuo Takachi
伸夫 高地
Kazuo Kitamura
和男 北村
Tadayuki Ito
忠之 伊藤
Hitoshi Otani
仁志 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2011099207A priority Critical patent/JP5711039B2/en
Publication of JP2012230594A publication Critical patent/JP2012230594A/en
Application granted granted Critical
Publication of JP5711039B2 publication Critical patent/JP5711039B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology for learning interim progress of three-dimensional point group position data.SOLUTION: A three-dimensional models whose resolutions are gradually changed are created (S505) on the basis of three-dimensional point group position data (S502) measured by a three-dimensional laser scanner. In this case, creation of a three-dimensional model with low resolution and its display (S506) are performed, after that, creation of a three-dimensional model with high resolution and its display are further performed by succeeding labelled data (S509). Here, a user can grasp a step in the middle of completion of the final three-dimensional model by displaying the three-dimensional model with low resolution.

Description

測定対象物の三次元点群位置データから三次元形状を生成する技術が知られている。三次元点群位置データでは、二次元画像と三次元座標とが結び付けられている。すなわち、三次元点群位置データでは、測定対象物の二次元画像のデータと、この二次元画像に対応付けされた複数の測定点(点群)と、この複数の測定点の三次元空間中の位置(三次元座標)とが関連付けされている。三次元点群位置データによれば、点の集合により測定対象物の外形を再現した三次元モデルを得ることができる。また、各点の三次元座標が判るので、各点の三次元空間中における相対位置関係が把握でき、画面表示した三次元モデルの画像を回転させたり、異なる視点から見た画像に切り替えたりする処理が可能となる。   A technique for generating a three-dimensional shape from three-dimensional point cloud position data of a measurement object is known. In the three-dimensional point cloud position data, a two-dimensional image and a three-dimensional coordinate are linked. That is, in the three-dimensional point cloud position data, the data of the two-dimensional image of the measurement object, a plurality of measurement points (point cloud) associated with the two-dimensional image, and the three-dimensional space of the plurality of measurement points in the three-dimensional space. Are associated with each other (three-dimensional coordinates). According to the three-dimensional point cloud position data, it is possible to obtain a three-dimensional model that reproduces the outer shape of the measurement object using a set of points. In addition, since the three-dimensional coordinates of each point are known, the relative positional relationship of each point in the three-dimensional space can be grasped, and the image of the three-dimensional model displayed on the screen can be rotated or switched to an image viewed from a different viewpoint. Processing is possible.

例えば、特許文献1に記載の発明では、走査レーザー装置が三次元対象を走査して、ポイントクラウドを生成する。ポイントクラウドは、走査点に関する深さと法線の変化に基づいて、エッジポイントと非エッジポイントのグループに分割される。各グループを幾何学的原図にフィットさせ、フィットした幾何学的原図を拡張、交差させることで、三次元形状を生成する。   For example, in the invention described in Patent Document 1, a scanning laser device scans a three-dimensional object to generate a point cloud. The point cloud is divided into groups of edge points and non-edge points based on depth and normal changes with respect to the scan points. A three-dimensional shape is generated by fitting each group to a geometric original drawing and expanding and intersecting the fitted geometric original drawing.

特許文献2に記載の発明では、三次元点群位置データからセグメント(三角ポリゴン)を形成し、隣接するポリゴン同士の連続性、法線方向、または距離に基づき、エッジおよび面を抽出する。また、各セグメントの三次元点群位置データの平面性または曲面性を、最小二乗法を用いて、平面方程式または曲面方程式に置き換え、グループ分けを行い、三次元形状を生成する。   In the invention described in Patent Document 2, a segment (triangular polygon) is formed from three-dimensional point cloud position data, and edges and surfaces are extracted based on continuity, normal direction, or distance between adjacent polygons. Further, the planarity or curvedness of the three-dimensional point cloud position data of each segment is replaced with a planar equation or a curved surface equation using a least square method, and grouping is performed to generate a three-dimensional shape.

特許文献3に記載の発明では、三次元点群位置データに対して二次元矩形領域を設定し、その矩形領域に対応する測定点の合成法線ベクトルを求める。そして合成法線ベクトルがZ軸方向と一致するように、矩形領域内の全ての計測点を回転移動する。更に矩形領域内の各計測点についてZ値の標準偏差σを求め、標準偏差σが所定値を超えた場合、矩形領域の中心点と対応する計測点をノイズとして取り扱う。   In the invention described in Patent Document 3, a two-dimensional rectangular area is set for three-dimensional point cloud position data, and a combined normal vector of measurement points corresponding to the rectangular area is obtained. Then, all measurement points in the rectangular area are rotationally moved so that the combined normal vector coincides with the Z-axis direction. Further, the standard deviation σ of the Z value is obtained for each measurement point in the rectangular area, and when the standard deviation σ exceeds a predetermined value, the measurement point corresponding to the center point of the rectangular area is handled as noise.

特表2000−509150号公報Special Table 2000-509150 特開2004−272459号公報Japanese Patent Laid-Open No. 2004-272459 特開2005−024370号公報JP 2005-024370 A

三次元点群位置データの点の数は、数万点〜数億点にもなる。そのため、取得した三次元点群位置データを処理し、三次元モデルを作成するにはある程度の時間が必要とされる。勿論、この処理時間は、使用する演算装置の性能、測定対象物の形状、求められる分解能等に依存するのであるが、一般的なパーソナルコンピュータを用いた場合、数時間以上を必要とする場合がある。この演算の最中は、どのような結果が得られるのか不明となるが、途中であっても概略のアウトラインだけでも知りたいというユーザの要望がある。また、三次元モデルが得られた段階で三次元点群位置データを取得する視点の設定が適切でなく、視点を変えて再度の三次元点群位置データの取得が必要となる場合があるが、この場合も最終結果に至る前に、解像度は悪くてもある程度のアウトラインが判る三次元モデルを見ることができれば、視点が適当でなかった旨が判る場合がある。このような場合、演算を最後まで行う前の段階で、この演算の妥当性がわかれば、無駄な処理を削減でき、作業を効率化することができる。このような背景において、本発明は、三次元点群位置データの処理の途中経過を知ることができる技術を提供することを目的とする。   The number of points of the three-dimensional point cloud position data is tens of thousands to hundreds of millions. Therefore, a certain amount of time is required to process the acquired 3D point cloud position data and create a 3D model. Of course, this processing time depends on the performance of the computing device used, the shape of the measurement object, the required resolution, etc., but when a general personal computer is used, it may require several hours or more. is there. During this calculation, it is unclear what kind of result will be obtained, but there is a user's desire to know only a rough outline even in the middle. In addition, when the 3D model is obtained, the viewpoint setting for acquiring 3D point cloud position data is not appropriate, and it may be necessary to change the viewpoint and acquire 3D point cloud position data again. Even in this case, if the 3D model can be seen with some outline even though the resolution is low, it may be found that the viewpoint is not appropriate before reaching the final result. In such a case, if the validity of this calculation is known at the stage before the calculation is performed to the end, useless processing can be reduced and the work efficiency can be improved. In such a background, an object of the present invention is to provide a technique capable of knowing the progress of processing of three-dimensional point cloud position data.

請求項1に記載の発明は、測定対象物の三次元点群位置データを取得する三次元点群位置データ取得部と、前記三次元点群位置データ取得部が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更部と、前記密度変更部で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去部と、前記非面領域除去部によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング部と、前記面ラベリング部によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成部とを備えることを特徴とする三次元点群位置データ処理装置である。   The invention according to claim 1 is a three-dimensional point group position data acquisition unit that acquires three-dimensional point group position data of a measurement object, and the three-dimensional point group position acquired by the three-dimensional point group position data acquisition unit. A density changing unit for three-dimensional point cloud position data for changing the density of the data, and a non-plane area removing unit for removing points of the non-plane area from the three-dimensional point cloud position data whose density has been changed by the density changing unit; A surface labeling unit that assigns the same label to points on the same surface with respect to points other than the points removed by the non-surface region removal unit, and a three-dimensional model based on the surface divided by the surface labeling unit A three-dimensional point cloud position data processing device comprising a three-dimensional model creation unit for creating.

請求項1に記載の発明によれば、密度変更部において三次元点群位置データの密度が変更され、この密度が変更された三次元点群位置データに基づく三次元モデルの作成が行われる。演算の基礎データとなる三次元点群位置データの密度を下げることで、解像度は低下するが、三次元モデルの作成に要する処理の負担は軽減される。つまり、粗い三次元モデルとなるが、処理に要する時間は短縮される。よって、取得した三次元点群位置データの密度を下げ、それに基づく三次元モデルの作成を行うことで、三次元点群位置データの密度の変更を行わずに三次元モデルの作成を行う場合に比較して、より短い処理時間で三次元モデルを得ることができる。この機能を利用すると、最終的な三次元モデルが得られる前の段階で、低精度の三次元モデルをより短時間で得ることが可能となり、この低精度の三次元モデルをユーザに示すことで、ユーザは三次元点群位置データの処理の途中経過を知ることができる。また、この機能を利用すると、解像度を下げた階層を選択することで、低解像度は許容するが、短い処理時間で三次元モデルを得たい要求に応じることができる。   According to the first aspect of the present invention, the density changing unit changes the density of the three-dimensional point cloud position data, and creates a three-dimensional model based on the three-dimensional point cloud position data with the changed density. By reducing the density of the 3D point cloud position data, which is the basic data for the calculation, the resolution is reduced, but the processing load required for creating the 3D model is reduced. That is, a rough three-dimensional model is obtained, but the time required for processing is shortened. Therefore, when creating a 3D model without changing the density of the 3D point cloud position data by reducing the density of the acquired 3D point cloud position data and creating a 3D model based on it In comparison, a three-dimensional model can be obtained in a shorter processing time. By using this function, it is possible to obtain a low-accuracy 3D model in a shorter time before the final 3D model is obtained. By presenting this low-accuracy 3D model to the user, The user can know the progress of the processing of the 3D point cloud position data. In addition, if this function is used, low resolution is allowed by selecting a hierarchy with a reduced resolution, but it is possible to meet a request for obtaining a three-dimensional model in a short processing time.

請求項2に記載の発明は、請求項1に記載の発明において、前記密度変更部における密度の変更が2以上の階層で行われることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the density change in the density changing unit is performed in two or more layers.

請求項3に記載の発明は、請求項2に記載の発明において、前記密度変更部は、前記三次元モデルの作成に要する時間に基づき前記階層の数を決定することを特徴とする。解像度を落とさずに三次元モデルを作成した場合、基礎となる三次元点群位置データの密度が大きい(つまりデータ量が多い)ので、処理に要する時間は長くなる。他方で、解像度を落とした場合、基礎となる三次元点群位置データの密度が小さくなる(つまりデータ量が少なくなる)ので、処理に要する時間を短くできる。階層の数を多くした場合、より低解像度の三次元モデルの作成から処理が始められるので、1階層に係る処理時間は相対的に短くなる。したがって、1階層の処理に要する時間に基づいて、階層の数を決定することで、ユーザの要求に沿った処理が行われるように設定が行われる。   The invention according to claim 3 is the invention according to claim 2, wherein the density changing unit determines the number of layers based on a time required to create the three-dimensional model. When a three-dimensional model is created without reducing the resolution, the density of the basic three-dimensional point cloud position data is large (that is, the amount of data is large), so the time required for processing becomes long. On the other hand, when the resolution is lowered, the density of the basic three-dimensional point cloud position data is reduced (that is, the data amount is reduced), so that the time required for processing can be shortened. When the number of layers is increased, the processing can be started from the creation of a lower-resolution three-dimensional model, so that the processing time for one layer is relatively short. Therefore, by setting the number of hierarchies based on the time required for processing of one layer, settings are performed so that processing according to the user's request is performed.

請求項4に記載の発明は、請求項1乃至3のいずれか一項に記載の発明において、前記三次元モデル作成部は、相対的に解像度の低い三次元モデルを作成した後に相対的に解像度の高い三次元モデルを作成することを特徴とする。   The invention according to claim 4 is the invention according to any one of claims 1 to 3, wherein the three-dimensional model creation unit creates a relatively low resolution after creating a relatively low resolution three-dimensional model. It is characterized by creating a high three-dimensional model.

請求項4に記載の発明によれば、低解像度の三次元モデルの作成の後で高解像度の三次元モデルの作成が行われる。すなわち、段階的に解像度が高くなってゆく三次元モデルの作成が行われる。この解像度を段階的に上げた三次元モデルの作成においては、1段階(1階層)の処理に用いる三次元点群位置データの量を、この段階的な処理を行わない場合に比較して少なくできるので、1段階当たり(1階層あたり)の処理に要する時間を短縮することができる。このため、より早い段階で低解像度ではあるが三次元モデルを得ることができる。   According to the invention described in claim 4, the high-resolution three-dimensional model is created after the low-resolution three-dimensional model is created. That is, a three-dimensional model whose resolution increases step by step is created. In creating a three-dimensional model with a stepwise increase in resolution, the amount of three-dimensional point cloud position data used for one-step (one-layer) processing is smaller than when the step-wise processing is not performed. Therefore, the time required for processing per stage (per layer) can be shortened. Therefore, a three-dimensional model can be obtained at an earlier stage although the resolution is low.

請求項5に記載の発明は、請求項4に記載の発明において、前記三次元モデル作成部は、前記相対的に解像度の低い三次元モデルを作成した際に付与された前記同一ラベルの情報に基づき、前記相対的に解像度の高い三次元モデルの作成を行うことを特徴とする。   According to a fifth aspect of the present invention, in the fourth aspect of the present invention, the three-dimensional model creation unit uses the same label information given when the three-dimensional model having a relatively low resolution is created. Based on the above, a three-dimensional model having a relatively high resolution is created.

請求項5に記載の発明によれば、相対的に低解像度の階層において作成されたラベルのデータが、その下位にある相対的に高解像度の階層における処理に引き継がれる。つまり、粗いラベリングがまず行われ、次にこのラベリングのデータが引き継がれて、より細部のラベリングが行われる。こうすることで、処理の効率が高くなる。仮に、階層が変わる毎にラベリングを一から行う手順とした場合、高解像度の階層となるに従い処理の負担が増大し、最後の階層では、従来技術における処理と負担は変わらなくなる。   According to the fifth aspect of the present invention, the label data created in the relatively low resolution layer is taken over by the processing in the relatively high resolution layer below it. In other words, coarse labeling is performed first, and then the labeling data is taken over to perform more detailed labeling. By doing so, the processing efficiency is increased. Assuming that the labeling is performed from the beginning every time the layer changes, the processing load increases as the layer becomes a higher resolution layer, and the processing in the prior art does not change at the last layer.

請求項6に記載の発明は、請求項1乃至5のいずれか一項に記載の発明において、前記三次元モデルの画像を作成する三次元モデル画像作成部を更に備え、前記三次元モデル画像作成部は、前記相対的に解像度の低い三次元モデルの画像を作成した後に、前記相対的に解像度の高い三次元モデルの画像の作成を行うことを特徴とする。請求項6に記載の発明によれば、段階的に解像度が高くなる三次元モデルの画像の表示が行われるので、徐々に解像度が高くなる三次元モデルの状態をユーザが観察できる。   The invention according to claim 6 is the invention according to any one of claims 1 to 5, further comprising a three-dimensional model image creation unit that creates an image of the three-dimensional model, and the three-dimensional model image creation. The unit is characterized in that after the image of the three-dimensional model having a relatively low resolution is created, the image of the three-dimensional model having a relatively high resolution is created. According to the invention described in claim 6, since the image of the three-dimensional model whose resolution is gradually increased is displayed, the user can observe the state of the three-dimensional model whose resolution is gradually increased.

請求項7に記載の発明は、請求項6に記載の発明において、前記相対的に解像度の低い三次元モデルの画像を作成した後に、前記相対的に解像度の高い三次元モデルの作成を中止させる指示を受け付ける受付部を備えることを特徴とする。   According to a seventh aspect of the invention, in the sixth aspect of the invention, after the image of the relatively low-resolution three-dimensional model is created, the creation of the relatively high-resolution three-dimensional model is stopped. A reception unit that receives an instruction is provided.

請求項7に記載の発明によれば、最終的な高解像度の三次元モデルが作成される前の段階で処理を止めることができる。仮に、複数の段階を経ずにいきなり最終的な高解像度の三次元モデルが作成する処理とした場合、三次元モデルが得られた段階で視点の設定等の誤りに気付いても、既に処理は終了しているので、それまでの処理が無駄になる。これに対して、解像度を段階的に分けた処理で三次元モデルを得る方法では、演算量が少なくて済む低解像度の段階で誤りに気付き、その時点で処理を中止することで、無駄に行われる演算を減らすことができる。   According to the seventh aspect of the present invention, the processing can be stopped before the final high-resolution three-dimensional model is created. If the final high-resolution 3D model is created without going through multiple stages, even if you notice an error such as setting the viewpoint when the 3D model is obtained, Since it has been completed, the processing up to that point is wasted. On the other hand, in the method of obtaining a 3D model by dividing the resolution step by step, an error is noticed at the low resolution stage where the amount of calculation is small, and the processing is stopped at that point, and this is wastefully performed. Can be reduced.

請求項8に記載の発明は、請求項1乃至7のいずれか一項に記載の発明において、前記面ラベリング部によって区分けされた面同士の境界部分における三次元エッジを抽出する三次元エッジ抽出部と、前記面ラベリング部によって区分けされた面内から二次元エッジを抽出する二次元エッジ抽出部と、前記三次元エッジと前記二次元エッジを統合するエッジ統合部とを備えることを特徴とする。請求項8に記載の発明によれば、三次元モデルの作成が効率よく行われる。   The invention according to claim 8 is the invention according to any one of claims 1 to 7, wherein the three-dimensional edge extracting unit extracts a three-dimensional edge at a boundary portion between the surfaces divided by the surface labeling unit. And a two-dimensional edge extraction unit that extracts a two-dimensional edge from the plane divided by the surface labeling unit, and an edge integration unit that integrates the three-dimensional edge and the two-dimensional edge. According to the invention described in claim 8, the creation of the three-dimensional model is efficiently performed.

請求項9に記載の発明は、請求項8に記載の発明において、隣接する面の間を繋ぐ境界領域面を形成する境界領域面形成部を更に備え、前記三次元エッジ抽出部は、前記境界領域面に基づいて三次元エッジの抽出を行うことを特徴とする。境界領域面を作成し、それに基づいて三次元エッジの抽出を行うことで、測定対象物の外観の特徴を精度良く再現した三次元モデルを作成することができる。   The invention according to claim 9 is the invention according to claim 8, further comprising a boundary region surface forming unit that forms a boundary region surface that connects adjacent surfaces, wherein the three-dimensional edge extraction unit includes the boundary A feature is that a three-dimensional edge is extracted based on a region plane. By creating a boundary region surface and extracting a three-dimensional edge based on the boundary region surface, it is possible to create a three-dimensional model that accurately reproduces the appearance features of the measurement object.

請求項10に記載の発明は、請求項1乃至9のいずれか一項に記載の発明において、前記非面領域除去部は、複数の三次元点群位置データにより形成される局所面の平面へのフィッティング精度、曲率、他の局所面との共平面性の少なくとも一つに基づいて非面領域の除去を行うことを特徴とする。請求項10に記載の発明によれば、精度良く面の抽出を行うことができる。   A tenth aspect of the present invention is the invention according to any one of the first to ninth aspects, wherein the non-surface region removing unit is a plane of a local surface formed by a plurality of three-dimensional point group position data. The non-surface region is removed based on at least one of the fitting accuracy, curvature, and coplanarity with other local surfaces. According to the invention described in claim 10, the surface can be extracted with high accuracy.

請求項11に記載の発明は、請求項1乃至10のいずれか一項に記載の発明において、前記面ラベリング部によってラベルが付与されていない点に対して、最近傍面のラベルを付与し、前記ラベルを拡張するラベル拡張部をさらに備えることを特徴とする。ラベル拡張部でラベルを拡張することで、三次元モデルの完成度を高めることができる。   The invention according to claim 11 is the invention according to any one of claims 1 to 10, wherein the label of the nearest surface is given to the point where the label is not given by the surface labeling part, The apparatus further includes a label expansion unit that expands the label. The degree of completeness of the three-dimensional model can be increased by extending the label in the label extension unit.

請求項12に記載の発明は、測定対象物の三次元点群位置データを取得する三次元点群位置データ取得ステップと、前記三次元点群位置データ取得ステップにおいて取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更ステップと、前記密度変更ステップで密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去ステップと、前記非面領域除去ステップにおいて除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリングステップと、 前記面ラベリングステップにおいて区分けされた面に基づき三次元モデルを作成する三次元モデル作成ステップとを有することを特徴とする三次元点群位置データ処理方法である。   The invention according to claim 12 is a three-dimensional point cloud position data acquisition step for acquiring three-dimensional point cloud position data of a measurement object, and the three-dimensional point cloud position acquired in the three-dimensional point cloud position data acquisition step. A density changing step of 3D point cloud position data for changing the density of the data, and a non-plane area removing step for removing points of the non-plane area from the 3D point cloud position data whose density has been changed in the density changing step; A surface labeling step for assigning the same label to points on the same surface with respect to points other than the points removed in the non-surface region removal step; and a three-dimensional model based on the surfaces divided in the surface labeling step. A three-dimensional point cloud position data processing method comprising: a three-dimensional model creation step for creating.

請求項13に記載の発明は、測定対象物の三次元点群位置データを取得する三次元点群位置データ取得手段と、前記三次元点群位置データ取得手段が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更手段と、前記密度変更手段で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去手段と、前記非面領域除去手段によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング手段と、前記面ラベリング手段によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成手段とを備えることを特徴とする三次元点群位置データ処理システムである。   The invention according to claim 13 is a three-dimensional point group position data acquisition unit that acquires three-dimensional point group position data of a measurement object, and the three-dimensional point group position acquired by the three-dimensional point group position data acquisition unit. 3D point cloud position data density changing means for changing data density, and non-plane area removing means for removing non-plane area points from the 3D point cloud position data whose density has been changed by the density changing means; The surface labeling means for assigning the same label to the points on the same surface with respect to the points other than the points removed by the non-surface area removing means, and the three-dimensional model based on the surface divided by the surface labeling means A three-dimensional point cloud position data processing system comprising a three-dimensional model creating means for creating.

請求項14に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを測定対象物の三次元点群位置データを取得する三次元点群位置データ取得部と、前記三次元点群位置データ取得部が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更部と、前記密度変更部で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去部と、前記非面領域除去部によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング部と、前記面ラベリング部によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成部として機能させることを特徴とするプログラムである。   The invention according to claim 14 is a program that is read and executed by a computer, the computer acquiring a three-dimensional point cloud position data acquisition unit for acquiring three-dimensional point cloud position data of the measurement object, and the three-dimensional point From the density changing unit of the 3D point cloud position data for changing the density of the 3D point cloud position data acquired by the group position data acquiring unit, and the 3D point cloud position data whose density has been changed by the density changing unit A non-surface area removing unit that removes points in the non-surface area; a surface labeling unit that gives the same label to points on the same surface with respect to points other than the points removed by the non-surface area removing unit; and It is a program characterized by functioning as a three-dimensional model creation unit that creates a three-dimensional model based on the surfaces classified by the surface labeling unit.

本発明によれば、三次元点群位置データの処理の途中経過を知ることができる技術が提供される。   ADVANTAGE OF THE INVENTION According to this invention, the technique which can know the progress in the middle of the process of 3D point cloud position data is provided.

実施形態のブロック図である。It is a block diagram of an embodiment. 三次元点群位置データの分布状態の一例を説明する概念図である。It is a conceptual diagram explaining an example of the distribution state of three-dimensional point cloud position data. 三次元点群位置データの密度を説明する概念図である。It is a conceptual diagram explaining the density of three-dimensional point cloud position data. 実施形態のブロック図である。It is a block diagram of an embodiment. 実施形態における処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the process in embodiment. 階層化の一例を説明する概念図である。It is a conceptual diagram explaining an example of hierarchization. 階層化された三次元モデルの画像の一例を示す画像表示図である。It is an image display figure which shows an example of the image of the hierarchized three-dimensional model. 各パラメータの関係を説明する概念図である。It is a conceptual diagram explaining the relationship of each parameter. レーザースキャナの内部構造の一例を示す内部構造図である。It is an internal structure figure which shows an example of the internal structure of a laser scanner. レーザースキャナの内部構造の一例を示す内部構造図である。It is an internal structure figure which shows an example of the internal structure of a laser scanner. レーザースキャナに係るブロック図である。It is a block diagram concerning a laser scanner. レーザースキャナに係るブロック図である。It is a block diagram concerning a laser scanner. 三次元点群位置データの一例を示す概念図である。It is a conceptual diagram which shows an example of three-dimensional point cloud position data. 三次元点群位置データの一例を示す概念図である。It is a conceptual diagram which shows an example of three-dimensional point cloud position data.

1.第1の実施形態
(構成)
以下、発明を利用した三次元点群位置データ処理装置の一例について、図面を参照して説明する。なお以下の説明において、三次元点群位置データは、測定対象物の各測定点における三次元座標データを含んでいる。三次元座標を表示する座標系は、直交座標系または極座標系が採用される。
1. First embodiment (configuration)
Hereinafter, an example of a three-dimensional point cloud position data processing apparatus using the invention will be described with reference to the drawings. In the following description, the three-dimensional point cloud position data includes three-dimensional coordinate data at each measurement point of the measurement object. An orthogonal coordinate system or a polar coordinate system is adopted as a coordinate system for displaying three-dimensional coordinates.

図1には、三次元点群位置データ処理装置100が示されている。三次元点群位置データ処理装置100は、測定対象物の三次元点群位置データに基づいて当該測定対象物の三次元モデルを作成する機能を有している。三次元点群位置データ処理装置100は、パーソナルコンピュータ上においてソフトウェア的に構成されている。三次元点群位置データ処理装置100をパーソナルコンピュータ上で構成するプログラムは、パーソナルコンピュータ中にインストールされている。なお、このプログラムは、サーバや適当な記録媒体に記録しておき、そこから提供される形態であってもよい。   FIG. 1 shows a three-dimensional point cloud position data processing device 100. The three-dimensional point cloud position data processing apparatus 100 has a function of creating a three-dimensional model of the measurement object based on the three-dimensional point cloud position data of the measurement object. The three-dimensional point cloud position data processing apparatus 100 is configured as software on a personal computer. A program that configures the three-dimensional point cloud position data processing apparatus 100 on a personal computer is installed in the personal computer. This program may be recorded on a server or an appropriate recording medium and provided from there.

利用されるパーソナルコンピュータは、キーボートやタッチパネルディスプレイ等の操作入力部、液晶ディスプレイ等の画像表示装置、操作入力機能と画像表示機能を統合したユーザインターフェースであるGUI(グラフィカル・ユーザ・インターフェース)機能部、CPUおよびその他専用の演算デバイス、半導体メモリ、ハードディスク記憶部、光ディスク等の記憶媒体との間で情報のやり取りを行えるディスク記憶装置駆動部およびそのインターフェース部、USBメモリ等の携帯型記憶媒体との間で情報のやり取りを行えるインターフェース部、無線通信や有線通信を行う通信インターフェース部を必要に応じて備えている。なお、パーソナルコンピュータとしては、ノート型、携帯型、卓上型等の形態が挙げられるが、その形態は限定されない。また、汎用のパーソナルコンピュータを利用する以外に、専用のコンピュータを用意することもできる。また、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのPLD(Programmable Logic Device)等を用いて構成した専用のハードウェアによって三次元点群位置データ処理装置100を構成することも可能である。   The personal computer used is an operation input unit such as a keyboard or a touch panel display, an image display device such as a liquid crystal display, a GUI (graphical user interface) function unit which is a user interface integrating the operation input function and the image display function, Between a CPU and other dedicated arithmetic devices, semiconductor memory, hard disk storage unit, disk storage device drive unit capable of exchanging information with a storage medium such as an optical disk, and its interface unit, portable storage medium such as a USB memory As necessary, an interface unit that can exchange information and a communication interface unit that performs wireless communication and wired communication are provided. The personal computer may be a notebook type, a portable type, a desktop type, or the like, but the form is not limited. In addition to using a general-purpose personal computer, a dedicated computer can be prepared. In addition, the 3D point cloud position data processing apparatus 100 may be configured by dedicated hardware configured using a PLD (Programmable Logic Device) such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). Is possible.

三次元点群位置データ処理装置100には、測定対象物の三次元点群位置データの測定を行うレーザースキャナが接続される。このレーザースキャナが測定した三次元点群位置データが三次元点群位置データ処理装置100に入力される。なお、複数の視点から同一測定対象物の三次元点群位置データを取得し、それを統合しての三次元モデルの作成も可能である。この場合、複数の視点から得られた三次元点群位置データを統合したものを対象として処理が行われる。   Connected to the three-dimensional point cloud position data processing apparatus 100 is a laser scanner that measures the three-dimensional point cloud position data of the measurement object. The three-dimensional point cloud position data measured by the laser scanner is input to the three-dimensional point cloud position data processing apparatus 100. It is also possible to create a 3D model by acquiring 3D point cloud position data of the same measurement object from a plurality of viewpoints and integrating them. In this case, processing is performed on a target obtained by integrating three-dimensional point cloud position data obtained from a plurality of viewpoints.

レーザースキャナは、測定対象物にレーザー光を照射し、その反射光を受光することで、レーザースキャナの設置位置(視点)から測定点までの距離、方位、仰角(または俯角)の情報を取得し、これらの情報に基づき、測定点の三次元位置座標に係る情報を算出する。また、レーザースキャナは、測定点からの反射光の強度、色、色相、彩度等に関する情報を取得する。レーザースキャナはこれらの情報に基づき、三次元座標値を含む点群位置データを算出し、それを三次元点群位置データ処理装置100に出力する。レーザースキャナの詳細な構成の一例は後述する、三次元点群位置データを取得する方法としては、レーザースキャナを用いる方法以外に、画像処理ソフトウェアを用いて立体写真画像から三次元点群位置データを抽出する方法を採用することもできる。   The laser scanner irradiates the measurement target with laser light and receives the reflected light to obtain information on the distance, azimuth, and elevation (or depression) from the laser scanner installation position (viewpoint) to the measurement point. Based on these pieces of information, information related to the three-dimensional position coordinates of the measurement point is calculated. Further, the laser scanner acquires information on the intensity, color, hue, saturation, etc. of the reflected light from the measurement point. Based on these pieces of information, the laser scanner calculates point cloud position data including three-dimensional coordinate values, and outputs it to the three-dimensional point cloud position data processing apparatus 100. An example of the detailed configuration of the laser scanner will be described later. As a method for acquiring the three-dimensional point cloud position data, the method for acquiring the three-dimensional point cloud position data from the stereoscopic photograph image using the image processing software is used in addition to the method using the laser scanner. An extraction method can also be adopted.

図1に示す三次元点群位置データ処理装置100は、三次元点群位置データ取得部101、解像度設定部102、三次元モデル作成部103、三次元モデル画像作成部104を備えている。三次元点群位置データ処理装置100には、三次元点群位置データ処理装置100を構成するパーソナルコンピュータが備える操作入力部106および画像表示装置(例えば、液晶ディスプレイ)105が接続されている。   The 3D point cloud position data processing apparatus 100 shown in FIG. 1 includes a 3D point cloud position data acquisition unit 101, a resolution setting unit 102, a 3D model creation unit 103, and a 3D model image creation unit 104. The three-dimensional point cloud position data processing device 100 is connected to an operation input unit 106 and an image display device (for example, a liquid crystal display) 105 included in a personal computer that constitutes the three-dimensional point cloud position data processing device 100.

三次元点群位置データ取得部101は、上述したレーザースキャナからの三次元点群位置データを取得する。なお、レーザースキャナの出力に基づき、三次元点群位置データ取得部101において三次元点群位置データの算出を行う形態も可能である。解像度設定部102は、三次元点群位置データの密度変更部の一例であり、三次元点群位置データに基づいて作成される三次元モデルの解像度の設定を行う。解像度の設定を行うための操作は、操作入力部106がユーザによって操作されることで行われる。解像度の設定は、処理の対象となる三次元点群位置データの密度を変更することで行われる。   The three-dimensional point group position data acquisition unit 101 acquires three-dimensional point group position data from the laser scanner described above. Note that a mode in which the 3D point cloud position data acquisition unit 101 calculates the 3D point cloud position data based on the output of the laser scanner is also possible. The resolution setting unit 102 is an example of a density changing unit for 3D point cloud position data, and sets the resolution of a 3D model created based on the 3D point cloud position data. The operation for setting the resolution is performed by operating the operation input unit 106 by the user. The resolution is set by changing the density of the 3D point cloud position data to be processed.

以下、解像度の設定について説明する。図2には、2次元的に分布した○で示される三次元点群位置データの分布の状態が概念的に示されている。図2には、2次元格子上で三次元点群データが分布している状態が示されている。図3には、図2の三次元点群位置データにおいて、解像度の階層が3階層に設定されている場合が示されている。図3において、三次元モデルの作成に際して、●の部分の三次元点群位置データが三次元モデルの作成に利用され、○の部分の三次元点群位置データは利用されない。   The resolution setting will be described below. FIG. 2 conceptually shows the distribution state of the three-dimensional point cloud position data indicated by ◯ distributed two-dimensionally. FIG. 2 shows a state in which three-dimensional point cloud data is distributed on a two-dimensional grid. FIG. 3 shows a case where the resolution layer is set to three layers in the three-dimensional point cloud position data of FIG. In FIG. 3, when creating the 3D model, the 3D point cloud position data of the portion ● is used for creating the 3D model, and the 3D point cloud position data of the portion ○ is not used.

図3(A)には、解像度が最も低い場合が示され、図3(B)には、解像度が中位の場合が示され、図3(C)には、解像度が最も高い場合が示されている。すなわち、図3(A)には、サンプリングの対象となる三次元点群位置データの密度が最も低い場合が示され、図3(B)には、サンプリングの対象となる三次元点群位置データの密度が中位である場合が示され、図3(C)には、サンプリングの対象となる三次元点群位置データの密度が最も高い場合が示されている。図3において、点数比というのは、図3(C)の状態の三次元点群位置データに対する三次元点群位置データの数の比である。図3に示すように、点数比が小さい程、利用される三次元点群位置データの密度は低くなり、それに対応して解像度は低くなる。これは、基礎とする三次元点群位置データの密度が低くなると、画素が粗くなり、細かい部分を再現する精度が低下するからである。なお、第n層(nは自然数)の点数比は、下記数1によって表される。   FIG. 3A shows the case where the resolution is the lowest, FIG. 3B shows the case where the resolution is medium, and FIG. 3C shows the case where the resolution is the highest. Has been. That is, FIG. 3A shows a case where the density of 3D point group position data to be sampled is the lowest, and FIG. 3B shows 3D point group position data to be sampled. The case where the density of the three-dimensional point cloud position data to be sampled is the highest is shown in FIG. 3C. In FIG. 3, the point ratio is the ratio of the number of 3D point cloud position data to the 3D point cloud position data in the state of FIG. As shown in FIG. 3, the smaller the point ratio, the lower the density of the three-dimensional point cloud position data used, and the correspondingly lower the resolution. This is because if the density of the basic three-dimensional point cloud position data is low, the pixels become coarse and the accuracy of reproducing fine portions is reduced. The score ratio of the nth layer (n is a natural number) is expressed by the following formula 1.

Figure 2012230594
Figure 2012230594

図3(A)の場合に比較して、図3(B)の場合は利用される三次元点群位置データの密度が高いので、得られる三次元モデルの解像度(精度)は高くなる。図3(C)の場合は、利用される三次元点群位置データの密度が更に高くなるので、得られる三次元モデルの解像度(精度)は更に高くなる。図1の解像度設定部102は、図3に例示する解像度の設定を行う。   Compared to the case of FIG. 3A, the density of the three-dimensional point cloud position data used is higher in the case of FIG. 3B, so the resolution (accuracy) of the obtained three-dimensional model is higher. In the case of FIG. 3C, since the density of the three-dimensional point cloud position data used is further increased, the resolution (accuracy) of the obtained three-dimensional model is further increased. The resolution setting unit 102 in FIG. 1 sets the resolution exemplified in FIG.

図3には、階層を上げる毎に(解像度を下げる毎に)、三次元点群位置データを間引き、利用する三次元点群位置データの密度を低下させる手法が記載されている。この方法と同様の効果を得る方法として、複数の三次元点群位置データの平均値を代表値として採用し、この代表値によって第0層に対して解像度を落とした三次元点群位置データを構成する方法も採用できる。例えば、第2層の階層において、5×5画素の三次元点群位置データの平均値をこの5×5画素の領域における三次元点群位置データの代表値として採用し、次いで第1層の階層において、3×3画素の三次元点群位置データの平均値をこの3×3画素の領域における三次元点群位置データの代表値として採用し、といった方法で、三次元点群位置データの密度を設定する方法も可能である。また、図3には、解像度の設定を3階層(3段階)に設定した場合が示されているが、階層の数は、2以上が可能であり、4階層や5階層、あるいはそれ以上であってもよい。   FIG. 3 describes a method of thinning out the 3D point cloud position data and reducing the density of the 3D point cloud position data to be used each time the hierarchy is raised (every time the resolution is lowered). As a method for obtaining the same effect as this method, an average value of a plurality of three-dimensional point cloud position data is adopted as a representative value, and the three-dimensional point cloud position data obtained by reducing the resolution with respect to the 0th layer by the representative value is obtained. A configuration method can also be adopted. For example, in the second layer, the average value of the 3D point cloud position data of 5 × 5 pixels is adopted as the representative value of the 3D point cloud position data in the 5 × 5 pixel region, and then the first layer In the hierarchy, the average value of the 3D point cloud position data of 3 × 3 pixels is adopted as a representative value of the 3D point cloud position data in the 3 × 3 pixel region, and the 3D point cloud position data A method of setting the density is also possible. FIG. 3 shows a case where the resolution setting is set to three layers (three levels). However, the number of layers can be two or more, and can be four layers, five layers, or more. There may be.

図1に戻り、三次元点群位置データ処理装置100は、三次元モデル作成部103を備えている。三次元モデル作成部103は、非面領域の算出、非面領域の除去、ラベリング処理、輪郭線等の特徴部分の算出、輪郭線により構成される三次元モデルの作成、およびこれらに関連した演算を行う。三次元モデルというのは、測定対象物の輪郭線を線図として表現した測定対象物の三次元構造を視覚化した画像である。輪郭線というのは、測定対象物の三次元エッジであり、測定対象物の外観を視覚的に把握するために必要な、当該測定対象物の外形を形作っている線(outline)のことである。具体的には、折れ曲がった部分や急激に曲率が小さくなっている部分が輪郭線となる。輪郭線は、外側の輪郭の部分のみが対象となるとは限らず、凸状に飛び出している部分を特徴付ける縁の部分や、凹状に引っ込んでいる部分(例えば、溝構造の部分)を特徴づける縁の部分も対象となる。輪郭線により所謂線図が得られ、対象物の外観が把握し易い画像表示を行うことができる。なお、三次元モデルには、上述した線の情報だけではなく、測定対象物の外観を視覚的に把握する際の特徴部分となる点の情報も含まれる。また、三次元モデルをラベリングされた面によって構成される多面体として表現することも可能である。   Returning to FIG. 1, the 3D point cloud position data processing apparatus 100 includes a 3D model creation unit 103. The three-dimensional model creation unit 103 calculates a non-surface region, removes the non-surface region, labeling processing, calculates a characteristic part such as a contour line, creates a three-dimensional model composed of the contour line, and operations related thereto I do. The three-dimensional model is an image obtained by visualizing the three-dimensional structure of the measurement object in which the outline of the measurement object is expressed as a diagram. An outline is a three-dimensional edge of a measurement object, and is an outline that forms the outline of the measurement object, which is necessary to visually grasp the appearance of the measurement object. . Specifically, a bent portion or a portion where the curvature is rapidly reduced becomes a contour line. The contour line is not limited to the outer contour part, but the edge part that characterizes the protruding part of the convex part, or the edge that characterizes the concave part (for example, the part of the groove structure). The part of is also the target. A so-called diagram can be obtained from the contour line, and an image can be displayed so that the appearance of the object can be easily grasped. Note that the three-dimensional model includes not only the above-described line information but also information on points that are characteristic portions when the appearance of the measurement object is visually grasped. It is also possible to represent a three-dimensional model as a polyhedron composed of labeled surfaces.

以下、図1の三次元モデル作成部103の詳細について説明する。図4には、三次元モデル作成部103のブロック図が示されている。三次元モデル作成部103は、非面領域算出部201、非面領域除去部202、面ラベリング部203、ラベル拡張部204、境界領域面形成部205、輪郭線算出部206、二次元エッジ算出部207、エッジ統合部208を備えている。以下、これら各機能部について説明する。   The details of the three-dimensional model creation unit 103 in FIG. 1 will be described below. FIG. 4 shows a block diagram of the three-dimensional model creation unit 103. The three-dimensional model creation unit 103 includes a non-surface region calculation unit 201, a non-surface region removal unit 202, a surface labeling unit 203, a label expansion unit 204, a boundary region surface formation unit 205, a contour line calculation unit 206, and a two-dimensional edge calculation unit. 207 and an edge integration unit 208. Hereinafter, each of these functional units will be described.

非面領域算出部201は、局所面である局所領域を取得する局所領域取得部201a、局所領域の法線ベクトルを算出する法線ベクトル算出部201b、局所領域の局所曲率を算出する局所曲率算出部201c、局所領域にフィッティングする局所平面を算出する局所平面算出部201dを備えている。   The non-surface region calculation unit 201 includes a local region acquisition unit 201a that acquires a local region that is a local surface, a normal vector calculation unit 201b that calculates a normal vector of the local region, and a local curvature calculation that calculates a local curvature of the local region. The unit 201c includes a local plane calculation unit 201d that calculates a local plane to be fitted to the local region.

局所領域取得部201aは、三次元点群位置データに基づき、注目点を中心とした一辺が3〜7画素程度の正方領域(格子状の領域)を局所領域として取得する。この際、対象となる三次元点群位置データは、解像度設定部102において選択された階層の三次元点群位置データである。例えば、図3(B)の階層(解像度)が選択された場合は、全ての三次元点群位置データが処理の対象とされず、図3(B)の●で示される三次元点群位置データが処理の対象とされる。図3には、2次元に簡略化した場合の例であるが、各解像度における3×3画素の局所領域401,402,403が示されている。   The local area acquisition unit 201a acquires, as a local area, a square area (grid-like area) having about 3 to 7 pixels on a side centered on the point of interest based on the three-dimensional point cloud position data. At this time, the target 3D point cloud position data is the 3D point cloud position data of the hierarchy selected by the resolution setting unit 102. For example, when the hierarchy (resolution) in FIG. 3B is selected, not all the 3D point cloud position data are processed, and the 3D point cloud position indicated by ● in FIG. Data is subject to processing. FIG. 3 shows an example in which the two-dimensional simplification is performed, but 3 × 3 pixel local regions 401, 402, and 403 at each resolution are shown.

法線ベクトル算出部201bは、局所領域取得部201aが取得した上記の局所領域における各点の法線ベクトルの算出を行う。この法線ベクトルを算出する処理では、局所領域における三次元点群位置データに着目し、各点の法線ベクトルを算出する。この処理は、全ての三次元点群位置データを対象として行われる。すなわち、三次元点群位置データが無数の局所領域に区分けされ、各局所領域において各点の法線ベクトルの算出が行われる。   The normal vector calculation unit 201b calculates a normal vector of each point in the local region acquired by the local region acquisition unit 201a. In the process of calculating the normal vector, attention is paid to the three-dimensional point cloud position data in the local region, and the normal vector of each point is calculated. This process is performed for all three-dimensional point cloud position data. That is, the three-dimensional point cloud position data is divided into countless local regions, and the normal vector of each point is calculated in each local region.

局所曲率算出部201cは、上述した局所領域内の法線ベクトルのバラツキ(局所曲率)を算出する。ここでは、着目している局所領域において、各法線ベクトルの3軸成分の強度値(NVx, NVy, NVz)の平均(mNVx,mNVy,mNVz)を求める。またこの結果に基づき、さらに標準偏差(StdNVx,StdNVy,StdNVz)を求める。次に、標準偏差の二乗和の平方根を局所曲率(Local Curveture:crv)として算出する(数2)。   The local curvature calculation unit 201c calculates variation (local curvature) of normal vectors in the above-described local region. Here, the average (mNVx, mNVy, mNVz) of the intensity values (NVx, NVy, NVz) of the three-axis components of each normal vector is obtained in the local region of interest. Based on this result, standard deviations (StdNVx, StdNVy, StdNVz) are further obtained. Next, the square root of the square sum of the standard deviation is calculated as a local curvature (crv) (Equation 2).

Figure 2012230594
Figure 2012230594

局所平面算出部201dは、局所領域にフィッティング(近似)する局所平面を求める。この処理では、着目している局所領域の各点の三次元座標から局所平面の方程式を求める。局所平面は、着目している局所領域にフィッティングさせた平面である。ここでは、最小二乗法を用いて、当該局所領域にフィッティングする局所平面の面の方程式を算出する。具体的には、複数の異なる平面方程式を求め、更にそれらを比較し、当該局所領域にフィッティングする局所平面の面の方程式を算出する。仮に、着目している局所領域が平面であれば、局所平面と局所領域とは一致する。以上の処理を、局所領域を順次ずらしながら、全ての三次元点群位置データが対象となるように繰り返し行い、各局所領域における法線ベクトル、局所平面、局所曲率を得る。   The local plane calculation unit 201d obtains a local plane that is fitted (approximated) to the local region. In this process, an equation of the local plane is obtained from the three-dimensional coordinates of each point in the local region of interest. The local plane is a plane that is fitted to the local region of interest. Here, the equation of the surface of the local plane to be fitted to the local region is calculated using the least square method. Specifically, a plurality of different plane equations are obtained, compared with each other, and a surface equation of the local plane to be fitted to the local region is calculated. If the local region of interest is a plane, the local plane and the local region match. The above processing is repeated so that all the three-dimensional point cloud position data are targeted while sequentially shifting the local area, and the normal vector, local plane, and local curvature in each local area are obtained.

非面領域除去部202は、上で求めた各局所領域における法線ベクトル、局所平面、局所曲率に基づいて、非面領域の点を除去する処理を行う。すなわち、面(平面および曲面)を抽出するために、予め面でないと判断できる部分(非面領域)を除去する。なお、非面領域とは、平面でも曲面でもない領域であるが、下記の(1)〜(3)の閾値によっては曲率の高い曲面を含む場合がある。   The non-surface area removing unit 202 performs a process of removing points in the non-surface area based on the normal vector, local plane, and local curvature in each local area obtained above. That is, in order to extract a surface (a plane and a curved surface), a portion (non-surface region) that can be determined not to be a surface in advance is removed. The non-surface region is a region that is neither a plane nor a curved surface, but may include a curved surface with a high curvature depending on the following threshold values (1) to (3).

非面領域除去部202は、三次元点群位置データ取得部101が取得した三次元点群位置データの中から算出した非面領域の三次元点群位置データを除去する。非面領域除去の処理は、以下に示す3つの方法のうち、少なくとも一つを用いて行うことができる。ここでは、下記の(1)〜(3)の方法による判定を上述した局所領域の全てに対して行い、1以上の方法において非面領域と判定された局所領域を、非面領域を構成する局所領域として抽出する。そして、抽出された非面領域を構成する点に係る三次元点群位置データを除去する。   The non-surface area removal unit 202 removes the 3D point group position data of the non-surface area calculated from the 3D point group position data acquired by the 3D point group position data acquisition unit 101. The non-surface area removal process can be performed using at least one of the following three methods. Here, the determination by the following methods (1) to (3) is performed for all the local regions described above, and the local region determined as the non-surface region by one or more methods is configured as the non-surface region. Extract as a local region. Then, the 3D point cloud position data relating to the points constituting the extracted non-surface area is removed.

(1)局所曲率の高い部分:上述した局所曲率を予め設定しておいた閾値と比較し、閾値を超える局所曲率の局所領域を非面領域と判定する。局所曲率は、注目点とその周辺点における法線ベクトルのバラツキを表しているので、面(平面および曲率の小さい曲面)ではその値が小さく、面以外(非面)ではその値は大きくなる。したがって、予め決めた閾値よりも局所曲率が大きければ、当該局所領域を非面領域と判定する。 (1) A portion having a high local curvature: The above-described local curvature is compared with a preset threshold value, and a local region having a local curvature exceeding the threshold value is determined as a non-surface region. Since the local curvature represents the variation of the normal vector at the point of interest and its peripheral points, the value is small for a surface (a flat surface and a curved surface with a small curvature), and the value is large for a surface other than a surface (non-surface). Therefore, if the local curvature is larger than a predetermined threshold, the local region is determined as a non-surface region.

(2)局所平面へのフィッティング精度:局所領域の各点と対応する局所平面との距離を計算し、これらの距離の平均が予め設定した閾値よりも大きい場合、当該局所領域を非面領域と判定する。すなわち、局所領域が平面から乖離した状態であると、その程度が激しい程、当該局所領域の各点と対応する局所平面との距離は大きくなる。このことを利用して当該局所領域の非面の程度が判定される。 (2) Fitting accuracy to the local plane: When the distance between each point of the local area and the corresponding local plane is calculated and the average of these distances is greater than a preset threshold, the local area is determined as a non-surface area. judge. That is, when the local area is in a state of being deviated from the plane, the distance between the local plane corresponding to each point of the local area increases as the degree becomes more severe. Using this fact, the degree of non-surface of the local region is determined.

(3)共平面性のチェック:ここでは、隣接する局所領域において、対応する局所平面同士の向きを比較する。この局所平面の向きの違いが閾値を超えている場合、比較の対象となった局所領域が非面領域に属していると判定する。具体的には、対象となる2つの局所領域のそれぞれにフィッティングする2つの局所平面の法線ベクトルと、その中心点間を結ぶベクトルとの内積が0であれば、両局所平面が同一平面上に存在すると判定される。また、上記内積が大きくなる程、2つの局所平面が同一面上にない程度がより顕著であると判定され、非面の程度が高いものと判定される。 (3) Coplanarity check: Here, the directions of corresponding local planes are compared in adjacent local regions. If the difference in orientation of the local planes exceeds the threshold value, it is determined that the local area to be compared belongs to the non-plane area. Specifically, if the inner product of the normal vector of the two local planes fitted to each of the two target local regions and the vector connecting the center points is 0, both local planes are on the same plane. Is determined to exist. Further, as the inner product increases, it is determined that the degree that the two local planes are not on the same plane is more remarkable, and the degree of non-surface is determined to be higher.

上記の(1)〜(3)の方法による判定において、1以上の方法において非面領域と判定された局所領域を、非面領域を構成する局所領域として抽出する。そして、この抽出された局所領域を構成する点に係る三次元点群位置データを算出対象としている三次元点群位置データから除去する。以上のようにして、非面領域の除去が行われる。なお、除去された三次元点群位置データは、後の処理で利用する可能性があるので、適当な記憶領域に格納するなり、除去されなかった三次元点群位置データと識別できる状態とするなどして、後で利用できる状態にしておく。   In the determination by the above methods (1) to (3), a local region determined as a non-surface region by one or more methods is extracted as a local region constituting the non-surface region. Then, the 3D point cloud position data relating to the points constituting the extracted local region is removed from the 3D point cloud position data to be calculated. The non-surface area is removed as described above. Since the removed 3D point cloud position data may be used in later processing, it is stored in an appropriate storage area so that it can be identified from the 3D point cloud position data that has not been removed. To make it available for later use.

次に、面ラベリング部203について説明する。面ラベリング部203は、面抽出部の一例である。面ラベリング部203は、非面領域の三次元点群位置データが除去された三次元点群位置データに対して、法線ベクトルの連続性に基づいて面ラベリングを行う。具体的には、特定の注目点と隣接点の法線ベクトルの角度差が予め決めた閾値以下なら、それらの点に同一ラベルを貼る。この作業を繰り返すことで、連続する平面、連続する緩やかな曲面に同一ラベルが貼られ、それらを一つの面として識別可能となる。また、面ラベリングの後、法線ベクトルの角度差や法線ベクトルの3軸成分の標準偏差を用いて、ラベル(面)が平面であるか、または曲率の小さい曲面であるかを判定し、その旨を識別する識別データを各ラベルに関連付ける。   Next, the surface labeling unit 203 will be described. The surface labeling unit 203 is an example of a surface extraction unit. The surface labeling unit 203 performs surface labeling on the 3D point cloud position data from which the 3D point cloud position data of the non-surface area is removed based on the continuity of normal vectors. Specifically, if the angle difference between the normal vector of a specific point of interest and an adjacent point is less than a predetermined threshold, the same label is attached to those points. By repeating this operation, the same label is attached to a continuous flat surface and a continuous gentle curved surface, and these can be identified as one surface. Further, after the surface labeling, it is determined whether the label (surface) is a plane or a curved surface with a small curvature by using the angle difference between the normal vectors and the standard deviation of the three-axis components of the normal vectors. Identification data for identifying the fact is associated with each label.

続いて、面積の小さいラベル(面)をノイズとして除去する。なお、このノイズ除去は、面ラベリングの処理と同時に行ってもよい。この場合、面ラベリングを行いながら、同一ラベルの点数(ラベルを構成する点の数)を数え、所定以下の点の数であるラベルを取り消す処理を行う。次に、この時点でラベルが無い点に対して、最近傍面(最も近い面)と同一のラベルを付与していく。これにより、既にラベリングされた面の拡張を行う。この面の拡張に係る処理は、ラベル拡張部204において行われる。   Subsequently, the label (surface) having a small area is removed as noise. This noise removal may be performed simultaneously with the surface labeling process. In this case, while performing surface labeling, the number of points of the same label (the number of points constituting the label) is counted, and a process of canceling the label having the number of points equal to or less than a predetermined value is performed. Next, the same label as the nearest surface (closest surface) is given to the point having no label at this time. As a result, the already labeled surface is expanded. The label expansion unit 204 performs processing related to the expansion of this surface.

すなわち、ラベルの付いた面の方程式を求め、当該面とラベルが無い点との距離を求める。ラベルが無い点の周辺に複数のラベル(面)がある場合には、その距離が最も短いラベルを選択する。そして、依然としてラベルが無い点が残存している場合には、非面領域除去、ノイズ除去、およびラベル拡張における各閾値を変更し、再度関連する処理を行う。例えば、非面領域除去において、局所曲率の閾値を上げることで、非面として抽出する点の数が少なくなるようにする。または、ラベル拡張において、ラベルの無い点と最近傍面との距離の閾値を上げることで、ラベルの無い点に対してより多くのラベルを付与するようにする。   That is, the equation of the surface with the label is obtained, and the distance between the surface and the point without the label is obtained. If there are a plurality of labels (surfaces) around a point where there is no label, the label with the shortest distance is selected. If there is still a point with no label, the threshold values for non-surface area removal, noise removal, and label expansion are changed, and related processing is performed again. For example, in non-surface area removal, the number of points to be extracted as non-surface is reduced by increasing the threshold value of local curvature. Alternatively, in label expansion, by increasing the threshold of the distance between a point without a label and the nearest surface, more labels are given to the point without a label.

次に、ラベルが異なる面であっても同一面である場合にラベルを統合する。この場合、連続しない面であっても、位置または向きが等しい面同士に同じラベルを付ける。具体的には、各面の法線ベクトルの位置および向きを比較することで、連続しない同一面を抽出し、いずれかの面のラベルに統一する。この処理もラベル拡張部204において行われる。   Next, even if the labels are different surfaces, the labels are integrated when they are the same surface. In this case, even if the surfaces are not continuous, the same label is attached to the surfaces having the same position or orientation. Specifically, by comparing the position and orientation of the normal vector of each surface, the same non-continuous surface is extracted and unified to the label of any surface. This process is also performed in the label extension unit 204.

この面ラベリング部203の機能によれば、扱うデータ量を圧縮できるので、三次元点群位置データの処理を高速化できる。また必要なメモリ量を節約できる。また、測定中に紛れ込んだ通行人や通過した車両の三次元点群位置データをノイズとして除去することができる。   According to the function of the surface labeling unit 203, the amount of data to be handled can be compressed, so that the processing of the three-dimensional point cloud position data can be accelerated. In addition, the required amount of memory can be saved. In addition, it is possible to remove the three-dimensional point cloud position data of a passerby or a vehicle that has passed through during measurement as noise.

境界領域面形成部205は、隣接する面の間を繋ぐ境界領域面を形成する。この例では、隣接する面の間の非面領域に局所平面をフィッティングさせ、この局所平面を複数繋ぐことで、当該非面領域を複数の局所平面によって近似した境界領域面を形成する。これは、複数の局所平面により構成される多面体で非面領域を近似し、面と面との境界部分となる境界領域面を形成する処理と捉えることができる。なお、この多面体構造を有する境界領域面にフィッティングする滑らかな曲面を設定し、当該境界領域面をこの曲面に置き換えてもよい。   The boundary region surface forming unit 205 forms a boundary region surface that connects adjacent surfaces. In this example, a local plane is fitted to a non-surface region between adjacent surfaces, and a plurality of these local planes are connected to form a boundary region surface that approximates the non-surface region by a plurality of local planes. This can be regarded as a process of approximating a non-surface region with a polyhedron composed of a plurality of local planes and forming a boundary region surface that is a boundary portion between the surfaces. It is also possible to set a smooth curved surface to be fitted to the boundary region surface having this polyhedral structure and replace the boundary region surface with this curved surface.

輪郭線算出部206は、隣接する面の三次元点群位置データに基づき、測定対象物の三次元エッジとなる輪郭線を算出(推定)する。この場合、上記の境界領域面の形成において、隣接する面から局所平面をつないでゆく処理が行われる。この際、最後に隣接した局所平面同士の交線を輪郭線として算出する。輪郭線が算出されることで、測定対象物の輪郭の画像が明確となる。境界領域面を用いた輪郭線の算出方法としては、境界領域面の中央位置を輪郭線が通るように輪郭線を設定する方法や、境界領域面の曲率が最小となる部分を輪郭線が通るように輪郭線を設定する方法も可能である。なお、境界領域面の形成を行わずに隣接する面と面との交線を輪郭線とする処理も可能である。   The contour calculation unit 206 calculates (estimates) a contour line that becomes a three-dimensional edge of the measurement object based on the three-dimensional point cloud position data of the adjacent surfaces. In this case, in the formation of the boundary area surface, a process of connecting the local plane from the adjacent surface is performed. At this time, the line of intersection between the adjacent local planes is calculated as the contour line. By calculating the contour line, the contour image of the measurement object becomes clear. As a method for calculating the contour line using the boundary region surface, the contour line is set so that the contour line passes through the center position of the boundary region surface, or the contour line passes through the portion where the curvature of the boundary region surface is minimized. A method of setting the contour line as described above is also possible. In addition, the process which makes the intersection line of an adjacent surface and a surface an outline without forming a boundary area surface is also possible.

次に、二次元エッジ算出部207について説明する。二次元エッジ算出部207は、対象物からの反射光の強度分布に基づいて、ラプラシアン、プリューウィット、ソーベル、キャニーなどの公知のエッジ抽出オペレータを用いて、セグメント化(区分け)された面に対応する二次元画像の領域内からエッジを抽出する。すなわち、二次元エッジは、面内の濃淡の違いにより認識されるので、この濃淡の違いを反射光の強度の情報から抽出し、その抽出条件に閾値を設けることで、濃淡の境目をエッジとして抽出する。次に、抽出されたエッジを構成する点の三次元座標の高さ(z値)と、その近傍の輪郭線(三次元エッジ)を構成する点の三次元座標の高さ(z値)とを比較し、この差が所定の閾値以内の場合には、当該エッジを二次元エッジとして抽出する。すなわち、二次元画像上で抽出されたエッジを構成する点が、セグメント化された面上にあるか否かを判定し、面上にあると判定された場合にそれを二次元エッジとする。   Next, the two-dimensional edge calculation unit 207 will be described. Based on the intensity distribution of the reflected light from the object, the two-dimensional edge calculation unit 207 corresponds to a segmented (segmented) surface using a known edge extraction operator such as Laplacian, Plewwit, Sobel, Canny, etc. An edge is extracted from the area of the two-dimensional image to be processed. In other words, since the two-dimensional edge is recognized by the difference in shading in the surface, the difference in shading is extracted from the information on the intensity of the reflected light, and by setting a threshold value in the extraction condition, the border between the shading is used as an edge. Extract. Next, the height (z value) of the three-dimensional coordinates of the points constituting the extracted edge, and the height (z value) of the three-dimensional coordinates of the points constituting the neighboring contour line (three-dimensional edge) If the difference is within a predetermined threshold, the edge is extracted as a two-dimensional edge. That is, it is determined whether or not a point constituting the edge extracted on the two-dimensional image is on the segmented surface, and if it is determined that the point is on the surface, it is set as the two-dimensional edge.

二次元エッジの算出後、輪郭線算出部206が算出した輪郭線と二次元エッジ算出部207が算出した二次元エッジとを統合する。この処理はエッジ統合部208において行われる。これにより、三次元点群位置データに基づき、対象物を特徴付けるエッジの抽出が行われる。このエッジの抽出により、測定対象物を視認する際における測定対象物の外観を構成する特徴部分が抽出され、三次元モデルのデータが得られる。   After the calculation of the two-dimensional edge, the contour line calculated by the contour calculation unit 206 and the two-dimensional edge calculated by the two-dimensional edge calculation unit 207 are integrated. This processing is performed in the edge integration unit 208. Thereby, extraction of the edge characterizing the object is performed based on the three-dimensional point cloud position data. By extracting the edge, a characteristic portion constituting the appearance of the measurement object when the measurement object is visually recognized is extracted, and three-dimensional model data is obtained.

図1に戻り、三次元点群位置データ処理装置100は、三次元モデル画像作成部104を備えている。三次元モデル画像作成部104は、三次元モデル作成部103で作成された三次元モデルを画像表示するための画像データを作成する。この画像データは、画像表示装置105に送られ、そこで表示される。これにより、画像表示装置105上で測定対象物の三次元モデルの画像表示が行われる。   Returning to FIG. 1, the 3D point cloud position data processing apparatus 100 includes a 3D model image creation unit 104. The 3D model image creation unit 104 creates image data for displaying an image of the 3D model created by the 3D model creation unit 103. This image data is sent to the image display device 105 and displayed there. Thereby, the image display of the three-dimensional model of the measurement object is performed on the image display device 105.

(処理の一例)
図5は、図1の三次元点群位置データ処理装置100で行われる処理の一例を説明するフローチャートである。図5に示すフローチャートを実行するためのプログラムは、三次元点群位置データ処理装置100を構成するパーソナルコンピュータの記憶部に記憶されており、適当な記憶領域に読み出されて当該パーソナルコンピュータによって実行される。
(Example of processing)
FIG. 5 is a flowchart for explaining an example of processing performed by the three-dimensional point cloud position data processing device 100 of FIG. The program for executing the flowchart shown in FIG. 5 is stored in a storage unit of a personal computer constituting the three-dimensional point cloud position data processing device 100, read into an appropriate storage area, and executed by the personal computer. Is done.

処理が開始されると(ステップS501)、まず測定対象物の三次元点群位置データの取得が行われる(ステップS502)。この処理は、三次元点群位置データ取得部101において行われる。測定対象物の三次元点群位置データを取得したら、操作入力部106に対してユーザにより行われた階層の設定数(解像度の段階の設定数)の情報を取得し(ステップS503)、階層の設定(解像度の設定)を行う。この処理は、解像度設定部102において行なわれる。   When the process is started (step S501), first, three-dimensional point cloud position data of the measurement object is acquired (step S502). This process is performed in the three-dimensional point cloud position data acquisition unit 101. When the three-dimensional point cloud position data of the measurement object is acquired, information on the number of set layers (the set number of resolution steps) performed by the user is acquired from the operation input unit 106 (step S503). Make settings (resolution settings). This process is performed in the resolution setting unit 102.

次に、ステップS503において取得した階層の最上位の階層(解像度が最も低い階層)でのラベリングを行う。この処理は、三次元モデル作成部103において、図4を参照して説明した内容に従って行われる。そして、ラベリングを行った後、ラベリングの処理の結果に基づく三次元モデルの作成を行う(ステップS505)。この処理も三次元モデル作成部103において行われる。   Next, labeling is performed on the highest layer (hierarchy with the lowest resolution) of the layers acquired in step S503. This process is performed in the 3D model creation unit 103 according to the contents described with reference to FIG. Then, after labeling, a three-dimensional model is created based on the result of the labeling process (step S505). This processing is also performed in the 3D model creation unit 103.

三次元モデルを作成したら、それを三次元モデル画像作成部104において画像化し、その画像データが画像表示装置105に送られ、そこで画像表示される(ステップS506)。この画像表示の後、ユーザによる操作入力部106に対する図5の処理の終了を指示する操作が行われたか否か、が判定され(ステップS507)、図5の処理の終了を指示する操作が行われた場合、処理を終了し(ステップS511)、そのような操作が行われていなければ、ステップS508に進む。   When the three-dimensional model is created, it is imaged by the three-dimensional model image creation unit 104, and the image data is sent to the image display device 105 where it is displayed (step S506). After this image display, it is determined whether or not an operation for instructing the end of the process in FIG. 5 is performed on the operation input unit 106 by the user (step S507), and an operation for instructing the end of the process in FIG. If not, the process ends (step S511), and if such an operation has not been performed, the process proceeds to step S508.

ステップS508では、この段階におけるラベリングの階層が一番下か否か(解像度が最大であるか否か)、が判定され、ラベリングの階層が最下層であれば、処理を終了し(ステップS511)、最下層でなければ、ステップ(509)に進む。   In step S508, it is determined whether or not the labeling layer at this stage is at the lowest level (whether or not the resolution is maximum). If the labeling layer is at the lowest layer, the process ends (step S511). If it is not the lowest layer, the process proceeds to step (509).

ステップ509では、ステップS508における判定の対象なった階層の1ランク下の階層へのラベルの引継ぎを行い、このステップS508における判定の対象となった階層の1ランク下の階層(1ランク解像度が上の階層)における再ラベリングを行う(ステップS510)。以下、ステップS509およびステップS510の詳細を説明する。   In step 509, the label is handed over to the hierarchy one rank lower than the hierarchy determined in step S508, and the hierarchy one rank lower than the hierarchy determined in step S508 (one rank resolution is higher). Re-labeling is performed (step S510). Details of step S509 and step S510 will be described below.

図6の左側には、階層化された3段階のラベリングの状態をモデル化したものが記載され、図6の右側には、上記左側のラベリングの階層に対応する測定対象物の3段階のイメージ画像が示されている。図6の場合、第2層,第1層,第0層の3階層が示されている。ここで、第2層が最も低解像度であり、第0が最も高解像度となる設定とされている。図6の場合、最下位の解像度の第2層の階層においては、図示する範囲の画像を4分割する解像度でラベリングを行い、中位の解像度の第1層の階層においては、図示する範囲の画像を16分割する解像度(第2層の場合の4倍の解像度)でラベリングを行い、最上位の解像度の第0層の階層においては、図示する範囲の画像を64分割する解像度(第2層の場合の16倍、第1層の場合の4倍の解像度)でラベリングを行う場合の例が示されている。   On the left side of FIG. 6, a modeled state of three levels of labeling is described. On the right side of FIG. 6, an image of the three levels of the measurement object corresponding to the left labeling hierarchy is shown. An image is shown. In the case of FIG. 6, three layers of the second layer, the first layer, and the zeroth layer are shown. Here, the second layer has the lowest resolution and the zeroth has the highest resolution. In the case of FIG. 6, in the second layer hierarchy of the lowest resolution, the image in the range shown is labeled with a resolution that is divided into four, and in the first layer hierarchy of the middle resolution, Labeling is performed at a resolution that divides the image into 16 (four times the resolution in the case of the second layer), and in the 0th layer of the highest resolution, a resolution (second layer) that divides the image in the range shown in the figure. In this example, labeling is performed at a resolution 16 times that of the case of (4) and 4 times that of the case of the first layer.

図6の右側には、左側の解像度に対応させて、まず第2層の階層において、壁601が一つの面としてラベリングされ、更に解像度が1階層上がった第1層の階層において、壁601の面に中で窓602が面としてラベリングされ、更に解像度が1階層上がった第0層の階層において、壁601の面において窓602よりも細かい面であるタイル(壁601を構成するタイルの面)603〜605が更に細かい面としてラベリングされた状態が示されている。   On the right side of FIG. 6, the wall 601 is first labeled as one surface in the second layer, and the resolution of the wall 601 is increased in the first layer where the resolution is increased by one layer, corresponding to the left resolution. In the plane, the window 602 is labeled as a plane, and in the layer of the 0th layer where the resolution is further increased by one layer, a tile that is a surface finer than the window 602 on the surface of the wall 601 (surface of the tile constituting the wall 601) A state where 603 to 605 are labeled as finer surfaces is shown.

すなわち、図6の例では、第2層のラベリングでは、サンプリングする三次元点群位置データの密度が足りず、窓602やタイル603〜605は面としてラベリングされず、全体が壁601としてラベリングされる。そして、第1層のラベリングでは、サンプリングする三次元点群位置データの密度が第2層の場合よりも高くなるので、窓602が面としてラベリングされる。この際、タイル603〜605は解像度が足りずラベリングされない。そして、第0層のラベリングでは、サンプリングする三次元点群位置データの密度が第1層の場合よりも高くなるので、タイル603〜605もラベリングされ、面としてデータ化される。   That is, in the example of FIG. 6, in the second layer labeling, the density of the 3D point cloud position data to be sampled is insufficient, the windows 602 and tiles 603 to 605 are not labeled as surfaces, and the whole is labeled as a wall 601. The In the first layer labeling, the density of the three-dimensional point cloud position data to be sampled is higher than that in the second layer, so the window 602 is labeled as a surface. At this time, the tiles 603 to 605 are not labeled with sufficient resolution. In the 0th layer labeling, the density of the three-dimensional point cloud position data to be sampled is higher than that in the first layer. Therefore, the tiles 603 to 605 are also labeled and converted into data as surfaces.

また、図6には、下層におけるラベリングに移行する再に、上層のラベルが引き継がれる場合の例が示されている。まず、第2層の階層におけるラベリングで壁601が面としてラベリングされる。そして、第2層よりも下層の第1層に移行する際、壁601のラベリングのデータはそのまま引き継がれ、第2層において面として認識された壁601を対象として、第1層の階層における更により細かい面のラベリングが行われる。そして、第1層で窓602が面としてラベリングされるのであるが、この窓602の面としてのデータは、第0層に引き継がれる。そして、第2層、第1層の階層でラベリングされた壁601および窓602を面として捉えている状態において、更に細かい面のラベリングが第0層の階層において行われる。この場合、壁601をより細かく見た場合に認識されるタイル603〜605のラベリングが行われる。この下層にラベルを引き継いでの再ラベリングを行うことで、既に行われているラベリングの作業を重複して行う無駄が省かれ、処理が効率化される。   Further, FIG. 6 shows an example in which the upper layer label is taken over again after the transition to the lower layer labeling. First, the wall 601 is labeled as a surface by labeling in the second layer. Then, when moving to the first layer lower than the second layer, the labeling data of the wall 601 is taken over as it is, and the wall 601 recognized as a plane in the second layer is targeted as the update in the first layer hierarchy. The labeling of the fine surface is performed. Then, the window 602 is labeled as a surface in the first layer, but the data as the surface of the window 602 is carried over to the 0th layer. Further, in a state where the wall 601 and the window 602 that are labeled in the second layer and the first layer are regarded as surfaces, the finer surface labeling is performed in the zeroth layer. In this case, the tiles 603 to 605 that are recognized when the wall 601 is viewed in more detail are labeled. By performing relabeling while taking over the label in this lower layer, the waste of performing the labeling work already performed is eliminated, and the processing becomes efficient.

仮に、図6に例示するモデルにおける第2層の面のデータ(壁601を面として把握したデータ)が、第1層の階層におけるラベリング時に引き継がれないと、第1層の階層においても再度壁601を認識するためのラベリングの処理が必要となり、演算が重複して行われる無駄が生じる。   If the data of the surface of the second layer in the model illustrated in FIG. 6 (data obtained by using the wall 601 as a surface) is not inherited at the time of labeling in the layer of the first layer, the wall in the layer of the first layer again A labeling process for recognizing 601 is required, and wasteful computation is performed.

図6に示す第2層の階層から第1層の階層に移行しての再ラベリング、あるいは第1層の階層から第0層の階層に移行しての再ラベリングが、図5のステップS509およびステップS510の処理の一例となる。   Re-labeling after moving from the second layer to the first layer or re-labeling from the first layer to the 0th layer shown in FIG. 6 is performed in steps S509 and S509 in FIG. This is an example of the process of step S510.

図5に戻り、ステップS510での再ラベリングの後、ステップS505以下の処理を再度実行し、新たにラベリングされたデータに基づく三次元モデルの作成を行い、更にその三次元モデルの画像表示を行う(ステップS506)。この処理によれば、例えば、図6の右側に示されているような、段階的に解像度が高くなり、上位の階層では表現されていなかった細部が順次表現されてゆく三次元モデルの画像表示が行われる。   Returning to FIG. 5, after the re-labeling in step S510, the processes in and after step S505 are executed again to create a three-dimensional model based on the newly labeled data, and further display the image of the three-dimensional model. (Step S506). According to this processing, for example, as shown on the right side of FIG. 6, a three-dimensional model image display in which the resolution gradually increases and details that are not expressed in the upper hierarchy are sequentially expressed. Is done.

図7には、段階的に階層を下げつつ(解像度を上げつつ)三次元モデルを作成した場合の三次元モデル画像の一例が示されている。図7には、図3および図6に示す第2層、第1層、第0層に対応する三次元モデル画像の一例が示されている。なお、図7には、解像度の違いを誇張した状態が示されている。   FIG. 7 shows an example of a three-dimensional model image when a three-dimensional model is created while lowering the hierarchy stepwise (increasing resolution). FIG. 7 shows an example of a three-dimensional model image corresponding to the second layer, the first layer, and the zeroth layer shown in FIGS. 3 and 6. FIG. 7 shows a state in which the difference in resolution is exaggerated.

図7には、5階建ての集合住宅の三次元モデル画像が示されている。図7(A)には、三次元点群位置データのサンプリング密度が最も低く、解像度が最も低位である場合が示されている。図7(A)の場合、解像度が低いので、細部の状態がほとんど表現されていない。図7(B)には、(A)の場合よりも解像度が上がり、窓の形状等は明らかになっていないが、(A)の場合よりも細部の状態が明らかになった三次元モデルの画像が示されている。図7(C)は、第0層の階層、すなわち三次元レーザースキャナが取得した三次元点群位置データのオリジナルを利用した三次元モデルの画像が示されている。この場合、窓の形状等の細部が表現された三次元モデルの画像が表示される。   FIG. 7 shows a three-dimensional model image of a five-story apartment house. FIG. 7A shows a case where the sampling density of the three-dimensional point cloud position data is the lowest and the resolution is the lowest. In the case of FIG. 7A, since the resolution is low, the state of details is hardly expressed. In FIG. 7B, the resolution is higher than in the case of (A) and the shape of the window is not clear, but the three-dimensional model in which the state of details is clearer than in the case of (A). An image is shown. FIG. 7C shows an image of a three-dimensional model using the original of the zero-th layer, that is, the three-dimensional point cloud position data acquired by the three-dimensional laser scanner. In this case, an image of a three-dimensional model in which details such as the shape of the window are expressed is displayed.

(優位性)
以上説明した例では、まず三次元レーザースキャナが測定した三次元点群位置データに基づき、解像度を段階的に変えた三次元モデルを作成する。この際、低解像度の三次元モデルの作成およびその表示、さらにその後に、ラベリングされたデータを引き継いでの高解像度の三次元モデルの作成およびその表示を行う。ここで、低解像度の三次元モデルの表示を行うことで、最終的な三次元モデルの完成の途中の段階をユーザが把握することができる。
(Superiority)
In the example described above, first, a three-dimensional model with the resolution changed stepwise is created based on the three-dimensional point cloud position data measured by the three-dimensional laser scanner. At this time, a low-resolution three-dimensional model is created and displayed, and thereafter, a high-resolution three-dimensional model is created and displayed by taking over the labeled data. Here, by displaying the low-resolution three-dimensional model, the user can grasp the stage in the middle of completing the final three-dimensional model.

例えば、図7の三次元モデルの画像表示の場合、最初の図5のステップS506の段階で第2層の三次元モデルの画像表示が行われる。ここで、視点の選択の誤りやこの視点の三次元モデルが不要であると判断される場合、処理を終了することができる。この段階で処理の対象とされた三次元点群位置データは、図3の例示の場合から明らかなように、オリジナルの三次元点群位置データに比較してデータ量が格段に少ない(この場合は1/16)。したがって、解像度が低い粗い三次元モデルの段階で処理を終了することで、全ての三次元点群位置データを処理の対象とする場合に比較して、処理時間が短縮される。また、途中で演算を止めることで、無駄な処理を行わないで済む。   For example, in the case of the image display of the three-dimensional model of FIG. 7, the image display of the second-layer three-dimensional model is performed in the first step S506 of FIG. Here, when it is determined that the viewpoint selection error or the three-dimensional model of this viewpoint is unnecessary, the processing can be terminated. The 3D point cloud position data to be processed at this stage has a significantly smaller data amount than the original 3D point cloud position data, as is apparent from the example of FIG. 3 (in this case) 1/16). Therefore, the processing time is shortened by finishing the processing at the stage of the rough three-dimensional model having a low resolution as compared with the case where all the three-dimensional point cloud position data are processed. Further, by stopping the calculation in the middle, it is not necessary to perform useless processing.

また、図7に示されるように段階的に三次元モデルの作成過程の途中経過を視認することができるため、ユーザが受けるストレスが軽減され、またユーザの作業性が向上する。また、図6に示すように階層を下げる場合に、上位の階層で得られたラベリングデータが、下位の階層に引き継がれる。このため、無駄な処理が抑制される。   Further, as shown in FIG. 7, the progress of the process of creating the three-dimensional model can be visually confirmed step by step, so that the stress received by the user is reduced and the workability of the user is improved. Also, as shown in FIG. 6, when the hierarchy is lowered, the labeling data obtained in the higher hierarchy is taken over by the lower hierarchy. For this reason, useless processing is suppressed.

また、段階的により詳細なラベリングが行われるので、図7に示すように段階的に三次元モデルの画像が詳細になる状態が表示可能となり、徐々に詳細になってゆく過程をユーザが把握し易い。また、概略のアウトラインが判ればよい三次元モデルを得たい場合に、解像度を落とした階層を指定することで、より短い演算時間で所望する精度の三次元モデルを得ることができる。   In addition, since more detailed labeling is performed step by step, it is possible to display a state in which the image of the three-dimensional model becomes more detailed as shown in FIG. 7, and the user grasps the process of gradually becoming more detailed. easy. Further, when it is desired to obtain a three-dimensional model whose outline can be understood, it is possible to obtain a three-dimensional model with desired accuracy in a shorter calculation time by designating a hierarchy with reduced resolution.

2.第2の実施形態
ここでは、階層数および解像度を決定する方法の一例を説明する。まず、特定の階層の分解能は、下記の数3によって表される。ここでの分解能は、分解できる最小寸法の値であり、その値が小さいほど、精度が高く、より細かい部分まで表現されることを意味する。
2. Second Embodiment Here, an example of a method for determining the number of layers and the resolution will be described. First, the resolution of a specific hierarchy is expressed by the following Equation 3. The resolution here is a value of the smallest dimension that can be resolved, and the smaller the value, the higher the precision and the smaller the portion is expressed.

Figure 2012230594
Figure 2012230594

ここで、aはスキャンピッチである。図8には、スキャンピッチa、測定対象物のスキャン範囲L、測定距離H、スキャン範囲Lにおける三次元点群位置データの数Mの関係が示されている。nは、n=0をデータの間引きのないオリジナルのスキャンデータ(例えば図3(C)の三次元点群位置データ)とした場合における何番目の層であるかを示す数値(自然数)である。図3や図6の場合から明らかなように、nの値が大きくなる程、分解能の値は大きく(つまり解像度は悪く)なる。   Here, a is the scan pitch. FIG. 8 shows the relationship between the scan pitch a, the scan range L of the measurement object, the measurement distance H, and the number M of three-dimensional point group position data in the scan range L. n is a numerical value (natural number) indicating the number of layers when n = 0 is original scan data without data thinning (for example, the three-dimensional point cloud position data in FIG. 3C). . As is clear from the cases of FIGS. 3 and 6, the larger the value of n, the larger the resolution value (that is, the lower the resolution).

階層の数(n+1)をレイヤー数という。レイヤー数は下記数4によって表される。ここで、単位処理時間は、1個の点群位置データを処理するのに要する時間であり、ユーザ解析要求時間は、ユーザが求める該当する階層の演算に要する時間である。   The number of layers (n + 1) is called the number of layers. The number of layers is represented by the following number 4. Here, the unit processing time is the time required to process one point cloud position data, and the user analysis request time is the time required for the calculation of the corresponding hierarchy required by the user.

Figure 2012230594
Figure 2012230594

例えば、1万個の点群位置データに要する処理時間が30m秒(1個当たり、3×10−6秒)であり、ユーザが求める一つの階層に対する解析要求時間が10秒であるとする。また、対象となるオリジナル(第0層)の三次元点群位置データの数が1000万点であるとする。この場合、上記の数4に基づいて、n=3が算出され、レイヤー数は3となる。つまり、この場合は図3や図6の場合のように階層を3段階に設定すれば、1層に対する演算に要する時間を10秒に抑えることができる。この場合、第2層→第1層→第0層と各10秒の処理が3回行われる。 For example, it is assumed that the processing time required for 10,000 point cloud position data is 30 milliseconds (3 × 10 −6 seconds per piece), and the analysis request time for one hierarchy required by the user is 10 seconds. Further, it is assumed that the number of original (0th layer) three-dimensional point cloud position data is 10 million. In this case, n = 3 is calculated based on the above equation 4, and the number of layers is 3. That is, in this case, if the hierarchy is set in three stages as in the case of FIGS. 3 and 6, the time required for the calculation for one layer can be suppressed to 10 seconds. In this case, the processing of the second layer → the first layer → the zeroth layer and each 10 seconds is performed three times.

また、数4を図8に示す関係式を用いて変形すると、下記数5が得られる。ここで、Tは、上記の単位処理時間であり、tは一つの階層の処理に対するユーザの解析要求時間であり、HとLは図8に示すパラメータである。また、θは使用するレーザースキャナの角度ピッチである。このθはレーザースキャナの角度制御の精度で決まる。   Further, when Equation 4 is transformed using the relational expression shown in FIG. 8, the following Equation 5 is obtained. Here, T is the unit processing time, t is the user's analysis request time for processing of one layer, and H and L are parameters shown in FIG. Θ is the angle pitch of the laser scanner used. This θ is determined by the accuracy of laser scanner angle control.

Figure 2012230594
Figure 2012230594

数5によれば、例えば測定現場の制約からLとHが決まっており、またレーザースキャナの性能からθが決まっており、また使用するコンピュータの性能からTが決まっている場合、解析要求時間tを決めることで、レイヤー数を決めることができる。精度は悪くてもなるべく早く三次元モデルの画像を見るためには、tを短く設定する必要がある。他方において、tを短く設定すると、レイヤー数が大きくなり、より多くの階層が必要となる。   According to Equation 5, for example, if L and H are determined due to restrictions at the measurement site, θ is determined based on the performance of the laser scanner, and T is determined based on the performance of the computer used, the analysis request time t By deciding, you can decide the number of layers. In order to view the image of the three-dimensional model as soon as possible even if the accuracy is low, it is necessary to set t short. On the other hand, if t is set short, the number of layers increases, and more layers are required.

一例ではあるが、選択されるレイヤー数の目安は、対象となる三次元点群位置データの数が1億以上の場合は5層、5000万〜1億点の場合は4層、1000万〜5000万点の場合は3層、500万点〜1000万点の場合は2層、500万点未満の場合は1層とするのが好ましい。   Although it is an example, the standard of the number of layers to be selected is 5 layers when the number of target 3D point cloud position data is 100 million or more, 4 layers when 10 million to 100 million points, 10 million to 10 million In the case of 50 million points, it is preferable to have 3 layers, in the case of 5 million points to 10 million points, 2 layers, and in the case of less than 5 million points, it is preferable to have 1 layer.

以下、図1に示す三次元点群位置データ処理装置100において、レイヤー数を自動設定する処理の一例を説明する。まず、ユーザは、最終的に作成される三次元モデルの画像の分解能aと三次元モデルの画像を得るのに要する処理時間tを選択し、これらの項目を操作入力部106から入力する。ここで、分解能aは、5cmや10cmといった数値が設定される。また、使用する三次元レーザースキャナによる予備測定を行い、図8のHおよびLの値を取得しておく。   Hereinafter, an example of processing for automatically setting the number of layers in the three-dimensional point cloud position data processing apparatus 100 shown in FIG. 1 will be described. First, the user selects the resolution a of the finally created three-dimensional model image and the processing time t required to obtain the three-dimensional model image, and inputs these items from the operation input unit 106. Here, the resolution a is set to a numerical value such as 5 cm or 10 cm. Further, preliminary measurement is performed with the three-dimensional laser scanner to be used, and the values of H and L in FIG. 8 are acquired.

解像度設定部102は、上記入力された分解能aに基づいて、数5のθを算出する。そして、このθの値、ユーザによって指定されたt、予備測定で求めたH,L、使用するコンピュータの性能から決まるTを数5に代入し、レイヤー数を算出する。こうすることで、ユーザは面倒な操作を行うことなく、初期設定を行うことで、レイヤー数が算出され、図7に例示するような段階的に解像度が高くなる三次元モデルの画像表示を行うための設定が行われる。   The resolution setting unit 102 calculates θ in Formula 5 based on the input resolution a. Then, the number of layers is calculated by substituting this value of θ, t specified by the user, H and L obtained in the preliminary measurement, and T determined from the performance of the computer to be used into Expression 5. By doing this, the user performs initial settings without performing troublesome operations, and the number of layers is calculated, and the image of the three-dimensional model whose resolution increases stepwise as illustrated in FIG. 7 is displayed. Settings are made.

3.第3の実施形態
以下、三次元点群位置データを処理する機能を有する三次元レーザースキャナについて説明する。この例において、三次元レーザースキャナは、測定対象物に対して測距光(レーザー光)を走査しつつ照射し、レーザー光の飛行時間に基づいて自身の位置から測定対象物上の多数の測定点までの距離を測距する。また、この三次元レーザースキャナは、レーザー光の照射方向(水平角および高低角)を検出し、距離および照射方向に基づいて測定点の三次元座標を算出する。また、この三次元レーザースキャナは、測定対象物を撮影した二次元画像(各測定点におけるRGB強度)を取得し、二次元画像と三次元座標とを結び付けた三次元点群位置データを形成する。さらに、ここで示す三次元レーザースキャナは、図1に関連して説明した三次元点群位置データ処理装置100の処理を行う機能を有している。
3. Third Embodiment Hereinafter, a three-dimensional laser scanner having a function of processing three-dimensional point cloud position data will be described. In this example, the three-dimensional laser scanner irradiates the object to be measured with distance measuring light (laser light), and performs a number of measurements on the object to be measured from its own position based on the time of flight of the laser light. Measure the distance to the point. The three-dimensional laser scanner detects the irradiation direction (horizontal angle and elevation angle) of the laser beam, and calculates the three-dimensional coordinates of the measurement point based on the distance and the irradiation direction. The three-dimensional laser scanner acquires a two-dimensional image (RGB intensity at each measurement point) obtained by photographing the measurement object, and forms three-dimensional point group position data that combines the two-dimensional image and the three-dimensional coordinates. . Further, the three-dimensional laser scanner shown here has a function of performing the processing of the three-dimensional point cloud position data processing apparatus 100 described with reference to FIG.

(構成)
図9および図10は、三次元レーザースキャナ1の構成を示す断面図である。三次元レーザースキャナ1は、整準部22、回転機構部23、本体部27、および回転照射部28を備えている。本体部27は、測距部24、撮影部25、制御部26等から構成されている。なお、図9は、説明の便宜のため、図10に示す断面方向に対して、回転照射部28のみ側方から見た状態を示している。
(Constitution)
9 and 10 are cross-sectional views showing the configuration of the three-dimensional laser scanner 1. The three-dimensional laser scanner 1 includes a leveling unit 22, a rotation mechanism unit 23, a main body unit 27, and a rotation irradiation unit 28. The main body 27 includes a distance measuring unit 24, a photographing unit 25, a control unit 26, and the like. For convenience of explanation, FIG. 9 shows a state where only the rotary irradiation unit 28 is viewed from the side with respect to the cross-sectional direction shown in FIG.

整準部22は、台盤29を有し、回転機構部23は下部ケーシング30を有する。下部ケーシング30は、ピン31と2個の調整ネジ32とにより3点で台盤29に支持されている。下部ケーシング30は、ピン31の先端を支点にして傾動する。なお、台盤29と下部ケーシング30との間には、台盤29と下部ケーシング30とが互いに離反しないようにするため、引っ張りスプリング33が設けられている。   The leveling unit 22 has a base plate 29, and the rotation mechanism unit 23 has a lower casing 30. The lower casing 30 is supported on the base plate 29 at three points by a pin 31 and two adjustment screws 32. The lower casing 30 tilts with the tip of the pin 31 as a fulcrum. A tension spring 33 is provided between the base plate 29 and the lower casing 30 to prevent the base plate 29 and the lower casing 30 from separating from each other.

下部ケーシング30の内部には、2個の整準モータ34が設けられている。2個の整準モータ34は、制御部26によって互いに独立して駆動される。整準モータ34の駆動により整準駆動ギア35、整準従動ギア36を介して調整ネジ32が回転し、調整ネジ32の下方への突出量が調整される。また、下部ケーシング30の内部には傾斜センサ37(図11参照)が設けられている。2個の整準モータ34は、傾斜センサ37の検出信号により駆動され、これにより整準が実行される。   Two leveling motors 34 are provided inside the lower casing 30. The two leveling motors 34 are driven by the control unit 26 independently of each other. When the leveling motor 34 is driven, the adjustment screw 32 is rotated via the leveling drive gear 35 and the leveling driven gear 36, and the amount of downward protrusion of the adjustment screw 32 is adjusted. An inclination sensor 37 (see FIG. 11) is provided inside the lower casing 30. The two leveling motors 34 are driven by the detection signal of the tilt sensor 37, whereby leveling is executed.

回転機構部23は、下部ケーシング30の内部に水平角用駆動モータ38を有する。水平角用駆動モータ38の出力軸には水平回動駆動ギア39が嵌着されている。水平回動駆動ギア39は、水平回動ギア40に噛合されている。水平回動ギア40は、回転軸部41に設けられている。回転軸部41は、回転基盤42の中央部に設けられている。回転基盤42は、下部ケーシング30の上部に、軸受け部材43を介して設けられている。   The rotation mechanism unit 23 includes a horizontal angle drive motor 38 inside the lower casing 30. A horizontal rotation drive gear 39 is fitted to the output shaft of the horizontal angle drive motor 38. The horizontal rotation drive gear 39 is meshed with the horizontal rotation gear 40. The horizontal rotation gear 40 is provided on the rotation shaft portion 41. The rotating shaft portion 41 is provided at the center portion of the rotating base 42. The rotating base 42 is provided on the upper portion of the lower casing 30 via a bearing member 43.

また、回転軸部41には水平角検出器44として、例えばロータリーエンコーダが設けられている。水平角検出器44は、下部ケーシング30に対する回転軸部41の相対的回転角(水平角)を検出する。水平角は制御部26に入力され、制御部26は、その検出結果に基づき水平角用駆動モータ38を制御する。   Further, the rotary shaft portion 41 is provided with, for example, a rotary encoder as the horizontal angle detector 44. The horizontal angle detector 44 detects a relative rotation angle (horizontal angle) of the rotation shaft portion 41 with respect to the lower casing 30. The horizontal angle is input to the control unit 26, and the control unit 26 controls the horizontal angle drive motor 38 based on the detection result.

本体部27は、本体部ケーシング45を有する。本体部ケーシング45は、回転基盤42に固着されている。本体部ケーシング45の内部には鏡筒46が設けられている。鏡筒46は、本体部ケーシング45の回転中心と同心の回転中心を有する。鏡筒46の回転中心は、光軸47に合致されている。鏡筒46の内部には、光束分離手段としてのビームスプリッタ48が設けられている。ビームスプリッタ48は、可視光を透過し、かつ、赤外光を反射する機能を有する。光軸47は、ビームスプリッタ48によって光軸49と光軸50とに分離される。   The main body 27 has a main body casing 45. The main body casing 45 is fixed to the rotating base 42. A lens barrel 46 is provided inside the main body casing 45. The lens barrel 46 has a rotation center concentric with the rotation center of the main body casing 45. The center of rotation of the lens barrel 46 is aligned with the optical axis 47. Inside the lens barrel 46, a beam splitter 48 as a light beam separating means is provided. The beam splitter 48 has a function of transmitting visible light and reflecting infrared light. The optical axis 47 is separated into an optical axis 49 and an optical axis 50 by a beam splitter 48.

測距部24は、鏡筒46の外周部に設けられている。測距部24は、発光部としてのパルスレーザ光源51を有する。パルスレーザ光源51とビームスプリッタ48との間には、穴あきミラー52、レーザー光のビームウエスト径を変更するビームウエスト変更光学系53が配設されている。測距光源部は、パルスレーザ光源51、ビームウエスト変更光学系53、穴あきミラー52で構成されている。穴あきミラー52は、パルスレーザ光を穴部52aからビームスプリッタ48に導き、測定対象物から反射して戻って来た反射レーザー光を測距受光部54に向けて反射する役割を有する。   The distance measuring unit 24 is provided on the outer periphery of the lens barrel 46. The distance measuring unit 24 includes a pulse laser light source 51 as a light emitting unit. Between the pulse laser light source 51 and the beam splitter 48, a perforated mirror 52 and a beam waist changing optical system 53 for changing the beam waist diameter of the laser light are arranged. The distance measuring light source unit includes a pulse laser light source 51, a beam waist changing optical system 53, and a perforated mirror 52. The perforated mirror 52 has a role of guiding the pulsed laser light from the hole 52 a to the beam splitter 48, and reflecting the reflected laser light returned from the measurement object toward the distance measuring light receiving unit 54.

パルスレーザ光源51は、制御部26の制御により所定のタイミングで赤外パルスレーザ光を発する。赤外パルスレーザ光は、ビームスプリッタ48によって高低角用回動ミラー55に向けて反射される。高低角用回動ミラー55は、赤外パルスレーザ光を測定対象物に向けて反射する。高低角用回動ミラー55は、高低角方向に回転することで、鉛直方向に延びる光軸47を高低角方向の投光光軸56に変換する。ビームスプリッタ48と高低角用回動ミラー55との間でかつ鏡筒46の内部には集光レンズ57が配設されている。   The pulse laser light source 51 emits infrared pulse laser light at a predetermined timing under the control of the control unit 26. The infrared pulse laser beam is reflected by the beam splitter 48 toward the high / low angle rotating mirror 55. The elevation mirror 55 for high and low angles reflects the infrared pulse laser beam toward the measurement object. The elevation mirror 55 is rotated in the elevation direction to convert the optical axis 47 extending in the vertical direction into a projection optical axis 56 in the elevation direction. A condensing lens 57 is disposed between the beam splitter 48 and the elevation mirror 55 and inside the lens barrel 46.

測定対象物からの反射レーザー光は、高低角回動用ミラー55、集光レンズ57、ビームスプリッタ48、穴あきミラー52を経て測距受光部54に導かれる。また、測距受光部54には、内部参照光路を通って参照光も導かれる。反射レーザー光が測距受光部54で受光されるまでの時間と、レーザー光が内部参照光路を通って測距受光部54で受光されるまでの時間との差に基づき、光学情報処理装置1から測定対象物(測定対象点)までの距離が測定される。測距受光部54は、CMOS光センサ等の光電変化素子により構成され、検出した光のRGB強度を検出する機能も有している。   The reflected laser light from the object to be measured is guided to the distance measuring light receiving unit 54 through the elevation angle turning mirror 55, the condenser lens 57, the beam splitter 48, and the perforated mirror 52. Further, the reference light is also guided to the distance measuring light receiving unit 54 through the internal reference light path. Based on the difference between the time until the reflected laser light is received by the distance measuring light receiving unit 54 and the time until the laser light is received by the distance measuring light receiving unit 54 through the internal reference light path, the optical information processing apparatus 1 The distance from the object to be measured (measurement target point) is measured. The ranging light receiving unit 54 is configured by a photoelectric change element such as a CMOS optical sensor, and also has a function of detecting the RGB intensity of the detected light.

撮影部25は、画像受光部58を備え、カメラとして機能する。画像受光部58は、鏡筒46の底部に設けられている。画像受光部58は、多数の画素が平面状に集合して配列されたもの、例えば、CCD(Charge Coupled Device)で構成されている。画像受光部58の各画素の位置は光軸50によって特定される。例えば、光軸50を原点として、X−Y座標を想定し、このX−Y座標の点として画素が定義される。   The photographing unit 25 includes an image light receiving unit 58 and functions as a camera. The image light receiving unit 58 is provided at the bottom of the lens barrel 46. The image light receiving unit 58 is configured by a pixel in which a large number of pixels are arranged in a plane, for example, a CCD (Charge Coupled Device). The position of each pixel of the image light receiving unit 58 is specified by the optical axis 50. For example, an XY coordinate is assumed with the optical axis 50 as the origin, and a pixel is defined as a point of the XY coordinate.

回転照射部28は、投光ケーシング59の内部に収納されている。投光ケーシング59の周壁の一部は、投光窓となっている。図10に示すように、鏡筒46のフランジ部60には、一対のミラーホルダー板61が対向して設けられている。ミラーホルダー板61には、回動軸62が掛け渡されている。高低角用回動ミラー55は、回動軸62に固定されている。回動軸62の一端部には高低角ギア63が嵌着されている。回動軸62の他端側には高低角検出器64が設けられている。高低角検出器64は、高低角用回動ミラー55の回動角を検出し、その検出結果を制御部26に出力する。   The rotary irradiation unit 28 is accommodated in the light projection casing 59. A part of the peripheral wall of the light projection casing 59 serves as a light projection window. As shown in FIG. 10, a pair of mirror holder plates 61 are provided facing the flange portion 60 of the lens barrel 46. A rotation shaft 62 is stretched over the mirror holder plate 61. The high / low angle turning mirror 55 is fixed to the turning shaft 62. An elevation gear 63 is fitted to one end of the rotation shaft 62. An elevation angle detector 64 is provided on the other end side of the rotation shaft 62. The elevation angle detector 64 detects the rotation angle of the elevation angle rotation mirror 55 and outputs the detection result to the control unit 26.

ミラーホルダー板61の一方には、高低角用駆動モータ65が取り付けられている。高低角用駆動モータ65の出力軸には駆動ギア66が嵌着されている。駆動ギア66は、回転軸62に取り付けられた高低角ギア63に噛合されている。高低角用駆動モータ65は、高低角検出器64の検出結果に基づき、制御部26の制御により適宜駆動される。   A high and low angle drive motor 65 is attached to one side of the mirror holder plate 61. A drive gear 66 is fitted on the output shaft of the high / low angle drive motor 65. The drive gear 66 is meshed with an elevation gear 63 attached to the rotary shaft 62. The elevation motor 65 is appropriately driven by the control of the control unit 26 based on the detection result of the elevation detector 64.

投光ケーシング59の上部には、照星照門67が設けられている。照星照門67は、測定対象物を概略視準するのに用いられる。照星照門67を用いた視準方向は、投光光軸56の延びる方向、および回動軸62の延びる方向に対して直交する方向とされている。また、図10に示すように、投光ケーシング59の上部には、GPSアンテナ81が配置されている。GPSアンテナにより、GPS情報が取得され、内部で行われる演算にGPS情報を利用することができる構成とされている。   On the upper part of the light projection casing 59, there is provided an illumination star turret 67. The sight sight gate 67 is used for roughly collimating the measurement object. The collimation direction using the sight sight gate 67 is a direction orthogonal to the direction in which the projection light axis 56 extends and the direction in which the rotation shaft 62 extends. Further, as shown in FIG. 10, a GPS antenna 81 is disposed on the upper part of the light projection casing 59. GPS information is acquired by the GPS antenna, and the GPS information can be used for calculations performed internally.

図11は、制御部のブロック図である。制御部26には、水平角検出器44、高低角検出器64、傾斜センサ37、GPSアンテナ81からの検出信号が入力される。また、制御部26は、操作部6から操作指示信号が入力される。制御部26は、水平角用駆動モータ38、高低角用駆動モータ65、整準モータ34を駆動制御する共に、作業状況、測定結果等を表示する表示部7を制御する。制御部26には、メモリカード、HDD等の外部記憶装置68が着脱可能とされている。   FIG. 11 is a block diagram of the control unit. Detection signals from the horizontal angle detector 44, the elevation angle detector 64, the tilt sensor 37, and the GPS antenna 81 are input to the control unit 26. The control unit 26 receives an operation instruction signal from the operation unit 6. The control unit 26 drives and controls the horizontal angle drive motor 38, the elevation angle drive motor 65, and the leveling motor 34, and controls the display unit 7 that displays the work status, measurement results, and the like. An external storage device 68 such as a memory card or HDD can be attached to and detached from the control unit 26.

制御部26は、演算部4、記憶部5、水平駆動部69、高低駆動部70、整準駆動部71、距離データ処理部72、画像データ処理部73等から構成されている。記憶部5は、測距や高低角と水平角の検出を行うために必要なシーケンスプログラム、演算プログラム、測定データの処理を実行する測定データ処理プログラム、画像処理を行う画像処理プログラム、三次元点群位置データから面を抽出し、更に輪郭線を算出するプログラム、この算出した輪郭線を表示部7に表示させるための画像表示プログラム、三次元点群位置データの再取得に係る処理を制御するプログラム等の各種のプログラムを格納すると共に、これらの各種のプログラムを統合管理するための統合管理プログラム等を格納する。また、記憶部5は、測定データ、画像データ等の各種のデータを格納する。水平駆動部69は、水平角用駆動モータ38を駆動制御し、高低駆動部70は、高低角用駆動モータ65を駆動制御し、整準駆動部71は、整準モータ34を駆動制御する。距離データ処理部72は、測距部24によって得られた距離データを処理し、画像データ処理部73は、撮影部25により得られた画像データを処理する。   The control unit 26 includes a calculation unit 4, a storage unit 5, a horizontal drive unit 69, a height drive unit 70, a leveling drive unit 71, a distance data processing unit 72, an image data processing unit 73, and the like. The storage unit 5 includes a sequence program, a calculation program, a measurement data processing program for executing measurement data processing, an image processing program for performing image processing, and a three-dimensional point, which are necessary for distance measurement and detection of elevation angle and horizontal angle. A program for extracting a surface from group position data and further calculating a contour line, an image display program for displaying the calculated contour line on the display unit 7, and a process related to reacquisition of three-dimensional point group position data are controlled. In addition to storing various programs such as programs, an integrated management program or the like for integrating and managing these various programs is stored. The storage unit 5 stores various data such as measurement data and image data. The horizontal drive unit 69 drives and controls the horizontal angle drive motor 38, the elevation drive unit 70 controls the drive of the elevation angle drive motor 65, and the leveling drive unit 71 controls the leveling motor 34. The distance data processing unit 72 processes the distance data obtained by the distance measuring unit 24, and the image data processing unit 73 processes the image data obtained by the photographing unit 25.

また、制御部26は、GPS受信部82を備えている。GPS受信部82は、GPSアンテナが受信したGPS衛星からの信号を処理し、地球上における座標データを算出する。これは、通常のGPS受信装置と同じである。GPSから得られた位置情報は、後述する三次元点群位置データ処理部100’に入力される。   The control unit 26 includes a GPS receiving unit 82. The GPS receiver 82 processes a signal from a GPS satellite received by the GPS antenna, and calculates coordinate data on the earth. This is the same as a normal GPS receiver. Position information obtained from the GPS is input to a three-dimensional point cloud position data processing unit 100 'described later.

図12は、演算部4のブロック図である。演算部4は、三次元座標演算部74、リンク形成部75、グリッド形成部9、三次元点群位置データ処理部100’を備えている。三次元座標演算部74には、距離データ処理部72から測定対象点の距離データが入力され、水平角検出器44および高低角検出器64から測定対象点の方向データ(水平角および高低角)が入力される。三次元座標演算部74は、入力された距離データと方向データとに基づき、光学情報処理装置1の位置を原点(0,0,0)とした各測定点の三次元座標(直交座標)を算出する。   FIG. 12 is a block diagram of the calculation unit 4. The calculation unit 4 includes a three-dimensional coordinate calculation unit 74, a link formation unit 75, a grid formation unit 9, and a three-dimensional point group position data processing unit 100 '. The three-dimensional coordinate calculation unit 74 receives the distance data of the measurement target point from the distance data processing unit 72, and the direction data (horizontal angle and elevation angle) of the measurement target point from the horizontal angle detector 44 and the elevation angle detector 64. Is entered. Based on the input distance data and direction data, the three-dimensional coordinate calculation unit 74 calculates the three-dimensional coordinates (orthogonal coordinates) of each measurement point with the position of the optical information processing apparatus 1 as the origin (0, 0, 0). calculate.

リンク形成部75には、画像データ処理部73から画像データおよび三次元座標演算部74が算出した各測定点の三次元座標の座標データが入力される。リンク形成部75は、画像データ(各測定点のRGB強度)と三次元座標を結び付けた三次元点群位置データ2を形成する。つまり、リンク形成部75は、測定対象物のある点に着目した場合、その着目点の二次元画像中における位置と、その着目点の三次元座標とを関連付けしたものを作成する。この関連付けされたデータは、全ての測定点について算出され、それらが三次元点群位置データ2となる。   The link forming unit 75 receives the image data from the image data processing unit 73 and the coordinate data of the three-dimensional coordinates of each measurement point calculated by the three-dimensional coordinate calculation unit 74. The link forming unit 75 forms 3D point group position data 2 in which image data (RGB intensity at each measurement point) and 3D coordinates are linked. That is, when focusing on a point on the measurement object, the link forming unit 75 creates a link in which the position of the point of interest in the two-dimensional image is associated with the three-dimensional coordinates of the point of interest. The associated data is calculated for all the measurement points, and becomes the three-dimensional point group position data 2.

リンク形成部75は、以上の三次元点群位置データ2をグリッド形成部9に出力する。グリッド形成部9は、三次元点群位置データ2の隣接点の点間距離が一定でない場合に、等間隔のグリッド(メッシュ)を形成し、グリッドの交点に最も近い点を登録する。または、グリッド形成部9は、線形補間法やバイキュービック法を用いて、グリッドの交点位置に全点を補正する。なお、三次元点群位置データ2の点間距離が一定である場合には、グリッド形成部9の処理を省略することができる。   The link forming unit 75 outputs the above three-dimensional point cloud position data 2 to the grid forming unit 9. When the distance between adjacent points in the three-dimensional point cloud position data 2 is not constant, the grid forming unit 9 forms an equally spaced grid (mesh) and registers the point closest to the grid intersection. Or the grid formation part 9 correct | amends all the points to the intersection position of a grid using a linear interpolation method or a bicubic method. If the distance between the points in the 3D point cloud position data 2 is constant, the processing of the grid forming unit 9 can be omitted.

以下、グリッドの形成手順について説明する。図13は、点間距離が一定でない三次元点群位置データを示す概念図であり、図14は、形成したグリッドを示す概念図である。図13に示すように、各列の平均水平間隔H1−Nを求め、さらに列間の平均水平間隔の差分ΔHi,jを算出し、その平均をグリッドの水平間隔ΔHとする(数6)。垂直方向の間隔は、各列での垂直方向の隣接点との距離ΔVN,Hを算出し、画像サイズW,Hの画像全体におけるΔVN,Hの平均を垂直間隔ΔVとする(数7)。そして、図14に示すように、算出した水平間隔ΔHおよび垂直間隔ΔVのグリッドを形成する。 Hereinafter, the grid formation procedure will be described. FIG. 13 is a conceptual diagram showing three-dimensional point group position data in which the distance between points is not constant, and FIG. 14 is a conceptual diagram showing a formed grid. As shown in FIG. 13, the average horizontal interval H 1-N of each column is obtained, and the difference ΔH i, j of the average horizontal interval between the columns is calculated, and the average is set as the horizontal interval ΔH of the grid (Equation 6 ). The vertical interval is calculated by calculating the distance ΔV N, H from the vertical adjacent point in each column, and the average of ΔV N, H in the entire image of the image sizes W, H is defined as the vertical interval ΔV (Equation 7 ). Then, as shown in FIG. 14, a grid with the calculated horizontal interval ΔH and vertical interval ΔV is formed.

Figure 2012230594
Figure 2012230594

Figure 2012230594
Figure 2012230594

次に、形成したグリッドの交点に最も近い点を登録する。この際、交点から各点までの距離には所定の閾値を設けて、登録を制限する。例えば、閾値は、水平間隔ΔHおよび垂直間隔ΔVの1/2とする。なお、線形補間法やバイキュービック法のように、交点との距離に応じた重みを付けて全点を補正してもよい。ただし、補間を行った場合には、本来計測していない点となる。   Next, the point closest to the intersection of the formed grids is registered. At this time, a predetermined threshold is provided for the distance from the intersection to each point to limit registration. For example, the threshold value is ½ of the horizontal interval ΔH and the vertical interval ΔV. It should be noted that all points may be corrected by applying a weight according to the distance from the intersection, such as a linear interpolation method or a bicubic method. However, when interpolation is performed, the point is not originally measured.

以上のようにして得られた三次元点群位置データは、三次元点群位置データ処理部100’に出力される。三次元点群位置データ処理部100’は、第1の実施形態で説明した三次元点群位置データ処理装置100と同様の動作を行う専用の集積回路である。三次元点群位置データ処理部100’は、例えばFPGA等により構成されている。また、三次元点群位置データ処理部100’の動作においてユーザに提示される画像の表示が液晶ディスプレイである表示部7において行われる。   The three-dimensional point cloud position data obtained as described above is output to the three-dimensional point cloud position data processing unit 100 '. The three-dimensional point cloud position data processing unit 100 ′ is a dedicated integrated circuit that performs the same operation as the three-dimensional point cloud position data processing device 100 described in the first embodiment. The three-dimensional point cloud position data processing unit 100 ′ is configured by, for example, an FPGA. Further, in the operation of the three-dimensional point cloud position data processing unit 100 ′, an image presented to the user is displayed on the display unit 7 that is a liquid crystal display.

三次元点群位置データ処理部100’には、GPS受信部82から得られた地球上における座標データが入力される。この構成によれば、三次元点群位置データ処理部100’で取り扱われる座標がGPSから得られた位置データ(例えば、電子地図情報)とリンクされる。これにより、例えば、三次元レーザースキャナ1の設置位置を電子地図上に画面表示することができ、また測定対象物の電子地図上における座標を特定することができる。   The coordinate data on the earth obtained from the GPS receiving unit 82 is input to the three-dimensional point cloud position data processing unit 100 ′. According to this configuration, coordinates handled by the three-dimensional point cloud position data processing unit 100 ′ are linked to position data (for example, electronic map information) obtained from the GPS. Thereby, for example, the installation position of the three-dimensional laser scanner 1 can be displayed on the electronic map, and the coordinates of the measurement object on the electronic map can be specified.

(その他)
制御部26の構成において、グリッド形成部9から三次元点群位置データが外部に出力される形態とすると、図9、図10に示す装置は、第1の実施形態で示したパーソナルコンピュータを利用した三次元点群位置データ処理装置100と組み合わせて使用可能な三次元レーザースキャナとなる。また、三次元点群位置データ処理部100’が行う処理を分散して行う構成も可能である。例えば、三次元点群位置データ処理部100’の機能の一部を通信回線で結ばれたサーバで行うような構成も可能である。これは、図1の三次元点群位置データ処理装置100の場合も同じである。これらの構成は、本発明の三次元点群位置データ処理システムの一例として把握される。
(Other)
In the configuration of the control unit 26, assuming that the three-dimensional point cloud position data is output from the grid forming unit 9, the apparatus shown in FIGS. 9 and 10 uses the personal computer shown in the first embodiment. Thus, a three-dimensional laser scanner that can be used in combination with the three-dimensional point cloud position data processing apparatus 100 is obtained. Also, a configuration in which the processing performed by the three-dimensional point cloud position data processing unit 100 ′ is performed in a distributed manner is possible. For example, a configuration in which a part of the functions of the three-dimensional point cloud position data processing unit 100 ′ is performed by a server connected by a communication line is also possible. The same applies to the case of the three-dimensional point cloud position data processing apparatus 100 of FIG. These configurations are understood as an example of the three-dimensional point cloud position data processing system of the present invention.

本発明を複数の視点から得られた三次元点群位置データの処理に利用することもできる。この場合、第1の視点から得られた三次元点群位置データと、第1の視点とは異なる視点である第2の視点から得られた三次元点群位置データとを統合した三次元点群位置データを対象として処理を行う。視点の数は、2つ以上であってもよい。視点の数を複数とすることで、ある視点からは死角となる部分が他の視点から得られた三次元点群位置データによって補完され、三次元モデルを回転させて表示させた場合における死角となって画像情報が欠落した部分の発生(オクルージョンの発生)が抑えられる。   The present invention can also be used for processing three-dimensional point cloud position data obtained from a plurality of viewpoints. In this case, a 3D point obtained by integrating 3D point cloud position data obtained from the first viewpoint and 3D point cloud position data obtained from a second viewpoint that is a viewpoint different from the first viewpoint. Processing is performed on the group position data. The number of viewpoints may be two or more. By setting the number of viewpoints to multiple, the part that becomes a blind spot from one viewpoint is complemented by the 3D point cloud position data obtained from another viewpoint, and the blind spot when the 3D model is rotated and displayed Therefore, the occurrence of a portion where image information is missing (occurrence of occlusion) is suppressed.

本発明は、三次元情報の測定を行う技術に利用することができる。   The present invention can be used in a technique for measuring three-dimensional information.

1…三次元レーザースキャナ、2…三次元点群位置データ、22…整準部、23…回転機構部、24…測距部、25…撮影部、26…制御部、27…本体部、28…回転照射部、29…台盤、30…下部ケーシング、31…ピン、32…調整ネジ、33…引っ張りスプリング、34…整準モータ、35…整準駆動ギア、36…整準従動ギア、37…傾斜センサ、38…水平回動モータ、39…水平回動駆動ギア、40…水平回動ギア、41…回転軸部、42…回転基盤、43…軸受部材、44…水平角検出器、45…本体部ケーシング、46…鏡筒、47…光軸、48…ビームスプリッタ、49,50…光軸、51…パルスレーザ光源、52…穴あきミラー、53…ビームウエスト変更光学系、54…測距受光部、55…高低角用回動ミラー、56…投光光軸、57…集光レンズ、58…画像受光部、59…投光ケーシング、60…フランジ部、61…ミラーホルダー板、62…回動軸、63…高低角ギア、64…高低角検出器、65…高低角用駆動モータ、66…駆動ギア、67…照星照門、68…外部記憶装置、69…水平駆動部、70…高低駆動部、71…整準駆動部、72…距離データ処理部、73…画像データ処理部、81…GPSアンテナ、82…GPS受信部、100’…三次元点群位置データ処理部。   DESCRIPTION OF SYMBOLS 1 ... Three-dimensional laser scanner, 2 ... Three-dimensional point cloud position data, 22 ... Leveling part, 23 ... Rotation mechanism part, 24 ... Distance measuring part, 25 ... Imaging | photography part, 26 ... Control part, 27 ... Main-body part, 28 DESCRIPTION OF SYMBOLS ... Rotary irradiation part, 29 ... Base, 30 ... Lower casing, 31 ... Pin, 32 ... Adjustment screw, 33 ... Tension spring, 34 ... Leveling motor, 35 ... Leveling drive gear, 36 ... Leveling driven gear, 37 DESCRIPTION OF SYMBOLS ... Inclination sensor, 38 ... Horizontal rotation motor, 39 ... Horizontal rotation drive gear, 40 ... Horizontal rotation gear, 41 ... Rotating shaft part, 42 ... Rotary base, 43 ... Bearing member, 44 ... Horizontal angle detector, 45 ... Main body casing, 46 ... Tube, 47 ... Optical axis, 48 ... Beam splitter, 49,50 ... Optical axis, 51 ... Pulse laser light source, 52 ... Perforated mirror, 53 ... Beam waist changing optical system, 54 ... Measurement Distance light receiving part, 55 .. Rotating mirror for high and low angle 56 ... Projection optical axis, 57 ... Condensing lens, 58 ... Image receiver, 59 ... Projection casing, 60 ... Flange, 61 ... Mirror holder plate, 62 ... Rotating shaft, 63 ... High / low angle gear, 64 ... High / low angle detector, 65 ... Drive motor for high / low angle, 66 ... Drive gear, 67 ... Terumoto Terumon, 68 ... External storage device, 69 ... Horizontal drive unit, 70 ... High / low drive unit, 71 ... Leveling drive unit, 72 ... Distance data processing unit, 73 ... Image data processing unit, 81 ... GPS antenna, 82 ... GPS receiving unit, 100 '... Three-dimensional point cloud position data processing unit.

Claims (14)

測定対象物の三次元点群位置データを取得する三次元点群位置データ取得部と、
前記三次元点群位置データ取得部が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更部と、
前記密度変更部で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去部と、
前記非面領域除去部によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング部と、
前記面ラベリング部によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成部と
を備えることを特徴とする三次元点群位置データ処理装置。
A 3D point cloud position data acquisition unit for acquiring 3D point cloud position data of the measurement object;
A density changing unit for three-dimensional point group position data for changing the density of the three-dimensional point group position data acquired by the three-dimensional point group position data acquiring unit;
A non-surface region removing unit that removes points of the non-surface region from the three-dimensional point cloud position data whose density has been changed by the density changing unit;
A surface labeling unit that gives the same label to points on the same surface, with respect to points other than the points removed by the non-surface region removing unit,
A three-dimensional point cloud position data processing apparatus comprising: a three-dimensional model creating unit that creates a three-dimensional model based on the surfaces classified by the surface labeling unit.
前記密度変更部における密度の変更が2以上の階層で行われることを特徴とする請求項1に記載の三次元点群位置データ処理装置。   The three-dimensional point cloud position data processing apparatus according to claim 1, wherein density change in the density changing unit is performed in two or more layers. 前記密度変更部は、前記三次元モデルの作成に要する時間に基づき前記階層の数を決定することを特徴とする請求項2に記載の三次元点群位置データ処理装置。   3. The 3D point cloud position data processing apparatus according to claim 2, wherein the density changing unit determines the number of the hierarchies based on a time required to create the 3D model. 前記三次元モデル作成部は、相対的に解像度の低い三次元モデルを作成した後に相対的に解像度の高い三次元モデルを作成することを特徴とする請求項1乃至3のいずれか一項に記載の三次元点群位置データ処理装置。   The three-dimensional model creation unit creates a three-dimensional model with a relatively high resolution after creating a three-dimensional model with a relatively low resolution. 3D point cloud position data processing device. 前記三次元モデル作成部は、前記相対的に解像度の低い三次元モデルを作成した際に付与された前記同一ラベルの情報に基づき、前記相対的に解像度の高い三次元モデルの作成を行うことを特徴とする請求項4に記載の三次元点群位置データ処理装置。   The three-dimensional model creating unit creates the three-dimensional model having a relatively high resolution based on the information of the same label given when the three-dimensional model having a relatively low resolution is created. The three-dimensional point cloud position data processing device according to claim 4, 前記三次元モデルの画像を作成する三次元モデル画像作成部を更に備え、
前記三次元モデル画像作成部は、前記相対的に解像度の低い三次元モデルの画像を作成した後に、前記相対的に解像度の高い三次元モデルの画像の作成を行うことを特徴とする請求項1乃至5のいずれか一項に記載の三次元点群位置データ処理装置。
A three-dimensional model image creating unit for creating an image of the three-dimensional model;
2. The 3D model image creation unit creates the 3D model image with a relatively high resolution after creating the 3D model image with a relatively low resolution. The three-dimensional point cloud position data processing device according to any one of claims 1 to 5.
前記相対的に解像度の低い三次元モデルの画像を作成した後に、前記相対的に解像度の高い三次元モデルの作成を中止させる指示を受け付ける受付部を備えることを特徴とする請求項6に記載の三次元点群位置データ処理装置。   The image processing apparatus according to claim 6, further comprising: an accepting unit that receives an instruction to cancel the creation of the relatively high-resolution 3D model after creating the relatively low-resolution 3D model image. 3D point cloud position data processing device. 前記面ラベリング部によって区分けされた面同士の境界部分における三次元エッジを抽出する三次元エッジ抽出部と、
前記面ラベリング部によって区分けされた面内から二次元エッジを抽出する二次元エッジ抽出部と、
前記三次元エッジと前記二次元エッジを統合するエッジ統合部と
を備えることを特徴とする請求項1乃至7のいずれか一項に記載の三次元点群位置データ処理装置。
A three-dimensional edge extraction unit that extracts a three-dimensional edge at a boundary portion between the surfaces divided by the surface labeling unit;
A two-dimensional edge extraction unit that extracts a two-dimensional edge from the plane divided by the surface labeling unit;
The three-dimensional point cloud position data processing device according to claim 1, further comprising: an edge integration unit that integrates the three-dimensional edge and the two-dimensional edge.
隣接する面の間を繋ぐ境界領域面を形成する境界領域面形成部を更に備え、
前記三次元エッジ抽出部は、前記境界領域面に基づいて三次元エッジの抽出を行うことを特徴とする請求項8に記載の三次元点群位置データ処理装置。
A boundary region surface forming part that forms a boundary region surface connecting between adjacent surfaces;
9. The three-dimensional point cloud position data processing apparatus according to claim 8, wherein the three-dimensional edge extraction unit extracts a three-dimensional edge based on the boundary region surface.
前記非面領域除去部は、複数の三次元点群位置データにより形成される局所面の平面へのフィッティング精度、曲率、他の局所面との共平面性の少なくとも一つに基づいて非面領域の除去を行うことを特徴とする請求項1乃至9のいずれか一項に記載の三次元点群位置データ処理装置。   The non-surface area removing unit is configured to generate a non-surface area based on at least one of fitting accuracy to a plane of a local surface formed by a plurality of three-dimensional point group position data, curvature, and coplanarity with another local surface. The three-dimensional point cloud position data processing device according to claim 1, wherein the three-dimensional point cloud position data processing device is removed. 前記面ラベリング部によってラベルが付与されていない点に対して、最近傍面のラベルを付与し、前記ラベルを拡張するラベル拡張部をさらに備えることを特徴とする請求項1乃至10のいずれか一項に記載の三次元点群位置データ処理装置。   11. The apparatus according to claim 1, further comprising a label expansion unit that applies a label on the nearest surface to a point that is not provided with a label by the surface labeling unit, and expands the label. The three-dimensional point cloud position data processing device according to item. 測定対象物の三次元点群位置データを取得する三次元点群位置データ取得ステップと、
前記三次元点群位置データ取得ステップにおいて取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更ステップと、
前記密度変更ステップで密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去ステップと、
前記非面領域除去ステップにおいて除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリングステップと、
前記面ラベリングステップにおいて区分けされた面に基づき三次元モデルを作成する三次元モデル作成ステップと
を有することを特徴とする三次元点群位置データ処理方法。
3D point cloud position data acquisition step for acquiring 3D point cloud position data of the measurement object;
A density changing step of 3D point cloud position data for changing the density of the 3D point cloud position data acquired in the 3D point cloud position data acquiring step;
A non-surface region removal step of removing non-surface region points from the three-dimensional point cloud position data whose density has been changed in the density change step;
A surface labeling step for giving the same label to points on the same surface for points other than the points removed in the non-surface region removing step;
A three-dimensional point cloud position data processing method, comprising: a three-dimensional model creation step for creating a three-dimensional model based on the surfaces classified in the surface labeling step.
測定対象物の三次元点群位置データを取得する三次元点群位置データ取得手段と、
前記三次元点群位置データ取得手段が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更手段と、
前記密度変更手段で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去手段と、
前記非面領域除去手段によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング手段と、
前記面ラベリング手段によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成手段と
を備えることを特徴とする三次元点群位置データ処理システム。
3D point cloud position data acquisition means for acquiring 3D point cloud position data of the measurement object;
3D point cloud position data density changing means for changing the density of the 3D point cloud position data acquired by the 3D point cloud position data acquiring means;
Non-surface area removing means for removing non-surface area points from the three-dimensional point cloud position data whose density has been changed by the density changing means;
A surface labeling unit that gives the same label to a point on the same surface with respect to a point other than the point removed by the non-surface region removing unit,
A three-dimensional point cloud position data processing system comprising: a three-dimensional model creating means for creating a three-dimensional model based on the surfaces classified by the surface labeling means.
コンピュータに読み取らせて実行させるプログラムであって、
コンピュータを
測定対象物の三次元点群位置データを取得する三次元点群位置データ取得部と、
前記三次元点群位置データ取得部が取得した前記三次元点群位置データの密度を変更する三次元点群位置データの密度変更部と、
前記密度変更部で密度が変更された前記三次元点群位置データから非面領域の点を除去する非面領域除去部と、
前記非面領域除去部によって除去された点以外の点に対して、同一面上の点に同一ラベルを付与する面ラベリング部と、
前記面ラベリング部によって区分けされた面に基づき三次元モデルを作成する三次元モデル作成部と
して機能させることを特徴とするプログラム。
A program that is read and executed by a computer,
A three-dimensional point cloud position data acquisition unit for acquiring three-dimensional point cloud position data of a measurement object;
A density changing unit for three-dimensional point group position data for changing the density of the three-dimensional point group position data acquired by the three-dimensional point group position data acquiring unit;
A non-surface region removing unit that removes points of the non-surface region from the three-dimensional point cloud position data whose density has been changed by the density changing unit;
A surface labeling unit that gives the same label to points on the same surface, with respect to points other than the points removed by the non-surface region removing unit,
A program that functions as a three-dimensional model creation unit that creates a three-dimensional model based on the surfaces classified by the surface labeling unit.
JP2011099207A 2011-04-27 2011-04-27 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program Active JP5711039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011099207A JP5711039B2 (en) 2011-04-27 2011-04-27 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011099207A JP5711039B2 (en) 2011-04-27 2011-04-27 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program

Publications (2)

Publication Number Publication Date
JP2012230594A true JP2012230594A (en) 2012-11-22
JP5711039B2 JP5711039B2 (en) 2015-04-30

Family

ID=47432075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011099207A Active JP5711039B2 (en) 2011-04-27 2011-04-27 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program

Country Status (1)

Country Link
JP (1) JP5711039B2 (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103759671A (en) * 2014-01-10 2014-04-30 西北农林科技大学 Non-contact scanning method of dental cast three-dimensional surface data
WO2015049853A1 (en) 2013-10-02 2015-04-09 パナソニックIpマネジメント株式会社 Dimension measurement device, dimension measurement method, dimension measurement system, and program
JP2015158772A (en) * 2014-02-24 2015-09-03 アジア航測株式会社 Stand-alone point group data display device, server-client point group data display system and point group data display program
CN105389410A (en) * 2014-08-25 2016-03-09 株式会社三丰 three-dimensional model generating method and three-dimensional model generating system
JP2016045780A (en) * 2014-08-25 2016-04-04 株式会社ミツトヨ Three-dimensional model generation method, three-dimensional model generation system, and three-dimensional model generation program
EP3051493A1 (en) 2015-01-27 2016-08-03 Kabushiki Kaisha Topcon Survey data processing device, survey data processing method, and program therefor
JP2017505471A (en) * 2013-12-13 2017-02-16 アヴィバ ソリューションズ リミテッド Image rendering of laser scan data
JP2017097822A (en) * 2016-02-01 2017-06-01 ベステラ株式会社 Three-dimensional image display system, three-dimensional image display device, three-dimensional image display method and three-dimensional image display system of plant facility
CN106885530A (en) * 2017-03-02 2017-06-23 华南理工大学 The three-dimensional information acquisition method and system of a kind of microstructural surfaces
EP3370209A1 (en) 2017-03-02 2018-09-05 Topcon Corporation Point cloud data processing device, point cloud data processing method, and point cloud data processing program
JP2018531402A (en) * 2015-10-12 2018-10-25 グラウンドプルーブ・ピーティーワイ・リミテッド Slope stability rider
US10127709B2 (en) 2014-11-28 2018-11-13 Panasonic Intellectual Property Management Co., Ltd. Modeling device, three-dimensional model generating device, modeling method, and program
CN109282746A (en) * 2018-09-25 2019-01-29 上海润居工程检测咨询有限公司 A kind of old housing quality detection system
EP3454008A1 (en) 2017-09-06 2019-03-13 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
US10354447B2 (en) 2016-09-16 2019-07-16 Topcon Corporation Image processing device, image processing method, and image processing program
US10382747B2 (en) 2016-09-27 2019-08-13 Topcon Corporation Image processing apparatus, image processing method, and image processing program
WO2019160022A1 (en) 2018-02-14 2019-08-22 株式会社トプコン Installation stand of unmanned aircraft, measurement method, measurement device, measurement system and program
JP2019179217A (en) * 2018-03-30 2019-10-17 日産自動車株式会社 Map correction method and map correction device
EP3628968A1 (en) 2018-09-25 2020-04-01 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
WO2020145140A1 (en) * 2019-01-08 2020-07-16 ソニー株式会社 Information processing device and method
JPWO2019065299A1 (en) * 2017-09-29 2020-10-22 ソニー株式会社 Information processing equipment and methods
WO2020240949A1 (en) 2019-05-31 2020-12-03 公益財団法人かずさDna研究所 Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program
CN112204383A (en) * 2018-05-30 2021-01-08 株式会社尼康 Information processing device, information processing method, information processing program, and microscope
EP3771886A1 (en) 2019-07-30 2021-02-03 Topcon Corporation Surveying apparatus, surveying method, and surveying program
EP3792591A1 (en) 2019-08-26 2021-03-17 Topcon Corporation Surveying data processing device, surveying data processing method, and surveying data processing program
US10969493B2 (en) 2017-09-19 2021-04-06 Topcon Corporation Data processing device, data processing method, and data processing program
EP3869151A1 (en) * 2020-02-24 2021-08-25 RIEGL Laser Measurement Systems GmbH Device for measuring an environment
CN113471659A (en) * 2021-06-21 2021-10-01 湖南赛能环保科技有限公司 Acoustic radar antenna for acquiring three-dimensional wind field from ground to low altitude
CN113511503A (en) * 2021-06-17 2021-10-19 北京控制工程研究所 Independent intelligent method for collecting, collecting and collecting uncertain objects in extraterrestrial exploration
JP2022058770A (en) * 2020-03-03 2022-04-12 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and program
EP4008997A1 (en) 2020-07-27 2022-06-08 Topcon Corporation Surveying system, surveying method, and surveying program
WO2023170726A1 (en) * 2022-03-07 2023-09-14 日本電信電話株式会社 Point group data display device, point group data storage device, point group data display method, and point group data display program
WO2024009409A1 (en) * 2022-07-05 2024-01-11 日本電信電話株式会社 Point group visualization device, point group visualization program, and point group visualization method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198524A (en) * 1996-01-11 1997-07-31 Microsoft Corp Progressive mesh
JP2000339498A (en) * 1999-05-31 2000-12-08 Minolta Co Ltd Three-dimensional shape data processor
JP2002015308A (en) * 2000-06-30 2002-01-18 Minolta Co Ltd Generating method for geometric model
JP2003141567A (en) * 2001-11-07 2003-05-16 Japan Science & Technology Corp Three-dimensional city model generating device and method of generating three-dimensional city model
JP2003296706A (en) * 2002-04-05 2003-10-17 Asahi Koyo Kk Method and device for extracting building, and method and device for vectorizing sample data
JP2004078511A (en) * 2002-08-16 2004-03-11 Fuji Xerox Co Ltd System and method for distributing data of three-dimensional shape
JP2005308553A (en) * 2004-04-21 2005-11-04 Topcon Corp Three-dimensional image measuring device and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198524A (en) * 1996-01-11 1997-07-31 Microsoft Corp Progressive mesh
JP2000339498A (en) * 1999-05-31 2000-12-08 Minolta Co Ltd Three-dimensional shape data processor
JP2002015308A (en) * 2000-06-30 2002-01-18 Minolta Co Ltd Generating method for geometric model
JP2003141567A (en) * 2001-11-07 2003-05-16 Japan Science & Technology Corp Three-dimensional city model generating device and method of generating three-dimensional city model
JP2003296706A (en) * 2002-04-05 2003-10-17 Asahi Koyo Kk Method and device for extracting building, and method and device for vectorizing sample data
JP2004078511A (en) * 2002-08-16 2004-03-11 Fuji Xerox Co Ltd System and method for distributing data of three-dimensional shape
JP2005308553A (en) * 2004-04-21 2005-11-04 Topcon Corp Three-dimensional image measuring device and method

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105593637A (en) * 2013-10-02 2016-05-18 松下知识产权经营株式会社 Dimension measurement device, dimension measurement method, dimension measurement system, and program
WO2015049853A1 (en) 2013-10-02 2015-04-09 パナソニックIpマネジメント株式会社 Dimension measurement device, dimension measurement method, dimension measurement system, and program
US10060734B2 (en) 2013-10-02 2018-08-28 Panasonic Intellectual Property Management Co., Ltd. Dimension measurement device, dimension measurement method, dimension measurement system, and program
US10467805B2 (en) 2013-12-13 2019-11-05 Aveva Solutions Limited Image rendering of laser scan data
JP2017505471A (en) * 2013-12-13 2017-02-16 アヴィバ ソリューションズ リミテッド Image rendering of laser scan data
CN103759671A (en) * 2014-01-10 2014-04-30 西北农林科技大学 Non-contact scanning method of dental cast three-dimensional surface data
JP2015158772A (en) * 2014-02-24 2015-09-03 アジア航測株式会社 Stand-alone point group data display device, server-client point group data display system and point group data display program
JP2016045781A (en) * 2014-08-25 2016-04-04 株式会社ミツトヨ Three-dimensional model generation method, three-dimensional model generation system, and three-dimensional model generation program
JP2016045780A (en) * 2014-08-25 2016-04-04 株式会社ミツトヨ Three-dimensional model generation method, three-dimensional model generation system, and three-dimensional model generation program
CN105389410A (en) * 2014-08-25 2016-03-09 株式会社三丰 three-dimensional model generating method and three-dimensional model generating system
US10127709B2 (en) 2014-11-28 2018-11-13 Panasonic Intellectual Property Management Co., Ltd. Modeling device, three-dimensional model generating device, modeling method, and program
EP3051493A1 (en) 2015-01-27 2016-08-03 Kabushiki Kaisha Topcon Survey data processing device, survey data processing method, and program therefor
JP2018531402A (en) * 2015-10-12 2018-10-25 グラウンドプルーブ・ピーティーワイ・リミテッド Slope stability rider
JP7076372B2 (en) 2015-10-12 2022-05-27 グラウンドプルーブ・ピーティーワイ・リミテッド Slope stability rider
JP2017097822A (en) * 2016-02-01 2017-06-01 ベステラ株式会社 Three-dimensional image display system, three-dimensional image display device, three-dimensional image display method and three-dimensional image display system of plant facility
US10354447B2 (en) 2016-09-16 2019-07-16 Topcon Corporation Image processing device, image processing method, and image processing program
US10382747B2 (en) 2016-09-27 2019-08-13 Topcon Corporation Image processing apparatus, image processing method, and image processing program
US10810699B2 (en) 2017-03-02 2020-10-20 Topcon Corporation Point cloud data processing device, point cloud data processing method, and point cloud data processing program
EP3370209A1 (en) 2017-03-02 2018-09-05 Topcon Corporation Point cloud data processing device, point cloud data processing method, and point cloud data processing program
CN106885530A (en) * 2017-03-02 2017-06-23 华南理工大学 The three-dimensional information acquisition method and system of a kind of microstructural surfaces
EP3454008A1 (en) 2017-09-06 2019-03-13 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
US10565730B2 (en) 2017-09-06 2020-02-18 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
US10969493B2 (en) 2017-09-19 2021-04-06 Topcon Corporation Data processing device, data processing method, and data processing program
JP7268599B2 (en) 2017-09-29 2023-05-08 ソニーグループ株式会社 Information processing device and method
JPWO2019065299A1 (en) * 2017-09-29 2020-10-22 ソニー株式会社 Information processing equipment and methods
US11221216B2 (en) 2018-02-14 2022-01-11 Topcon Corporation Placement table for unmanned aerial vehicle, surveying method, surveying device, surveying system and program
WO2019160022A1 (en) 2018-02-14 2019-08-22 株式会社トプコン Installation stand of unmanned aircraft, measurement method, measurement device, measurement system and program
JP7154025B2 (en) 2018-03-30 2022-10-17 日産自動車株式会社 Map correction method and map correction device
JP2019179217A (en) * 2018-03-30 2019-10-17 日産自動車株式会社 Map correction method and map correction device
CN112204383A (en) * 2018-05-30 2021-01-08 株式会社尼康 Information processing device, information processing method, information processing program, and microscope
CN109282746A (en) * 2018-09-25 2019-01-29 上海润居工程检测咨询有限公司 A kind of old housing quality detection system
EP3628968A1 (en) 2018-09-25 2020-04-01 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
WO2020145140A1 (en) * 2019-01-08 2020-07-16 ソニー株式会社 Information processing device and method
WO2020240949A1 (en) 2019-05-31 2020-12-03 公益財団法人かずさDna研究所 Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program
US11941852B2 (en) 2019-05-31 2024-03-26 Kazusa Dna Research Institute Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program
EP3771886A1 (en) 2019-07-30 2021-02-03 Topcon Corporation Surveying apparatus, surveying method, and surveying program
US11725938B2 (en) 2019-07-30 2023-08-15 Topcon Corporation Surveying apparatus, surveying method, and surveying program
EP3792591A1 (en) 2019-08-26 2021-03-17 Topcon Corporation Surveying data processing device, surveying data processing method, and surveying data processing program
US11580696B2 (en) 2019-08-26 2023-02-14 Topcon Corporation Surveying data processing device, surveying data processing method, and surveying data processing program
EP3869151A1 (en) * 2020-02-24 2021-08-25 RIEGL Laser Measurement Systems GmbH Device for measuring an environment
JP2022058770A (en) * 2020-03-03 2022-04-12 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and program
JP7439146B2 (en) 2020-03-03 2024-02-27 キヤノン株式会社 Image processing system, image processing method and program
EP4008997A1 (en) 2020-07-27 2022-06-08 Topcon Corporation Surveying system, surveying method, and surveying program
EP4246088A1 (en) 2020-07-27 2023-09-20 Topcon Corporation Surveying system, surveying method, and surveying program
CN113511503B (en) * 2021-06-17 2022-09-23 北京控制工程研究所 Independent intelligent method for collecting, collecting and collecting uncertain objects by extraterrestrial detection
CN113511503A (en) * 2021-06-17 2021-10-19 北京控制工程研究所 Independent intelligent method for collecting, collecting and collecting uncertain objects in extraterrestrial exploration
CN113471659A (en) * 2021-06-21 2021-10-01 湖南赛能环保科技有限公司 Acoustic radar antenna for acquiring three-dimensional wind field from ground to low altitude
CN113471659B (en) * 2021-06-21 2024-04-16 湖南赛能环保科技有限公司 Sodar antenna for acquiring three-dimensional wind field from ground to low altitude
WO2023170726A1 (en) * 2022-03-07 2023-09-14 日本電信電話株式会社 Point group data display device, point group data storage device, point group data display method, and point group data display program
WO2024009409A1 (en) * 2022-07-05 2024-01-11 日本電信電話株式会社 Point group visualization device, point group visualization program, and point group visualization method

Also Published As

Publication number Publication date
JP5711039B2 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
JP5711039B2 (en) 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program
JP6236118B2 (en) 3D data processing apparatus, 3D data processing system, 3D data processing method and program
JP5593177B2 (en) Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
JP5620200B2 (en) Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
JP5462093B2 (en) Point cloud data processing device, point cloud data processing system, point cloud data processing method, and point cloud data processing program
JP5343042B2 (en) Point cloud data processing apparatus and point cloud data processing program
JP5465128B2 (en) Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and point cloud position data processing program
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
EP2976748B1 (en) Image-based 3d panorama
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
US10681269B2 (en) Computer-readable recording medium, information processing method, and information processing apparatus
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
JP7420815B2 (en) System and method for selecting complementary images from a plurality of images for 3D geometric extraction
WO2022078439A1 (en) Apparatus and method for acquisition and matching of 3d information of space and object
WO2022078438A1 (en) Indoor 3d information acquisition device
JP7392101B2 (en) Point cloud data processing device, point cloud data processing method, and program
JP7170234B2 (en) Inspection device and inspection method
JP2006003276A (en) Three dimensional geometry measurement system
JP7326446B2 (en) Image display device, method and program
JP2022141624A (en) Road surface condition survey system, road surface condition survey device and road surface condition survey method
JP2022124909A (en) Information processor
CN113544462A (en) Quantity calculation device and quantity calculation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150305

R150 Certificate of patent or registration of utility model

Ref document number: 5711039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250