JP2014137244A - Three dimensional composition processing system and three dimensional composition processing method - Google Patents

Three dimensional composition processing system and three dimensional composition processing method Download PDF

Info

Publication number
JP2014137244A
JP2014137244A JP2013004860A JP2013004860A JP2014137244A JP 2014137244 A JP2014137244 A JP 2014137244A JP 2013004860 A JP2013004860 A JP 2013004860A JP 2013004860 A JP2013004860 A JP 2013004860A JP 2014137244 A JP2014137244 A JP 2014137244A
Authority
JP
Japan
Prior art keywords
measurement
dimensional
posture
data
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013004860A
Other languages
Japanese (ja)
Other versions
JP6192938B2 (en
Inventor
Yuji Kawaguchi
裕治 河口
Yoshinori Sato
美徳 佐藤
Tetsuhisa Endo
哲央 遠藤
Masahiro Motohashi
正宏 本橋
Makoto Hatakeyama
誠 畠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013004860A priority Critical patent/JP6192938B2/en
Publication of JP2014137244A publication Critical patent/JP2014137244A/en
Application granted granted Critical
Publication of JP6192938B2 publication Critical patent/JP6192938B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate three dimensional shape data on an object structure with an efficient measurement operation.SOLUTION: A three dimensional composition processing system 1a of an embodiment comprises: a three dimensional measurement device 11 for measuring positions and a shape of the surface of a structure, at a plurality of measurement positions, to obtain a plurality of pieces of measurement data; an attitude measurement device 12 for measuring the altitude of the three dimensional measurement device 11; a position measurement device 13 for measuring a distance between a first measurement position at which the three dimensional measurement device 11 performs the measurement and a second measurement position different from the first measurement position, and measuring a direction from the second measurement position to the first measurement position; a three dimensional composition processing device 2a for performing three dimensional composition processing to the structure on the basis of first measurement data and second measurement data; and a display device 14 for displaying the result of the three dimensional composition processing performed to the structure.

Description

本発明の実施形態は、三次元構造物の非接触計測による三次元合成処理システムおよび三次元合成処理方法に関する。   Embodiments described herein relate generally to a three-dimensional synthesis processing system and a three-dimensional synthesis processing method based on non-contact measurement of a three-dimensional structure.

一般に、リバースエンジニアリングは、図面の無い状態でも、既製品や既設の建造物からアズビルトデータを取得することにより、再製造や改造工事に必要な形状や寸法データを作成する技術である。このようなリバースエンジニアリングにおいては、三次元形状を表した点群データから三次元CADモデルを得る三次元CADシステムなどがある。   In general, reverse engineering is a technique for creating shape and dimensional data necessary for remanufacturing and remodeling work by acquiring as-built data from ready-made products and existing buildings even in the absence of drawings. Such reverse engineering includes a three-dimensional CAD system that obtains a three-dimensional CAD model from point cloud data representing a three-dimensional shape.

なお、三次元形状測定システムにおいて、被測定対象物の三次元表面形状を測定する表面形状測定装置と、被測定対象物の三次元内面形状を測定する内面形状測定装置と、被測定対象物の構造材内部の状態を測定する非破壊測定装置と、この表面形状測定装置、内面形状測定装置、非破壊測定装置によって計測された三次元点群データを入力合成する点群データ変換入力合成装置と、この点群データ変換入力合成装置によって合成処理した点群データから三次元形状を作成する三次元形状変換処理装置が知られている(例えば、特許文献1参照)。   In the three-dimensional shape measurement system, a surface shape measuring device that measures the three-dimensional surface shape of the object to be measured, an inner surface shape measuring device that measures the three-dimensional inner surface shape of the object to be measured, and a measurement object A nondestructive measuring device for measuring the internal state of the structural material, and a point cloud data conversion input synthesizer for inputting and synthesizing three-dimensional point cloud data measured by the surface shape measuring device, the inner surface shape measuring device, and the nondestructive measuring device A three-dimensional shape conversion processing device for creating a three-dimensional shape from point cloud data synthesized by the point cloud data conversion input synthesis device is known (for example, see Patent Document 1).

特開2010−66169号公報JP 2010-66169 A

上述したような技術などでは、対象構造物やその周辺に複数のマーカーを設置して、その設置した複数のマーカーを基準にして計測データの合成を行っている。複数のマーカーを基準にするためには、マーカーを設置する作業が必要であり、そのマーカーを適切な位置に合わせる等の作業に時間がかかり、計測作業の時間が長くなるという課題があった。   In the technique as described above, a plurality of markers are installed around the target structure and its periphery, and measurement data is synthesized based on the plurality of markers installed. In order to use a plurality of markers as a reference, it is necessary to perform the work of installing the marker, and it takes time to work such as aligning the marker to an appropriate position, and there is a problem that the time of the measurement work becomes long.

また、全ての計測作業(複数の計測位置での計測作業)が終了した後に、取得した計測データの三次元合成処理を行い、対象構造物全体を表す形状データを得ていた。そのため、その合成結果を確認した作業者が、取りこぼしのある位置範囲での計測データを、再度取り直す作業を行わなければならず、作業効率が悪いという課題があった。   Further, after all measurement work (measurement work at a plurality of measurement positions) is completed, the obtained measurement data is subjected to a three-dimensional synthesis process to obtain shape data representing the entire target structure. For this reason, an operator who has confirmed the combined result has to perform the work of re-acquisitioning measurement data in a position range that has been overlooked, resulting in poor work efficiency.

本発明の実施形態が解決しようとする課題は、効率的な計測作業で対象構造物の三次元形状データを生成することができる三次元合成処理システムおよび三次元合成処理方法を提供することである。   A problem to be solved by an embodiment of the present invention is to provide a three-dimensional synthesis processing system and a three-dimensional synthesis processing method capable of generating three-dimensional shape data of a target structure by an efficient measurement work. .

上記課題を解決するために、実施形態の三次元合成処理システムは、計測対象の構造物の計測を行って当該構造物を三次元に観察可能に表示する三次元合成処理システムである。当該三次元合成処理システムは、複数の計測位置で前記構造物の表面の位置および形状を計測して複数の計測データを取得する三次元計測装置と、前記三次元計測装置の姿勢を計測する姿勢計測装置と、前記三次元計測装置が計測を実行する第1の計測位置と前記第1の計測位置と異なる前記三次元計測装置が計測を実行する第2の計測位置との間の距離、および、前記第2の計測位置から前記第1の計測位置への方向を計測する位置計測装置と、前記複数の計測データに基づいて前記構造物について三次元合成処理する三次元合成処理装置と、前記構造物について三次元合成処理した結果を表示する表示装置と、を備えている。前記三次元合成処理装置は、前記姿勢計測装置により計測された前記姿勢に基づいて姿勢計測情報を生成し、前記位置計測装置により計測された前記距離および前記方向に基づいて位置計測情報を生成する計測状態取得部と、前記複数の計測位置と、前記複数の計測データと、前記姿勢計測情報と、前記位置計測情報とを記憶するデータ記憶部と、いずれかの位置を基準とする座標系を同一座標系とし、前記姿勢計測情報および前記位置計測情報に基づいて前記複数の計測位置の各々を基準とする座標系を前記同一座標系に変換する座標変換を用いて、前記複数の計測データを前記同一座標系を基準とする座標に変換する座標変換部と、前記構造物について前記三次元合成処理した結果として、前記座標変換部により前記同一座標系に変換された前記複数の計測データの座標を前記同一座標系に配置して前記表示装置に出力するデータ合成出力部と、を有することを特徴とする。   In order to solve the above-described problem, the three-dimensional synthesis processing system of the embodiment is a three-dimensional synthesis processing system that measures a structure to be measured and displays the structure so that it can be observed in three dimensions. The three-dimensional synthesis processing system includes a three-dimensional measurement device that acquires a plurality of measurement data by measuring the position and shape of the surface of the structure at a plurality of measurement positions, and a posture that measures the posture of the three-dimensional measurement device A distance between a measurement device and a first measurement position where the three-dimensional measurement device performs measurement and a second measurement position where the three-dimensional measurement device different from the first measurement position performs measurement; and A position measurement device that measures a direction from the second measurement position to the first measurement position, a three-dimensional synthesis processing device that performs a three-dimensional synthesis process on the structure based on the plurality of measurement data, And a display device for displaying the result of the three-dimensional synthesis processing of the structure. The three-dimensional synthesis processing device generates posture measurement information based on the posture measured by the posture measurement device, and generates position measurement information based on the distance and the direction measured by the position measurement device. A measurement state acquisition unit; a plurality of measurement positions; a plurality of measurement data; a posture measurement information; a data storage unit that stores the position measurement information; and a coordinate system based on any position. The coordinate data is converted into the same coordinate system, and the plurality of measurement data is converted into the same coordinate system based on the posture measurement information and the position measurement information. As a result of the three-dimensional synthesis process for the structure, the coordinate conversion unit converts the coordinate system into the same coordinate system. Wherein the plurality of the coordinates of the measurement data arranged in the same coordinate system and having a data synthesizing output unit for outputting to the display device.

また、上記課題を解決するために、実施形態の三次元合成処理方法は、複数の計測位置で計測対象の構造物の表面の位置および形状を計測して複数の計測データを取得する三次元計測装置と、前記三次元計測装置の姿勢を計測する姿勢計測装置と、異なる前記計測位置での距離および方向を計測する位置計測装置と、前記複数の計測データに基づいて前記構造物について三次元合成処理する三次元合成処理装置と、前記構造物について三次元合成処理した結果を表示する表示装置とを備え、前記構造物の計測を行って前記構造物を三次元に観察可能に表示する三次元合成処理システムに用いられる三次元合成処理方法である。当該三次元合成処理方法は、前記三次元合成処理装置が、前記姿勢計測装置により計測された前記姿勢に基づいて姿勢計測情報を生成し、前記位置計測装置により計測された前記距離および前記方向に基づいて位置計測情報を生成する計測状態取得ステップと、前記三次元合成処理装置が、前記複数の計測位置と、前記複数の計測データと、前記姿勢計測情報と、前記位置計測情報とを記憶するデータ記憶ステップと、前記三次元合成処理装置が、いずれかの位置を基準とする座標系を同一座標系とし、前記姿勢計測情報および前記位置計測情報に基づいて前記複数の計測位置の各々を基準とする座標系を前記同一座標系に変換する座標変換を用いて、前記複数の計測データを前記同一座標系を基準とする座標に変換する座標変換ステップと、前記三次元合成処理装置が、前記構造物について前記三次元合成処理した結果として、前記座標変換ステップにより座標変換された前記複数の計測データを前記同一座標系に配置して前記表示装置に出力するデータ合成出力ステップと、を含むことを特徴とする。   In order to solve the above problem, the three-dimensional synthesis processing method of the embodiment measures the position and shape of the surface of the structure to be measured at a plurality of measurement positions and acquires a plurality of measurement data. An apparatus, an attitude measurement apparatus that measures the attitude of the three-dimensional measurement apparatus, a position measurement apparatus that measures distances and directions at different measurement positions, and a three-dimensional synthesis of the structure based on the plurality of measurement data A three-dimensional synthesis processing device for processing, and a display device for displaying a result of three-dimensional synthesis processing for the structure, and displaying the structure in a three-dimensional manner by measuring the structure This is a three-dimensional synthesis processing method used in the synthesis processing system. In the three-dimensional synthesis processing method, the three-dimensional synthesis processing device generates posture measurement information based on the posture measured by the posture measurement device, and sets the distance and the direction measured by the position measurement device. A measurement state acquisition step for generating position measurement information based on the information, and the three-dimensional synthesis processing device stores the plurality of measurement positions, the plurality of measurement data, the posture measurement information, and the position measurement information. The data storage step and the three-dimensional synthesis processing device use a coordinate system based on any position as the same coordinate system, and reference each of the plurality of measurement positions based on the posture measurement information and the position measurement information. A coordinate conversion step for converting the plurality of measurement data into coordinates based on the same coordinate system, using coordinate conversion for converting the coordinate system into the same coordinate system; As a result of the three-dimensional synthesis processing performed on the structure by the three-dimensional synthesis processing device, the plurality of measurement data coordinate-transformed by the coordinate transformation step are arranged in the same coordinate system and output to the display device And a data synthesis output step.

本発明に係る三次元合成処理システムおよび三次元合成処理方法の実施形態によれば、効率的な計測作業で対象構造物の三次元形状データを生成することができる。   According to the embodiment of the three-dimensional synthesis processing system and the three-dimensional synthesis processing method according to the present invention, it is possible to generate the three-dimensional shape data of the target structure by an efficient measurement work.

本発明に係る三次元合成処理システムの第1の実施形態の構成を示すブロック図。1 is a block diagram showing a configuration of a first embodiment of a three-dimensional synthesis processing system according to the present invention. 計測位置ごとのローカル座標系の関係を示す図。The figure which shows the relationship of the local coordinate system for every measurement position. 計測位置ごとのローカル座標系とグローバル座標系の関係を示す図。The figure which shows the relationship between the local coordinate system for every measurement position, and a global coordinate system. 第1の実施形態の三次元合成処理システムに用いられる三次元合成処理フローを示すフロー図。The flowchart which shows the three-dimensional synthetic | combination processing flow used for the three-dimensional synthetic | combination processing system of 1st Embodiment. 第1の実施形態の三次元合成処理システムに用いられる座標変換処理フローを示すフロー図。The flowchart which shows the coordinate transformation processing flow used for the three-dimensional synthetic | combination processing system of 1st Embodiment. 第1の実施形態の三次元合成処理システムに用いられるデータ表示処理フローを示すフロー図。The flowchart which shows the data display processing flow used for the three-dimensional synthetic | combination processing system of 1st Embodiment. 構造物の点群データの一例を示す図。The figure which shows an example of the point cloud data of a structure. 構造物の点群データの他の一例を示す図。The figure which shows another example of the point cloud data of a structure. 構造物の三次元合成処理の一例を示す図。The figure which shows an example of the three-dimensional synthetic | combination process of a structure. 本発明に係る三次元合成処理システムの第2の実施形態の構成を示すブロック図。The block diagram which shows the structure of 2nd Embodiment of the three-dimensional synthetic | combination processing system which concerns on this invention. 第2の実施形態の三次元合成処理システムに用いられる三次元合成処理フローを示すフロー図。The flowchart which shows the three-dimensional synthetic | combination processing flow used for the three-dimensional synthetic | combination processing system of 2nd Embodiment. 第2の実施形態の三次元合成処理システムに用いられる計測位置提示処理フローを示すフロー図。The flowchart which shows the measurement position presentation process flow used for the three-dimensional synthetic | combination processing system of 2nd Embodiment. 評価空間におけるブロック分割の一例を示す図。The figure which shows an example of the block division | segmentation in evaluation space. 評価空間における選択ブロックの一例を示す図。The figure which shows an example of the selection block in evaluation space. 本発明に係る三次元合成処理システムの第3の実施形態の構成を示すブロック図。The block diagram which shows the structure of 3rd Embodiment of the three-dimensional synthetic | combination processing system which concerns on this invention. 第3の実施形態の三次元合成処理システムに用いられる三次元合成処理フローを示すフロー図。The flowchart which shows the three-dimensional synthetic | combination processing flow used for the three-dimensional synthetic | combination processing system of 3rd Embodiment.

以下、本発明に係る実施形態の三次元合成処理システムおよび三次元合成処理方法について、図面を参照して具体的に説明する。ここで、互いに同一または類似の部分には共通の符号を付して、重複する説明は省略する。ここで説明する下記の実施形態はいずれも、レーザ計測などによる非接触計測を用いた三次元合成処理システムの一例をとりあげて説明する。   Hereinafter, a three-dimensional synthesis processing system and a three-dimensional synthesis processing method according to embodiments of the present invention will be specifically described with reference to the drawings. Here, the same or similar parts are denoted by common reference numerals, and redundant description is omitted. Each of the following embodiments described here will be described by taking an example of a three-dimensional synthesis processing system using non-contact measurement such as laser measurement.

[第1の実施形態]
図1は、本発明に係る三次元合成処理システムの第1の実施形態の構成を示すブロック図である。また、図2は計測位置ごとのローカル座標系の関係を示す図であり、図3は計測位置ごとのローカル座標系とグローバル座標系の関係を示す図である。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of a first embodiment of a three-dimensional synthesis processing system according to the present invention. FIG. 2 is a diagram showing the relationship between the local coordinate system for each measurement position, and FIG. 3 is a diagram showing the relationship between the local coordinate system and the global coordinate system for each measurement position.

また、図4は第1の実施形態の三次元合成処理システムに用いられる三次元合成処理フローを示すフロー図である。さらに、図5は図1の三次元合成処理システムに用いられる座標変換処理フローを示すフロー図であり、図6は図1の三次元合成処理システムに用いられるデータ表示処理フローを示すフロー図である。また、図7および図8は、構造物の点群データの一例および他の一例を示す図である。図9は、構造物の三次元合成処理の一例を示す図である。   FIG. 4 is a flowchart showing a three-dimensional composition processing flow used in the three-dimensional composition processing system of the first embodiment. 5 is a flowchart showing a coordinate conversion processing flow used in the three-dimensional synthesis processing system of FIG. 1, and FIG. 6 is a flowchart showing a data display processing flow used in the three-dimensional synthesis processing system of FIG. is there. 7 and 8 are diagrams showing an example of point cloud data of a structure and another example. FIG. 9 is a diagram illustrating an example of a three-dimensional synthesis process of a structure.

第1の実施形態の三次元合成処理システム1aは、図1に示すように、三次元合成処理装置2a、三次元計測装置11、姿勢計測装置12、位置計測装置13、表示装置14、および入力装置15を備えている。   As shown in FIG. 1, the three-dimensional synthesis processing system 1a according to the first embodiment includes a three-dimensional synthesis processing device 2a, a three-dimensional measurement device 11, an attitude measurement device 12, a position measurement device 13, a display device 14, and an input. A device 15 is provided.

三次元合成処理システム1aでは、対象構造物5(図2に示す)に対して非接触計測装置(三次元計測装置11)の計測位置を変えて計測データを取得していき、計測位置ごとに取得した計測データを同一座標系(グローバル座標系を含む)に変換する。これにより、同一座標系を基準にして変換された計測データを合成していくことで、対象構造物5の三次元形状データを生成することができる。   In the three-dimensional synthesis processing system 1a, measurement data is acquired by changing the measurement position of the non-contact measurement device (three-dimensional measurement device 11) with respect to the target structure 5 (shown in FIG. 2). Convert the acquired measurement data to the same coordinate system (including the global coordinate system). Thereby, the three-dimensional shape data of the target structure 5 can be generated by synthesizing the measurement data converted based on the same coordinate system.

三次元計測装置11は、対象構造物5の表面を非接触計測により、対象構造物5の表面の位置および形状を算出するための計測データを取得する装置である。三次元計測装置11は、非接触計測により自身の基準位置をもとに対象構造物5の表面上の距離を測定して、それらの計測データ(例えば点群データ)を得る。これらは、ローカル座標系の(x,y,z)に対応する。なお、接触プローブ等を用いた接触式の計測も三次元計測装置11に適用可能である。 The three-dimensional measuring device 11 is a device that acquires measurement data for calculating the position and shape of the surface of the target structure 5 by non-contact measurement of the surface of the target structure 5. The three-dimensional measuring device 11 measures the distance on the surface of the target structure 5 based on its own reference position by non-contact measurement, and obtains measurement data (for example, point cloud data). These correspond to (x 1 , y 1 , z 1 ) in the local coordinate system. Note that contact-type measurement using a contact probe or the like is also applicable to the three-dimensional measurement apparatus 11.

ユーザ(例えば作業者など)が三次元計測装置11の計測位置を変えて、対象構造物5をスキャンして行くことで、三次元合成処理装置2aが対象構造物5の全体の形状データを合成する。そのために、三次元計測装置11は、非接触計測に基づいて、計測位置ごとに三次元計測情報を生成する。三次元計測情報は、いずれの計測位置で計測されたものかを示す計測位置識別子と、座標系と、計測データとを少なくとも含む。   A user (for example, an operator or the like) changes the measurement position of the three-dimensional measuring device 11 and scans the target structure 5, so that the three-dimensional synthesis processing device 2a synthesizes the entire shape data of the target structure 5. To do. For this purpose, the three-dimensional measurement apparatus 11 generates three-dimensional measurement information for each measurement position based on non-contact measurement. The three-dimensional measurement information includes at least a measurement position identifier indicating which measurement position is measured, a coordinate system, and measurement data.

計測位置識別子は、計測位置が特定可能なように一意に定められた識別符号などが付与される。例えば、図2に示すように、計測位置POS#1とされる計測位置識別子は、一意に定められた#1であり、また、計測位置POS#2とされる計測位置識別子は#2である。   The measurement position identifier is given an identification code uniquely determined so that the measurement position can be specified. For example, as shown in FIG. 2, the measurement position identifier that is the measurement position POS # 1 is uniquely determined # 1, and the measurement position identifier that is the measurement position POS # 2 is # 2. .

座標系は、いずれかのローカル座標系か、または、グローバル座標系かを示す。座標系は、例えば図2に示すローカル座標系#1や、ローカル座標系#2などである。または、図3に示すグローバル座標系である。ここで、ローカル座標系は相対位置による座標系であり、グローバル座標系は絶対位置による座標系であるとする。   The coordinate system indicates any local coordinate system or global coordinate system. The coordinate system is, for example, the local coordinate system # 1 shown in FIG. 2 or the local coordinate system # 2. Alternatively, the global coordinate system shown in FIG. Here, the local coordinate system is a coordinate system based on relative positions, and the global coordinate system is a coordinate system based on absolute positions.

計測データはそれぞれの三次元計測装置11の計測位置・姿勢に基づいて、ローカル座標系に従って記録される。それぞれの計測データをつなぎ合わせる(合成する)ためには、図3に示すように、例えば同一座標系としてグローバル座標系に合わせて、それぞれのローカル座標系の相対関係を求める。   The measurement data is recorded according to the local coordinate system based on the measurement position / orientation of each three-dimensional measurement device 11. In order to connect (synthesize) the respective measurement data, as shown in FIG. 3, for example, a relative relationship between the respective local coordinate systems is obtained in accordance with the global coordinate system as the same coordinate system.

すなわち、各計測位置での照合を確認するためのマーカーを設置せずに、各計測位置で取得した計測データをそれぞれのローカル座標系から同一座標系(例えばグローバル座標系)に変換するだけでよい。   That is, it is only necessary to convert measurement data acquired at each measurement position from each local coordinate system to the same coordinate system (for example, global coordinate system) without installing a marker for confirming the collation at each measurement position. .

計測データは、はじめはローカル座標系での座標データである。例えば、計測データが複数の点群データを含む場合には、複数の座標データである。   The measurement data is initially coordinate data in the local coordinate system. For example, when the measurement data includes a plurality of point group data, it is a plurality of coordinate data.

三次元計測装置11は、例えば三次元レーザスキャナやステレオビジョンなどを有する。三次元計測装置11が三次元レーザスキャナを有する場合に、三次元レーザスキャナによりその周囲にある対象構造物5にレーザを照射し、三次元計測装置11がその反射波に基づいて計測データを取得する。一つの計測位置に設置された三次元計測装置11は、基準軸を中心に回転しながら対象構造物5の周囲をスキャンニングして、例えば点群データを取得する。   The three-dimensional measuring device 11 includes, for example, a three-dimensional laser scanner or a stereo vision. When the three-dimensional measuring apparatus 11 has a three-dimensional laser scanner, the three-dimensional laser scanner irradiates the target structure 5 around it with the laser, and the three-dimensional measuring apparatus 11 acquires measurement data based on the reflected wave. To do. The three-dimensional measuring device 11 installed at one measurement position scans the periphery of the target structure 5 while rotating around the reference axis, and acquires, for example, point cloud data.

取得される計測データは、例えば点群データ、線データ、面データなである。計測データは、三次元計測装置11を設置して計測した計測位置および姿勢に基づくものであり、ローカル座標系またはグローバル座標系を基準とした座標として取得または変換される。   The acquired measurement data is, for example, point cloud data, line data, or surface data. The measurement data is based on the measurement position and orientation measured by installing the three-dimensional measurement apparatus 11, and is acquired or converted as coordinates based on the local coordinate system or the global coordinate system.

以下、三次元計測装置11により取得される計測データが点群データの場合を例として説明する。   Hereinafter, the case where the measurement data acquired by the three-dimensional measurement apparatus 11 is point cloud data will be described as an example.

姿勢計測装置12は、対象の姿勢を計測する装置である。例えば、姿勢計測装置12を姿勢計測する対象に設置して計測を行うことで、対象の姿勢を取得する。姿勢計測装置12は、例えば図1に示す三次元計測装置11の姿勢を計測する。三次元計測装置11の姿勢は、三次元計測装置11により基準とされるローカル座標系について、例えば座標のX軸が所定の方角(例えば北の方角)からどれだけ変位(北の方角から何度)しているかを示す方向、三次元計測装置11からレーザなどを発信する際の仰角(例えばXY平面を基準とする水平方向からの傾き角度)である。   The posture measuring device 12 is a device that measures the posture of a target. For example, the posture of the target is acquired by installing the posture measuring device 12 on the posture measurement target and performing measurement. The posture measuring device 12 measures the posture of the three-dimensional measuring device 11 shown in FIG. 1, for example. The attitude of the three-dimensional measuring device 11 is, for example, how much the X-axis of the coordinate is displaced from a predetermined direction (for example, the north direction) with respect to the local coordinate system that is the reference by the three-dimensional measuring device 11 (how many times from the north direction). A direction indicating whether the laser beam is transmitted from the three-dimensional measuring device 11 (e.g., an inclination angle from the horizontal direction with reference to the XY plane).

姿勢計測装置12は、例えば三次元磁気センサを備える電子コンパスである。姿勢計測装置12は、三次元磁気センサを用いて地磁気を計測することにより、例えば姿勢として三次元座標のX軸周りの回転角、Y軸周りの回転角、Z軸周りの回転角により定められる情報を取得することができる。   The posture measuring device 12 is an electronic compass including a three-dimensional magnetic sensor, for example. The posture measurement device 12 measures the geomagnetism using a three-dimensional magnetic sensor, and is determined, for example, by the rotation angle around the X axis, the rotation angle around the Y axis, and the rotation angle around the Z axis as the posture. Information can be acquired.

また、姿勢計測装置12は、電子コンパスの代わりに、ジャイロセンサを備えてもよい。具体的には、ジャイロセンサを三次元計測装置11に設置して、姿勢計測装置12はジャイロセンサから出力される角加速度データを計測する。姿勢計測装置12が計測された角加速度データを用いて、三次元計測装置11がどちらの方向にどれだけ回転したかを積分計算することにより姿勢を算出してもよい。   Further, the attitude measurement device 12 may include a gyro sensor instead of the electronic compass. Specifically, a gyro sensor is installed in the three-dimensional measuring device 11, and the posture measuring device 12 measures angular acceleration data output from the gyro sensor. The attitude may be calculated by integrating and calculating in which direction and how much the three-dimensional measuring apparatus 11 has rotated using the angular acceleration data measured by the attitude measuring device 12.

姿勢計測装置12は、姿勢計測の結果を、逐次、三次元合成処理装置2aの計測状態取得部21へ出力する。   The posture measurement device 12 sequentially outputs the posture measurement results to the measurement state acquisition unit 21 of the three-dimensional synthesis processing device 2a.

位置計測装置13は、位置計測を行うための装置である。位置計測の方法として、例えば2点間の対象の位置を計測する方法(相対的な位置計測)や、三次元計測装置11の各々の計測位置での絶対位置を計測する方法(絶対的な位置計測)などが用いられる。   The position measuring device 13 is a device for performing position measurement. As a method of position measurement, for example, a method of measuring the position of an object between two points (relative position measurement), or a method of measuring an absolute position at each measurement position of the three-dimensional measurement apparatus 11 (absolute position) Measurement) is used.

位置計測装置13は、例えばレーザ距離計や超音波距離計、ステレオビジョンなどに、さらに、方向(方位)を計測する装置を取り付けた構成である。また、位置計測装置13が、GPS(Global Positioning System)センサを有する構成であってもよい。   The position measurement device 13 has a configuration in which, for example, a device for measuring a direction (orientation) is attached to a laser distance meter, an ultrasonic distance meter, stereo vision, or the like. Further, the position measuring device 13 may have a GPS (Global Positioning System) sensor.

位置計測装置13による方向の計測は、例えば取り付けた位置計測装置13が有する方向計測機能(方向計測計)にて計測する。計測した距離と計測方向の情報から、三次元計測装置11の相対的な計測位置を算出する。   The direction measurement by the position measurement device 13 is performed by, for example, a direction measurement function (direction measurement meter) included in the attached position measurement device 13. The relative measurement position of the three-dimensional measurement apparatus 11 is calculated from the measured distance and measurement direction information.

この方法に限らず、加速度センサやジャイロセンサなどを三次元計測装置11に取り付けて計測し続け、三次元計測装置11の現在の計測位置までの角加速度などを積分する周知の方法で、三次元計測装置11の計測位置を算出してもよい。ただし、この方法では、相対的な計測位置の関係がわかるだけであるため、最初に三次元形状計測を行ったときのローカル座標系を基準とする同一座標系として、点群データを同一座標系に変換していく。また、ローカル座標系をグローバル座標系に変換してもよい。   In addition to this method, an acceleration sensor, a gyro sensor, or the like is attached to the three-dimensional measuring device 11 and measurement is continued, and the angular acceleration up to the current measurement position of the three-dimensional measuring device 11 is integrated in a three-dimensional manner. The measurement position of the measurement device 11 may be calculated. However, this method only knows the relationship between the relative measurement positions, so the point cloud data is set to the same coordinate system as the same coordinate system based on the local coordinate system when the three-dimensional shape measurement is first performed. It will be converted to. Further, the local coordinate system may be converted to the global coordinate system.

位置計測装置13は、位置計測の結果を、逐次、三次元合成処理装置2aの計測状態取得部21へ出力する。   The position measurement device 13 sequentially outputs the result of position measurement to the measurement state acquisition unit 21 of the three-dimensional synthesis processing device 2a.

表示装置14は、三次元合成処理装置2aに記憶された点群データや、その他のデータなどを表示する。表示装置14は、例えばモニタなどである。   The display device 14 displays point cloud data stored in the 3D synthesis processing device 2a, other data, and the like. The display device 14 is, for example, a monitor.

入力装置15は、三次元合成処理装置2aの設定入力、入力操作などを行うための装置である。入力装置15は、例えばキーボード、マウスなどを備え、また、タッチパネル等の入力操作機器を備えてもよい。   The input device 15 is a device for performing setting input, input operation, and the like of the three-dimensional synthesis processing device 2a. The input device 15 includes a keyboard and a mouse, for example, and may include an input operation device such as a touch panel.

三次元合成処理装置2aは、図1に示すように、計測状態取得部21、座標変換部22、座標変換行列補正部23、データ記憶部24、およびデータ合成出力部25を有する。   As illustrated in FIG. 1, the three-dimensional synthesis processing device 2 a includes a measurement state acquisition unit 21, a coordinate conversion unit 22, a coordinate conversion matrix correction unit 23, a data storage unit 24, and a data synthesis output unit 25.

計測状態取得部21は、姿勢計測装置12および位置計測装置13から三次元計測装置11が設置された姿勢(姿勢計測の結果)および位置(位置計測の結果)を取得する。計測状態取得部21は、取得した姿勢計測および位置計測の結果に基づいて、姿勢計測情報および位置計測情報を生成する。なお、三次元計測装置11が設置された位置で点群データが三次元計測装置11により計測された場合には、その位置が一つの計測位置となる。   The measurement state acquisition unit 21 acquires the posture (result of posture measurement) and the position (result of position measurement) where the three-dimensional measurement device 11 is installed from the posture measurement device 12 and the position measurement device 13. The measurement state acquisition unit 21 generates posture measurement information and position measurement information based on the acquired posture measurement and position measurement results. When the point cloud data is measured by the three-dimensional measuring device 11 at the position where the three-dimensional measuring device 11 is installed, the position becomes one measurement position.

データ記憶部24には、計測位置ごとに、複数の点群データと、姿勢計測情報と、位置計測情報とが関連付けられて記憶される。   The data storage unit 24 stores a plurality of point group data, posture measurement information, and position measurement information in association with each measurement position.

計測状態取得部21は、計測位置ごとに、点群データをそれぞれの三次元計測装置11の姿勢および位置に関する情報(姿勢計測情報および位置計測情報)に関連付けてデータ記憶部24に格納する。すなわち、ローカル座標系に従って、座標データが格納されることになる。   For each measurement position, the measurement state acquisition unit 21 stores the point cloud data in the data storage unit 24 in association with information (posture measurement information and position measurement information) related to the posture and position of each three-dimensional measurement device 11. That is, coordinate data is stored according to the local coordinate system.

例えば、図2に示す計測位置POS#1におけるローカル座標系#1を基準として、三次元計測装置11により点群データData#1(図7に示す)が取得された場合に、計測状態取得部21は、これらのデータを含む三次元計測情報と、姿勢計測情報とを関連付けて、データ記憶部24に格納する。   For example, when the point cloud data Data # 1 (shown in FIG. 7) is acquired by the three-dimensional measuring apparatus 11 with reference to the local coordinate system # 1 at the measurement position POS # 1 shown in FIG. 21 associates the three-dimensional measurement information including these data and the posture measurement information, and stores them in the data storage unit 24.

また、図2に示す計測位置POS#2におけるローカル座標系#2を基準として、三次元計測装置11により点群データData#2(図8に示す)が取得された場合に、計測状態取得部21は、これらのデータを含む三次元計測情報と、姿勢計測情報とを関連付けて、データ記憶部24に格納する。なお、任意の計測位置POS#nで計測した、ローカル座標系#nを基準とする点群データをData#n(nは複数に対応する)のように記す。   Further, when the point cloud data Data # 2 (shown in FIG. 8) is acquired by the three-dimensional measuring apparatus 11 with reference to the local coordinate system # 2 at the measurement position POS # 2 shown in FIG. 21 associates the three-dimensional measurement information including these data and the posture measurement information, and stores them in the data storage unit 24. Note that point cloud data measured at an arbitrary measurement position POS # n and based on the local coordinate system #n is written as Data # n (n corresponds to a plurality).

また、位置計測装置13により計測位置POS#1および計測位置POS#2に基づいた位置計測が行われると、計測状態取得部21は、前述した三次元計測情報と、姿勢計測情報との関連付けに加えて、位置計測情報を関連付けて、データ記憶部24に格納する。   When the position measurement device 13 performs position measurement based on the measurement position POS # 1 and the measurement position POS # 2, the measurement state acquisition unit 21 associates the above-described three-dimensional measurement information with the posture measurement information. In addition, the position measurement information is associated and stored in the data storage unit 24.

以上により、データ記憶部24には、計測位置POS#1におけるローカル座標系#1での点群データData#1、計測位置POS#2におけるローカル座標系#2での点群データData#2などを含む三次元計測情報と、これらの各々に関連付けられた姿勢計測情報および位置計測情報が記憶される。   As described above, the data storage unit 24 stores the point cloud data Data # 1 in the local coordinate system # 1 at the measurement position POS # 1, the point cloud data Data # 2 in the local coordinate system # 2 at the measurement position POS # 2, and the like. 3D measurement information including, and posture measurement information and position measurement information associated with each of them are stored.

座標変換部22は、計測位置ごとの姿勢計測情報および位置計測情報に基づいて、同一座標系に変換するための座標変換行列Fを算出し、異なるローカル座標系の点群データを同一座標系の点群データに変換する。すなわち、データ記憶部24に記憶された複数の点群データについて、座標変換部22により同一座標系に座標変換される。   The coordinate conversion unit 22 calculates a coordinate conversion matrix F for conversion to the same coordinate system based on the posture measurement information and the position measurement information for each measurement position, and converts point group data of different local coordinate systems into the same coordinate system. Convert to point cloud data. That is, the coordinate conversion unit 22 performs coordinate conversion on the same coordinate system for a plurality of point group data stored in the data storage unit 24.

座標変換行列補正部23は、座標変換部22により算出された座標変換行列Fの補正を行う。座標変換行列補正部23による補正方法は、詳しくは後述する。   The coordinate transformation matrix correction unit 23 corrects the coordinate transformation matrix F calculated by the coordinate transformation unit 22. The correction method by the coordinate transformation matrix correction unit 23 will be described later in detail.

データ合成出力部25は、座標変換部22による点群データの同一座標系への変換に基づいて、同一座標系を基準とする点群データを配置する。   The data composition output unit 25 arranges point group data based on the same coordinate system based on the conversion of the point group data into the same coordinate system by the coordinate conversion unit 22.

その変換後の複数の点群データが、データ合成出力部25により同一座標系に基づいて三次元配置される。データ合成出力部25は、配置した点群データを表示装置14に出力する。この結果、対象構造物5が三次元合成処理された画像が表示装置14に表示される。なお、データ合成出力部25は、三次元合成処理した結果をデータ記憶部24に格納してもよい。   The plurality of point group data after the conversion is three-dimensionally arranged by the data synthesis output unit 25 based on the same coordinate system. The data composition output unit 25 outputs the arranged point cloud data to the display device 14. As a result, an image obtained by subjecting the target structure 5 to the three-dimensional synthesis process is displayed on the display device 14. The data synthesis output unit 25 may store the result of the three-dimensional synthesis process in the data storage unit 24.

ここで、座標変換部22による座標変換の一つの方法としては、例えば図2に示す計測位置POS#1に基づくローカル座標系#1(原点O)を同一座標系として、計測位置POS#2に基づくローカル座標系#2(原点O)を座標変換する方法である。図2に示すように、同一座標系としてローカル座標系#1に合わせて、それぞれのローカル座標系の相対関係から座標変換する。姿勢(基準方向からのX軸のずれ量など)に関する情報を含む姿勢計測情報、計測位置POS#1と計測位置POS#2との距離L12および方向などを含む位置計測情報を用いて、座標変換する。なお、計測位置POS#1と計測位置POS#2との距離L12は、ローカル座標系#1の原点Oとローカル座標系#2の原点Oとの間の相対距離に対応する。 Here, as one method of coordinate transformation by the coordinate transformation unit 22, for example, the local coordinate system # 1 (origin O 1 ) based on the measurement position POS # 1 shown in FIG. This is a method of performing coordinate conversion on the local coordinate system # 2 (origin O 2 ) based on the above. As shown in FIG. 2, coordinate conversion is performed from the relative relationship of each local coordinate system in accordance with the local coordinate system # 1 as the same coordinate system. Orientation measurement information including information on posture (such as displacement amounts in the X axis from the reference direction), by using the position measurement information including the distance L 12 and the direction of the measurement position POS # 1 and the measuring position POS # 2, the coordinates Convert. The distance L 12 between the measuring position POS # 1 and the measuring position POS # 2 corresponds to the relative distance between the origin O 1 and the origin O 2 of the local coordinate system # 2 of the local coordinate system # 1.

また、座標変換部22による座標変換の他の一つの方法としては、例えば図3に示す計測位置POS#1に基づくローカル座標系#1および計測位置POS#2に基づくローカル座標系#2を、グローバル座標系を基準にする同一座標系として、座標変換する方法である。図3に示すように、グローバル座標系の原点Ogとローカル座標系#1の原点Oとの距離Lg1、グローバル座標系の原点Ogとローカル座標系#2の原点Oとの距離Lg2、それぞれの姿勢のずれなどが座標変換のために用いられる。 As another method of coordinate conversion by the coordinate conversion unit 22, for example, a local coordinate system # 1 based on the measurement position POS # 1 and a local coordinate system # 2 based on the measurement position POS # 2 shown in FIG. This is a method of performing coordinate conversion using the same coordinate system based on the global coordinate system. As shown in FIG. 3, the distance L g1 between the origin Og of the global coordinate system and the origin O 1 of the local coordinate system # 1, and the distance L g2 between the origin Og of the global coordinate system and the origin O 2 of the local coordinate system # 2. The deviation of each posture is used for coordinate conversion.

なお、位置計測装置13としてGPSセンサを用いる場合には、GPSセンサが三次元計測装置11に設けられる。このGPSセンサがGPS衛星からのGPS電波を受信することにより、三次元計測装置11の位置を計測することができる。この方法では、三次元計測装置11の絶対的な位置(グローバル座標系での位置)の取得が可能である。   When a GPS sensor is used as the position measuring device 13, the GPS sensor is provided in the three-dimensional measuring device 11. When this GPS sensor receives GPS radio waves from GPS satellites, the position of the three-dimensional measurement device 11 can be measured. With this method, it is possible to obtain the absolute position (position in the global coordinate system) of the three-dimensional measuring apparatus 11.

次に、図4に示す三次元合成処理システム1aに用いられる三次元合成処理フローについて、図1を参照しながら説明する。   Next, a three-dimensional composition processing flow used in the three-dimensional composition processing system 1a shown in FIG. 4 will be described with reference to FIG.

はじめに、三次元計測装置11が対象構造物5を計測可能な計測位置に設置された後に、姿勢計測装置12により姿勢計測が行われ、位置計測装置13により位置計測が行われる(ステップS1)。   First, after the three-dimensional measurement device 11 is installed at a measurement position where the target structure 5 can be measured, posture measurement is performed by the posture measurement device 12, and position measurement is performed by the position measurement device 13 (step S1).

次に、三次元計測装置11により計測が開始されると、対象構造物5がスキャンされて、計測状態取得部21は三次元計測装置11から点群データを取得する(ステップS2)。   Next, when measurement is started by the three-dimensional measurement apparatus 11, the target structure 5 is scanned, and the measurement state acquisition unit 21 acquires point cloud data from the three-dimensional measurement apparatus 11 (step S2).

次に、計測状態取得部21は、姿勢計測装置12から三次元計測装置11の姿勢を取得する(ステップS3)。なお、三次元計測装置11の姿勢を計測することが可能であれば、ステップS2とステップS3の順序は相互に入れ替えてもよい。   Next, the measurement state acquisition unit 21 acquires the attitude of the three-dimensional measurement apparatus 11 from the attitude measurement apparatus 12 (step S3). Note that the order of step S2 and step S3 may be interchanged as long as the orientation of the three-dimensional measurement apparatus 11 can be measured.

次に、計測状態取得部21は、位置計測装置13から三次元計測装置11の計測位置を取得する(ステップS4)。例えば、位置計測装置13として、レーザ距離計やステレオビジョンを用いる場合には、直前の三次元計測装置の計測位置(例えば計測位置POS#1)から、現在の三次元計測装置の計測位置(例えば計測位置POS#2)までの距離L12やその方向が取得される。 Next, the measurement state acquisition unit 21 acquires the measurement position of the three-dimensional measurement device 11 from the position measurement device 13 (step S4). For example, when a laser distance meter or stereo vision is used as the position measurement device 13, the current measurement position (for example, the measurement position (for example, measurement position POS # 1) of the previous three-dimensional measurement apparatus is determined from the measurement position (for example, measurement position POS # 1). measuring positions POS # 2) the distance L 12 and that direction until is obtained.

次に、座標変換部22は、計測した点群データを同一座標系(例えばグローバル座標系)に変換するための座標変換行列Fを算出し、点群データの座標変換を行う(ステップS5)。   Next, the coordinate conversion unit 22 calculates a coordinate conversion matrix F for converting the measured point group data into the same coordinate system (for example, the global coordinate system), and performs coordinate conversion of the point group data (step S5).

ここで、ステップS5における点群データの座標変換方法について詳細に説明する。まず、任意の計測位置でのローカル座標系での座標を(x,y,z)、グローバル座標系での座標を(xg,y,z)とすると、(数1)におけるFが求める座標変換行列である。 Here, the coordinate conversion method of the point cloud data in step S5 will be described in detail. First, when the coordinates in the local coordinate system at an arbitrary measurement position are (x 1 , y 1 , z 1 ) and the coordinates in the global coordinate system are (x g , y g , z g ), (Equation 1) F is a coordinate transformation matrix to be obtained.

Figure 2014137244
Figure 2014137244

ここで、座標変換行列Fは、(数2)とする。 Here, the coordinate transformation matrix F is (Equation 2).

Figure 2014137244
で表される4×4行列(f11〜f34等は、行列の要素である)とする。
Figure 2014137244
4 × 4 matrix (f 11 to f 34 etc. are elements of the matrix).

Figure 2014137244
ここで、Rを回転行列、tを並進ベクトルとすると、座標変換行列Fは、(数3)のように表される。
Figure 2014137244
Here, when R is a rotation matrix and t is a translation vector, the coordinate transformation matrix F is expressed as (Equation 3).

以下、図5を参照しながら、ステップS5の座標変換処理について詳細なフローを説明する。また、以降の説明において、図7および図8に示す構造物の点群データの一例および他の一例と、図9に示す構造物の三次元合成処理の一例を用いる。   Hereinafter, a detailed flow of the coordinate conversion processing in step S5 will be described with reference to FIG. Further, in the following description, an example of the point cloud data of the structure shown in FIGS. 7 and 8 and another example, and an example of the three-dimensional synthesis process of the structure shown in FIG. 9 will be used.

はじめに、座標変換部22は、計測位置ごとに、姿勢計測情報を用いて、ローカル座標系をグローバル座標系と同じ姿勢に変換する回転行列Rを算出する(ステップS501)。   First, the coordinate conversion unit 22 calculates a rotation matrix R for converting the local coordinate system into the same posture as the global coordinate system, using posture measurement information for each measurement position (step S501).

次に、座標変換部22は、計測位置ごとに、位置計測情報を用いて、並進ベクトルtを算出する(ステップS502)。   Next, the coordinate conversion part 22 calculates the translation vector t using position measurement information for every measurement position (step S502).

これにより、座標変換部22は、計測位置ごとに、算出した回転行列Rおよび並進ベクトルtに基づいて座標変換行列Fを算出し、この座標変換行列Fを用いて、計測した点群データの座標変換を行う(ステップS503)。   Accordingly, the coordinate conversion unit 22 calculates a coordinate conversion matrix F based on the calculated rotation matrix R and translation vector t for each measurement position, and using this coordinate conversion matrix F, the coordinates of the measured point cloud data are calculated. Conversion is performed (step S503).

例えば、座標変換部22は、座標変換行列Fを用いて、ローカル座標系を基準とする点群データを、グローバル座標系を基準とする点群データに座標変換する。これにより、図7および図8に示すローカル座標系#1および#2を基準とする点群データData#1および#2を、図9に示すグローバル座標系を基準とする点群データGDataに座標変換することができる。   For example, the coordinate conversion unit 22 uses the coordinate conversion matrix F to coordinate-convert point cloud data based on the local coordinate system into point cloud data based on the global coordinate system. Thus, the point cloud data Data # 1 and # 2 with reference to the local coordinate systems # 1 and # 2 shown in FIGS. 7 and 8 are coordinated with the point cloud data GData with reference to the global coordinate system shown in FIG. Can be converted.

すなわち、複数の計測位置で計測した点群データData#1〜#n(nは複数に対応する)を、同一座標系(本例はグローバル座標系)を基準とする座標に変換することができるため、図9に示すように、これらの同一座標系を基準とする点群データGDataを用いて、容易に三次元合成処理することができる。   That is, the point cloud data Data # 1 to #n (n corresponds to a plurality) measured at a plurality of measurement positions can be converted into coordinates based on the same coordinate system (in this example, the global coordinate system). Therefore, as shown in FIG. 9, three-dimensional synthesis processing can be easily performed using the point cloud data GData based on these same coordinate systems.

以上で、ステップS5の座標変換処理が終了する。   Above, the coordinate conversion process of step S5 is complete | finished.

次に、データ合成出力部25は、同一座標系を基準とする座標へ変換された点群データGDataを表示装置14に表示する(ステップS6)。   Next, the data composition output unit 25 displays the point cloud data GData converted into coordinates based on the same coordinate system on the display device 14 (step S6).

ここで、図6を参照しながら、ステップS6の点群データ表示処理について詳細なフローを説明する。   Here, a detailed flow of the point cloud data display process in step S6 will be described with reference to FIG.

はじめに、入力装置15から表示する点群データGDataが選択される(ステップS601)。例えば、ユーザは、入力装置15を介して、1箇所目の計測位置で取得した点群データGData、2箇所目の計測位置で取得した点群データGDataなどの取得した全ての点群データGDataから、表示する点群データGDataを選択する。   First, point cloud data GData to be displayed is selected from the input device 15 (step S601). For example, the user can obtain from the acquired point cloud data GData such as the point cloud data GData acquired at the first measurement position and the point cloud data GData acquired at the second measurement position via the input device 15. The point cloud data GData to be displayed is selected.

次に、入力装置15から選択した点群データGDataの表示方法が選択される(ステップS602)。   Next, the display method of the point cloud data GData selected from the input device 15 is selected (step S602).

次に、表示装置14は、選択された表示方法に応じて、点群データGDataを表示する(ステップS603)。   Next, the display device 14 displays the point cloud data GData according to the selected display method (step S603).

例えば、ユーザが、入力装置15を介して、取得した点群データGDataを二次元平面上に投影して表示する二次元表示方法、または、取得した点群データGDataを三次元的に俯瞰(観察)して表示する三次元表示方法が選択可能である。   For example, the user projects the acquired point cloud data GData on a two-dimensional plane via the input device 15 and displays the acquired point cloud data GData, or the acquired point cloud data GData is viewed three-dimensionally (observation). 3D display method can be selected.

二次元表示方法が選択された場合には、データ合成出力部25は、任意の高さ(Z座標)位置に存在する点群データGDataを抽出し、例えば点群データGDataを二次元平面(XY平面、XZ平面など)上に投影した画像を表示装置14に表示する。ユーザの入力に応じて、表示する高さ位置を任意に変更可能としてもよい。   When the two-dimensional display method is selected, the data composition output unit 25 extracts point cloud data GData existing at an arbitrary height (Z coordinate) position, and for example, converts the point cloud data GData to a two-dimensional plane (XY). An image projected onto a plane, XZ plane, etc.) is displayed on the display device 14. The height position to be displayed may be arbitrarily changed in accordance with a user input.

また、三次元表示方法が選択された場合には、データ合成出力部25は、グローバル座標系に任意の視点を設定し、その視点から点群データGDataを観察した画像を表示装置14に表示する。このとき、最初の視点の位置を新しく計測した点群データGDataのローカル座標系の原点の位置にしておくことで、新しく計測した点群データGDataの確認を瞬時に行うことができる。また、ユーザの入力に応じて、視点の位置や視線方向を任意に変更可能としてもよい。   When the three-dimensional display method is selected, the data composition output unit 25 sets an arbitrary viewpoint in the global coordinate system and displays an image obtained by observing the point cloud data GData from the viewpoint on the display device 14. . At this time, the newly measured point group data GData can be confirmed instantaneously by setting the position of the first viewpoint to the position of the origin of the local coordinate system of the newly measured point group data GData. Further, the position of the viewpoint and the line-of-sight direction may be arbitrarily changed according to the user input.

以上で、ステップS6の点群データ表示処理が終了する。   This completes the point cloud data display process in step S6.

次に、座標変換行列補正部23は、算出された座標変換行列Fを補正する(ステップS7)。   Next, the coordinate transformation matrix correction unit 23 corrects the calculated coordinate transformation matrix F (step S7).

例えば、姿勢計測装置12や位置計測装置13で計測したデータには、位置ずれによる誤差が含まれている場合がある。位置ずれによる誤差が含まれる場合には、座標変換部22にて、正しい座標変換行列Fを算出できない場合がある。そのため、計測した点群データData#nを座標変換した結果と、これまでに計測した点群データGDataの位置ずれが大きい場合には、それぞれのデータの間の位置合わせを行い、グローバル座標系への座標変換行列Fを補正する必要がある。   For example, the data measured by the attitude measurement device 12 or the position measurement device 13 may include an error due to positional deviation. If an error due to misalignment is included, the coordinate conversion unit 22 may not be able to calculate a correct coordinate conversion matrix F. Therefore, when the positional deviation between the result of coordinate conversion of the measured point cloud data Data # n and the point cloud data GData measured so far is large, alignment between the respective data is performed, and the global coordinate system is obtained. It is necessary to correct the coordinate transformation matrix F.

ユーザは、点群データGDataの表示画面を確認し、位置ずれが確認された場合には、ステップS7にて位置合わせを行い、座標変換行列Fを補正する。位置ずれの確認方法は、例えば、新しく取得した点群データGDataとこれまでに計測した点群データGDataの表示色を変えて、表示装置14に表示する。   The user checks the display screen of the point cloud data GData, and if a positional deviation is confirmed, the user performs alignment in step S7 and corrects the coordinate transformation matrix F. As a confirmation method of the positional deviation, for example, the display color of the newly acquired point cloud data GData and the point cloud data GData measured so far are changed and displayed on the display device 14.

点群データの位置合わせは、例えば、周知の技術であるICP(Iterative Closest Point)法と呼ばれる位置合わせ手法を用いることができる。ICP法は、位置合わせを行うそれぞれの点群データについて、最近傍頂点間距離の二乗和を反復計算により最小化(収束)させることで、位置合わせを行うものである。それぞれの点群データの位置ずれが大きい場合には、反復計算の計算処理が大きく、収束するまでに非常に長い計算時間が必要であり、位置ずれが大きいと局所解に陥りやすいという課題がある。一方、それぞれの点群データの位置ずれが小さい場合には、短い計算時間で最適解に収束する。   For the alignment of the point cloud data, for example, an alignment technique called an ICP (Iterative Closest Point) method, which is a well-known technique, can be used. In the ICP method, alignment is performed by minimizing (converging) the square sum of the distances between nearest vertices for each point cloud data to be aligned by iterative calculation. When the position shift of each point cloud data is large, the calculation process of the iterative calculation is large, and it takes a very long calculation time to converge. If the position shift is large, there is a problem that it easily falls into a local solution. . On the other hand, when the positional deviation of each point cloud data is small, it converges to the optimal solution in a short calculation time.

ステップS7の処理終了後、図4に示すステップS1〜S7を繰り返し実行する。なお、点群データを取得するための計測作業の終了後は、図示しない計測終了の処理となり、本三次元合成処理フローを終了する。   After the process of step S7 is completed, steps S1 to S7 shown in FIG. 4 are repeatedly executed. In addition, after the end of the measurement work for acquiring the point cloud data, a measurement end process (not shown) is performed, and the three-dimensional synthesis process flow is ended.

第1の実施形態では、座標変換による点群データ間の位置ずれが小さくなっているため、短い計算時間で最適解に収束し、座標変換行列を補正することができる。つまり、点群データを計測した計測位置が離れていても、局所解に陥らず、短い計算時間で位置合わせを行うことができる。また、いくつかの拘束条件を加えることでICP法での収束までの計算時間をさらに短縮することができる。   In the first embodiment, since the positional deviation between the point cloud data due to the coordinate transformation is small, it converges to the optimal solution in a short calculation time, and the coordinate transformation matrix can be corrected. That is, even if the measurement positions where the point cloud data are measured are separated, the local solution can be obtained without causing a local solution. Further, by adding some constraint conditions, it is possible to further shorten the calculation time until convergence by the ICP method.

例えば、床面をXY平面とすると、三次元計測装置11が床面に水平に設置される場合、回転行列RはZ軸周りの回転量θを求める問題、すなわち(数4)に示す座標変換行列Fbを求めることと等しくなり、計算時間を短縮できる。なお、(数4)に示す行列の要素f14、f24、f34は、(数2)に示す行列の対応する要素である。 For example, when the floor surface is an XY plane, when the three-dimensional measuring device 11 is installed horizontally on the floor surface, the rotation matrix R is a problem for obtaining the rotation amount θ around the Z axis, that is, the coordinate conversion shown in (Expression 4). This is equivalent to obtaining the matrix Fb, and the calculation time can be shortened. Note that the elements f 14 , f 24 , and f 34 of the matrix shown in (Expression 4) are corresponding elements of the matrix shown in (Expression 2).

Figure 2014137244
Figure 2014137244

また、並進ベクトルtが正しい解である場合には回転行列Rのみを求める問題に、回転行列Rが正しい解である場合には並進ベクトルtのみを求める問題にそれぞれ簡略化できるため、反復計算の計算時間をさらに短縮することができる。   In addition, since it can be simplified to the problem of obtaining only the rotation matrix R when the translation vector t is a correct solution and to the problem of obtaining only the translation vector t when the rotation matrix R is a correct solution, Calculation time can be further reduced.

以上説明したように、第1の実施形態によれば、計測した三次元合成処理による形状データを現場にて確認するために、マーカーを設置せずに計測作業を実施することができる。   As described above, according to the first embodiment, the measurement operation can be performed without installing a marker in order to confirm the measured shape data by the three-dimensional synthesis process at the site.

また、第1の実施形態によれば、計測作業を実施している現場にて、新たな計測位置で計測した点群データを同一座標系に瞬時に変換し、また、既に異なる計測位置で計測した点群データを同じく同一座標系に変換したデータを用いて、直ちに三次元合成処理することができる。これにより、対象構造物に対して計測作業を行った直後に合成した形状データを短時間で確認することができる。作業者が点群データの取得状況をその場で直ちに確認することができるため、計測データの取りこぼしを低減させることができる。   Further, according to the first embodiment, the point cloud data measured at a new measurement position is instantaneously converted into the same coordinate system at the site where measurement work is being performed, and measurement is already performed at a different measurement position. Using the data obtained by converting the obtained point cloud data into the same coordinate system, a three-dimensional synthesis process can be immediately performed. Thereby, the shape data synthesized immediately after the measurement work is performed on the target structure can be confirmed in a short time. Since the operator can immediately confirm the acquisition status of the point cloud data on the spot, the measurement data can be omitted.

1つの計測位置における計測作業ごとに、順次三次元合成処理を行うことができるため、その対象構造物全体の形状データを確認しながら、計測作業を進めることができる。これにより、効率的に計測作業を進めることができるため、所望の対象構造物全体の形状データをより短い作業時間で取得することができる。   Since the three-dimensional synthesis process can be sequentially performed for each measurement operation at one measurement position, the measurement operation can be performed while confirming the shape data of the entire target structure. Thereby, since a measurement work can be advanced efficiently, the shape data of the whole desired target structure can be acquired in a shorter work time.

[第2の実施形態]
図10は、本発明に係る三次元合成処理システムの第2の実施形態の構成を示すブロック図である。また、図11は、第2の実施形態の三次元合成処理システムに用いられる三次元合成処理フローを示すフロー図である。さらに、図12は、第2の実施形態の三次元合成処理システムに用いられる計測位置提示処理フローを示すフロー図である。図13は評価空間におけるブロック分割の一例を示す図であり、図14は評価空間における選択ブロックの一例を示す図である。
[Second Embodiment]
FIG. 10 is a block diagram showing a configuration of the second embodiment of the three-dimensional synthesis processing system according to the present invention. FIG. 11 is a flowchart showing a three-dimensional composition processing flow used in the three-dimensional composition processing system according to the second embodiment. Furthermore, FIG. 12 is a flowchart showing a measurement position presentation processing flow used in the three-dimensional synthesis processing system of the second embodiment. FIG. 13 is a diagram illustrating an example of block division in the evaluation space, and FIG. 14 is a diagram illustrating an example of a selected block in the evaluation space.

図10に示す三次元合成処理システム1bは、図1に示す三次元合成処理システム1aの構成に加えて可視画像撮影装置16を備え、また、三次元合成処理装置2bが計測位置提示部26および密度評価部27をさらに有する構成である。   A three-dimensional synthesis processing system 1b shown in FIG. 10 includes a visible image capturing device 16 in addition to the configuration of the three-dimensional synthesis processing system 1a shown in FIG. 1, and the three-dimensional synthesis processing device 2b includes a measurement position presentation unit 26 and The configuration further includes a density evaluation unit 27.

計測位置提示部26は、手動または自動による方法により、三次元計測装置11を設置する計測位置をユーザに提示することができる。手動による方法は、入力装置15を介して、ユーザが所望の計測位置を設定する等である。また、自動による方法は、以降で説明する密度評価部27による密度評価を用いる場合である。   The measurement position presentation unit 26 can present the measurement position where the three-dimensional measurement apparatus 11 is installed to the user by a manual or automatic method. A manual method is that the user sets a desired measurement position via the input device 15. The automatic method is a case where density evaluation by the density evaluation unit 27 described later is used.

密度評価部27は、同一座標系に配置された計測データ(例えば点群データGData)に基づいて、所定の空間(以降で説明する評価空間100)をブロック101ごとに区分して、点群データGDataの密度評価を行う。密度評価とは、例えば対象構造物5について計測された点群データGDataが、対象構造物5の形状を三次元的に観察するために十分なデータ量かを判断するための指標である。   The density evaluation unit 27 classifies a predetermined space (an evaluation space 100 described below) for each block 101 based on measurement data (for example, point cloud data GData) arranged in the same coordinate system, and performs point cloud data. Gdata density is evaluated. The density evaluation is an index for determining whether the point cloud data GData measured for the target structure 5 is a sufficient data amount for observing the shape of the target structure 5 three-dimensionally, for example.

以下、図11に示す第2の実施形態の三次元合成処理システムに用いられる三次元合成処理フローについて説明する。   Hereinafter, a three-dimensional synthesis processing flow used in the three-dimensional synthesis processing system of the second embodiment shown in FIG. 11 will be described.

三次元合成処理装置1bの計測位置提示部26は、三次元計測装置11を設置する計測位置を提示する(ステップS20)。具体的には、ユーザが、入力装置15を介して、三次元計測装置11を設置する設定位置(計測位置)を設定する。三次元計測装置11の設定位置は、例えば表示装置14で点群データGDataなどを表示している画面上で、設置したい位置に対応するポイントに入力装置15のマウスカーソルを合わせてクリックすることで設定される。   The measurement position presentation unit 26 of the three-dimensional synthesis processing apparatus 1b presents the measurement position where the three-dimensional measurement apparatus 11 is installed (Step S20). Specifically, the user sets a setting position (measurement position) where the three-dimensional measurement apparatus 11 is installed via the input device 15. The setting position of the three-dimensional measuring device 11 can be set by, for example, placing the mouse cursor of the input device 15 on the point corresponding to the position to be installed on the screen displaying the point cloud data GData on the display device 14 and clicking. Is set.

また、いくつかの計測位置で点群データGDataを取得した後には、以下に説明するように、三次元計測装置11により計測して得られた点群データGDataの密度評価を行い、その密度評価に基づいた三次元計測装置11の提示計測位置に計測位置112を設定することができる。   In addition, after acquiring the point cloud data GData at several measurement positions, the density evaluation of the point cloud data GData obtained by measuring with the three-dimensional measuring device 11 is performed and the density evaluation is performed as described below. The measurement position 112 can be set to the presentation measurement position of the three-dimensional measurement apparatus 11 based on the above.

以下、図12に示す第2の実施形態の三次元合成処理システムに用いられる計測位置提示処理フローを、図13および図14を参照しながら説明する。   Hereinafter, the measurement position presentation processing flow used in the three-dimensional synthesis processing system of the second embodiment shown in FIG. 12 will be described with reference to FIGS. 13 and 14.

はじめに、入力装置15から対象構造物5の評価空間100が設定される(ステップS901)。   First, the evaluation space 100 of the target structure 5 is set from the input device 15 (step S901).

例えば、ユーザが、入力装置15を介して、対象構造物5のおおよそのサイズがわかる場合にはそのサイズを指定し、不明な場合には測りたい空間のサイズをある基準点からのサイズとして指定するなどである。これにより、図13に示すように、密度評価部27は、指定されたサイズに応じて、二次元マップ上の領域もしくは三次元空間として評価空間100を設定する。   For example, when the user knows the approximate size of the target structure 5 via the input device 15, the user designates the size, and when the user does not know, designates the size of the space to be measured as the size from a certain reference point. And so on. Thereby, as shown in FIG. 13, the density evaluation unit 27 sets the evaluation space 100 as a region on the two-dimensional map or a three-dimensional space according to the designated size.

ここで、評価空間100とは、同一座標系に点群データGDataが座標変換されて配置されて、点群データGDataを含むように設定される有限の空間である。密度評価部27は、この評価空間100について所定の単位の複数のブロック101に分割して、点群データGDataの密度評価を行う。   Here, the evaluation space 100 is a finite space in which the point cloud data GData is coordinate-transformed and arranged in the same coordinate system and is set so as to include the point cloud data GData. The density evaluation unit 27 divides the evaluation space 100 into a plurality of blocks 101 of a predetermined unit, and performs density evaluation of the point cloud data GData.

次に、入力装置15から密度下限値が指定されると、密度評価部27は、その指定値を密度下限値として設定する(ステップS902)。なお、予め密度下限値等をデータ記憶部24に記憶させもよい。   Next, when the density lower limit value is designated from the input device 15, the density evaluation unit 27 sets the designated value as the density lower limit value (step S902). Note that the density lower limit value or the like may be stored in the data storage unit 24 in advance.

次に、密度評価部27は、設定した評価空間100を複数のブロック101に分割する(ステップS903)。   Next, the density evaluation unit 27 divides the set evaluation space 100 into a plurality of blocks 101 (step S903).

図13に示す評価空間100は、例えば複数の点群データGDataと、現在の計測位置111を含んでいる。図13は、この評価空間100を複数のブロック101に分割し、そのXY平面(XZ平面等でもよい)に投影した図である。また、図14に、評価空間100に加えて、図に示す点線内を対象ブロック120として示す。   An evaluation space 100 illustrated in FIG. 13 includes, for example, a plurality of point group data GData and the current measurement position 111. FIG. 13 is a diagram in which the evaluation space 100 is divided into a plurality of blocks 101 and projected onto the XY plane (or an XZ plane or the like). Further, in FIG. 14, in addition to the evaluation space 100, a dotted line shown in the figure is shown as a target block 120.

次に、密度評価部27は、分割した複数のブロック101の中から、例えば現在の計測位置111を含むブロック101とその周辺に位置する周辺ブロック101とを対象ブロック120として選択する(ステップS904)。   Next, the density evaluation unit 27 selects, for example, the block 101 including the current measurement position 111 and the peripheral block 101 located in the vicinity thereof as the target block 120 from among the plurality of divided blocks 101 (step S904). .

次に、密度評価部27は、対象ブロック120内の点群データGDataの密度を算出する(ステップS905)。点群データGDataの密度は、例えば、点群データGDataを二次元平面上に投影したときの面積を、投影した平面の面積で除した値や、点群データGDataを含むブロックの体積を選択した対象ブロック120の体積で除した値などである。   Next, the density evaluation unit 27 calculates the density of the point cloud data GData in the target block 120 (step S905). For the density of the point cloud data GData, for example, a value obtained by dividing the area when the point cloud data GData is projected onto the two-dimensional plane by the area of the projected plane, or the volume of the block including the point cloud data GData is selected. For example, the value is divided by the volume of the target block 120.

次に、密度評価部27は、点群データGDataの密度が設定した密度下限値より小さいか否かを判定する(ステップS906)。   Next, the density evaluation unit 27 determines whether or not the density of the point cloud data GData is smaller than the set density lower limit value (step S906).

点群データGDataの密度が設定した密度下限値より小さい場合に(ステップS906のYES)、密度評価部27は、ステップS907へ処理を進める。一方、点群データの密度が設定した密度下限値以上である場合には、ステップS908へ処理を進める。   When the density of the point cloud data GData is smaller than the set density lower limit value (YES in step S906), the density evaluation unit 27 advances the process to step S907. On the other hand, if the density of the point cloud data is greater than or equal to the set density lower limit, the process proceeds to step S908.

密度評価部27は、点群データGDataの密度が設定した密度下限値より小さい選択ブロック130を未取得空間として抽出する(ステップS907)。すなわち、未取得空間は、点群データGDataの密度が密度下限値より小さいブロック101である。なお、図14では、未取得空間を示す選択ブロック130を斜線で示す。   The density evaluation unit 27 extracts a selection block 130 in which the density of the point cloud data GData is smaller than the set density lower limit value as an unacquired space (step S907). That is, the non-acquired space is the block 101 in which the density of the point cloud data GData is smaller than the density lower limit value. In FIG. 14, the selection block 130 indicating the unacquired space is indicated by hatching.

密度評価部27は、評価空間100の全てのブロック101が対象ブロック120として選択されたか否かを判定する(ステップS908)。全てのブロック101が対象ブロック120として選択された場合に(ステップS908のYES)、密度評価部27は、ステップS909へ処理を進める。   The density evaluation unit 27 determines whether all the blocks 101 in the evaluation space 100 have been selected as the target block 120 (step S908). When all the blocks 101 are selected as the target block 120 (YES in step S908), the density evaluation unit 27 advances the process to step S909.

全てのブロック101が対象ブロック120として選択されていない場合に(ステップS908のNO)、密度評価部27は、ステップS904へ処理を戻す。   When all the blocks 101 are not selected as the target block 120 (NO in step S908), the density evaluation unit 27 returns the process to step S904.

次に、密度評価部27は、抽出した未取得空間のうち、点群データGDataの密度が最も小さいブロック101内の位置を計測位置112として選択(または抽出)し、計測位置提示部26はこの選択された計測位置112をユーザに提示する(ステップS909)。   Next, the density evaluation unit 27 selects (or extracts) a position in the block 101 where the density of the point cloud data GData is the lowest among the extracted unacquired spaces, and the measurement position presentation unit 26 The selected measurement position 112 is presented to the user (step S909).

これにより、密度評価部27は、点群データGDataの密度評価に基づいて、点群データGDataの密度が小さいブロック101を抽出し、当該抽出したブロック101の範囲にある座標を、三次元計測装置11を設置すべき計測位置112として抽出する。   Thereby, the density evaluation unit 27 extracts the block 101 having a small density of the point cloud data GData based on the density evaluation of the point cloud data GData, and the coordinates in the range of the extracted block 101 are extracted from the three-dimensional measuring device. 11 is extracted as a measurement position 112 to be installed.

また、計測位置提示部26が、これらの処理で抽出した未取得空間の位置を表示装置14の画面上に表示して、ユーザの入力に応じて、未取得空間の中から計測位置112を選択することで計測位置112を設定してもよい。   In addition, the measurement position presentation unit 26 displays the position of the unacquired space extracted by these processes on the screen of the display device 14, and selects the measurement position 112 from the unacquired space according to a user input. Thus, the measurement position 112 may be set.

例えば、計測位置提示部26は、表示装置14に表示している点群データGDataの画面上において、設定した計測位置112に目印を表示する。表示装置14への点群データGDataの表示方法が、三次元表示の場合、ユーザは任意の視点、視線方向に変更することができ、この目印の位置を詳細に確認することができる。   For example, the measurement position presentation unit 26 displays a mark at the set measurement position 112 on the screen of the point cloud data GData displayed on the display device 14. When the display method of the point cloud data GData on the display device 14 is three-dimensional display, the user can change to any viewpoint and line-of-sight direction, and can check the position of the mark in detail.

また、点群データGDataの表示画面に目印を表示する方法に限らず、三次元計測装置11を設置する位置をカメラなどの可視画像撮影装置16を用いて撮影してもよい。そして、撮影した画像上において、設定した計測位置112に相当する画面上の位置に目印を表示して、三次元計測装置11の計測位置を提示してもよい。例えば、可視画像撮影装置16で撮影して得られる画像データは、静止画像データ、もしくは動画像データである。   Further, the method is not limited to the method of displaying a mark on the display screen of the point cloud data GData, and the position where the three-dimensional measuring device 11 is installed may be photographed using the visible image photographing device 16 such as a camera. Then, on the photographed image, a mark may be displayed at a position on the screen corresponding to the set measurement position 112, and the measurement position of the three-dimensional measurement apparatus 11 may be presented. For example, the image data obtained by photographing with the visible image photographing device 16 is still image data or moving image data.

データ合成出力部25は、三次元計測装置11の計測位置112を表示したときの表示画像と、表示している点群データGDataの画像と、可視画像撮影装置16により同じ視線方向から三次元計測装置11を設置する位置を撮影された画像との対応付けを行う。データ合成出力部25は、この対応付けた画像を表示装置14に出力する。   The data composition output unit 25 performs three-dimensional measurement from the same line-of-sight direction by the display image when the measurement position 112 of the three-dimensional measurement device 11 is displayed, the image of the point cloud data GData being displayed, and the visible image photographing device 16. The position where the apparatus 11 is installed is associated with the captured image. The data composition output unit 25 outputs the associated image to the display device 14.

これにより、ユーザは、撮影画像上のどの画素が計測位置112に相当するかを検出し、その位置に目印を表示することができる。このとき、表示装置14に表示されている点群データGDataの画像を、撮影した画像に重ね合わせて表示することも可能であり、重ね合わせた画像を見ることで同じ方向から撮影できているかを判別することも可能である。   Thus, the user can detect which pixel on the captured image corresponds to the measurement position 112 and display a mark at that position. At this time, the image of the point cloud data GData displayed on the display device 14 can be displayed so as to be superimposed on the captured image, and whether the captured image can be captured from the same direction by viewing the superimposed image. It is also possible to determine.

また、撮影装置で撮影した画像上に三次元計測装置11の計測位置112を表示しているときに、その表示されている計測位置112へユーザまたは目印などが移動したことを検知して、ユーザに通知することで計測位置112を提示してもよい。ユーザまたは目印が計測位置112に移動したことを検知する手段としては、例えば、周知の画像処理技術を用いてユーザまたは目印の位置を検出し、計測位置112と同じ位置にいるかを判別してもよい。   Further, when the measurement position 112 of the three-dimensional measurement apparatus 11 is displayed on the image photographed by the photographing apparatus, it is detected that the user or the landmark has moved to the displayed measurement position 112, and the user The measurement position 112 may be presented by notifying. As a means for detecting that the user or the mark has moved to the measurement position 112, for example, the position of the user or the mark can be detected by using a well-known image processing technique to determine whether the user or the mark is at the same position as the measurement position 112. Good.

周知の画像処理技術によるユーザの位置の検出手段としては、例えばユーザの参照画像を用意しておき、参照画像と撮影画像のブロックマッチングを行ってユーザの位置を検出する。または、ユーザを表す特徴量(例えばHOG特徴量)をあらかじめ学習しておき、学習した特徴量と合致する領域を探索することでユーザの位置を検出することができる。   As a user position detection means using a known image processing technique, for example, a user reference image is prepared, and the user position is detected by performing block matching between the reference image and the captured image. Alternatively, it is possible to detect a user's position by learning in advance a feature amount (for example, an HOG feature amount) representing the user and searching for a region that matches the learned feature amount.

この他、ユーザは撮影画像上で見えが変化するため、ユーザを直接検出する方法では検出できない場合も考えられる。そこで、画像上での見えが変化せず、人物領域を検出するよりも容易に検出可能な目印となる物体、例えば、チェッカーボードや棒、をユーザが持って移動することで、画像処理技術によりその位置を容易に検出でき、ユーザの位置検出精度を上げることもできる。   In addition, since the appearance of the user changes on the captured image, it may be impossible to detect by the method of directly detecting the user. Therefore, the user does not change the appearance on the image and can easily detect the object area rather than detecting the person area, such as a checkerboard or a stick, and the user can move the object. The position can be easily detected, and the position detection accuracy of the user can be increased.

ユーザへの通知方法としては、例えば、アラーム音を一定間隔で鳴らすようにしておき、ユーザが計測位置112に近づくと、その間隔を短くし、逆に計測位置112から遠ざかると間隔を長くすることにより通知する。   As a notification method to the user, for example, an alarm sound is made at regular intervals, and when the user approaches the measurement position 112, the interval is shortened, and conversely, when the user moves away from the measurement position 112, the interval is lengthened. Notify by.

ユーザが計測位置112に移動したとき、すなわち、検出した人物の位置と計測位置112の画像上でのずれが閾値以内となったときには、別のアラーム音や音声を流すことで計測位置112に移動したことを通知する。   When the user moves to the measurement position 112, that is, when the difference between the detected person's position and the measurement position 112 on the image falls within the threshold, the user moves to the measurement position 112 by playing another alarm sound or sound. Notify you.

以上が、ステップS20に示す計測位置提示処理の説明である。   The above is the description of the measurement position presentation process shown in step S20.

このステップS20の後、計測位置112として提示された位置(提示計測位置)に三次元計測装置11が移動された後に、点群データData#nを取得するためのスキャン(計測)が開始され(ステップS21)、前述したステップS2〜S7と同様に、ステップS22〜S27の処理が行われる。以降は、計測作業を終了するまで、ステップS20〜S27が繰り返し実行される。   After this step S20, after the three-dimensional measurement apparatus 11 is moved to the position (presentation measurement position) presented as the measurement position 112, a scan (measurement) for acquiring the point cloud data Data # n is started ( In step S21), steps S22 to S27 are performed in the same manner as steps S2 to S7 described above. Thereafter, steps S20 to S27 are repeatedly executed until the measurement work is finished.

なお、ステップS24において、三次元計測装置11の計測位置の取得を行うが、このとき、第1の実施形態と同様に、位置計測装置13を用いて三次元計測装置11の計測位置の取得する方法に限らず、計測位置提示部26で設定した三次元計測装置11の提示計測位置を、現在の計測位置として取得してもよい。この場合、三次元計測装置11の計測位置を計測する作業が必要なくなるため、作業効率が向上する。   In step S24, the measurement position of the three-dimensional measurement apparatus 11 is acquired. At this time, as in the first embodiment, the measurement position of the three-dimensional measurement apparatus 11 is acquired using the position measurement apparatus 13. Not only the method but also the presentation measurement position of the three-dimensional measurement apparatus 11 set by the measurement position presentation unit 26 may be acquired as the current measurement position. In this case, the work of measuring the measurement position of the three-dimensional measuring device 11 is not necessary, so that work efficiency is improved.

第2の実施形態によれば、三次元計測装置を設置すべき計測位置をユーザに提示することができ、計測作業の効率を向上させることができる。また、取得した計測データの密度評価により効率的に不足する計測データの計測位置を検索することができ、計測データの取りこぼしを低減することができる。   According to 2nd Embodiment, the measurement position which should install a three-dimensional measuring apparatus can be shown to a user, and the efficiency of measurement work can be improved. In addition, the measurement position of the measurement data that is insufficient can be searched efficiently by the density evaluation of the acquired measurement data, and the missing of the measurement data can be reduced.

[第3の実施形態]
図15は、本発明に係る三次元合成処理システムの第3の実施形態の構成を示すブロック図である。また、図16は、第3の実施形態の三次元合成処理システムに用いられる三次元合成処理フローを示すフロー図である。
[Third Embodiment]
FIG. 15 is a block diagram showing a configuration of the third embodiment of the three-dimensional synthesis processing system according to the present invention. FIG. 16 is a flowchart showing a three-dimensional composition processing flow used in the three-dimensional composition processing system of the third embodiment.

図15に示す三次元合成処理システム1cは、図1に示す三次元合成処理システム1aの構成に加えて姿勢自動制御装置17を備え、また、三次元合成処理装置2cが計測位置提示部26および初期姿勢設定部28をさらに有する構成である。   A three-dimensional synthesis processing system 1c shown in FIG. 15 includes an attitude automatic control device 17 in addition to the configuration of the three-dimensional synthesis processing system 1a shown in FIG. 1, and the three-dimensional synthesis processing device 2c includes a measurement position presentation unit 26 and The initial posture setting unit 28 is further included.

初期姿勢設定部28では、三次元計測装置11の初期姿勢を設定する。初期姿勢とは、三次元計測装置11が計測位置に設置された場合における、スキャン直前の三次元計測装置11の姿勢である。例えば、スキャン直前に、三次元計測装置11の回転の基準軸(Z方向:重力方向とする)と直行するX軸がどの方向にあるかなどである。なお、この場合に、スキャン直前の三次元計測装置11の姿勢は、所定の基準に対して同じであるとする。   The initial posture setting unit 28 sets the initial posture of the three-dimensional measurement apparatus 11. The initial posture is the posture of the 3D measurement device 11 immediately before scanning when the 3D measurement device 11 is installed at the measurement position. For example, in which direction is the reference axis (Z direction: gravity direction) of the rotation of the three-dimensional measurement apparatus 11 and the X axis orthogonal to the three-dimensional measuring apparatus 11 immediately before scanning. In this case, it is assumed that the attitude of the three-dimensional measurement apparatus 11 immediately before scanning is the same with respect to a predetermined reference.

以下、図15を参照しながら、図16に示す三次元合成処理方法を示すフローについて説明する。なお、図16に示すフローのステップS31〜S33、S35〜S39は、各々、図11に示すステップS20、S21、S23、S22およびS24〜S27と同じ処理である。ここでは、図16に示す同じ処理のステップについては説明を省くものとする。   Hereinafter, the flow showing the three-dimensional synthesis processing method shown in FIG. 16 will be described with reference to FIG. Note that steps S31 to S33 and S35 to S39 in the flow shown in FIG. 16 are the same processes as steps S20, S21, S23, S22 and S24 to S27 shown in FIG. 11, respectively. Here, the description of the same processing steps shown in FIG. 16 is omitted.

ステップS30では、ユーザの入力を受け付け、三次元計測装置11で計測を行う際の初期姿勢を設定する。例えば、三次元計測装置11の初期姿勢を北向きの方位に設定する。   In step S <b> 30, an input from the user is received, and an initial posture when performing measurement with the three-dimensional measurement apparatus 11 is set. For example, the initial posture of the three-dimensional measuring device 11 is set to the north direction.

ステップS34では、姿勢自動制御装置17が、三次元計測装置11の姿勢をステップS30で設定した初期姿勢と同じになるように調整する。   In step S34, the posture automatic control device 17 adjusts the posture of the three-dimensional measurement device 11 to be the same as the initial posture set in step S30.

ステップS39の座標変換補正処理後、ステップS31に戻って、繰り返し計測が実行されるか、または、図示しないステップ等であるが、ユーザの指定により計測が終了する。   After the coordinate conversion correction process in step S39, the process returns to step S31 to repeatedly perform measurement, or a step (not shown) or the like, but the measurement is terminated by the user's designation.

計測状態取得部21は、三次元計測装置11に設置された姿勢計測装置12から計測された姿勢を取得しながら、初期姿勢設定部28により設定された初期姿勢と計測された姿勢との基準軸(例えばX軸)の角度のずれ量を算出する。   The measurement state acquisition unit 21 acquires the posture measured from the posture measurement device 12 installed in the three-dimensional measurement device 11, and the reference axis between the initial posture set by the initial posture setting unit 28 and the measured posture. The angle deviation amount (for example, the X axis) is calculated.

例えば、計測状態取得部21は、この基準軸の角度のずれ量を表示装置14に出力(通知)する。ユーザは、このずれ量が所定の閾値以内に収まるように三次元計測装置11の姿勢を調整することができる。   For example, the measurement state acquisition unit 21 outputs (notifies) the angle deviation amount of the reference axis to the display device 14. The user can adjust the attitude of the three-dimensional measurement apparatus 11 so that the amount of deviation falls within a predetermined threshold.

また、計測状態取得部21は、姿勢計測装置12により計測した姿勢が設定した初期姿勢と一致する方向である場合、すなわち角度のずれ量が小さくなる方向(初期姿勢に近づいている方向)であることを通知する。また、初期姿勢と一致した、すなわち現在の姿勢と初期姿勢の角度のずれ量が閾値以内に収まったときには一致したことを通知する。   In addition, the measurement state acquisition unit 21 is a direction in which the posture measured by the posture measurement device 12 coincides with the set initial posture, that is, a direction in which the amount of angular deviation is reduced (a direction approaching the initial posture). Notify that. Further, when the initial posture is matched, that is, when the amount of deviation between the current posture and the initial posture is within the threshold value, the fact that they are matched is notified.

これらの通知方法としては、表示装置14に出力するだけでなく、例えばアラーム音を一定間隔で鳴らすようにしておき、三次元計測装置11の姿勢が設定した初期姿勢に近づいたとき、すなわち計測した姿勢と初期姿勢の角度のずれ量が小さくなったときには、例えばアラーム音を鳴らす間隔を短くする。逆に、三次元計測装置11の姿勢が設定した初期姿勢から遠くなったとき、すなわち計測した姿勢と初期姿勢の角度のずれ量が大きくなったときには、アラーム音を鳴らす間隔を長くする等である。   As these notification methods, not only the output to the display device 14, but also, for example, an alarm sound is sounded at regular intervals, and when the posture of the three-dimensional measuring device 11 approaches the set initial posture, that is, measurement is performed. When the amount of deviation between the posture and the initial posture becomes small, for example, the interval for sounding the alarm sound is shortened. On the contrary, when the attitude of the three-dimensional measuring apparatus 11 is far from the set initial attitude, that is, when the amount of deviation between the measured attitude and the initial attitude becomes large, the interval for generating the alarm sound is increased. .

三次元計測装置11の姿勢が初期姿勢と一致したとき、すなわち計測した姿勢と初期姿勢の角度のずれ量が閾値以内に収まったときには、別のアラーム音や音声を流すことで通知する等の聴覚で認識可能な手段を用いてもよい。   When the attitude of the three-dimensional measuring device 11 matches the initial attitude, that is, when the amount of deviation between the measured attitude and the initial attitude falls within the threshold, an auditory alarm such as notification by sending another alarm sound or sound Recognizable means may be used.

また、三次元計測装置11の姿勢をユーザが調整する方法に限らず、姿勢自動制御装置17が姿勢を初期姿勢や設定した姿勢に調整することができるようにしてもよい。この場合、姿勢自動制御装置17は、三次元計測装置11の座標系の3軸の回転や移動などをモータ制御する手段などを有する。   Further, the attitude of the three-dimensional measuring apparatus 11 is not limited to the method of adjusting by the user, and the attitude automatic control apparatus 17 may be able to adjust the attitude to the initial attitude or the set attitude. In this case, the posture automatic control device 17 includes means for performing motor control on the rotation and movement of the three axes of the coordinate system of the three-dimensional measurement device 11.

例えば、姿勢自動制御装置17に三次元計測装置11を搭載可能とする。姿勢自動制御装置17は、初期姿勢と姿勢計測装置12により計測された姿勢との角度のずれ量を算出する。姿勢自動制御装置17は、その角度のずれ量に応じて、所定の座標軸を回転させる回転量を制御することにより、三次元計測装置11の姿勢を初期姿勢に合わせる。   For example, the three-dimensional measuring device 11 can be mounted on the automatic posture control device 17. The posture automatic control device 17 calculates an angle shift amount between the initial posture and the posture measured by the posture measuring device 12. The posture automatic control device 17 adjusts the posture of the three-dimensional measurement device 11 to the initial posture by controlling the amount of rotation by which a predetermined coordinate axis is rotated in accordance with the angle deviation amount.

本実施形態では、三次元計測装置11の計測位置での初期姿勢を、グローバル座標系を基準とする姿勢と一致させることで、ステップS37で算出する座標変換行列Fは、(数5)に示すように簡単化できる。   In the present embodiment, the coordinate transformation matrix F calculated in step S37 by matching the initial posture at the measurement position of the three-dimensional measuring device 11 with the posture based on the global coordinate system is shown in (Expression 5). Can be simplified.

Figure 2014137244
Figure 2014137244

すなわち、三次元計測装置11の計測位置ごとの初期姿勢をグローバル座標系を基準とする姿勢に合わせて計測する場合に、座標変換部22が取得した点群データをグローバル座標系に座標変換するためには、並進ベクトルt=(f14,f24,f34)を算出するだけでよい。これにより、さらに高速に点群データ(計測データ)を三次元合成処理することができる。 That is, when the initial posture for each measurement position of the three-dimensional measuring device 11 is measured in accordance with the posture with the global coordinate system as a reference, the point cloud data acquired by the coordinate conversion unit 22 is converted into the global coordinate system. For this, it is only necessary to calculate the translation vector t = (f 14 , f 24 , f 34 ). Thereby, the point cloud data (measurement data) can be three-dimensionally synthesized at a higher speed.

以上説明したように、第3の実施形態によれば、三次元計測装置の姿勢を任意の初期姿勢に調整することができるため、例えば計測位置ごとにグローバル座標系を基準とする初期姿勢に合わせることができる。これにより、計測位置ごとの座標変換を簡単化でき、さらに高速に計測データを三次元合成処理することができる。   As described above, according to the third embodiment, since the attitude of the three-dimensional measurement apparatus can be adjusted to an arbitrary initial attitude, for example, each measurement position is adjusted to the initial attitude based on the global coordinate system. be able to. Thereby, coordinate conversion for each measurement position can be simplified, and measurement data can be three-dimensionally synthesized at higher speed.

[他の実施形態]
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。例えば、各実施形態の特徴を組み合わせてもよい。さらに、これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形には、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。また、前述した実施形態の適用例として、レーザ計測などによる非接触計測を用いた三次元合成処理システムを一例として示したが、超音波計測などのその他の接触/非接触計測を用いる場合にも、同様に適用できることはいうまでもない。
[Other Embodiments]
As mentioned above, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. For example, the features of the embodiments may be combined. Furthermore, these embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof as well as included in the scope and gist of the invention. In addition, as an application example of the above-described embodiment, a three-dimensional synthesis processing system using non-contact measurement by laser measurement or the like has been shown as an example, but also when other contact / non-contact measurement such as ultrasonic measurement is used. Needless to say, the same applies.

1a、1b、1c…三次元合成処理システム、2a、2b、2c…三次元合成処理装置、11…三次元計測装置、12…姿勢計測装置、13…位置計測装置、14…表示装置、15…入力装置、16…可視画像撮影装置、17…姿勢自動制御装置、21…計測状態取得部、22…座標変換部、23…座標変換行列補正部、24…データ記憶部、25…データ合成出力部、26…計測位置提示部、27…密度評価部、28…初期姿勢設定部、100…評価空間、101…ブロック、111…現在の計測位置、112…計測位置、120…対象ブロック、130…選択ブロック   1a, 1b, 1c ... 3D synthesis processing system, 2a, 2b, 2c ... 3D synthesis processing device, 11 ... 3D measurement device, 12 ... attitude measurement device, 13 ... position measurement device, 14 ... display device, 15 ... Input device 16 ... Visible image capturing device 17 ... Automatic posture control device 21 ... Measurement state acquisition unit 22 ... Coordinate conversion unit 23 ... Coordinate transformation matrix correction unit 24 ... Data storage unit 25 ... Data composition output unit , 26 ... measurement position presenting section, 27 ... density evaluation section, 28 ... initial posture setting section, 100 ... evaluation space, 101 ... block, 111 ... current measurement position, 112 ... measurement position, 120 ... target block, 130 ... selection block

Claims (12)

計測対象の構造物の計測を行って当該構造物を三次元に観察可能に表示する三次元合成処理システムであって、
複数の計測位置で前記構造物の表面の位置および形状を計測して複数の計測データを取得する三次元計測装置と、
前記三次元計測装置の姿勢を計測する姿勢計測装置と、
前記三次元計測装置が計測を実行する第1の計測位置と前記第1の計測位置と異なる前記三次元計測装置が計測を実行する第2の計測位置との間の距離、および、前記第2の計測位置から前記第1の計測位置への方向を計測する位置計測装置と、
前記複数の計測データに基づいて前記構造物について三次元合成処理する三次元合成処理装置と、
前記構造物について三次元合成処理した結果を表示する表示装置と、を備え、
前記三次元合成処理装置は、
前記姿勢計測装置により計測された前記姿勢に基づいて姿勢計測情報を生成し、前記位置計測装置により計測された前記距離および前記方向に基づいて位置計測情報を生成する計測状態取得部と、
前記複数の計測位置と、前記複数の計測データと、前記姿勢計測情報と、前記位置計測情報とを記憶するデータ記憶部と、
いずれかの位置を基準とする座標系を同一座標系とし、前記姿勢計測情報および前記位置計測情報に基づいて前記複数の計測位置の各々を基準とする座標系を前記同一座標系に変換する座標変換を用いて、前記複数の計測データを前記同一座標系を基準とする座標に変換する座標変換部と、
前記構造物について前記三次元合成処理した結果として、前記座標変換部により前記同一座標系に変換された前記複数の計測データの座標を前記同一座標系に配置して前記表示装置に出力するデータ合成出力部と、を有する
ことを特徴とする三次元合成処理システム。
A three-dimensional synthesis processing system that measures a structure to be measured and displays the structure in a three-dimensional observable manner,
A three-dimensional measurement device that measures the position and shape of the surface of the structure at a plurality of measurement positions to obtain a plurality of measurement data; and
A posture measuring device for measuring the posture of the three-dimensional measuring device;
A distance between a first measurement position at which the three-dimensional measurement apparatus performs measurement and a second measurement position at which the three-dimensional measurement apparatus different from the first measurement position performs measurement; and the second A position measurement device for measuring a direction from the measurement position to the first measurement position;
A three-dimensional synthesis processing device that performs a three-dimensional synthesis process on the structure based on the plurality of measurement data;
A display device for displaying the result of the three-dimensional synthesis process for the structure,
The three-dimensional synthesis processing device
A measurement state acquisition unit that generates posture measurement information based on the posture measured by the posture measurement device, and generates position measurement information based on the distance and the direction measured by the position measurement device;
A data storage unit that stores the plurality of measurement positions, the plurality of measurement data, the posture measurement information, and the position measurement information;
Coordinates that use the coordinate system based on any position as the same coordinate system and convert the coordinate system based on each of the plurality of measurement positions to the same coordinate system based on the posture measurement information and the position measurement information A coordinate conversion unit that converts the plurality of measurement data into coordinates based on the same coordinate system using conversion;
As a result of the three-dimensional synthesis process for the structure, data synthesis is performed by arranging the coordinates of the plurality of measurement data converted into the same coordinate system by the coordinate conversion unit and outputting the coordinates to the display device. And a three-dimensional composition processing system.
前記計測状態取得部は、前記複数の計測位置と、前記複数の計測データと、前記姿勢計測情報と、前記位置計測情報とを関連付けて前記データ記憶部に格納する
ことを特徴とする請求項1に記載の三次元合成処理システム。
The measurement state acquisition unit stores the plurality of measurement positions, the plurality of measurement data, the posture measurement information, and the position measurement information in association with each other in the data storage unit. 3D synthesis processing system described in 1.
前記姿勢計測装置は、三次元磁気センサを有し、前記三次元磁気センサにより計測される前記方向に基づいて前記三次元計測装置の前記姿勢を計測する
ことを特徴とする請求項2に記載の三次元合成処理システム。
The posture measurement apparatus includes a three-dimensional magnetic sensor, and measures the posture of the three-dimensional measurement apparatus based on the direction measured by the three-dimensional magnetic sensor. 3D synthesis processing system.
前記姿勢計測装置は、ジャイロセンサを有し、前記ジャイロセンサにより計測される角加速度に基づいて前記三次元計測装置の前記姿勢を計測する
ことを特徴とする請求項2に記載の三次元合成処理システム。
The three-dimensional synthesis process according to claim 2, wherein the posture measuring device includes a gyro sensor, and measures the posture of the three-dimensional measuring device based on angular acceleration measured by the gyro sensor. system.
前記位置計測装置は、GPSセンサを有し、前記三次元計測装置と一体となるように据え付けられ、前記GPSセンサを用いて前記第1の計測位置と前記第2の計測位置との間の前記距離および前記方向を計測する
ことを特徴とする請求項2ないし請求項4のいずれか一項に記載の三次元合成処理システム。
The position measuring device includes a GPS sensor, is installed so as to be integrated with the three-dimensional measuring device, and uses the GPS sensor between the first measurement position and the second measurement position. The distance and the direction are measured. The three-dimensional composition processing system according to any one of claims 2 to 4 characterized by things.
前記位置計測装置は、レーザ距離計を有し、前記レーザ距離計を用いて前記第1の計測位置と前記第2の計測位置との間の前記距離および前記方向を計測する
ことを特徴とする請求項2ないし請求項4のいずれか一項に記載の三次元合成処理システム。
The position measuring device includes a laser distance meter, and measures the distance and the direction between the first measurement position and the second measurement position using the laser distance meter. The three-dimensional synthesis processing system according to any one of claims 2 to 4.
前記三次元合成処理装置は、
前記表示装置に表示されている画面上において前記三次元計測装置を設置する位置に目印を表示し、当該表示された目印の位置を前記三次元計測装置の前記第2の計測位置として提示する計測位置提示部をさらに有する
ことを特徴とする請求項1ないし請求項6のいずれか一項に記載の三次元合成処理システム。
The three-dimensional synthesis processing device
Measurement that displays a mark at a position where the three-dimensional measurement device is installed on a screen displayed on the display device, and presents the position of the displayed mark as the second measurement position of the three-dimensional measurement device The three-dimensional composition processing system according to claim 1, further comprising a position presentation unit.
前記三次元合成処理装置は、
前記同一座標系に前記複数の計測データが座標変換されて配置された有限の評価空間を設定し、当該評価空間について所定の単位の複数のブロックに分割して前記計測データの密度評価を行う密度評価部をさらに有し、
前記計測位置提示部は、前記計測データの前記密度評価に基づいて、前記計測データの密度が所定の閾値よりも低い前記ブロックを抽出し、当該抽出した前記ブロックの範囲にある座標を、前記三次元計測装置を設置すべき位置である提示計測位置として提示する
ことを特徴とする請求項7に記載の三次元合成処理システム。
The three-dimensional synthesis processing device
A density for setting a finite evaluation space in which the plurality of measurement data is coordinate-transformed and arranged in the same coordinate system, and dividing the evaluation space into a plurality of blocks of a predetermined unit and performing density evaluation of the measurement data It further has an evaluation part,
The measurement position presentation unit extracts the block whose density of the measurement data is lower than a predetermined threshold based on the density evaluation of the measurement data, and coordinates in the range of the extracted block as the tertiary The three-dimensional synthesis processing system according to claim 7, wherein the three-dimensional composition processing system is presented as a presentation measurement position which is a position where the original measurement device should be installed.
前記三次元計測装置が設置される位置を撮影する可視画像撮影装置をさらに備え、
前記計測位置提示部は、前記可視画像撮影装置により撮影された画像を用いて、前記画像上において前記三次元計測装置を設置する前記第2の計測位置に前記目印を表示して、前記画像上に前記第2の計測位置を提示する
ことを特徴とする請求項7または請求項8に記載の三次元合成処理システム。
Further comprising a visible image capturing device for capturing a position where the three-dimensional measuring device is installed;
The measurement position presentation unit displays the mark at the second measurement position where the three-dimensional measurement device is installed on the image, using the image captured by the visible image capturing device, The three-dimensional synthesis processing system according to claim 7 or 8, wherein the second measurement position is presented to the display.
前記三次元合成処理装置は、
前記三次元計測装置の初期姿勢を設定する初期姿勢設定部をさらに有し、
前記計測状態取得部は、前記姿勢計測装置により計測された前記三次元計測装置の前記姿勢が前記初期姿勢設定部により設定された前記初期姿勢と一致した場合に、前記表示装置に一致した旨を表示させる
ことを特徴とする請求項1ないし請求項9のいずれか一項に記載の三次元合成処理システム。
The three-dimensional synthesis processing device
An initial posture setting unit for setting an initial posture of the three-dimensional measuring apparatus;
The measurement state acquisition unit indicates that it matches the display device when the posture of the three-dimensional measurement device measured by the posture measurement device matches the initial posture set by the initial posture setting unit. The three-dimensional composition processing system according to any one of claims 1 to 9, wherein the three-dimensional composition processing system is displayed.
前記姿勢計測装置により計測された前記三次元計測装置の前記姿勢と前記初期姿勢設定部により設定された前記初期姿勢とが一致するように前記三次元計測装置の前記姿勢を調整する姿勢自動制御装置をさらに備える
ことを特徴とする請求項10に記載の三次元合成処理システム。
A posture automatic control device that adjusts the posture of the three-dimensional measurement device so that the posture of the three-dimensional measurement device measured by the posture measurement device matches the initial posture set by the initial posture setting unit. The three-dimensional synthesis processing system according to claim 10, further comprising:
複数の計測位置で計測対象の構造物の表面の位置および形状を計測して複数の計測データを取得する三次元計測装置と、前記三次元計測装置の姿勢を計測する姿勢計測装置と、異なる前記計測位置での距離および方向を計測する位置計測装置と、前記複数の計測データに基づいて前記構造物について三次元合成処理する三次元合成処理装置と、前記構造物について三次元合成処理した結果を表示する表示装置とを備え、前記構造物の計測を行って前記構造物を三次元に観察可能に表示する三次元合成処理システムに用いられる三次元合成処理方法であって、
前記三次元合成処理装置が、前記姿勢計測装置により計測された前記姿勢に基づいて姿勢計測情報を生成し、前記位置計測装置により計測された前記距離および前記方向に基づいて位置計測情報を生成する計測状態取得ステップと、
前記三次元合成処理装置が、前記複数の計測位置と、前記複数の計測データと、前記姿勢計測情報と、前記位置計測情報とを記憶するデータ記憶ステップと、
前記三次元合成処理装置が、いずれかの位置を基準とする座標系を同一座標系とし、前記姿勢計測情報および前記位置計測情報に基づいて前記複数の計測位置の各々を基準とする座標系を前記同一座標系に変換する座標変換を用いて、前記複数の計測データを前記同一座標系を基準とする座標に変換する座標変換ステップと、
前記三次元合成処理装置が、前記構造物について前記三次元合成処理した結果として、前記座標変換ステップにより座標変換された前記複数の計測データを前記同一座標系に配置して前記表示装置に出力するデータ合成出力ステップと、を含む
ことを特徴とする三次元合成処理方法。
The three-dimensional measurement device that measures the position and shape of the surface of the structure to be measured at a plurality of measurement positions to acquire a plurality of measurement data, and the posture measurement device that measures the posture of the three-dimensional measurement device are different from the above A position measurement device that measures the distance and direction at the measurement position, a three-dimensional synthesis processing device that performs a three-dimensional synthesis process on the structure based on the plurality of measurement data, and a result obtained by performing the three-dimensional synthesis process on the structure. A three-dimensional synthesis processing method for use in a three-dimensional synthesis processing system comprising a display device for displaying, displaying the structure in a three-dimensionally observable manner by measuring the structure,
The three-dimensional synthesis processing device generates posture measurement information based on the posture measured by the posture measurement device, and generates position measurement information based on the distance and the direction measured by the position measurement device. A measurement state acquisition step;
A data storage step in which the three-dimensional synthesis processing device stores the plurality of measurement positions, the plurality of measurement data, the posture measurement information, and the position measurement information;
The three-dimensional synthesis processing apparatus uses a coordinate system based on any position as the same coordinate system, and a coordinate system based on each of the plurality of measurement positions based on the posture measurement information and the position measurement information. A coordinate conversion step of converting the plurality of measurement data into coordinates based on the same coordinate system, using coordinate conversion for converting to the same coordinate system;
As a result of the three-dimensional synthesis processing performed on the structure by the three-dimensional synthesis processing device, the plurality of measurement data coordinate-transformed by the coordinate transformation step are arranged in the same coordinate system and output to the display device A three-dimensional composition processing method comprising: a data composition output step.
JP2013004860A 2013-01-15 2013-01-15 3D synthesis processing system and 3D synthesis processing method Active JP6192938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013004860A JP6192938B2 (en) 2013-01-15 2013-01-15 3D synthesis processing system and 3D synthesis processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013004860A JP6192938B2 (en) 2013-01-15 2013-01-15 3D synthesis processing system and 3D synthesis processing method

Publications (2)

Publication Number Publication Date
JP2014137244A true JP2014137244A (en) 2014-07-28
JP6192938B2 JP6192938B2 (en) 2017-09-06

Family

ID=51414840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013004860A Active JP6192938B2 (en) 2013-01-15 2013-01-15 3D synthesis processing system and 3D synthesis processing method

Country Status (1)

Country Link
JP (1) JP6192938B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101513500B1 (en) * 2014-09-29 2015-04-21 한국지질자원연구원 System and method of three dimensional subsurface modeling
WO2018062240A1 (en) * 2016-09-28 2018-04-05 株式会社デンソー Inspection device
JP2018055246A (en) * 2016-09-27 2018-04-05 株式会社トプコン Image processing device, image processing method and image processing program
US20190285397A1 (en) * 2018-03-14 2019-09-19 Ricoh Company, Ltd. Measuring apparatus, measuring system, measuring method, and recording medium storing program code
JP2019164109A (en) * 2018-03-14 2019-09-26 株式会社リコー Measuring device, measuring system, measuring method, and program
KR20190139522A (en) * 2018-06-08 2019-12-18 포항공과대학교 산학협력단 Method and Underwater Robot for Reconstruction of Three-Dimensional Shape of Underwater Object using Sonar Image Data
JP2020060553A (en) * 2018-10-12 2020-04-16 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Automatic lidar calibration based on pre-collected static reflection map for autonomous driving
JPWO2021019616A1 (en) * 2019-07-26 2021-02-04
JP2021021678A (en) * 2019-07-30 2021-02-18 株式会社トプコン Surveying device, surveying method, and program for survey
WO2021157446A1 (en) * 2020-02-05 2021-08-12 リンクウィズ株式会社 Shape detection method, shape detection system, and program
JP2021125194A (en) * 2020-04-27 2021-08-30 リンクウィズ株式会社 Shape detection method, shape detection system, and program
JP2021125193A (en) * 2020-04-27 2021-08-30 リンクウィズ株式会社 Shape detection method, shape detection system, and program
JP2021125192A (en) * 2020-04-27 2021-08-30 リンクウィズ株式会社 Shape detection method, shape detection system, and program
CN113432561A (en) * 2021-08-02 2021-09-24 杭州思看科技有限公司 Data processing method and three-dimensional scanning system
JP7409517B2 (en) 2020-09-15 2024-01-09 日本電信電話株式会社 Apparatus, method and program for converting coordinates of 3D point cloud

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4315826A1 (en) 2021-03-23 2024-02-07 Ricoh Company, Ltd. Information processing apparatus and information processing method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232130A (en) * 1997-02-20 1998-09-02 Hazama Gumi Ltd Survey point management device
JP2000346634A (en) * 1999-06-09 2000-12-15 Minolta Co Ltd Three-dimensionally inputting device
JP2001119721A (en) * 1999-10-18 2001-04-27 Asahi Optical Co Ltd Three-dimensional image detector
JP2002501349A (en) * 1998-01-06 2002-01-15 インテル・コーポレーション Method for determining relative camera orientation to create a 3-D visual image
US20050021285A1 (en) * 2003-06-17 2005-01-27 Troxler Electronic Laboratories, Inc. Method of determining a dimension of a sample of a construction material and associated apparatus
JP2005180925A (en) * 2003-12-16 2005-07-07 Soatec Inc Laser measurement system
JP2007212264A (en) * 2006-02-09 2007-08-23 Taisei Corp Scanning method of three-dimensional laser scanner
JP2011519419A (en) * 2008-04-18 2011-07-07 スリーディー スキャナーズ リミテッド Method and computer program for improving object dimension acquisition
JP2012013660A (en) * 2010-07-05 2012-01-19 Topcon Corp Point group data processing device, point group data processing system, point group data processing method, and point group data processing program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232130A (en) * 1997-02-20 1998-09-02 Hazama Gumi Ltd Survey point management device
JP2002501349A (en) * 1998-01-06 2002-01-15 インテル・コーポレーション Method for determining relative camera orientation to create a 3-D visual image
JP2000346634A (en) * 1999-06-09 2000-12-15 Minolta Co Ltd Three-dimensionally inputting device
JP2001119721A (en) * 1999-10-18 2001-04-27 Asahi Optical Co Ltd Three-dimensional image detector
US20050021285A1 (en) * 2003-06-17 2005-01-27 Troxler Electronic Laboratories, Inc. Method of determining a dimension of a sample of a construction material and associated apparatus
JP2005180925A (en) * 2003-12-16 2005-07-07 Soatec Inc Laser measurement system
JP2007212264A (en) * 2006-02-09 2007-08-23 Taisei Corp Scanning method of three-dimensional laser scanner
JP2011519419A (en) * 2008-04-18 2011-07-07 スリーディー スキャナーズ リミテッド Method and computer program for improving object dimension acquisition
JP2012013660A (en) * 2010-07-05 2012-01-19 Topcon Corp Point group data processing device, point group data processing system, point group data processing method, and point group data processing program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101513500B1 (en) * 2014-09-29 2015-04-21 한국지질자원연구원 System and method of three dimensional subsurface modeling
JP2018055246A (en) * 2016-09-27 2018-04-05 株式会社トプコン Image processing device, image processing method and image processing program
WO2018062240A1 (en) * 2016-09-28 2018-04-05 株式会社デンソー Inspection device
JP2018054436A (en) * 2016-09-28 2018-04-05 株式会社デンソー Inspection device
US20190285397A1 (en) * 2018-03-14 2019-09-19 Ricoh Company, Ltd. Measuring apparatus, measuring system, measuring method, and recording medium storing program code
JP2019164109A (en) * 2018-03-14 2019-09-26 株式会社リコー Measuring device, measuring system, measuring method, and program
KR20190139522A (en) * 2018-06-08 2019-12-18 포항공과대학교 산학협력단 Method and Underwater Robot for Reconstruction of Three-Dimensional Shape of Underwater Object using Sonar Image Data
KR102074182B1 (en) * 2018-06-08 2020-02-06 포항공과대학교 산학협력단 Method and Underwater Robot for Reconstruction of Three-Dimensional Shape of Underwater Object using Sonar Image Data
JP2020060553A (en) * 2018-10-12 2020-04-16 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Automatic lidar calibration based on pre-collected static reflection map for autonomous driving
US11841437B2 (en) 2018-10-12 2023-12-12 Baidu Usa Llc Automatic lidar calibration based on pre-collected static reflection map for autonomous driving
JP7197016B2 (en) 2019-07-26 2022-12-27 日本電気株式会社 Inspection device, measurement method and program
WO2021019616A1 (en) * 2019-07-26 2021-02-04 日本電気株式会社 Inspection device, measurement method, and computer-readable medium
JPWO2021019616A1 (en) * 2019-07-26 2021-02-04
JP2021021678A (en) * 2019-07-30 2021-02-18 株式会社トプコン Surveying device, surveying method, and program for survey
US11725938B2 (en) 2019-07-30 2023-08-15 Topcon Corporation Surveying apparatus, surveying method, and surveying program
JP7313955B2 (en) 2019-07-30 2023-07-25 株式会社トプコン Surveying instrument, surveying method and surveying program
WO2021157446A1 (en) * 2020-02-05 2021-08-12 リンクウィズ株式会社 Shape detection method, shape detection system, and program
JP2021124400A (en) * 2020-02-05 2021-08-30 リンクウィズ株式会社 Shape detection method, shape detection system, and program
JP2021125193A (en) * 2020-04-27 2021-08-30 リンクウィズ株式会社 Shape detection method, shape detection system, and program
JP2021125192A (en) * 2020-04-27 2021-08-30 リンクウィズ株式会社 Shape detection method, shape detection system, and program
JP2021125194A (en) * 2020-04-27 2021-08-30 リンクウィズ株式会社 Shape detection method, shape detection system, and program
JP7409517B2 (en) 2020-09-15 2024-01-09 日本電信電話株式会社 Apparatus, method and program for converting coordinates of 3D point cloud
CN113432561A (en) * 2021-08-02 2021-09-24 杭州思看科技有限公司 Data processing method and three-dimensional scanning system
CN113432561B (en) * 2021-08-02 2023-10-13 思看科技(杭州)股份有限公司 Data processing method and three-dimensional scanning system

Also Published As

Publication number Publication date
JP6192938B2 (en) 2017-09-06

Similar Documents

Publication Publication Date Title
JP6192938B2 (en) 3D synthesis processing system and 3D synthesis processing method
US10509983B2 (en) Operating device, operating system, operating method, and program therefor
EP3086283B1 (en) Providing a point cloud using a surveying instrument and a camera device
JP4757142B2 (en) Imaging environment calibration method and information processing apparatus
CN107402000A (en) For the system and method relative to measuring instrument with reference to display device
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
JP2017528727A (en) Augmented reality camera used in combination with a 3D meter to generate a 3D image from a 2D camera image
JP2015087307A (en) Three-dimensional measurement system and survey system
JP2006520891A (en) Method and apparatus for image processing in surveying instrument
JP2005215917A (en) Working drawing creation support method and replacement model creation method
KR101011813B1 (en) Installaion for displaying overlap line of adjoined digital aerial photograph
JP7300948B2 (en) Survey data processing device, survey data processing method, program for survey data processing
KR101252680B1 (en) Drawing system of an aerial photograph
JP5311465B2 (en) Stereo matching processing system, stereo matching processing method, and program
Scherer et al. From the conventional total station to the prospective image assisted photogrammetric scanning total station: Comprehensive review
KR101273416B1 (en) Precision digital map making system through the synthesis of geographic information and coordinate information
JP4852006B2 (en) Spatial information database generation device and spatial information database generation program
KR100757751B1 (en) Apparatus and method for creating a circumstance map of an indoor circumstance
JP7403273B2 (en) Image processing device and image processing method
JP4677613B2 (en) 3D shape measurement system
JP6163391B2 (en) Underwater moving object position detection device
JP2013124954A (en) Method and system for measuring shape of civil engineering structure
JP4319476B2 (en) Surveying system
JP7274782B1 (en) STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING
JP2021064264A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170809

R151 Written notification of patent or utility model registration

Ref document number: 6192938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151