JP6080640B2 - 3D point cloud analysis method - Google Patents

3D point cloud analysis method Download PDF

Info

Publication number
JP6080640B2
JP6080640B2 JP2013061211A JP2013061211A JP6080640B2 JP 6080640 B2 JP6080640 B2 JP 6080640B2 JP 2013061211 A JP2013061211 A JP 2013061211A JP 2013061211 A JP2013061211 A JP 2013061211A JP 6080640 B2 JP6080640 B2 JP 6080640B2
Authority
JP
Japan
Prior art keywords
dimensional
point group
point cloud
feature
dimensional point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013061211A
Other languages
Japanese (ja)
Other versions
JP2014186565A (en
Inventor
岸川 喜代成
喜代成 岸川
耕平 藤
耕平 藤
佐藤 恭史
恭史 佐藤
池上 達也
達也 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEO Technical Laboratory Co Ltd
Original Assignee
GEO Technical Laboratory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEO Technical Laboratory Co Ltd filed Critical GEO Technical Laboratory Co Ltd
Priority to JP2013061211A priority Critical patent/JP6080640B2/en
Publication of JP2014186565A publication Critical patent/JP2014186565A/en
Application granted granted Critical
Publication of JP6080640B2 publication Critical patent/JP6080640B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、複数の地物等の形状を表した3次元点群を解析する3次元点群解析方法に関する。   The present invention relates to a three-dimensional point cloud analysis method for analyzing a three-dimensional point cloud representing the shape of a plurality of features or the like.

地物の形状を3次元的に表した3次元地図においては、地物の3次元モデルを精度良く、かつ低い処理負荷で生成することが求められる。このような技術の一つとして、3次元復元の利用が検討されている。
3次元復元処理とは、複数の地点から撮影した複数の画像間の特徴点の対応関係に基づいて、撮影された地物の3次元点群を得る処理である。3次元復元を利用すれば、処理の対象範囲内の画像を航空機等から複数撮影し、この画像を解析することで、対象範囲を表す3次元の点群を得ることができる。かかる点群が得られれば、それを解析することによって3次元モデルを生成することも可能となる。画像間の特徴点の対応関係を判断するための技術として、SIFT(Scale-Invariant Feature Transform)などが利用される。
In a three-dimensional map that three-dimensionally represents the shape of a feature, it is required to generate a three-dimensional model of the feature with high accuracy and a low processing load. As one of such techniques, use of three-dimensional restoration is being studied.
The three-dimensional restoration process is a process for obtaining a three-dimensional point group of photographed features based on the correspondence relationship between feature points between a plurality of images photographed from a plurality of points. If three-dimensional reconstruction is used, a plurality of images within the processing target range are taken from an aircraft or the like, and a three-dimensional point group representing the target range can be obtained by analyzing the images. If such a point cloud is obtained, it is possible to generate a three-dimensional model by analyzing it. SIFT (Scale-Invariant Feature Transform) or the like is used as a technique for determining the correspondence between feature points between images.

3次元モデルを生成するためには、3次元点群の座標系を地球座標系に対応づける必要がある。
特許文献1は、3次元点群のうち、高さの低い点群に基づいて水平面を定義し、さらに水平方向に近い点群に基づいて垂直面を定義する技術を開示する。
特許文献2は、3次元点群を解析して得られる面のうち、最大面積のものを床面とみなすことで、水平面および垂直面を定義する技術を開示する。
In order to generate a three-dimensional model, it is necessary to associate the coordinate system of the three-dimensional point group with the earth coordinate system.
Patent Document 1 discloses a technique of defining a horizontal plane based on a point group having a low height among three-dimensional point groups and further defining a vertical plane based on a point group close to the horizontal direction.
Patent Document 2 discloses a technique for defining a horizontal plane and a vertical plane by regarding a plane obtained by analyzing a three-dimensional point group as having a maximum area as a floor plane.

特開2003−256871号公報Japanese Patent Laid-Open No. 2003-256871 特開2007−271408号公報JP 2007-271408 A

3次元点群において各点に付与された3次元座標は、地球座標系で得られているとは限らず、画像から点群の位置を解析するための解析用の3次元空間における位置座標が得られているに過ぎないことがある。その他の3次元点群においても、点の位置座標は、点群を得るための計測方法等に依存した座標系で与えられるため、地球座標系での位置座標は特定できない場合がある。3次元点群を解析して、3次元モデルを生成する場合には、それぞれの地物の位置および形状を地球座標系で表す必要があり、その基礎となる座標軸として重力方向を特定する必要がある。本発明は、かかる課題に基づき、3次元点群を解析して、3次元点群が属する座標系における重力方向を特定する技術を提供することを目的とする。   The three-dimensional coordinates given to each point in the three-dimensional point group are not necessarily obtained in the earth coordinate system, and the position coordinates in the three-dimensional space for analysis for analyzing the position of the point group from the image are It may only have been obtained. Even in other three-dimensional point groups, the position coordinates of the points are given in a coordinate system depending on the measurement method for obtaining the point group, and therefore, the position coordinates in the earth coordinate system may not be specified. When generating a three-dimensional model by analyzing a three-dimensional point cloud, it is necessary to represent the position and shape of each feature in the earth coordinate system, and it is necessary to specify the direction of gravity as the coordinate axis that serves as the basis. is there. An object of this invention is to provide the technique which identifies a gravity direction in the coordinate system to which a three-dimensional point group belongs based on this subject and analyzing a three-dimensional point group.

本発明は、
複数の地物の外形を表す複数の点からなる3次元点群をコンピュータによって解析する3次元点群解析方法であって、
前記3次元点群を構成する3次元点群データは、前記地物の外形を表す複数の点に対し、点ごとに解析用に設定された3次元座標空間における位置座標が格納されており、
前記3次元点群解析方法は、前記コンピュータが実行するステップとして、
(a) 前記3次元点群データを読み込むステップと、
(b) 前記3次元点群データから、前記地物の側面を表す点の集合である側面点群を特定するステップと、
(c) 前記側面点群に基づいて、前記地物の各側面の法線ベクトルを求めるステップと、
(d) 前記法線ベクトルから選択した2つの法線ベクトルの外積を、複数組の選択について求め、得られた複数の外積の統計的処理に基づいて、前記3次元座標空間における重力方向を決定するステップとを備える
3次元点群解析方法として構成することができる。
ここで、本発明で扱う3次元点群は、例えばSIFTおよびSfM(Structure from Motion)を利用した技術、レーザー計測など種々の方法で得られたものを対象とすることができる。
The present invention
A three-dimensional point cloud analysis method for analyzing a three-dimensional point cloud composed of a plurality of points representing the outer shape of a plurality of features by a computer,
The three-dimensional point group data constituting the three-dimensional point group stores position coordinates in a three-dimensional coordinate space set for analysis for each point for a plurality of points representing the outer shape of the feature,
In the three-dimensional point cloud analysis method, the computer executes the following steps:
(A) reading the three-dimensional point cloud data;
(B) identifying a side point group that is a set of points representing the side surface of the feature from the three-dimensional point group data;
(C) obtaining a normal vector of each side of the feature based on the side point group;
(D) Obtaining an outer product of two normal vectors selected from the normal vectors for selection of a plurality of sets, and determining a direction of gravity in the three-dimensional coordinate space based on statistical processing of the obtained plural outer products. A three-dimensional point cloud analysis method.
Here, the three-dimensional point group dealt with in the present invention can be a target obtained by various methods such as a technique using SIFT and SfM (Structure from Motion), laser measurement, and the like.

本発明で扱う3次元点群は、複数の地物を表すものである。地物によって側面の形状も多様であり、また地物によって得られている3次元点群の座標の精度にもばらつきがある。かかる状態で、いずれかの局所的な解析によって重力方向を求めたのでは、十分な精度を確保することができない。本発明によれば、複数の地物の側面を利用し、かつ統計的な処理を施すため、こうしたばらつき等による誤差を抑制でき、精度良く重力方向を求めることができる。   The three-dimensional point group handled in the present invention represents a plurality of features. The shape of the side surface varies depending on the feature, and the accuracy of the coordinates of the three-dimensional point group obtained by the feature varies. In such a state, if the direction of gravity is determined by any local analysis, sufficient accuracy cannot be ensured. According to the present invention, since side surfaces of a plurality of features are used and statistical processing is performed, errors due to such variations can be suppressed, and the direction of gravity can be obtained with high accuracy.

本発明において、
前記3次元点群は、前記地物の高さ方向の分布が、前記複数の地物の配置による水平方向の分布に比較して十分小さくなる領域について得られているとともに、各点について前記位置座標とともに該点が存在すると推測される面の法線ベクトルが格納されており、
前記3次元点群解析方法は、前記コンピュータが実行するステップとして、
(e) 前記3次元点群の主成分分析によって得られる第3主成分の方向を、仮の重力方向と設定するステップを有し、
前記ステップ(b)は、前記各点の法線ベクトルが前記仮の重力方向に沿っている点群を除くことにより、前記側面点群を特定するものとしてもよい。
各点について法線ベクトルが得られる3次元点群の取得方法としては、SIFTおよびSfM(Structure from Motion)を利用した技術などが挙げられる。
In the present invention,
The three-dimensional point group is obtained for a region in which the distribution in the height direction of the feature is sufficiently smaller than the distribution in the horizontal direction due to the arrangement of the plurality of features, and the position for each point. Stores the normal vector of the surface where the point is assumed to exist along with the coordinates,
In the three-dimensional point cloud analysis method, the computer executes the following steps:
(E) setting a direction of a third principal component obtained by principal component analysis of the three-dimensional point group as a temporary gravity direction;
In the step (b), the side surface point group may be specified by excluding the point group in which the normal vector of each point is along the temporary gravity direction.
As a method for acquiring a three-dimensional point group from which a normal vector is obtained for each point, a technique using SIFT and SfM (Structure from Motion) can be cited.

上記態様によれば、主成分分析によって仮の重力方向を設定することができる。主成分分析とは、点群の分布を解析し、最も分散が大きい方向から順に、第1主成分、第2主成分、第3主成分を得る解析方法である。第1主成分、第2主成分、第3主成分はそれぞれ直交成分となる。かかる方法によれば、3次元点群全体を用いて重力方向を算出するため、各点に含まれる誤差の影響を抑制し、算出精度を向上させることができる。
上記態様で用いる3次元点群における高さ方向の分布は、水平方向の分布に比較して十分小さい。このことは、主成分分析をした場合、第1主成分、第2主成分が高さ方向とは異なり水平方向に現れることを意味する。従って、主成分分析の第3主成分を採用すれば、3次元点群の重力方向を定めることができるのである。もっとも、こうして得られる重力方向には、誤差が含まれているから、仮の重力方向を表すものとなる。
高さ方向、水平方向の分布が、上述した条件を満たす3次元点群の取得は、比較的容易である。地物の高さは、たかだか数百メートル程度までの範囲に過ぎないから、その数倍程度の半径の領域で3次元点群を得ることにより、上述した条件は自然と満たされることとなる。
According to the above aspect, the provisional gravity direction can be set by principal component analysis. Principal component analysis is an analysis method that analyzes the distribution of point groups and obtains the first principal component, the second principal component, and the third principal component in order from the direction of the largest variance. The first main component, the second main component, and the third main component are orthogonal components. According to this method, since the gravitational direction is calculated using the entire three-dimensional point group, the influence of errors included in each point can be suppressed and the calculation accuracy can be improved.
The distribution in the height direction in the three-dimensional point group used in the above aspect is sufficiently smaller than the distribution in the horizontal direction. This means that when the principal component analysis is performed, the first principal component and the second principal component appear in the horizontal direction, unlike the height direction. Therefore, if the third principal component of the principal component analysis is adopted, the gravity direction of the three-dimensional point group can be determined. However, since the gravitational direction obtained in this way includes an error, it represents the provisional gravitational direction.
It is relatively easy to acquire a three-dimensional point group whose distribution in the height direction and the horizontal direction satisfies the above-described conditions. Since the height of the feature is only a range up to about several hundreds of meters, the above-mentioned condition is naturally satisfied by obtaining a three-dimensional point group in a region having a radius of several times the feature height.

このように仮の重力方向が定まれば、重力方向に沿っている点群を除くことによって、精度良く側面点群を特定することが可能となる。
本発明における側面点群の特定は、必ずしも仮の重力方向を用いる方法に限られない。例えば、3次元点群を構成する各点を、法線ベクトルの方向によって分類し、それぞれの法線ベクトル方向に投影する場合を考える。上方向の法線ベクトルを有する点は、地物の上面または地表面であるから、これを投影すれば、3次元点群が得られている領域をほぼカバーすることができるはずである。従って、点の法線ベクトル方向にそれぞれ投影したときに、投影結果において、空隙が少なくなる方向を上面または地表面と特定し、これに相当する点群を除外することによっても側面点群を特定することができる。
If the provisional gravity direction is determined in this way, the side surface point group can be accurately identified by excluding the point group along the gravity direction.
The specification of the side point group in the present invention is not necessarily limited to the method using the temporary gravity direction. For example, consider a case where each point constituting a three-dimensional point group is classified according to the direction of the normal vector and projected in the direction of the normal vector. Since the point having the normal vector in the upward direction is the upper surface or the ground surface of the feature, if this is projected, it should be possible to almost cover the region where the three-dimensional point group is obtained. Therefore, when projecting in the normal vector direction of each point, specify the side point group by specifying the direction in which the void is reduced as the top surface or the ground surface and excluding the corresponding point group in the projection result. can do.

本発明において、
前記ステップ(c)、即ち地物の各側面の法線ベクトルを求めるステップは、前記側面点群を各地物の各側面に分離するとともに、該側面ごとに主成分分析を行って得られる第3主成分を前記地物の各側面の法線ベクトルとするものとしてもよい。
地物の側面を構成する点群は、側面に沿って分布しているため、主成分分析を行えば、第1主成分、第2主成分が側面に沿う方向に現れ、第3主成分は、これらに直交する方向、即ち側面の法線方向となる。かかる方法によって各側面の法線ベクトルを求めるものとすれば、各点に含まれる誤差の影響を抑制し、精度を向上させることができる。
本発明において側面の法線ベクトルは、この他の方法によって求めることも可能である。例えば、側面点群を構成する各点の法線ベクトルの平均等によって求めても良い。また、側面点群に基づいて、最小誤差二乗法などによって、これらの点群の中央を通過する平面を求め、この平面の法線ベクトルを求める方法によってもよい。
In the present invention,
The step (c), that is, the step of obtaining the normal vector of each side of the feature is obtained by separating the side point group into each side of each feature and performing principal component analysis for each side. The principal component may be a normal vector of each side of the feature.
Since the point cloud constituting the side surface of the feature is distributed along the side surface, if the principal component analysis is performed, the first principal component and the second principal component appear in the direction along the side surface, and the third principal component is , The direction perpendicular to these directions, that is, the normal direction of the side surface. If the normal vector of each side surface is obtained by such a method, the influence of errors included in each point can be suppressed and the accuracy can be improved.
In the present invention, the normal vector of the side surface can be obtained by other methods. For example, you may obtain | require by the average of the normal vector of each point which comprises a side surface point group, etc. Further, a method may be used in which a plane passing through the center of these point groups is obtained on the basis of the side point group by the least error square method and the normal vector of this plane is obtained.

上述のように主成分分析によって側面の法線ベクトルを求める態様においては、さらに、
前記ステップ(d)、即ち統計的処理によって重力方向を決定するステップは、前記主成分分析において前記法線ベクトルに対して得られる第3固有値を用いて、前記各組における法線ベクトルの外積の精度を表す重み値を算出し、前記統計的処理として、前記重み値を用いた前記外積の加重平均を求めるものとしてもよい。
主成分分析における第1〜第3固有値は、各主成分における分散の大きさを表す値である。側面を構成する点群を主成分分析した場合、点群が精度良く側面を構成していれば、第3主成分方向の分散は小さくなるから、第3固有値も小さくなるはずである。つまり、第3固有値によれば、側面の法線ベクトルの精度を表す重み値を設定することが可能となる。精度が高いほど値が大きくなる重み値を得るためには、例えば、第3固有値の逆数などを用いればよい。
上記態様によれば、こうして得られる重み値を用いた加重平均によって重力方向を決定することができる。従って、精度の高い法線ベクトルを重視することができるため、得られる重力方向の精度をより向上させることができる。
本発明における統計的手法は、必ずしも上述の加重平均に限られるものではない。重み値は、第3固有値とは無関係に、側面の面積や点群の数などによって定めても良い。また、加重平均に代えて、重み値を用いない単純平均を用いても良い。さらに、平均に代えて、中央値を用いても良いるなど、種々の統計的手法を用いることができる。
In the aspect of obtaining the normal vector of the side surface by principal component analysis as described above,
The step (d), that is, the step of determining the direction of gravity by statistical processing, uses the third eigenvalue obtained for the normal vector in the principal component analysis to calculate the outer product of the normal vectors in each set. A weight value representing accuracy may be calculated, and a weighted average of the outer product using the weight value may be obtained as the statistical processing.
The first to third eigenvalues in the principal component analysis are values representing the magnitude of dispersion in each principal component. When the principal component analysis is performed on the point group constituting the side surface, if the point group accurately constitutes the side surface, the third eigenvalue should be small because the variance in the third principal component direction is small. That is, according to the third eigenvalue, it is possible to set a weight value representing the accuracy of the normal vector of the side surface. In order to obtain a weight value that increases as the accuracy increases, for example, the reciprocal of the third eigenvalue may be used.
According to the above aspect, the direction of gravity can be determined by a weighted average using the weight values thus obtained. Therefore, since it is possible to place importance on the normal vector with high accuracy, the accuracy of the obtained gravity direction can be further improved.
The statistical method in the present invention is not necessarily limited to the above-mentioned weighted average. The weight value may be determined by the area of the side surface, the number of point groups, etc. regardless of the third eigenvalue. Further, instead of the weighted average, a simple average that does not use a weight value may be used. Further, various statistical methods such as a median value may be used instead of the average.

本発明においては、
前記ステップ(b)、即ち地物の側面を表す点の集合である側面点群を特定するステップは、さらに、前記地物ごとに前記側面点群の各点の法線ベクトルの水平方向成分の分布を求め、所定以上の度数分布が得られている水平方向に相当する点を抽出することにより、前記側面点群を、前記地物の各側面に分離するものとしてもよい。
例えば、四角柱状の地物を考えると、その側面の法線ベクトルは、大きく直交する2方向に分類できる。従って、各点の法線ベクトルの分布に従って、点を分離すれば、かかる地物の側面を、少なくとも対向する一組の面ごとに分離することが可能となる。四角柱状以外の地物においても、側面が種々の方向を向く結果、各点の法線ベクトルの分布によって、点群を側面単位に分離することが可能である。
このように側面ごとに点群が分離されれば、それぞれの点群が含まれる側面を定義しやすくなり、側面の法線ベクトルを精度良く求めることが可能となる。
In the present invention,
The step (b), that is, the step of specifying a side surface point group that is a set of points representing the side surface of the feature further includes a step of specifying a horizontal component of a normal vector of each point of the side surface point group for each feature. The side surface point group may be separated into each side surface of the feature by obtaining a distribution and extracting points corresponding to the horizontal direction in which a frequency distribution equal to or higher than a predetermined value is obtained.
For example, considering a quadrangular prism-like feature, the normal vector on the side surface can be classified into two directions that are largely orthogonal. Therefore, if the points are separated according to the distribution of the normal vectors of the points, the side surfaces of the feature can be separated at least for each pair of opposing surfaces. Even in features other than the quadrangular prism shape, the side faces in various directions, and as a result, the point group can be separated into side units by the distribution of the normal vectors of the respective points.
If the point cloud is separated for each side surface in this way, it becomes easy to define the side surface including each point group, and the normal vector of the side surface can be obtained with high accuracy.

本発明においては、
前記ステップ(b)は、前記3次元点群を構成する点同士の距離が所定値以下となる点を、同一の地物を構成する点群として分離することにより、前記地物ごとの側面点群を特定するものとしてもよい。
複数の地物を表す3次元点群を得た場合、地物間の距離は、同一地物を構成する点群の点同士の距離よりも十分に大きいため、点同士の距離を用いれば、比較的容易に点群を地物単位に分離することができる。側面は、地物を構成する面であるため、地物単位に分離してから側面の解析を行うことにより、側面を定義しやすくなり、側面の法線ベクトルの精度も向上させることができる。
In the present invention,
In the step (b), side points for each feature are separated by separating the points where the distance between the points constituting the three-dimensional point group is a predetermined value or less as the point group constituting the same feature. It is good also as what identifies a group.
When a three-dimensional point cloud representing a plurality of features is obtained, the distance between the features is sufficiently larger than the distance between the points of the point group constituting the same feature, so if the distance between the points is used, The point cloud can be separated into feature units relatively easily. Since the side surface is a surface constituting the feature, by analyzing the side surface after being separated into feature units, the side surface can be easily defined, and the accuracy of the normal vector of the side surface can be improved.

本発明は、上述した特徴を必ずしも全てを備えている必要はなく、適宜、その一部を省略したり、組み合わせたりしてもよい。上述した3次元点群解析方法を実行する3次元点群解析装置として構成してもよいし、かかる解析をコンピュータに行わせるためのコンピュータプログラムとして構成してもよい。さらに、かかるコンピュータプログラムを記録したコンピュータが読み取り可能な記録媒体として構成してもよい。   The present invention does not necessarily have all the features described above, and some of them may be omitted or combined as appropriate. You may comprise as a three-dimensional point cloud analysis apparatus which performs the three-dimensional point cloud analysis method mentioned above, and you may comprise as a computer program for making this analysis perform a computer. Furthermore, a computer-readable recording medium that records the computer program may be configured.

3次元モデル生成システムの構成を示す説明図である。It is explanatory drawing which shows the structure of a three-dimensional model production | generation system. 対象領域の空撮方法を示す説明図である。It is explanatory drawing which shows the aerial imaging method of an object area | region. 飛行経路決定処理のフローチャートである。It is a flowchart of a flight route determination process. 3次元点群生成処理のフローチャートである。It is a flowchart of a three-dimensional point cloud production | generation process. 3次元モデル生成処理のフローチャートである。It is a flowchart of a three-dimensional model generation process. 重力方向解析処理のフローチャート(1)である。It is a flowchart (1) of a gravity direction analysis process. 重力方向解析処理のフローチャート(2)である。It is a flowchart (2) of a gravity direction analysis process. 重力方向解析処理のフローチャート(3)である。It is a flowchart (3) of a gravity direction analysis process. 重力方向解析処理のフローチャート(4)である。It is a flowchart (4) of a gravity direction analysis process. 点群分離処理のフローチャート(1)である。It is a flowchart (1) of a point group separation process. 点群分離処理のフローチャート(2)である。It is a flowchart (2) of a point group separation process. 点群分離処理のフローチャート(3)である。It is a flowchart (3) of a point group separation process. 点群分離処理のフローチャート(4)である。It is a flowchart (4) of a point group separation process. 建物枠生成処理のフローチャート(1)である。It is a flowchart (1) of building frame generation processing. 建物枠生成処理のフローチャート(2)である。It is a flowchart (2) of a building frame production | generation process. 位置合わせ処理のフローチャートである。It is a flowchart of an alignment process. 位置合わせ処理における評価関数を示す説明図である。It is explanatory drawing which shows the evaluation function in a positioning process. ポリゴン生成処理例を示す説明図である。It is explanatory drawing which shows the example of a polygon production | generation process. テクスチャ生成処理のフローチャート(1)である。It is a flowchart (1) of a texture generation process. テクスチャ生成処理のフローチャート(2)である。It is a flowchart (2) of a texture production | generation process.

A.システム構成:
図1は、3次元モデル生成システムの構成を示す説明図である。3次元モデル生成システムは、処理対象となる地域の写真を航空機から撮影し、この写真を解析して地物ごとの3次元形状を表す3次元モデルを生成するシステムである。航空機に搭載され、地域の写真の画像データを取得する装置を撮影管理装置100と呼ぶ。画像データから3次元モデルを生成する装置を、3次元モデル生成装置200と呼ぶ。以下、それぞれの構成について順に説明する。
A. System configuration:
FIG. 1 is an explanatory diagram showing a configuration of a three-dimensional model generation system. The three-dimensional model generation system is a system that takes a photograph of an area to be processed from an aircraft and generates a three-dimensional model representing a three-dimensional shape of each feature by analyzing the photograph. A device that is mounted on an aircraft and acquires image data of a local photograph is referred to as a photographing management device 100. A device that generates a three-dimensional model from image data is referred to as a three-dimensional model generation device 200. Hereinafter, each structure is demonstrated in order.

(1)撮影管理装置100の構成:
撮影管理装置100は、航空機に搭載されている。航空機は、固定翼、回転翼いずれでもよく、有人/無人のいずれであってもよい。
撮影管理装置100には、撮影用のカメラ101、位置情報を取得するためのセンサであるGPS(Global Positioning System)102、および図示する各機能ブロックが備えられている。機能ブロックは、それぞれの機能を実現するためのコンピュータプログラムを、コンピュータにインストールすることによって構成することもできるし、ハードウェア的に構成してもよい。
カメラ101は、3次元モデルを生成するための解析に使用される写真を撮影するためのものである。解析精度を向上させるためには、高解像度の写真が望ましい。本実施例では高解像度での撮影が可能な静止画用のディジタルカメラを用いた。十分な解像度が得られる場合には、動画撮影用のカメラを用いてもよい。
(1) Configuration of the imaging management device 100:
The imaging management device 100 is mounted on an aircraft. The aircraft may be either fixed wing or rotary wing, and may be manned / unmanned.
The photographing management apparatus 100 includes a photographing camera 101, a GPS (Global Positioning System) 102 that is a sensor for acquiring position information, and each functional block illustrated. The functional block can be configured by installing a computer program for realizing each function in the computer, or may be configured by hardware.
The camera 101 is for taking a photograph used for analysis for generating a three-dimensional model. In order to improve the analysis accuracy, a high-resolution photograph is desirable. In the present embodiment, a still image digital camera capable of shooting at a high resolution is used. If a sufficient resolution can be obtained, a video camera may be used.

撮影シーケンス記憶部112は、撮影を行うための航空機の飛行経路および撮影ポイントを記憶している。撮影ポイントは、カメラ101の画角も考慮して設定されており、処理対象となる領域について、20枚以上の写真が、それぞれ60%程度以上は重複した状態で、順次撮影されるように設定されている。飛行経路の設定方法については後述する。飛行経路等は、予め別のコンピュータ等によって設定したものを、撮影シーケンス記憶部112に記憶させる方法をとってもよいし、撮影シーケンス記憶部112で設定するようにしてもよい。
有人の航空機を用いる場合、飛行経路に従って航空機を飛行させるのはパイロットの役目となる。かかる場合には、撮影シーケンス記憶部112は、パイロットに対し、適宜、設定された飛行経路に沿った飛行を支援するための情報を提供してもよい。
無人の航空機を用いる場合には、撮影シーケンス記憶部112は、飛行を制御する制御装置に、飛行経路に関する情報を送信するように構成してもよい。
The shooting sequence storage unit 112 stores flight paths and shooting points of aircraft for shooting. The shooting point is set in consideration of the angle of view of the camera 101, and is set so that 20 or more photographs are sequentially taken in the state to be processed with about 60% or more overlapping. Has been. A method for setting the flight path will be described later. The flight route or the like may be set in advance by another computer or the like, and may be stored in the imaging sequence storage unit 112 or may be set in the imaging sequence storage unit 112.
When using a manned aircraft, it is the pilot's duty to fly the aircraft according to the flight path. In such a case, the imaging sequence storage unit 112 may appropriately provide information for supporting the flight along the set flight path to the pilot.
When an unmanned aircraft is used, the imaging sequence storage unit 112 may be configured to transmit information related to the flight path to the control device that controls the flight.

撮影制御部110は、カメラ101を制御し、撮影シーケンス記憶部112で設定された撮影ポイントにおいて処理対象領域の写真を撮影する。航空機の現実の飛行経路と、撮影シーケンス記憶部112に記憶された経路とは誤差があるため、撮影制御部110は、かかる誤差も踏まえて、予め設定された撮影ポイント付近に到達したと判断される時点で撮影を行うようにしてもよい。
また、撮影シーケンスは、必ずしも撮影ポイントを特定する方法だけでなく、一定の時間周期で撮影を行うように設定してもよい。かかる場合には、撮影制御部110は、設定された時間間隔ごとに撮影を行うようカメラ101を制御することになる。
撮影制御部110は、いずれの方法で撮影を行う場合においても、カメラ101による撮影と同期して、GPS102から撮影位置の位置情報を取得し、両者を関連づけて画像記録部120に記録する。
撮影制御部110は、自動的に撮影を行う態様として構成する他、航空機に搭乗した撮影者に対して、撮影タイミングを知らせるものとしてもよい。
The shooting control unit 110 controls the camera 101 and takes a picture of the processing target area at the shooting point set in the shooting sequence storage unit 112. Since there is an error between the actual flight path of the aircraft and the path stored in the imaging sequence storage unit 112, the imaging control unit 110 determines that the vicinity of the preset imaging point has been reached based on the error. You may make it image | photograph at the time of this.
Further, the shooting sequence is not necessarily limited to the method of specifying the shooting point, but may be set so that shooting is performed at a constant time period. In such a case, the shooting control unit 110 controls the camera 101 to perform shooting at set time intervals.
The shooting control unit 110 acquires position information of a shooting position from the GPS 102 in synchronization with shooting by the camera 101 and records the information in the image recording unit 120 in association with the shooting by any method.
The imaging control unit 110 may be configured to automatically perform imaging, and may notify an imaging person on board an imaging timing.

(2)3次元モデル生成装置200の構成:
3次元モデル生成装置200には、図示する機能ブロックが備えられている。これらの機能ブロックは、それぞれの機能を実現するためのコンピュータプログラムを、コンピュータにインストールすることによって構成されるし、ハードウェア的に構成してもよい。
以下、各機能ブロックの機能について説明する。
(2) Configuration of the three-dimensional model generation apparatus 200:
The three-dimensional model generation apparatus 200 includes the functional blocks shown in the figure. These functional blocks are configured by installing a computer program for realizing each function in a computer, or may be configured in hardware.
Hereinafter, the function of each functional block will be described.

画像データ記憶部201は、撮影管理装置100で撮影、収集された画像データおよび撮影位置の位置情報を読込み、記憶する。撮影管理装置100から画像データ記憶部201への画像データの受け渡しは、有線、無線または記録媒体を介して行うことができる。
3次元点群生成部202は、画像データ記憶部201の画像データおよび撮影位置を用いて、3次元点群を生成する。3次元点群とは、それぞれ3次元の座標値および法線ベクトルが付与された多数の点である。法線ベクトルとは、各点が存在すると推定される面の法線ベクトルを意味する。
本実施例では、画像データを撮影した時系列に並べると、前後の画像データ同士は、約60%程度以上の面積が重複した状態で撮影されている。つまり、対象領域内の建物は、撮影ポイントが異なる複数の画像データに撮影されていることになる。従って、複数の画像データ内で相互に対応する点を特定できれば、いわゆる三角測量と同様の原理によってその点の3次元座標を特定することが可能となる。複数の画像データ内で対応する点を特定する技術としては、種々の技術が知られているが、本実施例では、SIFT(Scale-Invariant Feature Transform)と呼ばれる公知の技術を適用した。
3次元点群データ記憶部203は、3次元点群生成部202によって得られた3次元点群を記憶する。画像データに写っている部分を解析して得られた点群であるから、3次元点群は、主として建物等の外壁、屋根などの外面部分を表すものとなる。また、画像内には、地面、道路、街路樹、車両など建物以外も多数写っており、これらについても画像内の対応関係が特定される限り3次元点群は生成可能であるから、3次元点群には、こうした建物以外を表すものも多数含まれている。3次元点群は、それぞれ3次元の座標値と法線ベクトルを有しているが、これらの座標値、法線ベクトルは、地球座標系で定義されたものではなく、解析のために設定された架空の3次元空間における座標値である。
このように地球座標系での位置関係が特定されておらず、建物単位に区分もされていない3次元点群から、建物ごとに地図として利用可能な精度で位置座標を有する3次元ポリゴンを生成するのが、以下で示す各機能ブロックの機能である。
The image data storage unit 201 reads and stores image data shot and collected by the shooting management apparatus 100 and position information of shooting positions. Transfer of image data from the imaging management apparatus 100 to the image data storage unit 201 can be performed via a wired, wireless, or recording medium.
The three-dimensional point group generation unit 202 generates a three-dimensional point group using the image data and the shooting position of the image data storage unit 201. A three-dimensional point group is a number of points to which three-dimensional coordinate values and normal vectors are assigned. The normal vector means a normal vector of a surface where each point is estimated to exist.
In this embodiment, when the image data is arranged in time series, the preceding and following image data are taken with an area of about 60% or more overlapping. That is, the building in the target area is photographed by a plurality of image data having different photographing points. Therefore, if points corresponding to each other in a plurality of image data can be specified, the three-dimensional coordinates of the points can be specified by the same principle as that of so-called triangulation. Various techniques are known as techniques for identifying corresponding points in a plurality of image data. In this embodiment, a known technique called SIFT (Scale-Invariant Feature Transform) is applied.
The three-dimensional point group data storage unit 203 stores the three-dimensional point group obtained by the three-dimensional point group generation unit 202. Since it is a point cloud obtained by analyzing a portion shown in the image data, the three-dimensional point cloud mainly represents an outer wall portion such as a building and an outer surface portion such as a roof. Also, there are many buildings other than buildings such as the ground, roads, roadside trees, vehicles, etc. in the image, and as long as the correspondence in the image is specified, a 3D point cloud can be generated. The point cloud includes many things that represent other than these buildings. Each three-dimensional point group has a three-dimensional coordinate value and a normal vector, but these coordinate value and normal vector are not defined in the earth coordinate system and are set for analysis. It is a coordinate value in a fictitious three-dimensional space.
In this way, 3D polygons with position coordinates are generated with accuracy that can be used as a map for each building from a 3D point group that is not specified in the earth coordinate system and is not divided into buildings. It is the function of each functional block shown below.

重力方向解析部204は、点群の重力方向を解析する。通常、直交座標系で地理的な位置が表されている場合には、重力方向はZ軸方向と一致するが、3次元点群の座標系は地球座標系で定義されたものではないため、必ずしもZ軸が重力方向になるとは限らない。重力方向解析部204は、解析によって重力方向を求めることによって、点群の座標系を地球座標系に対応づける第1段階としての機能を奏する。
点群分離処理部205は、点群を建物単位に分離する。3次元点群は、画像に写っている点の3次元座標を求めたものであり、建物単位で分離もされていなければ、建物の地面等との分離もされていない。点群分離処理部205は、かかる3次元点群を解析して、建物ごとの点群に分離する機能を奏する。
建物枠生成部206は、建物ごとに分離された点群に基づいて2次元的な外形形状を表す建物枠を生成する。
位置合わせ処理部207は、2次元地図データ210に記憶された2次元地図に複数の建物枠を適合させることによって、重力方向以外の座標系を地球座標系に対応づける機能を奏する。位置合わせ処理部207は、建物ごとに分離された点群を1つずつ2次元地図に適合させていくのではない。点群で表されている複数の建物全体を、その相対的な関係を概ね保った状態で、全体として2次元地図に適合させるのである。このように複数の建物全体を適合させることによって、精度良く位置合わせを行うことができる。
ポリゴン生成部208は、以上の処理によって2次元的な形状が定まった建物ごとに、点群に基づき側面および上面のポリゴンを生成する。
テクスチャ生成部209は、生成されたポリゴンの表面に貼り付けるテクスチャを、画像データ記憶部201に記憶された画像データによって生成する。
以上の処理で生成された3次元ポリゴンおよびテクスチャは、3次元モデルデータ211に格納される。
The gravity direction analysis unit 204 analyzes the gravity direction of the point group. Usually, when the geographical position is represented in the Cartesian coordinate system, the direction of gravity coincides with the Z-axis direction, but the coordinate system of the three-dimensional point group is not defined in the Earth coordinate system. The Z axis is not always in the direction of gravity. The gravitational direction analysis unit 204 functions as a first stage for associating the coordinate system of the point group with the earth coordinate system by obtaining the gravitational direction by analysis.
The point cloud separation processing unit 205 separates the point cloud into building units. The three-dimensional point cloud is obtained by obtaining the three-dimensional coordinates of the points shown in the image, and is not separated from the building ground or the like unless it is separated in units of buildings. The point group separation processing unit 205 has a function of analyzing the three-dimensional point group and separating it into point groups for each building.
The building frame generation unit 206 generates a building frame representing a two-dimensional outer shape based on the point group separated for each building.
The alignment processing unit 207 has a function of associating a coordinate system other than the gravity direction with the earth coordinate system by fitting a plurality of building frames to the two-dimensional map stored in the two-dimensional map data 210. The alignment processing unit 207 does not adapt the point group separated for each building to the two-dimensional map one by one. The whole of a plurality of buildings represented by point clouds is fitted to a two-dimensional map as a whole while maintaining the relative relationship in general. In this way, alignment can be performed with high accuracy by adapting the entire plurality of buildings.
The polygon generation unit 208 generates side and top polygons based on the point group for each building whose two-dimensional shape is determined by the above processing.
The texture generation unit 209 generates a texture to be pasted on the surface of the generated polygon based on the image data stored in the image data storage unit 201.
The three-dimensional polygon and texture generated by the above processing are stored in the three-dimensional model data 211.

B.対象領域の空撮:
次に、解析に利用する画像を撮影する飛行経路および撮影ポイントの設定方法について説明する。
図2は、対象領域の空撮方法を示す説明図である。本実施例では、目標となる建物の周辺の所定の領域に含まれる複数の建物について3次元モデルを生成する。一般に街並みは、駅などのランドマークを中心に展開していることが多いため、こうしたランドマークに相当する建物を目標として、その周辺を撮影し、3次元モデルを生成することにより、効率的に3次元モデルを生成することができる。
B. Aerial view of the area of interest:
Next, a method for setting a flight path and a shooting point for shooting an image used for analysis will be described.
FIG. 2 is an explanatory diagram showing an aerial imaging method of the target area. In the present embodiment, a three-dimensional model is generated for a plurality of buildings included in a predetermined area around a target building. In general, the cityscape is often developed around landmarks such as stations. Therefore, by taking a picture of its surroundings and generating a 3D model, it is possible to efficiently create buildings corresponding to these landmarks. A three-dimensional model can be generated.

図2(a)に示すように、本実施例では、航空機を用いて3次元モデルの生成対象となる対象領域の画像を撮影する。航空機は、固定翼、回転翼のいずれでもよい。飛行経路は、目標となる建物の周囲を周回する円軌道を描く。円を描くことによって、生成対象の領域を多方面から均等に撮影することができるため、他の建物の陰になって視認できない部分を減らし、3次元モデルの生成精度を向上させることができる。飛行経路は、目標建物の周囲を周回する軌道であれば、必ずしも円に限られるものではなく、楕円その他の曲線状であってもよい。   As shown in FIG. 2A, in this embodiment, an image of a target region that is a generation target of a three-dimensional model is taken using an aircraft. The aircraft may be either a fixed wing or a rotary wing. The flight path draws a circular orbit around the target building. By drawing a circle, the region to be generated can be photographed uniformly from many directions, so that the portion that cannot be seen behind the other buildings can be reduced, and the generation accuracy of the three-dimensional model can be improved. The flight path is not necessarily limited to a circle as long as it is a trajectory that goes around the target building, and may be an ellipse or other curved shape.

図2(b)には、円軌道とする場合の飛行経路の決定方法を示した。3次元復元では、複数の画像内に共通に撮影されている特徴点同士の対応関係を特定することで,各特徴点の3次元位置を求める。かかる対応関係を精度良く求めるためには、各特徴点が多くの画像に重複して撮影されるように、飛行経路および撮影ポイントを設定する必要がある。本実施例では、撮影された画像同士が、約60%以上の面積で重複するように、飛行経路および撮影ポイントを設定した。つまり、図2(b)に示すように、ある撮影ポイントP1から撮影した場合の画像IMG1と、次の撮影ポイントP2で撮影した場合の画像IMG2とは、約60%以上の範囲で重複する。図の例では、画像IMG1、IMG2は、目標を中心に回転移動した状態にある例を示したが、目標が中心からずれていても構わない。
撮影に用いるカメラの画角および飛行高度を決定すれば、目標を含む所定範囲を撮影するための飛行経路の概ねの半径を求めることができる。
FIG. 2B shows a method of determining a flight path when a circular orbit is used. In the three-dimensional restoration, the three-dimensional position of each feature point is obtained by specifying the correspondence between feature points photographed in common in a plurality of images. In order to obtain such a correspondence with high accuracy, it is necessary to set the flight path and shooting points so that each feature point is shot in many images. In this embodiment, the flight path and the shooting point are set so that the shot images overlap with each other with an area of about 60% or more. That is, as shown in FIG. 2B, the image IMG1 taken from a certain shooting point P1 and the image IMG2 taken at the next shooting point P2 overlap in a range of about 60% or more. In the example shown in the figure, the images IMG1 and IMG2 are in a state of being rotated around the target. However, the target may be shifted from the center.
If the angle of view of the camera used for shooting and the flight altitude are determined, the approximate radius of the flight path for shooting a predetermined range including the target can be obtained.

目標周辺を1周する間の撮影枚数は、20枚以上とすることが望ましい。従って、撮影ポイントP1、P2の間の角度θは、18度以下とすることが望ましい。撮影枚数があまりに多数であっても、解析に利用できない無駄な画像が増えるだけであるため、動画像を撮影するカメラを用いて多数のフレームを撮影するよりは、静止画撮影用のカメラを用いて、高解像度の画像を必要枚数撮影する方が好ましい。   It is desirable that the number of images taken during one round around the target be 20 or more. Therefore, it is desirable that the angle θ between the photographing points P1 and P2 is 18 degrees or less. Even if the number of shots is too large, the number of useless images that cannot be used for analysis increases, so a camera for shooting still images is used rather than shooting a large number of frames using a camera for shooting moving images. Therefore, it is preferable to take the required number of high-resolution images.

図3は、飛行経路決定処理のフローチャートである。図2で説明した飛行経路を決定するための処理である。この処理は、飛行前に地上のコンピュータで予め行っておくものとしてもよいし、飛行中に航空機に搭載した撮影管理装置100で実行するものとしてもよい。
処理を開始すると、コンピュータはまず、撮影目標地点を入力する(ステップS1)。また、カメラの取付角度rおよび画角を入力する(ステップS2)。図中にカメラの取付角度rを示した。本実施例のように、目標物の周囲を周回しながら撮影する場合には、カメラの画角の中心軸を鉛直下方に向けて取り付けるよりも、飛行経路の中心側に向けて傾けて取り付けた方が効率的な場合がある。航空機の鉛直軸と、カメラの画角の中心軸とのなす角度が、取付角度rである。取付角度rは、カメラの撮影範囲に影響することになる。
コンピュータは、撮影高度Hを入力する(ステップS3)。そして、以上で入力した値を用いて、飛行経路の半径Rを算出する(ステップS4)。図中に半径Rの算出方法を示した。カメラの画角および取付角度rを考慮した上で、撮影目標が撮影範囲に入るよう、飛行高度Hに応じた半径Rを算出する。例えば、撮影目標が撮影範囲の中心に来るように撮影する場合には、飛行経路の半径Rは、R=H×tan(r)で求められることになる。
撮影ポイントは、飛行経路に対して、図2(b)に示したように、所定の角度間隔θを設定するようにしてもよいし、所定の時間間隔で撮影するように設定してもよい。
FIG. 3 is a flowchart of the flight path determination process. It is the process for determining the flight path demonstrated in FIG. This process may be performed in advance by a ground computer before the flight, or may be executed by the imaging management apparatus 100 mounted on the aircraft during the flight.
When the process is started, the computer first inputs a shooting target point (step S1). Also, the camera mounting angle r and field angle are input (step S2). The camera mounting angle r is shown in the figure. When shooting around the target as in this embodiment, the camera is mounted tilted toward the center of the flight path rather than being mounted with the center axis of the angle of view of the camera facing vertically downward. May be more efficient. The angle formed by the vertical axis of the aircraft and the central axis of the angle of view of the camera is the mounting angle r. The mounting angle r affects the shooting range of the camera.
The computer inputs the photographing altitude H (step S3). Then, the radius R of the flight path is calculated using the value input above (step S4). The method for calculating the radius R is shown in the figure. The radius R corresponding to the flight altitude H is calculated so that the shooting target falls within the shooting range in consideration of the camera angle of view and the mounting angle r. For example, when shooting is performed so that the shooting target is at the center of the shooting range, the radius R of the flight path is obtained by R = H × tan (r).
As shown in FIG. 2B, the shooting point may be set to have a predetermined angular interval θ as shown in FIG. 2B, or may be set to take images at a predetermined time interval. .

こうして設定された飛行経路および撮影ポイントの情報は、撮影管理装置100の撮影シーケンス記憶部112に記憶され、撮影時に活用される。例えば、航空機が無人の場合には、航空機およびカメラの自動制御に活用することができる。航空機が有人の場合には、飛行経路を維持するのはパイロットの役目となるから、パイロットに適宜、飛行経路および撮影ポイントを示す情報を提供する方法で活用することができる。   The information on the flight path and the shooting point set in this way is stored in the shooting sequence storage unit 112 of the shooting management apparatus 100 and used during shooting. For example, when the aircraft is unmanned, it can be used for automatic control of the aircraft and the camera. When the aircraft is manned, it is the pilot's duty to maintain the flight path, and therefore it can be utilized by a method of providing the pilot with information indicating the flight path and shooting points as appropriate.

以上で説明した本実施例の空撮方法によれば、目標の周囲を周回する飛行経路をとることにより、次のような利点がある。
本実施例では、画像間で特徴点の対応関係を解析するため、画像同士が重複して撮影されている必要があるところ、本実施例のような周回軌道であれば、目標周辺の領域の画像を、相互に十分重複させながら、多方面からの画像を、無駄なく効率的に撮影することができる。
また、画像間の特徴点の対応関係の認識精度が向上する利点もある。つまり、画像間で特徴点を認識する際には、画像の色成分を利用することになるため、撮影時のライティングの条件が異なると、対応関係の認識精度が低下する。これに対し、本実施例のような周回軌道であれば、目標周辺の領域を、比較的短時間に集中的に撮影することが可能となるため、ライティングの条件の変化が小さくなり、認識精度を向上させることができる。
さらに、目標および対象領域を、ほぼ全方位から漏れなく撮影することが可能となる。
According to the aerial imaging method of the present embodiment described above, the following advantages can be obtained by taking a flight path that goes around the target.
In this embodiment, in order to analyze the correspondence of feature points between images, it is necessary that the images be taken in duplicate. It is possible to efficiently shoot images from various fields without waste while sufficiently overlapping the images.
In addition, there is an advantage that the recognition accuracy of the correspondence between the feature points between images is improved. That is, when the feature points are recognized between the images, the color components of the images are used. Therefore, if the lighting conditions at the time of shooting are different, the recognition accuracy of the correspondence is lowered. On the other hand, with the circular orbit as in this embodiment, it is possible to shoot the area around the target intensively in a relatively short time, so the change in lighting conditions is reduced and the recognition accuracy is reduced. Can be improved.
Furthermore, the target and the target area can be photographed from almost all directions without omission.

C.3次元点群生成処理:
飛行経路および撮影ポイントが決まると、これに従って、目標の周辺を飛行しながら撮影が行われる。撮影された画像データは、図1で説明した通り、逐次、撮影ポイントの位置座標とともに、撮影管理装置100の画像記録部120に記録される。撮影が完了すると、画像データおよび位置座標は、3次元モデル生成装置200に入力され、3次元点群が生成される。画像データの3次元モデル生成装置200への読込みは、種々の方法で行うことができるが、本実施例では、記録媒体を介して読み込ませるものとした。
C. Three-dimensional point cloud generation processing:
When the flight path and shooting point are determined, shooting is performed while flying around the target. The captured image data is sequentially recorded in the image recording unit 120 of the imaging management apparatus 100 together with the position coordinates of the imaging point as described with reference to FIG. When the photographing is completed, the image data and the position coordinates are input to the three-dimensional model generation apparatus 200, and a three-dimensional point group is generated. The image data can be read into the 3D model generation apparatus 200 by various methods. In this embodiment, the image data is read via a recording medium.

図4は、3次元点群生成処理のフローチャートである。3次元モデル生成装置200の3次元点群生成部202が実行する処理であり、ハードウェア的には、3次元モデル生成装置200のCPUが実行する処理である。
処理を開始すると、3次元モデル生成装置200は、画像データおよび位置情報を読み込む(ステップS10)。そして、SIFT(Scale-Invariant Feature Transform)マッチングにより、画像間の特徴点の対応付けを行う(ステップS11)。図中に特徴点の対応付けの様子を示した。図示するように画像1、画像2のそれぞれから、特徴点(図中の4つの×印)を抽出し、それぞれの特徴点同士の対応関係を認識するのである。SIFTマッチングは、画像内の色成分に基づいて特徴点を抽出し、画像間の対応関係を求める解析技術であり、解析原理およびアルゴリズムともに周知であるため、詳細な説明は省略する。ステップS11では、画像間の特徴点同士を対応づけるものであれば、SIFTマッチングに限らず、種々の手法を用いることができる。
FIG. 4 is a flowchart of the three-dimensional point group generation process. This is a process executed by the 3D point group generation unit 202 of the 3D model generation apparatus 200, and is a process executed by the CPU of the 3D model generation apparatus 200 in terms of hardware.
When the process is started, the three-dimensional model generation apparatus 200 reads image data and position information (step S10). Then, feature points are correlated between images by SIFT (Scale-Invariant Feature Transform) matching (step S11). The state of the feature point association is shown in the figure. As shown in the figure, feature points (four crosses in the figure) are extracted from each of image 1 and image 2, and the correspondence between the feature points is recognized. SIFT matching is an analysis technique for extracting feature points based on color components in an image and obtaining a correspondence relationship between the images. Since the analysis principle and algorithm are well known, detailed description thereof is omitted. In step S11, as long as the feature points between the images are associated with each other, not only SIFT matching but also various methods can be used.

こうして特徴点の対応関係が求まると、各特徴点の3次元座標および法線ベクトルを算出することができる(ステップS12)。図中に算出原理を図示した。実施例で使用する各画像には、それぞれ撮影ポイントの位置情報が付されているため、複数の画像間で対応関係が得られた特徴点については、2つ以上の撮影ポイント1,2が対応づけられることになる。撮影ポイント1,2からの画角等に基づいて撮影した画像内の特徴点の位置を解析すれば、それぞれの撮影ポイント1,2から特徴点を視た方向を決定することができ、撮影ポイント1、2の座標値に対して特徴点の相対的な位置関係を特定することができる。ここで得られる特徴点の位置座標は、地球座標系での絶対的な位置座標ではなく、解析用の空間に設定された架空の3次元座標(xa、ya、za)上での座標値である。
法線ベクトルとは、各特徴点が存在すると推定される推定面の法線方向のベクトルである。実施例では、対応する画像において多数の特徴点が抽出され、各画像内の特徴点同士の相対的な位置関係が維持されることを前提として、画像間での特徴点の対応関係を認識する。このように特徴点同士の相対的な位置関係から、その特徴点が存在する推定面が特定され、その法線ベクトルを求めることができる。
これらの画像間の相対的位置関係、3次元座標および法線ベクトルの算出も、SfM(Structure from Motion)技術、およびそれを利用した手法として周知であるため、さらなる詳細な説明は省略する。
3次元座標および法線ベクトルが算出された特徴点の集合を、以下、3次元点群と呼ぶ。3次元モデル生成装置200は、得られた3次元点群のデータを格納し(ステップS13)、3次元点群生成処理を終了する。
本実施例では、撮影した画像データから3次元点群を取得しているが、以下の処理は、レーザ計測など、他の方法によって得られた3次元点群を用いて行うこともできる。
When the correspondence between the feature points is obtained in this way, the three-dimensional coordinates and normal vectors of each feature point can be calculated (step S12). The calculation principle is shown in the figure. Each image used in the embodiment is provided with shooting point position information, so two or more shooting points 1 and 2 correspond to feature points for which a correspondence relationship is obtained between a plurality of images. Will be attached. If the position of the feature point in the image taken based on the angle of view from the shooting points 1 and 2 is analyzed, the direction in which the feature point was viewed from each of the shooting points 1 and 2 can be determined. It is possible to specify the relative positional relationship of the feature points with respect to the coordinate values of 1 and 2. The position coordinates of the feature points obtained here are not absolute position coordinates in the earth coordinate system, but are coordinate values on fictitious three-dimensional coordinates (xa, ya, za) set in the space for analysis. is there.
The normal vector is a vector in the normal direction of the estimated surface where each feature point is estimated to exist. In the embodiment, on the premise that a large number of feature points are extracted from corresponding images and the relative positional relationship between the feature points in each image is maintained, the correspondence relationship of the feature points between the images is recognized. . In this way, the estimated surface where the feature point exists is specified from the relative positional relationship between the feature points, and the normal vector can be obtained.
The calculation of the relative positional relationship between these images, the three-dimensional coordinates, and the normal vector is also well known as an SfM (Structure from Motion) technique and a technique using the SfM (Structure from Motion) technique.
A set of feature points for which three-dimensional coordinates and normal vectors are calculated is hereinafter referred to as a three-dimensional point group. The three-dimensional model generation apparatus 200 stores the obtained three-dimensional point group data (step S13), and ends the three-dimensional point group generation process.
In the present embodiment, a three-dimensional point group is acquired from captured image data, but the following processing can also be performed using a three-dimensional point group obtained by another method such as laser measurement.

D.3次元モデル生成処理:
図5は、3次元モデル生成処理のフローチャートである。先に説明した3次元点群データに基づいて、建物ごとの3次元形状を表す3次元モデルを生成するための処理である。この処理は、図1に示した重力方向解析部204、点群分離処理部205、建物枠生成部206、位置合わせ処理部207、ポリゴン生成部208、テクスチャ生成部209によって、それぞれ実現される処理である。ハードウェア的には、3次元モデル生成装置200のCPUが実行する処理となる。
D. 3D model generation processing:
FIG. 5 is a flowchart of the three-dimensional model generation process. This is a process for generating a three-dimensional model representing a three-dimensional shape for each building based on the three-dimensional point cloud data described above. This process is realized by the gravity direction analysis unit 204, the point cloud separation processing unit 205, the building frame generation unit 206, the alignment processing unit 207, the polygon generation unit 208, and the texture generation unit 209 shown in FIG. It is. In terms of hardware, this is a process executed by the CPU of the three-dimensional model generation apparatus 200.

図5には、全体の処理の流れを示した。それぞれの処理内容については、後で詳述する。
3次元モデル生成処理では、まず重力方向解析処理が行われる(ステップS20)。これは、重力方向解析部204の機能に相当する処理であり、3次元点群を解析して重力方向を特定する処理である。
次に、点群分離処理が行われる(ステップS21)。これは、点群分離処理部205の機能に相当する処理であり、3次元点群を建物単位に分離する処理である。
次に、建物枠生成処理が行われる(ステップS22)。これは、建物枠生成部206の機能に相当する処理であり、建物の2次元的な形状を特定する処理である。
次に、位置合わせ処理が行われる(ステップS23)。これは、位置合わせ処理部207の機能に相当する処理であり、3次元点群を2次元の地図に適合させる処理である。
次に、ポリゴン生成処理が行われる(ステップS24)。これは、ポリゴン生成部208の機能に相当する処理であり、建物ごとの3次元点群に基づいて、側面および上面のポリゴンを生成する処理である。
最後に、テクスチャ生成処理が行われる(ステップS25)。これは、テクスチャ生成部209の機能に相当する処理であり、撮影された画像データを用いてポリゴンの表面に貼るテクスチャを生成する処理である。
以上の処理によって、3次元地図として利用可能な位置精度を有する建物ごとの3次元モデルが生成される。
以下、それぞれの処理について順に内容を詳述する。
FIG. 5 shows the overall processing flow. The details of each process will be described later.
In the three-dimensional model generation process, a gravity direction analysis process is first performed (step S20). This is processing corresponding to the function of the gravity direction analysis unit 204, and is processing for analyzing the three-dimensional point group and specifying the gravity direction.
Next, a point group separation process is performed (step S21). This is a process corresponding to the function of the point group separation processing unit 205, and is a process of separating a three-dimensional point group into building units.
Next, building frame generation processing is performed (step S22). This is processing corresponding to the function of the building frame generation unit 206, and is processing for specifying the two-dimensional shape of the building.
Next, alignment processing is performed (step S23). This is a process corresponding to the function of the alignment processing unit 207, and is a process for adapting a three-dimensional point group to a two-dimensional map.
Next, polygon generation processing is performed (step S24). This is a process corresponding to the function of the polygon generation unit 208, and is a process of generating side and top polygons based on a three-dimensional point group for each building.
Finally, texture generation processing is performed (step S25). This is a process corresponding to the function of the texture generation unit 209, and is a process of generating a texture to be pasted on the surface of a polygon using photographed image data.
Through the above processing, a three-dimensional model for each building having position accuracy that can be used as a three-dimensional map is generated.
Hereinafter, the contents of each process will be described in detail.

D1.重力方向解析処理:
図6〜9は、重力方向解析処理のフローチャートである。3次元モデル生成処理(図5)のステップS20における処理に相当する。
処理を開始すると、3次元モデル生成装置200は、3次元点群データを読み込む(ステップS31)。
そして、3次元点群全体の主成分分析を行い、第3主成分を仮の重力方向Gtとして設定する(ステップS32)。図中に主成分分析の概要を示した。本実施例の3次元点群は、図2に示すように目標を中心とする周辺の領域を撮影して得られるものである。撮影される建物が高層ビルであっても、その高さは、撮影される領域の水平方向の広がりに比べれば小さい。従って、3次元点群は、全体的に見れば、図示するように、比較的平たい領域に分布することとなる。
主成分分析とは、3次元空間内における3次元点群の分布を特徴づける方向を求めるものであり、3次元点群の分布が大きい方向から順に第1主成分、第2主成分、第3主成分となる。平たい領域に分布した3次元点群については、水平方向の分布に基づいて第1主成分、第2主成分が求まり、それに直交する方向が第3主成分となる。従って、第3主成分は、3次元点群の重力方向Gtを表すことになる。ただし、点群の分布に基づく誤差が含まれているため、第3主成分は、あくまでも仮の重力方向を示すに過ぎない。
本実施例では、このように平たい領域に分布する3次元点群を利用するため、垂直方向と推測される面のみを抽出するなどといった複雑な前処理を行うまでなく、主成分分析により仮の重力方向を求めることが可能となる。
D1. Gravity direction analysis processing:
6 to 9 are flowcharts of the gravity direction analysis process. This corresponds to the process in step S20 of the three-dimensional model generation process (FIG. 5).
When the process is started, the 3D model generation apparatus 200 reads the 3D point cloud data (step S31).
Then, a principal component analysis of the entire three-dimensional point group is performed, and the third principal component is set as a temporary gravity direction Gt (step S32). The outline of principal component analysis is shown in the figure. The three-dimensional point group of this embodiment is obtained by photographing a peripheral region centered on the target as shown in FIG. Even if the filmed building is a high-rise building, its height is small compared to the horizontal extent of the filmed region. Therefore, the three-dimensional point group is distributed in a relatively flat region as shown in the drawing as a whole.
The principal component analysis is a method for obtaining a direction characterizing the distribution of the three-dimensional point cloud in the three-dimensional space. The first principal component, the second principal component, the third principal component are analyzed in order from the direction in which the distribution of the three-dimensional point cloud is large. Becomes the main component. For a three-dimensional point group distributed in a flat region, the first principal component and the second principal component are obtained based on the distribution in the horizontal direction, and the direction orthogonal thereto is the third principal component. Therefore, the third principal component represents the gravity direction Gt of the three-dimensional point group. However, since an error based on the distribution of the point cloud is included, the third principal component merely indicates the provisional gravity direction.
In this embodiment, since a three-dimensional point group distributed in a flat area is used, there is no need to perform complicated preprocessing such as extracting only a surface that is assumed to be in the vertical direction. It is possible to determine the direction of gravity.

3次元モデル生成装置200は、次に、仮の重力方向Gtとの角度θが閾値THa以下の点群を除外する(ステップS33)。実施例の3次元点群は、3次元の位置座標とともに、法線ベクトルを有している。この法線ベクトルと重力方向Gtとの角度θを0〜180度の範囲で求め、この値が閾値THa以下の点群、即ち、重力方向に比較的沿う方向の法線ベクトルを有する点群を除外すればよい。閾値THaは、点群の法線ベクトルの誤差および仮の重力方向の誤差を考慮して、法線ベクトルがほぼ重力方向を向いている点群を除外できる値に設定すればよい。
図中に処理の様子を示した。図中の×および○は、それぞれ3次元点群を示している。実施例の点群は、建物を撮影した画像から得られるものであるから、建物の外壁に沿って分布する。点P1は、建物の水平面S1に含まれる点であり、法線ベクトルn1は上向きとなっている。法線ベクトルn1と、仮の重力方向Gtとの角度θ1は、閾値THaよりも小さくなり、ステップS33の処理において除外される。同様に、面S1に存在する×で示した他の点群も除外される。
点P2は、建物の側面S2に含まれる点であり、法線ベクトルn2は、水平に近い方向を向いている。法線ベクトルn2と仮の重力方向Gtとの角度θ2は、閾値THaよりも大きくなり、ステップS33の処理において除外されない。同様に、面S2に存在する○で示した他の点群も除外されない。
点P3は、建物の水平面S3に含まれる点であり、法線ベクトルn3は下向きとなっている。このような面S3は、建物の床面等に相当するものであり、外部から撮影した画像に写ることはないため、実施例における処理では、このような点群は得られない。ただし、ここでは説明の便宜上、法線ベクトルn3が下向きとなっている場合についての例も示したものである。点P3についても、法線ベクトルn3と、仮の重力方向Gtとの角度θ1は、閾値THaよりも小さくなるため、ステップS33の処理において除外される。同様に、面S3に存在する×で示した他の点群も除外される。
以上の通り、ステップS33の処理では、建物を構成する点群のうち、水平面を構成する点群を除外することができる。
Next, the three-dimensional model generation apparatus 200 excludes a point group whose angle θ with respect to the provisional gravity direction Gt is equal to or less than the threshold value THa (step S33). The three-dimensional point group of the embodiment has a normal vector as well as three-dimensional position coordinates. An angle θ between the normal vector and the gravity direction Gt is obtained in the range of 0 to 180 degrees, and a point group having this value equal to or less than the threshold value THa, that is, a point group having a normal vector in a direction relatively along the gravity direction. Exclude it. The threshold value THa may be set to a value that can exclude a point group in which the normal vector is substantially in the gravitational direction in consideration of an error in the normal vector of the point group and an error in the provisional gravity direction.
The state of processing is shown in the figure. In the figure, x and ◯ indicate a three-dimensional point group, respectively. Since the point cloud of an Example is obtained from the image which image | photographed the building, it distributes along the outer wall of a building. The point P1 is a point included in the horizontal plane S1 of the building, and the normal vector n1 is upward. The angle θ1 between the normal vector n1 and the provisional gravity direction Gt is smaller than the threshold value THa and is excluded in the process of step S33. Similarly, other point groups indicated by x existing on the surface S1 are also excluded.
The point P2 is a point included in the side surface S2 of the building, and the normal vector n2 faces a direction close to the horizontal. The angle θ2 between the normal vector n2 and the provisional gravity direction Gt is larger than the threshold value THa and is not excluded in the process of step S33. Similarly, other point groups indicated by ◯ existing on the surface S2 are not excluded.
The point P3 is a point included in the horizontal plane S3 of the building, and the normal vector n3 is downward. Such a surface S3 corresponds to the floor surface of a building and the like and does not appear in an image photographed from the outside. Therefore, such a point cloud cannot be obtained in the processing in the embodiment. However, here, for convenience of explanation, an example in which the normal vector n3 is downward is also shown. Also for the point P3, the angle θ1 between the normal vector n3 and the provisional gravity direction Gt is smaller than the threshold value THa, and is therefore excluded in the process of step S33. Similarly, other point groups indicated by x existing on the surface S3 are also excluded.
As mentioned above, in the process of step S33, the point group which comprises a horizontal surface can be excluded among the point groups which comprise a building.

図7に移り、3次元モデル生成装置200は、抽出された点群について、点間の距離によるクラスタリングを行う(ステップS34)。つまり、比較的近くにある点群同士をクラスタ化することによって、点群を建物単位で分離するのである。
図中に処理の様子を示した。左側の図は、クラスタリングの方法を模式的に示したものである。3次元モデル生成装置200は、処理対象となる点群の中から、任意に1つの点P1を選択し、固有のラベル(図の例では「A」)を付与する。そして、この点P1から所定の距離ra内にある点を探索し、これらに同じラベルを付与する。図の例では、点P2,P3に対してラベル「A」が付与されている。距離raは、クラスタリングするか否かの判断基準となる距離である。クラスタリングの目的は、点群を建物ごとに分離することであるから、距離raは、処理対象となる領域における建物の間隔よりも小さい範囲で任意に設定することができる。
点P2、P3にラベルを付すと、3次元モデル生成装置200は、これらの点からさらに距離ra内の点を探索し、これらの同じラベルを付与する。図の例では、点P4、P5にラベル「A」が付与されている。かかる処理を繰り返し実行することによって、相互に距離ra内にある点を探索することができ、それらに同じラベルを付与することができる。距離ra内にある点が探索できなくなった時点で、ラベルの付与されていない未処理の点を選択し、新たなラベル(例えば、「B」)を付与しながら、同様の処理を実行することによって、点間の距離によるクラスタリングを行うことができる。
図の右側に、クラスタリングの結果を例示した。図示するように、ビル1に属する点群(図中の×)、ビル2に属する点群(図中の○)というように、建物単位に点群を分離することができる。
Moving to FIG. 7, the three-dimensional model generation apparatus 200 performs clustering based on the distance between points for the extracted point group (step S34). That is, the point groups are separated in units of buildings by clustering point groups that are relatively close to each other.
The state of processing is shown in the figure. The diagram on the left schematically shows the clustering method. The three-dimensional model generation apparatus 200 arbitrarily selects one point P1 from the point group to be processed, and assigns a unique label (“A” in the example in the figure). Then, a point within a predetermined distance ra from this point P1 is searched, and the same label is given to them. In the illustrated example, the label “A” is assigned to the points P2 and P3. The distance ra is a distance that is a criterion for determining whether or not to perform clustering. Since the purpose of clustering is to separate the point group for each building, the distance ra can be arbitrarily set within a range smaller than the interval between buildings in the region to be processed.
When labels are attached to the points P2 and P3, the three-dimensional model generation apparatus 200 searches for points within the distance ra from these points and assigns these same labels. In the illustrated example, the label “A” is assigned to the points P4 and P5. By repeatedly executing such processing, it is possible to search for points that are within the distance ra from each other, and to give them the same label. When a point within the distance ra can no longer be searched, an unprocessed point to which no label is attached is selected, and a similar process is performed while assigning a new label (for example, “B”). Thus, clustering based on the distance between points can be performed.
The clustering results are illustrated on the right side of the figure. As shown in the figure, the point group can be separated into building units such as a point group belonging to the building 1 (× in the figure) and a point group belonging to the building 2 (◯ in the figure).

次に、3次元モデル生成装置200は、建物ごとに点群の法線ベクトルの水平方向分布を作成する(ステップS35)。ステップS33の処理で建物の水平面を除く点群、即ち側面を構成する点群が抽出されており、ステップS34の処理で建物ごとに分離されているから、その法線ベクトル分布を作成することにより、側面の法線ベクトルを求めることができる。
図中に処理の様子を示した。左側には、法線ベクトルの方向を決める方法を示している。3次元モデル生成装置200は、処理対象の建物の任意の点P1の法線n1に対して、その水平方向の成分nh1を求める。ここに言う水平方向の成分とは、仮の重力方向Gtに直交する成分という意味である。そして、水平成分nh1の方向を、基準軸からの角度Ag1で表す。この角度Ag1は、図の右側に示すように0〜180度の範囲で求めるものとした。基準軸からの角度は、反時計回りを正、時計回りを負として表されるのが通常であるが、ここでは分布を求めるという処理の性質上、0〜180度の範囲で絶対値を求めるのである。点P2に対しても同様に、法線ベクトルn2の水平成分nh2の方向を表す角度Ag2が求められる。
Next, the three-dimensional model generation apparatus 200 creates a horizontal distribution of normal vectors of point groups for each building (step S35). Since the point group excluding the horizontal plane of the building, that is, the point group constituting the side surface, is extracted by the process of step S33 and separated for each building by the process of step S34, by creating the normal vector distribution thereof, The normal vector of the side surface can be obtained.
The state of processing is shown in the figure. On the left side, a method for determining the direction of the normal vector is shown. The three-dimensional model generation apparatus 200 calculates a horizontal component nh1 for the normal line n1 of an arbitrary point P1 of the building to be processed. The horizontal component here means a component orthogonal to the provisional gravity direction Gt. The direction of the horizontal component nh1 is represented by an angle Ag1 from the reference axis. This angle Ag1 was determined in the range of 0 to 180 degrees as shown on the right side of the figure. The angle from the reference axis is usually expressed as positive in the counterclockwise direction and negative in the clockwise direction, but here the absolute value is obtained in the range of 0 to 180 degrees due to the nature of the process of obtaining the distribution. It is. Similarly, for the point P2, an angle Ag2 representing the direction of the horizontal component nh2 of the normal vector n2 is obtained.

水平成分の分布が求まると、3次元モデル生成装置200は、この分布に基づいて面を分離する(図8のステップS36)。点群がそれぞれ建物の側面を構成していると考えれば、法線ベクトルの分布に基づき、そのピークを求めれば、それらが側面の法線ベクトルを表すと考えられる。従って、ピークごとに点群をクラスタ化することによって側面ごとに点群を分離することができる。
図中に処理の様子を示した。下側の図に示すように、法線ベクトルの方向ごとに、それに該当する点の数を計数し、図示することによって法線ベクトルの分布を得ることができる。上側の図に示すような平面的な側面からなる建物の場合には、法線ベクトルに比較的明瞭なピークが生じる。図の例では、最大のピーク1は、面積が大きい側の側面に対応し、2番目のピーク2は、面積が小さい側の側面に対応する。
従って、法線ベクトルの水平成分が、それぞれのピーク1、ピーク2に該当する点群を抽出することによって、建物の点群を、側面単位に分離することができる。ここで、図の例では、ピーク1、ピーク2に所定の幅を持たせた範囲(図中の枠で囲んだ部分)で、点群を抽出している。この幅は、ピーク1、ピーク2を区別可能な範囲で任意に設定可能である。ただし、実施例では、水平成分を0〜180度の範囲で求めているため、面積が最大となる側の表面/裏面の双方がクラスタとして分離されることになり、面積が小さい側の側面についても表面/裏面の双方がクラスタとして分離される。
When the distribution of the horizontal component is obtained, the three-dimensional model generation apparatus 200 separates the surfaces based on this distribution (step S36 in FIG. 8). If it is considered that each point cloud constitutes a side surface of a building, it is considered that if the peak is obtained based on the distribution of normal vectors, they represent the normal vector of the side surface. Therefore, the point cloud can be separated for each side by clustering the point cloud for each peak.
The state of processing is shown in the figure. As shown in the lower diagram, the distribution of normal vectors can be obtained by counting the number of corresponding points in each direction of the normal vectors and by illustrating the number. In the case of a building having a planar side surface as shown in the upper diagram, a relatively clear peak occurs in the normal vector. In the example of the figure, the maximum peak 1 corresponds to the side surface on the side with the larger area, and the second peak 2 corresponds to the side surface on the side with the smaller area.
Accordingly, by extracting the point cloud corresponding to the peak 1 and peak 2 of the horizontal component of the normal vector, the building point cloud can be separated into side units. Here, in the example of the figure, the point group is extracted in a range (a part surrounded by a frame in the figure) in which the peak 1 and the peak 2 have a predetermined width. This width can be arbitrarily set within a range in which peak 1 and peak 2 can be distinguished. However, in the embodiment, since the horizontal component is obtained in the range of 0 to 180 degrees, both the front surface / rear surface on the side having the largest area are separated as clusters, and the side surface on the smaller area side is separated. Both the front and back surfaces are separated as clusters.

次に、3次元モデル生成装置200は、分離された点群ごとに点間の距離によるクラスタリングを行う(ステップS37)。クラスタリングの方法は、ステップS34の処理と同様である。ここでは、クラスタリングの判定基準となる距離は、建物の表面/裏面を分離可能な程度の値とすればよい。
図中に処理の様子を示した。左側に示すように、ステップS36の処理では、建物の表面S1、裏面S2が1つのクラスタとして認識されている。これを点間の距離によるクラスタリングを行うと、右側に示すように、距離が離れている表面S1、裏面S2が分類される。図中では、表面S1の点群を×、裏面S2の点群を○で示した。
以上の処理によって、建物の側面ごとに点群が分離されたことになる。
Next, the three-dimensional model generation apparatus 200 performs clustering based on the distance between points for each separated point group (step S37). The clustering method is the same as that in step S34. Here, the distance that is the determination criterion for clustering may be a value that can separate the front / back surfaces of the building.
The state of processing is shown in the figure. As shown on the left side, in the process of step S36, the front surface S1 and the back surface S2 of the building are recognized as one cluster. When this is clustered by the distance between points, the front surface S1 and the back surface S2 that are separated from each other are classified as shown on the right side. In the drawing, the point group on the front surface S1 is indicated by x and the point group on the back surface S2 is indicated by ◯.
By the above processing, the point cloud is separated for each side of the building.

図9に移り、3次元モデル生成装置200は、各面ごとに主成分分析を行い、第3主成分Vi、および第3固有値eiを算出する(ステップS38)。第3主成分は、点群の分布のうち、3番目に分散が大きくなる方向である。第3固有値は、第3主成分の分散値である。
図中に処理の様子を示した。処理対象となる点群は、建物の側面を構成する点群であるから、主成分分析を行うと、面内の分散に応じて第1主成分、第2主成分が求まり、これらに直交する方向、即ち面の法線方向が第3主成分となる。そして、その分散値が第3固有値となる。精度よく点群が得られていれば、点群は精度良く側面上に分布するはずであるから法線方向の分散値は非常に小さくなるはずである。従って、第3固有値が大きいということは、法線方向に点群のばらつきが大きいことを示しており、法線の精度が低いことを表している。この処理を、各面について実行することにより、その面の法線ベクトルを得るとともに、その精度を表す評価値を得ることができる。
Moving to FIG. 9, the three-dimensional model generation apparatus 200 performs principal component analysis for each surface, and calculates a third principal component Vi and a third eigenvalue ei (step S38). The third principal component is the direction in which the third largest dispersion occurs in the point cloud distribution. The third eigenvalue is a dispersion value of the third principal component.
The state of processing is shown in the figure. Since the point cloud to be processed is a point cloud that constitutes the side of the building, when the principal component analysis is performed, the first principal component and the second principal component are obtained according to the in-plane dispersion and are orthogonal to these. The direction, that is, the normal direction of the surface is the third main component. The variance value becomes the third eigenvalue. If the point cloud is obtained with high accuracy, the dispersion value in the normal direction should be very small since the point cloud should be distributed on the side surface with high accuracy. Therefore, a large third eigenvalue indicates that the variation of the point group is large in the normal direction, indicating that the accuracy of the normal is low. By executing this process for each surface, it is possible to obtain a normal vector of the surface and to obtain an evaluation value representing the accuracy.

3次元モデル生成装置200は、こうして得られた第3主成分を用いて重力方向Gを算出する(ステップS39)。
図中に示すように、任意の2つの側面の法線ベクトルVi、Vjを用いて、これらの外積Vi×Vjを求めれば、重力方向Gが得られるはずである。ただし、法線ベクトルVi、Vjには、それぞれ誤差が含まれているから、こうして得られる重力方向Gにも誤差が含まれている。そこで、実施例では、得られている法線ベクトルから、平行ではない任意の組み合わせを選択して、外積により個別の重力方向を求め、その加重平均によって最終的な重力方向Gを算出するものとした。
ここで加重平均は、法線ベクトルの精度を表す第3固有値の和(ei+ej)の逆数とした。第3固有値が大きいほど法線ベクトルの精度が低いことを表しているから、第3固有値の逆数を重み値として乗じることにより、法線ベクトルの精度が高い項ほど重み値が大きくなることになる。以上の考え方に基づき、本実施例では、重力方向は、(Vi×Vj)/(ei+ej)の平均によって求める。
重力方向Gの算出は、上述の方法に限られるものではない。例えば、重み値は、法線ベクトルの精度を反映できればよく、ei+ejの他、eiとejの積などとしてもよい。また、全ての法線ベクトルを用いるのではなく、第3固有値が所定の閾値以下の精度が高いと見なすことができる法線ベクトルのみを用いるようにしてもよい。
The three-dimensional model generation apparatus 200 calculates the gravity direction G using the third principal component obtained in this way (step S39).
As shown in the figure, the gravitational direction G should be obtained by obtaining these outer products Vi × Vj using normal vectors Vi and Vj of arbitrary two side faces. However, since the normal vectors Vi and Vj each contain an error, the gravitational direction G thus obtained also contains an error. Therefore, in the embodiment, an arbitrary combination that is not parallel is selected from the obtained normal vectors, an individual gravity direction is obtained by an outer product, and a final gravity direction G is calculated by a weighted average thereof. did.
Here, the weighted average is the reciprocal of the sum (ei + ej) of the third eigenvalue representing the accuracy of the normal vector. The larger the third eigenvalue, the lower the accuracy of the normal vector. Therefore, by multiplying the inverse of the third eigenvalue as a weight value, the higher the normal vector accuracy, the greater the weight value. . Based on the above concept, in this embodiment, the direction of gravity is obtained by the average of (Vi × Vj) / (ei + ej).
The calculation of the gravity direction G is not limited to the method described above. For example, the weight value only needs to reflect the accuracy of the normal vector, and may be a product of ei and ej in addition to ei + ej. Alternatively, not all normal vectors may be used, but only normal vectors that can be considered to have a high accuracy that the third eigenvalue is equal to or lower than a predetermined threshold value may be used.

以上の処理により、3次元点群に基づいて重力方向を決定することができる。本実施例によれば、仮の重力方向の決定(図6のステップS32)や、側面の法線ベクトルの決定(図9のステップS38)などに主成分分析を適用する。このように統計的な処理を施すことにより、それぞれの点の位置座標および法線ベクトルに含まれる誤差の影響を抑制し、高い精度で重力方向を決定することが可能となる。   Through the above processing, the direction of gravity can be determined based on the three-dimensional point group. According to the present embodiment, principal component analysis is applied to the determination of the provisional gravity direction (step S32 in FIG. 6), the determination of the normal vector of the side surface (step S38 in FIG. 9), and the like. By performing statistical processing in this way, it is possible to suppress the influence of errors included in the position coordinates and normal vectors of each point, and to determine the direction of gravity with high accuracy.

D2.点群分離処理:
図10〜13は、点群分離処理のフローチャートである。3次元モデル生成処理(図5)のステップS21における処理に相当する。
先に実行した重力方向解析処理において、点間の距離によるクラスタリングを利用して、点群を建物単位、さらには建物の側面単位に分離する処理を実行した(図7のステップS34および図8のステップS37)。しかし、建物には、いわゆるツインタワーのように高層階のみが複数に分岐して建築されているものや、中間の階層のみ複数に分岐して建築されているものなどが存在する。重力方向解析処理におけるクラスタリングでは、こうした特殊な形状の建物について、点群を建物単位に分離することはできない。点群分離処理は、こうした建物の存在も考慮し、点群を建物単位に分離する処理を実行する。点群分離処理は、特殊な形状の建物のみを対象とすることも可能ではあるが、3次元点群の中から、かかる形状の建物を抽出すること自体が、容易ではないため、本実施例では、形状が特殊か否かに関わらず、全建物を対象として処理を行うものとしている。
D2. Point cloud separation processing:
10 to 13 are flowcharts of the point group separation process. This corresponds to the process in step S21 of the three-dimensional model generation process (FIG. 5).
In the gravity direction analysis process executed earlier, the process of separating the point group into the building unit and further the side surface unit of the building was performed using clustering based on the distance between the points (step S34 in FIG. 7 and FIG. 8). Step S37). However, there are buildings such as a so-called twin tower in which only a high floor is divided into a plurality of buildings, and only an intermediate hierarchy is divided into a plurality of buildings. In clustering in the gravity direction analysis processing, the point cloud cannot be separated into building units for such a specially shaped building. In the point group separation process, the process of separating the point group into building units is executed in consideration of the existence of such buildings. Although the point group separation process can target only a specially shaped building, it is not easy to extract a building having such a shape from a three-dimensional point group. However, processing is performed for all buildings regardless of whether the shape is special or not.

3次元モデル生成装置200は、処理を開始すると、処理対象となる点群データを読み込む(ステップS50)。図中に処理対象となる点群を例示した。点群の密度は十分に高いため、表示スケールによっては、このように点群のみでも、既に建物の形状が完成しているように視認できるが、あくまでも点群同士は何ら関連づけられておらず、建物ごとに分離もされていない点の集合に過ぎない。   When the process starts, the three-dimensional model generation apparatus 200 reads point cloud data to be processed (step S50). The point group used as a process target was illustrated in the figure. Since the density of point clouds is sufficiently high, depending on the display scale, even if only point clouds like this can be seen as if the shape of the building has already been completed, the point clouds are not associated with each other at all, It is just a collection of points that are not separated for each building.

3次元モデル生成装置200は、読み込んだ点群を階層ごとに分離する(ステップ51)。階層の高さHは、任意に決定可能である。高層階のみが複数に分岐して建築されているなど、特殊な形状の建物であっても、階と階との境で分岐させているのが通常であることを考えると、階層の高さHは、建物一般の各階の高さ相当の値とすることが好ましい。
図中に階層ごとに分離する様子を示した。図中の×は、3次元点群を表している。階層ごとへの分離とは、3次元点群が存在する3次元空間内に、所定の高さHごとに境界平面を設定することによって行う。図の例では、左側の建物の屋上面に階層の境界平面が位置するように示してあるが、境界面は、建物形状とは無関係に設定すればよい。
The three-dimensional model generation apparatus 200 separates the read point group for each hierarchy (step 51). The height H of the hierarchy can be arbitrarily determined. Even if the building has a special shape, such as a high-rise building that is divided into multiple branches, it is normal for the building to be branched at the boundary between the floor and the floor. H is preferably a value corresponding to the height of each floor of a general building.
In the figure, the state of separation for each hierarchy is shown. X in the figure represents a three-dimensional point group. Separation into hierarchies is performed by setting a boundary plane for each predetermined height H in a three-dimensional space in which a three-dimensional point group exists. In the example shown in the figure, the boundary plane of the hierarchy is positioned on the roof surface of the left building, but the boundary surface may be set regardless of the building shape.

次に、3次元モデル生成装置200は、階層内で点間の距離によるクラスタリングを行う(ステップS52)。クラスタリングの方法は、重力方向解析処理で説明したのと同様である(図7のステップS34参照)。
図中に処理の様子を示した。処理対象となる階層内に×で示す点群が存在する場合を考える。距離によってクラスタリングを行うと、点群は、左右の各クラスタCL1、CL2に分離される。屋上に相当する面の点群が、クラスタCL1にのみ含まれているのは、クラスタCL2側の建物は、処理対象となった階層よりも高く、この階層には側面の点群しか含まれないからである。
Next, the three-dimensional model generation apparatus 200 performs clustering based on the distance between points in the hierarchy (step S52). The clustering method is the same as that described in the gravity direction analysis process (see step S34 in FIG. 7).
The state of processing is shown in the figure. Consider a case in which a point group indicated by x exists in the hierarchy to be processed. When clustering is performed according to the distance, the point group is separated into the left and right clusters CL1 and CL2. The reason why the point cloud corresponding to the rooftop is included only in the cluster CL1 is that the building on the cluster CL2 side is higher than the layer to be processed, and this layer includes only the side point cloud. Because.

図11に移り、3次元モデル生成装置200は、分離された各クラスタについて、上向き法線の分布を計算する(ステップS53)。上向き法線は、例えば、図中の左側に示すように、点の法線ベクトルnと重力方向Gとの内積の絶対値|n・G|(以下、この処理の説明において、「評価値」と呼ぶこともある)によって評価することができる。この評価値が所定値以上であれば、重力方向Gに近く、上向きの法線であると判断することができるのである。
図の右側に、上向き法線の分布を示した。側面のみに点群が存在するクラスタCL2の結果は、実線で示すように、全点群のうち、評価値|n・G|が比較的小さい値となる点の割合が高くなる。一方、屋上面の点群も含まれるクラスタCL1の結果は、破線で示すように、全点群のうち、評価値|n・G|が比較的小さい値となる点の割合および値1付近の点の割合の2カ所が高くなる。
Moving to FIG. 11, the three-dimensional model generation device 200 calculates the distribution of upward normals for each separated cluster (step S53). For example, as shown on the left side of the figure, the upward normal is the absolute value | n · G | of the inner product of the point normal vector n and the gravity direction G (hereinafter referred to as “evaluation value” in the description of this processing). Can also be evaluated). If this evaluation value is equal to or greater than a predetermined value, it can be determined that the normal is close to the gravity direction G and is an upward normal.
The distribution of upward normals is shown on the right side of the figure. As a result of the cluster CL2 in which the point group exists only on the side surface, as indicated by the solid line, the ratio of the points where the evaluation value | n · G | On the other hand, as shown by the broken line, the result of the cluster CL1 including the point group on the roof surface is the ratio of the points where the evaluation value | n · G | Two points of the point ratio become high.

3次元モデル生成装置200は、こうして得られた分布に従い、各クラスタに属性を付与する(ステップS54)。即ち、上向き法線の割合が所定の閾値THVを超える場合には上面と定義し、そうでない場合には側面と定義するのである。上面というのは、その点群が必ずしも上面のみから構成されるという意味ではなく、上面を含む点群であることを意味する。ステップS53に示した例によれば、クラスタCL1は上面と定義され、クラスタCL2は側面と定義されることになる。定義に用いる閾値THVは、上面が存在するか否かの判断基準となる値であり、点群の法線ベクトルに含まれる誤差や、通常の建物の上面の面積に基づいて任意に設定することができる。
ステップS54の図中に、属性の付与結果を示した。ここでは、独立した直方体形状の建物と、高層階のみ2つに分岐している建物を例示している。箱を積み重ねたように描かれているのは、階層への分離結果を模式的に表すものである。図中では、上面をハッチングで、側面を白抜きで示した。図に示すように、独立した建物では、屋上面を含む階層R1が上面と判断される。分岐した建物では、分岐部分の各屋上面R2、R3、および分岐の根元に当たる中間階層R4が上面と判断される。
さらに、本実施例では、地表面も上面と判断される。3次元点群においては、建物と地表面との分離もなされておらず、地表面は、上向き法線の割合が高い面に相当するからである。
The three-dimensional model generation apparatus 200 assigns an attribute to each cluster according to the distribution thus obtained (step S54). That is, when the ratio of the upward normal line exceeds a predetermined threshold value THV, it is defined as the upper surface, and otherwise it is defined as the side surface. The upper surface does not necessarily mean that the point group is composed only of the upper surface, but means that the point group includes the upper surface. According to the example shown in step S53, the cluster CL1 is defined as the upper surface, and the cluster CL2 is defined as the side surface. The threshold value THV used in the definition is a value used as a criterion for determining whether or not the upper surface exists, and is arbitrarily set based on an error included in the normal vector of the point cloud or an area of the upper surface of a normal building. Can do.
The attribute assignment result is shown in the drawing of step S54. Here, an independent rectangular parallelepiped building and a building that branches into two only on the upper floors are illustrated. What is drawn as a stack of boxes is a schematic representation of the result of separation into layers. In the drawing, the upper surface is hatched and the side surface is white. As shown in the figure, in an independent building, the level R1 including the roof surface is determined as the upper surface. In a branched building, the top surfaces R2 and R3 of the branching portion and the middle layer R4 corresponding to the root of the branch are determined as the top surface.
Furthermore, in this embodiment, the ground surface is also determined as the upper surface. This is because in the three-dimensional point group, the building and the ground surface are not separated, and the ground surface corresponds to a surface having a high ratio of upward normals.

図12に移り、3次元モデル生成装置200は、隣接階層のクラスタ間の距離を算出する(ステップS55)。先に付与したクラスタの属性(上面、側面)は、この処理では考慮する必要はない。
図中に処理の様子を示した。ここでは、上階層に属するクラスタCLUと、その下階層に属するクラスタCLL1、CLL2との距離の算出について説明する。人間が見ると、クラスタCLUと、クラスタCLL2が、同じ建物の上下に位置するクラスタであることは容易に識別できるが、コンピュータが3次元点群の解析をする過程においては、かかる判断を行うためのアルゴリズムが必要である。隣接階層のクラスタ間の距離の算出は、同じ建物の上下に配置するクラスタを特定するために行う処理であるから、上階層に属するクラスタCLUは、その下階層に属する全クラスタCLL1、CLL2を対象に、クラスタ間の距離を算出することになる。
3次元モデル生成装置200は、まず、処理の対象となる各クラスタCLU、CLL1、CLL2の点群を、水平面に投影する。そして、投影面内において、クラスタCLUに属する点とクラスタCLL1に属する点の間の距離を算出し、その距離の最小値を両クラスタ間の距離とする。つまり、クラスタCLUに属する点(図中の〇)およびクラスタCLL1に属する点(図中の×)は多数存在するため、それぞれから1点ずつを任意に選出し、点間の距離を算出する。全ての点の組み合わせについて距離を算出し、その中の最小値を求めることにより、クラスタCLUとクラスタCLL1との距離を求めることができる。図の例では、クラスタCLU内の点P1と、クラスタCLL1の点P3間の距離D11が、両クラスタ間の距離となる。
同様の方法で、3次元モデル生成装置200は、クラスタCLUと、クラスタCLL2との間の距離を算出する。図の例では、クラスタCLU内の点P1と、クラスタCLL1の点P2間の距離D12が、両クラスタ間の距離となる。
クラスタCLL1、CLL2は、同階層に属するクラスタであるため、クラスタ間の距離を算出する必要はない。
Moving to FIG. 12, the three-dimensional model generation apparatus 200 calculates the distance between clusters in adjacent layers (step S55). The cluster attributes (upper surface and side surface) previously assigned need not be considered in this processing.
The state of processing is shown in the figure. Here, calculation of the distance between the cluster CLU belonging to the upper hierarchy and the clusters CLL1 and CLL2 belonging to the lower hierarchy will be described. For humans, it can be easily identified that the cluster CLU and the cluster CLL2 are clusters located above and below the same building. However, in the process of analyzing the three-dimensional point cloud, the computer makes such a determination. The algorithm is necessary. Since the calculation of the distance between the clusters in the adjacent hierarchy is a process performed to specify the clusters arranged above and below the same building, the cluster CLU belonging to the upper hierarchy targets all the clusters CLL1 and CLL2 belonging to the lower hierarchy. In addition, the distance between the clusters is calculated.
The three-dimensional model generation apparatus 200 first projects the point group of each cluster CLU, CLL1, CLL2 to be processed on a horizontal plane. Then, in the projection plane, the distance between the points belonging to the cluster CLU and the points belonging to the cluster CLL1 is calculated, and the minimum value of the distance is set as the distance between both clusters. That is, since there are many points belonging to the cluster CLU (◯ in the figure) and points (x in the figure) belonging to the cluster CLL1, one point is arbitrarily selected from each, and the distance between the points is calculated. The distance between the cluster CLU and the cluster CLL1 can be obtained by calculating the distance for all combinations of points and obtaining the minimum value among them. In the illustrated example, the distance D11 between the point P1 in the cluster CLU and the point P3 in the cluster CLL1 is the distance between both clusters.
In the same way, the three-dimensional model generation device 200 calculates the distance between the cluster CLU and the cluster CLL2. In the example of the figure, the distance D12 between the point P1 in the cluster CLU and the point P2 in the cluster CLL1 is the distance between both clusters.
Since the clusters CLL1 and CLL2 are clusters belonging to the same hierarchy, it is not necessary to calculate the distance between the clusters.

次に、3次元モデル生成装置200は、算出されたクラスタ間距離<Thdとなるクラスタ間を、同じ建物で上下に重なっているものと判断し、これらを関連づけする(ステップS56)。
図中に処理の様子を示した。クラスタCLUから見た場合、クラスタCLL1との間のクラスタ間距離D11は閾値Thdよりも大きく、クラスタCLL2との間のクラスタ間距離D12は閾値Thdよりも小さいとする。この結果、クラスタCLUに対しては、クラスタCLL2が同じ建物で上下関係にあるものと関連づけられ、クラスタCLL1は、関連づけられない。
閾値Thdは、このように上下関係を判断するための基準となる値である。その値は、建築物の分岐部分の間隔よりも小さい範囲で任意に設定することができる。
実施例では、最も下位層には、地表面が存在しており、建物と地表面との間のクラスタ間距離は小さくなるから、全ての建物は、地表面に関連づけられることになる。
Next, the three-dimensional model generation apparatus 200 determines that the clusters satisfying the calculated inter-cluster distance <Thd are overlapped in the same building, and associates them (step S56).
The state of processing is shown in the figure. When viewed from the cluster CLU, it is assumed that the intercluster distance D11 between the cluster CLL1 is larger than the threshold Thd and the intercluster distance D12 between the clusters CLL2 is smaller than the threshold Thd. As a result, with respect to the cluster CLU, the cluster CLL2 is associated with the same building in the vertical relationship, and the cluster CLL1 is not associated.
The threshold value Thd is a reference value for determining the vertical relationship in this way. The value can be arbitrarily set in a range smaller than the interval between the branch portions of the building.
In the embodiment, the ground surface exists in the lowest layer, and the intercluster distance between the building and the ground surface is small. Therefore, all the buildings are associated with the ground surface.

図13に移り、3次元モデル生成装置200は、全クラスタについて関連付けを行い、全体の関連付けを表すツリー構造を生成する(ステップS57)。
図中にツリー構造の例を示した。左側に示す建物を例にとり、右側にそのツリー構造を示してある。独立して建築されている建物LV3については、特に分岐や合流することなく、一本の筋として各クラスタが関連づけられ、地表面LV5に到達する。
分岐している建物については、高層階の分岐部分LV1、LV2から低層階に向けて、それぞれ分岐した状態で関連づけが行われた後、中間の階層LV4で合流し、その後、低層階では一本の筋として各クラスタが関連づけられ、地表面LV5に到達する。他の建物についても、同様の方法によりツリー構造が生成される。
図中では、ツリー構造を図示しているが、ステップS57におけるツリー構造生成とは、必ずしもこのような図を描くことを意味するものではなく、全クラスタ間の関連付けを特定することを意味している。
Moving to FIG. 13, the three-dimensional model generation apparatus 200 associates all clusters and generates a tree structure representing the entire association (step S57).
An example of a tree structure is shown in the figure. Taking the building shown on the left as an example, the tree structure is shown on the right. About the building LV3 constructed independently, each cluster is associated as a single line without branching or joining, and reaches the ground surface LV5.
As for the buildings that are branched, after being linked in the state of branching from the branch portions LV1 and LV2 on the higher floor to the lower floor, they merge at the middle level LV4, and then one on the lower floor Each cluster is associated as a streak and reaches the ground surface LV5. For other buildings, a tree structure is generated by the same method.
In the figure, the tree structure is illustrated, but the generation of the tree structure in step S57 does not necessarily mean drawing such a figure, but means specifying the association between all clusters. Yes.

次に、3次元モデル生成装置200は、ツリー構造を参照し、最下位層のクラスタを地表面と判定する(ステップS58)。3次元点群において地表面が含まれていることが既知である場合には、前処理として、最下位層を地表面と判断する方法をとってもよい。本実施例のように上下関係の関連づけにおいて最下位層を判断する方法をとれば、地表面の存在が確認できていない場合でも、地表面を特定することが可能となる。   Next, the three-dimensional model generation apparatus 200 refers to the tree structure and determines that the lowest layer cluster is the ground surface (step S58). When it is known that the ground surface is included in the three-dimensional point group, a method of determining the lowest layer as the ground surface may be taken as preprocessing. If the method of determining the lowest layer in associating the upper and lower relationships as in the present embodiment, it is possible to specify the ground surface even when the presence of the ground surface cannot be confirmed.

次に、3次元モデル生成装置200は、地表面に隣接するクラスタ単位で点群を分離する(ステップS59)。全建物は最終的には地表面に関連づけられていると考えると、地表面に隣接するクラスタ、即ち、地表面のすぐ上の階層のクラスタは、建物の基礎部分を表すものと考えられる。従って、基礎部分の階層ごとに点群を分離すれば、建物ごとに点群を分離することが可能となる。
図中に処理の様子を示した。最下位層の地表面(図中の破線)を除き、その直上の階層CLR1、CLR2が建物の基礎部分に相当すると判断する。従って、階層CLR1に関連づけられている一覧のクラスタは建物1を表すものと判断される。また、階層CLR2に関連づけられている一連のクラスタは、途中で分岐する部分も含めて、建物2を表すものと判断される。
このようにクラスタの関連付けおよびツリー構造を利用することにより、特殊な形状の建物も含め、3次元点群を建物ごとに分離することが可能となる。
Next, the three-dimensional model generation apparatus 200 separates the point group in units of clusters adjacent to the ground surface (step S59). Considering that all buildings are ultimately associated with the ground surface, the clusters adjacent to the ground surface, that is, the clusters in the hierarchy immediately above the ground surface, are considered to represent the basic portion of the building. Therefore, if the point cloud is separated for each layer of the foundation portion, the point cloud can be separated for each building.
The state of processing is shown in the figure. Except for the ground surface of the lowest layer (broken line in the figure), it is determined that the levels CLR1 and CLR2 directly above correspond to the basic part of the building. Therefore, it is determined that the list of clusters associated with the hierarchy CLR1 represents the building 1. In addition, a series of clusters associated with the hierarchy CLR2 is determined to represent the building 2 including a part that branches in the middle.
By using the cluster association and the tree structure in this way, it is possible to separate a three-dimensional point group for each building, including specially shaped buildings.

D3.建物枠生成処理:
図14、15は、建物枠生成処理のフローチャートである。3次元モデル生成処理(図5)のステップS22における処理に相当する。建物ごとに分離された3次元点群に基づいて、建物の2次元形状を特定する処理である。
3次元モデル生成装置200は、処理対象となる建造物の3次元点群データを読み込む(ステップS70)。
そして、点群の法線ベクトルに基づいて、上面の点群、側面の点群を分離する(ステップS71)。
図中に処理の様子を示した。上面の点群は、点P1のように法線ベクトルが上を向いているものとなり、側面の点群は、点P2のように法線ベクトルがほぼ水平方向を向いているものとなる。上向きの法線ベクトルを有する点群は、点群分離処理と同様の方法で特定することができる(図11のステップS53参照)。
図中の例では、建造物について、上面1、上面2という2つの高さの異なる上面(図中にハッチングを付した部分)と、その他の側面とが分離される。建物枠生成処理は、通常、建物の2次元形状は上面を外包する形状となっているであろうとの考えに基づいて行われるものである。従って、ステップS70で分離する上面は、図中に示した上面1、上面2のように高さの異なる面であってもよい。
D3. Building frame generation processing:
14 and 15 are flowcharts of the building frame generation process. This corresponds to the process in step S22 of the three-dimensional model generation process (FIG. 5). This is processing for specifying a two-dimensional shape of a building based on a three-dimensional point group separated for each building.
The three-dimensional model generation device 200 reads the three-dimensional point cloud data of the building to be processed (Step S70).
Then, based on the normal vector of the point group, the top point group and the side point group are separated (step S71).
The state of processing is shown in the figure. The point group on the upper surface has a normal vector facing upward as indicated by a point P1, and the point group on the side surface has a normal vector substantially facing a horizontal direction as indicated by a point P2. A point cloud having an upward normal vector can be identified by a method similar to the point cloud separation process (see step S53 in FIG. 11).
In the example in the figure, the upper surface 1 and the upper surface 2 of two different heights (the hatched portion in the figure) are separated from the other side surfaces of the building. The building frame generation processing is normally performed based on the idea that the two-dimensional shape of the building will be a shape that encloses the upper surface. Therefore, the upper surfaces separated in step S70 may be surfaces having different heights such as the upper surface 1 and the upper surface 2 shown in the drawing.

3次元モデル生成装置200は、分離された側面に沿わせてグリッドを配置する(ステップS72)。
図中に処理の様子を示した。分離された側面には、多数の点群が存在する。これらの点群を水平面に投影すると建造物の平面形状、即ち建物枠に沿って分布する点群が得られる。これらの多数の点群を通過する線分を解析によって求めることも可能ではあるが、本実施例では、より簡易な方法として、グリッドを利用することで、建物枠の決定に際し、考慮すべき点群を減らすものとした。
図の右側にグリッドを配置した例を示した。グリッドは建造物に対して任意の状態で配置することが可能であるが、建物枠の形状を精度良く表すために、グリッドGL1のように建物枠に対して斜めに配置するよりは、グリッドGL2のように建物枠の最も長い辺に沿って配置することが好ましい。
かかる配置を行う方法としては、例えば、建物枠の点群を解析して最も長い辺の方向を求め、グリッドGL2の配置方向を決定する方法をとることができる。
また、別の方法として、次の2段階の方法で求めても良い。第1に、グリッドを仮配置した上で、点群が属している格子を抽出し、この格子がグリッドの縦または横方向に並ぶ最長の長さを評価値として求める。第2に、グリッドの配置方向を回転させながら、同様にして評価値を求め、この評価値が最大となる方向を求める。こうすることによっても、グリッドを建物枠に沿わせて配置することができる。
グリッドの格子サイズは任意に設定可能である。格子サイズが小さければ、建物形状を精度良く表すことができる一方、処理負荷が高くなる。格子サイズが大きければ、建物形状を表す精度が粗くなるが、処理負荷が軽減される。これらを考慮しながら、格子サイズは決定すればよい。
The three-dimensional model generation apparatus 200 arranges the grid along the separated side surfaces (step S72).
The state of processing is shown in the figure. A large number of point clouds exist on the separated side surfaces. When these point groups are projected onto a horizontal plane, a plane shape of the building, that is, a point group distributed along the building frame is obtained. Although it is possible to obtain line segments passing through these many point groups by analysis, in this embodiment, as a simpler method, points to be considered when determining the building frame by using a grid. The group was to be reduced.
An example in which a grid is arranged on the right side of the figure is shown. The grid can be arranged in an arbitrary state with respect to the building. However, in order to accurately represent the shape of the building frame, the grid GL2 is more preferable than the case where the grid is arranged obliquely like the grid GL1. It is preferable to arrange | position along the longest side of a building frame like.
As a method of performing such arrangement, for example, a method of determining the arrangement direction of the grid GL2 by analyzing the point cloud of the building frame to obtain the direction of the longest side can be used.
Further, as another method, the following two-stage method may be used. First, after temporarily arranging the grid, a grid to which the point group belongs is extracted, and the longest length in which the grid is arranged in the vertical or horizontal direction of the grid is obtained as an evaluation value. Second, the evaluation value is obtained in the same manner while rotating the grid arrangement direction, and the direction in which the evaluation value is maximized is obtained. In this way, the grid can be arranged along the building frame.
The grid size of the grid can be set arbitrarily. If the lattice size is small, the building shape can be expressed with high accuracy, while the processing load increases. If the lattice size is large, the accuracy of representing the building shape becomes coarse, but the processing load is reduced. The lattice size may be determined in consideration of these.

図15に移り、3次元モデル生成装置200は、配置されたグリッドに対して上面の3次元点群を投影する(ステップS73)。
図中に点群を投影した状態を示した。点は×で表してある。各グリッド内に1個または複数の点群が存在する格子、全く点が存在しない格子が表れる。
上面に代えて、側面の点群を投影するものとしてもよいが、途中から分岐している建物(図11のステップS54参照)や、側面よりも上面が張り出している建物では、建物枠を正確に特定できない場合が生じ得るため、上面を用いることが好ましい。
Moving to FIG. 15, the three-dimensional model generation device 200 projects a three-dimensional point group on the upper surface onto the arranged grid (step S <b> 73).
The point cloud is projected in the figure. The points are represented by x. A grid in which one or a plurality of point groups exist in each grid, or a grid in which no points exist at all appears.
Instead of the top surface, a point cloud on the side surface may be projected. However, in a building that branches off from the middle (see step S54 in FIG. 11) or a building whose upper surface projects beyond the side surface, It is preferable to use the upper surface because there may be cases where it cannot be specified.

次に、3次元モデル生成装置200は、点群が存在するグリッドを抽出することで、建物枠を決定する(ステップS74)。
図中に処理の様子を示した。ステップS73に示した点群の投影結果に基づき、1又は複数の点が存在する格子を抽出する。ステップS74内の図では、このような格子にハッチングを付して示した。3次元モデル生成装置200は、ハッチングを付した各格子の代表点を結ぶことによって建物枠を特定する。本実施例では、格子の重心(図中の●で示した点)を代表点として用いた。
この処理によって、処理対象となるべき点数は、建物枠に対応する位置にある格子点の数にまで減少される。
Next, the three-dimensional model generation apparatus 200 determines a building frame by extracting a grid in which point clouds are present (step S74).
The state of processing is shown in the figure. Based on the projection result of the point group shown in step S73, a grid in which one or more points exist is extracted. In the figure in step S74, such a lattice is shown with hatching. The three-dimensional model generation apparatus 200 specifies a building frame by connecting the representative points of the hatched grids. In this example, the center of gravity of the lattice (the point indicated by ● in the figure) was used as the representative point.
By this processing, the number of points to be processed is reduced to the number of grid points at the position corresponding to the building frame.

3次元モデル生成装置200は、さらに、頂点を間引く処理を行う(ステップS75)。
本実施例では、図中の左側に示すように、ほぼ直線的に配列されていると判断される部分について、中央に位置する頂点を削除する方法を採用した。例えば、頂点a、b、cが存在する場合、線分ab、bcの外角αを求める。そして、α<閾値の場合には、これらの3点がほぼ直線的に並んでいるものと判断し、頂点bを削除するのである。閾値は、頂点bを削除するか否かの判断基準となる値であり、頂点bを削除することによって建物枠に有意な形状変化を与えるか否かという観点から任意に設定することができる。
図の右側には、頂点を削除した結果を例示した。この処理によって、ステップS74で示した形状に対し、ステップS75の図中に示すように、頂点P1〜P4の4点に削除することができる。
以上の処理によって、3次元モデル生成装置200は、建物枠を決定することができる。
The three-dimensional model generation apparatus 200 further performs a process of thinning out the vertices (step S75).
In this embodiment, as shown on the left side in the figure, a method of deleting a vertex located at the center of a portion determined to be arranged substantially linearly is adopted. For example, when the vertices a, b, and c exist, the outer angle α of the line segments ab and bc is obtained. If α <threshold, it is determined that these three points are arranged almost linearly, and the vertex b is deleted. The threshold value is a value serving as a criterion for determining whether or not to delete the vertex b, and can be arbitrarily set from the viewpoint of whether or not a significant shape change is given to the building frame by deleting the vertex b.
The result of deleting a vertex is illustrated on the right side of the figure. With this process, the shape shown in step S74 can be deleted at the four points of vertices P1 to P4 as shown in the drawing of step S75.
Through the above processing, the three-dimensional model generation apparatus 200 can determine a building frame.

D4.位置合わせ処理:
図16は、位置合わせ処理のフローチャートである。3次元モデル生成処理(図5)のステップS23における処理に相当する。
先に説明した処理によって、3次元点群は建物単位に分割され、しかも建物枠までは求められている。しかし、こうして得られた建物枠は、点群の解析によるものであり、点群の位置誤差および解析誤差などが含まれているため、必ずしも3次元の地図モデルとして使用できるほどの精度は有していない。位置合わせ処理では、2次元地図データを参照することによって、建物枠の形状や位置の精度の向上を図る。
ここで、最初に本実施例での処理の考え方を説明しておく。本実施例における位置合わせ処理は、建物ごとに2次元地図データと対比して、形状や位置の微修正を行うものではない。本実施例では、目標の建物周辺の領域について3次元点群が得られており、これらの3次元点群は、建物ごとに上面、側面を再現するのと同様の精度で、建物間の相対的な位置関係も表しているはずである。かかる考え方の下、本実施例では、これまでの処理で得られている複数の建物枠の全体を,2次元地図に最も精度良く適合させ得る形状および位置の変換方法を見いだすのである。
建物ごとに位置、形状を合わせる方法では、建物の相対的な位置関係について3次元点群が有する情報を無視することになる。これに対し、本実施例の方法によれば、建物ごとの形状、および建物の相対的な位置関係について、3次元点群が有する情報を十分に活用することができるため、精度良く位置合わせを行うことが可能となるのである。以下、その処理方法について説明する。
D4. Alignment process:
FIG. 16 is a flowchart of the alignment process. This corresponds to the process in step S23 of the three-dimensional model generation process (FIG. 5).
By the processing described above, the three-dimensional point group is divided into building units, and the building frame is also required. However, the building frame obtained in this way is based on the point cloud analysis and includes the point cloud position error and analysis error. Therefore, the building frame is not necessarily accurate enough to be used as a three-dimensional map model. Not. In the alignment process, the accuracy of the shape and position of the building frame is improved by referring to the two-dimensional map data.
Here, the concept of processing in this embodiment will be described first. The alignment processing in the present embodiment does not perform fine correction of the shape and position in comparison with the two-dimensional map data for each building. In this embodiment, three-dimensional point clouds are obtained for the area around the target building, and these three-dimensional point clouds are relative to each other with the same accuracy as reproducing the top surface and side surface of each building. It should also represent a typical positional relationship. Under this concept, the present embodiment finds a shape and position conversion method that can most accurately fit the whole of the plurality of building frames obtained by the above processing to the two-dimensional map.
In the method of matching the position and shape for each building, information held by the three-dimensional point group is ignored regarding the relative positional relationship of the buildings. On the other hand, according to the method of the present embodiment, the information of the three-dimensional point group can be fully utilized for the shape of each building and the relative positional relationship of the buildings, so that the alignment can be performed with high accuracy. It is possible to do this. The processing method will be described below.

処理を開始すると、3次元モデル生成装置200は、3次元点群データおよび2次元地図データを読み込む(ステップS80)。
そして、3次元点群に基づき、側面の端点位置を算出する(ステップS81)。
図中に処理の様子を示した。側面の点群に基づき、側面を表す法線ベクトルnを求める。法線ベクトルnは、重力方向解析処理と同様の方法によって求めることができる(図9のステップS38参照)。
また、重力方向gと法線ベクトルnとの外積g×nによって、これらに直交する方向、即ち側面の幅方向を求める。こうして求められた幅方向において側面の点群が最も遠方に位置する点W1、W2を求め、これを側面の端点位置とするのである。ここで、3次元点群は散在しているため、幅方向の線分上に点W1、W2が存在するとは限らない。そこで、側面を構成する点群を、幅方向の線分上に投影した上で、点W1、W2を求める方法をとることができる。
When the process is started, the 3D model generation apparatus 200 reads 3D point cloud data and 2D map data (step S80).
Then, the end point position of the side surface is calculated based on the three-dimensional point group (step S81).
The state of processing is shown in the figure. A normal vector n representing the side surface is obtained based on the side point cloud. The normal vector n can be obtained by the same method as the gravity direction analysis process (see step S38 in FIG. 9).
Further, the direction orthogonal to these, that is, the width direction of the side surface is obtained by the outer product g × n of the gravity direction g and the normal vector n. In this way, the points W1 and W2 at which the point group on the side surface is located farthest in the width direction are obtained and set as the end point positions on the side surface. Here, since the three-dimensional point group is scattered, the points W1 and W2 are not always present on the line segment in the width direction. Therefore, it is possible to take a method of obtaining the points W1 and W2 after projecting the point group constituting the side surface onto the line segment in the width direction.

次に、3次元モデル生成装置200は、側面の端点位置を、2次元地図に合わせるよう位置合わせを行う(ステップS82)。
図中に処理の様子を示した。左側に破線で示したのが3次元点群の分布によって得られる建物枠の形状を表し、右側の実線および点が2次元地図上の建物枠およびその頂点を表している。
この例では、3次元点群のうち、2つの建物から求められた側面の端点W1、W2、W3、W4を2次元地図に合わせる例を示した。3次元モデル生成装置200は、まず、端点W1〜W4について、2次元地図上の頂点と任意に対応づけを行う。3次元点群と2次元地図とを人間が見れば、端点W1〜W4と2次元地図上の頂点との対応関係は容易に特定することができるが、コンピュータが処理を行う際には、両者を対応づける情報が何も存在しないため、双方から任意に選択したものを対応づけることになるのである。
例えば、端点W1、W2、W3、W4を頂点f1、f2、f5、f6にそれぞれ対応づけたものとする。次に、3次元モデル生成装置200は、この対応づけに適合するような、3次元点群の位置を変換するための変換式を求める。本実施例では、ホモグラフィ変換の変換行列を求めるものとした。そして、かかる変換により3次元点群の形状および位置がどの程度変形するのかを表す評価値を求める。この評価値の算出方法については後述する。
3次元モデル生成装置200は、端点と頂点との対応関係を変更しながら、上述の変換行列の算出、評価値の算出を繰り返す。そして、最も小さい変形で、3次元点群を2次元地図に適合させられる対応関係を特定するのである。
図の例では、端点W1、W2、W3、W4を頂点f1、f2、f5、f6に対応づけた場合には、これを実現する変換では、3次元点群の形状、位置が大きく変形する。これに対し、端点W1、W2、W3、W4を頂点f1、f2、f3、f4に対応づけると、これを実現する変換では、3次元点群の形状、位置の変形は小さい。この結果、端点W1、W2、W3、W4は頂点f1、f2、f3、f4に対応するものと特定することができる。
かかる考え方により、最適な対応関係を特定する方法を焼きなまし法、またはシミューレーテッドアニーリング法と呼ぶ。対応関係の特定は、他の方法を用いるものとしてもよい。
Next, the three-dimensional model generation apparatus 200 performs alignment so that the end point position of the side surface is aligned with the two-dimensional map (step S82).
The state of processing is shown in the figure. A broken line on the left side represents the shape of the building frame obtained by the distribution of the three-dimensional point group, and a solid line and points on the right side represent the building frame and its apex on the two-dimensional map.
In this example, an example in which end points W1, W2, W3, and W4 of side surfaces obtained from two buildings in the three-dimensional point group are matched with a two-dimensional map is shown. First, the three-dimensional model generation apparatus 200 arbitrarily associates the end points W1 to W4 with vertices on the two-dimensional map. If a human sees the 3D point cloud and the 2D map, the correspondence between the end points W1 to W4 and the vertices on the 2D map can be easily specified. Since there is no information for associating with each other, information arbitrarily selected from both sides is associated with each other.
For example, it is assumed that the end points W1, W2, W3, and W4 are associated with the vertices f1, f2, f5, and f6, respectively. Next, the three-dimensional model generation apparatus 200 obtains a conversion formula for converting the position of the three-dimensional point group that matches this association. In this embodiment, a transformation matrix for homography transformation is obtained. Then, an evaluation value indicating how much the shape and position of the three-dimensional point group is deformed by such conversion is obtained. A method for calculating the evaluation value will be described later.
The three-dimensional model generation apparatus 200 repeats the above-described conversion matrix calculation and evaluation value calculation while changing the correspondence between the end points and the vertices. And the correspondence which can make a three-dimensional point group adapt to a two-dimensional map by the smallest deformation is specified.
In the example shown in the figure, when the end points W1, W2, W3, and W4 are associated with the vertices f1, f2, f5, and f6, in the transformation that realizes this, the shape and position of the three-dimensional point group are greatly deformed. On the other hand, when the end points W1, W2, W3, and W4 are associated with the vertices f1, f2, f3, and f4, in the transformation that realizes this, the deformation of the shape and position of the three-dimensional point group is small. As a result, the end points W1, W2, W3, and W4 can be specified as corresponding to the vertices f1, f2, f3, and f4.
Based on this way of thinking, a method for specifying an optimum correspondence is called an annealing method or a simulated annealing method. The correspondence relationship may be specified using another method.

図17は、位置合わせ処理における評価値を示す説明図である。
先に説明した通り、位置合わせ処理では、3次元点群を2次元地図に合わせた場合の変形の大きさを評価する評価値を用いることになる。
図17(a)は、正方形ABCDを用いた評価値の算出方法を示している。図16のステップS82において、3次元点群の端点から2次元地図の頂点への変換方法が求められると、この変換方法によって正方形ABCDを変換することによって四角形A1、B1、C1、D1が得られる。変換方法による変形が小さいほど、変形後の四角形A1、B1、C1、D1は元の正方形ABCDに近い形状をなすはずである。従って、正方形からの形状の変化を、この変換方法の評価値として用いることができる。かかる評価値としては例えば、次の評価値Ea1が考えられる。
評価値Ea1=|A1/(π/2)−1|+|B1/(π/2)−1|+|C1/(π/2)−1|+|D1/(π/2)−1|;
ここで、A1、B1、C1、D1は、各頂角の大きさ(rad)を表している。
評価値Ea1は、変形後の四角形A1、B1、C1、D1の頂角の90度(π/2(rad))からのずれに着目した評価値である。この例では、頂角A1、B1、C1、D1の全てを用いて評価値を求めているが、いずれかの頂角で代表させてもよい。
FIG. 17 is an explanatory diagram showing evaluation values in the alignment process.
As described above, in the alignment process, an evaluation value for evaluating the magnitude of deformation when a three-dimensional point group is aligned with a two-dimensional map is used.
FIG. 17A shows a method for calculating an evaluation value using square ABCD. In step S82 in FIG. 16, when a conversion method from the end points of the three-dimensional point group to the vertices of the two-dimensional map is obtained, squares A1, B1, C1, and D1 are obtained by converting the square ABCD by this conversion method. . The smaller the deformation due to the conversion method, the deformed squares A1, B1, C1, and D1 should have a shape closer to the original square ABCD. Therefore, the change in shape from the square can be used as an evaluation value for this conversion method. As such an evaluation value, for example, the following evaluation value Ea1 can be considered.
Evaluation value Ea1 = | A1 / (π / 2) -1 | + | B1 / (π / 2) -1 | + | C1 / (π / 2) -1 | + | D1 / (π / 2) -1 |;
Here, A1, B1, C1, and D1 represent the magnitude (rad) of each apex angle.
The evaluation value Ea1 is an evaluation value paying attention to a deviation from 90 degrees (π / 2 (rad)) of the apex angles of the quadrangles A1, B1, C1, and D1 after deformation. In this example, the evaluation values are obtained using all of the apex angles A1, B1, C1, and D1, but may be represented by any apex angle.

また、別の評価値として、次の評価値Ea2を用いても良い。
評価値Ea2=|1−(A1B1)/(C1D1)|;
ここで、A1B1は辺A1B1の長さ、C1D1は辺C1D1の長さを表している。
評価値Ea2は、変形後の四角形A1、B1、C1、D1の向かい合う辺の長さの変化に着目した評価値である。この例では、辺A1B1と辺C1D1を用いているが、他の対辺、即ち辺A1D1と辺B1C1とを併せて用いるようにしてもよい。
Moreover, you may use the following evaluation value Ea2 as another evaluation value.
Evaluation value Ea2 = | 1- (A1B1) / (C1D1) |;
Here, A1B1 represents the length of the side A1B1, and C1D1 represents the length of the side C1D1.
The evaluation value Ea2 is an evaluation value paying attention to a change in the length of opposite sides of the deformed squares A1, B1, C1, and D1. In this example, the side A1B1 and the side C1D1 are used, but other opposite sides, that is, the side A1D1 and the side B1C1 may be used together.

図17(b)は、3次元点群の端点と、それに対応する2次元地図の頂点との相対的な位置関係に基づく評価値の算出方法を示している。図の左側には、3次元点群における端点W1〜W5を示した。これらの端点W1〜W5の重心はGWと求められ、各端点の相対的な位置関係は、端点から重心に向かう線分のなす角によって表すことができる。例えば、端点W1、W2の位置関係は、線分W1、GWと線分W2、GWとのなす角θW12で表される。
右側には、2次元地図において端点W1〜W5に対応づけられている頂点f1〜f5を示した。これらの頂点f1〜f5の重心はGfと求められ、各頂点の相対的な位置関係も端点と同様に定義できる。例えば、頂点f1、f2の位置関係は、線分f1、Gfと線分f2、Gfのなす角θf12で表される。
このとき、変形の程度を表す評価値Eb1としては、次の値が考えられる。
評価値Eb1=(θfij−θWij)の分散または標準偏差;
評価値Eb1は、端点と頂点の相対的な位置関係のずれの大きさに着目した評価値である。
また別の評価値として、次の評価値Eb2を用いても良い。
評価値Eb2=|(fiGf)/(WiGW)|の分散または標準偏差;
ここで、fiGfは線分fi、Gfの長さを表し、WiGWは線分Wi、GWの長さを表している。
評価値Eb2は、端点および頂点とそれぞれの重心位置との相対的な長さの変化に着目した評価値である。
上述した評価値Ea1、Ea2、Eb1、Eb2は、いずれか一つを選択して用いても良いし、これらを併用してもよい。また、これらを用いた計算式によって新たな評価値を求めるものとしてもよい。
FIG. 17B shows a method for calculating an evaluation value based on the relative positional relationship between the end points of the three-dimensional point group and the vertices of the corresponding two-dimensional map. On the left side of the figure, end points W1 to W5 in the three-dimensional point group are shown. The center of gravity of these end points W1 to W5 is obtained as GW, and the relative positional relationship of each end point can be expressed by the angle formed by the line segment from the end point toward the center of gravity. For example, the positional relationship between the end points W1 and W2 is represented by an angle θW12 formed by the line segments W1 and GW and the line segments W2 and GW.
On the right side, vertices f1 to f5 associated with the end points W1 to W5 in the two-dimensional map are shown. The center of gravity of these vertices f1 to f5 is obtained as Gf, and the relative positional relationship between the vertices can be defined similarly to the end points. For example, the positional relationship between the vertices f1 and f2 is represented by an angle θf12 formed by the line segments f1 and Gf and the line segments f2 and Gf.
At this time, the following value can be considered as the evaluation value Eb1 representing the degree of deformation.
Evaluation value Eb1 = dispersion or standard deviation of (θfij−θWij);
The evaluation value Eb1 is an evaluation value paying attention to the magnitude of deviation in the relative positional relationship between the end points and the vertices.
As another evaluation value, the next evaluation value Eb2 may be used.
Evaluation value Eb2 = dispersion or standard deviation of | (fiGf) / (WiGW) |
Here, fiGf represents the length of the line segments fi and Gf, and WiGW represents the length of the line segments Wi and GW.
The evaluation value Eb2 is an evaluation value paying attention to a change in relative length between the end point and the vertex and the respective center of gravity positions.
Any one of the above-described evaluation values Ea1, Ea2, Eb1, and Eb2 may be selected and used. Moreover, it is good also as what calculates | requires a new evaluation value with the calculation formula using these.

以上の処理により、3次元点群を、2次元地図に整合させることができ、建物を表す点群と地図上の地物との対応関係を特定することができる。また、本実施例の方法によれば、建物ごとの形状、および建物の相対的な位置関係について、3次元点群が有する情報を十分に活用することができるため、精度良く位置合わせを行うことが可能となる。   With the above processing, the three-dimensional point group can be matched with the two-dimensional map, and the correspondence between the point group representing the building and the feature on the map can be specified. In addition, according to the method of the present embodiment, the information of the three-dimensional point group can be fully utilized with respect to the shape of each building and the relative positional relationship between the buildings, so that the alignment is performed with high accuracy. Is possible.

D5.ポリゴン生成処理:
図18は、ポリゴン生成処理例を示す説明図である。3次元モデル生成処理(図5)のステップS24における処理に相当する。
先に説明した処理により、3次元点群は建物ごとに分離されており、また建物枠も求められている。しかも、3次元点群と2次元地図との対応関係も求められているため、建物枠の形状も、対応関係で用いられたホモグラフィ変換により、さらに精度が向上している。
3次元モデル生成装置200は、こうして得られた情報に基づき、3次元点群から、各建物のポリゴンを生成する。
具体的には、建物枠に基づいて上面を定義し、次にこれを下方に平行移動することで、各辺に対して建物の側面のポリゴンを設定する。特殊な形状の建物(図13のステップS57参照)についても同様に、分岐している各上面を下方に平行移動することによって分岐部分の側面を生成し、また低階層の上面を下方に平行移動することによって低階層の側面ポリゴンを生成する。このように上面の形状を利用する他、建物枠生成処理で分離された側面の点群(図14のステップS71参照)に基づいてポリゴンを定義してもよい。
図18(a)には、生成前の3次元点群の様子を示し、図18(b)には生成されたポリゴンの様子を示した。ポリゴンによって3次元点群が精度良く再現されていることが分かる。
D5. Polygon generation processing:
FIG. 18 is an explanatory diagram showing an example of polygon generation processing. This corresponds to the process in step S24 of the three-dimensional model generation process (FIG. 5).
Through the processing described above, the three-dimensional point group is separated for each building, and a building frame is also required. In addition, since the correspondence between the three-dimensional point group and the two-dimensional map is also required, the accuracy of the shape of the building frame is further improved by the homography conversion used in the correspondence.
The three-dimensional model generation apparatus 200 generates a polygon for each building from the three-dimensional point group based on the information thus obtained.
Specifically, the upper surface is defined on the basis of the building frame, and then this is translated downward to set a polygon on the side surface of the building for each side. Similarly, for a specially shaped building (see step S57 in FIG. 13), the side surfaces of the branched portions are generated by translating the branched upper surfaces downward, and the lower hierarchical upper surface is translated downward. By doing so, a low-level side polygon is generated. In addition to using the shape of the upper surface in this way, the polygon may be defined based on the point group on the side surface separated by the building frame generation process (see step S71 in FIG. 14).
FIG. 18A shows a state of a three-dimensional point group before generation, and FIG. 18B shows a state of a generated polygon. It can be seen that the three-dimensional point cloud is accurately reproduced by the polygon.

D6.テクスチャ生成処理:
図19、20は、テクスチャ生成処理のフローチャートである。3次元モデル生成処理(図5)のステップS25における処理に相当する。
処理を開始すると、3次元モデル生成装置200は、ポリゴン生成処理で生成されたポリゴンデータおよび画像データ、撮影条件を入力する(ステップS90)。撮影条件とは、撮影位置、撮影時のカメラの方向、画角などである。
3次元モデル生成装置200は、次に、ポリゴンが画像内に描かれる画像データを抽出する(ステップS91)。これは、建物に対するテクスチャを切り出すのに適した画像を選択するための処理である。かかる画像を選択する方法としては、撮影した画像の画像解析によって目的となる建物が写っているか否かを判断する方法も可能ではあるが、多大な処理負荷がかかる。そこで、本実施例では、既に建物のポリゴンが得られていることから、このポリゴンを、ステップS90で読み込んだ撮影位置、撮影条件に相当する投影条件で透視投影し、得られた投影画像に基づいて目的の建物が写っているか否かを判断するのである。
図中に処理の様子を例示した。左側の画像1では、撮影位置、撮影条件に相当する投影条件で建物を描いたところ、画像外にはみ出す部分が生じている。右側の画像2では、画像内に建物全体が描かれている。本実施例では、このようにポリゴンを描画した結果に基づき、建物全体が描かれている画像2を、テクスチャの切り出し用に抽出する。
D6. Texture generation processing:
19 and 20 are flowcharts of the texture generation process. This corresponds to the process in step S25 of the three-dimensional model generation process (FIG. 5).
When the processing is started, the three-dimensional model generation apparatus 200 inputs polygon data and image data generated by the polygon generation processing, and shooting conditions (step S90). The shooting conditions include a shooting position, a camera direction at the time of shooting, a field angle, and the like.
Next, the three-dimensional model generation apparatus 200 extracts image data in which polygons are drawn in the image (step S91). This is a process for selecting an image suitable for cutting out a texture for a building. As a method for selecting such an image, it is possible to determine whether or not the target building is shown by image analysis of the photographed image, but a great processing load is applied. Therefore, in this embodiment, since the building polygon has already been obtained, this polygon is perspective-projected under the projection conditions corresponding to the photographing position and photographing condition read in step S90, and based on the obtained projection image. It is judged whether the target building is reflected.
The state of processing was illustrated in the figure. In the image 1 on the left side, when a building is drawn under a projection condition corresponding to the shooting position and shooting condition, a portion that protrudes outside the image occurs. In the image 2 on the right side, the entire building is drawn in the image. In this embodiment, based on the result of drawing the polygon in this way, the image 2 in which the entire building is drawn is extracted for cutting out the texture.

次に、3次元モデル生成装置200は、抽出された画像のうち、処理対象のポリゴンが背面となっている画像データを除外する(ステップS92)。この処理も、画像解析ではなく、建物のポリゴンを利用して行うものとした。
図中に処理の様子を示した。左側の画像では、処理対象となるべきポリゴンが背面として描かれている。一方、右側の画像では、視認できる範囲に描かれている。従って、左側の画像データは、テクスチャを切り出すのに不適切と判断し、除外されることになる。例えば、処理対象となるべきポリゴンの法線ベクトルと、視線方向を表すベクトルとのなす角度が90度以下である場合には、目標のポリゴンが背面となると判断することができる。
Next, the three-dimensional model generation apparatus 200 excludes image data in which the polygon to be processed is the back from the extracted images (step S92). This processing is also performed using building polygons rather than image analysis.
The state of processing is shown in the figure. In the left image, the polygon to be processed is drawn as the back side. On the other hand, the image on the right side is drawn in a visible range. Accordingly, the image data on the left side is determined to be inappropriate for cutting out the texture, and is excluded. For example, when the angle formed between the normal vector of the polygon to be processed and the vector representing the line-of-sight direction is 90 degrees or less, it can be determined that the target polygon is the back surface.

3次元モデル生成装置200は、さらに、処理対象のポリゴンが他のポリゴンで遮蔽されている画像データを除外する(ステップS93)。例えば、処理対象となるポリゴンの辺が、他のポリゴンの辺と交差する場合に、遮蔽されていると判断する方法をとることができる。   The three-dimensional model generation apparatus 200 further excludes image data in which the processing target polygon is blocked by another polygon (step S93). For example, it is possible to take a method of determining that the side of the polygon to be processed is shielded when the side of the polygon intersects the side of another polygon.

以上の処理によって、テクスチャを切り出す候補画像としては、画像内に建物が写っているもの、かつ、処理対象のポリゴンが背面とはなっていないもの、かつ、他のポリゴンによって遮蔽されていないものが選択されているはずである。即ち、処理対象となるポリゴンの全体が、隠れたり切れたりすることなく写っている画像が候補画像となる。
3次元モデル生成装置200は、これらの候補画像データの中から、処理対象ポリゴンの面積が最大となるものを選択する(ステップS94)。
図中に処理の様子を示した。図示するように、候補画像が3通りある場合、処理対象ポリゴン(図中のハッチングを付した部分)を正面から撮影した中央の画像が、面積最大となるため、これを選択することになる。この処理は、処理対象となるポリゴンの面積を算出することによって行うことができる。また、ポリゴンを正面から撮影した画像が面積最大になることが通常であるため、ポリゴンの法線ベクトルと視線方向とのなす角が最小となる画像を候補として選択するようにしてもよい。
候補の選択にあたっては、処理対象となるポリゴンの面積だけでなく、さらに画像データの画質などを考慮するようにしてもよい。
As a candidate image for cutting out the texture by the above processing, there are those in which the building is reflected in the image, the polygon to be processed is not the back side, and the image is not shielded by other polygons. Should have been selected. That is, an image in which the entire polygon to be processed is captured without being hidden or cut is a candidate image.
The three-dimensional model generation device 200 selects the candidate image data having the largest processing target polygon area (step S94).
The state of processing is shown in the figure. As shown in the figure, when there are three candidate images, the central image obtained by photographing the processing target polygon (the hatched portion in the figure) from the front has the maximum area, so this is selected. This process can be performed by calculating the area of the polygon to be processed. In addition, since an image obtained by photographing a polygon from the front usually has the largest area, an image that minimizes the angle formed by the normal vector of the polygon and the line-of-sight direction may be selected as a candidate.
In selecting a candidate, not only the area of the polygon to be processed but also the image quality of the image data may be considered.

3次元モデル生成装置200は、こうしてテクスチャを切り出す候補画像を決めると、候補画像から、処理対象ポリゴンに対応する領域を切り出し、テクスチャとして格納する(ステップS95)。
本実施例のテクスチャ生成処理によれば、処理対象となるポリゴンを正面付近から撮影した画像を利用することにより、画質に優れたテクスチャを生成することができる。
また、かかる画像を選択するに当たり、シミュレーション、即ち3次元点群から得られた建物のポリゴンを用いて、各画像データに対応する撮影位置、撮影条件で透視投影を行うことで得られる画像データを利用することにより、画像解析を利用する場合に比較して、軽い処理負荷で精度良く処理を行うことができる。
When the three-dimensional model generation apparatus 200 determines a candidate image for cutting out a texture in this manner, the region corresponding to the processing target polygon is cut out from the candidate image and stored as a texture (step S95).
According to the texture generation process of the present embodiment, it is possible to generate a texture with excellent image quality by using an image obtained by photographing a polygon to be processed from near the front.
Further, when selecting such an image, simulation, that is, image data obtained by performing perspective projection at a photographing position and photographing condition corresponding to each image data using a building polygon obtained from a three-dimensional point cloud. By using, it is possible to perform processing accurately with a light processing load as compared with the case of using image analysis.

以上、本発明の実施例について説明した。本発明は、必ずしも上述した実施例の全ての機能を備えている必要はなく、一部のみを実現するようにしてもよい。また、上述した内容に追加の機能を設けてもよい。
本発明は上述の実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。例えば、実施例においてハードウェア的に構成されている部分は、ソフトウェア的に構成することもでき、その逆も可能である。
The embodiment of the present invention has been described above. The present invention does not necessarily have all the functions of the above-described embodiments, and only a part may be realized. Moreover, you may provide an additional function in the content mentioned above.
Needless to say, the present invention is not limited to the above-described embodiments, and various configurations can be adopted without departing from the spirit of the present invention. For example, a part configured in hardware in the embodiment can be configured in software and vice versa.

本発明は、3次元点群から3次元モデルを生成するために利用可能である。   The present invention can be used to generate a three-dimensional model from a three-dimensional point cloud.

100…撮影管理装置
101…カメラ
102…GPS
110…撮影制御部
112…撮影シーケンス記憶部
120…画像記録部
200…3次元モデル生成装置
201…画像データ記憶部
202…3次元点群生成部
203…3次元点群データ記憶部
204…重力方向解析部
205…点群分離処理部
206…建物枠生成部
207…位置合わせ処理部
208…ポリゴン生成部
209…テクスチャ生成部
210…2次元地図データ
211…3次元モデルデータ




DESCRIPTION OF SYMBOLS 100 ... Shooting management apparatus 101 ... Camera 102 ... GPS
DESCRIPTION OF SYMBOLS 110 ... Shooting control part 112 ... Shooting sequence memory | storage part 120 ... Image recording part 200 ... Three-dimensional model production | generation apparatus 201 ... Image data memory | storage part 202 ... Three-dimensional point cloud data generation part 203 ... Three-dimensional point cloud data memory part 204 ... Gravity direction Analysis unit 205 ... Point group separation processing unit 206 ... Building frame generation unit 207 ... Alignment processing unit 208 ... Polygon generation unit 209 ... Texture generation unit 210 ... 2D map data 211 ... 3D model data




Claims (8)

複数の地物の外形を表す複数の点からなる3次元点群をコンピュータによって解析する3次元点群解析方法であって、
前記3次元点群を構成する3次元点群データは、前記地物の外形を表す複数の点に対し、点ごとに解析用に設定された3次元座標空間における位置座標および該点が存在すると推測される面の法線ベクトルが格納されており、
前記3次元点群解析方法は、前記コンピュータが実行するステップとして、
(a) 前記3次元点群データを読み込むステップと、
(b) 前記3次元点群データから、前記地物の側面を表す点の集合である側面点群を特定するステップと、
(c) 前記側面点群に基づいて、前記地物の各側面の法線ベクトルを求めるステップと、
(d) 前記法線ベクトルから選択した2つの法線ベクトルの外積を、複数組の選択について求め、得られた複数の外積の統計的処理に基づいて、前記3次元座標空間における重力方向を決定するステップとを備える
3次元点群解析方法。
A three-dimensional point cloud analysis method for analyzing a three-dimensional point cloud composed of a plurality of points representing the outer shape of a plurality of features by a computer,
3D point group data constituting the three-dimensional point group with respect to a plurality of points representing the outer shape of the feature, the position coordinates and the point in the three-dimensional coordinate space that is configured for analysis for each point there Contains the normal vector of the inferred surface ,
In the three-dimensional point cloud analysis method, the computer executes the following steps:
(A) reading the three-dimensional point cloud data;
(B) identifying a side point group that is a set of points representing the side surface of the feature from the three-dimensional point group data;
(C) obtaining a normal vector of each side of the feature based on the side point group;
(D) Obtaining an outer product of two normal vectors selected from the normal vectors for selection of a plurality of sets, and determining a direction of gravity in the three-dimensional coordinate space based on statistical processing of the obtained plural outer products. A three-dimensional point cloud analysis method.
請求項1記載の3次元点群解析方法であって、
前記3次元点群は、該対象範囲内に存在する地物の高さの分布に比較し、該対象範囲における地物の位置の水平方向の分布が第1主成分および第2主成分となる程に十分大きい領域について得られており、
前記3次元点群解析方法は、前記コンピュータが実行するステップとして、
(e) 前記3次元点群の主成分分析によって得られる第3主成分の方向を、仮の重力方向と設定するステップを有し、
前記ステップ(b)は、前記各点の法線ベクトルが前記仮の重力方向に沿っている点群を除くことにより、前記側面点群を特定する
3次元点群解析方法。
The three-dimensional point cloud analysis method according to claim 1,
The three-dimensional point group is compared with the distribution of the height of the feature existing in the target range, and the horizontal distribution of the position of the feature in the target range becomes the first principal component and the second principal component. Obtained for a sufficiently large area ,
In the three-dimensional point cloud analysis method, the computer executes the following steps:
(E) setting a direction of a third principal component obtained by principal component analysis of the three-dimensional point group as a temporary gravity direction;
The step (b) specifies the side surface point group by excluding a point group in which a normal vector of each point is along the temporary gravity direction.
請求項1または2記載の3次元点群解析方法であって、
前記ステップ(c)は、前記側面点群を各地物の各側面に分離するとともに、該側面ごとに主成分分析を行って得られる第3主成分を前記地物の各側面の法線ベクトルとする
3次元点群解析方法。
A three-dimensional point cloud analysis method according to claim 1 or 2,
The step (c) separates the side surface point group into each side surface of each feature, and calculates a third principal component obtained by performing principal component analysis for each side surface as a normal vector of each side surface of the feature. Yes 3D point cloud analysis method.
請求項3記載の3次元点群解析方法であって、
前記ステップ(d)は、前記主成分分析において前記法線ベクトルに対して得られる第3固有値を用いて、前記各組における法線ベクトルの外積の精度を表す重み値を算出し、前記統計的処理として、前記重み値を用いた前記外積の加重平均を求める
3次元点群解析方法。
A three-dimensional point cloud analysis method according to claim 3,
The step (d) uses the third eigenvalue obtained for the normal vector in the principal component analysis to calculate a weight value representing the accuracy of the outer product of the normal vectors in each set, and the statistical As a process, a three-dimensional point cloud analysis method for obtaining a weighted average of the outer products using the weight values.
請求項1〜4いずれか記載の3次元点群解析方法であって、
前記ステップ(b)は、さらに、前記地物ごとに前記側面点群の各点の法線ベクトルの水平方向成分の分布を求め、所定以上の度数分布が得られている水平方向に相当する点を抽出することにより、前記側面点群を、前記地物の各側面に分離する
3次元点群解析方法。
A three-dimensional point cloud analysis method according to any one of claims 1 to 4,
In the step (b), the distribution of the horizontal component of the normal vector of each point of the side surface point group is obtained for each feature, and the point corresponding to the horizontal direction in which a frequency distribution greater than or equal to a predetermined value is obtained A three-dimensional point cloud analysis method that separates the side surface point group into each side surface of the feature by extracting.
請求項1〜5いずれか記載の3次元点群解析方法であって、
前記ステップ(b)は、前記3次元点群を構成する点同士の距離が所定値以下となる点を、同一の地物を構成する点群として分離することにより、前記地物ごとの側面点群を特定する
3次元点群解析方法。
A three-dimensional point cloud analysis method according to any one of claims 1 to 5,
In the step (b), side points for each feature are separated by separating the points where the distance between the points constituting the three-dimensional point group is a predetermined value or less as the point group constituting the same feature. 3D point cloud analysis method to identify groups.
複数の地物の外形を表す複数の点からなる3次元点群を解析する3次元点群解析装置であって、
前記3次元点群を構成する3次元点群データとして、前記地物の外形を表す複数の点に対し、点ごとに解析用に設定された3次元座標空間における位置座標および該点が存在すると推測される面の法線ベクトルを格納する3次元点群データ記憶部と、
前記3次元座標空間における重力方向を決定する重力方向解析部とを備え、
該重力方向解析部は、
前記3次元点群データから、前記地物の側面を表す点の集合である側面点群を特定し、
前記側面点群に基づいて、前記地物の各側面の法線ベクトルを求め、
前記法線ベクトルから選択した2つの法線ベクトルの外積を、複数組の選択について求め、得られた複数の外積の統計的処理に基づいて、前記3次元座標空間における重力方向を決定する
3次元点群解析装置。
A three-dimensional point cloud analysis device for analyzing a three-dimensional point cloud consisting of a plurality of points representing the outer shape of a plurality of features,
As the three-dimensional point cloud data constituting the three-dimensional point cloud, with respect to a plurality of points representing the outer shape of the feature, position coordinates in the three-dimensional coordinate space set for analysis for each point and the points exist. A three-dimensional point cloud data storage unit for storing a normal vector of the estimated surface ;
A gravity direction analysis unit for determining a gravity direction in the three-dimensional coordinate space;
The gravity direction analysis unit
From the three-dimensional point cloud data, specify a side point cloud that is a set of points representing the side surface of the feature,
Based on the side point group, obtain a normal vector of each side of the feature;
A cross product of two normal vectors selected from the normal vectors is obtained for a plurality of sets of selections, and a direction of gravity in the three-dimensional coordinate space is determined based on statistical processing of the obtained cross products. Point cloud analysis device.
複数の地物の外形を表す複数の点からなる3次元点群をコンピュータによって解析するためのコンピュータプログラムであって、
前記3次元点群を構成する3次元点群データは、前記地物の外形を表す複数の点に対し、点ごとに解析用に設定された3次元座標空間における位置座標および該点が存在すると推測される面の法線ベクトルが格納されており、
前記コンピュータプログラムは、
(a) 前記3次元点群データを読み込む機能と、
(b) 前記3次元点群データから、前記地物の側面を表す点の集合である側面点群を特定する機能と、
(c) 前記側面点群に基づいて、前記地物の各側面の法線ベクトルを求める機能と、
(d) 前記法線ベクトルから選択した2つの法線ベクトルの外積を、複数組の選択について求め、得られた複数の外積の統計的処理に基づいて、前記3次元座標空間における重力方向を決定する機能とをコンピュータに実現させるコンピュータプログラム。
A computer program for analyzing, by a computer, a three-dimensional point group consisting of a plurality of points representing the outline of a plurality of features,
3D point group data constituting the three-dimensional point group with respect to a plurality of points representing the outer shape of the feature, the position coordinates and the point in the three-dimensional coordinate space that is configured for analysis for each point there Contains the normal vector of the inferred surface ,
The computer program is
(A) a function of reading the three-dimensional point cloud data;
(B) a function for specifying a side surface point group that is a set of points representing the side surface of the feature from the three-dimensional point group data;
(C) a function for obtaining a normal vector of each side of the feature based on the side point group;
(D) Obtaining an outer product of two normal vectors selected from the normal vectors for selection of a plurality of sets, and determining a direction of gravity in the three-dimensional coordinate space based on statistical processing of the obtained plural outer products. A computer program that causes a computer to realize the functions to be performed.
JP2013061211A 2013-03-25 2013-03-25 3D point cloud analysis method Active JP6080640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013061211A JP6080640B2 (en) 2013-03-25 2013-03-25 3D point cloud analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013061211A JP6080640B2 (en) 2013-03-25 2013-03-25 3D point cloud analysis method

Publications (2)

Publication Number Publication Date
JP2014186565A JP2014186565A (en) 2014-10-02
JP6080640B2 true JP6080640B2 (en) 2017-02-15

Family

ID=51834070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013061211A Active JP6080640B2 (en) 2013-03-25 2013-03-25 3D point cloud analysis method

Country Status (1)

Country Link
JP (1) JP6080640B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6227801B2 (en) * 2015-02-18 2017-11-08 株式会社日立製作所 Drawing creation system and drawing creation method
JP2018010515A (en) * 2016-07-14 2018-01-18 エーティーラボ株式会社 Mesh creation device, mesh creation method and mesh creation program
JP6928499B2 (en) 2017-07-21 2021-09-01 株式会社タダノ Guide information display device and work equipment
JP6845106B2 (en) 2017-07-21 2021-03-17 株式会社タダノ Point cloud data clustering method, guide information display device and crane
JP6907061B2 (en) 2017-07-21 2021-07-21 株式会社タダノ Top surface estimation method for measurement object, guide information display device and crane
KR102158316B1 (en) * 2020-04-14 2020-09-21 주식회사 맥스트 Apparatus and method for processing point cloud
CN113917917B (en) * 2021-09-24 2023-09-15 四川启睿克科技有限公司 Obstacle avoidance method and device for indoor bionic multi-legged robot and computer readable medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5339953B2 (en) * 2009-02-17 2013-11-13 三菱電機株式会社 3D map correction apparatus and 3D map correction program
JP5161936B2 (en) * 2010-08-11 2013-03-13 株式会社パスコ Data analysis apparatus, data analysis method, and program
JP5566353B2 (en) * 2011-09-02 2014-08-06 株式会社パスコ Data analysis apparatus, data analysis method, and program
JP5817422B2 (en) * 2011-10-18 2015-11-18 朝日航洋株式会社 Building extraction apparatus, method and program

Also Published As

Publication number Publication date
JP2014186565A (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP6080642B2 (en) 3D point cloud analysis method
JP6080641B2 (en) 3D point cloud analysis method
JP2014185947A (en) Image photographing method for three-dimensional restoration
JP6080640B2 (en) 3D point cloud analysis method
US11222204B2 (en) Creation of a 3D city model from oblique imaging and lidar data
CN110287519A (en) A kind of the building engineering construction progress monitoring method and system of integrated BIM
CN107514993A (en) The collecting method and system towards single building modeling based on unmanned plane
Barazzetti et al. True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach
JP2015114954A (en) Photographing image analysis method
WO2018061010A1 (en) Point cloud transforming in large-scale urban modelling
JP2002074323A (en) Method and system for generating three-dimensional urban area space model
Remondino et al. Oblique aerial imagery for NMA: some best practices
CN104966281A (en) IMU/GNSS guiding matching method of multi-view images
CN117315146B (en) Reconstruction method and storage method of three-dimensional model based on trans-scale multi-source data
CN110838129A (en) Three-dimensional building model contour characteristic line extraction method based on oblique photogrammetry
CN107564111A (en) Power line space safety analysis method based on computer vision
CN109931912A (en) A kind of aviation oblique photograph method and device
WO2021181647A1 (en) Image processing device, image processing method, and computer-readable medium
Bevilacqua et al. Digital technology and mechatronic systems for the architectural 3D metric survey
US20230186561A1 (en) Method for 3d reconstruction from satellite imagery
Özdemir et al. A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment
CN110163962A (en) A method of based on Smart 3D oblique photograph technology export actual landform contour
Lehtola et al. AUTOMATED IMAGE-BASED RECONSTRUCTION OF BUILDING INTERIORS-A CASE STUDY.
Xiao Automatic building outlining from multi-view oblique images
CN112284351A (en) Method for measuring cross spanning line

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170117

R150 Certificate of patent or registration of utility model

Ref document number: 6080640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250