JP5997664B2 - Generating texture image data - Google Patents
Generating texture image data Download PDFInfo
- Publication number
- JP5997664B2 JP5997664B2 JP2013125147A JP2013125147A JP5997664B2 JP 5997664 B2 JP5997664 B2 JP 5997664B2 JP 2013125147 A JP2013125147 A JP 2013125147A JP 2013125147 A JP2013125147 A JP 2013125147A JP 5997664 B2 JP5997664 B2 JP 5997664B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- pixel
- texture
- feature
- texture image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 82
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 54
- 239000013598 vector Substances 0.000 description 24
- 230000005484 gravity Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 14
- 238000003860 storage Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000000926 separation method Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 101100440894 Arabidopsis thaliana CP33 gene Proteins 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 102100031476 Cytochrome P450 1A1 Human genes 0.000 description 1
- 102100026533 Cytochrome P450 1A2 Human genes 0.000 description 1
- 101000941690 Homo sapiens Cytochrome P450 1A1 Proteins 0.000 description 1
- 101000855342 Homo sapiens Cytochrome P450 1A2 Proteins 0.000 description 1
- 101710201952 Photosystem II 22 kDa protein, chloroplastic Proteins 0.000 description 1
- 102100021941 Sorcin Human genes 0.000 description 1
- 101000741271 Sorghum bicolor Phosphoenolpyruvate carboxylase 1 Proteins 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
本発明は、3次元モデルのポリゴンに適用するテクスチャ画像データの生成方法に関する。 The present invention relates to a method for generating texture image data to be applied to a polygon of a three-dimensional model.
地物の形状を3次元的に表した3次元地図においては、地物の3次元モデルを精度良く、かつ低い処理負荷で生成することが求められる。3次元モデルでは、リアリティを向上させるために、ポリゴンの表面に、各地物を撮影した画像をもとに生成されたテクスチャを貼り付ける方法がとられている。例えば、特許文献1、2は、それぞれ地物を撮影した写真の一部を切り出して、テクスチャとして利用する技術を開示している。 In a three-dimensional map that three-dimensionally represents the shape of a feature, it is required to generate a three-dimensional model of the feature with high accuracy and a low processing load. In the three-dimensional model, in order to improve the reality, a method is used in which a texture generated based on an image obtained by photographing each object is pasted on the surface of a polygon. For example, Patent Documents 1 and 2 each disclose a technique in which a part of a photograph of a feature photographed is cut out and used as a texture.
しかし、3次元モデルの生成対象とする地物の周囲には、他の種々の地物が存在していることがあるため、撮影された画像には、かならずしも地物全体が写っているとは限らない。また、地物の全体が写っている画像が、必ずしも全ての部分で高画質とも限らない。こうした課題を回避するため、複数の画像から、それぞれの良い部分を切り取って、パッチワークのように合成することで一つのテクスチャ画像を生成しようとしても、パッチの継ぎ目部分で不自然さが残り、かえって違和感のあるテクスチャになることがある。本発明は、こうした課題に鑑み、撮影された画像に基づいて、リアリティを向上させたテクスチャを生成可能とすることを目的とする。 However, there may be various other features around the feature to be generated by the 3D model, so the captured feature does not necessarily show the entire feature. Not exclusively. In addition, an image showing the entire feature is not always high in image quality in all parts. In order to avoid such problems, even if you try to generate one texture image by cutting out each good part from multiple images and synthesizing like patchwork, unnaturalness remains in the joint part of the patch, On the contrary, the texture may become uncomfortable. In view of these problems, an object of the present invention is to enable generation of a texture with improved reality based on a captured image.
本発明は、
コンピュータによって、地物の3次元モデルを構成するポリゴンに適用するテクスチャ画像の画像データを生成するテクスチャ画像データの生成方法であって、
前記コンピュータが実行するステップとして、
(A)前記地物の前記ポリゴンに対応する面を撮影した複数の画像データを読み込むステップと、
(B)前記テクスチャ画像を構成するピクセルごとに、前記複数の画像データから該ピクセルに対応する箇所の色情報を取得するステップと、
(C)前記取得された色情報に基づいて、前記ピクセルの色を決定することにより、前記テクスチャ画像を生成するステップと
を備えるテクスチャ画像データの生成方法として構成することができる。
The present invention
A texture image data generation method for generating image data of a texture image to be applied to a polygon constituting a three-dimensional model of a feature by a computer,
As the steps executed by the computer,
(A) reading a plurality of image data obtained by photographing a surface corresponding to the polygon of the feature;
(B) For each pixel constituting the texture image, obtaining color information of a location corresponding to the pixel from the plurality of image data;
(C) It can comprise as a generation method of texture image data provided with the step of generating the texture image by determining the color of the pixel based on the acquired color information.
本発明によれば、処理対象となるピクセルに対応する箇所の色情報を複数の画像データから取得し、これに基づいて、そのピクセルの色を決定する。このように、テクスチャの生成に、複数の画像データを用いるため、各画像データに存在する欠点を補うことができる。また、ピクセル単位でテクスチャ画像を合成していくため、パッチワークのように合成する方法に比べて、継ぎ目などが現れない自然なテクスチャ画像データを生成することが可能となる。 According to the present invention, color information of a portion corresponding to a pixel to be processed is acquired from a plurality of image data, and based on this, the color of the pixel is determined. As described above, since a plurality of pieces of image data are used for generating the texture, it is possible to compensate for a defect existing in each piece of image data. In addition, since texture images are synthesized in units of pixels, it is possible to generate natural texture image data with no seams or the like as compared with a method of synthesis like patchwork.
本発明で用いる複数の画像データは、処理対象となる面(以下、「対象面」ということもある)を撮影したものであればよく、同一の地点、撮影角度で撮影したものでもよいし、多様な地点、撮影角度から撮影したものであってもよい。また、対称面の全体が写っているものであってもよいし、部分的に写っているものであってもよい。
複数の画像データから取得した色情報から、対象となるピクセルの色を決定する方法も、種々の方法をとりうる。例えば、複数の色情報の平均値、中央値、最大度数分布となる色などとすることができる。
The plurality of image data used in the present invention may be those obtained by photographing the surface to be processed (hereinafter sometimes referred to as “target surface”), and may be those photographed at the same point and photographing angle. The images may be taken from various points and shooting angles. Moreover, the whole symmetry plane may be reflected, or a part of the symmetry plane may be reflected.
Various methods can be used for determining the color of a target pixel from color information acquired from a plurality of image data. For example, an average value, a median value, and a color having a maximum frequency distribution among a plurality of color information can be used.
本発明のテクスチャ画像データの生成方法においては、
前記ステップ(B)は、
(B1)前記複数の画像データにおける複数の特徴点同士の対応関係を求めるステップと、
(B2)前記ピクセルの周囲に位置する複数の特徴点を基準として、該ピクセルに対応する箇所を特定するステップと
を有するものとしてもよい。
In the texture image data generation method of the present invention,
The step (B)
(B1) obtaining a correspondence relationship between a plurality of feature points in the plurality of image data;
(B2) The method may include a step of specifying a location corresponding to the pixel on the basis of a plurality of feature points located around the pixel.
こうすることにより、処理対象となるピクセルに対応する箇所を、各画像において精度良く特定することができるため、生成されるテクスチャ画像の画質を向上させることができる。
処理対象となるピクセルに対応する箇所を特定するために用いる特徴点は、1個または2個としてもよいが、2次元的な位置を精度良く特定するためには3個以上を用いることがより好ましい。
処理対象となるピクセルに対応する箇所は、特徴点から処理対象となるピクセルに対する相対位置を求め、各画像内における特徴点に対して同じ相対位置にある箇所を求めればよい。
特徴点としては、例えば、対称面の角や、地物の表面に存在する窓、手すり、看板その他の構造物の頂点、対象物表面で色や形状が急激に変化する点などを利用することができる。また、SIFT(Scale-Invariant Feature Transform)に代表する画像特徴量関連技術を用いても良い。かかる技術を利用すると、画像の色に基づいて、複数の画像間で非常に多くの特徴点を対応づけることができるため、ピクセルに対応する箇所を特定する精度を向上させることができる。
In this way, the location corresponding to the pixel to be processed can be specified with high accuracy in each image, and the image quality of the generated texture image can be improved.
One or two feature points may be used for specifying a location corresponding to a pixel to be processed, but three or more feature points may be used to specify a two-dimensional position with high accuracy. preferable.
For the location corresponding to the pixel to be processed, the relative position with respect to the pixel to be processed is obtained from the feature point, and the location at the same relative position with respect to the feature point in each image may be obtained.
Feature points include, for example, the corners of symmetry planes, windows on the surface of features, handrails, vertices of signboards and other structures, and points where the color or shape of the object changes abruptly. Can do. Further, an image feature quantity related technique represented by SIFT (Scale-Invariant Feature Transform) may be used. If such a technique is used, since a large number of feature points can be associated between a plurality of images based on the color of the image, it is possible to improve the accuracy of specifying a location corresponding to a pixel.
また、本発明のテクスチャ画像データの生成方法においては、
前記ステップ(C)は、
前記画像データのうち、他の地物によって遮蔽されている部分を除いて、前記ピクセルの色を決定するものとしてもよい。
遮蔽されている部分の色情報は、対象面の色とは異なるため、このように除外することにより、色の決定精度を向上させることができる。
In the texture image data generation method of the present invention,
The step (C)
It is good also as what determines the color of the said pixel except the part shielded by the other feature among the said image data.
Since the color information of the shielded part is different from the color of the target surface, the color determination accuracy can be improved by excluding it in this way.
このように、遮蔽されている部分を除く態様においては、
前記ステップ(A)は、さらに、前記画像データの撮影条件を読み込み、
前記ステップ(C)は、前記地物および該地物の周辺の3次元形状を表す3次元モデルを参照し、該3次元モデルと前記撮影条件に基づいて、前記遮蔽されている部分を特定するものとしてもよい。
撮影条件とは、撮影位置、撮影方向または角度、撮影時の画角など、撮影される画像の状態を特定するために必要な情報を言う。
3次元モデルからなる仮想空間内で、撮影条件に基づいて仮想的な「撮影」を行えば、得られた画像データ内で対象面が、他の地物によって遮蔽されている部分を比較的容易に特定することができる。こうして特定された領域を適用すれば、テクスチャの生成に用いる各画像内の遮蔽されている部分を、比較的容易かつ精度良く特定することができる。
遮蔽されている部分は、かかる方法の他、例えば、画像データ内の色や形状の不連続性などを解析して特定してもよい。画像特徴量を用いる場合には、複数の画像間で非常に多くの特徴点を得ることができるだけでなく、各特徴点ごとに法線ベクトルも得ることができるため、法線ベクトルの方向の不連続性に基づいて、遮蔽されている部分を特定することも可能である。
Thus, in an aspect excluding the shielded part,
The step (A) further reads a photographing condition of the image data,
The step (C) refers to a three-dimensional model representing the feature and a three-dimensional shape around the feature, and identifies the shielded portion based on the three-dimensional model and the imaging condition. It may be a thing.
The shooting condition refers to information necessary for specifying the state of a shot image, such as a shooting position, a shooting direction or angle, and a field angle at the time of shooting.
If virtual “shooting” is performed based on shooting conditions in a virtual space consisting of a three-dimensional model, it is relatively easy to detect the part of the target surface that is covered by other features in the obtained image data. Can be specified. By applying the region thus identified, it is possible to relatively easily and accurately identify the shielded portion in each image used for generating the texture.
In addition to such a method, the shielded portion may be specified by analyzing, for example, discontinuity in color or shape in the image data. When using image feature values, not only can a large number of feature points be obtained between multiple images, but also a normal vector can be obtained for each feature point. Based on the continuity, it is also possible to identify the shielded part.
本発明のテクスチャ画像データの生成方法においては、
前記ステップ(A)は、前記ポリゴンに対応する面を、当該面の法線方向から見た状態の画像に変換して、前記撮影した複数の画像データを読み込むものとしてもよい。
かかる画像の変換は、例えば、各画像の撮影条件に基づいて、対象面をどの方向から撮影したかを特定し、これに基づいて法線方向から見た状態に変換する方法をとることができる。また別の方法として、各画像の対象面の形状を、いずれかの基準となる形状に合わせるようアフィン変換するものとしてもよい。画像の変換は、その他、種々の方法で行うことができる。
このように、画像データを統一した形状に変換してから処理を行えば、処理対象となるピクセルに対応する箇所も容易に特定することができ、処理の負荷を軽減できるとともに、精度向上を図ることもできる。
In the texture image data generation method of the present invention,
The step (A) may convert the surface corresponding to the polygon into an image viewed from the normal direction of the surface, and read the plurality of captured image data.
Such image conversion can be performed by, for example, specifying a direction from which the target surface was imaged based on the imaging conditions of each image and converting the image to a state viewed from the normal direction based on this. . As another method, affine transformation may be performed so that the shape of the target surface of each image matches one of the reference shapes. The conversion of the image can be performed by various other methods.
As described above, if the processing is performed after converting the image data into a unified shape, the location corresponding to the pixel to be processed can be easily specified, the processing load can be reduced, and the accuracy can be improved. You can also.
本発明は、上述した種々の特徴を必ずしも全て備えている必要はなく、適宜、その一部を省略したり組み合わせたりして構成してもよい。また、本発明は、上述のテクスチャ画像データ生成方法としての態様の他、テクスチャ画像データ生成装置として構成してもよい。さらに、テクスチャ画像データの生成をコンピュータに実行させるコンピュータプログラムとして構成してもよいし、かかるコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体として構成してもよい。 The present invention does not necessarily include all the various features described above, and may be configured by omitting or combining some of them as appropriate. Moreover, you may comprise this invention as a texture image data generation apparatus other than the aspect as the above-mentioned texture image data generation method. Furthermore, it may be configured as a computer program that causes a computer to generate texture image data, or may be configured as a computer-readable recording medium that records the computer program.
A.システム構成:
図1は、3次元モデル生成システムの構成を示す説明図である。3次元モデル生成システムは、処理対象となる地域の写真を航空機から撮影し、この写真を解析して地物ごとの3次元形状を表す3次元モデルを生成するシステムである。航空機に搭載され、地域の写真の画像データを取得する装置を撮影管理装置100と呼ぶ。画像データから3次元モデルを生成する装置を、3次元モデル生成装置200と呼ぶ。本発明のテクスチャ画像データ生成装置は、3次元モデル生成装置200の一機能として実現されている。以下、それぞれの構成について順に説明する。
A. System configuration:
FIG. 1 is an explanatory diagram showing a configuration of a three-dimensional model generation system. The three-dimensional model generation system is a system that takes a photograph of an area to be processed from an aircraft and generates a three-dimensional model representing a three-dimensional shape of each feature by analyzing the photograph. A device that is mounted on an aircraft and acquires image data of a local photograph is referred to as a photographing management device 100. A device that generates a three-dimensional model from image data is referred to as a three-dimensional model generation device 200. The texture image data generation device of the present invention is realized as one function of the three-dimensional model generation device 200. Hereinafter, each structure is demonstrated in order.
(1)撮影管理装置100の構成:
撮影管理装置100は、航空機に搭載されている。航空機は、固定翼、回転翼いずれでもよく、有人/無人のいずれであってもよい。
撮影管理装置100には、撮影用のカメラ101、位置情報を取得するためのセンサであるGPS(Global
Positioning System)102、および図示する各機能ブロックが備えられている。機能ブロックは、それぞれの機能を実現するためのコンピュータプログラムを、コンピュータにインストールすることによって構成することもできるし、ハードウェア的に構成してもよい。
カメラ101は、3次元モデルを生成するための解析に使用される写真を撮影するためのものである。解析精度を向上させるためには、高解像度の写真が望ましい。本実施例では高解像度での撮影が可能な静止画用のディジタルカメラを用いた。十分な解像度が得られる場合には、動画撮影用のカメラを用いてもよい。
(1) Configuration of the imaging management device 100:
The imaging management device 100 is mounted on an aircraft. The aircraft may be either fixed wing or rotary wing, and may be manned / unmanned.
The photographing management apparatus 100 includes a photographing camera 101, a GPS (Global
Positioning System) 102 and functional blocks shown in the figure. The functional block can be configured by installing a computer program for realizing each function in the computer, or may be configured by hardware.
The camera 101 is for taking a photograph used for analysis for generating a three-dimensional model. In order to improve the analysis accuracy, a high-resolution photograph is desirable. In the present embodiment, a still image digital camera capable of shooting at a high resolution is used. If a sufficient resolution can be obtained, a video camera may be used.
撮影シーケンス記憶部112は、撮影を行うための航空機の飛行経路および撮影ポイントを記憶している。撮影ポイントは、カメラ101の画角も考慮して設定されており、処理対象となる領域について、20枚以上の写真が、それぞれ60%程度以上は重複した状態で、順次撮影されるように設定されている。飛行経路の設定方法については後述する。飛行経路等は、予め別のコンピュータ等によって設定したものを、撮影シーケンス記憶部112に記憶させる方法をとってもよいし、撮影シーケンス記憶部112で設定するようにしてもよい。
有人の航空機を用いる場合、飛行経路に従って航空機を飛行させるのはパイロットの役目となる。かかる場合には、撮影シーケンス記憶部112は、パイロットに対し、適宜、設定された飛行経路に沿った飛行を支援するための情報を提供してもよい。
無人の航空機を用いる場合には、撮影シーケンス記憶部112は、飛行を制御する制御装置に、飛行経路に関する情報を送信するように構成してもよい。
The shooting sequence storage unit 112 stores flight paths and shooting points of aircraft for shooting. The shooting point is set in consideration of the angle of view of the camera 101, and is set so that 20 or more photographs are sequentially taken in the state to be processed with about 60% or more overlapping. Has been. A method for setting the flight path will be described later. The flight route or the like may be set in advance by another computer or the like, and may be stored in the imaging sequence storage unit 112 or may be set in the imaging sequence storage unit 112.
When using a manned aircraft, it is the pilot's duty to fly the aircraft according to the flight path. In such a case, the imaging sequence storage unit 112 may appropriately provide information for supporting the flight along the set flight path to the pilot.
When an unmanned aircraft is used, the imaging sequence storage unit 112 may be configured to transmit information related to the flight path to the control device that controls the flight.
撮影制御部110は、カメラ101を制御し、撮影シーケンス記憶部112で設定された撮影ポイントにおいて処理対象領域の写真を撮影する。航空機の現実の飛行経路と、撮影シーケンス記憶部112に記憶された経路とは誤差があるため、撮影制御部110は、かかる誤差も踏まえて、予め設定された撮影ポイント付近に到達したと判断される時点で撮影を行うようにしてもよい。
また、撮影シーケンスは、必ずしも撮影ポイントを特定する方法だけでなく、一定の時間周期で撮影を行うように設定してもよい。かかる場合には、撮影制御部110は、設定された時間間隔ごとに撮影を行うようカメラ101を制御することになる。
撮影制御部110は、いずれの方法で撮影を行う場合においても、カメラ101による撮影と同期して、GPS102から撮影位置の位置情報を取得し、両者を関連づけて画像記録部120に記録する。
撮影制御部110は、自動的に撮影を行う態様として構成する他、航空機に搭乗した撮影者に対して、撮影タイミングを知らせるものとしてもよい。
The shooting control unit 110 controls the camera 101 and takes a picture of the processing target area at the shooting point set in the shooting sequence storage unit 112. Since there is an error between the actual flight path of the aircraft and the path stored in the imaging sequence storage unit 112, the imaging control unit 110 determines that the vicinity of the preset imaging point has been reached based on the error. You may make it image | photograph at the time of this.
Further, the shooting sequence is not necessarily limited to the method of specifying the shooting point, but may be set so that shooting is performed at a constant time period. In such a case, the shooting control unit 110 controls the camera 101 to perform shooting at set time intervals.
The shooting control unit 110 acquires position information of a shooting position from the GPS 102 in synchronization with shooting by the camera 101 and records the information in the image recording unit 120 in association with the shooting by any method.
The imaging control unit 110 may be configured to automatically perform imaging, and may notify an imaging person on board an imaging timing.
(2)3次元モデル生成装置200の構成:
3次元モデル生成装置200には、図示する機能ブロックが備えられている。これらの機能ブロックは、それぞれの機能を実現するためのコンピュータプログラムを、コンピュータにインストールすることによって構成されるし、ハードウェア的に構成してもよい。
以下、各機能ブロックの機能について説明する。
(2) Configuration of the three-dimensional model generation apparatus 200:
The three-dimensional model generation apparatus 200 includes the functional blocks shown in the figure. These functional blocks are configured by installing a computer program for realizing each function in a computer, or may be configured in hardware.
Hereinafter, the function of each functional block will be described.
画像データ記憶部201は、撮影管理装置100で撮影、収集された画像データおよび撮影位置の位置情報を読込み、記憶する。撮影管理装置100から画像データ記憶部201への画像データの受け渡しは、有線、無線または記録媒体を介して行うことができる。
3次元点群生成部202は、画像データ記憶部201の画像データおよび撮影位置を用いて、3次元点群を生成する。3次元点群とは、それぞれ3次元の座標値および法線ベクトルが付与された多数の点である。法線ベクトルとは、各点が存在すると推定される面の法線ベクトルを意味する。
本実施例では、画像データを撮影した時系列に並べると、前後の画像データ同士は、約60%程度以上の面積が重複した状態で撮影されている。つまり、対象領域内の建物は、撮影ポイントが異なる複数の画像データに撮影されていることになる。従って、複数の画像データ内で相互に対応する点を特定できれば、いわゆる三角測量と同様の原理によってその点の3次元座標を特定することが可能となる。複数の画像データ内で対応する点を特定する技術としては、種々の技術が知られているが、本実施例では、画像特徴量の一例としてSIFT(Scale-Invariant Feature Transform)と呼ばれる公知の技術を適用した。
3次元点群データ記憶部203は、3次元点群生成部202によって得られた3次元点群を記憶する。画像データに写っている部分を解析して得られた点群であるから、3次元点群は、主として建物等の外壁、屋根などの外面部分を表すものとなる。また、画像内には、地面、道路、街路樹、車両など建物以外も多数写っており、これらについても画像内の対応関係が特定される限り3次元点群は生成可能であるから、3次元点群には、こうした建物以外を表すものも多数含まれている。3次元点群は、それぞれ3次元の座標値と法線ベクトルを有しているが、これらの座標値、法線ベクトルは、地球座標系で定義されたものではなく、解析のために設定された架空の3次元空間における座標値である。
このように地球座標系での位置関係が特定されておらず、建物単位に区分もされていない3次元点群から、建物ごとに地図として利用可能な精度で位置座標を有する3次元ポリゴンを生成するのが、以下で示す各機能ブロックの機能である。
The image data storage unit 201 reads and stores image data shot and collected by the shooting management apparatus 100 and position information of shooting positions. Transfer of image data from the imaging management apparatus 100 to the image data storage unit 201 can be performed via a wired, wireless, or recording medium.
The three-dimensional point group generation unit 202 generates a three-dimensional point group using the image data and the shooting position of the image data storage unit 201. A three-dimensional point group is a number of points to which three-dimensional coordinate values and normal vectors are assigned. The normal vector means a normal vector of a surface where each point is estimated to exist.
In this embodiment, when the image data is arranged in time series, the preceding and following image data are taken with an area of about 60% or more overlapping. That is, the building in the target area is photographed by a plurality of image data having different photographing points. Therefore, if points corresponding to each other in a plurality of image data can be specified, the three-dimensional coordinates of the points can be specified by the same principle as that of so-called triangulation. Various techniques are known for identifying corresponding points in a plurality of image data. In this embodiment, a known technique called SIFT (Scale-Invariant Feature Transform) is used as an example of an image feature amount. Applied.
The three-dimensional point group data storage unit 203 stores the three-dimensional point group obtained by the three-dimensional point group generation unit 202. Since it is a point cloud obtained by analyzing a portion shown in the image data, the three-dimensional point cloud mainly represents an outer wall portion such as a building and an outer surface portion such as a roof. Also, there are many buildings other than buildings such as the ground, roads, roadside trees, vehicles, etc. in the image, and as long as the correspondence in the image is specified, a 3D point cloud can be generated. The point cloud includes many things that represent other than these buildings. Each three-dimensional point group has a three-dimensional coordinate value and a normal vector, but these coordinate value and normal vector are not defined in the earth coordinate system and are set for analysis. It is a coordinate value in a fictitious three-dimensional space.
In this way, 3D polygons with position coordinates are generated with accuracy that can be used as a map for each building from a 3D point group that is not specified in the earth coordinate system and is not divided into buildings. It is the function of each functional block shown below.
重力方向解析部204は、点群の重力方向を解析する。通常、直交座標系で地理的な位置が表されている場合には、重力方向はZ軸方向と一致するが、3次元点群の座標系は地球座標系で定義されたものではないため、必ずしもZ軸が重力方向になるとは限らない。重力方向解析部204は、解析によって重力方向を求めることによって、点群の座標系を地球座標系に対応づける第1段階としての機能を奏する。
点群分離処理部205は、点群を建物単位に分離する。3次元点群は、画像に写っている点の3次元座標を求めたものであり、建物単位で分離もされていなければ、建物の地面等との分離もされていない。点群分離処理部205は、かかる3次元点群を解析して、建物ごとの点群に分離する機能を奏する。
建物枠生成部206は、建物ごとに分離された点群に基づいて2次元的な外形形状を表す建物枠を生成する。
位置合わせ処理部207は、2次元地図データ210に記憶された2次元地図に複数の建物枠を適合させることによって、重力方向以外の座標系を地球座標系に対応づける機能を奏する。位置合わせ処理部207は、建物ごとに分離された点群を1つずつ2次元地図に適合させていくのではない。点群で表されている複数の建物全体を、その相対的な関係を概ね保った状態で、全体として2次元地図に適合させるのである。このように複数の建物全体を適合させることによって、精度良く位置合わせを行うことができる。
ポリゴン生成部208は、以上の処理によって2次元的な形状が定まった建物ごとに、点群に基づき側面および上面のポリゴンを生成する。
テクスチャ生成部209は、生成されたポリゴンの表面に貼り付けるテクスチャを、画像データ記憶部201に記憶された画像データによって生成する。
以上の処理で生成された3次元ポリゴンおよびテクスチャは、3次元モデルデータ211に格納される。
The gravity direction analysis unit 204 analyzes the gravity direction of the point group. Usually, when the geographical position is represented in the Cartesian coordinate system, the direction of gravity coincides with the Z-axis direction, but the coordinate system of the three-dimensional point group is not defined in the Earth coordinate system. The Z axis is not always in the direction of gravity. The gravitational direction analysis unit 204 functions as a first stage for associating the coordinate system of the point group with the earth coordinate system by obtaining the gravitational direction by analysis.
The point cloud separation processing unit 205 separates the point cloud into building units. The three-dimensional point cloud is obtained by obtaining the three-dimensional coordinates of the points shown in the image, and is not separated from the building ground or the like unless it is separated in units of buildings. The point group separation processing unit 205 has a function of analyzing the three-dimensional point group and separating it into point groups for each building.
The building frame generation unit 206 generates a building frame representing a two-dimensional outer shape based on the point group separated for each building.
The alignment processing unit 207 has a function of associating a coordinate system other than the gravity direction with the earth coordinate system by fitting a plurality of building frames to the two-dimensional map stored in the two-dimensional map data 210. The alignment processing unit 207 does not adapt the point group separated for each building to the two-dimensional map one by one. The whole of a plurality of buildings represented by point clouds is fitted to a two-dimensional map as a whole while maintaining the relative relationship in general. In this way, alignment can be performed with high accuracy by adapting the entire plurality of buildings.
The polygon generation unit 208 generates side and top polygons based on the point group for each building whose two-dimensional shape is determined by the above processing.
The texture generation unit 209 generates a texture to be pasted on the surface of the generated polygon based on the image data stored in the image data storage unit 201.
The three-dimensional polygon and texture generated by the above processing are stored in the three-dimensional model data 211.
B.3次元点群生成処理:
飛行経路および撮影ポイントが決まると、これに従って、目標の周辺を飛行しながら撮影が行われる。撮影された画像データは、図1で説明した通り、逐次、撮影ポイントの位置座標とともに、撮影管理装置100の画像記録部120に記録される。撮影が完了すると、画像データおよび位置座標は、3次元モデル生成装置200に入力され、3次元点群が生成される。画像データの3次元モデル生成装置200への読込みは、種々の方法で行うことができるが、本実施例では、記録媒体を介して読み込ませるものとした。
B. Three-dimensional point cloud generation processing:
When the flight path and shooting point are determined, shooting is performed while flying around the target. The captured image data is sequentially recorded in the image recording unit 120 of the imaging management apparatus 100 together with the position coordinates of the imaging point as described with reference to FIG. When the photographing is completed, the image data and the position coordinates are input to the three-dimensional model generation apparatus 200, and a three-dimensional point group is generated. The image data can be read into the 3D model generation apparatus 200 by various methods. In this embodiment, the image data is read via a recording medium.
図2は、3次元点群生成処理のフローチャートである。3次元モデル生成装置200の3次元点群生成部202が実行する処理であり、ハードウェア的には、3次元モデル生成装置200のCPUが実行する処理である。
処理を開始すると、3次元モデル生成装置200は、画像データおよび位置情報を読み込む(ステップS10)。そして、画像特徴量によるマッチングにより、画像間の特徴点の対応付けを行う(ステップS11)。図中に特徴点の対応付けの様子を示した。図示するように画像1、画像2のそれぞれから、特徴点(図中の4つの×印)を抽出し、それぞれの特徴点同士の対応関係を認識するのである。画像特徴量によるマッチングは、画像内の色成分に基づいて特徴点を抽出し、画像間の対応関係を求める解析技術であり、解析原理およびアルゴリズムともに周知であるため、詳細な説明は省略する。ステップS11では、画像間の特徴点同士を対応づけるものであれば、SIFTなど、種々の手法を用いることができる。
FIG. 2 is a flowchart of the three-dimensional point group generation process. This is a process executed by the 3D point group generation unit 202 of the 3D model generation apparatus 200, and is a process executed by the CPU of the 3D model generation apparatus 200 in terms of hardware.
When the process is started, the three-dimensional model generation apparatus 200 reads image data and position information (step S10). Then, the feature points between the images are associated by matching with the image feature amount (step S11). The state of the feature point association is shown in the figure. As shown in the figure, feature points (four crosses in the figure) are extracted from each of image 1 and image 2, and the correspondence between the feature points is recognized. Matching based on image feature amounts is an analysis technique for extracting feature points based on color components in an image and obtaining a correspondence relationship between images. Since the analysis principle and algorithm are well known, detailed description thereof is omitted. In step S11, various methods such as SIFT can be used as long as the feature points between the images are associated with each other.
こうして特徴点の対応関係が求まると、各特徴点の3次元座標および法線ベクトルを算出することができる(ステップS12)。図中に算出原理を図示した。実施例で使用する各画像には、それぞれ撮影ポイントの位置情報が付されているため、複数の画像間で対応関係が得られた特徴点については、2つ以上の撮影ポイント1,2が対応づけられることになる。撮影ポイント1,2からの画角等に基づいて撮影した画像内の特徴点の位置を解析すれば、それぞれの撮影ポイント1,2から特徴点を視た方向を決定することができ、撮影ポイント1、2の座標値に対して特徴点の相対的な位置関係を特定することができる。ここで得られる特徴点の位置座標は、地球座標系での絶対的な位置座標ではなく、解析用の空間に設定された架空の3次元座標(xa、ya、za)上での座標値である。
法線ベクトルとは、各特徴点が存在すると推定される推定面の法線方向のベクトルである。実施例では、対応する画像において多数の特徴点が抽出され、各画像内の特徴点同士の相対的な位置関係が維持されることを前提として、画像間での特徴点の対応関係を認識する。このように特徴点同士の相対的な位置関係から、その特徴点が存在する推定面が特定され、その法線ベクトルを求めることができる。
これらの画像間の相対的位置関係、3次元座標および法線ベクトルの算出も、SfM(Structure
from Motion)技術、およびそれを利用した手法として周知であるため、さらなる詳細な説明は省略する。
3次元座標および法線ベクトルが算出された特徴点の集合を、以下、3次元点群と呼ぶ。3次元モデル生成装置200は、得られた3次元点群のデータを格納し(ステップS13)、3次元点群生成処理を終了する。
本実施例では、撮影した画像データから3次元点群を取得しているが、以下の処理は、レーザ計測など、他の方法によって得られた3次元点群を用いて行うこともできる。
When the correspondence between the feature points is obtained in this way, the three-dimensional coordinates and normal vectors of each feature point can be calculated (step S12). The calculation principle is shown in the figure. Each image used in the embodiment is provided with shooting point position information, so two or more shooting points 1 and 2 correspond to feature points for which a correspondence relationship is obtained between a plurality of images. Will be attached. If the position of the feature point in the image taken based on the angle of view from the shooting points 1 and 2 is analyzed, the direction in which the feature point was viewed from each of the shooting points 1 and 2 can be determined. It is possible to specify the relative positional relationship of the feature points with respect to the coordinate values of 1 and 2. The position coordinates of the feature points obtained here are not absolute position coordinates in the earth coordinate system, but are coordinate values on fictitious three-dimensional coordinates (xa, ya, za) set in the space for analysis. is there.
The normal vector is a vector in the normal direction of the estimated surface where each feature point is estimated to exist. In the embodiment, on the premise that a large number of feature points are extracted from corresponding images and the relative positional relationship between the feature points in each image is maintained, the correspondence relationship of the feature points between the images is recognized. . In this way, the estimated surface where the feature point exists is specified from the relative positional relationship between the feature points, and the normal vector can be obtained.
The relative positional relationship between these images, the calculation of three-dimensional coordinates and normal vectors are also calculated using SfM (Structure
(from Motion) technique and a technique using the technique are well known, and further detailed description is omitted.
A set of feature points for which three-dimensional coordinates and normal vectors are calculated is hereinafter referred to as a three-dimensional point group. The three-dimensional model generation apparatus 200 stores the obtained three-dimensional point group data (step S13), and ends the three-dimensional point group generation process.
In the present embodiment, a three-dimensional point group is acquired from captured image data, but the following processing can also be performed using a three-dimensional point group obtained by another method such as laser measurement.
D.3次元モデル生成処理:
図3は、3次元モデル生成処理のフローチャートである。先に説明した3次元点群データに基づいて、建物ごとの3次元形状を表す3次元モデルを生成するための処理である。この処理は、図1に示した重力方向解析部204、点群分離処理部205、建物枠生成部206、位置合わせ処理部207、ポリゴン生成部208、テクスチャ生成部209によって、それぞれ実現される処理である。ハードウェア的には、3次元モデル生成装置200のCPUが実行する処理となる。
D. 3D model generation processing:
FIG. 3 is a flowchart of the three-dimensional model generation process. This is a process for generating a three-dimensional model representing a three-dimensional shape for each building based on the three-dimensional point cloud data described above. This process is realized by the gravity direction analysis unit 204, the point cloud separation processing unit 205, the building frame generation unit 206, the alignment processing unit 207, the polygon generation unit 208, and the texture generation unit 209 shown in FIG. It is. In terms of hardware, this is a process executed by the CPU of the three-dimensional model generation apparatus 200.
図3には、全体の処理の流れを示した。
D1.重力方向解析処理:
3次元モデル生成処理では、まず重力方向解析処理が行われる(ステップS20)。これは、重力方向解析部204の機能に相当する処理であり、3次元点群を解析して重力方向を以下の手順で、特定する処理である。
本実施例では、3次元点群全体の主成分分析を行い、第3主成分をまず仮の重力方向Gtとして設定する。かかる方法で重力方向を特定できる理由は、次の通りである。本実施例の3次元点群は、目標を中心とする周辺の領域を撮影して得られるものである。撮影される建物が高層ビルであっても、その高さは、撮影される領域の水平方向の広がりに比べれば小さい。従って、3次元点群は、全体的に見れば、図示するように、比較的平たい領域に分布することとなる。
主成分分析とは、3次元空間内における3次元点群の分布を特徴づける方向を求めるものであり、3次元点群の分布が大きい方向から順に第1主成分、第2主成分、第3主成分となる。平たい領域に分布した3次元点群については、水平方向の分布に基づいて第1主成分、第2主成分が求まり、それに直交する方向が第3主成分となる。従って、第3主成分は、3次元点群の重力方向Gtを表すことになる。ただし、点群の分布に基づく誤差が含まれているため、第3主成分は、あくまでも仮の重力方向を示すに過ぎない。
本実施例では、このように平たい領域に分布する3次元点群を利用するため、垂直方向と推測される面のみを抽出するなどといった複雑な前処理を行うまでなく、主成分分析により仮の重力方向を求めることが可能となる。
FIG. 3 shows the overall processing flow.
D1. Gravity direction analysis processing:
In the three-dimensional model generation process, a gravity direction analysis process is first performed (step S20). This is a process corresponding to the function of the gravity direction analysis unit 204, and is a process for analyzing the three-dimensional point group and specifying the gravity direction by the following procedure.
In the present embodiment, the principal component analysis of the entire three-dimensional point group is performed, and the third principal component is first set as the provisional gravity direction Gt. The reason why the direction of gravity can be specified by this method is as follows. The three-dimensional point group of the present embodiment is obtained by photographing a peripheral region centering on the target. Even if the filmed building is a high-rise building, its height is small compared to the horizontal extent of the filmed region. Therefore, the three-dimensional point group is distributed in a relatively flat region as shown in the drawing as a whole.
The principal component analysis is a method for obtaining a direction characterizing the distribution of the three-dimensional point cloud in the three-dimensional space. The first principal component, the second principal component, the third principal component are analyzed in order from the direction in which the distribution of the three-dimensional point cloud is large. Becomes the main component. For a three-dimensional point group distributed in a flat region, the first principal component and the second principal component are obtained based on the distribution in the horizontal direction, and the direction orthogonal thereto is the third principal component. Therefore, the third principal component represents the gravity direction Gt of the three-dimensional point group. However, since an error based on the distribution of the point cloud is included, the third principal component merely indicates the provisional gravity direction.
In this embodiment, since a three-dimensional point group distributed in a flat area is used, there is no need to perform complicated preprocessing such as extracting only a surface that is assumed to be in the vertical direction. It is possible to determine the direction of gravity.
実施例の3次元点群は、3次元の位置座標とともに、法線ベクトルを有しているから、仮の重力方向が決まると、これに比較的沿う方向の法線ベクトルを有する点群を特定することができる。かかる点群を除外すれば、建物を構成する点群のうち、水平面を構成する点群を除外することができ、建物の垂直面を構成する点群を抽出することができる。また、こうして抽出された点群について、点間の距離および法線方向に基づいてクラスタリングを行えば、点群を建物の側面単位で分離することができる。そして、各面ごとに主成分分析を行い、第3主成分求めれば、それが側面の法線ベクトル方向となる。この法線ベクトルの精度は、第3固有値によって評価できる。つまり、第3固有値が大きいということは、法線方向に点群のばらつきが大きいことを示しており、法線の精度が低いことを表すからである。 Since the three-dimensional point cloud of the embodiment has a normal vector together with the three-dimensional position coordinates, when the provisional gravitational direction is determined, the point cloud having the normal vector in a direction relatively along this is specified. can do. If such a point group is excluded, a point group constituting a horizontal plane can be excluded from point groups constituting a building, and a point group constituting a vertical plane of the building can be extracted. Further, if clustering is performed on the point group thus extracted based on the distance between the points and the normal direction, the point group can be separated in units of the side of the building. Then, if principal component analysis is performed for each surface and the third principal component is obtained, it becomes the normal vector direction of the side surface. The accuracy of this normal vector can be evaluated by the third eigenvalue. That is, the large third eigenvalue indicates that the variation of the point group is large in the normal direction, and indicates that the accuracy of the normal is low.
こうして各側面の法線ベクトルが得られると、任意の2つの側面の法線ベクトルVi、Vjの外積Vi×Vjを求めれば、重力方向Gが得られるはずである。ただし、法線ベクトルVi、Vjには、それぞれ誤差が含まれているから、こうして得られる重力方向Gにも誤差が含まれている。そこで、実施例では、得られている法線ベクトルから、平行ではない任意の組み合わせを選択して、外積により個別の重力方向を求め、その加重平均によって最終的な重力方向Gを算出する。加重平均における重み値としては、例えば、法線ベクトルVi、Vjの精度を表す第3固有値の和(ei+ej)の逆数とすることができる。
以上の通り、3次元点群に対して統計的な処理を施すことにより、それぞれの点の位置座標および法線ベクトルに含まれる誤差の影響を抑制し、高い精度で重力方向を決定することが可能となる。
When the normal vectors for each side surface are obtained in this way, the gravitational direction G should be obtained by calculating the outer product Vi × Vj of the normal vectors Vi and Vj for any two side surfaces. However, since the normal vectors Vi and Vj each contain an error, the gravitational direction G thus obtained also contains an error. Therefore, in the embodiment, an arbitrary combination that is not parallel is selected from the obtained normal vectors, an individual gravity direction is obtained by an outer product, and a final gravity direction G is calculated by a weighted average thereof. The weight value in the weighted average can be, for example, the reciprocal of the sum (ei + ej) of the third eigenvalues representing the accuracy of the normal vectors Vi and Vj.
As described above, by performing statistical processing on the three-dimensional point group, it is possible to suppress the influence of errors included in the position coordinates and normal vectors of each point and determine the direction of gravity with high accuracy. It becomes possible.
D2.点群分離処理:
次に、点群分離処理が行われる(ステップS21)。これは、点群分離処理部205の機能に相当する処理であり、3次元点群を建物単位に分離する処理である。
この処理の過程で、まず、3次元モデル生成装置200は、3次元点群を階層ごとに分離する。そして、各階層内で点間の距離によって点群のクラスタリングを行う。このうち、上下方向の法線ベクトルが多く含まれているクラスタには屋上面が存在すると判断することができるから、クラスタを屋上面が存在するものと、側面のみのものに分離することができる。その上で、屋上面が存在するクラスタから、そのクラスタが積層されている下の階層のクラスタを特定していく。この特定は、例えば、上下の階層に属するクラスタ間の2次元的な距離が所定値以下となるもの同士を、同じ建物で上下に重なっているものと判断することで行うことができる。高層階で分岐している複雑な形状の建物の場合、上の分岐部分は、下の階層で共通のクラスタに関連づけられるから、このツリー構造によって、全体が一つの建物であると認識される。
このようにクラスタの関連付けおよびツリー構造を利用することにより、特殊な形状の建物も含め、3次元点群を建物ごとに分離することが可能となる。
D2. Point cloud separation processing:
Next, a point group separation process is performed (step S21). This is a process corresponding to the function of the point group separation processing unit 205, and is a process of separating a three-dimensional point group into building units.
In the course of this processing, first, the three-dimensional model generation apparatus 200 separates the three-dimensional point group for each hierarchy. Then, clustering of point groups is performed according to the distance between points in each hierarchy. Among these, since it can be determined that the roof surface has a top surface in a cluster that includes many normal vectors in the vertical direction, the cluster can be separated into those having the roof surface and those having only the side surface. . Then, from the cluster where the roof surface exists, the lower layer cluster in which the cluster is stacked is identified. This specification can be performed, for example, by determining that two-dimensional distances between clusters belonging to upper and lower hierarchies are equal to or less than a predetermined value as overlapping in the same building. In the case of a complex-shaped building that branches off on a higher floor, the upper branching portion is associated with a common cluster in the lower layer, so that the entire tree structure is recognized as one building.
By using the cluster association and the tree structure in this way, it is possible to separate a three-dimensional point group for each building, including specially shaped buildings.
D3.建物枠生成処理:
次に、建物枠生成処理が行われる(ステップS22)。これは、建物枠生成部206の機能に相当する処理であり、建物の2次元的な形状を特定する処理である。
この処理の過程で、まず、3次元モデル生成装置200は、法線ベクトルに基づいて、3次元点群から側面の点群を抽出する。そして、分離された側面に沿わせて所定サイズのグリッドを配置し、点群を水平面に投影し、1又は複数の点が存在する格子を抽出する。この処理によって、処理対象となるべき点数は、建物枠に対応する位置にある格子点の数にまで減少される。このように処理対象となる点数を減らした上で、3次元モデル生成装置200は、ほぼ直線的に配列されていると判断される部分について、点を間引くことで、建物枠を決定する。
D3. Building frame generation processing:
Next, building frame generation processing is performed (step S22). This is processing corresponding to the function of the building frame generation unit 206, and is processing for specifying the two-dimensional shape of the building.
In the course of this process, first, the three-dimensional model generation apparatus 200 extracts a side point group from the three-dimensional point group based on the normal vector. Then, a grid having a predetermined size is arranged along the separated side surfaces, and a point cloud is projected onto a horizontal plane to extract a lattice in which one or a plurality of points are present. By this processing, the number of points to be processed is reduced to the number of grid points at the position corresponding to the building frame. In this way, after reducing the number of points to be processed, the three-dimensional model generation apparatus 200 determines the building frame by thinning out the points determined to be arranged almost linearly.
D4.位置合わせ処理:
次に、位置合わせ処理が行われる(ステップS23)。これは、位置合わせ処理部207の機能に相当する処理であり、3次元点群を2次元の地図に適合させる処理である。
本実施例における位置合わせ処理は、建物ごとに2次元地図データと対比して、形状や位置の微修正を行うものではない。本実施例では、目標の建物周辺の領域について3次元点群が得られており、これらの3次元点群は、建物ごとに上面、側面を再現するのと同様の精度で、建物間の相対的な位置関係も表しているはずである。かかる考え方の下、本実施例では、これまでの処理で得られている複数の建物枠の全体を,2次元地図に最も精度良く適合させ得る形状および位置の変換方法を見いだすのである。
かかる位置合わせは、得られた建物枠を構成する頂点と、2次元地図上の頂点との対応関係を種々の組み合わせで試行し、最も小さい変形で、3次元点群を2次元地図に適合させられる対応関係を特定する。かかる特定には、焼きなまし法、またはシミューレーテッドアニーリング法を用いることができる。
かかる方法によれば、建物ごとの形状、および建物の相対的な位置関係について、3次元点群が有する情報を十分に活用することができるため、精度良く位置合わせを行うことが可能となる。
D4. Alignment process:
Next, alignment processing is performed (step S23). This is a process corresponding to the function of the alignment processing unit 207, and is a process for adapting a three-dimensional point group to a two-dimensional map.
The alignment processing in the present embodiment does not perform fine correction of the shape and position in comparison with the two-dimensional map data for each building. In this embodiment, three-dimensional point clouds are obtained for the area around the target building, and these three-dimensional point clouds are relative to each other with the same accuracy as reproducing the top surface and side surface of each building. It should also represent a typical positional relationship. Under this concept, the present embodiment finds a shape and position conversion method that can most accurately fit the whole of the plurality of building frames obtained by the above processing to the two-dimensional map.
For such alignment, the correspondence between the vertices constituting the obtained building frame and the vertices on the two-dimensional map is tried in various combinations, and the three-dimensional point group is adapted to the two-dimensional map with the smallest deformation. Identify the corresponding relationship. For such identification, an annealing method or a simulated annealing method can be used.
According to this method, since the information of the three-dimensional point group can be sufficiently utilized for the shape of each building and the relative positional relationship between the buildings, it is possible to perform alignment with high accuracy.
D5.ポリゴン生成処理:
次に、ポリゴン生成処理が行われる(ステップS24)。これは、ポリゴン生成部208の機能に相当する処理であり、建物ごとの3次元点群に基づいて、側面および上面のポリゴンを生成する処理である。
3次元モデル生成装置200は、ここまでの処理によって得られた建物枠に基づいて上面を定義し、次にこれを下方に平行移動することで、各辺に対して建物の側面のポリゴンを設定する。上で分岐しているような特殊な形状の建物についても同様に、分岐している各上面を下方に平行移動することによって分岐部分の側面を生成し、また低階層の上面を下方に平行移動することによって低階層の側面ポリゴンを生成することができる。このように上面の形状を利用する他、建物枠生成処理で分離された側面の点群に基づいてポリゴンを定義してもよい。
D5. Polygon generation processing:
Next, polygon generation processing is performed (step S24). This is a process corresponding to the function of the polygon generation unit 208, and is a process of generating side and top polygons based on a three-dimensional point group for each building.
The three-dimensional model generation device 200 defines the upper surface based on the building frame obtained by the processing so far, and then translates it downward to set the polygon on the side of the building for each side. To do. Similarly, for a specially shaped building that diverges above, the side of the bifurcation part is generated by translating downward each upper surface, and the lower surface is translated downward. By doing so, it is possible to generate a low-level side polygon. In addition to using the shape of the upper surface as described above, the polygon may be defined based on the point group of the side surface separated by the building frame generation processing.
D6.テクスチャ生成処理:
最後に、テクスチャ生成処理が行われ(ステップS25)、3次元地図として利用可能な位置精度を有する建物ごとの3次元モデルが生成される。
図4〜6は、テクスチャ生成処理のフローチャートである。
処理を開始すると、3次元モデル生成装置200は、テクスチャの生成処理の対象ポリゴンに合わせた形状で無地のテクスチャを生成する(ステップS50)。図中に生成例を示した。左側に示した建物モデルの正面のポリゴンが対象ポリゴンであるとする。3次元モデル生成装置200は、図中の右側に示すように、この対象ポリゴンを正面から見た状態の無地テクスチャを生成するのである。無地テクスチャの形状は、例えば、対象ポリゴンを正面から見た状態に変換することで決めてもよいし、対象ポリゴンの縦横比を求め、それに応じた矩形を新たに生成してもよい。無地テクスチャのピクセル数pix、piyは、形状に応じて定まる。無地テクスチャにいずれかの画像から得られる対象ポリゴン自体を、初期のテクスチャとして用いても良い。
D6. Texture generation processing:
Finally, texture generation processing is performed (step S25), and a three-dimensional model for each building having positional accuracy that can be used as a three-dimensional map is generated.
4 to 6 are flowcharts of the texture generation process.
When the process is started, the three-dimensional model generation apparatus 200 generates a plain texture with a shape that matches the target polygon of the texture generation process (step S50). An example of generation is shown in the figure. Assume that the polygon in front of the building model shown on the left is the target polygon. As shown on the right side of the drawing, the three-dimensional model generation apparatus 200 generates a plain texture in a state where the target polygon is viewed from the front. The shape of the plain texture may be determined, for example, by converting the target polygon into a state seen from the front, or the aspect ratio of the target polygon may be obtained and a new rectangle corresponding to the aspect ratio may be generated. The number of pixels pix and piy of the plain texture is determined according to the shape. The target polygon itself obtained from any image in the plain texture may be used as the initial texture.
次に、3次元モデル生成装置200は、対象ポリゴンを撮影した画像データを読み込み、遮蔽判定を行う(ステップS52)。図中に処理の方法を示した。本実施例では、上空の種々の方向から地物を撮影しているため、対象ポリゴンが写った画像は複数、存在する。この処理は、対象ポリゴンが写った複数の画像を対象として行う。もっとも、必ずしも全画像を対象とする必要はなく、所定の枚数を選択してもよい。
3次元モデル生成装置200は、画像を読み込むと、対象ポリゴンの画像を切り出し、正面から見た画像に変換する。この変換は、その画像を撮影したときの撮影位置、方向、画角などの撮影条件に基づき、正面から見た状態に変換するためのパラメータを設定することで実現できる。また、対象ポリゴンが矩形であることが既知の場合には、撮影条件を用いるまでなく、対象ポリゴンの画像が矩形になるような変換を施しても良い。さらに、ステップS50で求めた無地テクスチャに、対象ポリゴンの頂点を一致させるように変換する方法をとることもできる。
こうして、正面からの画像に変換すると、3次元モデル生成装置200は、対象ポリゴンの画像から、遮蔽部分を除去する処理を行う。いずれの部分が遮蔽されているかの判断には、既に生成されている3次元モデルを利用することができる。それぞれの画像を撮影したときの撮影条件に基づいて、他の地物も含む3次元モデルの仮想空間の中で、撮影を再現する。こうして得られた画像内で、どの地物が写っているかは、3次元モデルに基づいて比較的容易に特定できるから、対象ポリゴンの画像内で他の地物によって遮蔽されている部分も特定可能である。かかる方法によって、対象ポリゴンの画像から、遮蔽部分を除去することができる。
画像データの読込み、および遮蔽部分の除去は、このように画像データを読みこんだ時点で行ってもよいし、ピクセルごとに色を決定する後述の処理の時点で行うようにしてもよい。また、本実施例では、読み込んだ画像を正面画像に変換するものとしているが、かかる変換をせずに利用しても構わない。
Next, the three-dimensional model generation apparatus 200 reads image data obtained by capturing the target polygon and performs a shielding determination (step S52). The processing method is shown in the figure. In this embodiment, since the feature is photographed from various directions above, there are a plurality of images in which the target polygon is captured. This process is performed for a plurality of images in which the target polygon is captured. However, it is not always necessary to target all images, and a predetermined number may be selected.
When the image is read, the three-dimensional model generation apparatus 200 cuts out the target polygon image and converts it into an image viewed from the front. This conversion can be realized by setting parameters for conversion to a state viewed from the front based on shooting conditions such as the shooting position, direction, and angle of view when the image is shot. In addition, when it is known that the target polygon is rectangular, conversion may be performed so that the image of the target polygon becomes rectangular without using the shooting condition. Furthermore, it is possible to adopt a method of converting the plain polygon obtained in step S50 so that the vertex of the target polygon matches.
In this way, when the image is converted into an image from the front, the three-dimensional model generation apparatus 200 performs a process of removing the shielding portion from the target polygon image. The already generated three-dimensional model can be used to determine which part is shielded. Based on the shooting conditions when each image is shot, the shooting is reproduced in the virtual space of the three-dimensional model including other features. In the image obtained in this way, it is relatively easy to identify which features are reflected based on the 3D model, so it is also possible to identify the parts that are covered by other features in the target polygon image. It is. By such a method, it is possible to remove the shielding part from the image of the target polygon.
The reading of the image data and the removal of the shielding portion may be performed at the time when the image data is read in this way, or may be performed at the time of the later-described processing for determining the color for each pixel. In this embodiment, the read image is converted into a front image, but it may be used without such conversion.
次に、3次元モデル生成装置200は、テクスチャの色を、各画素ごとに決める処理を行う。
まず、3次元モデル生成装置200は、処理対象となるピクセルを選択する(ステップS54)。図中には、テクスチャの左上の画素PPから矢印a1、a2のように順に処理する例を示したが、ピクセルの選択は、かかる順序に限られない。例えば、対象ポリゴンについて既に得られている特徴点を優先して処理するようにしてもよい。
処理対象ピクセルを選択すると、そのピクセルの周辺の特徴点を抽出し、特徴点を基準として、処理対象ピクセルの相対的な位置を特定する(ステップS56)。特徴点としては、本実施例では、画像特徴量に基づいて各画像の対応が得られている点を用いる。この他、対象ポリゴンの画像データを画像解析して得られる頂点その他の点を特徴点として用いても良い。
図中に相対的位置の特定方法を例示した。処理対象ピクセルPPの周囲に特徴点1〜4が存在するものとする。相対的位置関係は、例えば、対象ピクセルPPから、特徴点1〜4までの距離r1〜r4の比で表しても良い。また、左下の特徴点2を基準として、特徴点2,3を結ぶ軸上における対象ピクセルPPの座標CPx、特徴点w、1を結ぶ軸上における対象ピクセルPPの座標CPyによって、相対的な位置関係を表すようにしてもよい。相対的位置関係は、この他、種々の方法で表し得る。
Next, the three-dimensional model generation apparatus 200 performs a process of determining the texture color for each pixel.
First, the three-dimensional model generation apparatus 200 selects a pixel to be processed (Step S54). In the drawing, an example is shown in which processing is performed in order as indicated by arrows a1 and a2 from the upper left pixel PP of the texture, but pixel selection is not limited to this order. For example, the feature points already obtained for the target polygon may be processed with priority.
When the pixel to be processed is selected, feature points around the pixel are extracted, and the relative position of the pixel to be processed is specified based on the feature points (step S56). In this embodiment, as the feature points, points corresponding to each image are obtained based on the image feature amount. In addition, vertices and other points obtained by image analysis of target polygon image data may be used as feature points.
The relative position specifying method is illustrated in the figure. It is assumed that feature points 1 to 4 exist around the processing target pixel PP. The relative positional relationship may be represented by, for example, a ratio of distances r1 to r4 from the target pixel PP to the feature points 1 to 4. The relative position is determined by the coordinate CPx of the target pixel PP on the axis connecting the feature points 2 and 3 and the coordinate CPy of the target pixel PP on the axis connecting the feature points w 1 with the lower left feature point 2 as a reference. You may make it represent a relationship. In addition to this, the relative positional relationship can be expressed by various methods.
こうして、相対的位置関係が求まると、3次元モデル生成装置200は、各画像データ内で、処理対象ピクセルに対応する対応ピクセルを特定する(ステップS58)。
図中に処理のイメージを例示した。特徴点1〜4は、テクスチャ生成の素材となるそれぞれの画像内に存在する点である。従って、画像1において、特徴点1〜4を見いだし、これに先に得られている相対的位置関係を適用すれば、対応ピクセルCP1が得られる。同様に、別の画像2においても、特徴点1〜4を見いだし、これに相対的位置関係を適用すれば、対応ピクセルCP2が得られる。このように、テクスチャ生成の素材となる画像、即ちS52で読み込んだ各画像に対し、同様の処理を施せば、各画像における対応ピクセルを特定することができる。
When the relative positional relationship is obtained in this way, the three-dimensional model generation apparatus 200 specifies a corresponding pixel corresponding to the processing target pixel in each image data (step S58).
The image of processing was illustrated in the figure. The feature points 1 to 4 are points that exist in each image that is a material for texture generation. Therefore, if the feature points 1 to 4 are found in the image 1 and the relative positional relationship obtained previously is applied thereto, the corresponding pixel CP1 is obtained. Similarly, in another image 2, if the feature points 1 to 4 are found and the relative positional relationship is applied thereto, the corresponding pixel CP <b> 2 is obtained. As described above, if the same processing is performed on the image as the material for generating the texture, that is, each image read in S52, the corresponding pixel in each image can be specified.
3次元モデル生成装置200は、こうして得られた各画像の対応ピクセルの平均値によって、処理対象ピクセルの色を決定する(ステップS60)。ただし、先にステップS52で説明した通り、画像データからは、遮蔽部分が除去されている。従って、この処理は、遮蔽部分を除く対応ピクセルの色を用いて行うことになる。
図中に処理例を示した。処理対象ピクセルPP1の色は、3つの画像内の対応ピクセルCP11、CP21、CP31の色を平均して求めることができる。処理対象ピクセルPP2については、2つめの対応ピクセルCP22は遮蔽部分で除去されているため、対応ピクセルCP12、CP32の平均値で求める。処理対象ピクセルPP3については、2つの対応ピクセルCP13、CP23が遮蔽部分で除去されているため、対応ピクセルCP33を用いて求める。
複数の対応ピクセルに基づいて色を決定する方法は、種々の方法が可能である。例えば、色ごとに対応ピクセルの分布を求めて、そのピーク値を採用するようにしてもよい。
3次元モデル生成装置200は、テクスチャの全ピクセルについて色が決定するまで(ステップS62)、ステップS54以降の処理を繰り返し実行し、完成したテクスチャを格納して(ステップS64)、テクスチャ生成処理を終了する。
The three-dimensional model generation apparatus 200 determines the color of the processing target pixel based on the average value of the corresponding pixels of each image obtained in this way (step S60). However, as described above in step S52, the occluded portion is removed from the image data. Therefore, this processing is performed using the color of the corresponding pixel excluding the shielding portion.
An example of processing is shown in the figure. The color of the processing target pixel PP1 can be obtained by averaging the colors of the corresponding pixels CP11, CP21, CP31 in the three images. The processing target pixel PP2 is obtained as an average value of the corresponding pixels CP12 and CP32 because the second corresponding pixel CP22 is removed by the shielding portion. The processing target pixel PP3 is obtained using the corresponding pixel CP33 because the two corresponding pixels CP13 and CP23 are removed by the shielding portion.
Various methods can be used as a method of determining a color based on a plurality of corresponding pixels. For example, the distribution of corresponding pixels for each color may be obtained and the peak value may be adopted.
The three-dimensional model generation apparatus 200 repeatedly executes the processing from step S54 until the colors are determined for all the pixels of the texture (step S62), stores the completed texture (step S64), and ends the texture generation processing. To do.
E.効果:
以上の実施例によれば、対応ピクセルの平均値によって処理対象ピクセルの色を求めるため、遮蔽部分で除去されていない画像データが1つでも存在すれば、欠落部分を補足し合って、処理対象ピクセルの色を決定することができる。また、ピクセル単位で処理を行うため、複数の画像をパッチワークのように合成したときの継ぎ目などが現れず、テクスチャ全体の画質を向上させることができる。
実施例では、
E. effect:
According to the above embodiment, since the color of the pixel to be processed is obtained by the average value of the corresponding pixels, if there is even one piece of image data that has not been removed by the shielding portion, the missing portion is supplemented and the processing target The color of the pixel can be determined. In addition, since processing is performed in units of pixels, a seam or the like when a plurality of images are combined like patchwork does not appear, and the image quality of the entire texture can be improved.
In the example,
以上、本発明の実施例について説明した。本発明は、必ずしも上述した実施例の全ての機能を備えている必要はなく、一部のみを実現するようにしてもよい。また、上述した内容に追加の機能を設けてもよい。
本発明は上述の実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。例えば、実施例においてハードウェア的に構成されている部分は、ソフトウェア的に構成することもでき、その逆も可能である。
実施例では、3次元点群を用いる例を示したが、テクスチャの生成は、必ずしも3次元点群を利用する態様に限らず適用可能である。
The embodiment of the present invention has been described above. The present invention does not necessarily have all the functions of the above-described embodiments, and only a part may be realized. Moreover, you may provide an additional function in the content mentioned above.
Needless to say, the present invention is not limited to the above-described embodiments, and various configurations can be adopted without departing from the spirit of the present invention. For example, a part configured in hardware in the embodiment can be configured in software and vice versa.
In the embodiment, an example in which a three-dimensional point group is used has been described. However, texture generation is not necessarily limited to an aspect in which a three-dimensional point group is used.
本発明は、3次元モデルのポリゴンに適用するテクスチャ画像データの生成に適用可能である。 The present invention can be applied to generation of texture image data to be applied to a polygon of a three-dimensional model.
100…撮影管理装置
101…カメラ
102…GPS
110…撮影制御部
112…撮影シーケンス記憶部
120…画像記録部
200…3次元モデル生成装置
201…画像データ記憶部
202…3次元点群生成部
203…3次元点群データ記憶部
204…重力方向解析部
205…点群分離処理部
206…建物枠生成部
207…位置合わせ処理部
208…ポリゴン生成部
209…テクスチャ生成部
210…2次元地図データ
211…3次元モデルデータ
DESCRIPTION OF SYMBOLS 100 ... Shooting management apparatus 101 ... Camera 102 ... GPS
DESCRIPTION OF SYMBOLS 110 ... Shooting control part 112 ... Shooting sequence memory | storage part 120 ... Image recording part 200 ... Three-dimensional model production | generation apparatus 201 ... Image data memory | storage part 202 ... Three-dimensional point cloud data generation part 203 ... Three-dimensional point cloud data memory part 204 ... Gravity direction Analysis unit 205 ... Point group separation processing unit 206 ... Building frame generation unit 207 ... Alignment processing unit 208 ... Polygon generation unit 209 ... Texture generation unit 210 ... 2D map data 211 ... 3D model data
Claims (6)
前記コンピュータが実行するステップとして、
(A)前記地物の前記ポリゴンに対応する面を撮影した複数の画像データを読み込むステップと、
(B)前記テクスチャ画像を構成するピクセルごとに、前記複数の画像データから該ピクセルに対応する箇所の色情報を取得するステップと、
(C)前記取得された色情報に基づいて、前記ピクセルの色を決定することにより、前記テクスチャ画像を生成するステップと
を備え、
前記ステップ(B)は、
(B1)前記複数の画像データにおける複数の特徴点同士の対応関係を求めるステップと、
(B2)前記ピクセルの周囲に位置する複数の特徴点を基準として、該ピクセルに対応する箇所を特定するステップと
を有するテクスチャ画像データの生成方法。 A texture image data generation method for generating image data of a texture image to be applied to a polygon constituting a three-dimensional model of a feature by a computer,
As the steps executed by the computer,
(A) reading a plurality of image data obtained by photographing a surface corresponding to the polygon of the feature;
(B) For each pixel constituting the texture image, obtaining color information of a location corresponding to the pixel from the plurality of image data;
(C) generating the texture image by determining a color of the pixel based on the acquired color information ,
The step (B)
(B1) obtaining a correspondence relationship between a plurality of feature points in the plurality of image data;
(B2) identifying a location corresponding to the pixel on the basis of a plurality of feature points located around the pixel;
A method for generating texture image data.
前記ステップ(C)は、
前記画像データのうち、他の地物によって遮蔽されている部分を除いて、前記ピクセルの色を決定する
テクスチャ画像データの生成方法。 The method of generating texture image data according to claim 1 ,
The step (C)
A method of generating texture image data that determines a color of the pixel by excluding a portion of the image data that is shielded by other features.
前記ステップ(A)は、さらに、前記画像データの撮影条件を読み込み、
前記ステップ(C)は、前記地物および該地物の周辺の3次元形状を表す3次元モデルを参照し、該3次元モデルと前記撮影条件に基づいて、前記遮蔽されている部分を特定する
テクスチャ画像データの生成方法。 A method of generating texture image data according to claim 2 ,
The step (A) further reads a photographing condition of the image data,
The step (C) refers to a three-dimensional model representing the feature and a three-dimensional shape around the feature, and identifies the shielded portion based on the three-dimensional model and the imaging condition. A method for generating texture image data.
前記ステップ(A)は、前記ポリゴンに対応する面を、当該面の法線方向から見た状態の画像に変換して、前記撮影した複数の画像データを読み込む
テクスチャ画像データの生成方法。 A method for generating texture image data according to any one of claims 1 to 3 ,
The step (A) is a method of generating texture image data in which a surface corresponding to the polygon is converted into an image viewed from the normal direction of the surface, and the plurality of captured image data is read.
前記地物の前記ポリゴンに対応する面を撮影した複数の画像データを読み込む画像データ入力部と、
前記テクスチャ画像を構成するピクセルごとに、前記複数の画像データから該ピクセルに対応する箇所の色情報を取得し、前記取得された色情報に基づいて、前記ピクセルの色を決定することにより、前記テクスチャ画像を生成するテクスチャ生成部と
を備え、
前記テクスチャ生成部は、
前記複数の画像データにおける複数の特徴点同士の対応関係を求め、
前記ピクセルの周囲に位置する複数の特徴点を基準として、該ピクセルに対応する箇所を特定する
テクスチャ画像データ生成装置。 A texture image data generation device for generating image data of a texture image to be applied to a polygon constituting a three-dimensional model of a feature,
An image data input unit that reads a plurality of image data obtained by photographing a surface corresponding to the polygon of the feature;
For each pixel constituting the texture image, obtaining color information of a location corresponding to the pixel from the plurality of image data, and determining the color of the pixel based on the obtained color information, A texture generation unit for generating a texture image ,
The texture generation unit
Obtaining a correspondence between a plurality of feature points in the plurality of image data;
A texture image data generation device that specifies a location corresponding to a pixel on the basis of a plurality of feature points located around the pixel .
(A)前記地物の前記ポリゴンに対応する面を撮影した複数の画像データを読み込む機能と、
(B)前記テクスチャ画像を構成するピクセルごとに、前記複数の画像データから該ピクセルに対応する箇所の色情報を取得する機能と、
(C)前記取得された色情報に基づいて、前記ピクセルの色を決定することにより、前記テクスチャ画像を生成する機能と
をコンピュータに実現させ、
前記機能(B)として、
(B1)前記複数の画像データにおける複数の特徴点同士の対応関係を求める機能と、
(B2)前記ピクセルの周囲に位置する複数の特徴点を基準として、該ピクセルに対応する箇所を特定する機能と
を実現させるコンピュータプログラム。 A computer program for causing a computer to realize a function of generating image data of a texture image applied to a polygon constituting a three-dimensional model of a feature,
(A) a function of reading a plurality of image data obtained by photographing a surface corresponding to the polygon of the feature;
(B) For each pixel constituting the texture image, a function of acquiring color information of a location corresponding to the pixel from the plurality of image data;
(C) causing the computer to realize the function of generating the texture image by determining the color of the pixel based on the acquired color information ;
As the function (B),
(B1) a function for obtaining a correspondence relationship between a plurality of feature points in the plurality of image data;
(B2) a function for specifying a location corresponding to the pixel on the basis of a plurality of feature points located around the pixel;
A computer program that Ru is realized.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013125147A JP5997664B2 (en) | 2013-06-14 | 2013-06-14 | Generating texture image data |
PCT/JP2014/064662 WO2014199860A1 (en) | 2013-06-14 | 2014-06-03 | Method for generating texture-image data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013125147A JP5997664B2 (en) | 2013-06-14 | 2013-06-14 | Generating texture image data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015001792A JP2015001792A (en) | 2015-01-05 |
JP5997664B2 true JP5997664B2 (en) | 2016-09-28 |
Family
ID=52022158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013125147A Active JP5997664B2 (en) | 2013-06-14 | 2013-06-14 | Generating texture image data |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5997664B2 (en) |
WO (1) | WO2014199860A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018143502A1 (en) * | 2017-02-06 | 2018-08-09 | (주)볼트마이크로 | Data format conversion method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0997344A (en) * | 1995-09-29 | 1997-04-08 | Fujitsu Ltd | Method and system for texture generation |
US6469710B1 (en) * | 1998-09-25 | 2002-10-22 | Microsoft Corporation | Inverse texture mapping using weighted pyramid blending |
JP4008686B2 (en) * | 2001-10-05 | 2007-11-14 | 三菱電機株式会社 | Texture editing apparatus, texture editing system and method |
JP4117771B2 (en) * | 2002-05-15 | 2008-07-16 | 株式会社パスコ | Orthophoto image generation method and orthophoto image generation system |
JP4299010B2 (en) * | 2003-01-17 | 2009-07-22 | 株式会社パスコ | Method for obtaining texture image of 3D geographic shape model |
US8531472B2 (en) * | 2007-12-03 | 2013-09-10 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
-
2013
- 2013-06-14 JP JP2013125147A patent/JP5997664B2/en active Active
-
2014
- 2014-06-03 WO PCT/JP2014/064662 patent/WO2014199860A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018143502A1 (en) * | 2017-02-06 | 2018-08-09 | (주)볼트마이크로 | Data format conversion method |
Also Published As
Publication number | Publication date |
---|---|
WO2014199860A1 (en) | 2014-12-18 |
JP2015001792A (en) | 2015-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111629193B (en) | Live-action three-dimensional reconstruction method and system | |
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
US7509241B2 (en) | Method and apparatus for automatically generating a site model | |
CN110574076B (en) | Image generation device, image generation method, and computer-readable storage medium | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
CN103810685B (en) | A kind of super-resolution processing method of depth map | |
KR101314120B1 (en) | Three-dimensional urban modeling apparatus and three-dimensional urban modeling method | |
JP2019534510A5 (en) | ||
JP2015114954A (en) | Photographing image analysis method | |
WO2018061010A1 (en) | Point cloud transforming in large-scale urban modelling | |
JP2014186567A (en) | Analysis method of three-dimensional point group | |
JP6921686B2 (en) | Generator, generation method, and program | |
JP6080641B2 (en) | 3D point cloud analysis method | |
CN104361628A (en) | Three-dimensional real scene modeling system based on aviation oblique photograph measurement | |
JP2014185947A (en) | Image photographing method for three-dimensional restoration | |
JP2002074323A (en) | Method and system for generating three-dimensional urban area space model | |
JP4058293B2 (en) | Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model | |
JP2016218694A (en) | Three-dimensional model generation device, three-dimensional model generation method, and program | |
JP6080640B2 (en) | 3D point cloud analysis method | |
US20240087231A1 (en) | Method, apparatus, computer device and storage medium for three-dimensional reconstruction of indoor structure | |
CN114766042A (en) | Target detection method, device, terminal equipment and medium | |
JP2020008802A (en) | Three-dimensional map generation device and three-dimensional map generation method | |
CN118247429A (en) | Air-ground cooperative rapid three-dimensional modeling method and system | |
KR101079475B1 (en) | A system for generating 3-dimensional urban spatial information using point cloud filtering | |
JP5997664B2 (en) | Generating texture image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160701 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5997664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |