JP4099776B2 - 3D model creation device, 3D model creation method, and 3D model creation program - Google Patents
3D model creation device, 3D model creation method, and 3D model creation program Download PDFInfo
- Publication number
- JP4099776B2 JP4099776B2 JP2004063163A JP2004063163A JP4099776B2 JP 4099776 B2 JP4099776 B2 JP 4099776B2 JP 2004063163 A JP2004063163 A JP 2004063163A JP 2004063163 A JP2004063163 A JP 2004063163A JP 4099776 B2 JP4099776 B2 JP 4099776B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- texture
- information
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、3次元モデル作成装置、3次元モデル作成方法および3次元モデル作成プログラムに関し、特に航空写真を用いてステレオ処理を行うことで建物の3次元ポリゴンを作成するシステム、方法およびプログラムに関する。 The present invention relates to a three-dimensional model creation apparatus, a three-dimensional model creation method, and a three-dimensional model creation program, and more particularly to a system, method, and program for creating a three-dimensional polygon of a building by performing stereo processing using aerial photographs.
航空写真から生成された画像データをステレオ処理することにより、建物の高さを算出し、都市の3次元ポリゴンモデルを自動的に生成する技術が知られている(例えば、特許文献1参照。)。図1は、上記特許文献1に記載された、従来の都市モデル生成システムの構成を示すブロック図である。図1を参照すると、従来の都市モデル生成システムは、衛星画像データを蓄積する衛星画像蓄積部101と、その衛星画像蓄積部101から得られる衛星画像データに対してステレオマッチング処理を行い、3次元データを生成するステレオ処理部102と、ステレオ処理部102によって得られた3次元データ中の雑音や欠損等の誤ったデータを、地図データから得られる建造物等の外形情報を用いて自動的に補正するDEMデータ自動補正部103と、そのDEMデータ自動補正部103に対して建造物の外形などの地図データを提供する地図データ蓄積部104とで構成されている。
A technique is known in which the height of a building is calculated by performing stereo processing on image data generated from an aerial photograph, and a three-dimensional polygon model of a city is automatically generated (see, for example, Patent Document 1). . FIG. 1 is a block diagram showing a configuration of a conventional city model generation system described in
この都市モデル生成システムは、衛星画像蓄積部101には衛星から地上の同地点を異なった視点から撮影した複数枚の画像、つまり衛星ステレオ画像が蓄積され、それらの衛星ステレオ画像はステレオ処理部102に与えられる。ステレオ処理部102は得られた衛星ステレオ画像に対し、ステレオマッチング処理を自動的に行い、撮影された地点周辺の地形を示す3次元データを生成する。これは具体的には、2次元の地図上の各点に対応する高さの値で示されるものである。
In this city model generation system, the satellite image storage unit 101 stores a plurality of images obtained by photographing the same point on the ground from the satellite from different viewpoints, that is, satellite stereo images. These satellite stereo images are stored in the
ここで、ステレオマッチング処理とは、異なる視点から撮影した2枚の画像について、同一の点を撮像している各画像中の対応点を求め、その視差を用いて三角測量の原理によって対象までの奥行きや形状を求めることである。一般的には特徴量を求めて対応付ける方法や、左右画像の相関を用いる相関法等の様々な手法が提案されている。 Here, the stereo matching process is to obtain corresponding points in each image capturing the same point for two images taken from different viewpoints, and use the parallax to obtain the target by the principle of triangulation. Determining depth and shape. In general, various methods such as a method of obtaining and associating feature amounts and a correlation method using correlation between left and right images have been proposed.
DEMデータ自動補正部103は、ステレオマッチング処理にて得られた3次元データに対して、地図データ蓄積部104に記憶されかつ3次元データに対応する領域に含まれる建造物の外形情報を主とする地図データを用いて、3次元データ中の誤ったデータを自動的に補正する。DEMデータ自動補正部103において、位置合わせ手段31は3次元データと地図データとを、同じ座標を示す点が一致するよう重ね合わせる。3次元データ及びその元となる衛星画像で採用されている測地系と、地図データで用いられる測地系とが異なる場合、同一点の経緯度の値が異なってしまうため、同等のものとなるように変換し、経緯度が一致する所定の点の情報を用いて変換パラメータを求め、アフィン変換等の変換をどちらかに適用し、3次元データと地図データとにおける同一点が一致するように重ね合わせる。その重ね合わせた地図データ中の各建造物領域毎に、内部に含まれる3次元データを建物候補領域として設定する。さらに、その設定された各建物候補領域に対し、その領域内に含まれる3次元データの値についてヒストグラムを得る等の統計的な解析を行う。
The DEM data
各領域について、高い頻度を示す値をいくつか選択し、それら選択した点の値を、領域内の3次元データのうち、それら選択した点の近傍の3次元データにおいて最も頻度の高い値に置き換えて3次元データの修正を行う。すなわち、各領域のヒストグラムから頻度の高いいくつかの値をその領域の代表値として選択し、領域内の各画素のうち、代表値から所定の閾値の範囲のDEMデータの値を持つものについて、代表値に対応するラベルを付加する。 For each region, select several values that indicate high frequency, and replace the selected point values with the most frequent values in the three-dimensional data in the vicinity of the selected points. To correct the 3D data. That is, select some values with high frequency from the histogram of each region as the representative value of the region, and among the pixels in the region, those having the value of DEM data within a predetermined threshold range from the representative value, A label corresponding to the representative value is added.
その後に、代表値に関連付けられることなく残った各画素について、近傍の画素に付加されたラベルの分布を調べ、頻度の高いラベルを当該画素のラベルとして選択する。建造物領域中の全ての画素についてラベルが決定されると、各画素の値をラベルに設定されている代表値で置換する。上記のように、ステレオ処理部102及びDEMデータ自動補正部103によって全てコンピュータ上で自動的に3次元データが得られるため、オペレータの操作を必要としない。従来の技術で生成された3次元の建物ポリゴンは、実景観との乖離が大きく、作成された3次元の建物ポリゴンを可視化応用に用いるためには、建物壁面の画像を入手して、その3次元の建物ポリゴンに貼り付ける作業が必要である。
After that, for each pixel remaining without being associated with the representative value, the distribution of labels added to neighboring pixels is examined, and a label with high frequency is selected as the label of the pixel. When labels are determined for all pixels in the building area, the value of each pixel is replaced with a representative value set in the label. As described above, since the three-dimensional data is automatically obtained on the computer by the
作成された3次元の建物ポリゴンを可視化応用に用いるために、建物壁面の画像データを自動的に生成する技術が望まれる。 In order to use the created three-dimensional building polygon for visualization application, a technique for automatically generating image data of a building wall surface is desired.
本発明が解決しようとする課題は、壁面画像の撮影や切り出しの作業を必要とすることなく、航空写真のみから建物壁面の情報を反映した都市モデルを自動的に生成することができるシステムを提供することにある。 The problem to be solved by the present invention is to provide a system that can automatically generate a city model that reflects information on a building wall surface from only aerial photographs, without requiring the operation of taking and cutting out a wall image. There is to do.
以下に、[発明を実施するための最良の形態]で使用される番号を用いて、課題を解決するための手段を説明する。これらの番号は、[特許請求の範囲]の記載と[発明を実施するための最良の形態]との対応関係を明らかにするために付加されたものである。ただし、それらの番号を、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。 The means for solving the problem will be described below using the numbers used in [Best Mode for Carrying Out the Invention]. These numbers are added to clarify the correspondence between the description of [Claims] and [Best Mode for Carrying Out the Invention]. However, these numbers should not be used to interpret the technical scope of the invention described in [Claims].
連続撮影された複数の画像を電子データ化した画像データ(1a)を格納する画像データ格納部(1)と、ここで、前記画像の隣り合う画像データ(1a)は、同一の被写体の画像を含むものを使用する。そして、前記画像データ(1a)から、前記被写体の奥行き方向を構成する面に対応する部分の画像データである側面データ(7a)を抽出して出力する側面データ出力部と、前記側面データ(7a)を使用してテクスチャを生成し、前記テクスチャを前記画像データ(1a)に基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成部とを具備する3次元モデル作成装置によって、人間の視覚がとらえる映像に対応する3次元立体画像を生成する。 An image data storage unit (1) that stores image data (1a) obtained by converting a plurality of continuously shot images into electronic data, and the adjacent image data (1a) of the images includes images of the same subject. Use what includes. Then, a side data output unit that extracts and outputs side data (7a) that is image data of a portion corresponding to a surface constituting the depth direction of the subject from the image data (1a), and the side data (7a). ) To generate a texture, and a 3D model creation device including a texture generation unit that attaches the texture to the 3D polygon data generated based on the image data (1a). A three-dimensional stereoscopic image corresponding to the captured image is generated.
その3次元モデル作成装置において、前記側面データ出力部は、ステレオ処理部(2)とオルソ化処理部(31)とを含み、前記ステレオ処理部(2)は、前記被写体の奥行き情報を算出する。そして、前記オルソ化処理部(31)は、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成し、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成する。また、前記テクスチャ生成部は、ラベル画像生成部(8)と、側面情報作成部(10)と、壁面テクスチャ生成部(12)とを含み、前記ラベル画像生成部(8)は、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成し、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成する。前記側面情報作成部(10)は、前記側面データ(7a)と前記ラベル画像(9a)とに基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成する。そして、前記壁面テクスチャ生成部(12)は、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付する3次元モデル作成装置によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。 In the three-dimensional model creation device, the side data output unit includes a stereo processing unit (2) and an orthoprocessing unit (31), and the stereo processing unit (2) calculates the depth information of the subject. . The orthoprocessing unit (31) generates an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the contour of the subject of the image data (1a). The side data (7a) is generated based on the pixels of the portion and the pixels of the contour portion of the subject of the ortho image. The texture generation unit includes a label image generation unit (8), a side surface information generation unit (10), and a wall surface texture generation unit (12), and the label image generation unit (8) includes the depth information. Generating reference image data based on the three-dimensional polygon data (6a) of the subject generated based on the image, and specifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data; A label image (9a) is generated by adding individual label values to the pixels in the side region. The side information creation unit (10) generates side information (11a) used for generating the texture based on the side data (7a) and the label image (9a). The wall surface texture generation unit (12) generates the texture based on the side surface information (11a), and attaches the texture to the side surface of the three-dimensional polygon data (6a). A three-dimensional stereoscopic image is generated, and the three-dimensional stereoscopic image is used for a car navigation screen or the like.
その3次元モデル作成装置において、前記側面データ出力部は、ステレオ処理部(2)とオルソ化処理部(31)とを含み、前記ステレオ処理部(2)は、前記被写体の奥行き情報を算出する。そして、前記オルソ化処理部(31)は、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成し、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成する。また、前記テクスチャ生成部は、ラベル画像生成部(8)と、側面情報作成部(10)と、壁面テクスチャ生成部(12)とを含み、前記ラベル画像生成部(8)は、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成し、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成する。前記側面情報作成部(10)は、前記ラベル画像(9a)に基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成する。前記壁面テクスチャ生成部(12)は、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付する3次元モデル作成装置によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。 In the three-dimensional model creation device, the side data output unit includes a stereo processing unit (2) and an orthoprocessing unit (31), and the stereo processing unit (2) calculates the depth information of the subject. . The orthoprocessing unit (31) generates an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the contour of the subject of the image data (1a). The side data (7a) is generated based on the pixels of the portion and the pixels of the contour portion of the subject of the ortho image. The texture generation unit includes a label image generation unit (8), a side surface information generation unit (10), and a wall surface texture generation unit (12), and the label image generation unit (8) includes the depth information. Generating reference image data based on the three-dimensional polygon data (6a) of the subject generated based on the image, and specifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data; A label image (9a) is generated by adding individual label values to the pixels in the side region. The side information creating unit (10) generates side information (11a) used for generating the texture based on the label image (9a). The wall surface texture generation unit (12) generates the texture based on the side surface information (11a), and uses the 3D model creation device to attach the texture to the side surface of the 3D polygon data (6a). A stereoscopic image is generated, and the three-dimensional stereoscopic image is used for a car navigation screen or the like.
その3次元モデル作成装置において、前記テクスチャ生成部はさらに、標準側面画像格納部(13)を備え、前記標準側面画像格納部(13)は、複数の側面画像データ(13a)を予め格納する。前記側面情報作成部(10)は、前記複数の側面画像データ(13a)から、前記側面情報(11a)に最も類似するデータを最類似データとして選択し、前記テクスチャは、前記最類似データに基づいて生成されるものを使用する3次元モデル作成装置によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。 In the three-dimensional model creation apparatus, the texture generation unit further includes a standard side image storage unit (13), and the standard side image storage unit (13) stores a plurality of side image data (13a) in advance. The side surface information creation unit (10) selects data most similar to the side surface information (11a) from the plurality of side surface image data (13a) as the most similar data, and the texture is based on the most similar data. A three-dimensional model creating apparatus that uses the generated one generates a three-dimensional stereoscopic image, and uses the three-dimensional stereoscopic image for a car navigation screen or the like.
その3次元モデル作成装置において、前記ステレオ処理部(2)は、隣接する画像データ(1a)の各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出する。そして、前記オルソ化処理部(31)は、前記第1画像に対応する第1側面データ(7a)と、前記第2画像に対応する第2側面データ(7a)を生成する。さらに、前記ラベル画像生成部(8)は、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成する。前記側面情報作成部(10)は、前記第1側面データ(7a)と前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データ(7a)と前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成する3次元モデル作成装置によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。 In the three-dimensional model creation device, the stereo processing unit (2) specifies each of the adjacent image data (1a) as a first image and a second image, and determines the first image and the second image. The depth information is calculated by performing a stereo matching process. The orthoprocessing unit (31) generates first side data (7a) corresponding to the first image and second side data (7a) corresponding to the second image. Further, the label image generation unit (8) generates a first label image corresponding to the first image and a second label image corresponding to the second image. The side information creation unit (10) creates first side information based on the first side data (7a) and the first label image, and the second side data (7a) and the second label. Based on the image, the second side information is created, the first side information is compared with the second side information, and a three-dimensional model creation device that creates the side information generates a three-dimensional stereoscopic image The three-dimensional stereoscopic image is used for a car navigation screen or the like.
連続撮影された複数の画像を電子データ化した画像データ(1a)から、同一の被写体の画像を含む隣り合う画像データ(1a)を読み出すステップと、前記被写体の奥行き方向を構成する面に対応する側面データ(7a)を抽出して出力するステップと、前記側面データ(7a)を使用してテクスチャを生成するステップと、前記テクスチャを前記画像データ(1a)に基づいて生成された3次元ポリゴンデータ(6a)に添付するステップを具備する方法をコンピュータで実行可能なプログラムによって、上述の3次元立体画像を生成する。 Corresponding to a step of reading adjacent image data (1a) including an image of the same subject from image data (1a) obtained by converting a plurality of continuously photographed images into electronic data, and a plane constituting the depth direction of the subject Extracting and outputting side data (7a); generating a texture using the side data (7a); and three-dimensional polygon data generated based on the image data (1a). The above three-dimensional stereoscopic image is generated by a program capable of executing the method including the step attached to (6a) by a computer.
そのプログラムにおいて、前記被写体の奥行き情報を算出するステップと、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成するステップと、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成するステップと、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成するステップと、前記側面データ(7a)と前記ラベル画像(9a)とに基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成するステップと、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付するステップを具備する方法をコンピュータで実行可能なプログラムによって、3次元立体画像を生成する。 In the program, calculating the depth information of the subject, generating an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the image data (1a) Generating the side data (7a) based on the pixel of the contour portion of the subject and the pixel of the contour portion of the subject of the ortho image, and 3 of the subject generated based on the depth information Generating reference image data based on the three-dimensional polygon data (6a), identifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data, Adding a label value to generate a label image (9a), the side data (7a) and the label image (9 ) Generating side information (11a) used for generating the texture, generating the texture based on the side information (11a), and converting the texture into the three-dimensional polygon data (6a). 3D images are generated by a program that can be executed by a computer.
そのプログラムにおいて、前記被写体の奥行き情報を算出するステップと、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成するステップと、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成するステップと、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成するステップと、前記ラベル画像(9a)に基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成するステップと、前記壁面テクスチャ生成部(12)は、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付するステップを具備する方法をコンピュータで実行可能なプログラムによって、3次元立体画像を生成する。 In the program, calculating the depth information of the subject, generating an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the image data (1a) Generating the side data (7a) based on the pixel of the contour portion of the subject and the pixel of the contour portion of the subject of the ortho image, and 3 of the subject generated based on the depth information Generating reference image data based on the three-dimensional polygon data (6a), identifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data, Adding a label value to generate a label image (9a), and based on the label image (9a), A step of generating side information (11a) used for generating a tea; and the wall surface texture generation unit (12) generates the texture based on the side surface information (11a), and the texture is converted into the three-dimensional polygon. A three-dimensional stereoscopic image is generated by a computer-executable program that includes the step of attaching to the side of the data (6a).
そのプログラムにおいて、予め格納された複数の側面画像データ(13a)から、前記側面情報(11a)に最も類似するデータを最類似データとして選択するステップと、前記最類似データに基づいて生成するステップを具備する方法をコンピュータで実行可能なプログラムによって、3次元立体画像を生成する。 In the program, a step of selecting data most similar to the side information (11a) as the most similar data from a plurality of side image data (13a) stored in advance, and a step of generating based on the most similar data A three-dimensional stereoscopic image is generated by a program capable of executing the provided method by a computer.
そのプログラムにおいて、隣接する画像データ(1a)の各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出するステップと、前記第1画像に対応する第1側面データ(7a)と、前記第2画像に対応する第2側面データ(7a)を生成するステップと、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、前記第1側面データ(7a)と前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データ(7a)と前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成するステップを具備する方法をコンピュータで実行可能なプログラムによって、3次元立体画像を生成する。 In the program, each of adjacent image data (1a) is specified as a first image and a second image, and the depth information is calculated by performing stereo matching processing on the first image and the second image. Generating first side data (7a) corresponding to the first image, second side data (7a) corresponding to the second image, and a first label image corresponding to the first image; Generating a second label image corresponding to the second image, creating first side information based on the first side data (7a) and the first label image, and generating the second side image. Creating the second side information based on the data (7a) and the second label image, and comparing the first side information and the second side information to create the side information; Compu method By a program executable by a data, to generate a three-dimensional stereoscopic images.
連続撮影された複数の画像を電子データ化した画像データ(1a)から、同一の被写体の画像を含む隣り合う画像データ(1a)を読み出すステップと、前記被写体の奥行き方向を構成する面に対応する側面データ(7a)を抽出して出力するステップと、前記側面データ(7a)を使用してテクスチャを生成するステップと、前記テクスチャを前記画像データ(1a)に基づいて生成された3次元ポリゴンデータ(6a)に添付するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。 Corresponding to a step of reading adjacent image data (1a) including an image of the same subject from image data (1a) obtained by converting a plurality of continuously photographed images into electronic data, and a plane constituting the depth direction of the subject Extracting and outputting side data (7a); generating a texture using the side data (7a); and three-dimensional polygon data generated based on the image data (1a). A three-dimensional stereoscopic image is generated by the three-dimensional model creation method including the step attached to (6a).
その3次元モデル作成方法において、前記被写体の奥行き情報を算出するステップと、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成するステップと、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成するステップと、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成するステップと、前記側面データ(7a)と前記ラベル画像(9a)とに基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成するステップと、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。 In the three-dimensional model creation method, calculating the depth information of the subject, generating an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the image Generating the side data (7a) based on the pixel of the contour portion of the subject of the data (1a) and the pixel of the contour portion of the subject of the ortho image, and generated based on the depth information Generating reference image data based on the three-dimensional polygon data (6a) of the subject; identifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data; A step of generating a label image (9a) by adding individual label values to the pixels, the side data (7a) and the label Generating the side information (11a) used for generating the texture based on the image (9a), generating the texture based on the side information (11a), and converting the texture into the three-dimensional polygon A three-dimensional stereoscopic image is generated by a three-dimensional model creation method including the step of attaching to the side of the data (6a).
その3次元モデル作成方法において、前記被写体の奥行き情報を算出するステップと、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成するステップと、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成するステップと、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成するステップと、前記ラベル画像(9a)に基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成するステップと、前記壁面テクスチャ生成部(12)は、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。 In the three-dimensional model creation method, calculating the depth information of the subject, generating an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the image Generating the side data (7a) based on the pixel of the contour portion of the subject of the data (1a) and the pixel of the contour portion of the subject of the ortho image, and generated based on the depth information Generating reference image data based on the three-dimensional polygon data (6a) of the subject; identifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data; Generating a label image (9a) by adding individual label values to the pixels, and based on the label image (9a) The step of generating side surface information (11a) used for generating the texture, and the wall surface texture generation unit (12) generate the texture based on the side surface information (11a), and the texture is the three-dimensional A three-dimensional stereoscopic image is generated by a three-dimensional model creation method including the step of attaching to the side of the polygon data (6a).
その3次元モデル作成方法において、予め格納された複数の側面画像データ(13a)から、前記側面情報(11a)に最も類似するデータを最類似データとして選択するステップと、前記最類似データに基づいて生成するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。 In the three-dimensional model creation method, a step of selecting data most similar to the side information (11a) as the most similar data from a plurality of side image data (13a) stored in advance, and based on the most similar data A three-dimensional stereoscopic image is generated by a three-dimensional model creation method including a generating step.
その3次元モデル作成方法において、隣接する画像データ(1a)の各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出するステップと、前記第1画像に対応する第1側面データ(7a)と、前記第2画像に対応する第2側面データ(7a)を生成するステップと、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、前記第1側面データ(7a)と前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データ(7a)と前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。 In the three-dimensional model creation method, each of adjacent image data (1a) is specified as a first image and a second image, and the depth information is obtained by performing stereo matching processing on the first image and the second image. A first side data (7a) corresponding to the first image, a second side data (7a) corresponding to the second image, and a first side corresponding to the first image. Based on the step of generating one label image and a second label image corresponding to the second image, the first side data (7a) and the first label image, first side information is created, Based on the second side data (7a) and the second label image, second side information is created, and the first side information is compared with the second side information to create the side information. Tertiary with steps The modeling method, for generating a 3D stereoscopic image.
その3次元モデル作成装置、プログラムおよび3次元モデル作成方法において、前記連続撮影された複数の画像は、空を飛ぶ飛翔体、特に固定翼または回転翼を備えた航空機に搭載された撮像装置で撮影されたものを使用する。また、前記被写体は、その撮像器で撮影された地上の構造体であり、前記奥行き情報は、その構造体の高さを示す情報である。さらに、前記側面データ(7a)は、前記構造体の壁面の状態、特に色や質感などを示すデータである3次元モデル作成装置、プログラムおよび3次元モデル作成方法によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。 In the three-dimensional model creation device, the program, and the three-dimensional model creation method, the plurality of continuously photographed images are photographed by an imaging device mounted on a flying object flying in the sky, in particular, an aircraft having fixed wings or rotary wings. Use what was done. The subject is a structure on the ground photographed by the imager, and the depth information is information indicating the height of the structure. Further, the side surface data (7a) generates a three-dimensional stereoscopic image by a three-dimensional model creation device, a program, and a three-dimensional model creation method, which are data indicating the state of the wall surface of the structure, particularly color and texture. The three-dimensional stereoscopic image is used for a car navigation screen or the like.
その3次元モデル作成装置、プログラムおよび3次元モデル作成方法において、前記被写体の奥行き方向を構成する面は、前記画像を撮影する光軸方向に平行な面である3次元モデル作成装置、プログラムおよび3次元モデル作成方法によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。 In the three-dimensional model creation device, program, and three-dimensional model creation method, the surface constituting the depth direction of the subject is a surface parallel to the optical axis direction for capturing the image, the program, and 3 A three-dimensional stereoscopic image is generated by a three-dimensional model creation method, and the three-dimensional stereoscopic image is used for a car navigation screen or the like.
本発明によると、壁面画像の撮影や切り出しの作業を必要とすることなく、航空写真のみから建物壁面の情報を反映した都市モデルを自動的に生成することができる。 According to the present invention, it is possible to automatically generate a city model reflecting information on a building wall surface from only an aerial photograph, without requiring a wall surface image capturing or clipping operation.
次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。
[第1の実施の形態の構成]
本発明は、2次元画像として、都市を上空から撮影した航空写真を用いた例で説明する。
図2を参照すると、本発明の第1の実施の形態は、航空写真データ格納部1と、ステレオ処理部2と、オルソ化処理部31と、ポリゴン作成部4と、地図データ格納部5と、3次元ポリゴンデータ格納部6と、壁面候補画像格納部7と、ラベル画像生成部8と、ラベル画像格納部9と、壁面領域情報抽出部10と、建物壁面属性格納部11と、壁面テクスチャ生成部12とから構成されている。
Next, the best mode for carrying out the invention will be described in detail with reference to the drawings.
[Configuration of First Embodiment]
The present invention will be described using an example in which an aerial photograph of a city taken from above is used as a two-dimensional image.
Referring to FIG. 2, the first embodiment of the present invention includes an aerial photograph
航空写真データ格納部1は、情報記憶機能ブロックである。オーバラップを設けて連続撮影された複数の航空写真を格納する。格納される航空写真は、各々が画像データ化された航空写真データ1aとして格納される。以下の説明では航空写真データ格納部1に格納される航空写真データ1aは航空機に搭載された撮影装置によって撮影された航空写真から生成された画像データである場合を例に述べるが、これは本発明の写真を撮影する撮影装置、およびそれを搭載する物体を特定するものではない。
The aerial photograph
ステレオ処理部2は、航空写真データ格納部1に格納された航空写真データ1aを読み込み、重複領域のステレオマッチングを行って画素単位のDEM(Digital Elevation Model:高さ情報画像)を生成する情報処理機能ブロックである。ステレオマッチング処理とは、異なる視点から撮影した2枚の画像について、同一の画像を撮像している各画像中の対応点を求め、その視差を用いて三角測量の原理によって、対象までの奥行きや形状を求める処理である。使用されるステレオマッチング処理を行うための手法には、一般的な特徴量を求めて対応付けるものや、左右画像の相関を求めるものなど、様々なものが存在するが、本実施の形態におけるステレオマッチング処理に使用される手法に制限は無い。
The
オルソ化処理部31は、そのステレオ処理部2により生成されたDEMを元に、航空写真データに対してオルソ化処理を実行する情報処理機能ブロックである。ステレオ処理部2により算出されたDEMは、元の航空写真データと共にオルソ化処理部31に与えられる。オルソ化処理部31は、DEMにより各画素の3次元位置が求められるので、これを地面に対して正射影となるよう画素単位に再配置する変換を実行して、DEMおよび航空写真の双方について、航空写真データを画像中の全ての点で鉛直上方から見たように再投影した新たな画像データを生成する。以下、この変換をオルソ化と呼び、オルソ化処理後のDEMをオルソ化DEM、オルソ化処理後の航空写真データをオルソ画像と呼ぶ。
The
また、オルソ化処理部31は、そのオルソ画像を生成すると共に、オルソ画像において利用されなかった元画像中の領域を壁面候補領域として示す壁面候補データ7aを生成する。ここでいう壁面候補領域とは、オルソ化を行う際に求めた元画像とオルソ画像間との対応関係において、重複するため利用されない元画像の領域のことである。
In addition, the
壁面候補画像格納部7は、そのオルソ化処理部31により作成された壁面候補データ7aを記憶する情報記憶機能ブロックである。地図データ格納部5は地図データ5aを格納する情報記憶機能ブロックである。ポリゴン作成部4は、そのステレオ処理部2により作成されたDEMと、建物の形状を平面ポリゴンで表している地図データ5aとを重ね合わせ、各建物領域内部のDEMデータの高さを統計処理してポリゴンの高さとすることにより、建物の3次元ポリゴンデータ6aを生成する。3次元ポリゴンデータ格納部6は3次元ポリゴンデータ6aを格納する情報記憶機能ブロックである。
The wall surface candidate
ラベル画像生成部8は、3次元ポリゴンデータ6aに対応するラベル画像データ9aを作成する情報処理機能ブロックである。ラベル画像生成部8は、ポリゴン作成部4により作成された建物の3次元ポリゴンデータ6aと、図示しない地形情報を用いて、航空写真に合致する視点で都市モデル画像を描画し、各建物ポリゴンモデルの壁面領域に個別のラベルを記入したラベル画像データ9aを作成し、ラベル画像格納部9に出力する。ラベル画像格納部9はラベル画像生成部8から出力されたラベル画像データ9aを格納する情報記憶機能ブロックである。
The label
壁面領域情報抽出部10は、その壁面候補画像格納部7に記憶された壁面候補データ7aと、そのラベル画像生成部8により作成されたラベル画像データ9aを重畳して、建物毎の壁面領域を確定し、各建物壁面のテクスチャ画像、または代表色などの壁面属性を抽出する情報処理機能ブロックである。壁面領域情報抽出部10はその抽出した壁面属性を壁面属性データ11aとして建物壁面属性格納部11に出力する。ここでいう属性とは、テクスチャ画像、あるいは領域代表色のことである。建物壁面属性格納部11は、その壁面領域情報抽出部10により得られる各建物の代表色、またはテクスチャ画像などの壁面属性である壁面属性データ11aを記憶する情報記憶機能ブロックである。
The wall surface area
壁面テクスチャ生成部12は、建物壁面属性格納部11に含まれる建物壁面属性情報を参照して、そのポリゴン作成部4により作成された3次元ポリゴンデータ6aを加工する情報処理機能ブロックである。具体的には、対応する建物のモデルに対して壁面テクスチャを添付する、あるいは着色するなどの操作を行う。
The wall surface
[第1の実施の形態の動作]
次に、図3のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
ステップS101において、航空写真データ格納部1に格納される複数の航空写真データ1aから、オーバーラップを設けて撮影された対応する2つの航空写真データ1aがステレオ処理部2に与えられる。ステレオ処理部2は、取得した対応点を元に、撮影位置・方向などの幾何を算出する標定計算を経て、2枚の画像中のすべての対応点が同一走査線上に来るよう変換(平行化)され、DPマッチングにより対応計算を行い、画素単位のDEMを算出する。
[Operation of First Embodiment]
Next, the overall operation of the present embodiment will be described in detail with reference to the flowchart of FIG.
In step S101, two corresponding
ステップS102において、ステレオ処理部2により算出されたDEMは、元の航空写真データ1aと共にオルソ化処理部31に与えられる。DEMにより各画素の3次元位置が求められるので、これを地面に対して正射影となるよう画素単位に再配置する変換を、DEMおよび航空写真の双方について行う。このオルソ化処理と併せて、オルソ画像において利用されなかった元画像中の領域を壁面候補領域として抽出し、これを示す画像として壁面候補データ7aを生成する壁面候補画像作成処理を行う(ステップS103)。
In step S102, the DEM calculated by the
DEMが正しく得られている状況でオルソ化を行うと、地面に鉛直な側面を持つ建物については、屋上面が底面と重なる位置に移動し、側面が画像中では見えなくなるように変換される。側面を構成する画素は、建物屋上面の辺上に集中して移動するため、オルソ画像中においては不要なものとなる。このような画素に有意な画素値として例えば1を与え、他の画素に異なる画素値として例えば0を与えて作成した2値画像を生成し、これを壁面候補データ7aとする。生成された壁面候補データ7aは、壁面候補画像格納部7に記憶される。
When orthorectification is performed in a state where the DEM is correctly obtained, a building having a side surface perpendicular to the ground is converted so that the roof surface moves to a position where it overlaps the bottom surface, and the side surface becomes invisible in the image. Since the pixels constituting the side surface move in a concentrated manner on the side of the upper surface of the building, they are unnecessary in the ortho image. For example, a binary image created by giving 1 as a significant pixel value to such a pixel and giving 0 as a different pixel value to another pixel is generated, and this is used as wall
ステップS104において、そのステレオ処理部2により作成されたDEMと、建物の形状を平面ポリゴンで表している地図データ5aを用いて、建物の3次元ポリゴンデータ6aを生成する処理が行われる。具体的には、DEM上に各建物形状を示す平面ポリゴンを重畳し、各建物領域内部のDEMデータから最頻値をとるなどの統計処理を行って各建物の高さとする。この高さを反映させ、平面形状は地図のポリゴンを流用することにより、多角柱として各建物の3次元ポリゴンを生成する。
In step S104, processing for generating three-
ステップS105において、生成された3次元の建物ポリゴンと、別途用意した周辺地域の地形を示す地形ポリゴンを用いて、航空写真の撮影視点と同視点で各ポリゴンを描画した画像を生成し、各建物ポリゴンの壁面が描画される位置の画素について、個別のラベル値を書き込んだ画像を生成するラベル画像生成処理を行う。この際に用いる地形モデルデータは、建物周辺の形状を示す3次元ポリゴンであり、たとえば国土地理院発行の数値地図50mメッシュ標高などをもとにポリゴン化したものや、レーザプロファイラによる計測データから作成されたものなどを用いることができる。また、航空写真の撮影視点位置情報は、ステレオ処理時に行われる標定処理により決定された値を用いる。 In step S105, using the generated three-dimensional building polygon and a separately prepared terrain polygon indicating the terrain of the surrounding area, an image in which each polygon is drawn from the same viewpoint as the aerial photograph shooting viewpoint is generated. A label image generation process for generating an image in which individual label values are written is performed on the pixel at the position where the polygonal wall surface is drawn. The topographic model data used at this time is a three-dimensional polygon that shows the shape of the surrounding area of the building. For example, the topographic model data is created from polygons based on a 50m mesh elevation published by the Geospatial Information Authority of Japan, or from measurement data obtained by a laser profiler Can be used. In addition, the aerial photography viewpoint position information uses a value determined by the orientation process performed during the stereo process.
ステップS106において、ステップS103で作成された壁面候補データ7aと、ステップS105で作成されたラベル画像データ9aを重ね合わせて、各建物の壁面画素領域を決定し、属性情報を抽出する壁面領域情報抽出処理が行われる。具体的には、ラベル画像中で各建物に対応するラベルを持ち、かつ壁面候補データ7a中で有意な値を持つ領域を、その建物の壁面画素領域として確定し、その領域からテクスチャ生成に有用な属性を取得する。ここでいう属性とは、テクスチャ画像、あるいは領域代表色のことをさし、領域の面積や色分布に応じていずれかあるいは複数の属性を取得して建物壁面属性格納部11に記憶する。
In step S106, the wall
ステップS107において、ステップS106で作成され、建物壁面属性格納部11に記憶された壁面属性情報を用いて、3次元ポリゴンデータ6a中の対応する建物ポリゴンデータの加工を行い、実景観に近いポリゴンとする壁面テクスチャ生成処理が行われる。具体的な加工方法は、得られている壁面属性データに応じて選択される。たとえばテクスチャが得られている建物については、航空写真に映らない方向の壁面を含め、テクスチャをポリゴンにそのまま添付する。また属性として代表色のみが得られている建物は、直接建物ポリゴンのマテリアルデータを代表色に応じ変更してポリゴンそのものを着色するか、事前に用意した既定の建物壁面画像を代表色で着色したテクスチャを上記と同様に添付してポリゴンを加工する。
In step S107, the corresponding building polygon data in the three-
これにより、航空写真からステレオ処理して得られる画素単位の密なDEMを用いてオルソ化する際に利用されない画素領域と、DEMおよび地図データにより生成した3次元都市モデルを用いて航空写真と同視点のラベル画像により、各建物の壁面領域を特定し、その領域から抽出した壁面属性を用いて建物の3次元ポリゴンデータの壁面を加工するように構成されているため、航空写真中の壁面画像の属性を生かした壁面テクスチャあるいは色を持つ建物の3次元ポリゴンデータを自動的に得ることができ、実景観に近い都市モデルを生成できる。 As a result, a pixel area that is not used for ortho-rectification using a dense DEM in pixel units obtained by stereo processing from an aerial photograph, and a three-dimensional city model generated from the DEM and map data, are the same as the aerial photograph. Because it is configured to specify the wall area of each building from the viewpoint label image and to process the wall surface of the 3D polygon data of the building using the wall attribute extracted from that area, the wall image in the aerial photograph It is possible to automatically obtain 3D polygon data of a building having a wall texture or color that makes use of the above-mentioned attributes, and a city model close to a real landscape can be generated.
以下に、具体的な例を用いて上記の動作を詳細に説明する。図4は、本実施の形態に用いられる航空写真の撮影方法を示す模式図である。図4を参照すると、対象とする都市領域上空から、航空測量に用いる場合と同様の航空写真を撮影する。この際には図4に示されるように、一定高度を保ち、針路、速力一定で飛行しながら連続して撮影を行い、対象領域を含む撮像範囲が全体の60%程度重複した航空写真対を得る。これらが銀塩写真として得られる場合には、同一の解像度でスキャンし画像データとする。 Hereinafter, the above operation will be described in detail using a specific example. FIG. 4 is a schematic diagram showing an aerial photography method used in the present embodiment. Referring to FIG. 4, an aerial photograph similar to that used for aerial survey is taken from above the target urban area. At this time, as shown in FIG. 4, a series of aerial photographs in which the imaging range including the target area is overlapped by about 60% are taken continuously while keeping a constant altitude and flying at a constant course and speed. obtain. When these are obtained as silver salt photographs, they are scanned at the same resolution to obtain image data.
得られた航空写真画像対に対して、航空写真の撮影角度を決定する標定処理に必要な対応点の座標を取得する。具体的には、左右の画像における重複領域において、同一の物体が存在する点の組を6組選択してそれぞれの画像における座標値を取得する。これらの座標対はたとえば重複領域の4隅や端など、できるだけ分散して取得するのが望ましい。また、これらの点のうち4組については、たとえば東京測地系で経緯度座標を表示できる地図ソフトウェアを用いるなどして、対応する地点における経緯度値を取得し記憶する。 For the obtained aerial photograph image pair, the coordinates of corresponding points necessary for the orientation processing for determining the shooting angle of the aerial photograph are acquired. Specifically, in the overlapping areas in the left and right images, six sets of points where the same object exists are selected, and coordinate values in the respective images are acquired. It is desirable to obtain these coordinate pairs as dispersedly as possible, for example, at the four corners and edges of the overlapping area. For these four points, the latitude and longitude values at the corresponding points are acquired and stored using, for example, map software capable of displaying longitude and latitude coordinates in the Tokyo geodetic system.
これらの標定点情報を元に、航空測量と同様の標定計算を行うことにより、標定情報、すなわち航空写真対の撮影視点位置、および撮影視点間のベクトルや、地上座標系に対する撮影軸の方向などの幾何的な数値を求めることが可能である。この標定計算方法については特に制限はない。 By using the orientation calculation similar to the aerial survey based on these orientation point information, orientation information, that is, the shooting viewpoint position of the aerial photograph pair, the vector between the shooting viewpoints, the direction of the shooting axis with respect to the ground coordinate system, etc. Can be obtained. There are no particular restrictions on this orientation calculation method.
得られた撮影位置関係を用いて、航空写真対を任意の対応点対が同一走査線上に位置するよう変換する。この操作は平行化と呼ばれ、視点間のベクトルに平行な共有面を考えて、その面に元の航空写真対を射影変換するなどして適用される。平行化の方法はこれに限定されるものではなく、たとえば画像中の各点についてエピポーラ線を求め、これを画素単位で平行になるよう再配置を行っても良い。 Using the obtained photographing position relationship, the aerial photograph pair is converted so that an arbitrary pair of corresponding points is located on the same scanning line. This operation is called parallelization, and is applied by considering the common plane parallel to the vector between the viewpoints and projecting the original aerial photograph pair to that plane. The method of parallelization is not limited to this, and for example, epipolar lines may be obtained for each point in the image, and rearrangement may be performed so that these are parallel in pixel units.
平行化された画像対は、対応探索を同一走査線上の1次元に限定することができるので、走査線単位のステレオマッチングを適用できる。マッチングの際に用いる手法についても制限はないが、たとえばDP(Dynamic Programming:動的計画法)を用いれば、左右の画像の走査線毎に画素単位の対応を画像対の間で求めることができる。このDPマッチングにより画素単位で定められた視差を用いて、3次元空間内における各点の位置を算出し、地表面に平行な画像として再配置して画素単位のDEM(Digital Elevation Model)を生成する。 Since the parallel image pair can limit the correspondence search to one dimension on the same scanning line, stereo matching in units of scanning lines can be applied. Although there is no restriction on the method used for matching, for example, if DP (Dynamic Programming) is used, a pixel unit correspondence can be obtained between image pairs for each scanning line of the left and right images. . The position of each point in the three-dimensional space is calculated using the parallax determined for each pixel by this DP matching, and rearranged as an image parallel to the ground surface to generate a DEM (Digital Elevation Model) for each pixel To do.
この画素単位のDEMにより、元の航空写真における各画素の3次元位置を得ることができるので、各画素を地面に対して正射影になるよう再配置を行うことができる。この変換はオルソ化と呼ばれる操作であり、オルソ化処理後の航空写真はオルソ画像と呼ぶ。
航空写真は単一の視点から撮影された中心投影の画像であるため、撮影された建物はカメラ中心から遠ざかるように倒れこんで撮影されており、地図との重ね合わせなどの応用ができない。上記のようなオルソ化処理を画素単位で行うことで、地図と重畳することのできる画像が生成でき、地面や建物屋上のテクスチャを得るなどのコンピュータグラフィックス用途にも利用可能である。
Since this pixel-based DEM can obtain the three-dimensional position of each pixel in the original aerial photograph, it can be rearranged so that each pixel is orthogonally projected with respect to the ground. This conversion is an operation called orthorectification, and the aerial photograph after orthorectification processing is called an ortho image.
Since an aerial photograph is an image of a central projection taken from a single viewpoint, the photographed building is taken down so as to move away from the center of the camera, and application such as overlaying with a map is not possible. By performing the above-mentioned orthorectification processing in units of pixels, an image that can be superimposed on a map can be generated, and the present invention can be used for computer graphics applications such as obtaining textures on the ground or a building roof.
DEMが正しく得られている状況で、画素単位のオルソ化処理を行う際に、元画像中で地面に鉛直な建物壁面が撮像されている画素は、図5に示すように、建物の輪郭部に重複して写像されるため、ほとんどの画素はオルソ画像で使用されないこととなる。こうしたオルソ化の際に重複のため写像されない画素を壁面候補とみなし、オルソ化時に検出して、壁面候補画素に有意な画素値としてたとえば1を、それ以外の画素にたとえば0を与えるなどして2値画像を作成し記憶する。この元画像に準拠して作成される2値画像を、壁面候補データ7aと呼ぶ。
In the situation where the DEM is correctly obtained, when performing the orthorectification processing in units of pixels, the pixels in which the building wall surface vertical to the ground is imaged in the original image are as shown in FIG. Therefore, most of the pixels are not used in the ortho image. Pixels that are not mapped due to duplication during such ortho-conversion are regarded as wall surface candidates, detected during ortho-rectification, and for example, 1 is assigned as a significant pixel value to the wall surface candidate pixels, and 0 is assigned to other pixels, for example. Create and store a binary image. A binary image created based on this original image is referred to as wall
また、画素単位で得られたDEMそのものも、地上面に対して正射影に配置されており、地図データとの重ねあわせることができる。このため、建物の形状を平面ポリゴンデータとして持つベクトル地図データと重畳し、各領域内部のDEM値を用いてそれぞれの建物の高さを得ることが可能である。具体的には、DEM上に各建物形状を示す平面ポリゴンを重畳し、各建物領域内部のDEMデータについて、たとえば最頻値を求めるなどの統計処理を行い、各建物の高さとする。この高さを地図データの平面形状を底面とする多角柱の高さとして、各建物の3次元ポリゴンを生成することができる。 Also, the DEM itself obtained in pixel units is arranged in an orthogonal projection with respect to the ground surface, and can be overlaid with the map data. For this reason, it is possible to superimpose the shape of the building on the vector map data having planar polygon data, and obtain the height of each building using the DEM value inside each area. Specifically, a plane polygon indicating each building shape is superimposed on the DEM, and statistical processing such as obtaining a mode value is performed on the DEM data inside each building area, for example, to obtain the height of each building. By using this height as the height of a polygonal column having the planar shape of the map data as the bottom surface, a three-dimensional polygon of each building can be generated.
この各建物のポリゴンと併せて、周辺地域の地形を示すポリゴンデータを用いることで、都市を3次元ポリゴンで表現したモデルを生成できる。この際に用いる地形モデルデータは、建物周辺の形状を示す3次元ポリゴンであり、たとえば国土地理院発行の数値地図50mメッシュ標高などの地形を表す数値データを元に、座標の得られている点を順次接続して3角形パッチをつくり、地形ポリゴン化したものを用いることができる。上記のDEMと地図データから、都市モデルデータを作成するまでの処理の模式図を図6に示す。
これらの都市モデルデータを元に、航空写真の撮影視点と同視点で各ポリゴンを描画した画像を生成し、各建物ポリゴンの壁面が描画される位置の画素について、建物毎に異なる個別のラベル値を書き込んだ画像を生成する。これをラベル画像と呼ぶ。このときの航空写真の撮影視点位置情報は、ステレオ処理時に行われる標定処理により決定された値を用いる。
By using polygon data indicating the topography of the surrounding area together with the polygons of each building, a model expressing a city with a three-dimensional polygon can be generated. The terrain model data used in this case is a three-dimensional polygon indicating the shape of the surrounding area of the building. For example, the coordinates are obtained based on numerical data representing the terrain such as a numerical map 50 m mesh elevation published by the Geospatial Information Authority of Japan. Can be connected in order to create a triangular patch and convert it into a terrain polygon. FIG. 6 shows a schematic diagram of processing from the above DEM and map data to creation of city model data.
Based on these city model data, an image in which each polygon is drawn from the same viewpoint as the aerial photography viewpoint is generated, and the individual label values that differ for each building for the pixel at the position where the wall of each building polygon is drawn The image which wrote is generated. This is called a label image. As the aerial photograph photographing viewpoint position information at this time, a value determined by the orientation process performed during the stereo process is used.
このラベル画像と、既に作成済みの壁面候補データ7aを、図7に示すように重畳し、ラベル画像中で個別の建物に対応付けられた画素を持ち、かつ壁面候補データ7aで有意な値を持つ画素が存在する領域を、各建物の壁面画素領域として確定する。その領域に対応する元の航空写真の画素について解析を行い、テクスチャ画像や領域代表色などのテクスチャ生成に有用な属性を取得する。解析手段やその選択規則について制限はないが、たとえば所定の画素数以上の壁面画素領域が得られた場合には、壁面領域全体を矩形に変換して適宜補間しテクスチャ画像とし、壁面画素領域が所定の画素数を超えない場合には、領域内画素の画素値分布を調べて平均値を算出し領域代表色とするという構成とすることができる。また、複数の解析手段により複数の画素属性を取得してもよい。こうした方法で得られた各建物の壁面領域情報は、それぞれの建物と対応付けられる形で建物壁面属性格納部11に記憶される。
As shown in FIG. 7, this label image and the already created wall
最後に、上記の方法で得られた壁面属性情報に従って、作成した建物ポリゴンを加工し、実景観に近いデータとする処理が行われる。具体的な加工方法については、得られている壁面属性データに依存して選択されるが、たとえばテクスチャ画像が得られている建物の場合には、航空写真に映らない方向の壁面を含めて、テクスチャを当該ポリゴンの壁面にそのまま添付する。またテクスチャ画像が得られておらず、代表色のみが得られている建物に対しては、直接建物ポリゴンの材質を示すマテリアルデータを代表色に応じ変更してポリゴンそのものを着色するか、あるいは事前に用意した既定の建物壁面画像を代表色で着色してテクスチャ画像を作成し、建物壁面に添付するなどの方法でポリゴンデータを加工する。これによって航空写真のみから建物壁面の情報を反映した都市モデルを自動的に生成することができる。
Finally, according to the wall surface attribute information obtained by the above method, the created building polygon is processed to obtain data close to the actual landscape. The specific processing method is selected depending on the acquired wall surface attribute data. For example, in the case of a building where a texture image is obtained, including the wall surface in the direction that does not appear in the aerial photograph, Attach the texture to the polygon wall as it is. For buildings where texture images are not obtained and only representative colors are obtained, the material data indicating the material of the building polygons is directly changed according to the representative color and the polygons themselves are colored, or in advance Polygon data is processed by a method of creating a texture image by coloring the default building wall image prepared in
[第2の実施の形態の構成]
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。図8は本発明の第2の実施の形態の構成を示すブロック図である。図8を参照すると、第2の実施の形態の構成は、第1の実施の形態と同様の構成に、標準壁面画像格納部13を追加した構成である。標準壁面画像格納部13は、高層ビル、オフィスビル、マンション、個別の住宅などに対応する複数の種類の標準壁面テクスチャ画像を、各々の標準壁面テクスチャ画像に対応するIDと共に、あらかじめ記憶しておく情報記憶機能ブロックである。
[Configuration of Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 8 is a block diagram showing the configuration of the second exemplary embodiment of the present invention. Referring to FIG. 8, the configuration of the second embodiment is a configuration in which a standard wall surface image storage unit 13 is added to the same configuration as that of the first embodiment. The standard wall surface image storage unit 13 stores in advance a plurality of types of standard wall surface texture images corresponding to high-rise buildings, office buildings, condominiums, individual houses, and the like together with IDs corresponding to the respective standard wall surface texture images. It is an information storage function block.
壁面領域情報抽出部14は、第1の実施の形態の場合と同様に、壁面候補画像格納部7に記憶された壁面候補データ7aと、ラベル画像データ9aとを重畳して、建物毎の壁面領域を確定し、各領域の代表色を決定すると共に、各壁面領域と、その標準壁面画像格納部13に記憶された標準壁面テクスチャ画像とを比較し、各壁面領域にもっとも類似する標準壁面テクスチャ画像を決定する。決定したテクスチャ画像のIDは、各領域の代表色と併せて、それぞれの建物の属性として建物壁面属性格納部11に記憶する。建物壁面属性格納部11は、その壁面領域情報抽出部14により得られた各建物の属性情報、すなわち代表色と、最も類似する標準壁面テクスチャ画像のIDを記憶する。
Similar to the case of the first embodiment, the wall surface area
壁面テクスチャ生成部12は、その壁面領域情報抽出部10により決定された標準壁面テクスチャ画像のIDから、標準壁面テクスチャ画像を、同じく壁面領域情報抽出部14により決定された各領域の代表色により着色して、3次元ポリゴンデータ6aにおける当該建物の3次元ポリゴン壁面に添付する。その他の本発明の第2の発明を実施するための最良の形態における各機能ブロックは、第1の実施の形態において対応する各機能ブロックと同様の動作をする。
The wall surface
[第2の実施の形態の動作]
次に、図9のフローチャートを参照して第2の実施の形態の動作について詳細に説明する。
ステップS201からステップS205までの処理は、第1の実施の形態におけるステップS101からステップS105と同様であるため説明を省略する。
[Operation of Second Embodiment]
Next, the operation of the second embodiment will be described in detail with reference to the flowchart of FIG.
Since the processing from step S201 to step S205 is the same as that from step S101 to step S105 in the first embodiment, a description thereof will be omitted.
ステップS205に引き続き、壁面候補データ7aと、ラベル画像データ9aを重ね合わせて、各建物の壁面画素領域を決定し、属性情報を抽出する壁面領域情報抽出処理が行われる(ステップS206)。ステップS206において、壁面領域情報抽出部14は、全ての建物について領域代表色の属性を必ず抽出する処理を行う。抽出された代表色属性は、建物壁面属性格納部11に記憶される。
Subsequent to step S205, the wall
ステップS207において、そのステップS206で対応付けられた各建物の壁面画素領域と、標準壁面画像格納部13にあらかじめ記憶された標準壁面テクスチャ画像群との比較を行い、当該壁面領域に最も類似すると思われる標準壁面テクスチャ画像を決定する標準壁面画像比較処理が行われる。標準壁面画像格納部13に含まれる標準壁面テクスチャ画像は、高層ビル、数階程度のオフィスビル、マンション、個別の住宅などの種別毎に1つないし複数の画像が存在し、それぞれに一意のIDと対応付けられてあらかじめ記憶されている。これらの各画像と、矩形に変換した壁面画素領域を、テクスチャ解析を行って比較し、もっとも類似すると思われる標準壁面テクスチャ画像のIDを、当該建物に対応するものとして建物壁面属性格納部11に記憶する。この際に用いるテクスチャ解析手法には特に制限はなく、たとえば濃淡ヒストグラムから求められる平均や分散などの統計量がもっとも近い標準壁面テクスチャ画像を選択するなどの手法を用いて良い。
In step S207, the wall surface pixel region of each building associated in step S206 is compared with the standard wall surface texture image group stored in advance in the standard wall surface image storage unit 13, and is considered to be most similar to the wall surface region. A standard wall surface image comparison process for determining a standard wall surface texture image to be performed is performed. The standard wall surface texture image included in the standard wall surface image storage unit 13 has one or more images for each type such as a high-rise building, an office building of several floors, a condominium, and an individual house, and each has a unique ID. And stored in advance. Each of these images and the wall surface pixel region converted into a rectangle are compared by performing texture analysis, and the ID of the standard wall surface texture image that seems to be the most similar is stored in the building wall surface
ステップS208において、ステップS206およびステップS207で作成され、建物壁面属性格納部11に記憶された壁面属性情報を用いて、3次元ポリゴンデータ6a中の対応する建物ポリゴンデータの加工を行い、実景観に近いポリゴンとする壁面テクスチャ生成処理が行われる。具体的には、各領域に最も近い標準壁面テクスチャ画像における代表色に近い値を持つ画素を、壁面属性における代表色に置換したテクスチャ画像を生成し、当該建物の3次元ポリゴンに、航空写真に映らない方向の壁面を含めて添付する。
In step S208, the corresponding building polygon data in the three-
これによって、あらかじめ容易した標準壁面画像を、航空画像の壁面領域から得られる代表色属性により着色して、建物ポリゴンに壁面テクスチャとして添付するよう構成されているため、壁面領域がテクスチャの生成に十分な解像度を持たない場合でも、各建物ポリゴンに違和感を与えない十分な解像度のテクスチャを実景観に応じて添付することができ、より自然な都市景観モデルを作成できる。 As a result, the standard wall image facilitated in advance is colored with the representative color attribute obtained from the wall area of the aerial image and attached to the building polygon as a wall texture, so the wall area is sufficient for texture generation. Even if it does not have a good resolution, it is possible to attach a texture of sufficient resolution that does not give a sense of incongruity to each building polygon according to the actual landscape, and a more natural cityscape model can be created.
[第3の実施の形態の構成]
次に、本発明の第3の実施の形態について図面を参照して詳細に説明する。図10は本発明の第3の実施の形態の構成を示すブロック図である。図10を参照すると、本発明の第3の実施の形態は、本発明の第1の発明を実施するための形態とほぼ同様の構成であるが、一部の構成要素が第1の実施の形態と異なる動作をする。
[Configuration of Third Embodiment]
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. FIG. 10 is a block diagram showing the configuration of the third exemplary embodiment of the present invention. Referring to FIG. 10, the third embodiment of the present invention has substantially the same configuration as the mode for carrying out the first invention of the present invention, but some components are the same as those of the first embodiment. It operates differently from the form.
オルソ化処理部32は、そのステレオ処理部2により生成されたDEMを元に、航空写真データに対してオルソ化処理を実行する情報処理機能ブロックである。ステレオ処理部2により算出されたDEMは、元の航空写真データと共にオルソ化処理部32に与えられる。オルソ化処理部32は、DEMにより各画素の3次元位置が求められるので、これを地面に対して正射影となるよう画素単位に再配置する変換を実行して、DEMおよび航空写真の双方について、航空写真データを画像中の全ての点で鉛直上方から見たように再投影した新たな画像データを生成する。以下、この変換をオルソ化と呼び、オルソ化処理後のDEMをオルソ化DEM、オルソ化処理後の航空写真データをオルソ画像と呼ぶ。
The
また、オルソ化処理部32は、そのオルソ画像を生成すると共に、オルソ画像において利用されなかった元画像中の領域を壁面候補領域として示す壁面候補データ7aをステレオ処理された左右の元画像それぞれについて生成する。ここでいう壁面候補領域とは、オルソ化を行う際に求めた元画像とオルソ画像間の対応関係を元に、重複するため利用されない元画像の領域のことである。
Further, the
ラベル画像生成部33は、3次元ポリゴンデータ6aに対応するラベル画像データ9aを作成する情報処理機能ブロックである。ラベル画像生成部33は、ポリゴン作成部4により作成された建物の3次元ポリゴンデータ6aと、図示しない地形情報を用いて、航空写真に合致する視点で都市モデル画像を描画し、各建物ポリゴンモデルの壁面領域に個別のラベルを記入したラベル画像データ9aを、左右の航空写真それぞれについて作成する。
The label
壁面領域情報抽出部34は、壁面候補画像格納部7に記憶された壁面候補データ7aと、そのラベル画像生成部33により作成されたラベル画像データ9aを重畳して、左右の画像それぞれにおける建物毎の壁面領域を確定し、さらに左右の壁面領域を比較し、より壁面属性情報を含む領域を選択して、各建物壁面のテクスチャ画像、または代表色などの壁面属性を抽出して建物壁面属性格納部11に記憶する。その他の本発明の実施の形態における各機能ブロックは、第1の実施の形態において対応する各機能ブロックと同様の動作をする。
The wall surface area
[第3の実施の形態の動作]
次に、図11のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
ステップS301およびステップS302の処理は、第1の実施の形態におけるステップS101およびステップS102と同様であるため詳細な説明は省略する。
[Operation of Third Embodiment]
Next, the overall operation of the present embodiment will be described in detail with reference to the flowchart of FIG.
Since the processing of step S301 and step S302 is the same as that of step S101 and step S102 in the first embodiment, detailed description thereof is omitted.
ステップS302のオルソ化処理と併せて、オルソ画像において利用されなかった元画像中の領域を壁面候補領域として抽出し、これを示す画像として壁面候補データ7aを生成する壁面候補画像作成処理を、ステレオ処理された左右の元画像それぞれに行う(ステップS303)。この処理により、左画像の壁面候補データ7aと、右画像の壁面候補データ7aがそれぞれ作成される。これらの壁面候補データ7aは全て壁面候補画像格納部7に記憶される。
Along with the orthorectification process in step S302, a wall surface candidate image creation process for extracting the area in the original image that has not been used in the ortho image as a wall surface candidate area and generating the wall
ステップS304におけるポリゴン作成処理は、第1の実施の形態におけるステップS104と同様に、ステレオ処理部2により作成されたDEMと、建物の形状を平面ポリゴンで表している地図データ5aを用いて、建物の3次元ポリゴンデータ6aを生成する処理が行われる。具体的には、DEM上に各建物形状を示す平面ポリゴンを重畳し、各建物領域内部のDEMデータから最頻値をとるなどの統計処理を行って各建物の高さとする。この高さを反映させ、平面形状は地図のポリゴンを流用することにより、多角柱として各建物の3次元ポリゴンを生成する。
As in step S104 in the first embodiment, the polygon creation process in step S304 uses the DEM created by the
ステップS305において、ステップS304で生成された3次元の建物ポリゴンと、別途用意した周辺地域の地形を示す地形ポリゴンを用いて、左右の各元画像の撮影視点と同視点で各ポリゴンを描画した画像を生成し、各建物ポリゴンの壁面が描画される位置の画素について、個別のラベル値を書き込んだ画像を生成するラベル画像生成処理を行う。この際に用いる地形モデルデータは、第1の実施形態と同様に、建物周辺の形状を示す3次元ポリゴンであり、たとえば国土地理院発行の数値地図50mメッシュ標高などをもとにポリゴン化したものや、レーザプロファイラによる計測データから作成されたものなどを用いることができる。また、航空写真の撮影視点位置情報は、ステレオ処理時に行われる標定処理により決定された値を用いる。このラベル画像生成処理により、左画像のラベル画像と、右画像のラベル画像が作成される。 In step S305, using the three-dimensional building polygon generated in step S304 and the separately prepared terrain polygon indicating the terrain of the surrounding area, an image in which each polygon is drawn at the same viewpoint as the shooting viewpoints of the left and right original images And a label image generation process for generating an image in which individual label values are written for the pixel at the position where the wall surface of each building polygon is drawn. The topographic model data used in this case is a three-dimensional polygon indicating the shape of the surrounding area of the building, as in the first embodiment, for example, a polygon based on a numerical map 50 m mesh elevation issued by the Geospatial Information Authority of Japan. Alternatively, those created from measurement data obtained by a laser profiler can be used. In addition, the aerial photography viewpoint position information uses a value determined by the orientation process performed during the stereo process. By this label image generation process, a label image of the left image and a label image of the right image are created.
ステップS306において、ステップS303で作成された左右の壁面候補データ7aと、ステップS305で作成された左右のラベル画像データ9aを重ね合わせて、各建物の壁面画素領域を決定し、左右の壁面画素領域から属性情報を多く含む方を選択する壁面領域選択処理を実行する。ステップS307において、属性情報を抽出する壁面領域情報抽出処理が行われる。具体的には、第1の実施形態と同様の方法により、左右の航空写真に対応する壁面候補データ7aとラベル画像から、左右それぞれの航空写真における、各建物の壁面画素領域を得る。さらに同一建物についての左右画像中の壁面画素領域を比較し、壁面属性情報を多く含むと思われるより画素数が多いほうを、当該建物の壁面画素領域として確定する。その領域からテクスチャ生成に有用な属性を、第1の実施形態と同様の方法で取得する。ここでいう属性とは、テクスチャ画像、あるいは領域代表色のことをさし、領域の面積や色分布に応じていずれかあるいは複数の属性を取得して建物壁面属性格納部11に記憶する。
In step S306, the left and right wall
以後のステップS308の処理は、第1の実施形態におけるステップS307と同様であるため、詳細な説明は省略する。このような構成、動作を行うことにより、左右の元画像それぞれについて、各建物の壁面領域を定める処理を行ったのち、十分な画素数を持つ方を選択して壁面属性情報を抽出するように構成されているため、視点の直下にあるため、航空写真中で壁面が見えないなど、片方の画像において壁面領域が小さく属性抽出が困難な建物についても、他方の画像の情報を利用して壁面領域の属性を抽出し、生成する都市モデルに反映させることができる。 Since the subsequent processing in step S308 is the same as that in step S307 in the first embodiment, detailed description thereof is omitted. By performing such a configuration and operation, the processing for determining the wall area of each building is performed for each of the left and right original images, and then the wall attribute information is extracted by selecting the one having a sufficient number of pixels. Because it is configured, it is directly under the viewpoint and the wall surface is not visible in the aerial photograph. Area attributes can be extracted and reflected in the generated city model.
[第4の実施の形態の構成]
次に、本発明の第4の実施の形態について図面を参照して詳細に説明する。図12を参照すると、本発明の第4の実施の形態は、第1の実施の形態の構成から、壁面候補画像格納部7を除いた構成となっている。
[Configuration of Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described in detail with reference to the drawings. Referring to FIG. 12, the fourth embodiment of the present invention has a configuration in which the wall surface candidate
オルソ化処理部31は、そのステレオ処理部2により生成されたDEMを元に、航空写真データに対してオルソ化処理を実行する情報処理機能ブロックである。ステレオ処理部2により算出されたDEMは、元の航空写真データと共にオルソ化処理部31に与えられる。オルソ化処理部31は、DEMにより各画素の3次元位置が求められるので、これを地面に対して正射影となるよう画素単位に再配置する変換を実行して、DEMおよび航空写真の双方について、航空写真データを画像中の全ての点で鉛直上方から見たように再投影した新たな画像データを生成する。以下、この変換をオルソ化と呼び、オルソ化処理後のDEMをオルソ化DEM、オルソ化処理後の航空写真データをオルソ画像と呼ぶ。
The
壁面領域情報抽出部10は、ラベル画像生成部8により作成されたラベル画像データ9aのみから、建物毎の壁面領域を確定し、各建物壁面のテクスチャ画像、または代表色などの壁面属性を抽出して建物壁面属性格納部11に出力する。その他の本発明の第4の実施の形態における各機能ブロックは、第1の実施の形態において対応する各機能ブロックと同様の動作をする。
The wall surface area
[第4の実施の形態の動作]
次に、図13のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
ステップS401およびステップS402の処理は、第1の実施の形態におけるステップS101およびステップS102と同様であるため詳細な説明は省略する。また、ステップS403およびステップS404の処理についても、第1の実施の形態におけるステップS104およびステップS105と同様であるため詳細な説明は省略する。
[Operation of Fourth Embodiment]
Next, the overall operation of the present embodiment will be described in detail with reference to the flowchart of FIG.
Since the processing of step S401 and step S402 is the same as that of step S101 and step S102 in the first embodiment, detailed description thereof is omitted. Also, the processing in step S403 and step S404 is the same as that in step S104 and step S105 in the first embodiment, and thus detailed description thereof is omitted.
ステップS405において、ステップS404で作成されたラベル画像データ9a中において、各建物の壁面画素領域を決定し、属性情報を抽出する壁面領域情報抽出処理が行われる。具体的には、ラベル画像中で各建物に対応するラベルを持つ領域を、その建物の壁面画素領域として確定し、その領域からテクスチャ生成に有用な属性を取得する。ここでいう属性とは、テクスチャ画像、あるいは領域代表色のことをさし、領域の面積や色分布に応じていずれかあるいは複数の属性を取得して建物壁面属性格納部11に記憶する。
In step S405, wall surface area information extraction processing is performed for determining the wall surface pixel area of each building in the
ステップS406において、第1の実施の形態におけるステップS107と同様に、建物壁面属性格納部11に記憶された壁面属性情報を用いて、3次元ポリゴンデータ6a中の対応する建物ポリゴンデータの加工を行い、実景観に近いポリゴンとする壁面テクスチャ生成処理が行われる。
In step S406, the corresponding building polygon data in the three-
これによって、建物の3次元ポリゴンデータから作成したラベル画像を用いて航空写真中の壁面領域を特定し、属性を抽出して生成した建物ポリゴンにテクスチャを添付するよう構成しているため、鉛直でない壁面を持ち、オルソ化処理時にオルソ画像中で壁面画素が利用される建物についても、壁面属性を取得することができる。 As a result, the wall surface area in the aerial photograph is specified using the label image created from the three-dimensional polygon data of the building, and the texture is attached to the building polygon generated by extracting the attribute. A wall attribute can also be acquired for a building having a wall surface and using a wall surface pixel in the ortho image during the orthoprocessing.
なお、上記にいくつかの本発明の実施の形態を示したが、本発明の実施の形態はこれらに限定されるものではなく、様々な条件での実施が可能である。例えば対象となる画像は航空写真に限定されるものではなく、たとえば衛星画像に対しても適用が可能である。また、上記にいくつかの本発明の実施の形態は矛盾が発生しない範囲内で組合せて適用が可能である。
また本発明の第3の実施の形態において、左右の画像それぞれについて壁面領域を決定し、どちらかを選択して壁面属性を取得しているが、同一領域を撮影した2組以上の航空写真対を用いて、上記の方法で壁面領域の抽出を行い、ある建物に対し3ないし4つ以上の壁面領域を求め、それらを用いて壁面情報の抽出を行う形態での実施も可能である。
In addition, although several embodiment of this invention was shown above, embodiment of this invention is not limited to these, Implementation on various conditions is possible. For example, the target image is not limited to an aerial photograph, and can be applied to, for example, a satellite image. In addition, some of the embodiments of the present invention described above can be applied in combination within a range where no contradiction occurs.
In the third embodiment of the present invention, the wall surface area is determined for each of the left and right images, and either one is selected to acquire the wall surface attribute. It is also possible to extract the wall surface area using the above method, obtain three to four or more wall surface areas for a certain building, and extract the wall surface information using them.
また、ある建物に対する複数の壁面領域からの情報抽出方法に関しても特に制限はなく、単純に面積が最大のものを選択して属性抽出を行うのみならず、個別に属性を求めた後テクスチャデータの画素分布などを比較してより利用しやすく信頼度の高いものを選択する方法や、そのまま複数の領域に含まれる全画素を用いて代表色などの統計的属性を得る方法を用いて良く、あるいは属性毎に個別の情報抽出方法を選択し、それらを組みあわせて使用することも可能である。 In addition, there is no particular restriction on the method of extracting information from a plurality of wall areas for a building, and not only selecting the attribute with the largest area but also performing attribute extraction, after obtaining the attributes individually, You can use a method that compares the pixel distribution etc. to select a more reliable and more reliable one, or a method that uses all the pixels in multiple areas as they are to obtain statistical attributes such as representative colors, or It is also possible to select individual information extraction methods for each attribute and use them in combination.
1…航空写真データ格納部、1a…航空写真データ
2…ステレオ処理部
3…オルソ化処理部
4…ポリゴン作成部
5…地図データ格納部、5a…地図データ
6…3次元ポリゴンデータ格納部、6a…3次元ポリゴンデータ
7…壁面候補画像格納部、7a…壁面候補画像データ
8…ラベル画像生成部
9…ラベル画像格納部、9a…ラベル画像
10…壁面領域情報抽出部
11…建物壁面属性格納部、11a…建物壁面属性データ
12…壁面テクスチャ生成部
13…標準壁面画像格納部、13a…標準壁面画像データ
14…壁面領域情報抽出部
31、32…オルソ化処理部
33…ラベル画像生成部
34…壁面領域情報抽出部
101…衛星画像蓄積部
102…ステレオ処理部
103…DEMデータ自動補正部
104…地図データ蓄積部
DESCRIPTION OF
Claims (21)
前記画像データから、前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力部と、
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成部と
を具備し、
前記側面データ出力部は、ステレオ処理部とオルソ化処理部とを含み、
前記ステレオ処理部は、前記被写体の奥行き情報を算出し、
前記オルソ化処理部は、前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成し、前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データを生成し、
前記テクスチャ生成部は、ラベル画像生成部と、側面情報作成部と、壁面テクスチャ生成部とを含み、
前記ラベル画像生成部は、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成し、前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像を生成し、
前記側面情報作成部は、前記ラベル画像中で前記被写体に対応するラベルを持つ領域を、前記被写体の壁面画素領域として特定し、前記壁面画素領域から取得されるテクスチャ画像または領域代表色に基づいて、前記テクスチャの生成に使用される側面情報を生成し、
前記壁面テクスチャ生成部は、前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付する
3次元モデル作成装置。 An image data storage unit that stores image data obtained by converting a plurality of continuously shot images into electronic data, and adjacent images of the images include images of the same subject,
A side data output unit that extracts and outputs side data corresponding to the surface constituting the depth direction of the subject from the image data;
A texture generating unit that generates a texture using the side data and attaches the texture to the three-dimensional polygon data generated based on the image data ;
The side data output unit includes a stereo processing unit and an orthoprocessing unit,
The stereo processing unit calculates depth information of the subject,
The orthorectification processing unit generates an ortho image that is an orthographic image of the subject based on the image data and the depth information, the pixel of the contour portion of the subject of the image data, and the subject of the ortho image And generating the side data based on the pixels of the contour portion of
The texture generation unit includes a label image generation unit, a side surface information generation unit, and a wall surface texture generation unit,
The label image generation unit generates reference image data based on the three-dimensional polygon data of the subject generated based on the depth information, and a side region corresponding to a side surface of the three-dimensional polygon data in the reference image data And generating a label image by adding individual label values to the pixels of the side region,
The side surface information creating unit identifies a region having a label corresponding to the subject in the label image as a wall surface pixel region of the subject, and based on a texture image or a region representative color acquired from the wall surface pixel region Generate side information used to generate the texture,
The wall surface texture generation unit generates a texture based on the side surface information, and attaches the texture to a side surface of the 3D polygon data .
前記側面情報作成部は、前記側面データと前記ラベル画像とに基づいて、前記テクスチャの生成に使用される側面情報を生成する
3次元モデル作成装置。 The three-dimensional model creation device according to claim 1,
Before SL side information creation unit, on the basis of the side data and said labeled image, 3-dimensional modeling apparatus for generating side information used to generate the texture.
前記テクスチャ生成部は、標準側面画像格納部を備え、
前記標準側面画像格納部は、複数の側面画像データを予め格納し、
前記側面情報作成部は、前記複数の側面画像データから、前記側面情報に最も類似するデータを最類似データとして選択し、
前記テクスチャは、前記最類似データに基づいて生成される
3次元モデル作成装置。 The three-dimensional model creation device according to claim 2,
The texture generation unit includes a standard side image storage unit,
The standard side image storage unit stores a plurality of side image data in advance,
The side information creation unit selects, as the most similar data, data that is most similar to the side information from the plurality of side image data,
The texture is generated based on the most similar data.
前記ステレオ処理部は、隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出し、
前記オルソ化処理部は、前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データを生成し、
前記ラベル画像生成部は、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成し、
前記側面情報作成部は、前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成する
3次元モデル作成装置。 In the three-dimensional model creation device according to any one of claims 1 to 3 ,
The stereo processing unit specifies each of adjacent image data as a first image and a second image, calculates the depth information by performing a stereo matching process on the first image and the second image,
The orthoprocessing unit generates first side data corresponding to the first image and second side data corresponding to the second image,
The label image generation unit generates a first label image corresponding to the first image and a second label image corresponding to the second image;
The side information creation unit creates first side information based on the first side data and the first label image, and creates a second side based on the second side data and the second label image. A three-dimensional model creation device that creates information and creates the side information by comparing the first side information and the second side information.
前記連続撮影された複数の画像は、空を飛ぶ飛翔体に搭載された撮像装置で撮影され、
前記被写体は、地上の構造体であり、
前記奥行き情報は、前記構造体の高さを示す情報であり、
前記側面データは、前記構造体の壁面の状態を示すデータである
3次元モデル作成装置。 In the three-dimensional model creation device according to any one of claims 1 to 3 ,
The plurality of continuously shot images are taken by an imaging device mounted on a flying object flying in the sky,
The subject is a structure on the ground,
The depth information is information indicating the height of the structure,
The side surface data is data indicating a state of a wall surface of the structure body.
前記被写体の奥行き方向を構成する面は、前記画像を撮影する光軸方向に平行な面である
3次元モデル作成装置。 The three-dimensional model creation device according to any one of claims 1 to 5 ,
The surface constituting the depth direction of the subject is a surface parallel to the optical axis direction for capturing the image.
前記画像データから、前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力部と、 A side data output unit that extracts and outputs side data corresponding to the surface constituting the depth direction of the subject from the image data;
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成部と A texture generating unit that generates a texture using the side data and attaches the texture to the three-dimensional polygon data generated based on the image data;
を具備し、 Comprising
前記側面データ出力部は、ステレオ処理部とオルソ化処理部とを含み、 The side data output unit includes a stereo processing unit and an orthoprocessing unit,
前記ステレオ処理部は、 The stereo processing unit
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで、前記被写体の奥行き情報を算出し、 Each of adjacent image data is identified as a first image and a second image, and the depth information of the subject is calculated by performing stereo matching processing on the first image and the second image,
前記オルソ化処理部は、 The orthoprocessing unit is:
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成し、前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて、前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データを生成し、 An ortho image that is an orthographic image of the subject is generated based on the image data and the depth information, and the pixel of the contour portion of the subject of the image data and the pixel of the contour portion of the subject of the ortho image Based on the first side data corresponding to the first image and the second side data corresponding to the second image,
前記テクスチャ生成部は、ラベル画像生成部と、側面情報作成部と、壁面テクスチャ生成部とを含み、 The texture generation unit includes a label image generation unit, a side surface information generation unit, and a wall surface texture generation unit,
前記ラベル画像生成部は、 The label image generator
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成し、前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加して、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成し、 Reference image data is generated based on the three-dimensional polygon data of the subject generated based on the depth information, a side region corresponding to a side surface of the three-dimensional polygon data is specified in the reference image data, and the side region To generate a first label image corresponding to the first image and a second label image corresponding to the second image,
前記側面情報作成部は、 The side information creation unit
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報との比較に基づいて、前記テクスチャの生成に使用される側面情報を生成し、 First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, Based on the comparison between the one side information and the second side information, the side information used for generating the texture is generated,
前記壁面テクスチャ生成部は、 The wall surface texture generator is
前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付する Generate the texture based on the side information and attach the texture to the side of the 3D polygon data
3次元モデル作成装置。 3D model creation device.
前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力ステップと、
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成ステップ
を具備し、
前記側面データ生成ステップは、
前記被写体の奥行き情報を算出するステップと、
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、
前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データを生成するステップと
を含み、
前記テクスチャ生成ステップは、
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成するステップと、
前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像を生成するステップと、
前記ラベル画像に基づいて、前記テクスチャの生成に使用される側面情報を生成するステップと、
前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付するステップ
を具備する方法をコンピュータで実行可能なプログラム。 An image data reading step of reading adjacent image data including an image of the same subject from image data obtained by converting a plurality of continuously shot images into electronic data,
A side data output step of extracting and outputting side data corresponding to the surface constituting the depth direction of the subject;
Using said side data to generate a texture, the texture comprises a texture generation step attached to the three-dimensional polygon data generated based on the image data,
The side data generation step includes:
Calculating depth information of the subject;
Generating an ortho image that is an orthographic image of the subject based on the image data and the depth information;
Generating the side data based on pixels of the contour portion of the subject of the image data and pixels of the contour portion of the subject of the ortho image;
Including
The texture generation step includes
Generating reference image data based on the three-dimensional polygon data of the subject generated based on the depth information;
Identifying a side region corresponding to a side surface of the three-dimensional polygon data in the reference image data, adding a label value to each pixel of the side region, and generating a label image;
Generating side information used to generate the texture based on the label image;
Generating the texture based on the side information and attaching the texture to the side of the three-dimensional polygon data
A program capable of executing a method comprising:
前記側面情報を生成するステップは、
前記側面データと前記ラベル画像とに基づいて、前記テクスチャの生成に使用される側面情報を生成するステップを含む
方法をコンピュータで実行可能なプログラム。 The program according to claim 8 , wherein
The step of generating the side information includes:
Generating side information used for generating the texture based on the side data and the label image;
A program that can be executed on a computer.
前記テクスチャ生成ステップは、
予め格納された複数の側面画像データから、前記側面情報に最も類似するデータを最類似データとして選択するステップと、
前記最類似データに基づいて生成するステップ
を具備する方法をコンピュータで実行可能なプログラム。 The program according to claim 8 or 9 ,
The texture generation step includes
Selecting the most similar data as the most similar data from the plurality of side image data stored in advance,
A program capable of executing on a computer a method comprising the step of generating based on the most similar data.
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出するステップと、
前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データを生成するステップと、
前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成するステップ
を具備する方法をコンピュータで実行可能なプログラム。 The program according to any one of claims 8 to 10 ,
Specifying each of adjacent image data as a first image and a second image, and calculating the depth information by performing a stereo matching process on the first image and the second image;
Generating first side data corresponding to the first image and second side data corresponding to the second image;
Generating a first label image corresponding to the first image and a second label image corresponding to the second image;
First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, A computer-executable program comprising a step of comparing one side information and the second side information to create the side information.
前記連続撮影された複数の画像は、空を飛ぶ飛翔体に搭載された撮像装置で撮影され、
前記被写体は、地上の構造体であり、
前記奥行き情報は、前記構造体の高さを示す情報であり、
前記側面データは、前記構造体の壁面の状態を示すデータである
プログラム。 The program according to any one of claims 8 to 11 ,
The plurality of continuously shot images are taken by an imaging device mounted on a flying object flying in the sky,
The subject is a structure on the ground,
The depth information is information indicating the height of the structure,
The side data is data indicating a state of a wall surface of the structure.
前記被写体の奥行き方向を構成する面は、前記画像を撮影する光軸方向に平行な面である
プログラム。 The program according to any one of claims 8 to 12 ,
The surface constituting the depth direction of the subject is a surface parallel to the optical axis direction for capturing the image.
前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力ステップと、 A side data output step of extracting and outputting side data corresponding to the surface constituting the depth direction of the subject;
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成ステップと A texture generating step of generating a texture using the side data and attaching the texture to 3D polygon data generated based on the image data;
を具備し、 Comprising
前記側面データ出力ステップは、 The side data output step includes
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記被写体の奥行き情報を算出するステップと、 Identifying each of adjacent image data as a first image and a second image, and calculating depth information of the subject by performing stereo matching processing on the first image and the second image;
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、 Generating an ortho image that is an orthographic image of the subject based on the image data and the depth information;
前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて、前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データとを生成するステップと Based on the pixels of the contour portion of the subject of the image data and the pixels of the contour portion of the subject of the ortho image, the first side data corresponding to the first image and the second side corresponding to the second image. Generating two side data; and
を含み、 Including
前記テクスチャ生成ステップは、 The texture generation step includes
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成するステップと、 Generating reference image data based on the three-dimensional polygon data of the subject generated based on the depth information;
前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加して、第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、 In the reference image data, a side region corresponding to the side surface of the three-dimensional polygon data is specified, individual label values are added to the pixels of the side region, a first label image corresponding to a first image, and the first image Generating a second label image corresponding to the two images;
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報との比較に基づいて、前記テクスチャの生成に使用される側面情報を生成するステップと、 First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, Generating side information used for generating the texture based on a comparison between the one side information and the second side information;
前記壁面テクスチャ生成部は、前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付するステップ The wall surface texture generation unit generates the texture based on the side surface information, and attaches the texture to the side surface of the three-dimensional polygon data.
を具備する方法をコンピュータで実行可能なプログラム。 A program capable of executing a method comprising:
前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力ステップと、
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成ステップ
を具備し、
前記側面データ生成ステップは、
前記被写体の奥行き情報を算出するステップと、
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、
前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データを生成するステップと
を含み、
前記テクスチャ生成ステップは、
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成するステップと、
前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像を生成するステップと、
前記ラベル画像に基づいて、前記テクスチャの生成に使用される側面情報を生成するステップと、
前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付するステップ
を具備する
3次元モデル作成方法。 An image data reading step of reading adjacent image data including an image of the same subject from image data obtained by converting a plurality of continuously shot images into electronic data,
A side data output step of extracting and outputting side data corresponding to the surface constituting the depth direction of the subject;
Using said side data to generate a texture, the texture comprises a texture generation step attached to the three-dimensional polygon data generated based on the image data,
The side data generation step includes:
Calculating depth information of the subject;
Generating an ortho image that is an orthographic image of the subject based on the image data and the depth information;
Generating the side data based on pixels of the contour portion of the subject of the image data and pixels of the contour portion of the subject of the ortho image;
Including
The texture generation step includes
Generating reference image data based on the three-dimensional polygon data of the subject generated based on the depth information;
Identifying a side region corresponding to a side surface of the three-dimensional polygon data in the reference image data, adding a label value to each pixel of the side region, and generating a label image;
Generating side information used to generate the texture based on the label image;
Generating the texture based on the side information and attaching the texture to the side of the three-dimensional polygon data
A three-dimensional model creation method comprising :
前記側面情報を生成するステップは、
前記側面データと前記ラベル画像とに基づいて、前記テクスチャの生成に使用される側面情報を生成するステップを含む
3次元モデル作成方法。 The three-dimensional model creation method according to claim 15,
The step of generating the side information includes:
A three-dimensional model creation method including a step of generating side information used for generation of the texture based on the side data and the label image .
前記テクスチャ生成ステップは、
予め格納された複数の側面画像データから、前記側面情報に最も類似するデータを最類似データとして選択するステップと、
前記最類似データに基づいて生成するステップ
を具備する3次元モデル作成方法。 The three-dimensional model creation method according to claim 15 or 16 ,
The texture generation step includes
Selecting the most similar data as the most similar data from the plurality of side image data stored in advance,
A three-dimensional model creation method comprising the step of generating based on the most similar data.
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出するステップと、
前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データを生成するステップと、
前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成するステップ
を具備する3次元モデル作成方法。 The three-dimensional model creation method according to any one of claims 15 to 17 ,
Specifying each of adjacent image data as a first image and a second image, and calculating the depth information by performing a stereo matching process on the first image and the second image;
Generating first side data corresponding to the first image and second side data corresponding to the second image;
Generating a first label image corresponding to the first image and a second label image corresponding to the second image;
First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, A method of creating a three-dimensional model, comprising: comparing one side information and the second side information to create the side information.
前記連続撮影された複数の画像は、空を飛ぶ飛翔体に搭載された撮像装置で撮影され、
前記被写体は、地上の構造体であり、
前記奥行き情報は、前記構造体の高さを示す情報であり、
前記側面データは、前記構造体の壁面の状態を示すデータである
3次元モデル作成方法。 The three-dimensional model creation method according to any one of claims 15 to 18 ,
The plurality of continuously shot images are taken by an imaging device mounted on a flying object flying in the sky,
The subject is a structure on the ground,
The depth information is information indicating the height of the structure,
The side data is data indicating a state of a wall surface of the structure.
前記被写体の奥行き方向を構成する面は、前記画像を撮影する光軸方向に平行な面である
3次元モデル作成方法。 In the three-dimensional model creation method according to any one of claims 15 to 19 ,
The surface constituting the depth direction of the subject is a surface parallel to the optical axis direction for capturing the image.
前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力ステップと、
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成ステップと
を具備し、
前記側面データ出力ステップは、
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記被写体の奥行き情報を算出するステップと、
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、
前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて、前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データとを生成するステップと
を含み、
前記テクスチャ生成ステップは、
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成するステップと、
前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加して、第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報との比較に基づいて、前記テクスチャの生成に使用される側面情報を生成するステップと、
前記壁面テクスチャ生成部は、前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付するステップ
3次元モデル作成方法。 An image data reading step of reading adjacent image data including an image of the same subject from image data obtained by converting a plurality of continuously shot images into electronic data,
A side data output step of extracting and outputting side data corresponding to the surface constituting the depth direction of the subject;
A texture generating step of generating a texture using the side data and attaching the texture to 3D polygon data generated based on the image data;
Comprising
The side data output step includes
Identifying each of adjacent image data as a first image and a second image, and calculating depth information of the subject by performing stereo matching processing on the first image and the second image;
Generating an ortho image that is an orthographic image of the subject based on the image data and the depth information;
Based on the pixels of the contour portion of the subject of the image data and the pixels of the contour portion of the subject of the ortho image, the first side data corresponding to the first image and the second side corresponding to the second image. Generating two side data; and
Including
The texture generation step includes
Generating reference image data based on the three-dimensional polygon data of the subject generated based on the depth information;
In the reference image data, a side region corresponding to the side surface of the three-dimensional polygon data is specified, individual label values are added to the pixels of the side region, a first label image corresponding to a first image, and the first image Generating a second label image corresponding to the two images;
First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, Generating side information used for generating the texture based on a comparison between the one side information and the second side information;
The wall surface texture generation unit generates the texture based on the side surface information, and attaches the texture to the side surface of the 3D polygon data .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004063163A JP4099776B2 (en) | 2004-03-05 | 2004-03-05 | 3D model creation device, 3D model creation method, and 3D model creation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004063163A JP4099776B2 (en) | 2004-03-05 | 2004-03-05 | 3D model creation device, 3D model creation method, and 3D model creation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005251035A JP2005251035A (en) | 2005-09-15 |
JP4099776B2 true JP4099776B2 (en) | 2008-06-11 |
Family
ID=35031435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004063163A Expired - Fee Related JP4099776B2 (en) | 2004-03-05 | 2004-03-05 | 3D model creation device, 3D model creation method, and 3D model creation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4099776B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007045272A1 (en) * | 2005-10-17 | 2007-04-26 | Tele Atlas North America, Inc. | Method for generating an enhanced map |
WO2008044913A1 (en) | 2006-10-13 | 2008-04-17 | Tele Atlas B.V. | System for and method of processing laser scan samples and digital photographic images relating to building façade |
JP5553483B2 (en) * | 2008-04-16 | 2014-07-16 | アジア航測株式会社 | Optimal oblique photograph providing method, optimum oblique photograph providing system, and optimum oblique photograph providing apparatus |
KR100977553B1 (en) | 2009-11-13 | 2010-08-23 | 새한항업(주) | Data processing method for printing the digital image by 3d |
CN101950433A (en) * | 2010-08-31 | 2011-01-19 | 东南大学 | Building method of transformer substation three-dimensional model by using laser three-dimensional scanning technique |
JP5991821B2 (en) * | 2012-02-03 | 2016-09-14 | 三菱電機株式会社 | Photogrammetry equipment |
JP6238101B2 (en) * | 2012-11-28 | 2017-11-29 | 国際航業株式会社 | Numerical surface layer model creation method and numerical surface layer model creation device |
CN104048649B (en) * | 2013-03-15 | 2016-08-03 | 南京中观软件技术有限公司 | A kind of multi-view images and the rapid registering method of threedimensional model |
JP7117273B2 (en) * | 2019-07-01 | 2022-08-12 | Jx金属株式会社 | Fragmented piece detection method, fragmented fragmentation method, fragmented fragment detection device and fragmented fragmentation device |
CN111540048B (en) * | 2020-04-22 | 2023-06-27 | 深圳市中正测绘科技有限公司 | Fine live-action three-dimensional modeling method based on space-ground fusion |
JP7232552B1 (en) | 2022-04-11 | 2023-03-03 | 株式会社スペースデータ | Information processing apparatus, method, and program |
CN115311396B (en) * | 2022-08-09 | 2023-06-02 | 北京飞渡科技股份有限公司 | Automatic extraction method and system for roof contour line of super-high building |
-
2004
- 2004-03-05 JP JP2004063163A patent/JP4099776B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005251035A (en) | 2005-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7509241B2 (en) | Method and apparatus for automatically generating a site model | |
EP3242275B1 (en) | Using photo collections for three dimensional modeling | |
CN113506370B (en) | Three-dimensional geographic scene model construction method and device based on three-dimensional remote sensing image | |
US7903111B2 (en) | Depth image-based modeling method and apparatus | |
Pylvanainen et al. | Automatic alignment and multi-view segmentation of street view data using 3d shape priors | |
CA2678156A1 (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
EP3413266B1 (en) | Image processing device, image processing method, and image processing program | |
JP2004348575A (en) | Three-dimensional model construction system and its program | |
US20080089577A1 (en) | Feature extraction from stereo imagery | |
KR20090031113A (en) | Method and apparatus for creating a 3d image using 2d photograph images | |
JP4099776B2 (en) | 3D model creation device, 3D model creation method, and 3D model creation program | |
KR100967838B1 (en) | A method and a system for generating 3-dimensional geographical information using aerial lidar information and digital aerial photograph information | |
CN108399631B (en) | Scale invariance oblique image multi-view dense matching method | |
US20030225513A1 (en) | Method and apparatus for providing multi-level blended display of arbitrary shaped textures in a geo-spatial context | |
JP5311465B2 (en) | Stereo matching processing system, stereo matching processing method, and program | |
JP2012137933A (en) | Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device | |
JP2005339127A (en) | Apparatus and method for displaying image information | |
JP2006284224A (en) | Method for generating three-dimensional data of geographical features, method for evaluating geographical feature variation, system for evaluating geographical feature variation | |
KR101375649B1 (en) | Apparatus and method for generating texture for three dimensional mesh model of target object | |
JP6425511B2 (en) | Method of determining feature change and feature change determination apparatus and feature change determination program | |
JP2016218694A (en) | Three-dimensional model generation device, three-dimensional model generation method, and program | |
JP4354708B2 (en) | Multi-view camera system | |
Kuzmin et al. | Polygon-based true orthophoto generation | |
KR100732915B1 (en) | Method for three-dimensional determining of basic design road route using digital photommetry and satellite image | |
JP2011048507A (en) | Three-dimensional data generation device, three-dimensional data generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071128 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080306 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4099776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120328 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120328 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130328 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130328 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140328 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |