JP4099776B2 - 3D model creation device, 3D model creation method, and 3D model creation program - Google Patents

3D model creation device, 3D model creation method, and 3D model creation program Download PDF

Info

Publication number
JP4099776B2
JP4099776B2 JP2004063163A JP2004063163A JP4099776B2 JP 4099776 B2 JP4099776 B2 JP 4099776B2 JP 2004063163 A JP2004063163 A JP 2004063163A JP 2004063163 A JP2004063163 A JP 2004063163A JP 4099776 B2 JP4099776 B2 JP 4099776B2
Authority
JP
Japan
Prior art keywords
image
data
texture
information
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004063163A
Other languages
Japanese (ja)
Other versions
JP2005251035A (en
Inventor
久雄 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2004063163A priority Critical patent/JP4099776B2/en
Publication of JP2005251035A publication Critical patent/JP2005251035A/en
Application granted granted Critical
Publication of JP4099776B2 publication Critical patent/JP4099776B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、3次元モデル作成装置、3次元モデル作成方法および3次元モデル作成プログラムに関し、特に航空写真を用いてステレオ処理を行うことで建物の3次元ポリゴンを作成するシステム、方法およびプログラムに関する。   The present invention relates to a three-dimensional model creation apparatus, a three-dimensional model creation method, and a three-dimensional model creation program, and more particularly to a system, method, and program for creating a three-dimensional polygon of a building by performing stereo processing using aerial photographs.

航空写真から生成された画像データをステレオ処理することにより、建物の高さを算出し、都市の3次元ポリゴンモデルを自動的に生成する技術が知られている(例えば、特許文献1参照。)。図1は、上記特許文献1に記載された、従来の都市モデル生成システムの構成を示すブロック図である。図1を参照すると、従来の都市モデル生成システムは、衛星画像データを蓄積する衛星画像蓄積部101と、その衛星画像蓄積部101から得られる衛星画像データに対してステレオマッチング処理を行い、3次元データを生成するステレオ処理部102と、ステレオ処理部102によって得られた3次元データ中の雑音や欠損等の誤ったデータを、地図データから得られる建造物等の外形情報を用いて自動的に補正するDEMデータ自動補正部103と、そのDEMデータ自動補正部103に対して建造物の外形などの地図データを提供する地図データ蓄積部104とで構成されている。   A technique is known in which the height of a building is calculated by performing stereo processing on image data generated from an aerial photograph, and a three-dimensional polygon model of a city is automatically generated (see, for example, Patent Document 1). . FIG. 1 is a block diagram showing a configuration of a conventional city model generation system described in Patent Document 1. Referring to FIG. 1, a conventional city model generation system performs a stereo matching process on a satellite image storage unit 101 that stores satellite image data and satellite image data obtained from the satellite image storage unit 101. A stereo processing unit 102 that generates data, and erroneous data such as noise and loss in the three-dimensional data obtained by the stereo processing unit 102 are automatically used by using outline information such as buildings obtained from map data. A DEM data automatic correction unit 103 for correction and a map data storage unit 104 for providing map data such as the external shape of a building to the DEM data automatic correction unit 103 are configured.

この都市モデル生成システムは、衛星画像蓄積部101には衛星から地上の同地点を異なった視点から撮影した複数枚の画像、つまり衛星ステレオ画像が蓄積され、それらの衛星ステレオ画像はステレオ処理部102に与えられる。ステレオ処理部102は得られた衛星ステレオ画像に対し、ステレオマッチング処理を自動的に行い、撮影された地点周辺の地形を示す3次元データを生成する。これは具体的には、2次元の地図上の各点に対応する高さの値で示されるものである。   In this city model generation system, the satellite image storage unit 101 stores a plurality of images obtained by photographing the same point on the ground from the satellite from different viewpoints, that is, satellite stereo images. These satellite stereo images are stored in the stereo processing unit 102. Given to. The stereo processing unit 102 automatically performs stereo matching processing on the obtained satellite stereo image, and generates three-dimensional data indicating the topography around the captured point. Specifically, this is indicated by a height value corresponding to each point on the two-dimensional map.

ここで、ステレオマッチング処理とは、異なる視点から撮影した2枚の画像について、同一の点を撮像している各画像中の対応点を求め、その視差を用いて三角測量の原理によって対象までの奥行きや形状を求めることである。一般的には特徴量を求めて対応付ける方法や、左右画像の相関を用いる相関法等の様々な手法が提案されている。   Here, the stereo matching process is to obtain corresponding points in each image capturing the same point for two images taken from different viewpoints, and use the parallax to obtain the target by the principle of triangulation. Determining depth and shape. In general, various methods such as a method of obtaining and associating feature amounts and a correlation method using correlation between left and right images have been proposed.

DEMデータ自動補正部103は、ステレオマッチング処理にて得られた3次元データに対して、地図データ蓄積部104に記憶されかつ3次元データに対応する領域に含まれる建造物の外形情報を主とする地図データを用いて、3次元データ中の誤ったデータを自動的に補正する。DEMデータ自動補正部103において、位置合わせ手段31は3次元データと地図データとを、同じ座標を示す点が一致するよう重ね合わせる。3次元データ及びその元となる衛星画像で採用されている測地系と、地図データで用いられる測地系とが異なる場合、同一点の経緯度の値が異なってしまうため、同等のものとなるように変換し、経緯度が一致する所定の点の情報を用いて変換パラメータを求め、アフィン変換等の変換をどちらかに適用し、3次元データと地図データとにおける同一点が一致するように重ね合わせる。その重ね合わせた地図データ中の各建造物領域毎に、内部に含まれる3次元データを建物候補領域として設定する。さらに、その設定された各建物候補領域に対し、その領域内に含まれる3次元データの値についてヒストグラムを得る等の統計的な解析を行う。   The DEM data automatic correction unit 103 mainly uses the outline information of the building stored in the map data storage unit 104 and included in the region corresponding to the three-dimensional data, with respect to the three-dimensional data obtained by the stereo matching process. Incorrect data in the three-dimensional data is automatically corrected using the map data. In the DEM data automatic correction unit 103, the alignment unit 31 superimposes the three-dimensional data and the map data so that the points indicating the same coordinates coincide. If the geodetic system used in the three-dimensional data and the satellite image used as the source is different from the geodetic system used in the map data, the longitude and latitude values at the same point will be different, so they will be equivalent. Is converted to, and the conversion parameters are obtained using the information of the predetermined points with the same latitude and longitude, and the transformation such as affine transformation is applied to either, and the three-dimensional data and the map data are overlapped so that the same point matches. Match. For each building area in the overlapped map data, the three-dimensional data included therein is set as a building candidate area. Further, a statistical analysis such as obtaining a histogram for the value of the three-dimensional data included in each of the set building candidate areas is performed.

各領域について、高い頻度を示す値をいくつか選択し、それら選択した点の値を、領域内の3次元データのうち、それら選択した点の近傍の3次元データにおいて最も頻度の高い値に置き換えて3次元データの修正を行う。すなわち、各領域のヒストグラムから頻度の高いいくつかの値をその領域の代表値として選択し、領域内の各画素のうち、代表値から所定の閾値の範囲のDEMデータの値を持つものについて、代表値に対応するラベルを付加する。   For each region, select several values that indicate high frequency, and replace the selected point values with the most frequent values in the three-dimensional data in the vicinity of the selected points. To correct the 3D data. That is, select some values with high frequency from the histogram of each region as the representative value of the region, and among the pixels in the region, those having the value of DEM data within a predetermined threshold range from the representative value, A label corresponding to the representative value is added.

その後に、代表値に関連付けられることなく残った各画素について、近傍の画素に付加されたラベルの分布を調べ、頻度の高いラベルを当該画素のラベルとして選択する。建造物領域中の全ての画素についてラベルが決定されると、各画素の値をラベルに設定されている代表値で置換する。上記のように、ステレオ処理部102及びDEMデータ自動補正部103によって全てコンピュータ上で自動的に3次元データが得られるため、オペレータの操作を必要としない。従来の技術で生成された3次元の建物ポリゴンは、実景観との乖離が大きく、作成された3次元の建物ポリゴンを可視化応用に用いるためには、建物壁面の画像を入手して、その3次元の建物ポリゴンに貼り付ける作業が必要である。   After that, for each pixel remaining without being associated with the representative value, the distribution of labels added to neighboring pixels is examined, and a label with high frequency is selected as the label of the pixel. When labels are determined for all pixels in the building area, the value of each pixel is replaced with a representative value set in the label. As described above, since the three-dimensional data is automatically obtained on the computer by the stereo processing unit 102 and the DEM data automatic correction unit 103, no operator operation is required. The three-dimensional building polygon generated by the conventional technique has a large divergence from the actual landscape. In order to use the created three-dimensional building polygon for visualization application, an image of the building wall surface is obtained, and the 3 It needs to be pasted on a 3D building polygon.

作成された3次元の建物ポリゴンを可視化応用に用いるために、建物壁面の画像データを自動的に生成する技術が望まれる。   In order to use the created three-dimensional building polygon for visualization application, a technique for automatically generating image data of a building wall surface is desired.

特開2002−157576号公報JP 2002-157576 A

本発明が解決しようとする課題は、壁面画像の撮影や切り出しの作業を必要とすることなく、航空写真のみから建物壁面の情報を反映した都市モデルを自動的に生成することができるシステムを提供することにある。   The problem to be solved by the present invention is to provide a system that can automatically generate a city model that reflects information on a building wall surface from only aerial photographs, without requiring the operation of taking and cutting out a wall image. There is to do.

以下に、[発明を実施するための最良の形態]で使用される番号を用いて、課題を解決するための手段を説明する。これらの番号は、[特許請求の範囲]の記載と[発明を実施するための最良の形態]との対応関係を明らかにするために付加されたものである。ただし、それらの番号を、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。   The means for solving the problem will be described below using the numbers used in [Best Mode for Carrying Out the Invention]. These numbers are added to clarify the correspondence between the description of [Claims] and [Best Mode for Carrying Out the Invention]. However, these numbers should not be used to interpret the technical scope of the invention described in [Claims].

連続撮影された複数の画像を電子データ化した画像データ(1a)を格納する画像データ格納部(1)と、ここで、前記画像の隣り合う画像データ(1a)は、同一の被写体の画像を含むものを使用する。そして、前記画像データ(1a)から、前記被写体の奥行き方向を構成する面に対応する部分の画像データである側面データ(7a)を抽出して出力する側面データ出力部と、前記側面データ(7a)を使用してテクスチャを生成し、前記テクスチャを前記画像データ(1a)に基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成部とを具備する3次元モデル作成装置によって、人間の視覚がとらえる映像に対応する3次元立体画像を生成する。   An image data storage unit (1) that stores image data (1a) obtained by converting a plurality of continuously shot images into electronic data, and the adjacent image data (1a) of the images includes images of the same subject. Use what includes. Then, a side data output unit that extracts and outputs side data (7a) that is image data of a portion corresponding to a surface constituting the depth direction of the subject from the image data (1a), and the side data (7a). ) To generate a texture, and a 3D model creation device including a texture generation unit that attaches the texture to the 3D polygon data generated based on the image data (1a). A three-dimensional stereoscopic image corresponding to the captured image is generated.

その3次元モデル作成装置において、前記側面データ出力部は、ステレオ処理部(2)とオルソ化処理部(31)とを含み、前記ステレオ処理部(2)は、前記被写体の奥行き情報を算出する。そして、前記オルソ化処理部(31)は、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成し、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成する。また、前記テクスチャ生成部は、ラベル画像生成部(8)と、側面情報作成部(10)と、壁面テクスチャ生成部(12)とを含み、前記ラベル画像生成部(8)は、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成し、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成する。前記側面情報作成部(10)は、前記側面データ(7a)と前記ラベル画像(9a)とに基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成する。そして、前記壁面テクスチャ生成部(12)は、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付する3次元モデル作成装置によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。   In the three-dimensional model creation device, the side data output unit includes a stereo processing unit (2) and an orthoprocessing unit (31), and the stereo processing unit (2) calculates the depth information of the subject. . The orthoprocessing unit (31) generates an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the contour of the subject of the image data (1a). The side data (7a) is generated based on the pixels of the portion and the pixels of the contour portion of the subject of the ortho image. The texture generation unit includes a label image generation unit (8), a side surface information generation unit (10), and a wall surface texture generation unit (12), and the label image generation unit (8) includes the depth information. Generating reference image data based on the three-dimensional polygon data (6a) of the subject generated based on the image, and specifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data; A label image (9a) is generated by adding individual label values to the pixels in the side region. The side information creation unit (10) generates side information (11a) used for generating the texture based on the side data (7a) and the label image (9a). The wall surface texture generation unit (12) generates the texture based on the side surface information (11a), and attaches the texture to the side surface of the three-dimensional polygon data (6a). A three-dimensional stereoscopic image is generated, and the three-dimensional stereoscopic image is used for a car navigation screen or the like.

その3次元モデル作成装置において、前記側面データ出力部は、ステレオ処理部(2)とオルソ化処理部(31)とを含み、前記ステレオ処理部(2)は、前記被写体の奥行き情報を算出する。そして、前記オルソ化処理部(31)は、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成し、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成する。また、前記テクスチャ生成部は、ラベル画像生成部(8)と、側面情報作成部(10)と、壁面テクスチャ生成部(12)とを含み、前記ラベル画像生成部(8)は、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成し、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成する。前記側面情報作成部(10)は、前記ラベル画像(9a)に基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成する。前記壁面テクスチャ生成部(12)は、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付する3次元モデル作成装置によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。   In the three-dimensional model creation device, the side data output unit includes a stereo processing unit (2) and an orthoprocessing unit (31), and the stereo processing unit (2) calculates the depth information of the subject. . The orthoprocessing unit (31) generates an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the contour of the subject of the image data (1a). The side data (7a) is generated based on the pixels of the portion and the pixels of the contour portion of the subject of the ortho image. The texture generation unit includes a label image generation unit (8), a side surface information generation unit (10), and a wall surface texture generation unit (12), and the label image generation unit (8) includes the depth information. Generating reference image data based on the three-dimensional polygon data (6a) of the subject generated based on the image, and specifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data; A label image (9a) is generated by adding individual label values to the pixels in the side region. The side information creating unit (10) generates side information (11a) used for generating the texture based on the label image (9a). The wall surface texture generation unit (12) generates the texture based on the side surface information (11a), and uses the 3D model creation device to attach the texture to the side surface of the 3D polygon data (6a). A stereoscopic image is generated, and the three-dimensional stereoscopic image is used for a car navigation screen or the like.

その3次元モデル作成装置において、前記テクスチャ生成部はさらに、標準側面画像格納部(13)を備え、前記標準側面画像格納部(13)は、複数の側面画像データ(13a)を予め格納する。前記側面情報作成部(10)は、前記複数の側面画像データ(13a)から、前記側面情報(11a)に最も類似するデータを最類似データとして選択し、前記テクスチャは、前記最類似データに基づいて生成されるものを使用する3次元モデル作成装置によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。   In the three-dimensional model creation apparatus, the texture generation unit further includes a standard side image storage unit (13), and the standard side image storage unit (13) stores a plurality of side image data (13a) in advance. The side surface information creation unit (10) selects data most similar to the side surface information (11a) from the plurality of side surface image data (13a) as the most similar data, and the texture is based on the most similar data. A three-dimensional model creating apparatus that uses the generated one generates a three-dimensional stereoscopic image, and uses the three-dimensional stereoscopic image for a car navigation screen or the like.

その3次元モデル作成装置において、前記ステレオ処理部(2)は、隣接する画像データ(1a)の各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出する。そして、前記オルソ化処理部(31)は、前記第1画像に対応する第1側面データ(7a)と、前記第2画像に対応する第2側面データ(7a)を生成する。さらに、前記ラベル画像生成部(8)は、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成する。前記側面情報作成部(10)は、前記第1側面データ(7a)と前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データ(7a)と前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成する3次元モデル作成装置によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。   In the three-dimensional model creation device, the stereo processing unit (2) specifies each of the adjacent image data (1a) as a first image and a second image, and determines the first image and the second image. The depth information is calculated by performing a stereo matching process. The orthoprocessing unit (31) generates first side data (7a) corresponding to the first image and second side data (7a) corresponding to the second image. Further, the label image generation unit (8) generates a first label image corresponding to the first image and a second label image corresponding to the second image. The side information creation unit (10) creates first side information based on the first side data (7a) and the first label image, and the second side data (7a) and the second label. Based on the image, the second side information is created, the first side information is compared with the second side information, and a three-dimensional model creation device that creates the side information generates a three-dimensional stereoscopic image The three-dimensional stereoscopic image is used for a car navigation screen or the like.

連続撮影された複数の画像を電子データ化した画像データ(1a)から、同一の被写体の画像を含む隣り合う画像データ(1a)を読み出すステップと、前記被写体の奥行き方向を構成する面に対応する側面データ(7a)を抽出して出力するステップと、前記側面データ(7a)を使用してテクスチャを生成するステップと、前記テクスチャを前記画像データ(1a)に基づいて生成された3次元ポリゴンデータ(6a)に添付するステップを具備する方法をコンピュータで実行可能なプログラムによって、上述の3次元立体画像を生成する。   Corresponding to a step of reading adjacent image data (1a) including an image of the same subject from image data (1a) obtained by converting a plurality of continuously photographed images into electronic data, and a plane constituting the depth direction of the subject Extracting and outputting side data (7a); generating a texture using the side data (7a); and three-dimensional polygon data generated based on the image data (1a). The above three-dimensional stereoscopic image is generated by a program capable of executing the method including the step attached to (6a) by a computer.

そのプログラムにおいて、前記被写体の奥行き情報を算出するステップと、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成するステップと、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成するステップと、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成するステップと、前記側面データ(7a)と前記ラベル画像(9a)とに基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成するステップと、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付するステップを具備する方法をコンピュータで実行可能なプログラムによって、3次元立体画像を生成する。   In the program, calculating the depth information of the subject, generating an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the image data (1a) Generating the side data (7a) based on the pixel of the contour portion of the subject and the pixel of the contour portion of the subject of the ortho image, and 3 of the subject generated based on the depth information Generating reference image data based on the three-dimensional polygon data (6a), identifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data, Adding a label value to generate a label image (9a), the side data (7a) and the label image (9 ) Generating side information (11a) used for generating the texture, generating the texture based on the side information (11a), and converting the texture into the three-dimensional polygon data (6a). 3D images are generated by a program that can be executed by a computer.

そのプログラムにおいて、前記被写体の奥行き情報を算出するステップと、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成するステップと、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成するステップと、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成するステップと、前記ラベル画像(9a)に基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成するステップと、前記壁面テクスチャ生成部(12)は、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付するステップを具備する方法をコンピュータで実行可能なプログラムによって、3次元立体画像を生成する。   In the program, calculating the depth information of the subject, generating an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the image data (1a) Generating the side data (7a) based on the pixel of the contour portion of the subject and the pixel of the contour portion of the subject of the ortho image, and 3 of the subject generated based on the depth information Generating reference image data based on the three-dimensional polygon data (6a), identifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data, Adding a label value to generate a label image (9a), and based on the label image (9a), A step of generating side information (11a) used for generating a tea; and the wall surface texture generation unit (12) generates the texture based on the side surface information (11a), and the texture is converted into the three-dimensional polygon. A three-dimensional stereoscopic image is generated by a computer-executable program that includes the step of attaching to the side of the data (6a).

そのプログラムにおいて、予め格納された複数の側面画像データ(13a)から、前記側面情報(11a)に最も類似するデータを最類似データとして選択するステップと、前記最類似データに基づいて生成するステップを具備する方法をコンピュータで実行可能なプログラムによって、3次元立体画像を生成する。   In the program, a step of selecting data most similar to the side information (11a) as the most similar data from a plurality of side image data (13a) stored in advance, and a step of generating based on the most similar data A three-dimensional stereoscopic image is generated by a program capable of executing the provided method by a computer.

そのプログラムにおいて、隣接する画像データ(1a)の各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出するステップと、前記第1画像に対応する第1側面データ(7a)と、前記第2画像に対応する第2側面データ(7a)を生成するステップと、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、前記第1側面データ(7a)と前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データ(7a)と前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成するステップを具備する方法をコンピュータで実行可能なプログラムによって、3次元立体画像を生成する。   In the program, each of adjacent image data (1a) is specified as a first image and a second image, and the depth information is calculated by performing stereo matching processing on the first image and the second image. Generating first side data (7a) corresponding to the first image, second side data (7a) corresponding to the second image, and a first label image corresponding to the first image; Generating a second label image corresponding to the second image, creating first side information based on the first side data (7a) and the first label image, and generating the second side image. Creating the second side information based on the data (7a) and the second label image, and comparing the first side information and the second side information to create the side information; Compu method By a program executable by a data, to generate a three-dimensional stereoscopic images.

連続撮影された複数の画像を電子データ化した画像データ(1a)から、同一の被写体の画像を含む隣り合う画像データ(1a)を読み出すステップと、前記被写体の奥行き方向を構成する面に対応する側面データ(7a)を抽出して出力するステップと、前記側面データ(7a)を使用してテクスチャを生成するステップと、前記テクスチャを前記画像データ(1a)に基づいて生成された3次元ポリゴンデータ(6a)に添付するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。   Corresponding to a step of reading adjacent image data (1a) including an image of the same subject from image data (1a) obtained by converting a plurality of continuously photographed images into electronic data, and a plane constituting the depth direction of the subject Extracting and outputting side data (7a); generating a texture using the side data (7a); and three-dimensional polygon data generated based on the image data (1a). A three-dimensional stereoscopic image is generated by the three-dimensional model creation method including the step attached to (6a).

その3次元モデル作成方法において、前記被写体の奥行き情報を算出するステップと、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成するステップと、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成するステップと、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成するステップと、前記側面データ(7a)と前記ラベル画像(9a)とに基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成するステップと、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。   In the three-dimensional model creation method, calculating the depth information of the subject, generating an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the image Generating the side data (7a) based on the pixel of the contour portion of the subject of the data (1a) and the pixel of the contour portion of the subject of the ortho image, and generated based on the depth information Generating reference image data based on the three-dimensional polygon data (6a) of the subject; identifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data; A step of generating a label image (9a) by adding individual label values to the pixels, the side data (7a) and the label Generating the side information (11a) used for generating the texture based on the image (9a), generating the texture based on the side information (11a), and converting the texture into the three-dimensional polygon A three-dimensional stereoscopic image is generated by a three-dimensional model creation method including the step of attaching to the side of the data (6a).

その3次元モデル作成方法において、前記被写体の奥行き情報を算出するステップと、前記画像データ(1a)と前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、前記画像データ(1a)の前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データ(7a)を生成するステップと、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータ(6a)に基づいて基準画像データを生成するステップと、前記基準画像データにおいて前記3次元ポリゴンデータ(6a)の側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像(9a)を生成するステップと、前記ラベル画像(9a)に基づいて、前記テクスチャの生成に使用される側面情報(11a)を生成するステップと、前記壁面テクスチャ生成部(12)は、前記側面情報(11a)に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータ(6a)の側面に添付するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。   In the three-dimensional model creation method, calculating the depth information of the subject, generating an ortho image that is an orthographic image of the subject based on the image data (1a) and the depth information, and the image Generating the side data (7a) based on the pixel of the contour portion of the subject of the data (1a) and the pixel of the contour portion of the subject of the ortho image, and generated based on the depth information Generating reference image data based on the three-dimensional polygon data (6a) of the subject; identifying a side region corresponding to the side surface of the three-dimensional polygon data (6a) in the reference image data; Generating a label image (9a) by adding individual label values to the pixels, and based on the label image (9a) The step of generating side surface information (11a) used for generating the texture, and the wall surface texture generation unit (12) generate the texture based on the side surface information (11a), and the texture is the three-dimensional A three-dimensional stereoscopic image is generated by a three-dimensional model creation method including the step of attaching to the side of the polygon data (6a).

その3次元モデル作成方法において、予め格納された複数の側面画像データ(13a)から、前記側面情報(11a)に最も類似するデータを最類似データとして選択するステップと、前記最類似データに基づいて生成するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。   In the three-dimensional model creation method, a step of selecting data most similar to the side information (11a) as the most similar data from a plurality of side image data (13a) stored in advance, and based on the most similar data A three-dimensional stereoscopic image is generated by a three-dimensional model creation method including a generating step.

その3次元モデル作成方法において、隣接する画像データ(1a)の各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出するステップと、前記第1画像に対応する第1側面データ(7a)と、前記第2画像に対応する第2側面データ(7a)を生成するステップと、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、前記第1側面データ(7a)と前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データ(7a)と前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成するステップを具備する3次元モデル作成方法によって、3次元立体画像を生成する。   In the three-dimensional model creation method, each of adjacent image data (1a) is specified as a first image and a second image, and the depth information is obtained by performing stereo matching processing on the first image and the second image. A first side data (7a) corresponding to the first image, a second side data (7a) corresponding to the second image, and a first side corresponding to the first image. Based on the step of generating one label image and a second label image corresponding to the second image, the first side data (7a) and the first label image, first side information is created, Based on the second side data (7a) and the second label image, second side information is created, and the first side information is compared with the second side information to create the side information. Tertiary with steps The modeling method, for generating a 3D stereoscopic image.

その3次元モデル作成装置、プログラムおよび3次元モデル作成方法において、前記連続撮影された複数の画像は、空を飛ぶ飛翔体、特に固定翼または回転翼を備えた航空機に搭載された撮像装置で撮影されたものを使用する。また、前記被写体は、その撮像器で撮影された地上の構造体であり、前記奥行き情報は、その構造体の高さを示す情報である。さらに、前記側面データ(7a)は、前記構造体の壁面の状態、特に色や質感などを示すデータである3次元モデル作成装置、プログラムおよび3次元モデル作成方法によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。   In the three-dimensional model creation device, the program, and the three-dimensional model creation method, the plurality of continuously photographed images are photographed by an imaging device mounted on a flying object flying in the sky, in particular, an aircraft having fixed wings or rotary wings. Use what was done. The subject is a structure on the ground photographed by the imager, and the depth information is information indicating the height of the structure. Further, the side surface data (7a) generates a three-dimensional stereoscopic image by a three-dimensional model creation device, a program, and a three-dimensional model creation method, which are data indicating the state of the wall surface of the structure, particularly color and texture. The three-dimensional stereoscopic image is used for a car navigation screen or the like.

その3次元モデル作成装置、プログラムおよび3次元モデル作成方法において、前記被写体の奥行き方向を構成する面は、前記画像を撮影する光軸方向に平行な面である3次元モデル作成装置、プログラムおよび3次元モデル作成方法によって、3次元立体画像を生成し、その3次元立体画像をカーナビゲーションの画面などに利用する。   In the three-dimensional model creation device, program, and three-dimensional model creation method, the surface constituting the depth direction of the subject is a surface parallel to the optical axis direction for capturing the image, the program, and 3 A three-dimensional stereoscopic image is generated by a three-dimensional model creation method, and the three-dimensional stereoscopic image is used for a car navigation screen or the like.

本発明によると、壁面画像の撮影や切り出しの作業を必要とすることなく、航空写真のみから建物壁面の情報を反映した都市モデルを自動的に生成することができる。   According to the present invention, it is possible to automatically generate a city model reflecting information on a building wall surface from only an aerial photograph, without requiring a wall surface image capturing or clipping operation.

次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。
[第1の実施の形態の構成]
本発明は、2次元画像として、都市を上空から撮影した航空写真を用いた例で説明する。
図2を参照すると、本発明の第1の実施の形態は、航空写真データ格納部1と、ステレオ処理部2と、オルソ化処理部31と、ポリゴン作成部4と、地図データ格納部5と、3次元ポリゴンデータ格納部6と、壁面候補画像格納部7と、ラベル画像生成部8と、ラベル画像格納部9と、壁面領域情報抽出部10と、建物壁面属性格納部11と、壁面テクスチャ生成部12とから構成されている。
Next, the best mode for carrying out the invention will be described in detail with reference to the drawings.
[Configuration of First Embodiment]
The present invention will be described using an example in which an aerial photograph of a city taken from above is used as a two-dimensional image.
Referring to FIG. 2, the first embodiment of the present invention includes an aerial photograph data storage unit 1, a stereo processing unit 2, an orthoprocessing unit 31, a polygon creation unit 4, a map data storage unit 5, 3D polygon data storage unit 6, wall surface candidate image storage unit 7, label image generation unit 8, label image storage unit 9, wall surface area information extraction unit 10, building wall surface attribute storage unit 11, wall surface texture It is comprised from the production | generation part 12. FIG.

航空写真データ格納部1は、情報記憶機能ブロックである。オーバラップを設けて連続撮影された複数の航空写真を格納する。格納される航空写真は、各々が画像データ化された航空写真データ1aとして格納される。以下の説明では航空写真データ格納部1に格納される航空写真データ1aは航空機に搭載された撮影装置によって撮影された航空写真から生成された画像データである場合を例に述べるが、これは本発明の写真を撮影する撮影装置、およびそれを搭載する物体を特定するものではない。   The aerial photograph data storage unit 1 is an information storage function block. A plurality of aerial photographs taken consecutively with an overlap are stored. The stored aerial photographs are stored as aerial photograph data 1a each converted into image data. In the following description, the aerial photograph data 1a stored in the aerial photograph data storage unit 1 is described as an example of image data generated from an aerial photograph taken by a photographing device mounted on an aircraft. It is not intended to specify a photographing apparatus for taking a photograph of the invention and an object on which the photographing apparatus is mounted.

ステレオ処理部2は、航空写真データ格納部1に格納された航空写真データ1aを読み込み、重複領域のステレオマッチングを行って画素単位のDEM(Digital Elevation Model:高さ情報画像)を生成する情報処理機能ブロックである。ステレオマッチング処理とは、異なる視点から撮影した2枚の画像について、同一の画像を撮像している各画像中の対応点を求め、その視差を用いて三角測量の原理によって、対象までの奥行きや形状を求める処理である。使用されるステレオマッチング処理を行うための手法には、一般的な特徴量を求めて対応付けるものや、左右画像の相関を求めるものなど、様々なものが存在するが、本実施の形態におけるステレオマッチング処理に使用される手法に制限は無い。   The stereo processing unit 2 reads the aerial photograph data 1a stored in the aerial photograph data storage unit 1, performs stereo matching of overlapping regions, and generates a DEM (Digital Elevation Model: height information image) in units of pixels. It is a functional block. Stereo matching processing refers to finding the corresponding points in each image capturing the same image for two images taken from different viewpoints, and using the parallax to determine the depth to the target, This is a process for obtaining a shape. There are various methods for performing stereo matching processing, such as a method for obtaining a general feature value to be associated, and a method for obtaining a correlation between left and right images, and the stereo matching in the present embodiment. There is no limit to the technique used for processing.

オルソ化処理部31は、そのステレオ処理部2により生成されたDEMを元に、航空写真データに対してオルソ化処理を実行する情報処理機能ブロックである。ステレオ処理部2により算出されたDEMは、元の航空写真データと共にオルソ化処理部31に与えられる。オルソ化処理部31は、DEMにより各画素の3次元位置が求められるので、これを地面に対して正射影となるよう画素単位に再配置する変換を実行して、DEMおよび航空写真の双方について、航空写真データを画像中の全ての点で鉛直上方から見たように再投影した新たな画像データを生成する。以下、この変換をオルソ化と呼び、オルソ化処理後のDEMをオルソ化DEM、オルソ化処理後の航空写真データをオルソ画像と呼ぶ。   The orthoprocessing unit 31 is an information processing function block that executes the orthosing process on the aerial photograph data based on the DEM generated by the stereo processing unit 2. The DEM calculated by the stereo processing unit 2 is given to the orthoprocessing unit 31 together with the original aerial photograph data. The ortho-processing unit 31 obtains the three-dimensional position of each pixel by DEM. Therefore, the ortho-processing unit 31 performs conversion for rearranging the pixel by pixel so that it is orthogonally projected to the ground. Then, new image data is generated by re-projecting the aerial photograph data as viewed from above at all points in the image. Hereinafter, this conversion is referred to as ortho-rectification, the DEM after the ortho-processing is referred to as ortho-DEM, and the aerial photograph data after the ortho-processing is referred to as ortho-image.

また、オルソ化処理部31は、そのオルソ画像を生成すると共に、オルソ画像において利用されなかった元画像中の領域を壁面候補領域として示す壁面候補データ7aを生成する。ここでいう壁面候補領域とは、オルソ化を行う際に求めた元画像とオルソ画像間との対応関係において、重複するため利用されない元画像の領域のことである。   In addition, the orthorectification processing unit 31 generates the ortho image and generates wall surface candidate data 7a indicating a region in the original image that is not used in the ortho image as a wall surface candidate region. The wall surface candidate area referred to here is an area of the original image that is not used because it overlaps in the correspondence relationship between the original image and the ortho image obtained at the time of performing orthorectification.

壁面候補画像格納部7は、そのオルソ化処理部31により作成された壁面候補データ7aを記憶する情報記憶機能ブロックである。地図データ格納部5は地図データ5aを格納する情報記憶機能ブロックである。ポリゴン作成部4は、そのステレオ処理部2により作成されたDEMと、建物の形状を平面ポリゴンで表している地図データ5aとを重ね合わせ、各建物領域内部のDEMデータの高さを統計処理してポリゴンの高さとすることにより、建物の3次元ポリゴンデータ6aを生成する。3次元ポリゴンデータ格納部6は3次元ポリゴンデータ6aを格納する情報記憶機能ブロックである。   The wall surface candidate image storage unit 7 is an information storage function block that stores the wall surface candidate data 7 a created by the orthoprocessing unit 31. The map data storage unit 5 is an information storage function block that stores map data 5a. The polygon creation unit 4 superimposes the DEM created by the stereo processing unit 2 and the map data 5a representing the shape of the building with a plane polygon, and statistically processes the height of the DEM data inside each building area. The three-dimensional polygon data 6a of the building is generated by setting the height of the polygon. The three-dimensional polygon data storage unit 6 is an information storage function block that stores the three-dimensional polygon data 6a.

ラベル画像生成部8は、3次元ポリゴンデータ6aに対応するラベル画像データ9aを作成する情報処理機能ブロックである。ラベル画像生成部8は、ポリゴン作成部4により作成された建物の3次元ポリゴンデータ6aと、図示しない地形情報を用いて、航空写真に合致する視点で都市モデル画像を描画し、各建物ポリゴンモデルの壁面領域に個別のラベルを記入したラベル画像データ9aを作成し、ラベル画像格納部9に出力する。ラベル画像格納部9はラベル画像生成部8から出力されたラベル画像データ9aを格納する情報記憶機能ブロックである。   The label image generation unit 8 is an information processing function block that creates label image data 9a corresponding to the three-dimensional polygon data 6a. The label image generation unit 8 draws a city model image from a viewpoint that matches the aerial photograph using the three-dimensional polygon data 6a of the building created by the polygon creation unit 4 and terrain information (not shown), and each building polygon model Label image data 9 a in which individual labels are written in the wall surface area of the image data is created and output to the label image storage unit 9. The label image storage unit 9 is an information storage function block that stores the label image data 9 a output from the label image generation unit 8.

壁面領域情報抽出部10は、その壁面候補画像格納部7に記憶された壁面候補データ7aと、そのラベル画像生成部8により作成されたラベル画像データ9aを重畳して、建物毎の壁面領域を確定し、各建物壁面のテクスチャ画像、または代表色などの壁面属性を抽出する情報処理機能ブロックである。壁面領域情報抽出部10はその抽出した壁面属性を壁面属性データ11aとして建物壁面属性格納部11に出力する。ここでいう属性とは、テクスチャ画像、あるいは領域代表色のことである。建物壁面属性格納部11は、その壁面領域情報抽出部10により得られる各建物の代表色、またはテクスチャ画像などの壁面属性である壁面属性データ11aを記憶する情報記憶機能ブロックである。   The wall surface area information extraction unit 10 superimposes the wall surface candidate data 7a stored in the wall surface candidate image storage unit 7 and the label image data 9a created by the label image generation unit 8 to obtain a wall surface area for each building. This is an information processing function block that determines and extracts a texture image of each building wall surface or a wall surface attribute such as a representative color. The wall surface area information extraction unit 10 outputs the extracted wall surface attribute to the building wall surface attribute storage unit 11 as wall surface attribute data 11a. The attribute here is a texture image or a region representative color. The building wall surface attribute storage unit 11 is an information storage function block that stores wall surface attribute data 11a that is a wall surface attribute such as a representative color or a texture image of each building obtained by the wall surface region information extraction unit 10.

壁面テクスチャ生成部12は、建物壁面属性格納部11に含まれる建物壁面属性情報を参照して、そのポリゴン作成部4により作成された3次元ポリゴンデータ6aを加工する情報処理機能ブロックである。具体的には、対応する建物のモデルに対して壁面テクスチャを添付する、あるいは着色するなどの操作を行う。   The wall surface texture generation unit 12 is an information processing function block that processes the 3D polygon data 6 a created by the polygon creation unit 4 with reference to the building wall surface attribute information included in the building wall surface attribute storage unit 11. Specifically, operations such as attaching or coloring a wall texture to the corresponding building model are performed.

[第1の実施の形態の動作]
次に、図3のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
ステップS101において、航空写真データ格納部1に格納される複数の航空写真データ1aから、オーバーラップを設けて撮影された対応する2つの航空写真データ1aがステレオ処理部2に与えられる。ステレオ処理部2は、取得した対応点を元に、撮影位置・方向などの幾何を算出する標定計算を経て、2枚の画像中のすべての対応点が同一走査線上に来るよう変換(平行化)され、DPマッチングにより対応計算を行い、画素単位のDEMを算出する。
[Operation of First Embodiment]
Next, the overall operation of the present embodiment will be described in detail with reference to the flowchart of FIG.
In step S101, two corresponding aerial photograph data 1a photographed with an overlap are provided to the stereo processing unit 2 from a plurality of aerial photograph data 1a stored in the aerial photograph data storage unit 1. The stereo processing unit 2 performs conversion (parallelization) so that all corresponding points in the two images are on the same scanning line through orientation calculation for calculating the geometry such as the shooting position and direction based on the acquired corresponding points. The correspondence calculation is performed by DP matching, and the DEM for each pixel is calculated.

ステップS102において、ステレオ処理部2により算出されたDEMは、元の航空写真データ1aと共にオルソ化処理部31に与えられる。DEMにより各画素の3次元位置が求められるので、これを地面に対して正射影となるよう画素単位に再配置する変換を、DEMおよび航空写真の双方について行う。このオルソ化処理と併せて、オルソ画像において利用されなかった元画像中の領域を壁面候補領域として抽出し、これを示す画像として壁面候補データ7aを生成する壁面候補画像作成処理を行う(ステップS103)。   In step S102, the DEM calculated by the stereo processing unit 2 is given to the orthoprocessing unit 31 together with the original aerial photograph data 1a. Since the three-dimensional position of each pixel is obtained by the DEM, conversion is performed for both the DEM and the aerial photograph so that the pixel is rearranged in units of pixels so as to be orthogonally projected to the ground. In combination with this orthorectification processing, a region in the original image that has not been used in the ortho image is extracted as a wall surface candidate region, and wall surface candidate image creation processing for generating wall surface candidate data 7a as an image indicating this is performed (step S103). ).

DEMが正しく得られている状況でオルソ化を行うと、地面に鉛直な側面を持つ建物については、屋上面が底面と重なる位置に移動し、側面が画像中では見えなくなるように変換される。側面を構成する画素は、建物屋上面の辺上に集中して移動するため、オルソ画像中においては不要なものとなる。このような画素に有意な画素値として例えば1を与え、他の画素に異なる画素値として例えば0を与えて作成した2値画像を生成し、これを壁面候補データ7aとする。生成された壁面候補データ7aは、壁面候補画像格納部7に記憶される。   When orthorectification is performed in a state where the DEM is correctly obtained, a building having a side surface perpendicular to the ground is converted so that the roof surface moves to a position where it overlaps the bottom surface, and the side surface becomes invisible in the image. Since the pixels constituting the side surface move in a concentrated manner on the side of the upper surface of the building, they are unnecessary in the ortho image. For example, a binary image created by giving 1 as a significant pixel value to such a pixel and giving 0 as a different pixel value to another pixel is generated, and this is used as wall surface candidate data 7a. The generated wall surface candidate data 7 a is stored in the wall surface candidate image storage unit 7.

ステップS104において、そのステレオ処理部2により作成されたDEMと、建物の形状を平面ポリゴンで表している地図データ5aを用いて、建物の3次元ポリゴンデータ6aを生成する処理が行われる。具体的には、DEM上に各建物形状を示す平面ポリゴンを重畳し、各建物領域内部のDEMデータから最頻値をとるなどの統計処理を行って各建物の高さとする。この高さを反映させ、平面形状は地図のポリゴンを流用することにより、多角柱として各建物の3次元ポリゴンを生成する。   In step S104, processing for generating three-dimensional polygon data 6a of the building is performed using the DEM created by the stereo processing unit 2 and the map data 5a representing the shape of the building with a plane polygon. Specifically, a plane polygon indicating each building shape is superimposed on the DEM, and statistical processing such as taking a mode value from the DEM data inside each building area is performed to obtain the height of each building. Reflecting this height, the three-dimensional polygon of each building is generated as a polygonal column by diverting the map polygon to the planar shape.

ステップS105において、生成された3次元の建物ポリゴンと、別途用意した周辺地域の地形を示す地形ポリゴンを用いて、航空写真の撮影視点と同視点で各ポリゴンを描画した画像を生成し、各建物ポリゴンの壁面が描画される位置の画素について、個別のラベル値を書き込んだ画像を生成するラベル画像生成処理を行う。この際に用いる地形モデルデータは、建物周辺の形状を示す3次元ポリゴンであり、たとえば国土地理院発行の数値地図50mメッシュ標高などをもとにポリゴン化したものや、レーザプロファイラによる計測データから作成されたものなどを用いることができる。また、航空写真の撮影視点位置情報は、ステレオ処理時に行われる標定処理により決定された値を用いる。   In step S105, using the generated three-dimensional building polygon and a separately prepared terrain polygon indicating the terrain of the surrounding area, an image in which each polygon is drawn from the same viewpoint as the aerial photograph shooting viewpoint is generated. A label image generation process for generating an image in which individual label values are written is performed on the pixel at the position where the polygonal wall surface is drawn. The topographic model data used at this time is a three-dimensional polygon that shows the shape of the surrounding area of the building. For example, the topographic model data is created from polygons based on a 50m mesh elevation published by the Geospatial Information Authority of Japan, or from measurement data obtained by a laser profiler Can be used. In addition, the aerial photography viewpoint position information uses a value determined by the orientation process performed during the stereo process.

ステップS106において、ステップS103で作成された壁面候補データ7aと、ステップS105で作成されたラベル画像データ9aを重ね合わせて、各建物の壁面画素領域を決定し、属性情報を抽出する壁面領域情報抽出処理が行われる。具体的には、ラベル画像中で各建物に対応するラベルを持ち、かつ壁面候補データ7a中で有意な値を持つ領域を、その建物の壁面画素領域として確定し、その領域からテクスチャ生成に有用な属性を取得する。ここでいう属性とは、テクスチャ画像、あるいは領域代表色のことをさし、領域の面積や色分布に応じていずれかあるいは複数の属性を取得して建物壁面属性格納部11に記憶する。   In step S106, the wall surface candidate information 7a created in step S103 and the label image data 9a created in step S105 are overlapped to determine the wall pixel area of each building, and the wall surface area information extraction for extracting attribute information Processing is performed. Specifically, an area having a label corresponding to each building in the label image and having a significant value in the wall surface candidate data 7a is determined as the wall surface pixel area of the building, and is useful for texture generation from the area. The correct attributes. The attribute here refers to a texture image or a region representative color, and any or a plurality of attributes are acquired and stored in the building wall surface attribute storage unit 11 according to the area or color distribution of the region.

ステップS107において、ステップS106で作成され、建物壁面属性格納部11に記憶された壁面属性情報を用いて、3次元ポリゴンデータ6a中の対応する建物ポリゴンデータの加工を行い、実景観に近いポリゴンとする壁面テクスチャ生成処理が行われる。具体的な加工方法は、得られている壁面属性データに応じて選択される。たとえばテクスチャが得られている建物については、航空写真に映らない方向の壁面を含め、テクスチャをポリゴンにそのまま添付する。また属性として代表色のみが得られている建物は、直接建物ポリゴンのマテリアルデータを代表色に応じ変更してポリゴンそのものを着色するか、事前に用意した既定の建物壁面画像を代表色で着色したテクスチャを上記と同様に添付してポリゴンを加工する。   In step S107, the corresponding building polygon data in the three-dimensional polygon data 6a is processed using the wall surface attribute information created in step S106 and stored in the building wall surface attribute storage unit 11, and a polygon close to a real landscape is obtained. A wall texture generation process is performed. A specific processing method is selected according to the obtained wall surface attribute data. For example, for a building with a texture, the texture is directly attached to the polygon, including the wall surface in the direction that is not reflected in the aerial photograph. For buildings that have only representative colors as attributes, either directly change the material data of the building polygons according to the representative color and color the polygons themselves, or color the default building wall image prepared in advance with the representative colors. A polygon is processed by attaching a texture in the same manner as described above.

これにより、航空写真からステレオ処理して得られる画素単位の密なDEMを用いてオルソ化する際に利用されない画素領域と、DEMおよび地図データにより生成した3次元都市モデルを用いて航空写真と同視点のラベル画像により、各建物の壁面領域を特定し、その領域から抽出した壁面属性を用いて建物の3次元ポリゴンデータの壁面を加工するように構成されているため、航空写真中の壁面画像の属性を生かした壁面テクスチャあるいは色を持つ建物の3次元ポリゴンデータを自動的に得ることができ、実景観に近い都市モデルを生成できる。   As a result, a pixel area that is not used for ortho-rectification using a dense DEM in pixel units obtained by stereo processing from an aerial photograph, and a three-dimensional city model generated from the DEM and map data, are the same as the aerial photograph. Because it is configured to specify the wall area of each building from the viewpoint label image and to process the wall surface of the 3D polygon data of the building using the wall attribute extracted from that area, the wall image in the aerial photograph It is possible to automatically obtain 3D polygon data of a building having a wall texture or color that makes use of the above-mentioned attributes, and a city model close to a real landscape can be generated.

以下に、具体的な例を用いて上記の動作を詳細に説明する。図4は、本実施の形態に用いられる航空写真の撮影方法を示す模式図である。図4を参照すると、対象とする都市領域上空から、航空測量に用いる場合と同様の航空写真を撮影する。この際には図4に示されるように、一定高度を保ち、針路、速力一定で飛行しながら連続して撮影を行い、対象領域を含む撮像範囲が全体の60%程度重複した航空写真対を得る。これらが銀塩写真として得られる場合には、同一の解像度でスキャンし画像データとする。   Hereinafter, the above operation will be described in detail using a specific example. FIG. 4 is a schematic diagram showing an aerial photography method used in the present embodiment. Referring to FIG. 4, an aerial photograph similar to that used for aerial survey is taken from above the target urban area. At this time, as shown in FIG. 4, a series of aerial photographs in which the imaging range including the target area is overlapped by about 60% are taken continuously while keeping a constant altitude and flying at a constant course and speed. obtain. When these are obtained as silver salt photographs, they are scanned at the same resolution to obtain image data.

得られた航空写真画像対に対して、航空写真の撮影角度を決定する標定処理に必要な対応点の座標を取得する。具体的には、左右の画像における重複領域において、同一の物体が存在する点の組を6組選択してそれぞれの画像における座標値を取得する。これらの座標対はたとえば重複領域の4隅や端など、できるだけ分散して取得するのが望ましい。また、これらの点のうち4組については、たとえば東京測地系で経緯度座標を表示できる地図ソフトウェアを用いるなどして、対応する地点における経緯度値を取得し記憶する。   For the obtained aerial photograph image pair, the coordinates of corresponding points necessary for the orientation processing for determining the shooting angle of the aerial photograph are acquired. Specifically, in the overlapping areas in the left and right images, six sets of points where the same object exists are selected, and coordinate values in the respective images are acquired. It is desirable to obtain these coordinate pairs as dispersedly as possible, for example, at the four corners and edges of the overlapping area. For these four points, the latitude and longitude values at the corresponding points are acquired and stored using, for example, map software capable of displaying longitude and latitude coordinates in the Tokyo geodetic system.

これらの標定点情報を元に、航空測量と同様の標定計算を行うことにより、標定情報、すなわち航空写真対の撮影視点位置、および撮影視点間のベクトルや、地上座標系に対する撮影軸の方向などの幾何的な数値を求めることが可能である。この標定計算方法については特に制限はない。   By using the orientation calculation similar to the aerial survey based on these orientation point information, orientation information, that is, the shooting viewpoint position of the aerial photograph pair, the vector between the shooting viewpoints, the direction of the shooting axis with respect to the ground coordinate system, etc. Can be obtained. There are no particular restrictions on this orientation calculation method.

得られた撮影位置関係を用いて、航空写真対を任意の対応点対が同一走査線上に位置するよう変換する。この操作は平行化と呼ばれ、視点間のベクトルに平行な共有面を考えて、その面に元の航空写真対を射影変換するなどして適用される。平行化の方法はこれに限定されるものではなく、たとえば画像中の各点についてエピポーラ線を求め、これを画素単位で平行になるよう再配置を行っても良い。   Using the obtained photographing position relationship, the aerial photograph pair is converted so that an arbitrary pair of corresponding points is located on the same scanning line. This operation is called parallelization, and is applied by considering the common plane parallel to the vector between the viewpoints and projecting the original aerial photograph pair to that plane. The method of parallelization is not limited to this, and for example, epipolar lines may be obtained for each point in the image, and rearrangement may be performed so that these are parallel in pixel units.

平行化された画像対は、対応探索を同一走査線上の1次元に限定することができるので、走査線単位のステレオマッチングを適用できる。マッチングの際に用いる手法についても制限はないが、たとえばDP(Dynamic Programming:動的計画法)を用いれば、左右の画像の走査線毎に画素単位の対応を画像対の間で求めることができる。このDPマッチングにより画素単位で定められた視差を用いて、3次元空間内における各点の位置を算出し、地表面に平行な画像として再配置して画素単位のDEM(Digital Elevation Model)を生成する。   Since the parallel image pair can limit the correspondence search to one dimension on the same scanning line, stereo matching in units of scanning lines can be applied. Although there is no restriction on the method used for matching, for example, if DP (Dynamic Programming) is used, a pixel unit correspondence can be obtained between image pairs for each scanning line of the left and right images. . The position of each point in the three-dimensional space is calculated using the parallax determined for each pixel by this DP matching, and rearranged as an image parallel to the ground surface to generate a DEM (Digital Elevation Model) for each pixel To do.

この画素単位のDEMにより、元の航空写真における各画素の3次元位置を得ることができるので、各画素を地面に対して正射影になるよう再配置を行うことができる。この変換はオルソ化と呼ばれる操作であり、オルソ化処理後の航空写真はオルソ画像と呼ぶ。
航空写真は単一の視点から撮影された中心投影の画像であるため、撮影された建物はカメラ中心から遠ざかるように倒れこんで撮影されており、地図との重ね合わせなどの応用ができない。上記のようなオルソ化処理を画素単位で行うことで、地図と重畳することのできる画像が生成でき、地面や建物屋上のテクスチャを得るなどのコンピュータグラフィックス用途にも利用可能である。
Since this pixel-based DEM can obtain the three-dimensional position of each pixel in the original aerial photograph, it can be rearranged so that each pixel is orthogonally projected with respect to the ground. This conversion is an operation called orthorectification, and the aerial photograph after orthorectification processing is called an ortho image.
Since an aerial photograph is an image of a central projection taken from a single viewpoint, the photographed building is taken down so as to move away from the center of the camera, and application such as overlaying with a map is not possible. By performing the above-mentioned orthorectification processing in units of pixels, an image that can be superimposed on a map can be generated, and the present invention can be used for computer graphics applications such as obtaining textures on the ground or a building roof.

DEMが正しく得られている状況で、画素単位のオルソ化処理を行う際に、元画像中で地面に鉛直な建物壁面が撮像されている画素は、図5に示すように、建物の輪郭部に重複して写像されるため、ほとんどの画素はオルソ画像で使用されないこととなる。こうしたオルソ化の際に重複のため写像されない画素を壁面候補とみなし、オルソ化時に検出して、壁面候補画素に有意な画素値としてたとえば1を、それ以外の画素にたとえば0を与えるなどして2値画像を作成し記憶する。この元画像に準拠して作成される2値画像を、壁面候補データ7aと呼ぶ。   In the situation where the DEM is correctly obtained, when performing the orthorectification processing in units of pixels, the pixels in which the building wall surface vertical to the ground is imaged in the original image are as shown in FIG. Therefore, most of the pixels are not used in the ortho image. Pixels that are not mapped due to duplication during such ortho-conversion are regarded as wall surface candidates, detected during ortho-rectification, and for example, 1 is assigned as a significant pixel value to the wall surface candidate pixels, and 0 is assigned to other pixels, for example. Create and store a binary image. A binary image created based on this original image is referred to as wall surface candidate data 7a.

また、画素単位で得られたDEMそのものも、地上面に対して正射影に配置されており、地図データとの重ねあわせることができる。このため、建物の形状を平面ポリゴンデータとして持つベクトル地図データと重畳し、各領域内部のDEM値を用いてそれぞれの建物の高さを得ることが可能である。具体的には、DEM上に各建物形状を示す平面ポリゴンを重畳し、各建物領域内部のDEMデータについて、たとえば最頻値を求めるなどの統計処理を行い、各建物の高さとする。この高さを地図データの平面形状を底面とする多角柱の高さとして、各建物の3次元ポリゴンを生成することができる。   Also, the DEM itself obtained in pixel units is arranged in an orthogonal projection with respect to the ground surface, and can be overlaid with the map data. For this reason, it is possible to superimpose the shape of the building on the vector map data having planar polygon data, and obtain the height of each building using the DEM value inside each area. Specifically, a plane polygon indicating each building shape is superimposed on the DEM, and statistical processing such as obtaining a mode value is performed on the DEM data inside each building area, for example, to obtain the height of each building. By using this height as the height of a polygonal column having the planar shape of the map data as the bottom surface, a three-dimensional polygon of each building can be generated.

この各建物のポリゴンと併せて、周辺地域の地形を示すポリゴンデータを用いることで、都市を3次元ポリゴンで表現したモデルを生成できる。この際に用いる地形モデルデータは、建物周辺の形状を示す3次元ポリゴンであり、たとえば国土地理院発行の数値地図50mメッシュ標高などの地形を表す数値データを元に、座標の得られている点を順次接続して3角形パッチをつくり、地形ポリゴン化したものを用いることができる。上記のDEMと地図データから、都市モデルデータを作成するまでの処理の模式図を図6に示す。
これらの都市モデルデータを元に、航空写真の撮影視点と同視点で各ポリゴンを描画した画像を生成し、各建物ポリゴンの壁面が描画される位置の画素について、建物毎に異なる個別のラベル値を書き込んだ画像を生成する。これをラベル画像と呼ぶ。このときの航空写真の撮影視点位置情報は、ステレオ処理時に行われる標定処理により決定された値を用いる。
By using polygon data indicating the topography of the surrounding area together with the polygons of each building, a model expressing a city with a three-dimensional polygon can be generated. The terrain model data used in this case is a three-dimensional polygon indicating the shape of the surrounding area of the building. For example, the coordinates are obtained based on numerical data representing the terrain such as a numerical map 50 m mesh elevation published by the Geospatial Information Authority of Japan. Can be connected in order to create a triangular patch and convert it into a terrain polygon. FIG. 6 shows a schematic diagram of processing from the above DEM and map data to creation of city model data.
Based on these city model data, an image in which each polygon is drawn from the same viewpoint as the aerial photography viewpoint is generated, and the individual label values that differ for each building for the pixel at the position where the wall of each building polygon is drawn The image which wrote is generated. This is called a label image. As the aerial photograph photographing viewpoint position information at this time, a value determined by the orientation process performed during the stereo process is used.

このラベル画像と、既に作成済みの壁面候補データ7aを、図7に示すように重畳し、ラベル画像中で個別の建物に対応付けられた画素を持ち、かつ壁面候補データ7aで有意な値を持つ画素が存在する領域を、各建物の壁面画素領域として確定する。その領域に対応する元の航空写真の画素について解析を行い、テクスチャ画像や領域代表色などのテクスチャ生成に有用な属性を取得する。解析手段やその選択規則について制限はないが、たとえば所定の画素数以上の壁面画素領域が得られた場合には、壁面領域全体を矩形に変換して適宜補間しテクスチャ画像とし、壁面画素領域が所定の画素数を超えない場合には、領域内画素の画素値分布を調べて平均値を算出し領域代表色とするという構成とすることができる。また、複数の解析手段により複数の画素属性を取得してもよい。こうした方法で得られた各建物の壁面領域情報は、それぞれの建物と対応付けられる形で建物壁面属性格納部11に記憶される。   As shown in FIG. 7, this label image and the already created wall surface candidate data 7a are superimposed, have pixels associated with individual buildings in the label image, and have a significant value in the wall surface candidate data 7a. The area where the pixels are present is determined as the wall surface pixel area of each building. The original aerial photograph pixels corresponding to the area are analyzed, and attributes useful for texture generation such as texture images and area representative colors are acquired. There is no restriction on the analysis means and its selection rule. For example, when a wall surface pixel area having a predetermined number of pixels or more is obtained, the entire wall surface area is converted into a rectangle and appropriately interpolated to obtain a texture image. When the predetermined number of pixels is not exceeded, the pixel value distribution of the pixels in the area is examined, the average value is calculated, and the area representative color can be obtained. A plurality of pixel attributes may be acquired by a plurality of analysis means. The wall surface area information of each building obtained by such a method is stored in the building wall surface attribute storage unit 11 in a form associated with each building.

最後に、上記の方法で得られた壁面属性情報に従って、作成した建物ポリゴンを加工し、実景観に近いデータとする処理が行われる。具体的な加工方法については、得られている壁面属性データに依存して選択されるが、たとえばテクスチャ画像が得られている建物の場合には、航空写真に映らない方向の壁面を含めて、テクスチャを当該ポリゴンの壁面にそのまま添付する。またテクスチャ画像が得られておらず、代表色のみが得られている建物に対しては、直接建物ポリゴンの材質を示すマテリアルデータを代表色に応じ変更してポリゴンそのものを着色するか、あるいは事前に用意した既定の建物壁面画像を代表色で着色してテクスチャ画像を作成し、建物壁面に添付するなどの方法でポリゴンデータを加工する。これによって航空写真のみから建物壁面の情報を反映した都市モデルを自動的に生成することができる。   Finally, according to the wall surface attribute information obtained by the above method, the created building polygon is processed to obtain data close to the actual landscape. The specific processing method is selected depending on the acquired wall surface attribute data. For example, in the case of a building where a texture image is obtained, including the wall surface in the direction that does not appear in the aerial photograph, Attach the texture to the polygon wall as it is. For buildings where texture images are not obtained and only representative colors are obtained, the material data indicating the material of the building polygons is directly changed according to the representative color and the polygons themselves are colored, or in advance Polygon data is processed by a method of creating a texture image by coloring the default building wall image prepared in step 1 with a representative color and attaching it to the building wall surface. This makes it possible to automatically generate a city model that reflects building wall information from only aerial photographs.

[第2の実施の形態の構成]
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。図8は本発明の第2の実施の形態の構成を示すブロック図である。図8を参照すると、第2の実施の形態の構成は、第1の実施の形態と同様の構成に、標準壁面画像格納部13を追加した構成である。標準壁面画像格納部13は、高層ビル、オフィスビル、マンション、個別の住宅などに対応する複数の種類の標準壁面テクスチャ画像を、各々の標準壁面テクスチャ画像に対応するIDと共に、あらかじめ記憶しておく情報記憶機能ブロックである。
[Configuration of Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 8 is a block diagram showing the configuration of the second exemplary embodiment of the present invention. Referring to FIG. 8, the configuration of the second embodiment is a configuration in which a standard wall surface image storage unit 13 is added to the same configuration as that of the first embodiment. The standard wall surface image storage unit 13 stores in advance a plurality of types of standard wall surface texture images corresponding to high-rise buildings, office buildings, condominiums, individual houses, and the like together with IDs corresponding to the respective standard wall surface texture images. It is an information storage function block.

壁面領域情報抽出部14は、第1の実施の形態の場合と同様に、壁面候補画像格納部7に記憶された壁面候補データ7aと、ラベル画像データ9aとを重畳して、建物毎の壁面領域を確定し、各領域の代表色を決定すると共に、各壁面領域と、その標準壁面画像格納部13に記憶された標準壁面テクスチャ画像とを比較し、各壁面領域にもっとも類似する標準壁面テクスチャ画像を決定する。決定したテクスチャ画像のIDは、各領域の代表色と併せて、それぞれの建物の属性として建物壁面属性格納部11に記憶する。建物壁面属性格納部11は、その壁面領域情報抽出部14により得られた各建物の属性情報、すなわち代表色と、最も類似する標準壁面テクスチャ画像のIDを記憶する。   Similar to the case of the first embodiment, the wall surface area information extraction unit 14 superimposes the wall surface candidate data 7a stored in the wall surface candidate image storage unit 7 and the label image data 9a, and creates a wall surface for each building. The area is determined, the representative color of each area is determined, each wall area is compared with the standard wall texture image stored in the standard wall image storage unit 13, and the standard wall texture most similar to each wall area is determined. Determine the image. The determined texture image ID is stored in the building wall surface attribute storage unit 11 as an attribute of each building together with the representative color of each region. The building wall surface attribute storage unit 11 stores the attribute information of each building obtained by the wall surface region information extraction unit 14, that is, the ID of the standard wall surface texture image most similar to the representative color.

壁面テクスチャ生成部12は、その壁面領域情報抽出部10により決定された標準壁面テクスチャ画像のIDから、標準壁面テクスチャ画像を、同じく壁面領域情報抽出部14により決定された各領域の代表色により着色して、3次元ポリゴンデータ6aにおける当該建物の3次元ポリゴン壁面に添付する。その他の本発明の第2の発明を実施するための最良の形態における各機能ブロックは、第1の実施の形態において対応する各機能ブロックと同様の動作をする。   The wall surface texture generation unit 12 colors the standard wall surface texture image with the representative color of each region determined by the wall surface region information extraction unit 14 from the ID of the standard wall surface texture image determined by the wall surface region information extraction unit 10. Then, it is attached to the 3D polygon wall surface of the building in the 3D polygon data 6a. The other functional blocks in the best mode for carrying out the second invention of the present invention operate in the same manner as the corresponding functional blocks in the first embodiment.

[第2の実施の形態の動作]
次に、図9のフローチャートを参照して第2の実施の形態の動作について詳細に説明する。
ステップS201からステップS205までの処理は、第1の実施の形態におけるステップS101からステップS105と同様であるため説明を省略する。
[Operation of Second Embodiment]
Next, the operation of the second embodiment will be described in detail with reference to the flowchart of FIG.
Since the processing from step S201 to step S205 is the same as that from step S101 to step S105 in the first embodiment, a description thereof will be omitted.

ステップS205に引き続き、壁面候補データ7aと、ラベル画像データ9aを重ね合わせて、各建物の壁面画素領域を決定し、属性情報を抽出する壁面領域情報抽出処理が行われる(ステップS206)。ステップS206において、壁面領域情報抽出部14は、全ての建物について領域代表色の属性を必ず抽出する処理を行う。抽出された代表色属性は、建物壁面属性格納部11に記憶される。   Subsequent to step S205, the wall surface candidate information 7a and the label image data 9a are overlapped to determine the wall surface pixel area of each building, and wall surface area information extraction processing for extracting attribute information is performed (step S206). In step S <b> 206, the wall surface area information extraction unit 14 performs a process of necessarily extracting the area representative color attributes for all buildings. The extracted representative color attribute is stored in the building wall surface attribute storage unit 11.

ステップS207において、そのステップS206で対応付けられた各建物の壁面画素領域と、標準壁面画像格納部13にあらかじめ記憶された標準壁面テクスチャ画像群との比較を行い、当該壁面領域に最も類似すると思われる標準壁面テクスチャ画像を決定する標準壁面画像比較処理が行われる。標準壁面画像格納部13に含まれる標準壁面テクスチャ画像は、高層ビル、数階程度のオフィスビル、マンション、個別の住宅などの種別毎に1つないし複数の画像が存在し、それぞれに一意のIDと対応付けられてあらかじめ記憶されている。これらの各画像と、矩形に変換した壁面画素領域を、テクスチャ解析を行って比較し、もっとも類似すると思われる標準壁面テクスチャ画像のIDを、当該建物に対応するものとして建物壁面属性格納部11に記憶する。この際に用いるテクスチャ解析手法には特に制限はなく、たとえば濃淡ヒストグラムから求められる平均や分散などの統計量がもっとも近い標準壁面テクスチャ画像を選択するなどの手法を用いて良い。   In step S207, the wall surface pixel region of each building associated in step S206 is compared with the standard wall surface texture image group stored in advance in the standard wall surface image storage unit 13, and is considered to be most similar to the wall surface region. A standard wall surface image comparison process for determining a standard wall surface texture image to be performed is performed. The standard wall surface texture image included in the standard wall surface image storage unit 13 has one or more images for each type such as a high-rise building, an office building of several floors, a condominium, and an individual house, and each has a unique ID. And stored in advance. Each of these images and the wall surface pixel region converted into a rectangle are compared by performing texture analysis, and the ID of the standard wall surface texture image that seems to be the most similar is stored in the building wall surface attribute storage unit 11 as corresponding to the building. Remember. The texture analysis method used at this time is not particularly limited, and for example, a method of selecting a standard wall texture image having the closest statistics such as average and variance obtained from the density histogram may be used.

ステップS208において、ステップS206およびステップS207で作成され、建物壁面属性格納部11に記憶された壁面属性情報を用いて、3次元ポリゴンデータ6a中の対応する建物ポリゴンデータの加工を行い、実景観に近いポリゴンとする壁面テクスチャ生成処理が行われる。具体的には、各領域に最も近い標準壁面テクスチャ画像における代表色に近い値を持つ画素を、壁面属性における代表色に置換したテクスチャ画像を生成し、当該建物の3次元ポリゴンに、航空写真に映らない方向の壁面を含めて添付する。   In step S208, the corresponding building polygon data in the three-dimensional polygon data 6a is processed using the wall surface attribute information created in step S206 and step S207 and stored in the building wall surface attribute storage unit 11 to obtain a real landscape. The wall surface texture generation process for making a near polygon is performed. Specifically, a texture image in which a pixel having a value close to the representative color in the standard wall texture image closest to each region is replaced with a representative color in the wall attribute is generated, and the three-dimensional polygon of the building is converted into an aerial photograph. Attach the wall surface in the direction not shown.

これによって、あらかじめ容易した標準壁面画像を、航空画像の壁面領域から得られる代表色属性により着色して、建物ポリゴンに壁面テクスチャとして添付するよう構成されているため、壁面領域がテクスチャの生成に十分な解像度を持たない場合でも、各建物ポリゴンに違和感を与えない十分な解像度のテクスチャを実景観に応じて添付することができ、より自然な都市景観モデルを作成できる。   As a result, the standard wall image facilitated in advance is colored with the representative color attribute obtained from the wall area of the aerial image and attached to the building polygon as a wall texture, so the wall area is sufficient for texture generation. Even if it does not have a good resolution, it is possible to attach a texture of sufficient resolution that does not give a sense of incongruity to each building polygon according to the actual landscape, and a more natural cityscape model can be created.

[第3の実施の形態の構成]
次に、本発明の第3の実施の形態について図面を参照して詳細に説明する。図10は本発明の第3の実施の形態の構成を示すブロック図である。図10を参照すると、本発明の第3の実施の形態は、本発明の第1の発明を実施するための形態とほぼ同様の構成であるが、一部の構成要素が第1の実施の形態と異なる動作をする。
[Configuration of Third Embodiment]
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. FIG. 10 is a block diagram showing the configuration of the third exemplary embodiment of the present invention. Referring to FIG. 10, the third embodiment of the present invention has substantially the same configuration as the mode for carrying out the first invention of the present invention, but some components are the same as those of the first embodiment. It operates differently from the form.

オルソ化処理部32は、そのステレオ処理部2により生成されたDEMを元に、航空写真データに対してオルソ化処理を実行する情報処理機能ブロックである。ステレオ処理部2により算出されたDEMは、元の航空写真データと共にオルソ化処理部32に与えられる。オルソ化処理部32は、DEMにより各画素の3次元位置が求められるので、これを地面に対して正射影となるよう画素単位に再配置する変換を実行して、DEMおよび航空写真の双方について、航空写真データを画像中の全ての点で鉛直上方から見たように再投影した新たな画像データを生成する。以下、この変換をオルソ化と呼び、オルソ化処理後のDEMをオルソ化DEM、オルソ化処理後の航空写真データをオルソ画像と呼ぶ。   The orthoprocessing unit 32 is an information processing function block that executes the orthosing process on the aerial photograph data based on the DEM generated by the stereo processing unit 2. The DEM calculated by the stereo processing unit 2 is given to the orthoprocessing unit 32 together with the original aerial photograph data. Since the three-dimensional position of each pixel is obtained by the DEM, the orthorectification processing unit 32 executes conversion for rearranging the pixel by pixel so that it is an orthogonal projection with respect to the ground, and for both the DEM and the aerial photograph. Then, new image data is generated by re-projecting the aerial photograph data as viewed from above at all points in the image. Hereinafter, this conversion is referred to as ortho-rectification, the DEM after the ortho-processing is referred to as ortho-DEM, and the aerial photograph data after the ortho-processing is referred to as ortho-image.

また、オルソ化処理部32は、そのオルソ画像を生成すると共に、オルソ画像において利用されなかった元画像中の領域を壁面候補領域として示す壁面候補データ7aをステレオ処理された左右の元画像それぞれについて生成する。ここでいう壁面候補領域とは、オルソ化を行う際に求めた元画像とオルソ画像間の対応関係を元に、重複するため利用されない元画像の領域のことである。   Further, the orthorectification processing unit 32 generates the ortho image, and for each of the left and right original images obtained by stereo processing the wall surface candidate data 7a indicating the area in the original image that is not used in the ortho image as the wall surface candidate area. Generate. The wall surface candidate area referred to here is an area of the original image that is not used because it overlaps based on the correspondence between the original image and the ortho image that are obtained when performing the orthorectification.

ラベル画像生成部33は、3次元ポリゴンデータ6aに対応するラベル画像データ9aを作成する情報処理機能ブロックである。ラベル画像生成部33は、ポリゴン作成部4により作成された建物の3次元ポリゴンデータ6aと、図示しない地形情報を用いて、航空写真に合致する視点で都市モデル画像を描画し、各建物ポリゴンモデルの壁面領域に個別のラベルを記入したラベル画像データ9aを、左右の航空写真それぞれについて作成する。   The label image generation unit 33 is an information processing function block that creates label image data 9a corresponding to the three-dimensional polygon data 6a. The label image generation unit 33 draws a city model image from a viewpoint that matches the aerial photograph using the three-dimensional polygon data 6a of the building created by the polygon creation unit 4 and the terrain information (not shown), and each building polygon model The label image data 9a in which individual labels are written on the wall surface area is created for each of the left and right aerial photographs.

壁面領域情報抽出部34は、壁面候補画像格納部7に記憶された壁面候補データ7aと、そのラベル画像生成部33により作成されたラベル画像データ9aを重畳して、左右の画像それぞれにおける建物毎の壁面領域を確定し、さらに左右の壁面領域を比較し、より壁面属性情報を含む領域を選択して、各建物壁面のテクスチャ画像、または代表色などの壁面属性を抽出して建物壁面属性格納部11に記憶する。その他の本発明の実施の形態における各機能ブロックは、第1の実施の形態において対応する各機能ブロックと同様の動作をする。   The wall surface area information extraction unit 34 superimposes the wall surface candidate data 7a stored in the wall surface candidate image storage unit 7 and the label image data 9a created by the label image generation unit 33, so that each building in each of the left and right images The wall surface area of the building is confirmed, the left and right wall surface areas are compared, the area including the wall surface attribute information is further selected, and the wall surface attribute such as the texture image of each building wall surface or the representative color is extracted to store the building wall surface attribute Store in unit 11. The other functional blocks in the other embodiments of the present invention operate in the same manner as the corresponding functional blocks in the first embodiment.

[第3の実施の形態の動作]
次に、図11のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
ステップS301およびステップS302の処理は、第1の実施の形態におけるステップS101およびステップS102と同様であるため詳細な説明は省略する。
[Operation of Third Embodiment]
Next, the overall operation of the present embodiment will be described in detail with reference to the flowchart of FIG.
Since the processing of step S301 and step S302 is the same as that of step S101 and step S102 in the first embodiment, detailed description thereof is omitted.

ステップS302のオルソ化処理と併せて、オルソ画像において利用されなかった元画像中の領域を壁面候補領域として抽出し、これを示す画像として壁面候補データ7aを生成する壁面候補画像作成処理を、ステレオ処理された左右の元画像それぞれに行う(ステップS303)。この処理により、左画像の壁面候補データ7aと、右画像の壁面候補データ7aがそれぞれ作成される。これらの壁面候補データ7aは全て壁面候補画像格納部7に記憶される。   Along with the orthorectification process in step S302, a wall surface candidate image creation process for extracting the area in the original image that has not been used in the ortho image as a wall surface candidate area and generating the wall surface candidate data 7a as an image indicating this is performed in stereo. The processing is performed on each of the processed left and right original images (step S303). By this processing, the left image wall surface candidate data 7a and the right image wall surface candidate data 7a are respectively created. These wall surface candidate data 7 a are all stored in the wall surface candidate image storage unit 7.

ステップS304におけるポリゴン作成処理は、第1の実施の形態におけるステップS104と同様に、ステレオ処理部2により作成されたDEMと、建物の形状を平面ポリゴンで表している地図データ5aを用いて、建物の3次元ポリゴンデータ6aを生成する処理が行われる。具体的には、DEM上に各建物形状を示す平面ポリゴンを重畳し、各建物領域内部のDEMデータから最頻値をとるなどの統計処理を行って各建物の高さとする。この高さを反映させ、平面形状は地図のポリゴンを流用することにより、多角柱として各建物の3次元ポリゴンを生成する。   As in step S104 in the first embodiment, the polygon creation process in step S304 uses the DEM created by the stereo processing unit 2 and the map data 5a representing the shape of the building as a planar polygon. Processing for generating the three-dimensional polygon data 6a is performed. Specifically, a plane polygon indicating each building shape is superimposed on the DEM, and statistical processing such as taking a mode value from the DEM data inside each building area is performed to obtain the height of each building. Reflecting this height, the three-dimensional polygon of each building is generated as a polygonal column by diverting the map polygon to the planar shape.

ステップS305において、ステップS304で生成された3次元の建物ポリゴンと、別途用意した周辺地域の地形を示す地形ポリゴンを用いて、左右の各元画像の撮影視点と同視点で各ポリゴンを描画した画像を生成し、各建物ポリゴンの壁面が描画される位置の画素について、個別のラベル値を書き込んだ画像を生成するラベル画像生成処理を行う。この際に用いる地形モデルデータは、第1の実施形態と同様に、建物周辺の形状を示す3次元ポリゴンであり、たとえば国土地理院発行の数値地図50mメッシュ標高などをもとにポリゴン化したものや、レーザプロファイラによる計測データから作成されたものなどを用いることができる。また、航空写真の撮影視点位置情報は、ステレオ処理時に行われる標定処理により決定された値を用いる。このラベル画像生成処理により、左画像のラベル画像と、右画像のラベル画像が作成される。   In step S305, using the three-dimensional building polygon generated in step S304 and the separately prepared terrain polygon indicating the terrain of the surrounding area, an image in which each polygon is drawn at the same viewpoint as the shooting viewpoints of the left and right original images And a label image generation process for generating an image in which individual label values are written for the pixel at the position where the wall surface of each building polygon is drawn. The topographic model data used in this case is a three-dimensional polygon indicating the shape of the surrounding area of the building, as in the first embodiment, for example, a polygon based on a numerical map 50 m mesh elevation issued by the Geospatial Information Authority of Japan. Alternatively, those created from measurement data obtained by a laser profiler can be used. In addition, the aerial photography viewpoint position information uses a value determined by the orientation process performed during the stereo process. By this label image generation process, a label image of the left image and a label image of the right image are created.

ステップS306において、ステップS303で作成された左右の壁面候補データ7aと、ステップS305で作成された左右のラベル画像データ9aを重ね合わせて、各建物の壁面画素領域を決定し、左右の壁面画素領域から属性情報を多く含む方を選択する壁面領域選択処理を実行する。ステップS307において、属性情報を抽出する壁面領域情報抽出処理が行われる。具体的には、第1の実施形態と同様の方法により、左右の航空写真に対応する壁面候補データ7aとラベル画像から、左右それぞれの航空写真における、各建物の壁面画素領域を得る。さらに同一建物についての左右画像中の壁面画素領域を比較し、壁面属性情報を多く含むと思われるより画素数が多いほうを、当該建物の壁面画素領域として確定する。その領域からテクスチャ生成に有用な属性を、第1の実施形態と同様の方法で取得する。ここでいう属性とは、テクスチャ画像、あるいは領域代表色のことをさし、領域の面積や色分布に応じていずれかあるいは複数の属性を取得して建物壁面属性格納部11に記憶する。   In step S306, the left and right wall surface candidate data 7a created in step S303 and the left and right label image data 9a created in step S305 are overlapped to determine wall pixel areas of each building, and left and right wall pixel areas The wall surface area selection process for selecting the one that contains a lot of attribute information is executed. In step S307, wall surface area information extraction processing for extracting attribute information is performed. Specifically, the wall surface pixel region of each building in the left and right aerial photographs is obtained from the wall surface candidate data 7a corresponding to the left and right aerial photographs and the label image by the same method as in the first embodiment. Further, the wall surface pixel regions in the left and right images for the same building are compared, and the one having a larger number of pixels than that which seems to include more wall surface attribute information is determined as the wall surface pixel region of the building. An attribute useful for texture generation is acquired from the region by the same method as in the first embodiment. The attribute here refers to a texture image or a region representative color, and any or a plurality of attributes are acquired and stored in the building wall surface attribute storage unit 11 according to the area or color distribution of the region.

以後のステップS308の処理は、第1の実施形態におけるステップS307と同様であるため、詳細な説明は省略する。このような構成、動作を行うことにより、左右の元画像それぞれについて、各建物の壁面領域を定める処理を行ったのち、十分な画素数を持つ方を選択して壁面属性情報を抽出するように構成されているため、視点の直下にあるため、航空写真中で壁面が見えないなど、片方の画像において壁面領域が小さく属性抽出が困難な建物についても、他方の画像の情報を利用して壁面領域の属性を抽出し、生成する都市モデルに反映させることができる。   Since the subsequent processing in step S308 is the same as that in step S307 in the first embodiment, detailed description thereof is omitted. By performing such a configuration and operation, the processing for determining the wall area of each building is performed for each of the left and right original images, and then the wall attribute information is extracted by selecting the one having a sufficient number of pixels. Because it is configured, it is directly under the viewpoint and the wall surface is not visible in the aerial photograph. Area attributes can be extracted and reflected in the generated city model.

[第4の実施の形態の構成]
次に、本発明の第4の実施の形態について図面を参照して詳細に説明する。図12を参照すると、本発明の第4の実施の形態は、第1の実施の形態の構成から、壁面候補画像格納部7を除いた構成となっている。
[Configuration of Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described in detail with reference to the drawings. Referring to FIG. 12, the fourth embodiment of the present invention has a configuration in which the wall surface candidate image storage unit 7 is excluded from the configuration of the first embodiment.

オルソ化処理部31は、そのステレオ処理部2により生成されたDEMを元に、航空写真データに対してオルソ化処理を実行する情報処理機能ブロックである。ステレオ処理部2により算出されたDEMは、元の航空写真データと共にオルソ化処理部31に与えられる。オルソ化処理部31は、DEMにより各画素の3次元位置が求められるので、これを地面に対して正射影となるよう画素単位に再配置する変換を実行して、DEMおよび航空写真の双方について、航空写真データを画像中の全ての点で鉛直上方から見たように再投影した新たな画像データを生成する。以下、この変換をオルソ化と呼び、オルソ化処理後のDEMをオルソ化DEM、オルソ化処理後の航空写真データをオルソ画像と呼ぶ。   The orthoprocessing unit 31 is an information processing function block that executes the orthosing process on the aerial photograph data based on the DEM generated by the stereo processing unit 2. The DEM calculated by the stereo processing unit 2 is given to the orthoprocessing unit 31 together with the original aerial photograph data. The ortho-processing unit 31 obtains the three-dimensional position of each pixel by DEM. Therefore, the ortho-processing unit 31 performs conversion for rearranging the pixel unit so that the three-dimensional position is orthogonal to the ground, for both the DEM and the aerial photograph. Then, new image data is generated by re-projecting the aerial photograph data as viewed from above at all points in the image. Hereinafter, this conversion is referred to as ortho-rectification, the DEM after the ortho-processing is referred to as ortho-DEM, and the aerial photograph data after the ortho-processing is referred to as ortho-image.

壁面領域情報抽出部10は、ラベル画像生成部8により作成されたラベル画像データ9aのみから、建物毎の壁面領域を確定し、各建物壁面のテクスチャ画像、または代表色などの壁面属性を抽出して建物壁面属性格納部11に出力する。その他の本発明の第4の実施の形態における各機能ブロックは、第1の実施の形態において対応する各機能ブロックと同様の動作をする。   The wall surface area information extraction unit 10 determines a wall surface area for each building from only the label image data 9a created by the label image generation unit 8, and extracts a wall surface attribute such as a texture image of each building wall or a representative color. To the building wall surface attribute storage unit 11. The other functional blocks in the fourth embodiment of the present invention perform the same operations as the corresponding functional blocks in the first embodiment.

[第4の実施の形態の動作]
次に、図13のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
ステップS401およびステップS402の処理は、第1の実施の形態におけるステップS101およびステップS102と同様であるため詳細な説明は省略する。また、ステップS403およびステップS404の処理についても、第1の実施の形態におけるステップS104およびステップS105と同様であるため詳細な説明は省略する。
[Operation of Fourth Embodiment]
Next, the overall operation of the present embodiment will be described in detail with reference to the flowchart of FIG.
Since the processing of step S401 and step S402 is the same as that of step S101 and step S102 in the first embodiment, detailed description thereof is omitted. Also, the processing in step S403 and step S404 is the same as that in step S104 and step S105 in the first embodiment, and thus detailed description thereof is omitted.

ステップS405において、ステップS404で作成されたラベル画像データ9a中において、各建物の壁面画素領域を決定し、属性情報を抽出する壁面領域情報抽出処理が行われる。具体的には、ラベル画像中で各建物に対応するラベルを持つ領域を、その建物の壁面画素領域として確定し、その領域からテクスチャ生成に有用な属性を取得する。ここでいう属性とは、テクスチャ画像、あるいは領域代表色のことをさし、領域の面積や色分布に応じていずれかあるいは複数の属性を取得して建物壁面属性格納部11に記憶する。   In step S405, wall surface area information extraction processing is performed for determining the wall surface pixel area of each building in the label image data 9a created in step S404 and extracting attribute information. Specifically, an area having a label corresponding to each building in the label image is determined as a wall surface pixel area of the building, and attributes useful for texture generation are acquired from the area. The attribute here refers to a texture image or a region representative color, and any or a plurality of attributes are acquired and stored in the building wall surface attribute storage unit 11 according to the area or color distribution of the region.

ステップS406において、第1の実施の形態におけるステップS107と同様に、建物壁面属性格納部11に記憶された壁面属性情報を用いて、3次元ポリゴンデータ6a中の対応する建物ポリゴンデータの加工を行い、実景観に近いポリゴンとする壁面テクスチャ生成処理が行われる。   In step S406, the corresponding building polygon data in the three-dimensional polygon data 6a is processed using the wall surface attribute information stored in the building wall surface attribute storage unit 11 as in step S107 in the first embodiment. The wall surface texture generation process is performed to make the polygon close to the real landscape.

これによって、建物の3次元ポリゴンデータから作成したラベル画像を用いて航空写真中の壁面領域を特定し、属性を抽出して生成した建物ポリゴンにテクスチャを添付するよう構成しているため、鉛直でない壁面を持ち、オルソ化処理時にオルソ画像中で壁面画素が利用される建物についても、壁面属性を取得することができる。   As a result, the wall surface area in the aerial photograph is specified using the label image created from the three-dimensional polygon data of the building, and the texture is attached to the building polygon generated by extracting the attribute. A wall attribute can also be acquired for a building having a wall surface and using a wall surface pixel in the ortho image during the orthoprocessing.

なお、上記にいくつかの本発明の実施の形態を示したが、本発明の実施の形態はこれらに限定されるものではなく、様々な条件での実施が可能である。例えば対象となる画像は航空写真に限定されるものではなく、たとえば衛星画像に対しても適用が可能である。また、上記にいくつかの本発明の実施の形態は矛盾が発生しない範囲内で組合せて適用が可能である。
また本発明の第3の実施の形態において、左右の画像それぞれについて壁面領域を決定し、どちらかを選択して壁面属性を取得しているが、同一領域を撮影した2組以上の航空写真対を用いて、上記の方法で壁面領域の抽出を行い、ある建物に対し3ないし4つ以上の壁面領域を求め、それらを用いて壁面情報の抽出を行う形態での実施も可能である。
In addition, although several embodiment of this invention was shown above, embodiment of this invention is not limited to these, Implementation on various conditions is possible. For example, the target image is not limited to an aerial photograph, and can be applied to, for example, a satellite image. In addition, some of the embodiments of the present invention described above can be applied in combination within a range where no contradiction occurs.
In the third embodiment of the present invention, the wall surface area is determined for each of the left and right images, and either one is selected to acquire the wall surface attribute. It is also possible to extract the wall surface area using the above method, obtain three to four or more wall surface areas for a certain building, and extract the wall surface information using them.

また、ある建物に対する複数の壁面領域からの情報抽出方法に関しても特に制限はなく、単純に面積が最大のものを選択して属性抽出を行うのみならず、個別に属性を求めた後テクスチャデータの画素分布などを比較してより利用しやすく信頼度の高いものを選択する方法や、そのまま複数の領域に含まれる全画素を用いて代表色などの統計的属性を得る方法を用いて良く、あるいは属性毎に個別の情報抽出方法を選択し、それらを組みあわせて使用することも可能である。   In addition, there is no particular restriction on the method of extracting information from a plurality of wall areas for a building, and not only selecting the attribute with the largest area but also performing attribute extraction, after obtaining the attributes individually, You can use a method that compares the pixel distribution etc. to select a more reliable and more reliable one, or a method that uses all the pixels in multiple areas as they are to obtain statistical attributes such as representative colors, or It is also possible to select individual information extraction methods for each attribute and use them in combination.

図1は、従来の航空写真ステレオ処理による都市モデル生成の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of city model generation by conventional aerial photo stereo processing. 図2は、第1の実施の形態の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the first embodiment. 図3は、第1の実施の形態の動作を示す流れ図である。FIG. 3 is a flowchart showing the operation of the first embodiment. 図4は、本実施の形態に用いられる航空写真の撮影方法を示す模式図である。FIG. 4 is a schematic diagram showing an aerial photography method used in the present embodiment. 図5は、航空写真のオルソ化処理を示す模式図である。FIG. 5 is a schematic diagram showing an aerial photograph orthoprocessing. 図6は、DEMデータと地図データからの都市モデル作成処理を示す模式図である。FIG. 6 is a schematic diagram showing a city model creation process from DEM data and map data. 図7は、壁面候補データ7aとラベル画像による壁面領域決定処理を示す模式図である。FIG. 7 is a schematic diagram showing wall surface area determination processing based on the wall surface candidate data 7a and the label image. 図8は、第2の実施の形態の構成を示すブロック図である。FIG. 8 is a block diagram showing the configuration of the second embodiment. 図9は、第2の実施の形態の動作を示す流れ図である。FIG. 9 is a flowchart showing the operation of the second embodiment. 図10は、第3の実施の形態の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of the third embodiment. 図11は、第3の実施の形態の動作を示す流れ図である。FIG. 11 is a flowchart showing the operation of the third embodiment. 図12は、第4の実施の形態の構成を示すブロック図である。FIG. 12 is a block diagram illustrating the configuration of the fourth embodiment. 図13は、第4の実施の形態の動作を示す流れ図である。FIG. 13 is a flowchart showing the operation of the fourth embodiment.

符号の説明Explanation of symbols

1…航空写真データ格納部、1a…航空写真データ
2…ステレオ処理部
3…オルソ化処理部
4…ポリゴン作成部
5…地図データ格納部、5a…地図データ
6…3次元ポリゴンデータ格納部、6a…3次元ポリゴンデータ
7…壁面候補画像格納部、7a…壁面候補画像データ
8…ラベル画像生成部
9…ラベル画像格納部、9a…ラベル画像
10…壁面領域情報抽出部
11…建物壁面属性格納部、11a…建物壁面属性データ
12…壁面テクスチャ生成部
13…標準壁面画像格納部、13a…標準壁面画像データ
14…壁面領域情報抽出部
31、32…オルソ化処理部
33…ラベル画像生成部
34…壁面領域情報抽出部
101…衛星画像蓄積部
102…ステレオ処理部
103…DEMデータ自動補正部
104…地図データ蓄積部
DESCRIPTION OF SYMBOLS 1 ... Aerial photograph data storage part, 1a ... Aerial photograph data 2 ... Stereo processing part 3 ... Orthogonalization processing part 4 ... Polygon preparation part 5 ... Map data storage part, 5a ... Map data 6 ... Three-dimensional polygon data storage part, 6a 3D polygon data 7 ... Wall surface candidate image storage unit 7a ... Wall surface candidate image data 8 ... Label image generation unit 9 ... Label image storage unit 9a ... Label image 10 ... Wall surface area information extraction unit 11 ... Building wall surface attribute storage unit 11a ... Building wall surface attribute data 12 ... Wall surface texture generation unit 13 ... Standard wall surface image storage unit 13a ... Standard wall surface image data 14 ... Wall surface area information extraction unit 31, 32 ... Orthosing processing unit 33 ... Label image generation unit 34 ... Wall surface area information extraction unit 101 ... satellite image storage unit 102 ... stereo processing unit 103 ... DEM data automatic correction unit 104 ... map data storage unit

Claims (21)

連続撮影された複数の画像を電子データ化した画像データを格納する画像データ格納部と、前記画像の隣り合う画像は、同一の被写体の画像を含み、
前記画像データから、前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力部と、
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成部と
を具備し、
前記側面データ出力部は、ステレオ処理部とオルソ化処理部とを含み、
前記ステレオ処理部は、前記被写体の奥行き情報を算出し、
前記オルソ化処理部は、前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成し、前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データを生成し、
前記テクスチャ生成部は、ラベル画像生成部と、側面情報作成部と、壁面テクスチャ生成部とを含み、
前記ラベル画像生成部は、前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成し、前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像を生成し、
前記側面情報作成部は、前記ラベル画像中で前記被写体に対応するラベルを持つ領域を、前記被写体の壁面画素領域として特定し、前記壁面画素領域から取得されるテクスチャ画像または領域代表色に基づいて、前記テクスチャの生成に使用される側面情報を生成し、
前記壁面テクスチャ生成部は、前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付する
3次元モデル作成装置。
An image data storage unit that stores image data obtained by converting a plurality of continuously shot images into electronic data, and adjacent images of the images include images of the same subject,
A side data output unit that extracts and outputs side data corresponding to the surface constituting the depth direction of the subject from the image data;
A texture generating unit that generates a texture using the side data and attaches the texture to the three-dimensional polygon data generated based on the image data ;
The side data output unit includes a stereo processing unit and an orthoprocessing unit,
The stereo processing unit calculates depth information of the subject,
The orthorectification processing unit generates an ortho image that is an orthographic image of the subject based on the image data and the depth information, the pixel of the contour portion of the subject of the image data, and the subject of the ortho image And generating the side data based on the pixels of the contour portion of
The texture generation unit includes a label image generation unit, a side surface information generation unit, and a wall surface texture generation unit,
The label image generation unit generates reference image data based on the three-dimensional polygon data of the subject generated based on the depth information, and a side region corresponding to a side surface of the three-dimensional polygon data in the reference image data And generating a label image by adding individual label values to the pixels of the side region,
The side surface information creating unit identifies a region having a label corresponding to the subject in the label image as a wall surface pixel region of the subject, and based on a texture image or a region representative color acquired from the wall surface pixel region Generate side information used to generate the texture,
The wall surface texture generation unit generates a texture based on the side surface information, and attaches the texture to a side surface of the 3D polygon data .
請求項1に記載の3次元モデル作成装置において、
記側面情報作成部は、前記側面データと前記ラベル画像とに基づいて、前記テクスチャの生成に使用される側面情報を生成する
3次元モデル作成装置。
The three-dimensional model creation device according to claim 1,
Before SL side information creation unit, on the basis of the side data and said labeled image, 3-dimensional modeling apparatus for generating side information used to generate the texture.
請求項2記載の3次元モデル作成装置において、
前記テクスチャ生成部は、標準側面画像格納部を備え、
前記標準側面画像格納部は、複数の側面画像データを予め格納し、
前記側面情報作成部は、前記複数の側面画像データから、前記側面情報に最も類似するデータを最類似データとして選択し、
前記テクスチャは、前記最類似データに基づいて生成される
3次元モデル作成装置。
The three-dimensional model creation device according to claim 2,
The texture generation unit includes a standard side image storage unit,
The standard side image storage unit stores a plurality of side image data in advance,
The side information creation unit selects, as the most similar data, data that is most similar to the side information from the plurality of side image data,
The texture is generated based on the most similar data.
請求項1から3の何れか1項に記載の3次元モデル作成装置において、
前記ステレオ処理部は、隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出し、
前記オルソ化処理部は、前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データを生成し、
前記ラベル画像生成部は、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成し、
前記側面情報作成部は、前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成する
3次元モデル作成装置。
In the three-dimensional model creation device according to any one of claims 1 to 3 ,
The stereo processing unit specifies each of adjacent image data as a first image and a second image, calculates the depth information by performing a stereo matching process on the first image and the second image,
The orthoprocessing unit generates first side data corresponding to the first image and second side data corresponding to the second image,
The label image generation unit generates a first label image corresponding to the first image and a second label image corresponding to the second image;
The side information creation unit creates first side information based on the first side data and the first label image, and creates a second side based on the second side data and the second label image. A three-dimensional model creation device that creates information and creates the side information by comparing the first side information and the second side information.
請求項1から3の何れか1項に記載の3次元モデル作成装置において、
前記連続撮影された複数の画像は、空を飛ぶ飛翔体に搭載された撮像装置で撮影され、
前記被写体は、地上の構造体であり、
前記奥行き情報は、前記構造体の高さを示す情報であり、
前記側面データは、前記構造体の壁面の状態を示すデータである
3次元モデル作成装置。
In the three-dimensional model creation device according to any one of claims 1 to 3 ,
The plurality of continuously shot images are taken by an imaging device mounted on a flying object flying in the sky,
The subject is a structure on the ground,
The depth information is information indicating the height of the structure,
The side surface data is data indicating a state of a wall surface of the structure body.
請求項1からの何れか1項に記載の3次元モデル作成装置において、
前記被写体の奥行き方向を構成する面は、前記画像を撮影する光軸方向に平行な面である
3次元モデル作成装置。
The three-dimensional model creation device according to any one of claims 1 to 5 ,
The surface constituting the depth direction of the subject is a surface parallel to the optical axis direction for capturing the image.
連続撮影された複数の画像を電子データ化した画像データを格納する画像データ格納部と、前記画像の隣り合う画像は、同一の被写体の画像を含み、  An image data storage unit that stores image data obtained by converting a plurality of continuously shot images into electronic data, and adjacent images of the images include images of the same subject,
前記画像データから、前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力部と、  A side data output unit that extracts and outputs side data corresponding to the surface constituting the depth direction of the subject from the image data;
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成部と  A texture generating unit that generates a texture using the side data and attaches the texture to the three-dimensional polygon data generated based on the image data;
を具備し、  Comprising
前記側面データ出力部は、ステレオ処理部とオルソ化処理部とを含み、  The side data output unit includes a stereo processing unit and an orthoprocessing unit,
前記ステレオ処理部は、  The stereo processing unit
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで、前記被写体の奥行き情報を算出し、  Each of adjacent image data is identified as a first image and a second image, and the depth information of the subject is calculated by performing stereo matching processing on the first image and the second image,
前記オルソ化処理部は、  The orthoprocessing unit is:
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成し、前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて、前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データを生成し、  An ortho image that is an orthographic image of the subject is generated based on the image data and the depth information, and the pixel of the contour portion of the subject of the image data and the pixel of the contour portion of the subject of the ortho image Based on the first side data corresponding to the first image and the second side data corresponding to the second image,
前記テクスチャ生成部は、ラベル画像生成部と、側面情報作成部と、壁面テクスチャ生成部とを含み、  The texture generation unit includes a label image generation unit, a side surface information generation unit, and a wall surface texture generation unit,
前記ラベル画像生成部は、  The label image generator
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成し、前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加して、前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成し、  Reference image data is generated based on the three-dimensional polygon data of the subject generated based on the depth information, a side region corresponding to a side surface of the three-dimensional polygon data is specified in the reference image data, and the side region To generate a first label image corresponding to the first image and a second label image corresponding to the second image,
前記側面情報作成部は、  The side information creation unit
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報との比較に基づいて、前記テクスチャの生成に使用される側面情報を生成し、  First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, Based on the comparison between the one side information and the second side information, the side information used for generating the texture is generated,
前記壁面テクスチャ生成部は、  The wall surface texture generator is
前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付する  Generate the texture based on the side information and attach the texture to the side of the 3D polygon data
3次元モデル作成装置。  3D model creation device.
連続撮影された複数の画像を電子データ化した画像データから、同一の被写体の画像を含む隣り合う画像データを読み出す画像データ読み出しステップと、
前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力ステップと、
前記側面データを使用してテクスチャを生成、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成ステップ
を具備し、
前記側面データ生成ステップは、
前記被写体の奥行き情報を算出するステップと、
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、
前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データを生成するステップと
を含み、
前記テクスチャ生成ステップは、
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成するステップと、
前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像を生成するステップと、
前記ラベル画像に基づいて、前記テクスチャの生成に使用される側面情報を生成するステップと、
前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付するステップ
を具備する方法をコンピュータで実行可能なプログラム。
An image data reading step of reading adjacent image data including an image of the same subject from image data obtained by converting a plurality of continuously shot images into electronic data,
A side data output step of extracting and outputting side data corresponding to the surface constituting the depth direction of the subject;
Using said side data to generate a texture, the texture comprises a texture generation step attached to the three-dimensional polygon data generated based on the image data,
The side data generation step includes:
Calculating depth information of the subject;
Generating an ortho image that is an orthographic image of the subject based on the image data and the depth information;
Generating the side data based on pixels of the contour portion of the subject of the image data and pixels of the contour portion of the subject of the ortho image;
Including
The texture generation step includes
Generating reference image data based on the three-dimensional polygon data of the subject generated based on the depth information;
Identifying a side region corresponding to a side surface of the three-dimensional polygon data in the reference image data, adding a label value to each pixel of the side region, and generating a label image;
Generating side information used to generate the texture based on the label image;
Generating the texture based on the side information and attaching the texture to the side of the three-dimensional polygon data
A program capable of executing a method comprising:
請求項に記載のプログラムにおいて、
前記側面情報を生成するステップは、
前記側面データと前記ラベル画像とに基づいて、前記テクスチャの生成に使用される側面情報を生成するステップを含む
方法をコンピュータで実行可能なプログラム。
The program according to claim 8 , wherein
The step of generating the side information includes:
Generating side information used for generating the texture based on the side data and the label image;
A program that can be executed on a computer.
請求項8または9に記載のプログラムにおいて、
前記テクスチャ生成ステップは、
予め格納された複数の側面画像データから、前記側面情報に最も類似するデータを最類似データとして選択するステップと、
前記最類似データに基づいて生成するステップ
を具備する方法をコンピュータで実行可能なプログラム。
The program according to claim 8 or 9 ,
The texture generation step includes
Selecting the most similar data as the most similar data from the plurality of side image data stored in advance,
A program capable of executing on a computer a method comprising the step of generating based on the most similar data.
請求項8から10の何れか1項に記載のプログラムにおいて、
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出するステップと、
前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データを生成するステップと、
前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成するステップ
を具備する方法をコンピュータで実行可能なプログラム。
The program according to any one of claims 8 to 10 ,
Specifying each of adjacent image data as a first image and a second image, and calculating the depth information by performing a stereo matching process on the first image and the second image;
Generating first side data corresponding to the first image and second side data corresponding to the second image;
Generating a first label image corresponding to the first image and a second label image corresponding to the second image;
First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, A computer-executable program comprising a step of comparing one side information and the second side information to create the side information.
請求項8から11の何れか1項に記載のプログラムにおいて、
前記連続撮影された複数の画像は、空を飛ぶ飛翔体に搭載された撮像装置で撮影され、
前記被写体は、地上の構造体であり、
前記奥行き情報は、前記構造体の高さを示す情報であり、
前記側面データは、前記構造体の壁面の状態を示すデータである
プログラム。
The program according to any one of claims 8 to 11 ,
The plurality of continuously shot images are taken by an imaging device mounted on a flying object flying in the sky,
The subject is a structure on the ground,
The depth information is information indicating the height of the structure,
The side data is data indicating a state of a wall surface of the structure.
請求項8から12の何れか1項に記載のプログラムにおいて、
前記被写体の奥行き方向を構成する面は、前記画像を撮影する光軸方向に平行な面である
プログラム。
The program according to any one of claims 8 to 12 ,
The surface constituting the depth direction of the subject is a surface parallel to the optical axis direction for capturing the image.
連続撮影された複数の画像を電子データ化した画像データから、同一の被写体の画像を含む隣り合う画像データを読み出す画像データ読み出しステップと、  An image data reading step of reading adjacent image data including an image of the same subject from image data obtained by converting a plurality of continuously shot images into electronic data,
前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力ステップと、  A side data output step of extracting and outputting side data corresponding to the surface constituting the depth direction of the subject;
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成ステップと  A texture generating step of generating a texture using the side data and attaching the texture to 3D polygon data generated based on the image data;
を具備し、  Comprising
前記側面データ出力ステップは、  The side data output step includes
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記被写体の奥行き情報を算出するステップと、  Identifying each of adjacent image data as a first image and a second image, and calculating depth information of the subject by performing stereo matching processing on the first image and the second image;
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、  Generating an ortho image that is an orthographic image of the subject based on the image data and the depth information;
前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて、前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データとを生成するステップと  Based on the pixels of the contour portion of the subject of the image data and the pixels of the contour portion of the subject of the ortho image, the first side data corresponding to the first image and the second side corresponding to the second image. Generating two side data; and
を含み、  Including
前記テクスチャ生成ステップは、  The texture generation step includes
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成するステップと、  Generating reference image data based on the three-dimensional polygon data of the subject generated based on the depth information;
前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加して、第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、  In the reference image data, a side region corresponding to the side surface of the three-dimensional polygon data is specified, individual label values are added to the pixels of the side region, a first label image corresponding to a first image, and the first image Generating a second label image corresponding to the two images;
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報との比較に基づいて、前記テクスチャの生成に使用される側面情報を生成するステップと、  First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, Generating side information used for generating the texture based on a comparison between the one side information and the second side information;
前記壁面テクスチャ生成部は、前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付するステップ  The wall surface texture generation unit generates the texture based on the side surface information, and attaches the texture to the side surface of the three-dimensional polygon data.
を具備する方法をコンピュータで実行可能なプログラム。  A program capable of executing a method comprising:
連続撮影された複数の画像を電子データ化した画像データから、同一の被写体の画像を含む隣り合う画像データを読み出す画像データ読み出しステップと、
前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力ステップと、
前記側面データを使用してテクスチャを生成、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成ステップ
を具備し、
前記側面データ生成ステップは、
前記被写体の奥行き情報を算出するステップと、
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、
前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて前記側面データを生成するステップと
を含み、
前記テクスチャ生成ステップは、
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成するステップと、
前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加してラベル画像を生成するステップと、
前記ラベル画像に基づいて、前記テクスチャの生成に使用される側面情報を生成するステップと、
前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付するステップ
を具備する
3次元モデル作成方法。
An image data reading step of reading adjacent image data including an image of the same subject from image data obtained by converting a plurality of continuously shot images into electronic data,
A side data output step of extracting and outputting side data corresponding to the surface constituting the depth direction of the subject;
Using said side data to generate a texture, the texture comprises a texture generation step attached to the three-dimensional polygon data generated based on the image data,
The side data generation step includes:
Calculating depth information of the subject;
Generating an ortho image that is an orthographic image of the subject based on the image data and the depth information;
Generating the side data based on pixels of the contour portion of the subject of the image data and pixels of the contour portion of the subject of the ortho image;
Including
The texture generation step includes
Generating reference image data based on the three-dimensional polygon data of the subject generated based on the depth information;
Identifying a side region corresponding to a side surface of the three-dimensional polygon data in the reference image data, adding a label value to each pixel of the side region, and generating a label image;
Generating side information used to generate the texture based on the label image;
Generating the texture based on the side information and attaching the texture to the side of the three-dimensional polygon data
A three-dimensional model creation method comprising :
請求項15に記載の3次元モデル作成方法において、
前記側面情報を生成するステップは、
前記側面データと前記ラベル画像とに基づいて、前記テクスチャの生成に使用される側面情報を生成するステップを含む
3次元モデル作成方法。
The three-dimensional model creation method according to claim 15,
The step of generating the side information includes:
A three-dimensional model creation method including a step of generating side information used for generation of the texture based on the side data and the label image .
請求項15または16に記載の3次元モデル作成方法において、
前記テクスチャ生成ステップは、
予め格納された複数の側面画像データから、前記側面情報に最も類似するデータを最類似データとして選択するステップと、
前記最類似データに基づいて生成するステップ
を具備する3次元モデル作成方法。
The three-dimensional model creation method according to claim 15 or 16 ,
The texture generation step includes
Selecting the most similar data as the most similar data from the plurality of side image data stored in advance,
A three-dimensional model creation method comprising the step of generating based on the most similar data.
請求項15から17の何れか1項に記載の3次元モデル作成方法において、
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記奥行き情報を算出するステップと、
前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データを生成するステップと、
前記第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報とを比較して、前記側面情報を作成するステップ
を具備する3次元モデル作成方法。
The three-dimensional model creation method according to any one of claims 15 to 17 ,
Specifying each of adjacent image data as a first image and a second image, and calculating the depth information by performing a stereo matching process on the first image and the second image;
Generating first side data corresponding to the first image and second side data corresponding to the second image;
Generating a first label image corresponding to the first image and a second label image corresponding to the second image;
First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, A method of creating a three-dimensional model, comprising: comparing one side information and the second side information to create the side information.
請求項15から18の何れか1項に記載の3次元モデル作成方法において、
前記連続撮影された複数の画像は、空を飛ぶ飛翔体に搭載された撮像装置で撮影され、
前記被写体は、地上の構造体であり、
前記奥行き情報は、前記構造体の高さを示す情報であり、
前記側面データは、前記構造体の壁面の状態を示すデータである
3次元モデル作成方法。
The three-dimensional model creation method according to any one of claims 15 to 18 ,
The plurality of continuously shot images are taken by an imaging device mounted on a flying object flying in the sky,
The subject is a structure on the ground,
The depth information is information indicating the height of the structure,
The side data is data indicating a state of a wall surface of the structure.
請求項15から19の何れか1項に記載の3次元モデル作成方法において、
前記被写体の奥行き方向を構成する面は、前記画像を撮影する光軸方向に平行な面である
3次元モデル作成方法。
In the three-dimensional model creation method according to any one of claims 15 to 19 ,
The surface constituting the depth direction of the subject is a surface parallel to the optical axis direction for capturing the image.
連続撮影された複数の画像を電子データ化した画像データから、同一の被写体の画像を含む隣り合う画像データを読み出す画像データ読み出しステップと、
前記被写体の奥行き方向を構成する面に対応する側面データを抽出して出力する側面データ出力ステップと、
前記側面データを使用してテクスチャを生成し、前記テクスチャを前記画像データに基づいて生成された3次元ポリゴンデータに添付するテクスチャ生成ステップと
を具備し、
前記側面データ出力ステップは、
隣接する画像データの各々を第1画像と第2画像とに特定し、前記第1画像と前記第2画像とをステレオマッチング処理することで前記被写体の奥行き情報を算出するステップと、
前記画像データと前記奥行き情報に基づいて前記被写体の正射影画像であるオルソ画像を生成するステップと、
前記画像データの前記被写体の輪郭部分の画素と、前記オルソ画像の前記被写体の輪郭部分の画素とに基づいて、前記第1画像に対応する第1側面データと、前記第2画像に対応する第2側面データとを生成するステップと
を含み、
前記テクスチャ生成ステップは、
前記奥行き情報に基づいて生成された前記被写体の3次元ポリゴンデータに基づいて基準画像データを生成するステップと、
前記基準画像データにおいて前記3次元ポリゴンデータの側面に対応する側面領域を特定し、前記側面領域の画素に個別のラベル値を付加して、第1画像に対応する第1ラベル画像と、前記第2画像に対応する第2ラベル画像とを生成するステップと、
前記第1側面データと前記第1ラベル画像とに基づいて、第1側面情報を作成し、前記第2側面データと前記第2ラベル画像とに基づいて、第2側面情報を作成し、前記第1側面情報と前記第2側面情報との比較に基づいて、前記テクスチャの生成に使用される側面情報を生成するステップと、
前記壁面テクスチャ生成部は、前記側面情報に基づいて前記テクスチャを生成し、前記テクスチャを前記3次元ポリゴンデータの側面に添付するステップ
3次元モデル作成方法。
An image data reading step of reading adjacent image data including an image of the same subject from image data obtained by converting a plurality of continuously shot images into electronic data,
A side data output step of extracting and outputting side data corresponding to the surface constituting the depth direction of the subject;
A texture generating step of generating a texture using the side data and attaching the texture to 3D polygon data generated based on the image data;
Comprising
The side data output step includes
Identifying each of adjacent image data as a first image and a second image, and calculating depth information of the subject by performing stereo matching processing on the first image and the second image;
Generating an ortho image that is an orthographic image of the subject based on the image data and the depth information;
Based on the pixels of the contour portion of the subject of the image data and the pixels of the contour portion of the subject of the ortho image, the first side data corresponding to the first image and the second side corresponding to the second image. Generating two side data; and
Including
The texture generation step includes
Generating reference image data based on the three-dimensional polygon data of the subject generated based on the depth information;
In the reference image data, a side region corresponding to the side surface of the three-dimensional polygon data is specified, individual label values are added to the pixels of the side region, a first label image corresponding to a first image, and the first image Generating a second label image corresponding to the two images;
First side information is created based on the first side data and the first label image, second side information is created based on the second side data and the second label image, Generating side information used for generating the texture based on a comparison between the one side information and the second side information;
The wall surface texture generation unit generates the texture based on the side surface information, and attaches the texture to the side surface of the 3D polygon data .
JP2004063163A 2004-03-05 2004-03-05 3D model creation device, 3D model creation method, and 3D model creation program Expired - Fee Related JP4099776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004063163A JP4099776B2 (en) 2004-03-05 2004-03-05 3D model creation device, 3D model creation method, and 3D model creation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004063163A JP4099776B2 (en) 2004-03-05 2004-03-05 3D model creation device, 3D model creation method, and 3D model creation program

Publications (2)

Publication Number Publication Date
JP2005251035A JP2005251035A (en) 2005-09-15
JP4099776B2 true JP4099776B2 (en) 2008-06-11

Family

ID=35031435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004063163A Expired - Fee Related JP4099776B2 (en) 2004-03-05 2004-03-05 3D model creation device, 3D model creation method, and 3D model creation program

Country Status (1)

Country Link
JP (1) JP4099776B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007045272A1 (en) * 2005-10-17 2007-04-26 Tele Atlas North America, Inc. Method for generating an enhanced map
WO2008044913A1 (en) 2006-10-13 2008-04-17 Tele Atlas B.V. System for and method of processing laser scan samples and digital photographic images relating to building façade
JP5553483B2 (en) * 2008-04-16 2014-07-16 アジア航測株式会社 Optimal oblique photograph providing method, optimum oblique photograph providing system, and optimum oblique photograph providing apparatus
KR100977553B1 (en) 2009-11-13 2010-08-23 새한항업(주) Data processing method for printing the digital image by 3d
CN101950433A (en) * 2010-08-31 2011-01-19 东南大学 Building method of transformer substation three-dimensional model by using laser three-dimensional scanning technique
JP5991821B2 (en) * 2012-02-03 2016-09-14 三菱電機株式会社 Photogrammetry equipment
JP6238101B2 (en) * 2012-11-28 2017-11-29 国際航業株式会社 Numerical surface layer model creation method and numerical surface layer model creation device
CN104048649B (en) * 2013-03-15 2016-08-03 南京中观软件技术有限公司 A kind of multi-view images and the rapid registering method of threedimensional model
JP7117273B2 (en) * 2019-07-01 2022-08-12 Jx金属株式会社 Fragmented piece detection method, fragmented fragmentation method, fragmented fragment detection device and fragmented fragmentation device
CN111540048B (en) * 2020-04-22 2023-06-27 深圳市中正测绘科技有限公司 Fine live-action three-dimensional modeling method based on space-ground fusion
JP7232552B1 (en) 2022-04-11 2023-03-03 株式会社スペースデータ Information processing apparatus, method, and program
CN115311396B (en) * 2022-08-09 2023-06-02 北京飞渡科技股份有限公司 Automatic extraction method and system for roof contour line of super-high building

Also Published As

Publication number Publication date
JP2005251035A (en) 2005-09-15

Similar Documents

Publication Publication Date Title
US7509241B2 (en) Method and apparatus for automatically generating a site model
EP3242275B1 (en) Using photo collections for three dimensional modeling
CN113506370B (en) Three-dimensional geographic scene model construction method and device based on three-dimensional remote sensing image
US7903111B2 (en) Depth image-based modeling method and apparatus
Pylvanainen et al. Automatic alignment and multi-view segmentation of street view data using 3d shape priors
CA2678156A1 (en) Measurement apparatus, measurement method, and feature identification apparatus
EP3413266B1 (en) Image processing device, image processing method, and image processing program
JP2004348575A (en) Three-dimensional model construction system and its program
US20080089577A1 (en) Feature extraction from stereo imagery
KR20090031113A (en) Method and apparatus for creating a 3d image using 2d photograph images
JP4099776B2 (en) 3D model creation device, 3D model creation method, and 3D model creation program
KR100967838B1 (en) A method and a system for generating 3-dimensional geographical information using aerial lidar information and digital aerial photograph information
CN108399631B (en) Scale invariance oblique image multi-view dense matching method
US20030225513A1 (en) Method and apparatus for providing multi-level blended display of arbitrary shaped textures in a geo-spatial context
JP5311465B2 (en) Stereo matching processing system, stereo matching processing method, and program
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
JP2005339127A (en) Apparatus and method for displaying image information
JP2006284224A (en) Method for generating three-dimensional data of geographical features, method for evaluating geographical feature variation, system for evaluating geographical feature variation
KR101375649B1 (en) Apparatus and method for generating texture for three dimensional mesh model of target object
JP6425511B2 (en) Method of determining feature change and feature change determination apparatus and feature change determination program
JP2016218694A (en) Three-dimensional model generation device, three-dimensional model generation method, and program
JP4354708B2 (en) Multi-view camera system
Kuzmin et al. Polygon-based true orthophoto generation
KR100732915B1 (en) Method for three-dimensional determining of basic design road route using digital photommetry and satellite image
JP2011048507A (en) Three-dimensional data generation device, three-dimensional data generation method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080306

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4099776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120328

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120328

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140328

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees