JP2000329552A - Three-dimensional map preparing method - Google Patents

Three-dimensional map preparing method

Info

Publication number
JP2000329552A
JP2000329552A JP14014399A JP14014399A JP2000329552A JP 2000329552 A JP2000329552 A JP 2000329552A JP 14014399 A JP14014399 A JP 14014399A JP 14014399 A JP14014399 A JP 14014399A JP 2000329552 A JP2000329552 A JP 2000329552A
Authority
JP
Japan
Prior art keywords
building
dimensional
photograph
polygon
dimensional map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP14014399A
Other languages
Japanese (ja)
Inventor
Labo Stephen
ラボー ステファン
Lee Simon
リー サイモン
Derahaya Olivier
デラハヤ オリビエ
Yoshio Ichihashi
敬男 市橋
Kazufumi Suzuki
一史 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEN TEC KK
Gentech Co Ltd
Original Assignee
GEN TEC KK
Gentech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEN TEC KK, Gentech Co Ltd filed Critical GEN TEC KK
Priority to JP14014399A priority Critical patent/JP2000329552A/en
Publication of JP2000329552A publication Critical patent/JP2000329552A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional feeling while facilitating the operation by approximating a building, and the like, with a polygon from three- dimensional coordinates determined through a coordinate process and sections determined through sectioning process, selecting a texture being attached to the polygon and then mapping. SOLUTION: At first, the image of a road or a building is picked up by means of a camera (S1), the camera parameters are calibrated (S2) and then the two-dimensional coordinates are determined at a point on a photograph representing the same point of a building in three-dimensional space (S3). Coordinates at a corresponding point in the three-dimensional space are then determined from the coordinates at the corresponding points on two photographs (S4). Subsequently, a figure showing the arrangement of a group of points is determined for a height data higher than a specified value (S5) and a building is sectioned using a digital map (S6). Furthermore, a photograph picking up the image of a three-dimensional polygon is made up by means of a computer (S8) and a texture is selected (S9). In a three-dimensional map thus obtained, the photograph of a building is varied depending on the viewing direction thereof and thereby a feeling of three-dimensional photograph can be imparted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、3次元地図作成
方法の技術分野に属する。特に、航空写真等を利用して
作成する3次元地図の作成方法の技術分野に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention belongs to the technical field of a three-dimensional map creation method. In particular, the present invention relates to a technical field of a method of creating a three-dimensional map created using aerial photographs or the like.

【0002】[0002]

【従来の技術】従来3次元地図としては、地図に建物等
を立体的に描いたものや、建物等の図を切り抜きを仰伏
自在に貼り付けたものがある。しかし、この種の3次元
地図は建物等を正面等の代表的な角度から見た図を表し
ているだけで、見る方向が変わっても変化しないので立
体感がない。また、レンチキュラーレンズの様な特殊レ
ンズを利用して地図を立体的に見せようとする試みもあ
るが、装置が高価になるという問題があり、実用的な3
次元地図作成方法は未だ提案されていない。また、仮想
空間のように特殊な装置を両眼に装着して地図を立体視
することも可能であるが、特殊装置を装着しなければな
らないことから煩雑さが問題とされている。
2. Description of the Related Art Conventionally, as a three-dimensional map, there are a three-dimensional map in which a building or the like is drawn three-dimensionally, and a map in which a drawing of a building or the like is cut out and stuck on the map so that it can be lifted. However, this type of three-dimensional map merely shows a view of a building or the like from a typical angle such as the front, and does not change even if the viewing direction changes, so there is no three-dimensional effect. In addition, there is an attempt to use a special lens such as a lenticular lens to make a map look three-dimensional.
A dimensional map creation method has not yet been proposed. It is also possible to stereoscopically view a map by attaching a special device to both eyes, such as a virtual space. However, since a special device must be attached, complexity is a problem.

【0003】[0003]

【発明が解決しようとする課題】この発明は、上述のよ
うな背景の下になされたもので、特別な装置を必要とせ
ず、安価で、しかも操作も容易で立体的な感覚を観測者
に与える地図の作成方法を提供することを目的としてい
る。
SUMMARY OF THE INVENTION The present invention has been made under the above-mentioned background, and does not require a special device, is inexpensive, is easy to operate, and provides a three-dimensional feeling to an observer. It is intended to provide a method of creating a given map.

【0004】[0004]

【課題を解決するための手段】上記課題を解決するため
に本発明は以下の手段を採用している。即ち、請求項1
記載の発明は、複数の空中撮影写真に基づいて3次元地
図を作成する方法において、前記地図作成方法は、前記
撮影写真から該3次元における建物等の点の3次元座標
を求める座標算出工程と、前記建物等の区分を定める区
分工程と、前記座標工程で求められた3次元座標と前記
区分工程で求められた区分から建物等をポリゴンで近似
するポリゴン化工程と、該ポリゴンに貼り付けるテキス
チャを選択する選択工程と、前記選択された写真のテキ
スチャを貼り付けるマッピング工程を含むことを特徴と
している。
The present invention employs the following means to solve the above-mentioned problems. That is, claim 1
The described invention is a method of creating a three-dimensional map based on a plurality of aerial photographed photographs, wherein the map producing method includes a coordinate calculating step of obtaining three-dimensional coordinates of a point such as a building in the three-dimensional photograph from the photographed photograph. A partitioning step of determining a partition of the building or the like; a polygonalizing step of approximating a building or the like with a polygon from the three-dimensional coordinates obtained in the coordinate step and the partition obtained in the partitioning step; And a mapping step of pasting the texture of the selected photograph.

【0005】請求項2記載の発明は、請求項1に記載の
発明において、前記座標算出工程は、前記撮影写真のエ
ピ曲線を水平にするレクチフィーケション工程と、その
後に該撮影写真上の対応点を求める工程を含むことを特
徴としている。
According to a second aspect of the present invention, in the first aspect of the present invention, the coordinate calculating step includes a rectification step of making an epi-curve of the photographed picture horizontal, and thereafter, a rectification step on the photographed picture. It is characterized by including a step of obtaining a corresponding point.

【0006】請求項3記載の発明は、請求項1又は請求
項2に記載の発明において、前記区分工程はディジタル
地図を利用して行うことを特徴としている。
According to a third aspect of the present invention, in the first or second aspect of the present invention, the dividing step is performed using a digital map.

【0007】請求項4記載の発明は、請求項1〜請求項
3に記載の発明において、前記区分工程で求めた建物等
の区分が凸形を形成しない場合は、複数個の凸形に分割
することを特徴としている。
According to a fourth aspect of the present invention, in the first to third aspects of the present invention, if the division of the building or the like obtained in the division step does not form a convex shape, it is divided into a plurality of convex shapes. It is characterized by doing.

【0008】請求項5記載の発明は、請求項1〜請求項
4に記載の発明において、前記ポリゴン化工程は、前記
区分された建物等の地上枠を垂直に立上げて側壁を構成
し、前記座標算出工程で求めた座標群から建物高さを求
めて屋根を構成したことを特徴としている。
According to a fifth aspect of the present invention, in the first aspect of the present invention, the polygonalizing step comprises vertically raising a ground frame of the divided building or the like to form a side wall, The roof is constructed by obtaining the building height from the coordinate group obtained in the coordinate calculation step.

【0009】請求項6記載の発明は、請求項1〜請求項
5に記載の発明において、前記ポリゴン化工程は、建物
等の屋根を地上枠内の点群の座標高さを平均値とする平
屋根で近似したことを特徴としている。
According to a sixth aspect of the present invention, in the first aspect of the present invention, in the polygonizing step, a roof of a building or the like is set to an average value of coordinate heights of point groups in a ground frame. It is characterized by being approximated by a flat roof.

【0010】請求項7記載の発明は、請求項1〜請求項
5に記載の発明において、前記ポリゴン化工程は、建物
等の屋根を地上枠内の点群の座標高さを大きさの順に並
べ、その中央値を高さとする平屋根で近似したことを特
徴としている。
According to a seventh aspect of the present invention, in the first aspect of the present invention, in the polygonalizing step, the roof height of the building or the like is determined by increasing the coordinate heights of point groups in the ground frame in order of size. It is characterized by being arranged side by side and being approximated by a flat roof whose height is the median value.

【0011】請求項8記載の発明は、請求項1〜請求項
7に記載の発明において、前記ポリゴン化工程は、建物
屋根に複数の所定の形状モデルを指定し、前記座標算出
工程で求めた座標群の高さデータをxー平面及びyー平
面に投射して、それらの投射された形状から前記所定の
形状モデルを選択してポリゴン化すること特徴としてい
る。
According to an eighth aspect of the present invention, in the first aspect of the present invention, in the polygonizing step, a plurality of predetermined shape models are designated on the building roof, and the polygon model is obtained in the coordinate calculating step. The height data of the coordinate group is projected on the x-plane and the y-plane, and the predetermined shape model is selected from those projected shapes and polygonized.

【0012】請求項9記載の発明は、請求項1〜請求項
8に記載の発明において、前記選択工程は、前記マッピ
ングを行う部分が前記撮影写真に現れているかどうかを
判断するために、該マッピングを行う部分に対応する3
次元ポリゴン部分の面に複数の点を配置し、該配置され
た点から出発してカメラのレンズ中心を通過する半直線
上に該3次元ポリゴン以外の他の3次元ポリゴンが存在
するか否かを判定する工程を含むことを特徴としてい
る。
[0012] According to a ninth aspect of the present invention, in the first aspect of the present invention, the selecting step includes determining whether or not the portion to be mapped appears in the photographed photograph. 3 corresponding to the part to be mapped
A plurality of points are arranged on the surface of the three-dimensional polygon part, and whether or not there is another three-dimensional polygon other than the three-dimensional polygon on a half line passing through the center of the lens of the camera starting from the arranged point Is determined.

【0013】請求項10記載の発明は、請求項1〜請求
項9に記載の発明において、前記選択工程は、前記ポリ
ゴンにマッピングを行う部分が前記撮影写真の複数枚に
現れている場合はそれらの内の何れか1枚を選択して、
マッピングを行うことを特徴としている。
According to a tenth aspect of the present invention, in the first to ninth aspects of the present invention, the selecting step is performed when a part to be mapped to the polygon appears in a plurality of the photographed photographs. Select any one of the
It is characterized by performing mapping.

【0014】請求項11記載の発明は、請求項10に記
載の発明において、前記選択工程は、前記複数の撮影写
真の内で撮影画像が最大のものを選択することを特徴と
している。
According to an eleventh aspect of the present invention, in the invention of the tenth aspect, the selecting step selects the largest one of the plurality of photographed images.

【0015】請求項12記載の発明は、請求項1〜請求
項11に記載の発明において、前記選択工程は、前記空
中撮影写真以外のテキスチャを取り出すために撮影した
撮影写真を選択することを特徴としている。
According to a twelfth aspect of the present invention, in the first to eleventh aspects, the selecting step selects a photographed photograph taken to take out a texture other than the aerial photographed photograph. And

【0016】請求項13記載の発明は、請求項1〜請求
項12に記載の発明において、前記マッピング工程は、
逆ワーピングによりテキスチャを貼り付けることを特徴
としている。
According to a thirteenth aspect of the present invention, in the first or twelfth aspect, the mapping step comprises:
It is characterized in that the texture is pasted by reverse warping.

【0017】[0017]

【発明の実施形態】図1は本発明の作成方法の工程を示
す。図2は本方法を実施する装置の概略図を示す。図3
は本発明の実施形態を説明するために建物配置を示す。
以下、図を参照して実施形態の発明を説明する。
FIG. 1 shows the steps of the production method of the present invention. FIG. 2 shows a schematic diagram of an apparatus for performing the method. FIG.
Shows a building arrangement for explaining the embodiment of the present invention.
Hereinafter, an embodiment of the invention will be described with reference to the drawings.

【0018】図2において、本装置は2台のディジタル
カメラ11、12と、カメラ11、12からの撮影写真
のデータを取り込んで処理等の操作を行うコンピュータ
13と、コンピュータ13の結果を表示する表示器14
と、コンピュータ13にデータを入力するためのキーボ
ード15及びマウス16から構成されている。また、コ
ンピュータ13は制御演算装置18と、記憶装置19
と、バスライン20及び入出力用のインターフィース2
1から構成されている。
In FIG. 2, the present apparatus displays two digital cameras 11 and 12, a computer 13 which takes in data of photographed images from the cameras 11 and 12 and performs operations such as processing, and displays the result of the computer 13. Display 14
And a keyboard 15 and a mouse 16 for inputting data to the computer 13. The computer 13 includes a control operation device 18 and a storage device 19
And bus line 20 and input / output interface 2
1 is comprised.

【0019】図1において、ステップS1はカメラ1
1、12で道路や建物等を撮影する。撮影は航空写真の
ように空中から、異なる位置及び角度で撮影する。撮影
は少なくとも2枚以上の写真が必要であり、色々な角度
から取った写真の枚数が多いほど視点が変化する場合の
建物のテキスチャの変化を表現できるが、処理時間が長
くなる欠点が生じる。以下、2枚の写真を撮影した場合
について説明する。図3は建物等が配置された3次元空
間の対象25をカメラ11、12で撮影する状況を示し
ている。カメラ11は左側から撮影し、カメラ12は右
側から撮影している。写真11a、12aは実際に撮影
される写真である。カメラ26は任意の方向、位置から
見た写真を撮るカメラで、実際には撮影しない。写真2
6aは計算機によって作成される写真で、見る角度によ
り異なる写真となる。人物31が動くことによって生じ
る建物の風景が写真26aによって代表されている。
In FIG. 1, step S1 is the camera 1
The roads and buildings are photographed in steps 1 and 12. Photographs are taken at different positions and angles from the air like an aerial photograph. Shooting requires at least two or more pictures, and the change in the texture of the building when the viewpoint changes as the number of pictures taken from various angles increases, but has the disadvantage that the processing time is long. Hereinafter, a case where two pictures are taken will be described. FIG. 3 shows a situation where an object 25 in a three-dimensional space where buildings and the like are arranged is photographed by the cameras 11 and 12. The camera 11 shoots from the left side, and the camera 12 shoots from the right side. Pictures 11a and 12a are pictures that are actually taken. The camera 26 is a camera for taking a picture viewed from an arbitrary direction and position, and does not actually take a picture. Picture 2
Reference numeral 6a denotes a photograph created by a computer, which differs depending on the viewing angle. The scenery of the building caused by the movement of the person 31 is represented by the photograph 26a.

【0020】ステップS2はカメラ11、12のカメラ
パラメータをキャリブレート(校正)するステップであ
る。カメラパラメータはカメラの位置、姿勢、画角等の
カメラに関するデータを全て含んでおり、(3×4)行
列で表され、12個の未知パラメータを含んでいる。カ
メラパラメータが求められると、三次元空間の建物等の
物体から撮影写真11a、12aへの射影変換行列が分
かる。カメラパラメータはカメラの幾何光学的性質を実
際に計測によって求めることも可能であるが、3次元空
間内の座標が既知である複数の点を3次元計測すること
によって逆にパラメータを校正する方法が実用的であ
る。
Step S2 is a step of calibrating the camera parameters of the cameras 11 and 12. The camera parameters include all data related to the camera, such as the position, orientation, and angle of view of the camera, are represented by a (3 × 4) matrix, and include 12 unknown parameters. When the camera parameters are obtained, a projection transformation matrix from the object such as a building in the three-dimensional space to the photographed photographs 11a and 12a is known. The camera parameters can be obtained by actually measuring the geometrical optical properties of the camera. However, a method of calibrating the parameters by performing three-dimensional measurement on a plurality of points having known coordinates in a three-dimensional space is known. It is practical.

【0021】キャリブレーション方法は従来からも知ら
れており、ここでは従来からの公知のキャリブレーショ
ン技術を使用する。即ち、3次元座標座標が既知の点を
少なくとも6個を配置した基準物体又は建物等の3次元
空間をカメラ11、12で撮影し、撮影写真上の対応す
る点の座標を求め、それらの座標から計算によってカメ
ラパラメータを求める。なお、この点は10〜20個あ
るのが好ましく、この場合には誤差の2乗和を最小にす
るように求める。これによって、カメラを通してみた3
次元空間の建物等の点と撮影写真上の点が対応付けられ
る。
The calibration method is conventionally known, and here, a conventionally known calibration technique is used. That is, three-dimensional space such as a reference object or a building in which at least six points having known three-dimensional coordinate coordinates are arranged is photographed by the cameras 11 and 12, and coordinates of corresponding points on the photographed photograph are obtained. To obtain camera parameters by calculation. In addition, it is preferable that there are 10 to 20 points. In this case, the error is calculated so as to minimize the sum of squares of the error. As a result, 3
A point such as a building in the three-dimensional space is associated with a point on the photographed photograph.

【0022】図4はカメラ11、12で撮影された写真
の例である。(A)は左側から見たカメラ11による撮
影写真11aで、(B)は右側から見たカメラ12によ
る撮影写真12aである。これらの撮影写真11a、1
2aのディジタルデータは計算機13の記憶装置19に
保存される。なお、撮影写真11a、12aにはビル2
7、28、29とドーム30が撮影されている。
FIG. 4 is an example of a photograph taken by the cameras 11 and 12. (A) is a photograph 11a taken by the camera 11 viewed from the left, and (B) is a photograph 12a taken by the camera 12 from the right. These photographs 11a, 1
The digital data 2a is stored in the storage device 19 of the computer 13. Note that the photographs 2a and 2a show the building 2
7, 28, 29 and the dome 30 are photographed.

【0023】ステップS3は撮影写真11aと撮影写真
12aの対応点、即ち、3次元空間の建物等(又は基準
物体)の同一の点を表している写真の点の2次元座標を
求める。対応点を求める方式としては相関法を利用し
て、自動的に検出する。航空写真のように撮影するとき
の角度が大きいときは相関法を利用する方法が適してい
る。対応点を求める際には、その前にレクチフィケーシ
ョンという操作を行う。この操作は、エピ曲線が水平に
なるように画像を変換する操作であり、従来から知られ
ている技術である。詳細な説明は省略する。これにより
相関を求める点を水平方向に探索すればよく、探索操作
が簡単になる。なお、エピ極線とは一方の撮影写真の点
に対応する他の撮影写真の点を通る直線をいう。
In step S3, two-dimensional coordinates of the corresponding point of the photograph 11a and the photograph 12a, that is, the point of the photograph representing the same point of the building or the like (or the reference object) in the three-dimensional space are obtained. Corresponding points are determined automatically by using a correlation method. When the angle at the time of photographing is large like an aerial photograph, a method using a correlation method is suitable. Before finding a corresponding point, an operation called rectification is performed. This operation is an operation for converting an image so that the epi-curve becomes horizontal, and is a conventionally known technique. Detailed description is omitted. As a result, the point for which the correlation is to be determined has only to be searched in the horizontal direction, and the search operation is simplified. Note that the epipolar line refers to a straight line passing through a point in another photographed photograph corresponding to a point in one photographed photograph.

【0024】相関法は従来から知られている技術であ
り、各撮影写真に小さなウィンドウを設定し、一方のウ
ィンドウを固定し、他方のウィンドウを移動させながら
ウィンドウ同志の相関を求め、相関の測度が最小になる
位置を求め、対応点として定める。このための演算は制
御演算装置18によって実行される。結果は記憶装置1
9に記録される。
The correlation method is a conventionally known technique, in which a small window is set for each photographed photograph, one of the windows is fixed, and the other is moved to obtain a correlation between the windows. Is determined and determined as a corresponding point. The calculation for this is performed by the control calculation device 18. Result is storage device 1
9 recorded.

【0025】ステップS4は2枚の撮影写真の対応点の
座標(x1、y1)、(x2、y2)(何れも図示省
略)から3次元空間の対応点の座標(X、Y、Z)(図
示省略)を求める。これにより建物等の地面上の座標点
と高さが求められる。3次元空間の対応点を求める方法
としては、例えば、2個の射影変換行列と撮影写真の対
応する点の座標を利用して演算により求めることができ
る。これにより、建物の見える点の位置及び高さデータ
が求められる。ステップS5では、図5に示すように、
所定値以上の高さデータ(z座標)の点群の配置図を求
める。以下、この点の集合を3次元座標群と呼び、CO
P(点集合の雲)と表すことにする。
In step S4, the coordinates (x1, y1) and (x2, y2) (corresponding to the illustrations) of the corresponding points of the two photographed photos are taken from the coordinates (X, Y, Z) (of the corresponding points) in the three-dimensional space. (Not shown). As a result, coordinate points and heights on the ground such as a building are obtained. As a method of obtaining the corresponding point in the three-dimensional space, for example, it can be obtained by calculation using two projective transformation matrices and the coordinates of the corresponding point in the photographed image. Thereby, the position and height data of the visible point of the building are obtained. In step S5, as shown in FIG.
An arrangement diagram of a point group having height data (z coordinate) equal to or larger than a predetermined value is obtained. Hereinafter, this set of points is called a three-dimensional coordinate group, and CO
It is represented as P (cloud of point set).

【0026】ステップS6ではディジタル地図を使っ
て、建物のセグメンテーション(区分け)を行う。ディ
ジタル地図には個々の建物毎に建物の地面上の角点のデ
ータ、即ち、角点の座標(x、y、0)が与えられてい
る。このデータに基づいて、各建物の区分けを行う。こ
の区分けは角点の座標(x、y、0)を表示器14に表
示させながらマウス16によってオペレータが行っても
よいし、制御演算部18に自動区分けプログラムを組み
込んで自動的に行わせてもよい。この区分けされた建物
の境界は、建物が垂直に建っているときは、図5に示す
COPの境界と一致するはずである。
In step S6, building segmentation is performed using a digital map. The digital map is provided with data of corner points on the ground of the buildings, that is, coordinates (x, y, 0) of the corner points for each building. Based on this data, each building is classified. This sorting may be performed by the operator using the mouse 16 while displaying the coordinates (x, y, 0) of the corner points on the display unit 14 or may be automatically performed by incorporating an automatic sorting program into the control calculation unit 18. Is also good. The boundary of the divided building should coincide with the boundary of the COP shown in FIG. 5 when the building stands vertically.

【0027】ステップS6では各建物をポリゴン化す
る。即ち、建物27、28、30に関しては建物の地上
の境界線を垂直方向に立ち上げて側壁を構成させ、建物
の高さはCOPを利用して決定する。また、建物29の
ように平面が凸形でないものは適宜分割して、例えば図
3の点線のように分割して2個の凸形にする。次に、建
物の高さをCOPを利用して決定する方法について述べ
る。建物の屋根は水平面に平行な平屋根とみなし、CO
Pで表現されている各建物の区画について高さデータの
平均値を求める。COPから平均高さを求める際には著
しく離れた高さデータはノイズとして除外する。また
は、この代わりにメジアンフィルタを使用してもよい。
メジアンフィルタはデータを大きさ順に並べて中央の値
を採用して建物高さとする。この方法を使用すればノイ
ズの除去という操作が省け、処理が簡単になる。
In step S6, each building is polygonized. That is, with respect to the buildings 27, 28, and 30, the boundary line on the ground of the building is raised vertically to form a side wall, and the height of the building is determined using the COP. Further, a building whose plane is not convex, such as the building 29, is appropriately divided, for example, as shown by a dotted line in FIG. Next, a method for determining the height of a building using the COP will be described. The roof of the building is regarded as a flat roof parallel to the horizontal plane, and CO
The average value of the height data is obtained for the section of each building represented by P. When calculating the average height from the COP, height data that is significantly apart is excluded as noise. Alternatively, a median filter may be used instead.
The median filter arranges the data in order of size and adopts the central value as the building height. By using this method, the operation of removing noise is omitted, and the processing is simplified.

【0028】上記のようにして得られたデータから各建
物を図6に示すような3次元ポリゴンとして表示する。
図6は3次元空間における建物等の3次元モデルを表し
ており、窓等を表すテキスチャは貼られていない。な
お、建物29はポリゴン34、35に分割され、建物3
0は扁平の屋根を持つポリゴン36で表現されている。
屋根の表示手段として、ドームのような半球、傾斜した
屋根、中央に稜線を持つ屋根等種々の変形屋根を表現す
る場合は、それらを予めモデルとして定めておき、CO
Pデータを分析してクラス分けして変形屋根を表現する
ようにしてもよい。例えば、COPデータをx平面、y
平面に投射して、それらの投射された形状から判別する
ことも可能である。
From the data obtained as described above, each building is displayed as a three-dimensional polygon as shown in FIG.
FIG. 6 shows a three-dimensional model of a building or the like in a three-dimensional space, and a texture representing a window or the like is not attached. The building 29 is divided into polygons 34 and 35, and the building 3
0 is represented by a polygon 36 having a flat roof.
When various deformed roofs such as a dome-shaped hemisphere, a sloping roof, a roof having a ridgeline in the center, etc. are expressed as the roof display means, these are determined in advance as models and CO
You may make it analyze a P data and classify and express a deformed roof. For example, the COP data is converted to an x-plane, y
It is also possible to project on a plane and determine from their projected shapes.

【0029】ステップS8は、図3のカメラ26で上記
建物の代わりに3次元ポリゴンモデルを撮影した写真
(以下、モデル写真という。)を計算機13で作り出
す。図7の写真40はモデル写真の一部を示す。モデル
写真を作るためには、図3のカメラ26のカメラパラメ
ータはカメラ11又はカメラ12のカメラパラメータを
示す行列に所定の行列を作用させることにより求めるこ
とができる。例えば、カメラ26が回転している場合は
回転行列を乗算し、平行移動する場合はその平行移動に
対する行列を乗算することによって得られる。得られた
行列を3次元モデルの角点等の座標に作用させればモデ
ル写真の座標が得られ、これを結ぶことによりモデル写
真40が得られる。また、建物等が重なって見えない部
分は陰線消去の手法(公知の手法)により消去する。な
お、カメラ26の回転、移動はマウス16を上下左右の
移動に対応させておくと地図の変化が表示器14上で見
られ、便利である。
In step S8, the computer 13 creates a photograph (hereinafter referred to as a model photograph) of a three-dimensional polygon model photographed by the camera 26 in FIG. The photograph 40 in FIG. 7 shows a part of the model photograph. In order to create a model photograph, the camera parameters of the camera 26 in FIG. 3 can be obtained by applying a predetermined matrix to a matrix indicating the camera parameters of the camera 11 or the camera 12. For example, when the camera 26 is rotating, it is obtained by multiplying a rotation matrix, and when the camera 26 is translated, it is obtained by multiplying a matrix for the translation. By applying the obtained matrix to coordinates such as corner points of the three-dimensional model, the coordinates of the model photograph can be obtained, and by connecting these, the model photograph 40 can be obtained. In addition, a part where buildings and the like overlap and cannot be seen is erased by a hidden line elimination method (known method). It is convenient to rotate and move the camera 26 by moving the mouse 16 up, down, left, and right so that changes in the map can be seen on the display 14.

【0030】ステップS9では、モデル写真40の各部
分に貼り付けるテキスチャを選択する。この選択工程で
は、撮影写真11a又は12aの中から選択する場合の
他にテキスチャを取り出すために(例えば地上から)撮
影したより鮮明な写真を選択する場合もある。前者の場
合、テキスチャを貼り付ける部分に対応した部分が撮影
写真11a又は12a或いは双方に存在するかどうかを
調べる。調べる方法としては、テキスチャを貼り付ける
モデル写真のポリゴン面に相当する3次元ポリゴンの面
に複数の点をランダムに指定し、指定された全ての点と
カメラ11及びカメラ12のレンズ中心とを結ぶ半直線
(指定された点からレンズ中心に向かう半直線)上に他
の3次元ポリゴンが存在しているかどうかを制御演算装
置18で計算してチェックする。
In step S9, a texture to be attached to each part of the model photograph 40 is selected. In this selection step, in addition to the case where the photograph is selected from the photographed photographs 11a or 12a, a clearer photograph photographed (for example, from the ground) may be selected in order to take out the texture. In the former case, it is checked whether a portion corresponding to the portion to which the texture is to be attached exists in the photographed photograph 11a or 12a or both. As a method of checking, a plurality of points are randomly designated on the surface of a three-dimensional polygon corresponding to the polygon surface of the model photograph to which the texture is to be attached, and all designated points are connected to the lens centers of the cameras 11 and 12. The control arithmetic unit 18 calculates and checks whether another three-dimensional polygon exists on a half line (a half line from the designated point toward the lens center).

【0031】両方とも存在している場合はテキスチャを
張り付けようとしている3次元ポリゴン面は他の3次元
ポリゴンの陰に隠れており、撮影写真11a及び12a
のテキスチャをワーピングすることはできない。この場
合はマッピングをしない旨の選択を行う。一方のカメラ
レンズ中心を通る半直線上には他のポリゴンが存在する
が、他方のカメラレンズの中心を通る半直線上に他のポ
リゴンが存在しないときは、他方のカメラによる撮影写
真からテキスチャを抜き出してワーピングする。両方の
カメラレンズ中心を通る半直線上に他のポリゴンが存在
しない場合は一方の撮影写真からテキスチャを抜き出し
てワーピングを行う。例えば、その壁面等の面積が大き
い方を選択する。これにより、通常は、より詳細なテキ
スチャが得られる。
If both exist, the three-dimensional polygon surface to which the texture is to be attached is hidden behind the other three-dimensional polygons, and the photographed photographs 11a and 12a
Texture cannot be warped. In this case, the user selects not to perform mapping. When another polygon exists on the half line passing through the center of one camera lens but no other polygon exists on the half line passing through the center of the other camera lens, the texture is taken from the photograph taken by the other camera. Extract and warp. If no other polygon exists on a half line passing through the centers of both camera lenses, texture is extracted from one of the photographed images and warping is performed. For example, one having a larger area such as a wall surface is selected. This usually results in a more detailed texture.

【0032】また、航空写真等からテキスチャをワーピ
ングせずに、地上から撮影した建物等の写真を利用する
こともできる。地上から撮影した写真を利用することに
より、より鮮明な写真をマッピングすることも可能にな
る。また、前記の航空撮影写真11a又は12aに現れ
ていない部分についてもテキスチャを貼り付けることも
可能である。
Further, a photograph of a building or the like taken from the ground can be used without warping the texture from an aerial photograph or the like. By using photos taken from the ground, clearer photos can be mapped. It is also possible to attach a texture to a portion not appearing in the aerial photograph 11a or 12a.

【0033】以下、図7に示すモデル写真40のポリゴ
ン32を構成する4辺形42(P1〜P4)にテキスチ
ャを貼り付けるマッピング手順について説明する。ま
ず、テキスチャを貼り付ける面からテキスチャを取り出
す撮影写真(例えば、写真11a)への射影変換行列φ
を求める。射影変換行列φを求める方式には、基準とす
る射影変換行列に回転、平行移動等の行列を掛けて求め
ることもできる。また、アファイン変換又はホモグラフ
ィック変換を利用する方式も公知である。この公知の方
式を利用すれば、地上等から撮影した写真からテキスチ
ャを取り出すこともできる。
A mapping procedure for attaching a texture to the quadrilaterals 42 (P1 to P4) constituting the polygon 32 of the model photograph 40 shown in FIG. 7 will be described below. First, a projection transformation matrix φ to a photographed photograph (for example, photograph 11a) for taking out the texture from the surface to which the texture is to be attached
Ask for. In the method for obtaining the projection transformation matrix φ, the projection transformation matrix can be obtained by multiplying a reference projection transformation matrix by a matrix such as rotation or translation. Also, a method using affine transformation or homographic transformation is known. If this known method is used, a texture can be extracted from a photograph taken from the ground or the like.

【0034】求めた射影変換行列φを利用して逆ワーピ
ングを行う。即ち、ポリゴン32の正面の4辺形42
(角点P1〜P4)の内部及び縁の各点の座標(x、
y)に対して射影変換行列φを掛けて対応する点を(例
えば写真11a上に)求める。求めた点の写真11a上
の画素データを記憶装置19から読み出して4辺形42
の画素データとして与える。以上の手続きをモデル写真
40の全ての図形に対して行う。これによって、モデル
写真40にテキスチャが貼り付けられる。ステップ11
では、視点位置、角度が変化したかどうかを検出する。
実際には、マウス16の位置が移動したかどうかを検出
し、移動している場合はステップ8〜ステップ10の手
順を繰り返す。
Inverse warping is performed using the obtained projective transformation matrix φ. That is, the quadrilateral 42 in front of the polygon 32
The coordinates (x,
The corresponding point is obtained (for example, on the photograph 11a) by multiplying y) by the projective transformation matrix φ. The pixel data of the obtained point on the photograph 11 a is read out from the storage device 19 and read into the quadrilateral 42.
As pixel data. The above procedure is performed for all figures of the model photograph 40. Thereby, the texture is attached to the model photograph 40. Step 11
Then, it is detected whether the viewpoint position and the angle have changed.
Actually, it is detected whether or not the position of the mouse 16 has moved, and if it has moved, the procedure of steps 8 to 10 is repeated.

【0035】以上に述べたように、本実施形態の方法で
作成される3次元地図は建物等の写真が見る方向が変化
するにつれて変化するので、あたかも3次元的な写真を
見ているような感覚を観測者に与えるという効果があ
る。また、本方法を実施するために複雑な装置を必要と
しないので安価な3次元地図が作成できるという効果が
あり、実用的な手段であるといえる。更に、本方法によ
る3次元地図は一度作成してしまえば再生は簡単であ
り、かつ、再生する手段を大量に生産又はコピーするこ
とができるという効果がある。
As described above, the three-dimensional map created by the method of the present embodiment changes as the direction in which the photograph of a building or the like changes, so that it is as if a three-dimensional photograph is viewed. This has the effect of giving a sense to the observer. In addition, since a complicated device is not required to carry out the present method, there is an effect that an inexpensive three-dimensional map can be created, which can be said to be a practical means. Furthermore, once the three-dimensional map according to the present method is created, it is easy to reproduce the three-dimensional map, and the reproducing means can be produced or copied in large quantities.

【0036】以上、この発明の実施形態、実施例を図面
により詳述してきたが、具体的な構成はこの実施例に限
られるものではなく、この発明の要旨を逸脱しない範囲
の設計の変更等があってもこの発明に含まれる。例え
ば、ステップ1の航空写真の撮影とステップ2のキャリ
ブレーションの順序を変更してもよいし、また同時に行
ってもよい。また、本実施例で述べた全てのステップを
そのまま実行する必要もなく一部は省略、又は別の方法
に変更してもよい。
The embodiments and examples of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the examples, and changes in design and the like may be made without departing from the gist of the present invention. Even if there is, it is included in the present invention. For example, the order of the aerial photography in step 1 and the calibration in step 2 may be changed, or may be performed simultaneously. Also, it is not necessary to execute all the steps described in the present embodiment as they are, and some of them may be omitted or changed to another method.

【0037】[0037]

【発明の効果】以上説明したように、この発明の構成に
よれば、本方法で作成される3次元地図は建物等の写真
が見る方向が変化するにつれて変化するので、あたかも
3次元的な写真を見ているような感覚を観測者に与える
という効果がある。また、本方法を実施するために複雑
な装置を必要としないので安価な3次元地図が作成でき
るという効果があり、実用的な手段である。
As described above, according to the configuration of the present invention, the three-dimensional map created by the present method changes as the direction in which a photograph of a building or the like changes, as if it were a three-dimensional photograph. This has the effect of giving the observer the sensation of watching the scene. In addition, since a complicated device is not required to implement the method, an inexpensive three-dimensional map can be created, which is a practical means.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施形態の手順を示すフローチャー
トである。
FIG. 1 is a flowchart illustrating a procedure according to an embodiment of the present invention.

【図2】 本発明の方法を実施するための装置の構成例
を示す。
FIG. 2 shows a configuration example of an apparatus for performing the method of the present invention.

【図3】 本実施形態の建物及びカメラの配置構成を示
す。
FIG. 3 illustrates an arrangement configuration of a building and a camera according to the present embodiment.

【図4】 本実施形態のカメラによる写真例を示す。FIG. 4 shows an example of a photograph taken by the camera of the embodiment.

【図5】 本実施形態におけるCOPの例を示す。FIG. 5 shows an example of a COP in the present embodiment.

【図6】 本実施形態におけるポリゴン化された建物を
示す。
FIG. 6 shows a polygonized building in the present embodiment.

【図7】 写真のテキスチャを選択、貼り付ける手順を
示す。
FIG. 7 shows a procedure for selecting and pasting a texture of a photograph.

【符号の説明】[Explanation of symbols]

11、12 カメラ 13 計算機 14 表示器 15、16 入力操作手段 18 制御演算装置 19 記憶メモリ 27〜30 建物 32〜36 ポリゴン 11, 12 Camera 13 Calculator 14 Display 15, 16 Input operation means 18 Control arithmetic unit 19 Storage memory 27-30 Building 32-36 Polygon

───────────────────────────────────────────────────── フロントページの続き (72)発明者 オリビエ デラハヤ 東京都渋谷区広尾5−19−9広尾ONビル 株式会社ゲン・テック内 (72)発明者 市橋 敬男 東京都渋谷区広尾5−19−9広尾ONビル 株式会社ゲン・テック内 (72)発明者 鈴木 一史 東京都渋谷区広尾5−19−9広尾ONビル 株式会社ゲン・テック内 Fターム(参考) 2C032 HB03 HB11 HB22 HC23 5B050 BA02 BA07 BA09 BA17 EA19 EA22 EA28 FA02 9A001 DD15 HH29 JJ11 JJ31  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Olivier Delahaya 5-19-9 Hiroo, Shibuya-ku, Tokyo Hiroo ON Building Gen-Tech Co., Ltd. (72) Inventor Takao Ichihashi 5-19-9, Hiroo, Shibuya-ku, Tokyo Hiroo ON Building Gen-Tech Co., Ltd. (72) Inventor Kazushi Suzuki 5-19-9 Hiroo, Shibuya-ku, Tokyo Hiroo ON Building Gen-Tech Co., Ltd. F-term (reference) 2C032 HB03 HB11 HB22 HC23 5B050 BA02 BA07 BA09 BA17 EA19 EA22 EA28 FA02 9A001 DD15 HH29 JJ11 JJ31

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 複数の空中撮影写真に基づいて3次元地
図を作成する方法において、前記地図作成方法は、前記
撮影写真から該3次元における建物等の点の3次元座標
を求める座標算出工程と、前記建物等の区分を定める区
分工程と、前記座標算出工程で求められた3次元座標と
前記区分工程で求められた区分から建物等をポリゴンで
近似するポリゴン化工程と、該ポリゴンに貼り付けるテ
キスチャを選択する選択工程と、前記選択された写真の
テキスチャを貼り付けるマッピング工程を含むことを特
徴とする3次元地図作成方法。
1. A method for creating a three-dimensional map based on a plurality of aerial photographs, the method comprising: calculating a three-dimensional coordinate of a point such as a building in the three dimensions from the photographed photographs. A partitioning step of determining a section of the building or the like; a polygonalizing step of approximating a building or the like with a polygon from the three-dimensional coordinates obtained in the coordinate calculation step and the section obtained in the partitioning step; A three-dimensional map creation method, comprising: a selection step of selecting a texture; and a mapping step of pasting a texture of the selected photograph.
【請求項2】 前記座標算出工程は、前記撮影写真のエ
ピ曲線を水平にするレクチフィーケション工程と、その
後に該撮影写真上の対応点を求める工程を含むことを特
徴とする請求項1に記載の3次元地図作成方法。
2. The method according to claim 1, wherein the coordinate calculating step includes a rectification step of making an epi-curve of the photographed picture horizontal, and a step of obtaining a corresponding point on the photographed picture thereafter. 3. The method for creating a three-dimensional map according to item 1.
【請求項3】 前記区分工程はディジタル地図を利用し
て行うことを特徴とする請求項1〜請求項2の何れか1
に記載の3次元地図作成方法。
3. The method according to claim 1, wherein the dividing step is performed using a digital map.
3. The method for creating a three-dimensional map according to item 1.
【請求項4】 前記区分工程で求めた建物等の区分が凸
形を形成しない場合は、複数個の凸形に分割することを
特徴とする請求項1〜請求項3の何れか1に記載の3次
元地図作成方法。
4. The method according to claim 1, wherein when the division of the building or the like obtained in the division step does not form a convex shape, the division is made into a plurality of convex shapes. 3D map creation method.
【請求項5】 前記ポリゴン化工程は、前記区分された
建物等の地上枠を垂直に立上げて側壁を構成し、前記座
標算出工程で求めた座標群から建物高さを求めて屋根を
構成したことを特徴とする請求項1〜請求項4の何れか
1に記載の3次元地図作成方法。
5. The polygon conversion step comprises forming a side wall by vertically raising a ground frame of the divided building or the like, and forming a roof by obtaining a building height from a coordinate group obtained in the coordinate calculation step. The method for creating a three-dimensional map according to any one of claims 1 to 4, wherein:
【請求項6】 前記ポリゴン化工程は、建物等の屋根を
地上枠内の点群の座標高さを平均値とする平屋根で近似
したことを特徴とする請求項1〜請求項5の何れか1に
記載の3次元地図作成方法。
6. The polygon forming step according to claim 1, wherein the roof of the building or the like is approximated by a flat roof having an average value of coordinate heights of point groups in the ground frame. 3. The method for creating a three-dimensional map according to item 1.
【請求項7】 前記ポリゴン化工程は、建物等の屋根を
地上枠内の点群の座標高さを大きさの順に並べ、その中
央値を高さとする平屋根で近似したことを特徴とする請
求項1〜請求項5の何れか1に記載の3次元地図作成方
法。
7. The polygon conversion step is characterized in that a roof of a building or the like is arranged in the order of magnitude of coordinate heights of point groups in a ground frame, and is approximated by a flat roof having a median height. The three-dimensional map creation method according to any one of claims 1 to 5.
【請求項8】 前記ポリゴン化工程は、建物屋根に複数
の所定の形状モデルを指定し、前記座標算出工程で求め
た座標群の高さデータをxー平面及びyー平面に投射し
て、それらの投射された形状から前記所定の形状モデル
を選択してポリゴン化すること特徴とする請求項1〜請
求項6の何れか1に記載の3次元地図作成方法。
8. The polygonizing step specifies a plurality of predetermined shape models on a building roof and projects height data of a coordinate group obtained in the coordinate calculating step on an x-plane and a y-plane. The three-dimensional map creation method according to any one of claims 1 to 6, wherein the predetermined shape model is selected from the projected shapes and converted into a polygon.
【請求項9】 前記選択工程は、前記マッピングを行う
部分が前記撮影写真に現れているかどうかを判断するた
めに、該マッピングを行う部分に対応する3次元ポリゴ
ン部分の面に複数の点を配置し、該配置された点から出
発してカメラのレンズ中心を通過する半直線上に該3次
元ポリゴン以外の他の3次元ポリゴンが存在するか否か
を判定する工程を含むことを特徴とする請求項1〜請求
項7の何れか1に記載の3次元地図作成方法。
9. The selecting step includes arranging a plurality of points on a surface of a three-dimensional polygon portion corresponding to the portion to be mapped, in order to determine whether the portion to be mapped appears in the photographed photograph. And determining whether or not there is another three-dimensional polygon other than the three-dimensional polygon on a half line passing through the center of the lens of the camera starting from the arranged point. The method for creating a three-dimensional map according to claim 1.
【請求項10】 前記選択工程は、前記ポリゴンにマッ
ピングを行う部分が前記撮影写真の複数枚に現れている
場合はそれらの内の何れか1枚を選択して、マッピング
を行うことを特徴とする請求項1〜請求項8の何れか1
に記載の3次元地図作成方法。
10. In the selecting step, when a portion to be mapped to the polygon appears in a plurality of the photographed photographs, any one of the photographed photos is selected and the mapping is performed. Any one of claims 1 to 8
3. The method for creating a three-dimensional map according to item 1.
【請求項11】 前記選択工程は、前記複数の撮影写真
の内で撮影画像が最大のものを選択することを特徴とす
る請求項9に記載の3次元地図作成方法。
11. The three-dimensional map creation method according to claim 9, wherein the selecting step selects a photograph having the largest photographed image among the plurality of photographed photographs.
【請求項12】 前記選択工程は、前記空中撮影写真以
外のテキスチャを取り出すために撮影した撮影写真を選
択することを特徴とする請求項1〜請求項10の何れか
1に記載の3次元地図作成方法。
12. The three-dimensional map according to claim 1, wherein the selecting step selects a photographed photograph taken for taking out a texture other than the aerial photographed photograph. How to make.
【請求項13】 前記マッピング工程は、逆ワーピング
によりテキスチャを貼り付けることを特徴とする請求項
1〜請求項11の何れか1に記載の3次元地図作成方
法。
13. The three-dimensional map creation method according to claim 1, wherein in the mapping step, a texture is pasted by reverse warping.
JP14014399A 1999-05-20 1999-05-20 Three-dimensional map preparing method Pending JP2000329552A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14014399A JP2000329552A (en) 1999-05-20 1999-05-20 Three-dimensional map preparing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14014399A JP2000329552A (en) 1999-05-20 1999-05-20 Three-dimensional map preparing method

Publications (1)

Publication Number Publication Date
JP2000329552A true JP2000329552A (en) 2000-11-30

Family

ID=15261882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14014399A Pending JP2000329552A (en) 1999-05-20 1999-05-20 Three-dimensional map preparing method

Country Status (1)

Country Link
JP (1) JP2000329552A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197009A (en) * 2000-12-25 2002-07-12 Nec Corp Information providing server, client, processing method for information providing system, recording medium recorded with program, and advertisement providing method
JP2005521123A (en) * 2001-10-22 2005-07-14 ライカ ミクロジュステムス ヴェツラー ゲーエムベーハー Method and apparatus for generating three-dimensional image detected by optical microscope
US7149346B2 (en) 2001-11-02 2006-12-12 Nec Toshiba Space Systems, Ltd. Three-dimensional database generating system and method for generating three-dimensional database
WO2008062819A1 (en) * 2006-11-21 2008-05-29 Nec Corporation Three-dimensional map data generating system, three-dimensional map data generating method and three-dimensional data generating program
JP2009271895A (en) * 2008-04-30 2009-11-19 Kokusai Kogyo Co Ltd Image set and method for independent rectification
CN103438864A (en) * 2013-08-07 2013-12-11 长江勘测规划设计研究有限责任公司 Real-time digital geological record system for engineering side slope
JP2014106118A (en) * 2012-11-28 2014-06-09 Kokusai Kogyo Co Ltd Digital surface model creation method, and digital surface model creation device
JP2014185947A (en) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd Image photographing method for three-dimensional restoration
CN109727255A (en) * 2018-11-29 2019-05-07 广东中达规谷地信科技有限公司 A kind of three-dimensional model building dividing method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197009A (en) * 2000-12-25 2002-07-12 Nec Corp Information providing server, client, processing method for information providing system, recording medium recorded with program, and advertisement providing method
JP2005521123A (en) * 2001-10-22 2005-07-14 ライカ ミクロジュステムス ヴェツラー ゲーエムベーハー Method and apparatus for generating three-dimensional image detected by optical microscope
US7149346B2 (en) 2001-11-02 2006-12-12 Nec Toshiba Space Systems, Ltd. Three-dimensional database generating system and method for generating three-dimensional database
WO2008062819A1 (en) * 2006-11-21 2008-05-29 Nec Corporation Three-dimensional map data generating system, three-dimensional map data generating method and three-dimensional data generating program
JPWO2008062819A1 (en) * 2006-11-21 2010-03-04 日本電気株式会社 3D map data generation system, 3D map data generation method, and 3D map data generation program
US8339393B2 (en) 2006-11-21 2012-12-25 Nec Corporation Three-dimensional map data generating system, three-dimensional map data generating method and three-dimensional map data generating program
JP2009271895A (en) * 2008-04-30 2009-11-19 Kokusai Kogyo Co Ltd Image set and method for independent rectification
JP2014106118A (en) * 2012-11-28 2014-06-09 Kokusai Kogyo Co Ltd Digital surface model creation method, and digital surface model creation device
JP2014185947A (en) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd Image photographing method for three-dimensional restoration
CN103438864A (en) * 2013-08-07 2013-12-11 长江勘测规划设计研究有限责任公司 Real-time digital geological record system for engineering side slope
CN109727255A (en) * 2018-11-29 2019-05-07 广东中达规谷地信科技有限公司 A kind of three-dimensional model building dividing method
CN109727255B (en) * 2018-11-29 2022-11-18 广东中达规谷地信科技有限公司 Building three-dimensional model segmentation method

Similar Documents

Publication Publication Date Title
CN109658365B (en) Image processing method, device, system and storage medium
Guillou et al. Using vanishing points for camera calibration and coarse 3D reconstruction from a single image
CN103810744B (en) It is backfilled a little in cloud
KR101319805B1 (en) Photographing big things
CN107484428B (en) Method for displaying objects
WO2017152803A1 (en) Image processing method and device
JP6196416B1 (en) 3D model generation system, 3D model generation method, and program
US20050140670A1 (en) Photogrammetric reconstruction of free-form objects with curvilinear structures
JP2018536915A (en) Method and system for detecting and combining structural features in 3D reconstruction
WO2017203709A1 (en) Three-dimensional model generation system, three-dimensional model generation method, and program
WO2019035155A1 (en) Image processing system, image processing method, and program
RU2007113914A (en) NUMERICAL DECISION AND CONSTRUCTION OF THREE-DIMENSIONAL VIRTUAL MODELS ON AERIAL PICTURES
JP6921686B2 (en) Generator, generation method, and program
CN110648274B (en) Method and device for generating fisheye image
CN113347373B (en) Image processing method for making special-effect video in real time through AR space positioning
WO2021146449A1 (en) Visual object history
CN111524230B (en) Linkage browsing method for three-dimensional model and unfolded panoramic image and computer system
CN109064533B (en) 3D roaming method and system
JP2001022936A (en) Device for generating three-dimensional shape
JP2000329552A (en) Three-dimensional map preparing method
KR20080034419A (en) 3d image generation and display system
RU2735066C1 (en) Method for displaying augmented reality wide-format object
JP2022518402A (en) 3D reconstruction method and equipment
Evers‐Senne et al. Image based interactive rendering with view dependent geometry
CN116681854A (en) Virtual city generation method and device based on target detection and building reconstruction