JP2010224735A - Three-dimensional space data generating method and three-dimensional space data generating device - Google Patents

Three-dimensional space data generating method and three-dimensional space data generating device Download PDF

Info

Publication number
JP2010224735A
JP2010224735A JP2009069641A JP2009069641A JP2010224735A JP 2010224735 A JP2010224735 A JP 2010224735A JP 2009069641 A JP2009069641 A JP 2009069641A JP 2009069641 A JP2009069641 A JP 2009069641A JP 2010224735 A JP2010224735 A JP 2010224735A
Authority
JP
Japan
Prior art keywords
dimensional space
space data
data
dimensional
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009069641A
Other languages
Japanese (ja)
Other versions
JP5122508B2 (en
Inventor
Tomohide Suzuki
伴英 鈴木
Akira Kurosawa
明 黒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2009069641A priority Critical patent/JP5122508B2/en
Publication of JP2010224735A publication Critical patent/JP2010224735A/en
Application granted granted Critical
Publication of JP5122508B2 publication Critical patent/JP5122508B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for generating three-dimensional space data for at least one image by utilizing space data without needing an image captured from multi-point of view. <P>SOLUTION: A three-dimensional space data generating system has a two-dimensional space data DB 101, a three-dimensional space data DB 102, a host system 104, and a terminal 103. They are configured to be connectable through a LAN, for instance. The two-dimensional space data DB 101 and the three-dimensional space data DB 102 are connected to the host system 104. A user utilizes an input part 107, a display part 108, or the like of a terminal 103 to transfer camera image data, edit data, or the like to the host system 104 and to store the three-dimensional space data. The host system 104 has a retrieval processing part 105 and a three-dimensional space data generating part 106. Space coordinates of the two-dimensional space data are associated with the camera image, and the height is measured to generate three-dimensional space data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、3次元空間データ作成技術に関し、特に、2次元空間データから3次元空間データを作成する技術に関し、より詳細には、指定された物体について、ジャイロセンサ及び位置センサを搭載したカメラで撮影された画像と、その物体が存在している2次元空間データを用いて3次元空間データを作成する技術に関するものである。
ジャイロセンサ
The present invention relates to three-dimensional spatial data creation technology, and more particularly to a technology for creating three-dimensional spatial data from two-dimensional spatial data. The present invention relates to a technique for creating three-dimensional spatial data using a photographed image and two-dimensional spatial data in which the object exists.
Gyro sensor

現在、地図のデジタル化が進んでいる。これにより、地図上に多くの情報をあわせて持たせることができるようになっており、地図の有用性はますます高くなることが予想される。また地図上に3次元モデルや360°視点の画像を配置したり、3次元モデルを作成し、地図に配置するサービスが提供されている。これらの技術は、多視点から撮影された画像に基づいて物体等の高さを検出し3次元モデルを作成したり、CADを利用して3次元モデルを作成したりする技術があり、様々な方法で3次元空間データを作成することができる。   Currently, the digitization of maps is progressing. This makes it possible to have a lot of information on the map, and the usefulness of the map is expected to increase. In addition, a service is provided in which a 3D model or a 360 ° viewpoint image is placed on a map, or a 3D model is created and placed on a map. These techniques include techniques for detecting the height of an object or the like based on images taken from multiple viewpoints and creating a three-dimensional model, or creating a three-dimensional model using CAD. Three-dimensional spatial data can be created by the method.

従来の3次元空間データ作成方法としては、例えば、下記特許文献1から3までに記載の技術が知られている。   As conventional three-dimensional spatial data creation methods, for example, techniques described in Patent Documents 1 to 3 below are known.

特開2003−317081号公報JP 2003-317081 A 特開2002−8012号公報JP 2002-8012 A 特開2002−189412号公報Japanese Patent Laid-Open No. 2002-189412

しかしながら、現在、3次元空間データを作成する場合、例えば、一定の高度を保ったセスナ機が、地面を垂直に連続で撮影し、オーバーラップした部分を持つ撮影位置のずれた写真を数枚使用して標高を計算し、3次元空間データを作成していく方法を用いている。これに限らず、3次元空間データを作成する場合には、1つの物体を多視点から撮影した画像が必要となってくるため、手間がかかるという問題があった。   However, currently, when creating 3D spatial data, for example, a Cessna machine that maintains a certain altitude uses a number of photographs that have taken overlapping positions and have taken overlapping images. The altitude is calculated and a method of creating three-dimensional spatial data is used. In addition to this, when creating three-dimensional space data, there is a problem that it takes time since an image obtained by photographing one object from multiple viewpoints is required.

本発明は、多視点から撮影した画像を必要とせず、空間データを利用し、少なくとも1枚の画像があれば3次元空間データを作成することが出来る技術を提供することを目的とする。   An object of the present invention is to provide a technique that does not require images taken from multiple viewpoints and that can use spatial data to create three-dimensional spatial data if there is at least one image.

本発明の一観点によれば、撮影方向及び撮影位置と関連付けされた対象物の撮影画像に基づいて、2次元空間データから3次元空間データをコンピュータ処理により作成する3次元空間データ作成方法であって、前記撮影方向及び撮影位置に基づいて、2次元空間データを格納する2次元空間データベースから前記対象物の2次元空間データを検索するステップと、検索された前記2次元空間データと前記撮影画像とを対比させて、前記対象物の前記2次元空間データの頂点と前記撮影画像の頂点とを対応付けするステップと、
前記撮影画像の中心を、撮影方向の中心とするという条件の下で、前記撮影方向及び前記撮影位置を用いて前記対象物の高さを求めるステップと、を有することを特徴とする3次元空間データ作成方法が提供される。3次元空間データを作成する際にジャイロセンサやGPSを搭載したカメラで撮影された画像のみではなく、その画像に対応する2次元空間データを使用する。これより、撮影されたカメラ画像に、2次元空間データから空間座標を対応付け、空間座標から高さを計測する。
According to one aspect of the present invention, there is provided a three-dimensional spatial data creation method for creating three-dimensional spatial data from two-dimensional spatial data by computer processing based on a photographed image of an object associated with a photographing direction and a photographing position. A step of retrieving the two-dimensional space data of the object from a two-dimensional space database storing two-dimensional space data based on the photographing direction and the photographing position; and the retrieved two-dimensional space data and the photographed image And associating the vertex of the two-dimensional space data of the object with the vertex of the captured image;
Obtaining a height of the object using the photographing direction and the photographing position under a condition that the center of the photographed image is the center of the photographing direction. A data creation method is provided. When creating three-dimensional spatial data, not only an image taken with a camera equipped with a gyro sensor or GPS but also two-dimensional spatial data corresponding to the image is used. Thus, the captured camera image is associated with spatial coordinates from the two-dimensional spatial data, and the height is measured from the spatial coordinates.

前記対象物の高さを求めるステップは、前記撮影画像の中心(撮影方向の中心)を設定し、該中心から引いた垂線と、前記対象物の輪郭との交点を設定し、該交点と前記中心との距離を、前記撮影位置と前記交点との第1の距離と、前記撮影位置と前記撮影方向から求まる撮影角度と前記撮影位置の高さとから求めた第2の距離との和と前記撮影角度とから求めるステップと、前記交点と前記中心との距離である第1の高さと前記対象物の残りの第2の高さとから前記対象物の高さを求めるステップであって、前記第2の高さを前記第1の高さと前記撮影画像のピクセル値の比から求めて加算するステップと、を有することを特徴とする。さらに、前記撮影画像では見えない位置の前記3次元空間データの座標を、前記2次元空間データに基づいて補間して求めるステップを有するようにするのが好ましい。   The step of obtaining the height of the object sets a center of the captured image (center of the capturing direction), sets an intersection of a perpendicular drawn from the center and an outline of the object, and the intersection and the The distance to the center is the sum of the first distance between the photographing position and the intersection, the second distance obtained from the photographing angle obtained from the photographing position and the photographing direction, and the height of the photographing position, and Obtaining a height of the object from a first height which is a distance between the intersection and the center and a remaining second height of the object; And calculating and adding the height of 2 from the ratio of the first height to the pixel value of the captured image. Furthermore, it is preferable to include a step of obtaining the coordinates of the three-dimensional space data at a position not visible in the captured image by interpolation based on the two-dimensional space data.

本発明は、上記に記載の3次元空間データ作成方法をコンピュータに実行させるためのプログラムであっても良く、該プログラムを記録するコンピュータ読み取り可能な記録媒体であっても良い。   The present invention may be a program for causing a computer to execute the above-described three-dimensional spatial data creation method, or a computer-readable recording medium for recording the program.

本発明の他の観点によれば、撮影方向及び撮影位置と関連付けされた対象物の撮影画像に基づいて、2次元空間データから3次元空間データをコンピュータ処理により作成する3次元空間データ作成装置であって、前記撮影方向及び撮影位置に基づいて、2次元空間データを格納する2次元空間データベースから前記対象物の2次元空間データを検索する検索処理部と、検索された前記2次元空間データと前記撮影画像とを対比させて、前記対象物の前記2次元空間データの頂点と前記撮影画像の頂点とを対応付けし、前記撮影画像の中心を、撮影方向の中心とするという条件の下で、前記撮影方向及び前記撮影位置を用いて前記対象物の高さを求める3次元空間データ作成部と、を有することを特徴とする3次元空間データ作成装置が提供される。   According to another aspect of the present invention, there is provided a three-dimensional spatial data creation device that creates three-dimensional spatial data from two-dimensional spatial data by computer processing based on a photographed image of an object associated with a photographing direction and a photographing position. A search processing unit for searching the two-dimensional space data of the object from a two-dimensional space database storing two-dimensional space data based on the shooting direction and the shooting position; and the searched two-dimensional space data; In contrast to the captured image, the vertex of the two-dimensional space data of the object is associated with the vertex of the captured image, and the center of the captured image is the center of the capturing direction. And a three-dimensional spatial data creation unit that obtains the height of the object using the photographing direction and the photographing position. It is.

本発明によれば、カメラ画像を利用して、3次元空間データを簡単に作成することが出来るという利点がある。また複数のカメラ画像は必要でなく、カメラ画像では認識できない部分は2次元空間データを利用し補間することが可能である。   According to the present invention, there is an advantage that three-dimensional space data can be easily created using a camera image. In addition, a plurality of camera images are not required, and a portion that cannot be recognized by the camera images can be interpolated using two-dimensional spatial data.

本発明の一実施の形態による3次元空間データ作成装置のシステム構造例を示す図である。It is a figure which shows the system structural example of the three-dimensional spatial data creation apparatus by one embodiment of this invention. 本実施の形態による3次元空間データ作成処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the three-dimensional space data creation process by this Embodiment. 本実施の形態によるカメラ画像の一例を示す図である。It is a figure which shows an example of the camera image by this Embodiment. 図3に示すカメラ画像に対応する2次元空間データを示す図である。It is a figure which shows the two-dimensional space data corresponding to the camera image shown in FIG. 検索された2次元空間データとカメラ画像とが対になって表示されている例を示す図である。It is a figure which shows the example by which the searched two-dimensional space data and a camera image are displayed as a pair. カメラ画像の高さ計測の様子を示す図である。It is a figure which shows the mode of the height measurement of a camera image. カメラ画像と2次元空間データとの関係を示す図である。It is a figure which shows the relationship between a camera image and two-dimensional space data. カメラ画像の中心までの高さD3を求めるための図形を示す図である。It is a figure which shows the figure for calculating | requiring height D3 to the center of a camera image. 建物の高さを求めるための図形を示す図である。It is a figure which shows the figure for calculating | requiring the height of a building. 不可視点を考慮して2次元空間データから補間的に3次元空間データを求める様子を示す図である。It is a figure which shows a mode that 3D space data is calculated | required by interpolation from 2D space data in consideration of an impossible viewpoint. 建物に3次元空間データを与えた完成図である。It is the completion figure which gave three-dimensional space data to the building.

以下において、本発明の一実施の形態による3次元空間データ作成技術について図面を参照しながら説明を行う。本実施の形態では、3次元空間データの作成対象として建物を例にして説明するが、対象は建物に限定されるものではない。   Hereinafter, a three-dimensional spatial data creation technique according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a building is described as an example of the creation target of the three-dimensional spatial data, but the target is not limited to the building.

図1は、本発明の一実施の形態による3次元空間データ作成装置のシステム構造例を示す図である。図1に示すように、本実施の形態による3次元空間データ作成システムは、2次元空間データデータベース101と、3次元空間データデータベース102と、ホストシステム104と、端末103と、を有しており、これらが例えばLANなどにより接続可能に構成されている。端末103は、例えばGUIなどにより、視覚的に空間データとカメラ画像とを編集するPCなどにより構成されている。ホストシステム104には、2次元空間データデータベース101と3次元空間データデータベース102とが接続されている。2次元空間データとは、本実施の形態においては、建物を対象物としているため、建物を真上から見た2次元空間データ(平面データ)を指すことになる。対象物が異なれば、2次元空間データを見る方向が異なるようにしても良い。   FIG. 1 is a diagram showing an example of the system structure of a three-dimensional spatial data creation device according to an embodiment of the present invention. As shown in FIG. 1, the three-dimensional spatial data creation system according to the present embodiment includes a two-dimensional spatial data database 101, a three-dimensional spatial data database 102, a host system 104, and a terminal 103. These are configured to be connectable by, for example, a LAN. The terminal 103 is configured by a PC that visually edits spatial data and camera images, for example, using a GUI or the like. A two-dimensional spatial data database 101 and a three-dimensional spatial data database 102 are connected to the host system 104. In the present embodiment, the two-dimensional spatial data refers to two-dimensional spatial data (planar data) when the building is viewed from directly above because the building is an object. If the object is different, the direction of viewing the two-dimensional space data may be different.

端末103の入力部107、表示部108などを利用して、利用者は、カメラ画像のデータや編集データなどをホストシステム104に転送することが出来る。3次元空間データベース102は、本実施の形態による3次元空間データ作成装置により作成された3次元空間データを格納する。   Using the input unit 107 and display unit 108 of the terminal 103, the user can transfer camera image data, editing data, and the like to the host system 104. The three-dimensional space database 102 stores the three-dimensional space data created by the three-dimensional space data creation device according to the present embodiment.

ホストシステム104は、検索処理部105と、3次元空間データ作成部106と、を有している。一般的には、CPU(制御部)とメモリ(記憶部)を有しており、例えば不揮発性のメモリ(HDDなど)に格納されており、図2に示すような処理をコンピュータ(CPU)に実行させることで、以下の機能を発揮することになる。これらの機能の詳細に関しては後述する。   The host system 104 includes a search processing unit 105 and a three-dimensional spatial data creation unit 106. Generally, it has a CPU (control unit) and a memory (storage unit) and is stored in, for example, a non-volatile memory (HDD or the like), and performs the processing shown in FIG. 2 on the computer (CPU). By executing it, the following functions will be demonstrated. Details of these functions will be described later.

図2は、本実施の形態による3次元空間データ作成方法の処理の流れを示すフローチャート図であり、例えば、図1に示すシステムによる処理の例を示す図である。図2に示す処理は、図3以降の説明において合わせて示す。   FIG. 2 is a flowchart showing a processing flow of the three-dimensional spatial data creation method according to the present embodiment. For example, FIG. 2 is a diagram showing an example of processing by the system shown in FIG. The processing shown in FIG. 2 is also shown in the description after FIG.

図3は、本実施の形態によるカメラ画像の一例を示す図であり、対象物は一例であるが建物である。図3に示すカメラ画像301は、カメラ314の位置(x,y,z)から撮影した建物のカメラ画像である。カメラの位置は、3次元空間(x,y,z)により決められる。   FIG. 3 is a diagram illustrating an example of a camera image according to the present embodiment, and the object is an example but a building. A camera image 301 shown in FIG. 3 is a camera image of a building taken from the position (x, y, z) of the camera 314. The position of the camera is determined by a three-dimensional space (x, y, z).

カメラ画像315における頂点A’302〜頂点F’’ 313までは、建物の各頂点である。これらの頂点302〜313までのそれぞれに対して、空間座標を定義することにより、カメラ画像301に基づいて3次元空間データを作成することができる。   The vertex A ′ 302 to the vertex F ″ 313 in the camera image 315 are each vertex of the building. By defining spatial coordinates for each of the vertices 302 to 313, three-dimensional spatial data can be created based on the camera image 301.

図4は、図3に示す撮影されたカメラ画像315に対応する対象物の2次元空間データを示す図であり、この場合には、建物を真上から見た平面図に対応するデータである。図4に示すように、2次元空間データ401からは、対象物である建物の各頂点A402〜F407までの2次元座標(x,y)を取得することができる。   FIG. 4 is a diagram showing the two-dimensional space data of the object corresponding to the captured camera image 315 shown in FIG. 3, and in this case, the data corresponds to a plan view of the building as viewed from directly above. . As shown in FIG. 4, from the two-dimensional space data 401, two-dimensional coordinates (x, y) up to the vertices A402 to F407 of the building that is the object can be acquired.

端末103からカメラ画像315を入力すると(図2のステップS1)、カメラ画像315のデータ、カメラ方向や位置データが、ホストシステム104の検索処理部105に渡される(図2のステップS2)。検索処理部105において、GPSによる位置データとカメラ方向の情報を検索キーとして、2次元空間データDB101内において、カメラ画像301に写っている建物を含む2次元空間データ401を検索する(図2のステップS3)。   When the camera image 315 is input from the terminal 103 (step S1 in FIG. 2), the data of the camera image 315, the camera direction, and the position data are passed to the search processing unit 105 of the host system 104 (step S2 in FIG. 2). In the search processing unit 105, the two-dimensional space data 401 including the building shown in the camera image 301 is searched in the two-dimensional space data DB 101 using the GPS position data and camera direction information as search keys (FIG. 2). Step S3).

図5は図2のステップS3において検索された2次元空間データ401とカメラ画像301との両方が対になって端末103の表示部108に表示されている様子を示す図である(図2のステップS4)。   FIG. 5 is a diagram showing a state in which both the two-dimensional space data 401 and the camera image 301 searched in step S3 of FIG. 2 are displayed on the display unit 108 of the terminal 103 as a pair (FIG. 2). Step S4).

利用者は、例えばGUI操作により、カメラ画像301と2次元空間データ401との対応を取り、カメラ画像301に座空間標の値を定義付けする。例えば、カメラ画像301の頂点A’ 302をマウス操作(白抜きの矢印参照)などにより決定し、2次元空間データ401の対応させたい頂点A402をクリックすると、自動的にカメラ画像301に空間座標の値が設定されるようになっている。現在、点Aにポインタがあり、この特徴点に地面の座標を与える。そして、画像の座標上の頂点A’に同じ値をコピーアンドペーストする。このようにして図5の下に示すように、各頂点(特徴点、代表点)の緯度と経度とをカメラ画像において付与する。この代表点の緯度と経度も画面の下に表示されている。このようにして、データを入力することができる。   The user takes a correspondence between the camera image 301 and the two-dimensional space data 401 by, for example, a GUI operation, and defines the value of the coordinate space in the camera image 301. For example, when the vertex A ′ 302 of the camera image 301 is determined by a mouse operation (see a white arrow) or the like and the vertex A 402 to be matched in the two-dimensional space data 401 is clicked, the camera image 301 is automatically assigned the spatial coordinates. A value is set. Currently, there is a pointer at point A, and the coordinates of the ground are given to this feature point. Then, the same value is copied and pasted to the vertex A 'on the image coordinates. Thus, as shown in the lower part of FIG. 5, the latitude and longitude of each vertex (feature point and representative point) are given in the camera image. The latitude and longitude of this representative point are also displayed at the bottom of the screen. In this way, data can be input.

ここで、カメラ画像301において判断できるこの建物の頂点はA’302、B’303、C’ 304、E’306である。その他の頂点については、カメラ画像301では認識できない。このカメラ画像301から取得できる他の各頂点に対しても、2次元空間データ401の空間座標を定義することが出来る(図2のステップS5)。   Here, the vertices of the building that can be determined in the camera image 301 are A ′ 302, B ′ 303, C ′ 304, and E ′ 306. Other vertices cannot be recognized by the camera image 301. The spatial coordinates of the two-dimensional spatial data 401 can be defined for each other vertex that can be acquired from the camera image 301 (step S5 in FIG. 2).

頂点に空間座標が定義されたカメラ画像301と2次元空間データ401は、ホストシステム104の3次元空間データ作成部106に送られ、3次元空間データ作成部106において3次元空間データが作成される(図2のステップS6)。   The camera image 301 and the two-dimensional space data 401 whose spatial coordinates are defined at the vertices are sent to the three-dimensional space data creation unit 106 of the host system 104, and the three-dimensional space data creation unit 106 creates the three-dimensional space data. (Step S6 in FIG. 2).

図6Aは、カメラ画像の高さ計測の様子を示す図である。ここで、カメラ画像の中心601を、撮影方向の中心とするという条件の下で高さを求めることができる。   FIG. 6A is a diagram illustrating a state of measuring the height of a camera image. Here, the height can be obtained under the condition that the center 601 of the camera image is the center of the shooting direction.

まず、カメラ画像の中心(撮影方向の中心)601を設定し、そのカメラ画像の中心601から引いた垂線と、カメラ画像上の家枠との交点602をカメラ画像上で設定する。次に、設定された交点602の空間座標をカメラレンズモデルと2次元空間データとから計算する。   First, the center (camera direction center) 601 of the camera image is set, and an intersection 602 between a perpendicular drawn from the center 601 of the camera image and a house frame on the camera image is set on the camera image. Next, the spatial coordinates of the set intersection point 602 are calculated from the camera lens model and the two-dimensional spatial data.

図6Bは、カメラ画像と2次元空間データとの関係を示す図である。カメラ画像604上における交点602は、図6Aで設定した中心601から引いた垂線と、カメラ画像上の家枠(輪郭)との交点602と一致する。この交点602は、家枠の線分E’D’上に設定されている。カメラ画像604上の家枠の頂点E’とD’とは、図3のカメラ画像上の頂点D’305とカメラ画像上の頂点E’306と一致している。   FIG. 6B is a diagram illustrating a relationship between a camera image and two-dimensional space data. An intersection 602 on the camera image 604 coincides with an intersection 602 between a perpendicular drawn from the center 601 set in FIG. 6A and a house frame (outline) on the camera image. This intersection point 602 is set on a line segment E'D 'of the house frame. The vertexes E ′ and D ′ of the house frame on the camera image 604 coincide with the vertex D ′ 305 on the camera image and the vertex E ′ 306 on the camera image in FIG. 3.

カメラ画像604上の家枠の頂点E’とD’は、カメラレンズの焦点603を通り、2次元空間座標の頂点D(x4,y4)405と、頂点E(x5,y5)406と、対応付けられている。この頂点D405とE406とは、図4の頂点D405と頂点E406と一致する。つまり、カメラ画像上の交点602は、カメラレンズの焦点603を通って、線分DE上の点602’と対応付けることが出来る。線分DE上の点602’は、実際の2次元地図データ上の点となるため、頂点D405から線分DE上の点602’と、線分DE上の点602’から頂点E406までの比率から、線分DE上の点602’の空間座標(x01,y01)を計算することができる。つまり、図Aの交点602の空間座標は、(x01,y01)であると計算することができる。   The vertexes E ′ and D ′ of the house frame on the camera image 604 pass through the focal point 603 of the camera lens, and correspond to the vertex D (x4, y4) 405 and the vertex E (x5, y5) 406 of the two-dimensional space coordinates. It is attached. The vertices D405 and E406 coincide with the vertices D405 and E406 in FIG. That is, the intersection 602 on the camera image can be associated with the point 602 ′ on the line segment DE through the focal point 603 of the camera lens. Since the point 602 ′ on the line segment DE becomes a point on the actual two-dimensional map data, the ratio from the vertex D405 to the point 602 ′ on the line segment DE and the ratio from the point 602 ′ on the line segment DE to the vertex E406 Thus, the spatial coordinates (x01, y01) of the point 602 ′ on the line segment DE can be calculated. That is, the spatial coordinates of the intersection 602 in FIG. A can be calculated to be (x01, y01).

図6Cは、カメラ画像の中心までの高さD3を求めるための図形を示す図である。図6Dは、建物の高さを求めるための図形を示す図である。これらの図では、上記の結果から、実際の建物の高さを計算する過程を示す。   FIG. 6C is a diagram illustrating a figure for obtaining the height D3 to the center of the camera image. FIG. 6D is a diagram illustrating a figure for obtaining the height of a building. These figures show the process of calculating the actual building height from the above results.

まず、図6Cにおいて表されている距離D1 605、D2 606、高さZ 607、D3 608を求める。高さZ 607は、カメラの位置情報(x,y,z)におけるzである。また距離D1 605は、点602の座標値(x01,y01)とカメラ位置情報(x,y,z)から次の式により求めることが出来る。
D1=(x−x01)+(y−y01)
First, distances D1 605, D2 606, heights Z 607, and D3 608 shown in FIG. 6C are obtained. The height Z 607 is z in the position information (x, y, z) of the camera. The distance D1 605 can be obtained from the coordinate value (x01, y01) of the point 602 and the camera position information (x, y, z) by the following equation.
D1 2 = (x−x01) 2 + (y−y01) 2

また、距離D2 606は、カメラのジャイロ方向より角θ609の情報を得ることが出来るので、以下の式で計算することが出来る。
D2=Z/tanθ
The distance D2 606 can be calculated by the following equation because information on the angle θ609 can be obtained from the gyro direction of the camera.
D2 = Z / tanθ

従って、求めたい高さD3 608は
D3=(D2+D1)z/D2
で計算することができる。
Therefore, the desired height D3 608 is D3 = (D2 + D1) z / D2.
Can be calculated with

図6Dにおける高さD3 608と建物の残りの高さD4 610は、例えばピクセル値の比から計算する。これにより家枠の高さをD3+D4として計算することが出来る。すなわち、ガメラ画像がデジタルデータであれば、そのピクセル(画素)数が既知であるため、D3とD4の比もわかる。D3と、この比と、に基づいてD4を求めることができる。写真から直接、長さを計測しても良い。図7は、実際にカメラ画像301では認識できない不可視点702、703の空間座標を定義する図である。カメラの画像から頂点が取得することができなくても、2次元空間データを利用することで、この2次元空間データから補間的にカメラの画像では見えない頂点(例えば702、703)を作成することができる。対象物が建物の場合に、2次元空間データとして例えば図4に示すような平面データが得られる。この2次元空間データを用いると、3次元のカメラ画像では見えない位置、例えば、垣根などで実際に家の底部の全ての頂点が画像で見えない位置の頂点であっても補間的に全ての頂点の空間座標を得ることが出来る。   The height D3 608 and the remaining height D4 610 of the building in FIG. 6D are calculated from the ratio of pixel values, for example. As a result, the height of the house frame can be calculated as D3 + D4. That is, if the gamera image is digital data, since the number of pixels is known, the ratio between D3 and D4 is also known. D4 can be determined based on D3 and this ratio. You may measure the length directly from the photo. FIG. 7 is a diagram for defining spatial coordinates of unviewable viewpoints 702 and 703 that cannot be actually recognized by the camera image 301. Even if the vertices cannot be obtained from the camera image, the two-dimensional space data is used to create vertices (for example, 702 and 703) that cannot be seen in the camera image by interpolation from the two-dimensional space data. be able to. When the object is a building, plane data as shown in FIG. 4 is obtained as the two-dimensional space data, for example. Using this two-dimensional spatial data, all the positions that cannot be seen in the three-dimensional camera image, for example, all the vertices at the positions where the vertices at the bottom of the house are actually invisible in the image, such as the fence, are all interpolated. The spatial coordinates of the vertices can be obtained.

図8は、上記の結果から全ての頂点に対し、空間座標の値を与えた図である。これらの頂点で定義されている座標は、画像座標ではなく空間座標(世界測地系など)であるのでこのまま地図上に配置することも可能である(図2のステップS6)。   FIG. 8 is a diagram in which spatial coordinate values are given to all vertices from the above results. Since the coordinates defined by these vertices are not image coordinates but space coordinates (world geodetic system etc.), they can be arranged on the map as they are (step S6 in FIG. 2).

このようにして作成した3次元空間データを、3次元空間データデータベース102に格納する(図2のステップS7)。   The three-dimensional spatial data created in this way is stored in the three-dimensional spatial data database 102 (step S7 in FIG. 2).

以上に説明したように、本実施の形態による3次元空間データ作成技術によれば、カメラ画像を利用して、安価に3次元空間データを作成することが出来る。また複数のカメラ画像は必要でなく、カメラ画像では認識できない部分は2次元空間データを利用し補間することが可能である。例えば、カメラ画像から見えない家の裏側や、垣根によって家全体が見えない場合でも2次元空間データを利用して3次元空間データが作成可能である。   As described above, according to the three-dimensional spatial data creation technique according to the present embodiment, it is possible to create three-dimensional spatial data at low cost using a camera image. In addition, a plurality of camera images are not required, and a portion that cannot be recognized by the camera images can be interpolated using two-dimensional spatial data. For example, 3D spatial data can be created using 2D spatial data even when the entire house cannot be seen due to a fence or behind a house that cannot be seen from a camera image.

また作成された3次元空間データの座標は画像座標ではなく、直接測地系の座標を与えているため、そのまま地図へ投影することが出来き、簡単に3次元地図を作成することも出来る。   In addition, the coordinates of the created 3D space data are not image coordinates, but directly give coordinates of the geodetic system, so that they can be projected directly onto the map, and a 3D map can be easily created.

上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。   In the above-described embodiment, the configuration and the like illustrated in the accompanying drawings are not limited to these, and can be appropriately changed within a range in which the effect of the present invention is exhibited. In addition, various modifications can be made without departing from the scope of the object of the present invention.

また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。   In addition, a program for realizing the functions described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute processing of each unit. May be performed.

本発明は、3次元空間データ作成装置として利用可能である。   The present invention can be used as a three-dimensional spatial data creation device.

101…2次元空間データデータベース、102…3次元空間データデータベース、103…端末、104…ホストシステム、107…入力部、108…表示部。 DESCRIPTION OF SYMBOLS 101 ... Two-dimensional spatial data database, 102 ... Three-dimensional spatial data database, 103 ... Terminal, 104 ... Host system, 107 ... Input part, 108 ... Display part.

Claims (5)

撮影方向及び撮影位置と関連付けされた対象物の撮影画像に基づいて、2次元空間データから3次元空間データをコンピュータ処理により作成する3次元空間データ作成方法であって、
前記撮影方向及び撮影位置に基づいて、2次元空間データを格納する2次元空間データベースから前記対象物の2次元空間データを検索するステップと、
検索された前記2次元空間データと前記撮影画像とを対比させて、前記対象物の前記2次元空間データの頂点と前記撮影画像の頂点とを対応付けするステップと、
前記撮影画像の中心を、撮影方向の中心とする条件の下で、前記撮影方向及び前記撮影位置を用いて前記対象物の高さを求めるステップと
を有することを特徴とする3次元空間データ作成方法。
A three-dimensional spatial data creation method for creating three-dimensional spatial data from two-dimensional spatial data by computer processing based on a photographed image of an object associated with a photographing direction and a photographing position,
Retrieving two-dimensional spatial data of the object from a two-dimensional spatial database storing two-dimensional spatial data based on the photographing direction and photographing position;
Comparing the retrieved two-dimensional space data with the captured image and associating the vertex of the two-dimensional space data of the object with the vertex of the captured image;
3D space data generation, comprising: obtaining the height of the object using the shooting direction and the shooting position under the condition that the center of the shot image is the center of the shooting direction Method.
前記対象物の高さを求めるステップは、
前記撮影画像の中心(撮影方向の中心)を設定し、該中心から引いた垂線と、前記対象物の輪郭との交点を設定し、該交点と前記中心との距離を、前記撮影位置と前記交点との第1の距離と前記撮影位置と前記撮影方向から求まる撮影角度と前記撮影位置の高さとから求めた第2の距離との和と前記撮影角度とから求めるステップと、
前記交点と前記中心との距離である第1の高さと前記対象物の残りの第2の高さとから前記対象物の高さを求めるステップであって、前記第2の高さを前記第1の高さと前記撮影画像のピクセル値の比から求めて加算するステップと
を有することを特徴とする請求項1に記載の3次元空間データ作成方法。
The step of obtaining the height of the object comprises
The center of the photographed image (the center of the photographing direction) is set, the intersection of the perpendicular drawn from the center and the outline of the object is set, and the distance between the intersection and the center is determined from the photographing position and the center. A step of obtaining from the photographing angle and a sum of a first distance with an intersection, a photographing angle obtained from the photographing position and the photographing direction, and a second distance obtained from a height of the photographing position;
Obtaining a height of the object from a first height which is a distance between the intersection and the center and a remaining second height of the object, wherein the second height is determined as the first height; The method according to claim 1, further comprising a step of calculating and adding from a ratio between a height of the image and a pixel value of the photographed image.
さらに、前記撮影画像では見えない位置の前記3次元空間データの座標を、前記2次元空間データに基づいて補間して求めるステップを有することを特徴とする請求項1又は2に記載の3次元空間データ作成方法。   The three-dimensional space according to claim 1, further comprising a step of interpolating the coordinates of the three-dimensional space data at a position not visible in the captured image based on the two-dimensional space data. Data creation method. 請求項1から3までのいずれか1項に記載の3次元空間データ作成方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the three-dimensional spatial data creation method of any one of Claim 1 to 3. 撮影方向及び撮影位置と関連付けされた対象物の撮影画像に基づいて、2次元空間データから3次元空間データをコンピュータ処理により作成する3次元空間データ作成装置であって、
前記撮影方向及び撮影位置に基づいて、2次元空間データを格納する2次元空間データベースから前記対象物の2次元空間データを検索する検索処理部と、
検索された前記2次元空間データと前記撮影画像とを対比させて、前記対象物の前記2次元空間データの頂点と前記撮影画像の頂点とを対応付けし、前記撮影画像の中心を、撮影方向の中心とする条件の下で、前記撮影方向及び前記撮影位置を用いて前記対象物の高さを求める3次元空間データ作成部と
を有することを特徴とする3次元空間データ作成装置。
A three-dimensional spatial data creation device that creates three-dimensional spatial data from two-dimensional spatial data by computer processing based on a photographed image of an object associated with a photographing direction and a photographing position,
A search processing unit for retrieving the two-dimensional space data of the object from a two-dimensional space database storing two-dimensional space data based on the photographing direction and the photographing position;
The searched two-dimensional space data and the photographed image are contrasted, the vertex of the two-dimensional space data of the object and the vertex of the photographed image are associated, and the center of the photographed image is defined as the photographing direction. And a three-dimensional spatial data creation unit that obtains the height of the object using the photographing direction and the photographing position under the condition of the center of the image.
JP2009069641A 2009-03-23 2009-03-23 3D spatial data creation method and 3D spatial data creation apparatus Active JP5122508B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009069641A JP5122508B2 (en) 2009-03-23 2009-03-23 3D spatial data creation method and 3D spatial data creation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009069641A JP5122508B2 (en) 2009-03-23 2009-03-23 3D spatial data creation method and 3D spatial data creation apparatus

Publications (2)

Publication Number Publication Date
JP2010224735A true JP2010224735A (en) 2010-10-07
JP5122508B2 JP5122508B2 (en) 2013-01-16

Family

ID=43041872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009069641A Active JP5122508B2 (en) 2009-03-23 2009-03-23 3D spatial data creation method and 3D spatial data creation apparatus

Country Status (1)

Country Link
JP (1) JP5122508B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115359230A (en) * 2022-08-18 2022-11-18 河南数慧信息技术有限公司 Live-action three-dimensional data engine platform

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006680A (en) * 2001-06-20 2003-01-10 Zenrin Co Ltd Method for generating three-dimensional electronic map data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006680A (en) * 2001-06-20 2003-01-10 Zenrin Co Ltd Method for generating three-dimensional electronic map data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115359230A (en) * 2022-08-18 2022-11-18 河南数慧信息技术有限公司 Live-action three-dimensional data engine platform

Also Published As

Publication number Publication date
JP5122508B2 (en) 2013-01-16

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
US8026929B2 (en) Seamlessly overlaying 2D images in 3D model
US11783580B2 (en) Input apparatus, input method of input apparatus, and output apparatus
US20140285486A1 (en) Image-based 3d panorama
US20150369593A1 (en) Orthographic image capture system
US8749580B1 (en) System and method of texturing a 3D model from video
US9519973B2 (en) Enabling use of three-dimensional locations of features images
US10796207B2 (en) Automatic detection of noteworthy locations
JP6180647B2 (en) Indoor map construction apparatus and method using cloud points
GB2553363B (en) Method and system for recording spatial information
JP2009080514A (en) Sensor arrangement design support system
JP4588369B2 (en) Imaging apparatus and imaging method
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP2010231741A (en) Electronic tag generating and displaying system, electronic tag generating and displaying device, and method thereof
US9197882B2 (en) Mobile communication terminal having image conversion function and method
JP5122508B2 (en) 3D spatial data creation method and 3D spatial data creation apparatus
JP6269024B2 (en) Information processing apparatus and information processing program
JP2013120477A (en) Image display device, image display method, and program
JP5723211B2 (en) Image generating apparatus, control method therefor, program, and recording medium
Khalfa et al. Establishment oF 3D Model with Digital Non-Metric Camera in Close Range Photogrammetry
Wang et al. Estimating heights of buildings from geotagged photos for data enrichment on OpenStreetMap
Zhu et al. An automatic laser sheet calibration method for laser scan range measurement system
JP2004333993A (en) Stereoscopic map display device and method by stereo photography system
KR20110096934A (en) Method for measuring 3d information of structure using photographing images in different angle and recorded medium having program for performing the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121024

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5122508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250