JP2022163920A - Three-dimensional model generation device, three-dimensional model generation method, and program - Google Patents

Three-dimensional model generation device, three-dimensional model generation method, and program Download PDF

Info

Publication number
JP2022163920A
JP2022163920A JP2021069058A JP2021069058A JP2022163920A JP 2022163920 A JP2022163920 A JP 2022163920A JP 2021069058 A JP2021069058 A JP 2021069058A JP 2021069058 A JP2021069058 A JP 2021069058A JP 2022163920 A JP2022163920 A JP 2022163920A
Authority
JP
Japan
Prior art keywords
image data
dimensional model
information
model generation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021069058A
Other languages
Japanese (ja)
Inventor
清二 小松
Seiji Komatsu
隆幸 菅原
Takayuki Sugawara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2021069058A priority Critical patent/JP2022163920A/en
Publication of JP2022163920A publication Critical patent/JP2022163920A/en
Pending legal-status Critical Current

Links

Images

Abstract

To allow for generating a three-dimensional model regardless of the presence or absence of image data.SOLUTION: A three-dimensional model generation device is provided, comprising: an image data acquisition unit for acquiring image data of an object including time information; a three-dimensional model generation unit configured to generate a three-dimensional model based on the image data of the object acquired by the image data acquisition unit; and a three-dimensional model correction unit configured to estimate a degree of change in the object during a given time period with respect to the three-dimensional model to correct the three-dimensional model.SELECTED DRAWING: Figure 4

Description

本発明は、3次元モデル生成装置、3次元モデル生成方法およびプログラムに関する。 The present invention relates to a three-dimensional model generation device, a three-dimensional model generation method, and a program.

複数の画像データから所望の画像データを容易に検索する技術として、例えば、下記特許文献1に記載されたものがある。特許文献1に記載された技術は、撮影された位置や撮影された日時が撮影情報として付与された複数の画像データを画像交換サーバに保管し、端末装置から画像データに付与された撮影情報に基づいて所望の画像データを検索する。また、複数の画像を写真マッピングする技術として、例えば、下記特許文献2に記載されたものがある。特許文献2に記載された技術は、複数の写真データに付与されるメタ情報を用いて、有機的に活用した検索や、リアルタイムで視界に入る建造物に関する情報の検索や、特定の人物が被写体になっている写真の検索を行い、写真マッピングを行うものである。 As a technique for easily retrieving desired image data from a plurality of image data, for example, there is a technique described in Patent Document 1 below. The technique described in Japanese Patent Application Laid-Open No. 2002-200002 stores a plurality of image data to which the photographing positions and photographing dates and times are attached as photographing information in an image exchange server, and the photographing information attached to the image data from a terminal device. Search for desired image data based on Further, as a technique for photograph mapping a plurality of images, there is a technique described in Patent Document 2 below, for example. The technology described in Patent Literature 2 uses meta information attached to a plurality of photo data to organically utilize search, search for information on buildings within sight in real time, search for information about It searches for photos that are marked as , and performs photo mapping.

特開2004-220420号公報Japanese Patent Application Laid-Open No. 2004-220420 特開2009-176262号公報JP 2009-176262 A

被写体に対して撮影位置を変えながら複数の写真を撮影し、撮影した複数の写真データに基づいて3次元モデルを生成するフォトグラメトリーという技術がある。ところが、従来のフォトグラメトリーは、実際の複数の写真データを加工して3次元モデルを生成するものである。そのため、実際の写真データがないと、3次元モデルを生成することができない。 2. Description of the Related Art There is a technique called photogrammetry in which a plurality of photographs are taken while changing the photographing position of an object, and a three-dimensional model is generated based on data of the photographed photographs. However, conventional photogrammetry processes a plurality of actual photographic data to generate a three-dimensional model. Therefore, a three-dimensional model cannot be generated without actual photo data.

本発明は、上記に鑑みてなされたものであって、画像データの有無に拘わらず3次元モデルを生成可能とすることを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to make it possible to generate a three-dimensional model regardless of the presence or absence of image data.

上述した課題を解決し、目的を達成するために、本発明に係る3次元モデル生成装置は、時間情報を含む対象物の画像データを取得する画像データ取得部と、前記画像データ取得部が取得した前記対象物の画像データに基づいて3次元モデルを生成する3次元モデル生成部と、前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正する3次元モデル補正部と、を備える。 In order to solve the above-described problems and achieve the object, a three-dimensional model generation apparatus according to the present invention includes an image data acquisition unit for acquiring image data of an object including time information; a three-dimensional model generating unit that generates a three-dimensional model based on the image data of the object that has been obtained; and a three-dimensional model correction unit.

本発明に係る3次元モデル生成方法は、時間情報を含む対象物の画像データを取得するステップと、取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、を含む。 A three-dimensional model generating method according to the present invention comprises the steps of obtaining image data of an object including time information, generating a three-dimensional model based on the obtained image data of the object, and and estimating the degree of change of the object at a predetermined time to correct the three-dimensional model.

本発明に係るプログラムは、時間情報を含む対象物の画像データを取得するステップと、取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、を3次元モデル生成装置として動作するコンピュータに実行させる。 A program according to the present invention comprises the steps of acquiring image data of an object including time information, generating a three-dimensional model based on the acquired image data of the object, and performing predetermined operations on the three-dimensional model. a step of estimating the degree of change of the object at the time of and correcting the three-dimensional model.

本発明によれば、画像データの有無に拘わらず3次元モデルを生成することができるという効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to produce|generate a three-dimensional model regardless of the presence or absence of image data.

図1は、本実施形態に係る3次元モデル生成装置における画像取得装置を表すブロック図である。FIG. 1 is a block diagram showing an image acquisition device in a three-dimensional model generation device according to this embodiment. 図2は、画像データにおける記録フォーマットを表す概略図である。FIG. 2 is a schematic diagram showing a recording format for image data. 図3は、対象物に対する位置情報および方位情報を説明するための概略図である。FIG. 3 is a schematic diagram for explaining position information and azimuth information for an object. 図4は、本実施形態に係る3次元モデル生成装置を表すブロック図である。FIG. 4 is a block diagram showing the three-dimensional model generation device according to this embodiment. 図5は、3次元モデル生成方法を表すフローチャートである。FIG. 5 is a flow chart representing a three-dimensional model generation method. 図6は、3次元モデル生成部の具体的な構成を表すブロック図である。FIG. 6 is a block diagram showing a specific configuration of the 3D model generation unit. 図7は、フォトグラメトリー原理を適用する2つの画像の位置関係を表す説明図である。FIG. 7 is an explanatory diagram showing the positional relationship between two images to which the photogrammetry principle is applied. 図8は、2つの画像の位置関係を表す説明図である。FIG. 8 is an explanatory diagram showing the positional relationship between two images.

以下に添付図面を参照して、本発明に係る3次元モデル生成装置、3次元モデル生成方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Exemplary embodiments of a three-dimensional model generation device, a three-dimensional model generation method, and a program according to the present invention will be described below in detail with reference to the accompanying drawings. In addition, the present invention is not limited by the following embodiments.

[画像取得装置]
図1は、本実施形態に係る3次元モデル生成装置における画像取得装置を表すブロック図である。画像取得装置10は、後述する3次元モデル生成装置に3次元モデルを生成させるために、後述するフォーマット画像データを生成し、データベース26へ送信する。
[Image acquisition device]
FIG. 1 is a block diagram showing an image acquisition device in a three-dimensional model generation device according to this embodiment. The image acquisition device 10 generates format image data, which will be described later, and transmits it to the database 26 in order to cause a 3D model generation device, which will be described later, to generate a 3D model.

図1に示すように、画像取得装置10は、カメラ(撮像装置)11と、GPS受信部(GNSS信号受信器)12と、方位センサ13と、時間情報取得部21と、位置情報取得部22と、方位情報取得部23と、フォーマット部24と、記憶部25とを備える。 As shown in FIG. 1, the image acquisition device 10 includes a camera (imaging device) 11, a GPS receiver (GNSS signal receiver) 12, an orientation sensor 13, a time information acquisition unit 21, and a position information acquisition unit 22. , an orientation information acquisition unit 23 , a format unit 24 , and a storage unit 25 .

カメラ11は、対象物を撮影する。カメラ11が撮影した画像データは、劣化が気にならない程度にJPEGやPNGなどの形式に圧縮される。カメラ11は、撮影した画像データをフォーマット部24に送ると共に、トリガー情報として時間情報取得部21と位置情報取得部22と方位情報取得部23へ送出する。 A camera 11 photographs an object. Image data captured by the camera 11 is compressed into a format such as JPEG or PNG to such an extent that deterioration is not noticeable. The camera 11 sends the captured image data to the format unit 24, and also sends it to the time information acquisition unit 21, the position information acquisition unit 22, and the direction information acquisition unit 23 as trigger information.

GPS受信部12は、衛星からの電波を受信し、正確な時刻情報や位置情報をえる。GPS受信部12は、時刻情報を時間情報取得部21に送出し、位置情報を位置情報取得部22へ送出する。 The GPS receiver 12 receives radio waves from satellites and obtains accurate time information and position information. The GPS receiving section 12 sends the time information to the time information obtaining section 21 and sends the position information to the position information obtaining section 22 .

時間情報取得部21は、GPS受信部12からの時間情報に基づいて、カメラ11が画像データを撮影した際の時間情報を取得する。時間情報取得部21は、カメラ11が画像データを撮像した際の時間情報をフォーマット部へ送出する。 The time information acquisition unit 21 acquires time information when the camera 11 captured the image data based on the time information from the GPS reception unit 12 . The time information acquisition unit 21 sends time information when the camera 11 captures the image data to the format unit.

位置情報取得部22は、GPS受信部12からの情報に基づいて、カメラ11が画像データを撮影した際の位置情報を取得する。位置情報取得部22は、カメラ11が画像データを撮像した際の位置情報をフォーマット部へ送出する。 The position information acquisition unit 22 acquires position information when the camera 11 captures the image data based on the information from the GPS reception unit 12 . The position information acquisition unit 22 sends position information when the camera 11 captures the image data to the format unit.

方位センサ13は、ジャイロ(角速度センサー)によりカメラ11の傾き(仰角)を測定する。方位センサ13は、測定した結果を方位情報取得部23へ送出する。 The azimuth sensor 13 measures the tilt (elevation angle) of the camera 11 using a gyro (angular velocity sensor). The azimuth sensor 13 sends the measured result to the azimuth information acquisition unit 23 .

方位情報取得部23は、方位センサ13の測定結果に基づいて、カメラ11が画像データを撮影した際の方位情報をフォーマット部へ送出する。 Based on the measurement result of the orientation sensor 13, the orientation information acquisition unit 23 sends the orientation information when the camera 11 captures the image data to the format unit.

カメラ11が撮影した画像データ、時間情報取得部21が取得した画像データの時間情報、位置情報取得部22が取得した画像データの位置情報、方位情報取得部23が取得した画像データの方位情報は、フォーマット部24に入力される。 The image data captured by the camera 11, the time information of the image data acquired by the time information acquisition unit 21, the position information of the image data acquired by the position information acquisition unit 22, and the orientation information of the image data acquired by the orientation information acquisition unit 23 are , is input to the format unit 24 .

フォーマット部24は、パラメータ当たりのバイト数が設定され、入力した各種の情報が所定のフォーマットに変換し、フォーマット画像データを生成する。なお、フォーマット画像データとは、画像データ、画像データの時間情報、画像データの位置情報、画像データの方位情報を、所定のフォーマットへ変換したデータである。される。フォーマット部24は、フォーマット画像データを記憶部25へ送出する。 The format unit 24 is set with the number of bytes per parameter, converts various types of input information into a predetermined format, and generates format image data. The format image data is data obtained by converting the image data, the time information of the image data, the position information of the image data, and the orientation information of the image data into a predetermined format. be done. Format unit 24 sends the formatted image data to storage unit 25 .

なお、時間情報取得部21と、位置情報取得部22と、方位情報取得部23と、フォーマット部24とは、例えば、CPU(Central Processing Unit)などの演算回路によって構成される。 Note that the time information acquisition unit 21, the position information acquisition unit 22, the azimuth information acquisition unit 23, and the format unit 24 are configured by an arithmetic circuit such as a CPU (Central Processing Unit), for example.

記憶部25は、フォーマット画像データを一時的に記憶する。記憶部25は、HDD(Hard Disk Drive)などの外部記憶装置やメモリなどである。記憶部25は、送信部(不図示)を介して、インターネットなどのネットワークにより接続されたデータベース26へ、フォーマット画像データを送信する。記憶部25に一時的に記憶されフォーマット画像データは、インターネット上のデータベース26に大規模に保存される。 The storage unit 25 temporarily stores the format image data. The storage unit 25 is an external storage device such as a HDD (Hard Disk Drive), a memory, or the like. The storage unit 25 transmits the formatted image data to a database 26 connected by a network such as the Internet via a transmission unit (not shown). The formatted image data temporarily stored in the storage unit 25 is stored in a database 26 on the Internet on a large scale.

図2は、画像データにおける記録フォーマットを表す概略図である。 FIG. 2 is a schematic diagram showing a recording format for image data.

図2に示すように、フォーマット画像データは、前半の固定長部分と、後半の可変長部分とにより構成される。固定長部分は、時間情報と、位置情報と、方位情報とを有する。時間情報は、年月日時情報であって、西暦データ2バイト、月データ1バイト、日データ1バイト、時間データ1バイト、分データ1バイト、秒データ1バイトにより構成される。可変長部分は、画像データによって構成される。位置情報は、緯度データで8バイト、経度データで8バイトにより構成される。位置情報は、対象物を撮影した位置を表すものであり、緯度と経度以外の情報としては、住所、地域名、建築物名などを用いることができる。なお、位置情報は、地図を所定の大きさで区画したエリアとし、エリア内の横軸と縦軸の相対的な座標で記載してもよい。 As shown in FIG. 2, the format image data consists of a fixed-length portion in the first half and a variable-length portion in the second half. The fixed-length portion has time information, position information, and orientation information. The time information is year/month/date information, and consists of 2 bytes of year data, 1 byte of month data, 1 byte of day data, 1 byte of time data, 1 byte of minute data, and 1 byte of second data. The variable length portion is composed of image data. The position information consists of 8 bytes of latitude data and 8 bytes of longitude data. The positional information represents the position where the object was photographed, and information other than the latitude and longitude may be an address, an area name, a building name, or the like. Note that the position information may be defined as an area obtained by dividing a map into a predetermined size, and may be described as relative coordinates on the horizontal axis and the vertical axis within the area.

方位情報は、水平方位として8バイト、仰角データとして8バイトにより構成される。カメラ11が取得した画像データの方位情報は、例えば、アナログ時計を用いた表現として、針の時計回り方向に東を3時(90°)、南を6時(180°)、西を9時(270°)、北を12時(360°(0°))のように表現する。仰角方位は、水平を0度、真上を90度とし、見上げる仰角の度数を記録する。可変長部分は、画像情報であり、画像情報は、画像がJPG形式やPNG形式に圧縮された画像圧縮ファイルである。 The azimuth information consists of 8 bytes for horizontal azimuth and 8 bytes for elevation angle data. The azimuth information of the image data acquired by the camera 11 is, for example, expressed using an analog clock, with the hands clockwise at 3 o'clock (90°), south at 6 o'clock (180°), and west at 9 o'clock. (270°) and North at 12 o'clock (360° (0°)). As for the elevation angle azimuth, the horizontal is 0 degrees and the top is 90 degrees. The variable-length portion is image information, and the image information is an image compression file in which an image is compressed in JPG format or PNG format.

図3は、対象物に対する位置情報および方位情報を説明するための概略図である。 FIG. 3 is a schematic diagram for explaining position information and azimuth information for an object.

図3に示すように、地図100は、ある都市を区画したものであり、地図100は、例えば、100m四方の正方形で、複数のエリアに区画される。図3では、地図100の所定の区画を、エリア0010-2324、エリア0010-2325、エリア0010-2326、エリア0010-2455、エリア0010-2456、エリア0010-2457、エリア0010-2586、エリア0010-2587、エリア0010-2588の9つのエリアに分割した様子を示す。 As shown in FIG. 3, the map 100 is a section of a certain city, and the map 100 is, for example, a 100 m square and is sectioned into a plurality of areas. In FIG. 3, predetermined sections of the map 100 are defined as area 0010-2324, area 0010-2325, area 0010-2326, area 0010-2455, area 0010-2456, area 0010-2457, area 0010-2586, area 0010- 2587 and areas 0010 to 2588 divided into nine areas.

対象物Tは、例えば、エリア0010-2456というエリア番号が付けられたエリアにある。対象物Tに向けて5か所の位置A1,A2,A3,A4,A5でカメラ11による撮影が実施される。位置A1は、対象物Tに対する正面位置であり、位置A2は、対象物Tに対する左斜め前位置であり、位置A3は、対象物Tに対する左斜め後位置であり、位置A4は、対象物Tに対する右斜め後位置であり、位置A5は、対象物Tに対する右斜め前位置である。 Object T is in an area numbered, for example, area 0010-2456. The camera 11 shoots an object T at five positions A1, A2, A3, A4, and A5. The position A1 is the front position with respect to the object T, the position A2 is the left oblique front position with respect to the object T, the position A3 is the left oblique rear position with respect to the object T, and the position A4 is the object T. , and the position A5 is a right oblique front position with respect to the object T.

ここで、位置A1,A2,A3,A4,A5から対象物Tに向かって延びる線が方位である。方位情報は、水平方向で、地図真上(真北)方向を12時の方向(0度)とする。例えば、位置A1の方位は、00時00分00秒となり、位置A2の方位は、02時30分00秒となる。そして、地図100に表せないカメラ11の仰角は、例えば、位置A1では、12度、位置A2では、7度、位置A3では、10度、位置A4では、25度、位置A5では、35度というように、フォーマットに記載される。 Here, the lines extending from the positions A1, A2, A3, A4, and A5 toward the object T are azimuths. The azimuth information is in the horizontal direction, and the direction directly above (true north) on the map is the 12 o'clock direction (0 degrees). For example, the direction of position A1 is 00:00:00, and the direction of position A2 is 02:30:00. The elevation angle of the camera 11 that cannot be displayed on the map 100 is, for example, 12 degrees at position A1, 7 degrees at position A2, 10 degrees at position A3, 25 degrees at position A4, and 35 degrees at position A5. as described in the format.

[3次元モデル生成装置]
図4は、本実施形態に係る3次元モデル生成装置を表すブロック図である。
[3D model generation device]
FIG. 4 is a block diagram showing the three-dimensional model generation device according to this embodiment.

図4に示すように、3次元モデル生成装置30は、画像処理装置31と、入力装置32と、表示装置33とを備える。 As shown in FIG. 4 , the three-dimensional model generation device 30 includes an image processing device 31 , an input device 32 and a display device 33 .

入力装置32は、使用者により操作される。入力装置32は、使用者により入力された操作指令信号を画像処理装置31に送出する。ここで、操作指令信号は、使用者が3次元モデルを生成したい所望の場所(対象物の名称や住所)および3次元モデルを生成したい所望の時間などである。入力装置32は、例えば、キーボードやタッチパネルなどである。 The input device 32 is operated by the user. The input device 32 sends an operation command signal input by the user to the image processing device 31 . Here, the operation command signal is the desired place (name or address of the object) where the user wants to generate the three-dimensional model, the desired time when he wants to generate the three-dimensional model, and the like. The input device 32 is, for example, a keyboard or a touch panel.

画像処理装置31は、例えば、送受信部(不図示)を介して、インターネットによりデータベース26と接続される。画像処理装置31は、入力装置32から送出された操作指令信号に基づいて、データベース26に保存されているフォーマット画像データを取得し、フォーマット画像データを画像処理する。すなわち、画像処理装置31は、入力装置32から送出された対象物に基づいて、データベース26に保存されている対象物に該当するフォーマット画像データを取得し、フォーマット画像データを画像処理する。画像処理装置31は、画像処理した画像データを表示装置33に送出する。 The image processing device 31 is connected to the database 26 via the Internet, for example, via a transmitter/receiver (not shown). The image processing device 31 acquires the format image data stored in the database 26 based on the operation command signal sent from the input device 32, and performs image processing on the format image data. That is, the image processing device 31 acquires format image data corresponding to the object stored in the database 26 based on the object sent from the input device 32, and performs image processing on the format image data. The image processing device 31 sends image data that has undergone image processing to the display device 33 .

表示装置33は、使用者に対して画像データを表示する。表示装置33は、画像処理装置31が画像処理した3次元モデルや画像データを表示する。表示装置33は、例えば、液晶ディスプレイやヘッドマウンドディスプレイなどである。 The display device 33 displays image data to the user. The display device 33 displays the three-dimensional model and image data image-processed by the image processing device 31 . The display device 33 is, for example, a liquid crystal display or a head mounted display.

画像処理装置31は、画像データ取得部34と、3次元モデル生成部35と、3次元モデル補正部36とを有する。なお、画像データ取得部34と、3次元モデル生成部35と、3次元モデル補正部36は例えばCPUによって構成される。 The image processing device 31 has an image data acquisition unit 34 , a 3D model generation unit 35 , and a 3D model correction unit 36 . The image data acquisition unit 34, the 3D model generation unit 35, and the 3D model correction unit 36 are configured by, for example, a CPU.

画像データ取得部34は、使用者が入力装置32により入力した操作指令信号が入力される。画像データ取得部34は、この操作指令信号に基づいて該当する多数の画像データを検索して取得する。すなわち、画像データ取得部34は、データベース26に保存されているフォーマット画像データから、入力装置32から入力された対象物のフォーマット画像データを取得する。画像データ取得部34は、取得した多数のフォーマット画像データを3次元モデル生成部35に送出する。 The image data acquisition unit 34 receives an operation command signal input by the user through the input device 32 . The image data acquisition unit 34 searches and acquires a large number of corresponding image data based on this operation command signal. That is, the image data acquisition unit 34 acquires the format image data of the object input from the input device 32 from the format image data stored in the database 26 . The image data acquisition unit 34 sends out the acquired format image data to the three-dimensional model generation unit 35 .

3次元モデル生成部35は、画像データ取得部34が取得した多数のフォーマット画像データに含まれる画像データと、このフォーマット画像データに含まれる画像データが撮影された時間情報と、画像データの位置情報と、画像データの方位情報に基づいて3次元モデルを生成する。3次元モデル生成部35は、生成した3次元モデルを3次元モデル補正部36に送出する。 The three-dimensional model generation unit 35 generates image data included in a large number of format image data acquired by the image data acquisition unit 34, time information when the image data included in the format image data was captured, and position information of the image data. , a three-dimensional model is generated based on the orientation information of the image data. The 3D model generation unit 35 sends the generated 3D model to the 3D model correction unit 36 .

3次元モデル補正部36は、3次元モデル生成部35が生成した3次元モデルに対して、入力装置32から入力された時間情報に基づいて3次元モデルを補正する。すなわち、3次元モデル補正部36は、入力装置32から入力された時間情報、つまり、指定された所定の時間における対象物の変化度合いを推定して3次元モデルを補正する。3次元モデル補正部36は、補正した3次元モデルを表示装置33に送出する。 The 3D model correction unit 36 corrects the 3D model generated by the 3D model generation unit 35 based on the time information input from the input device 32 . That is, the three-dimensional model correction unit 36 estimates the time information input from the input device 32, that is, the degree of change of the object at a designated predetermined time, and corrects the three-dimensional model. The 3D model correction unit 36 sends the corrected 3D model to the display device 33 .

このとき、3次元モデル生成部35は、時間情報と方位情報が一致する複数の画像データに対して、ある画素の輝度値を周辺の画素の輝度値の平均とする平均化処理を行い、平均化処理を行った異なる方位における複数の画像データに基づいて3次元モデルを生成する。そして、3次元モデル補正部36は、異なる時間における3次元モデルの変化量に基づいて3次元モデルを補正する。 At this time, the three-dimensional model generation unit 35 performs an averaging process of averaging the luminance value of a certain pixel with respect to a plurality of image data whose time information and orientation information match each other. A three-dimensional model is generated based on a plurality of image data in different orientations that have undergone the transformation processing. Then, the 3D model correction unit 36 corrects the 3D model based on the amount of change in the 3D model at different times.

[3次元モデル生成方法]
図5は、3次元モデル生成方法を表すフローチャートである。
[3D model generation method]
FIG. 5 is a flow chart representing a three-dimensional model generation method.

図4および図5に示すように、ステップS11にて、使用者は、入力装置32を用いて、操作指令信号としての3次元モデルを生成したい所望の場所を入力する。所望の場所は、対象物の名称や住所などである。ステップS12にて、使用者は、入力装置32を用いて、操作指令信号としての3次元モデルを生成したい所望の時間を入力する。所望の時間は、西暦および年月日で入力する。ステップS13にて、画像データ取得部34は、検索条件としての所望の場所および所望の時間に該当する多数のフォーマット画像データをデータベース26から検索して取得する。この場合、画像データ取得部34は、所望の時間として、所定の期間を検索する。画像データ取得部34は、所望の時間として、例えば、2000年7月1日が入力されると、所定の期間である1995年1月1日から2005年7月1日に撮影された複数のフォーマット画像データを取得する。 As shown in FIGS. 4 and 5, in step S11, the user uses the input device 32 to input a desired location for generating a three-dimensional model as an operation command signal. The desired location is the name, address, or the like of the object. At step S12, the user uses the input device 32 to input a desired time to generate a three-dimensional model as an operation command signal. Enter the desired time in AD and year/month/day. In step S13, the image data acquisition unit 34 retrieves and acquires from the database 26 a large number of format image data corresponding to the desired location and desired time as the retrieval conditions. In this case, the image data acquisition unit 34 searches for a predetermined period as the desired time. When, for example, July 1, 2000 is input as a desired time, the image data acquisition unit 34 acquires a plurality of images taken during the predetermined period from January 1, 1995 to July 1, 2005. Get format image data.

ステップS14にて、3次元モデル生成部35は、複数のフォーマット画像データに含まれる画像データと、画像データの時間情報と、画像データの位置情報と、画像データの方位情報に基づいて3次元モデルを生成する。ステップS14の3次元モデルの生成の詳細に関しては後述する。ステップS15にて、3次元モデル補正部36は、3次元モデルに対して所定の時間における対象物の変化度合いを推定して3次元モデルを補正する。そして、ステップS16にて、表示装置33は、補正された3次元モデルを表示する。 In step S14, the 3D model generator 35 generates a 3D model based on the image data included in the plurality of format image data, the time information of the image data, the position information of the image data, and the orientation information of the image data. to generate Details of the generation of the three-dimensional model in step S14 will be described later. In step S15, the three-dimensional model correction unit 36 estimates the degree of change of the target object in a predetermined time period with respect to the three-dimensional model and corrects the three-dimensional model. Then, in step S16, the display device 33 displays the corrected three-dimensional model.

すなわち、まず、画像データ取得部34は、インターネットを介してデータベース26から複数のフォーマット画像データを取得することにより、複数の画像データと、各画像データにおける時間情報と位置情報と方位情報とを取得する。画像データ取得部34は、異なる複数の時間で、対象物Tに対して異なる複数の位置および方位から撮影した複数の画像データを取得する。 That is, first, the image data acquisition unit 34 acquires a plurality of format image data from the database 26 via the Internet, thereby acquiring a plurality of image data and time information, position information, and azimuth information in each image data. do. The image data acquisition unit 34 acquires a plurality of image data of the object T photographed from a plurality of different positions and orientations at a plurality of different times.

次に、3次元モデル生成部35は、複数の画像データに対して、アスペクト比を維持したままで、拡大縮小、回転、左右の台形補正などを自由度にしたアフィン変換を行い、画像の特徴点が対応する、つまり、マッチング処理して差分が極端に小さくなる位置決めの算出を行う。左右の台形補正は、建物などを左側面から撮影すると同じ高さの左縦線が近いために長くなり、右縦線が遠くなるため短く映る、所謂、遠近法の原理で、通常記念写真などカメラ撮影の場合、確率的に左右方向は移動可能なので沢山の角度で撮影された枚数が増えるが、上下方向は、仰ぎ角が多少変わる程度で、撮影ポイントの上下はあまりないためである。大きい特徴が一致するグループを抽出することで、画像の繋がりが分かりそれをメモリ上に展開していく。これらの処理は、フォトグラメトリーの手法で、複数角度からの画像を、対象物Tの3次元形状を生成する技術であり、三角測量の原理である。特徴点が取れるか取れないかは、選択した画像の中の2組セットの画像に互いに6割程度視野が重なっているセットがあるのが好ましい。 Next, the three-dimensional model generation unit 35 performs affine transformation with degrees of freedom such as enlargement/reduction, rotation, and left/right trapezoidal correction on the plurality of image data while maintaining the aspect ratio, and converts the image characteristics into Positioning calculation is performed so that the points correspond to each other, that is, the matching process makes the difference extremely small. Left and right trapezoidal correction is based on the principle of perspective. When you shoot a building from the left side, the left vertical line of the same height becomes closer, making it longer, and the right vertical line becomes farther away, making it appear shorter. This is because, in the case of camera shooting, the number of shots taken at many angles increases because it is possible to move in the horizontal direction, but in the vertical direction, the angle of elevation changes only slightly, and the shooting point does not move vertically. By extracting groups with matching large features, the connections between images can be found and expanded in memory. These processes are a technique of generating a three-dimensional shape of the object T from images taken from a plurality of angles using a photogrammetry technique, and are the principle of triangulation. Whether or not a feature point can be taken is preferably determined by setting two sets of images among the selected images, in which the fields of view overlap each other by about 60%.

そして、3次元モデル補正部36は、3次元モデル生成部35が生成した3次元モデルに対して、所望の時間に対応するように変化度合いを推定して3次元モデルを補正する。すると、使用者が所望する所定の時間における対象物の3次元モデルを生成することができる。 Then, the three-dimensional model correction unit 36 estimates the degree of change of the three-dimensional model generated by the three-dimensional model generation unit 35 so as to correspond to a desired time, and corrects the three-dimensional model. Then, a three-dimensional model of the object at a predetermined time desired by the user can be generated.

ここで、ステップS14の3次元モデルの生成方法の具体例を説明する。図6は、3次元モデル生成部の具体的な構成を表すブロック図、図7は、フォトグラメトリー原理を適用する2つの画像の位置関係を表す説明図、図8は、2つの画像の位置関係を表す説明図である。 Here, a specific example of the three-dimensional model generation method in step S14 will be described. FIG. 6 is a block diagram showing the specific configuration of the 3D model generation unit, FIG. 7 is an explanatory diagram showing the positional relationship between two images to which the principle of photogrammetry is applied, and FIG. 8 is the positions of the two images. It is an explanatory view showing relation.

図6に示すように、3次元モデル生成部35は、エピポーラ線方向計算器41と、エピポーラ線直交方向計算器42と、探索範囲決定器43と、対応点検出器44と、距離計算器45とを有する。 As shown in FIG. 6, the three-dimensional model generation unit 35 includes an epipolar line direction calculator 41, an epipolar line orthogonal direction calculator 42, a search range determiner 43, a corresponding point detector 44, and a distance calculator 45. and

エピポーラ線方向計算器41は、画像データ取得部34が取得した複数の画像データに基づいて、対象物Tに対する複数の画像データの相対応する複数の画素点間を結ぶエピポーラ線の方向を計算する。エピポーラ線方向計算器41は、算出したエピポーラ線の方向をエピポーラ線直交方向計算器42に送出する。 The epipolar line direction calculator 41 calculates the direction of the epipolar line connecting the corresponding pixel points of the image data of the object T based on the image data acquired by the image data acquisition unit 34. . The epipolar line direction calculator 41 sends the calculated epipolar line direction to the epipolar line orthogonal direction calculator 42 .

エピポーラ線直交方向計算器42は、エピポーラ線に対して直交する直交方向を計算する。エピポーラ線直交方向計算器42算出したエピポーラ線に対する直交方向を探索範囲決定器43に出力する。 An epipolar line orthogonal direction calculator 42 calculates an orthogonal direction orthogonal to the epipolar line. The epipolar line orthogonal direction calculator 42 outputs the calculated orthogonal direction to the epipolar line to the search range determiner 43 .

探索範囲決定器43は、エピポーラ線の方向とエピポーラ線の直交方向に相対応する複数の画素点を含むように画面上の2次元探索範囲を決定する。探索範囲決定器43は、決定した2次元探索範囲を対応点検出器44に出力する。 A search range determiner 43 determines a two-dimensional search range on the screen so as to include a plurality of pixel points corresponding to the direction of the epipolar line and the direction orthogonal to the epipolar line. The search range determiner 43 outputs the determined two-dimensional search range to the corresponding point detector 44 .

対応点検出器44は、画像データ取得部34が取得した複数の画像データと、決定された2次元探索範囲内に基づいて、対応点探索を行って視差ベクトルを求める。対応点検出器44は、求めた視差ベクトルを距離計算器45に送出する。 The corresponding point detector 44 searches for corresponding points based on the plurality of image data acquired by the image data acquisition unit 34 and the determined two-dimensional search range to obtain parallax vectors. The corresponding point detector 44 sends the obtained parallax vector to the distance calculator 45 .

距離計算器45は、 視差ベクトルに対して、エピポーラ線への写像を行って視差ベクトルのエピポーラ線方向成分を求め、求められたエピポーラ線方向成分に基づいて対象物Tまでの距離を計算する。距離計算器45は、算出した対象物Tまでの距離を3次元モデル補正部36に送出する。 The distance calculator 45 maps the parallax vector to the epipolar line to obtain the epipolar line direction component of the parallax vector, and calculates the distance to the object T based on the obtained epipolar line direction component. The distance calculator 45 sends the calculated distance to the object T to the three-dimensional model correction unit 36 .

以下に3次元モデルの生成において具体的に説明するが、ここでは、2個の画像データから3次元モデルの生成する場合について説明する。 The generation of a three-dimensional model will be described in detail below, but here, the case of generating a three-dimensional model from two pieces of image data will be described.

画像データ取得部34は、データベース26から2個の画像データを取得する。例えば、図3に示すように、エリア0010-2456に登録されてフォーマットされている各データのうち、画像1枚を基準としてランダムに選択された2枚目画像を1組にして対応点が互いに共通している写真画像をサーチする。この1組となる画像の三角測量をすることで3次元点群が求まり、これらを集めていくことで相対的な位置と点群の画像を広げていく。また、この画像に対応する部分のテクスチャーをあとでマッピングするために対応付けてメモリに管理する。 The image data acquisition unit 34 acquires two pieces of image data from the database 26 . For example, as shown in FIG. 3, among the data registered and formatted in the area 0010-2456, the second image randomly selected based on one image is set as a set, and the corresponding points are set to each other. Search for common photographic images. A three-dimensional point group is obtained by performing triangulation of this set of images, and by collecting these, the relative positions and point group images are expanded. Also, the texture of the portion corresponding to this image is associated and managed in memory for later mapping.

まず、対象物Tに対して視野の画像用のカメラ11Aおよび視野の画像用のカメラ11B(いずれも、図7参照)によって2組セット画像データを得る。次に、対応点検出器44は、2組セットの画像データに基づいて特徴点の対応点探索を行う。対応点検出器44は、例えば、画素毎の対応付けを行い、差が最小になる位置を探す。ここで、図6および図7に示すように、2視点に同時に存在しているとするカメラ11A,11Bは、光軸Ol,Orが同一のX-Z座標平面上に含まれるように、Yl=Yrの関係に配置されているものとする。対応点検出器44により探索された対応点を用いて画素毎の角度の差に相当する視差ベクトルを計算する。 First, two sets of image data are obtained with respect to the object T by the field image camera 11A and the field image camera 11B (see FIG. 7 for both). Next, the corresponding point detector 44 searches for corresponding points of feature points based on the two sets of image data. The corresponding point detector 44 performs, for example, matching for each pixel, and searches for the position where the difference is the minimum. Here, as shown in FIGS. 6 and 7, the cameras 11A and 11B, which are supposed to exist at two viewpoints at the same time, are arranged so that the optical axes Ol and Or are included on the same XZ coordinate plane. = Yr. Using the corresponding points searched by the corresponding point detector 44, a disparity vector corresponding to the angle difference for each pixel is calculated.

距離計算器45は、得られた視差ベクトルが奥行き方向のカメラ11A,11Bからの距離に相当するので、遠近法により視差の大きさに比例させて距離計算を行う。撮影者のカメラ11A,11Bがほぼ水平にしか移動しないと仮定すれば、カメラ11A,11Bをその光軸Ol,Orが同一のX-Z座標平面上に含まれるように配置しておくことにより、対応点の探索はエピポーラ線Epl,Eprである走査線上のみで行えばよいことになる。距離計算器45は、対象物Tの2個の画像データと、カメラ11A,11Bから対象物Tまでのそれぞれの距離を用いて対象物Tの3次元モデルを生成する。 Since the obtained parallax vector corresponds to the distance from the cameras 11A and 11B in the depth direction, the distance calculator 45 calculates the distance proportional to the magnitude of the parallax by the perspective method. Assuming that the photographer's cameras 11A and 11B move only approximately horizontally, by arranging the cameras 11A and 11B so that their optical axes Ol and Or are included on the same XZ coordinate plane, , corresponding points can be searched for only on the scanning lines, which are the epipolar lines Epl and Epr. The distance calculator 45 generates a three-dimensional model of the object T using the two image data of the object T and the respective distances from the cameras 11A and 11B to the object T. FIG.

一方、左画像上の点Ql(Xl,Yl)と右画像上の点Qr(Xr,Yr)とが対応する場合、点Ql(Xl,Yl)における視差ベクトルはVp(Xl-Xr,Yl-Yr)である。ここで、2つの点Ql,Qrは同じ走査線(エピポーラ線)上にあるので、Yl=Yrであり、視差ベクトルは、Vp(Xl-Xr,0)と表されることになる。エピポーラ線方向計算器41は、このような視差ベクトルVpを、画像上の全ての画素点について求め、視差ベクトル群を作成することで画像の奥行き方向の情報を得る。ところで、エピポーラ線が水平ではないセットに関しては、片方のカメラ位置の高さが違っている(確率は低い)ことがある。この場合、エピポーラ線直交方向計算器42は、大きな探索範囲を、対応点マッチングを意識することなく大きな2次元領域で対応点探索をする場合に比べ、エピポーラ線方向と、エピポーラ線に対し直交方向でその水平からのずれ具合程度の長方形内で探索することで、最低限の長方形の計算量は少なくなり合理的になる。そして、探索範囲決定器43は、図8に示すように、最低限の長方形に関するエピポーラ線方向探索範囲をa~b=c~dとし、直交方向探索範囲をb~c=d~aとした場合の探索範囲を示す。この場合、エピポーラ線方向の探索幅は、ΔE、エピポーラ線と直交する方向Tの探索幅はΔTとする。最低限の傾斜した長方形abcdを含む傾斜しない最小の長方形ABCDが求める領域となる。 On the other hand, when the point Ql (Xl, Yl) on the left image corresponds to the point Qr (Xr, Yr) on the right image, the parallax vector at the point Ql (Xl, Yl) is Vp (Xl-Xr, Yl- Yr). Here, since the two points Ql and Qr are on the same scanning line (epipolar line), Yl=Yr and the parallax vector is expressed as Vp(Xl-Xr, 0). The epipolar line direction calculator 41 obtains such a parallax vector Vp for all pixel points on the image and creates a parallax vector group to obtain information in the depth direction of the image. By the way, for a set whose epipolar line is not horizontal, one camera position may have a different height (low probability). In this case, the epipolar line orthogonal direction calculator 42 uses the epipolar line direction and the direction orthogonal to the epipolar line in a large search range as compared to the case of searching for corresponding points in a large two-dimensional area without being conscious of corresponding point matching. By searching within a rectangle that is about the degree of deviation from the horizontal, the minimum amount of calculation of the rectangle is reduced and becomes rational. Then, as shown in FIG. 8, the search range determiner 43 sets the epipolar line direction search range for the minimum rectangle to a to b=c to d, and sets the orthogonal direction search range to b to c=d to a. Indicates the search range for the case. In this case, the search width in the epipolar line direction is ΔE, and the search width in the direction T orthogonal to the epipolar line is ΔT. The minimum non-tilted rectangle ABCD containing the minimum tilted rectangle abcd is the desired region.

このように3次元モデル生成部35は、複数のカメラ11A,11Bの特徴点の対応点からエピポーラ拘束条件にて視差ベクトルを求め、各点の奥行き方向の情報を得て、3次元形状の表面上のテクスチャーをマッピングして、3次元モデルを生成する。これにより、計算に使用する画像データにある部分のモデルは、その前面側半球からの見る空間を再現することができる。また、3次元モデルの画像データに写っていない部分が存在する場合、周りのテクスチャーのラインやサーフェスを延長して繋がる場合は、その間を同じテクスチャーを用いて補間する。3次元モデル生成部35は、生成した3次元モデルを3次元モデル補正部36に送出する。 In this way, the 3D model generating unit 35 obtains parallax vectors from corresponding points of the feature points of the cameras 11A and 11B under the epipolar constraint condition, obtains information on the depth direction of each point, and obtains information on the surface of the 3D shape. Map the texture above to generate a 3D model. As a result, the model of the part in the image data used for calculation can reproduce the space seen from the front hemisphere. In addition, when there is a part that is not captured in the image data of the three-dimensional model, and when the surrounding texture lines or surfaces are extended and connected, the same texture is used to interpolate between them. The 3D model generation unit 35 sends the generated 3D model to the 3D model correction unit 36 .

なお、3次元モデルの生成方法は、上述したものに限定されるものではなく、他の方法を用いてもよい。 Note that the method of generating the three-dimensional model is not limited to the one described above, and other methods may be used.

そして、3次元モデル補正部36は、3次元モデルの生成が生成した3次元モデルを、画像データが存在しない時間の3次元モデルに補正するとき、画像データの平均値を算出することで、画像データが存在しない所定の時間における対象物の変化度合いを推定し、3次元モデルを補正する。 Then, the 3D model correction unit 36 calculates the average value of the image data when correcting the 3D model generated by the generation of the 3D model to the 3D model of the time when the image data does not exist, so that the image The degree of change of the object at a predetermined time when no data exists is estimated, and the three-dimensional model is corrected.

すなわち、複数の画像データは、所望の時間として所定の期間(例えば、1995年1月1日から2005年7月1日)に撮影された画像データである。この複数の画像データを、年を区切って群とし、対象物Tをなすオブジェクトの表面を構成する所定のオブジェクト部分における画像データの色差信号の平均値を求める。 That is, the plurality of pieces of image data are image data captured at desired times during a predetermined period (for example, from January 1, 1995 to July 1, 2005). The plurality of image data are grouped by year, and the average value of the color difference signals of the image data in a predetermined object portion constituting the surface of the object forming the target T is obtained.

3次元モデル補正部36は、使用者が3次元モデルを生成したい対象物の所望の時間における画像データが取得した複数の画像データに存在するかどうかを判定する。使用者が3次元モデルを生成したい対象物の所望の時間として、例えば、2000年7月1日における複数の画像データが存在する場合、3次元モデル生成部35が取得した複数の画像データに基づいて2000年7月1日における3次元モデルを生成することができることから、3次元モデル補正部36は、3次元モデルを補正しない。すなわち、2000年7月1日における複数の画像データが存在すると、3次元モデル生成部35は、同じ時間、同じ位置、同じ方位からの対象物Tの複数の画像データの平均値を算出し、画像データの平均値の色差信号を用いて3次元モデルを生成する。 The three-dimensional model correcting unit 36 determines whether image data at a desired time of an object for which the user wants to generate a three-dimensional model exists in the acquired plural image data. When a plurality of image data exist for, for example, July 1, 2000 as a desired time of an object for which the user wants to generate a three-dimensional model, the three-dimensional model generation unit 35 acquires a plurality of image data. Since the three-dimensional model as of July 1, 2000 can be generated by using the three-dimensional model, the three-dimensional model correction unit 36 does not correct the three-dimensional model. That is, when a plurality of image data exist on July 1, 2000, the three-dimensional model generation unit 35 calculates the average value of the plurality of image data of the object T from the same time, the same position, and the same direction, A three-dimensional model is generated using color difference signals of average values of image data.

一方、使用者が3次元モデルを生成したい対象物の所望の時間として、2000年7月1日における複数の画像データが存在しない場合、3次元モデル生成部35が生成した所望の時間でない複数の画像データに基づいて生成された3次元モデルに対して、3次元モデル補正部36は、補正により所望の時間における3次元モデルを生成する。この場合、3次元モデル補正部36は、2000年6月30日以前および2000年7月2日以降における複数の画像データに基づいて3次元モデルを補正する。このときの画像データの色差信号の平均値のデータは、所望の時間の未来方向(2000年6月30日以前)および過去方向(2000年7月2日以降)の画像データの平均値である。3次元モデル補正部36は、異なる時間、同じ位置、同じ方位からの画像データの色差信号の平均値を用いて3次元モデルを補正する。つまり、3次元モデル補正部36は、異なる時間の複数の画像データを内挿した値を色差信号として推測して合成する。 On the other hand, if there is no image data on July 1, 2000 as the desired time of the object for which the user wishes to generate a 3D model, then the 3D model generating unit 35 generates a plurality of images that are not at the desired time. The 3D model correction unit 36 generates a 3D model at a desired time by correcting the 3D model generated based on the image data. In this case, the 3D model correction unit 36 corrects the 3D model based on a plurality of image data before Jun. 30, 2000 and after Jul. 2, 2000. FIG. The data of the average value of the color difference signals of the image data at this time is the average value of the image data in the future direction (before June 30, 2000) and in the past direction (after July 2, 2000) at a desired time. . The three-dimensional model correction unit 36 corrects the three-dimensional model using the average value of the color difference signals of the image data from the same position and direction at different times. That is, the three-dimensional model correction unit 36 estimates and synthesizes values obtained by interpolating a plurality of image data at different times as color difference signals.

また、使用者が3次元モデルを生成したい対象物の所望の時間である2000年7月1日が存在する画像データの過去方向(2000年6月30日以前)または未来方向(2000年7月2日以降)である場合、このときの画像データの色差信号の平均値のデータは、2000年6月30日以前の画像データの平均値、または、2000年7月2日以降の画像データの平均値である。3次元モデル補正部36は、異なる時間、同じ位置、同じ方位からの画像データの色差信号の平均値を用い、未来方向または過去方向の3次元モデルを推定して補正する。つまり、異なる時間の複数の画像データを内挿した値を色差信号として推測して合成する。つまり、3次元モデル補正部36は、色差信号の毎年の平均値の変化量に基づいて画像データを外挿した値を色差信号として推測して合成する。 In addition, the past direction (prior to June 30, 2000) or the future direction (July 2000) of the image data in which July 1, 2000, which is the desired time of the object for which the user wants to generate a three-dimensional model, exists. 2nd day or later), the average value data of the color difference signals of the image data at this time is the average value of the image data before June 30, 2000, or the average value of the image data after July 2, 2000. Average value. The 3D model correction unit 36 estimates and corrects a 3D model in the future direction or the past direction using the average values of the color difference signals of the image data from the same position and the same direction at different times. That is, a value obtained by interpolating a plurality of image data at different times is estimated as a color difference signal and synthesized. That is, the three-dimensional model correction unit 36 estimates and synthesizes values obtained by extrapolating image data as color difference signals based on the amount of change in the annual average value of the color difference signals.

また、1日(24時間)を1時間毎に区切り、区切られた時間における画像データの色差信号を使用する場合、時刻による太陽の高さにおいて明るさが変化し、色差信号に影響するものを取り除く理由がある。そのため、3次元モデル補正部36は、天気情報を外部から取得し、画像データが撮影された土地の天気予報を参考にし、その日の太陽の光度合いを時間毎に推定して3次元モデルを補正してもよい。 Also, when one day (24 hours) is divided into 1-hour intervals and the color difference signals of the image data in the divided time are used, the brightness changes depending on the time of day and the height of the sun, which affects the color difference signals. there is a reason to remove it. Therefore, the 3D model correcting unit 36 acquires weather information from the outside, refers to the weather forecast for the area where the image data was captured, estimates the degree of sunlight on that day for each hour, and corrects the 3D model. You may

すなわち、使用者が3次元モデルを生成したい対象物の所望の時間である2000年7月1日における複数の画像データが存在しない場合、3次元モデル補正部36は、2000年6月30日以前の画像データの平均値や変化量、または、2000年7月2日以降の画像データの平均値や変化量を用いて3次元モデルを補正する。このとき、3次元モデル補正部36は、例えば、2000年7月1日より前または後の時間における天気に基づいて所望の時間の天気を推定する。そして、3次元モデル補正部36は、2000年6月30日以前および2000年7月2日以降の複数の画像データから、2000年7月1日間の天気と同じ天気の画像データの平均値を用いて3次元モデルを補正する。 That is, if there is no image data on July 1, 2000, which is the desired time of the object for which the user wishes to generate a three-dimensional model, the three-dimensional model correction unit 36 The three-dimensional model is corrected using the average value and amount of change of the image data from July 2, 2000 onwards, or the average value and amount of change of the image data after July 2, 2000. At this time, the three-dimensional model correction unit 36 estimates the weather at a desired time based on the weather before or after July 1, 2000, for example. Then, the three-dimensional model correction unit 36 calculates the average value of the image data of the same weather as the weather on July 1, 2000 from the plurality of image data before June 30, 2000 and after July 2, 2000. is used to correct the 3D model.

また、3次元モデル補正部36は、画像データが存在する時間の一部の画像データを用いて、所望の時間である2000年7月1日の対象物Tに対するカメラ11からの角度、天気、月日による季節を考慮した太陽の高低のパラメータと、撮影された画像データとを入力とし、対応する模範的撮影画像データを出力とする、教師データセットを用いて機械学習することで、画像データが存在しない2000年6月30日以前や2000年7月2日以降で、特定の時刻の対象物Tの画像データを予測した画像を用いて合成するものであってもよい。 Also, the 3D model correction unit 36 uses part of the image data of the time when the image data exists to determine the angle from the camera 11 with respect to the object T on July 1, 2000, which is the desired time, the weather, Image data is generated by machine learning using a training data set that takes as input the parameters of the height of the sun that takes into account the season by month and day, and the captured image data, and outputs the corresponding exemplary captured image data. Before June 30, 2000, or after July 2, 2000, when there is no T, the image data of the object T at a specific time may be synthesized using a predicted image.

なお、3次元モデル補正部36が補正に使用する画像データとして、未来の対象物Tを予測した画像データ、つまり、未来予測画像データを用いてもよい。未来予測画像データとしては、映画などの動画の空間および画像データや仮想未来として作成された3Dの空間および画像データなどを含む。構成空間全体の画像データも活用可能であるが、部分的な限定空間(嵌め込み空間)も含む。都市再開発を想定し、または、建物の建て替えを想定し、空間の年月日時情報、位置情報、方位情報を組みにして、開発前都市の空間および画像データから新都市データへと合成画像を外挿的、内挿的に生成する画像処理を行い表示することも可能である。未来予測画像データは、機械的(CADデータなど)にまたは人工知能により作り出された空間および画像データも含む。地域や建蔽率、建物の種類などを入力情報とすれば、標準的な構造物の空間画像データが得られ、活用可能である。 As the image data used for correction by the three-dimensional model correction unit 36, image data obtained by predicting the future object T, that is, future predicted image data may be used. Predicted future image data includes space and image data of moving images such as movies, and 3D space and image data created as a virtual future. Image data for the entire construction space can also be used, including partial confined space (inset space). Assuming urban redevelopment or rebuilding of buildings, the spatial and image data of the city before development are combined into new city data by combining the date, time, location, and direction information of the space. It is also possible to perform image processing for extrapolation or interpolation and display. Future-predicted image data also includes spatial and image data generated mechanically (such as CAD data) or by artificial intelligence. If the area, building coverage ratio, type of building, etc. are used as input information, spatial image data of standard structures can be obtained and utilized.

すなわち、データベース26は、過去から現在までの対象物Tの画像データだけでなく、未来を予測した画像データ(未来予測画像データ)も有する。未来予測画像データとは、現在である2021年3月1日に対して、2021年3月2日以降の対象物Tの状態を予測した画像データである。使用者が入力装置32を用いて、所望の時間として未来の時間、例えば、2031年3月1日を入力した場合、画像データ取得部34は、2021年3月1日以前の画像データだけでなく、2021年3月2日以降の未来予測画像データも取得する。3次元モデル補正部36は、2021年3月1日以前の画像データと2021年3月2日以降の未来予測画像データを用いて3次元モデルを補正する。 That is, the database 26 has not only the image data of the object T from the past to the present, but also the image data of the predicted future (future prediction image data). The future prediction image data is image data obtained by predicting the state of the target object T on and after March 2, 2021 with respect to March 1, 2021, which is the present. When the user uses the input device 32 to input a future time, for example March 1, 2031, as a desired time, the image data acquisition unit 34 retrieves only the image data before March 1, 2021. In addition, future prediction image data after March 2, 2021 are also acquired. The three-dimensional model correction unit 36 corrects the three-dimensional model using the image data before March 1, 2021 and the future prediction image data after March 2, 2021.

[本実施形態の作用効果]
本実施形態では、時間情報を含む対象物Tの画像データを取得する画像データ取得部34と、画像データ取得部34が取得した対象物Tの画像データに基づいて3次元モデルを生成する3次元モデル生成部35と、3次元モデルに対して所定の時間における対象物Tの変化度合いを推定して前記3次元モデルを補正する3次元モデル補正部36とを備える。
[Action and effect of the present embodiment]
In this embodiment, an image data acquisition unit 34 that acquires image data of the target object T including time information, and a three-dimensional model that generates a three-dimensional model based on the image data of the target object T acquired by the image data acquisition unit 34. A model generating unit 35 and a three-dimensional model correcting unit 36 for estimating the degree of change of the object T at a predetermined time with respect to the three-dimensional model and correcting the three-dimensional model.

そのため、3次元モデル生成部35は、複数の画像データと、各画像データにおける時間情報に基づいて3次元モデルを生成し、3次元モデル補正部36は、3次元モデルに対して所定の時間における対象物Tの変化度合いを推定して3次元モデルを補正する。すなわち、まず、存在する多数の画像データを取得し、取得した多数の画像データから所定の時間の3次元モデルを生成する。次に、複数の時間の3次元モデルにおける時間から推定した形状や色などの変化度合い(劣化度合い)に基づいて、3次元モデルを補正して画像データが存在しない時間の3次元モデルを生成する。その結果、画像データの有無に拘わらず3次元モデルを生成することができる。 Therefore, the 3D model generation unit 35 generates a 3D model based on a plurality of image data and time information in each image data, and the 3D model correction unit 36 applies the 3D model at a predetermined time. The degree of change of the object T is estimated to correct the three-dimensional model. That is, first, a large number of existing image data are acquired, and a three-dimensional model of a predetermined time is generated from the acquired large number of image data. Next, based on the degree of change (degree of deterioration) of the shape, color, etc. estimated from time in the 3D model at a plurality of times, the 3D model is corrected to generate a 3D model at times where there is no image data. . As a result, a three-dimensional model can be generated regardless of the presence or absence of image data.

また、本実施形態では、対象物Tの画像データは、位置情報と方位情報を含み、3次元モデル生成部35は、時間情報と位置情報と方位情報が一致する複数の対象物Tの画像データに基づいて3次元モデルを生成する。そのため、所定の時間における対象物Tの3次元モデルを高精度に生成することができる。 Further, in this embodiment, the image data of the target object T includes position information and orientation information, and the three-dimensional model generation unit 35 generates image data of a plurality of target objects T whose time information, position information, and orientation information match. Generate a three-dimensional model based on Therefore, a three-dimensional model of the object T at a predetermined time can be generated with high accuracy.

また、本実施形態では、3次元モデル補正部36は、異なる時間における3次元モデルの変化量に基づいて3次元モデルを補正する。そのため、所望の時間における画像データが存在しなくても、所望の時間以外の画像データの変化量に基づいて画像データが存在しなし所望の時間における3次元モデルを生成することができる。 Further, in the present embodiment, the 3D model correction unit 36 corrects the 3D model based on the amount of change in the 3D model at different times. Therefore, even if there is no image data at the desired time, it is possible to generate a three-dimensional model at the desired time without image data based on the amount of change in the image data at times other than the desired time.

これまで本発明に係る3次元モデル生成装置について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよい。 Although the three-dimensional model generation device according to the present invention has been described so far, it may be implemented in various different forms other than the above-described embodiments.

図示した3次元モデル生成装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated three-dimensional model generation device is functionally conceptual, and does not necessarily have to be physically configured as illustrated. In other words, the specific form of each device is not limited to the illustrated one, and all or part of it may be functionally or physically distributed or integrated in arbitrary units according to the processing load and usage conditions of each device. may

3次元モデル生成装置の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the three-dimensional model generation device is implemented by, for example, a program loaded into a memory as software. In the above embodiments, functional blocks realized by cooperation of these hardware or software have been described. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The components described above include those that can be easily assumed by those skilled in the art and those that are substantially the same. Furthermore, the above configurations can be combined as appropriate. Also, various omissions, substitutions, or modifications of the configuration are possible without departing from the gist of the present invention.

10 画像取得装置
11 カメラ(撮像装置)
12 GPS受信部
13 方位センサ
21 時間情報取得部
22 位置情報取得部
23 方位情報取得部
24 フォーマット部
25 記憶部
26 データベース
30 3次元モデル生成装置
31 画像処理装置
32 入力装置
33 表示装置
34 画像データ取得部
35 3次元モデル生成部
36 3次元モデル補正部
T 対象物
10 image acquisition device 11 camera (imaging device)
12 GPS receiver 13 direction sensor 21 time information acquisition unit 22 position information acquisition unit 23 direction information acquisition unit 24 format unit 25 storage unit 26 database 30 three-dimensional model generation device 31 image processing device 32 input device 33 display device 34 image data acquisition Part 35 Three-dimensional model generation part 36 Three-dimensional model correction part T Object

Claims (5)

時間情報を含む対象物の画像データを取得する画像データ取得部と、
前記画像データ取得部が取得した前記対象物の画像データに基づいて3次元モデルを生成する3次元モデル生成部と、
前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正する3次元モデル補正部と、
を備える三次元モデル生成装置。
an image data acquisition unit that acquires image data of an object including time information;
a three-dimensional model generation unit that generates a three-dimensional model based on the image data of the object acquired by the image data acquisition unit;
a three-dimensional model correction unit for estimating the degree of change of the object at a predetermined time with respect to the three-dimensional model and correcting the three-dimensional model;
3D model generation device.
前記対象物の画像データは、位置情報と方位情報を含み、
前記3次元モデル生成部は、前記時間情報と前記位置情報と前記方位情報が一致する複数の対象物の画像データに基づいて3次元モデルを生成する、
請求項1に記載の三次元モデル生成装置。
the image data of the object includes position information and orientation information;
The three-dimensional model generating unit generates a three-dimensional model based on image data of a plurality of objects whose time information, position information, and orientation information match.
3. The three-dimensional model generation device according to claim 1.
前記3次元モデル補正部は、異なる時間における3次元モデルの変化量に基づいて前記3次元モデルを補正する、
請求項1または請求項2に記載の三次元モデル生成装置。
The three-dimensional model correction unit corrects the three-dimensional model based on the amount of change in the three-dimensional model at different times.
3. The three-dimensional model generation device according to claim 1 or 2.
時間情報を含む対象物の画像データを取得するステップと、
取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、
前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、
を含む3次元モデル生成方法。
obtaining image data of the object including time information;
generating a three-dimensional model based on the acquired image data of the object;
estimating the degree of change of the object at a predetermined time with respect to the three-dimensional model and correcting the three-dimensional model;
A three-dimensional model generation method comprising:
時間情報を含む対象物の画像データを取得するステップと、
取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、
前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、
を3次元モデル生成装置として動作するコンピュータに実行させるプログラム。
obtaining image data of the object including time information;
generating a three-dimensional model based on the acquired image data of the object;
estimating the degree of change of the object at a predetermined time with respect to the three-dimensional model and correcting the three-dimensional model;
A program that causes a computer that operates as a three-dimensional model generation device to execute.
JP2021069058A 2021-04-15 2021-04-15 Three-dimensional model generation device, three-dimensional model generation method, and program Pending JP2022163920A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021069058A JP2022163920A (en) 2021-04-15 2021-04-15 Three-dimensional model generation device, three-dimensional model generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021069058A JP2022163920A (en) 2021-04-15 2021-04-15 Three-dimensional model generation device, three-dimensional model generation method, and program

Publications (1)

Publication Number Publication Date
JP2022163920A true JP2022163920A (en) 2022-10-27

Family

ID=83743100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021069058A Pending JP2022163920A (en) 2021-04-15 2021-04-15 Three-dimensional model generation device, three-dimensional model generation method, and program

Country Status (1)

Country Link
JP (1) JP2022163920A (en)

Similar Documents

Publication Publication Date Title
Teller et al. Calibrated, registered images of an extended urban area
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
US7773799B2 (en) Method for automatic stereo measurement of a point of interest in a scene
AU2011312140B2 (en) Rapid 3D modeling
US11887273B2 (en) Post capture imagery processing and deployment systems
TWI483215B (en) Augmenting image data based on related 3d point cloud data
CN106599119B (en) Image data storage method and device
US20210056751A1 (en) Photography-based 3d modeling system and method, and automatic 3d modeling apparatus and method
KR101342393B1 (en) Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera
JP2010109783A (en) Electronic camera
CN108399631B (en) Scale invariance oblique image multi-view dense matching method
CN111815759B (en) Measurable live-action picture generation method and device, and computer equipment
US8509522B2 (en) Camera translation using rotation from device
US20120038770A1 (en) Precise target positioning in geographical imaging
Reitinger et al. Augmented reality scouting for interactive 3d reconstruction
JP5991821B2 (en) Photogrammetry equipment
WO2020051208A1 (en) Method for obtaining photogrammetric data using a layered approach
CN111402315A (en) Three-dimensional distance measuring method for adaptively adjusting base line of binocular camera
d'Annibale et al. Finalizing a low-cost photogrammetric workflow: from panoramic photos to Heritage 3D documentation and visualization
JP2022163920A (en) Three-dimensional model generation device, three-dimensional model generation method, and program
JP2008203991A (en) Image processor
KR20150096127A (en) Method and apparatus for calculating location of points captured in image
Barazzetti et al. Stitching and processing gnomonic projections for close-range photogrammetry
Rawlinson Design and implementation of a spatially enabled panoramic virtual reality prototype
CA3102860C (en) Photography-based 3d modeling system and method, and automatic 3d modeling apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231228