JP2022163920A - Three-dimensional model generation device, three-dimensional model generation method, and program - Google Patents
Three-dimensional model generation device, three-dimensional model generation method, and program Download PDFInfo
- Publication number
- JP2022163920A JP2022163920A JP2021069058A JP2021069058A JP2022163920A JP 2022163920 A JP2022163920 A JP 2022163920A JP 2021069058 A JP2021069058 A JP 2021069058A JP 2021069058 A JP2021069058 A JP 2021069058A JP 2022163920 A JP2022163920 A JP 2022163920A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- dimensional model
- information
- model generation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 24
- 238000012937 correction Methods 0.000 claims abstract description 35
- 230000008859 change Effects 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 239000013598 vector Substances 0.000 description 11
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
Description
本発明は、3次元モデル生成装置、3次元モデル生成方法およびプログラムに関する。 The present invention relates to a three-dimensional model generation device, a three-dimensional model generation method, and a program.
複数の画像データから所望の画像データを容易に検索する技術として、例えば、下記特許文献1に記載されたものがある。特許文献1に記載された技術は、撮影された位置や撮影された日時が撮影情報として付与された複数の画像データを画像交換サーバに保管し、端末装置から画像データに付与された撮影情報に基づいて所望の画像データを検索する。また、複数の画像を写真マッピングする技術として、例えば、下記特許文献2に記載されたものがある。特許文献2に記載された技術は、複数の写真データに付与されるメタ情報を用いて、有機的に活用した検索や、リアルタイムで視界に入る建造物に関する情報の検索や、特定の人物が被写体になっている写真の検索を行い、写真マッピングを行うものである。 As a technique for easily retrieving desired image data from a plurality of image data, for example, there is a technique described in Patent Document 1 below. The technique described in Japanese Patent Application Laid-Open No. 2002-200002 stores a plurality of image data to which the photographing positions and photographing dates and times are attached as photographing information in an image exchange server, and the photographing information attached to the image data from a terminal device. Search for desired image data based on Further, as a technique for photograph mapping a plurality of images, there is a technique described in Patent Document 2 below, for example. The technology described in Patent Literature 2 uses meta information attached to a plurality of photo data to organically utilize search, search for information on buildings within sight in real time, search for information about It searches for photos that are marked as , and performs photo mapping.
被写体に対して撮影位置を変えながら複数の写真を撮影し、撮影した複数の写真データに基づいて3次元モデルを生成するフォトグラメトリーという技術がある。ところが、従来のフォトグラメトリーは、実際の複数の写真データを加工して3次元モデルを生成するものである。そのため、実際の写真データがないと、3次元モデルを生成することができない。 2. Description of the Related Art There is a technique called photogrammetry in which a plurality of photographs are taken while changing the photographing position of an object, and a three-dimensional model is generated based on data of the photographed photographs. However, conventional photogrammetry processes a plurality of actual photographic data to generate a three-dimensional model. Therefore, a three-dimensional model cannot be generated without actual photo data.
本発明は、上記に鑑みてなされたものであって、画像データの有無に拘わらず3次元モデルを生成可能とすることを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to make it possible to generate a three-dimensional model regardless of the presence or absence of image data.
上述した課題を解決し、目的を達成するために、本発明に係る3次元モデル生成装置は、時間情報を含む対象物の画像データを取得する画像データ取得部と、前記画像データ取得部が取得した前記対象物の画像データに基づいて3次元モデルを生成する3次元モデル生成部と、前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正する3次元モデル補正部と、を備える。 In order to solve the above-described problems and achieve the object, a three-dimensional model generation apparatus according to the present invention includes an image data acquisition unit for acquiring image data of an object including time information; a three-dimensional model generating unit that generates a three-dimensional model based on the image data of the object that has been obtained; and a three-dimensional model correction unit.
本発明に係る3次元モデル生成方法は、時間情報を含む対象物の画像データを取得するステップと、取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、を含む。 A three-dimensional model generating method according to the present invention comprises the steps of obtaining image data of an object including time information, generating a three-dimensional model based on the obtained image data of the object, and and estimating the degree of change of the object at a predetermined time to correct the three-dimensional model.
本発明に係るプログラムは、時間情報を含む対象物の画像データを取得するステップと、取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、を3次元モデル生成装置として動作するコンピュータに実行させる。 A program according to the present invention comprises the steps of acquiring image data of an object including time information, generating a three-dimensional model based on the acquired image data of the object, and performing predetermined operations on the three-dimensional model. a step of estimating the degree of change of the object at the time of and correcting the three-dimensional model.
本発明によれば、画像データの有無に拘わらず3次元モデルを生成することができるという効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to produce|generate a three-dimensional model regardless of the presence or absence of image data.
以下に添付図面を参照して、本発明に係る3次元モデル生成装置、3次元モデル生成方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Exemplary embodiments of a three-dimensional model generation device, a three-dimensional model generation method, and a program according to the present invention will be described below in detail with reference to the accompanying drawings. In addition, the present invention is not limited by the following embodiments.
[画像取得装置]
図1は、本実施形態に係る3次元モデル生成装置における画像取得装置を表すブロック図である。画像取得装置10は、後述する3次元モデル生成装置に3次元モデルを生成させるために、後述するフォーマット画像データを生成し、データベース26へ送信する。
[Image acquisition device]
FIG. 1 is a block diagram showing an image acquisition device in a three-dimensional model generation device according to this embodiment. The
図1に示すように、画像取得装置10は、カメラ(撮像装置)11と、GPS受信部(GNSS信号受信器)12と、方位センサ13と、時間情報取得部21と、位置情報取得部22と、方位情報取得部23と、フォーマット部24と、記憶部25とを備える。
As shown in FIG. 1, the
カメラ11は、対象物を撮影する。カメラ11が撮影した画像データは、劣化が気にならない程度にJPEGやPNGなどの形式に圧縮される。カメラ11は、撮影した画像データをフォーマット部24に送ると共に、トリガー情報として時間情報取得部21と位置情報取得部22と方位情報取得部23へ送出する。
A
GPS受信部12は、衛星からの電波を受信し、正確な時刻情報や位置情報をえる。GPS受信部12は、時刻情報を時間情報取得部21に送出し、位置情報を位置情報取得部22へ送出する。
The
時間情報取得部21は、GPS受信部12からの時間情報に基づいて、カメラ11が画像データを撮影した際の時間情報を取得する。時間情報取得部21は、カメラ11が画像データを撮像した際の時間情報をフォーマット部へ送出する。
The time information acquisition unit 21 acquires time information when the
位置情報取得部22は、GPS受信部12からの情報に基づいて、カメラ11が画像データを撮影した際の位置情報を取得する。位置情報取得部22は、カメラ11が画像データを撮像した際の位置情報をフォーマット部へ送出する。
The position
方位センサ13は、ジャイロ(角速度センサー)によりカメラ11の傾き(仰角)を測定する。方位センサ13は、測定した結果を方位情報取得部23へ送出する。
The azimuth sensor 13 measures the tilt (elevation angle) of the
方位情報取得部23は、方位センサ13の測定結果に基づいて、カメラ11が画像データを撮影した際の方位情報をフォーマット部へ送出する。
Based on the measurement result of the orientation sensor 13, the orientation information acquisition unit 23 sends the orientation information when the
カメラ11が撮影した画像データ、時間情報取得部21が取得した画像データの時間情報、位置情報取得部22が取得した画像データの位置情報、方位情報取得部23が取得した画像データの方位情報は、フォーマット部24に入力される。
The image data captured by the
フォーマット部24は、パラメータ当たりのバイト数が設定され、入力した各種の情報が所定のフォーマットに変換し、フォーマット画像データを生成する。なお、フォーマット画像データとは、画像データ、画像データの時間情報、画像データの位置情報、画像データの方位情報を、所定のフォーマットへ変換したデータである。される。フォーマット部24は、フォーマット画像データを記憶部25へ送出する。 The format unit 24 is set with the number of bytes per parameter, converts various types of input information into a predetermined format, and generates format image data. The format image data is data obtained by converting the image data, the time information of the image data, the position information of the image data, and the orientation information of the image data into a predetermined format. be done. Format unit 24 sends the formatted image data to storage unit 25 .
なお、時間情報取得部21と、位置情報取得部22と、方位情報取得部23と、フォーマット部24とは、例えば、CPU(Central Processing Unit)などの演算回路によって構成される。
Note that the time information acquisition unit 21, the position
記憶部25は、フォーマット画像データを一時的に記憶する。記憶部25は、HDD(Hard Disk Drive)などの外部記憶装置やメモリなどである。記憶部25は、送信部(不図示)を介して、インターネットなどのネットワークにより接続されたデータベース26へ、フォーマット画像データを送信する。記憶部25に一時的に記憶されフォーマット画像データは、インターネット上のデータベース26に大規模に保存される。
The storage unit 25 temporarily stores the format image data. The storage unit 25 is an external storage device such as a HDD (Hard Disk Drive), a memory, or the like. The storage unit 25 transmits the formatted image data to a
図2は、画像データにおける記録フォーマットを表す概略図である。 FIG. 2 is a schematic diagram showing a recording format for image data.
図2に示すように、フォーマット画像データは、前半の固定長部分と、後半の可変長部分とにより構成される。固定長部分は、時間情報と、位置情報と、方位情報とを有する。時間情報は、年月日時情報であって、西暦データ2バイト、月データ1バイト、日データ1バイト、時間データ1バイト、分データ1バイト、秒データ1バイトにより構成される。可変長部分は、画像データによって構成される。位置情報は、緯度データで8バイト、経度データで8バイトにより構成される。位置情報は、対象物を撮影した位置を表すものであり、緯度と経度以外の情報としては、住所、地域名、建築物名などを用いることができる。なお、位置情報は、地図を所定の大きさで区画したエリアとし、エリア内の横軸と縦軸の相対的な座標で記載してもよい。 As shown in FIG. 2, the format image data consists of a fixed-length portion in the first half and a variable-length portion in the second half. The fixed-length portion has time information, position information, and orientation information. The time information is year/month/date information, and consists of 2 bytes of year data, 1 byte of month data, 1 byte of day data, 1 byte of time data, 1 byte of minute data, and 1 byte of second data. The variable length portion is composed of image data. The position information consists of 8 bytes of latitude data and 8 bytes of longitude data. The positional information represents the position where the object was photographed, and information other than the latitude and longitude may be an address, an area name, a building name, or the like. Note that the position information may be defined as an area obtained by dividing a map into a predetermined size, and may be described as relative coordinates on the horizontal axis and the vertical axis within the area.
方位情報は、水平方位として8バイト、仰角データとして8バイトにより構成される。カメラ11が取得した画像データの方位情報は、例えば、アナログ時計を用いた表現として、針の時計回り方向に東を3時(90°)、南を6時(180°)、西を9時(270°)、北を12時(360°(0°))のように表現する。仰角方位は、水平を0度、真上を90度とし、見上げる仰角の度数を記録する。可変長部分は、画像情報であり、画像情報は、画像がJPG形式やPNG形式に圧縮された画像圧縮ファイルである。
The azimuth information consists of 8 bytes for horizontal azimuth and 8 bytes for elevation angle data. The azimuth information of the image data acquired by the
図3は、対象物に対する位置情報および方位情報を説明するための概略図である。 FIG. 3 is a schematic diagram for explaining position information and azimuth information for an object.
図3に示すように、地図100は、ある都市を区画したものであり、地図100は、例えば、100m四方の正方形で、複数のエリアに区画される。図3では、地図100の所定の区画を、エリア0010-2324、エリア0010-2325、エリア0010-2326、エリア0010-2455、エリア0010-2456、エリア0010-2457、エリア0010-2586、エリア0010-2587、エリア0010-2588の9つのエリアに分割した様子を示す。
As shown in FIG. 3, the
対象物Tは、例えば、エリア0010-2456というエリア番号が付けられたエリアにある。対象物Tに向けて5か所の位置A1,A2,A3,A4,A5でカメラ11による撮影が実施される。位置A1は、対象物Tに対する正面位置であり、位置A2は、対象物Tに対する左斜め前位置であり、位置A3は、対象物Tに対する左斜め後位置であり、位置A4は、対象物Tに対する右斜め後位置であり、位置A5は、対象物Tに対する右斜め前位置である。
Object T is in an area numbered, for example, area 0010-2456. The
ここで、位置A1,A2,A3,A4,A5から対象物Tに向かって延びる線が方位である。方位情報は、水平方向で、地図真上(真北)方向を12時の方向(0度)とする。例えば、位置A1の方位は、00時00分00秒となり、位置A2の方位は、02時30分00秒となる。そして、地図100に表せないカメラ11の仰角は、例えば、位置A1では、12度、位置A2では、7度、位置A3では、10度、位置A4では、25度、位置A5では、35度というように、フォーマットに記載される。
Here, the lines extending from the positions A1, A2, A3, A4, and A5 toward the object T are azimuths. The azimuth information is in the horizontal direction, and the direction directly above (true north) on the map is the 12 o'clock direction (0 degrees). For example, the direction of position A1 is 00:00:00, and the direction of position A2 is 02:30:00. The elevation angle of the
[3次元モデル生成装置]
図4は、本実施形態に係る3次元モデル生成装置を表すブロック図である。
[3D model generation device]
FIG. 4 is a block diagram showing the three-dimensional model generation device according to this embodiment.
図4に示すように、3次元モデル生成装置30は、画像処理装置31と、入力装置32と、表示装置33とを備える。
As shown in FIG. 4 , the three-dimensional
入力装置32は、使用者により操作される。入力装置32は、使用者により入力された操作指令信号を画像処理装置31に送出する。ここで、操作指令信号は、使用者が3次元モデルを生成したい所望の場所(対象物の名称や住所)および3次元モデルを生成したい所望の時間などである。入力装置32は、例えば、キーボードやタッチパネルなどである。
The
画像処理装置31は、例えば、送受信部(不図示)を介して、インターネットによりデータベース26と接続される。画像処理装置31は、入力装置32から送出された操作指令信号に基づいて、データベース26に保存されているフォーマット画像データを取得し、フォーマット画像データを画像処理する。すなわち、画像処理装置31は、入力装置32から送出された対象物に基づいて、データベース26に保存されている対象物に該当するフォーマット画像データを取得し、フォーマット画像データを画像処理する。画像処理装置31は、画像処理した画像データを表示装置33に送出する。
The image processing device 31 is connected to the
表示装置33は、使用者に対して画像データを表示する。表示装置33は、画像処理装置31が画像処理した3次元モデルや画像データを表示する。表示装置33は、例えば、液晶ディスプレイやヘッドマウンドディスプレイなどである。
The
画像処理装置31は、画像データ取得部34と、3次元モデル生成部35と、3次元モデル補正部36とを有する。なお、画像データ取得部34と、3次元モデル生成部35と、3次元モデル補正部36は例えばCPUによって構成される。
The image processing device 31 has an image
画像データ取得部34は、使用者が入力装置32により入力した操作指令信号が入力される。画像データ取得部34は、この操作指令信号に基づいて該当する多数の画像データを検索して取得する。すなわち、画像データ取得部34は、データベース26に保存されているフォーマット画像データから、入力装置32から入力された対象物のフォーマット画像データを取得する。画像データ取得部34は、取得した多数のフォーマット画像データを3次元モデル生成部35に送出する。
The image
3次元モデル生成部35は、画像データ取得部34が取得した多数のフォーマット画像データに含まれる画像データと、このフォーマット画像データに含まれる画像データが撮影された時間情報と、画像データの位置情報と、画像データの方位情報に基づいて3次元モデルを生成する。3次元モデル生成部35は、生成した3次元モデルを3次元モデル補正部36に送出する。
The three-dimensional model generation unit 35 generates image data included in a large number of format image data acquired by the image
3次元モデル補正部36は、3次元モデル生成部35が生成した3次元モデルに対して、入力装置32から入力された時間情報に基づいて3次元モデルを補正する。すなわち、3次元モデル補正部36は、入力装置32から入力された時間情報、つまり、指定された所定の時間における対象物の変化度合いを推定して3次元モデルを補正する。3次元モデル補正部36は、補正した3次元モデルを表示装置33に送出する。
The 3D model correction unit 36 corrects the 3D model generated by the 3D model generation unit 35 based on the time information input from the
このとき、3次元モデル生成部35は、時間情報と方位情報が一致する複数の画像データに対して、ある画素の輝度値を周辺の画素の輝度値の平均とする平均化処理を行い、平均化処理を行った異なる方位における複数の画像データに基づいて3次元モデルを生成する。そして、3次元モデル補正部36は、異なる時間における3次元モデルの変化量に基づいて3次元モデルを補正する。 At this time, the three-dimensional model generation unit 35 performs an averaging process of averaging the luminance value of a certain pixel with respect to a plurality of image data whose time information and orientation information match each other. A three-dimensional model is generated based on a plurality of image data in different orientations that have undergone the transformation processing. Then, the 3D model correction unit 36 corrects the 3D model based on the amount of change in the 3D model at different times.
[3次元モデル生成方法]
図5は、3次元モデル生成方法を表すフローチャートである。
[3D model generation method]
FIG. 5 is a flow chart representing a three-dimensional model generation method.
図4および図5に示すように、ステップS11にて、使用者は、入力装置32を用いて、操作指令信号としての3次元モデルを生成したい所望の場所を入力する。所望の場所は、対象物の名称や住所などである。ステップS12にて、使用者は、入力装置32を用いて、操作指令信号としての3次元モデルを生成したい所望の時間を入力する。所望の時間は、西暦および年月日で入力する。ステップS13にて、画像データ取得部34は、検索条件としての所望の場所および所望の時間に該当する多数のフォーマット画像データをデータベース26から検索して取得する。この場合、画像データ取得部34は、所望の時間として、所定の期間を検索する。画像データ取得部34は、所望の時間として、例えば、2000年7月1日が入力されると、所定の期間である1995年1月1日から2005年7月1日に撮影された複数のフォーマット画像データを取得する。
As shown in FIGS. 4 and 5, in step S11, the user uses the
ステップS14にて、3次元モデル生成部35は、複数のフォーマット画像データに含まれる画像データと、画像データの時間情報と、画像データの位置情報と、画像データの方位情報に基づいて3次元モデルを生成する。ステップS14の3次元モデルの生成の詳細に関しては後述する。ステップS15にて、3次元モデル補正部36は、3次元モデルに対して所定の時間における対象物の変化度合いを推定して3次元モデルを補正する。そして、ステップS16にて、表示装置33は、補正された3次元モデルを表示する。
In step S14, the 3D model generator 35 generates a 3D model based on the image data included in the plurality of format image data, the time information of the image data, the position information of the image data, and the orientation information of the image data. to generate Details of the generation of the three-dimensional model in step S14 will be described later. In step S15, the three-dimensional model correction unit 36 estimates the degree of change of the target object in a predetermined time period with respect to the three-dimensional model and corrects the three-dimensional model. Then, in step S16, the
すなわち、まず、画像データ取得部34は、インターネットを介してデータベース26から複数のフォーマット画像データを取得することにより、複数の画像データと、各画像データにおける時間情報と位置情報と方位情報とを取得する。画像データ取得部34は、異なる複数の時間で、対象物Tに対して異なる複数の位置および方位から撮影した複数の画像データを取得する。
That is, first, the image
次に、3次元モデル生成部35は、複数の画像データに対して、アスペクト比を維持したままで、拡大縮小、回転、左右の台形補正などを自由度にしたアフィン変換を行い、画像の特徴点が対応する、つまり、マッチング処理して差分が極端に小さくなる位置決めの算出を行う。左右の台形補正は、建物などを左側面から撮影すると同じ高さの左縦線が近いために長くなり、右縦線が遠くなるため短く映る、所謂、遠近法の原理で、通常記念写真などカメラ撮影の場合、確率的に左右方向は移動可能なので沢山の角度で撮影された枚数が増えるが、上下方向は、仰ぎ角が多少変わる程度で、撮影ポイントの上下はあまりないためである。大きい特徴が一致するグループを抽出することで、画像の繋がりが分かりそれをメモリ上に展開していく。これらの処理は、フォトグラメトリーの手法で、複数角度からの画像を、対象物Tの3次元形状を生成する技術であり、三角測量の原理である。特徴点が取れるか取れないかは、選択した画像の中の2組セットの画像に互いに6割程度視野が重なっているセットがあるのが好ましい。 Next, the three-dimensional model generation unit 35 performs affine transformation with degrees of freedom such as enlargement/reduction, rotation, and left/right trapezoidal correction on the plurality of image data while maintaining the aspect ratio, and converts the image characteristics into Positioning calculation is performed so that the points correspond to each other, that is, the matching process makes the difference extremely small. Left and right trapezoidal correction is based on the principle of perspective. When you shoot a building from the left side, the left vertical line of the same height becomes closer, making it longer, and the right vertical line becomes farther away, making it appear shorter. This is because, in the case of camera shooting, the number of shots taken at many angles increases because it is possible to move in the horizontal direction, but in the vertical direction, the angle of elevation changes only slightly, and the shooting point does not move vertically. By extracting groups with matching large features, the connections between images can be found and expanded in memory. These processes are a technique of generating a three-dimensional shape of the object T from images taken from a plurality of angles using a photogrammetry technique, and are the principle of triangulation. Whether or not a feature point can be taken is preferably determined by setting two sets of images among the selected images, in which the fields of view overlap each other by about 60%.
そして、3次元モデル補正部36は、3次元モデル生成部35が生成した3次元モデルに対して、所望の時間に対応するように変化度合いを推定して3次元モデルを補正する。すると、使用者が所望する所定の時間における対象物の3次元モデルを生成することができる。 Then, the three-dimensional model correction unit 36 estimates the degree of change of the three-dimensional model generated by the three-dimensional model generation unit 35 so as to correspond to a desired time, and corrects the three-dimensional model. Then, a three-dimensional model of the object at a predetermined time desired by the user can be generated.
ここで、ステップS14の3次元モデルの生成方法の具体例を説明する。図6は、3次元モデル生成部の具体的な構成を表すブロック図、図7は、フォトグラメトリー原理を適用する2つの画像の位置関係を表す説明図、図8は、2つの画像の位置関係を表す説明図である。 Here, a specific example of the three-dimensional model generation method in step S14 will be described. FIG. 6 is a block diagram showing the specific configuration of the 3D model generation unit, FIG. 7 is an explanatory diagram showing the positional relationship between two images to which the principle of photogrammetry is applied, and FIG. 8 is the positions of the two images. It is an explanatory view showing relation.
図6に示すように、3次元モデル生成部35は、エピポーラ線方向計算器41と、エピポーラ線直交方向計算器42と、探索範囲決定器43と、対応点検出器44と、距離計算器45とを有する。
As shown in FIG. 6, the three-dimensional model generation unit 35 includes an epipolar
エピポーラ線方向計算器41は、画像データ取得部34が取得した複数の画像データに基づいて、対象物Tに対する複数の画像データの相対応する複数の画素点間を結ぶエピポーラ線の方向を計算する。エピポーラ線方向計算器41は、算出したエピポーラ線の方向をエピポーラ線直交方向計算器42に送出する。
The epipolar
エピポーラ線直交方向計算器42は、エピポーラ線に対して直交する直交方向を計算する。エピポーラ線直交方向計算器42算出したエピポーラ線に対する直交方向を探索範囲決定器43に出力する。
An epipolar line
探索範囲決定器43は、エピポーラ線の方向とエピポーラ線の直交方向に相対応する複数の画素点を含むように画面上の2次元探索範囲を決定する。探索範囲決定器43は、決定した2次元探索範囲を対応点検出器44に出力する。 A search range determiner 43 determines a two-dimensional search range on the screen so as to include a plurality of pixel points corresponding to the direction of the epipolar line and the direction orthogonal to the epipolar line. The search range determiner 43 outputs the determined two-dimensional search range to the corresponding point detector 44 .
対応点検出器44は、画像データ取得部34が取得した複数の画像データと、決定された2次元探索範囲内に基づいて、対応点探索を行って視差ベクトルを求める。対応点検出器44は、求めた視差ベクトルを距離計算器45に送出する。
The corresponding point detector 44 searches for corresponding points based on the plurality of image data acquired by the image
距離計算器45は、 視差ベクトルに対して、エピポーラ線への写像を行って視差ベクトルのエピポーラ線方向成分を求め、求められたエピポーラ線方向成分に基づいて対象物Tまでの距離を計算する。距離計算器45は、算出した対象物Tまでの距離を3次元モデル補正部36に送出する。
The
以下に3次元モデルの生成において具体的に説明するが、ここでは、2個の画像データから3次元モデルの生成する場合について説明する。 The generation of a three-dimensional model will be described in detail below, but here, the case of generating a three-dimensional model from two pieces of image data will be described.
画像データ取得部34は、データベース26から2個の画像データを取得する。例えば、図3に示すように、エリア0010-2456に登録されてフォーマットされている各データのうち、画像1枚を基準としてランダムに選択された2枚目画像を1組にして対応点が互いに共通している写真画像をサーチする。この1組となる画像の三角測量をすることで3次元点群が求まり、これらを集めていくことで相対的な位置と点群の画像を広げていく。また、この画像に対応する部分のテクスチャーをあとでマッピングするために対応付けてメモリに管理する。
The image
まず、対象物Tに対して視野の画像用のカメラ11Aおよび視野の画像用のカメラ11B(いずれも、図7参照)によって2組セット画像データを得る。次に、対応点検出器44は、2組セットの画像データに基づいて特徴点の対応点探索を行う。対応点検出器44は、例えば、画素毎の対応付けを行い、差が最小になる位置を探す。ここで、図6および図7に示すように、2視点に同時に存在しているとするカメラ11A,11Bは、光軸Ol,Orが同一のX-Z座標平面上に含まれるように、Yl=Yrの関係に配置されているものとする。対応点検出器44により探索された対応点を用いて画素毎の角度の差に相当する視差ベクトルを計算する。
First, two sets of image data are obtained with respect to the object T by the field image camera 11A and the
距離計算器45は、得られた視差ベクトルが奥行き方向のカメラ11A,11Bからの距離に相当するので、遠近法により視差の大きさに比例させて距離計算を行う。撮影者のカメラ11A,11Bがほぼ水平にしか移動しないと仮定すれば、カメラ11A,11Bをその光軸Ol,Orが同一のX-Z座標平面上に含まれるように配置しておくことにより、対応点の探索はエピポーラ線Epl,Eprである走査線上のみで行えばよいことになる。距離計算器45は、対象物Tの2個の画像データと、カメラ11A,11Bから対象物Tまでのそれぞれの距離を用いて対象物Tの3次元モデルを生成する。
Since the obtained parallax vector corresponds to the distance from the
一方、左画像上の点Ql(Xl,Yl)と右画像上の点Qr(Xr,Yr)とが対応する場合、点Ql(Xl,Yl)における視差ベクトルはVp(Xl-Xr,Yl-Yr)である。ここで、2つの点Ql,Qrは同じ走査線(エピポーラ線)上にあるので、Yl=Yrであり、視差ベクトルは、Vp(Xl-Xr,0)と表されることになる。エピポーラ線方向計算器41は、このような視差ベクトルVpを、画像上の全ての画素点について求め、視差ベクトル群を作成することで画像の奥行き方向の情報を得る。ところで、エピポーラ線が水平ではないセットに関しては、片方のカメラ位置の高さが違っている(確率は低い)ことがある。この場合、エピポーラ線直交方向計算器42は、大きな探索範囲を、対応点マッチングを意識することなく大きな2次元領域で対応点探索をする場合に比べ、エピポーラ線方向と、エピポーラ線に対し直交方向でその水平からのずれ具合程度の長方形内で探索することで、最低限の長方形の計算量は少なくなり合理的になる。そして、探索範囲決定器43は、図8に示すように、最低限の長方形に関するエピポーラ線方向探索範囲をa~b=c~dとし、直交方向探索範囲をb~c=d~aとした場合の探索範囲を示す。この場合、エピポーラ線方向の探索幅は、ΔE、エピポーラ線と直交する方向Tの探索幅はΔTとする。最低限の傾斜した長方形abcdを含む傾斜しない最小の長方形ABCDが求める領域となる。
On the other hand, when the point Ql (Xl, Yl) on the left image corresponds to the point Qr (Xr, Yr) on the right image, the parallax vector at the point Ql (Xl, Yl) is Vp (Xl-Xr, Yl- Yr). Here, since the two points Ql and Qr are on the same scanning line (epipolar line), Yl=Yr and the parallax vector is expressed as Vp(Xl-Xr, 0). The epipolar
このように3次元モデル生成部35は、複数のカメラ11A,11Bの特徴点の対応点からエピポーラ拘束条件にて視差ベクトルを求め、各点の奥行き方向の情報を得て、3次元形状の表面上のテクスチャーをマッピングして、3次元モデルを生成する。これにより、計算に使用する画像データにある部分のモデルは、その前面側半球からの見る空間を再現することができる。また、3次元モデルの画像データに写っていない部分が存在する場合、周りのテクスチャーのラインやサーフェスを延長して繋がる場合は、その間を同じテクスチャーを用いて補間する。3次元モデル生成部35は、生成した3次元モデルを3次元モデル補正部36に送出する。
In this way, the 3D model generating unit 35 obtains parallax vectors from corresponding points of the feature points of the
なお、3次元モデルの生成方法は、上述したものに限定されるものではなく、他の方法を用いてもよい。 Note that the method of generating the three-dimensional model is not limited to the one described above, and other methods may be used.
そして、3次元モデル補正部36は、3次元モデルの生成が生成した3次元モデルを、画像データが存在しない時間の3次元モデルに補正するとき、画像データの平均値を算出することで、画像データが存在しない所定の時間における対象物の変化度合いを推定し、3次元モデルを補正する。 Then, the 3D model correction unit 36 calculates the average value of the image data when correcting the 3D model generated by the generation of the 3D model to the 3D model of the time when the image data does not exist, so that the image The degree of change of the object at a predetermined time when no data exists is estimated, and the three-dimensional model is corrected.
すなわち、複数の画像データは、所望の時間として所定の期間(例えば、1995年1月1日から2005年7月1日)に撮影された画像データである。この複数の画像データを、年を区切って群とし、対象物Tをなすオブジェクトの表面を構成する所定のオブジェクト部分における画像データの色差信号の平均値を求める。 That is, the plurality of pieces of image data are image data captured at desired times during a predetermined period (for example, from January 1, 1995 to July 1, 2005). The plurality of image data are grouped by year, and the average value of the color difference signals of the image data in a predetermined object portion constituting the surface of the object forming the target T is obtained.
3次元モデル補正部36は、使用者が3次元モデルを生成したい対象物の所望の時間における画像データが取得した複数の画像データに存在するかどうかを判定する。使用者が3次元モデルを生成したい対象物の所望の時間として、例えば、2000年7月1日における複数の画像データが存在する場合、3次元モデル生成部35が取得した複数の画像データに基づいて2000年7月1日における3次元モデルを生成することができることから、3次元モデル補正部36は、3次元モデルを補正しない。すなわち、2000年7月1日における複数の画像データが存在すると、3次元モデル生成部35は、同じ時間、同じ位置、同じ方位からの対象物Tの複数の画像データの平均値を算出し、画像データの平均値の色差信号を用いて3次元モデルを生成する。 The three-dimensional model correcting unit 36 determines whether image data at a desired time of an object for which the user wants to generate a three-dimensional model exists in the acquired plural image data. When a plurality of image data exist for, for example, July 1, 2000 as a desired time of an object for which the user wants to generate a three-dimensional model, the three-dimensional model generation unit 35 acquires a plurality of image data. Since the three-dimensional model as of July 1, 2000 can be generated by using the three-dimensional model, the three-dimensional model correction unit 36 does not correct the three-dimensional model. That is, when a plurality of image data exist on July 1, 2000, the three-dimensional model generation unit 35 calculates the average value of the plurality of image data of the object T from the same time, the same position, and the same direction, A three-dimensional model is generated using color difference signals of average values of image data.
一方、使用者が3次元モデルを生成したい対象物の所望の時間として、2000年7月1日における複数の画像データが存在しない場合、3次元モデル生成部35が生成した所望の時間でない複数の画像データに基づいて生成された3次元モデルに対して、3次元モデル補正部36は、補正により所望の時間における3次元モデルを生成する。この場合、3次元モデル補正部36は、2000年6月30日以前および2000年7月2日以降における複数の画像データに基づいて3次元モデルを補正する。このときの画像データの色差信号の平均値のデータは、所望の時間の未来方向(2000年6月30日以前)および過去方向(2000年7月2日以降)の画像データの平均値である。3次元モデル補正部36は、異なる時間、同じ位置、同じ方位からの画像データの色差信号の平均値を用いて3次元モデルを補正する。つまり、3次元モデル補正部36は、異なる時間の複数の画像データを内挿した値を色差信号として推測して合成する。 On the other hand, if there is no image data on July 1, 2000 as the desired time of the object for which the user wishes to generate a 3D model, then the 3D model generating unit 35 generates a plurality of images that are not at the desired time. The 3D model correction unit 36 generates a 3D model at a desired time by correcting the 3D model generated based on the image data. In this case, the 3D model correction unit 36 corrects the 3D model based on a plurality of image data before Jun. 30, 2000 and after Jul. 2, 2000. FIG. The data of the average value of the color difference signals of the image data at this time is the average value of the image data in the future direction (before June 30, 2000) and in the past direction (after July 2, 2000) at a desired time. . The three-dimensional model correction unit 36 corrects the three-dimensional model using the average value of the color difference signals of the image data from the same position and direction at different times. That is, the three-dimensional model correction unit 36 estimates and synthesizes values obtained by interpolating a plurality of image data at different times as color difference signals.
また、使用者が3次元モデルを生成したい対象物の所望の時間である2000年7月1日が存在する画像データの過去方向(2000年6月30日以前)または未来方向(2000年7月2日以降)である場合、このときの画像データの色差信号の平均値のデータは、2000年6月30日以前の画像データの平均値、または、2000年7月2日以降の画像データの平均値である。3次元モデル補正部36は、異なる時間、同じ位置、同じ方位からの画像データの色差信号の平均値を用い、未来方向または過去方向の3次元モデルを推定して補正する。つまり、異なる時間の複数の画像データを内挿した値を色差信号として推測して合成する。つまり、3次元モデル補正部36は、色差信号の毎年の平均値の変化量に基づいて画像データを外挿した値を色差信号として推測して合成する。 In addition, the past direction (prior to June 30, 2000) or the future direction (July 2000) of the image data in which July 1, 2000, which is the desired time of the object for which the user wants to generate a three-dimensional model, exists. 2nd day or later), the average value data of the color difference signals of the image data at this time is the average value of the image data before June 30, 2000, or the average value of the image data after July 2, 2000. Average value. The 3D model correction unit 36 estimates and corrects a 3D model in the future direction or the past direction using the average values of the color difference signals of the image data from the same position and the same direction at different times. That is, a value obtained by interpolating a plurality of image data at different times is estimated as a color difference signal and synthesized. That is, the three-dimensional model correction unit 36 estimates and synthesizes values obtained by extrapolating image data as color difference signals based on the amount of change in the annual average value of the color difference signals.
また、1日(24時間)を1時間毎に区切り、区切られた時間における画像データの色差信号を使用する場合、時刻による太陽の高さにおいて明るさが変化し、色差信号に影響するものを取り除く理由がある。そのため、3次元モデル補正部36は、天気情報を外部から取得し、画像データが撮影された土地の天気予報を参考にし、その日の太陽の光度合いを時間毎に推定して3次元モデルを補正してもよい。 Also, when one day (24 hours) is divided into 1-hour intervals and the color difference signals of the image data in the divided time are used, the brightness changes depending on the time of day and the height of the sun, which affects the color difference signals. there is a reason to remove it. Therefore, the 3D model correcting unit 36 acquires weather information from the outside, refers to the weather forecast for the area where the image data was captured, estimates the degree of sunlight on that day for each hour, and corrects the 3D model. You may
すなわち、使用者が3次元モデルを生成したい対象物の所望の時間である2000年7月1日における複数の画像データが存在しない場合、3次元モデル補正部36は、2000年6月30日以前の画像データの平均値や変化量、または、2000年7月2日以降の画像データの平均値や変化量を用いて3次元モデルを補正する。このとき、3次元モデル補正部36は、例えば、2000年7月1日より前または後の時間における天気に基づいて所望の時間の天気を推定する。そして、3次元モデル補正部36は、2000年6月30日以前および2000年7月2日以降の複数の画像データから、2000年7月1日間の天気と同じ天気の画像データの平均値を用いて3次元モデルを補正する。 That is, if there is no image data on July 1, 2000, which is the desired time of the object for which the user wishes to generate a three-dimensional model, the three-dimensional model correction unit 36 The three-dimensional model is corrected using the average value and amount of change of the image data from July 2, 2000 onwards, or the average value and amount of change of the image data after July 2, 2000. At this time, the three-dimensional model correction unit 36 estimates the weather at a desired time based on the weather before or after July 1, 2000, for example. Then, the three-dimensional model correction unit 36 calculates the average value of the image data of the same weather as the weather on July 1, 2000 from the plurality of image data before June 30, 2000 and after July 2, 2000. is used to correct the 3D model.
また、3次元モデル補正部36は、画像データが存在する時間の一部の画像データを用いて、所望の時間である2000年7月1日の対象物Tに対するカメラ11からの角度、天気、月日による季節を考慮した太陽の高低のパラメータと、撮影された画像データとを入力とし、対応する模範的撮影画像データを出力とする、教師データセットを用いて機械学習することで、画像データが存在しない2000年6月30日以前や2000年7月2日以降で、特定の時刻の対象物Tの画像データを予測した画像を用いて合成するものであってもよい。
Also, the 3D model correction unit 36 uses part of the image data of the time when the image data exists to determine the angle from the
なお、3次元モデル補正部36が補正に使用する画像データとして、未来の対象物Tを予測した画像データ、つまり、未来予測画像データを用いてもよい。未来予測画像データとしては、映画などの動画の空間および画像データや仮想未来として作成された3Dの空間および画像データなどを含む。構成空間全体の画像データも活用可能であるが、部分的な限定空間(嵌め込み空間)も含む。都市再開発を想定し、または、建物の建て替えを想定し、空間の年月日時情報、位置情報、方位情報を組みにして、開発前都市の空間および画像データから新都市データへと合成画像を外挿的、内挿的に生成する画像処理を行い表示することも可能である。未来予測画像データは、機械的(CADデータなど)にまたは人工知能により作り出された空間および画像データも含む。地域や建蔽率、建物の種類などを入力情報とすれば、標準的な構造物の空間画像データが得られ、活用可能である。 As the image data used for correction by the three-dimensional model correction unit 36, image data obtained by predicting the future object T, that is, future predicted image data may be used. Predicted future image data includes space and image data of moving images such as movies, and 3D space and image data created as a virtual future. Image data for the entire construction space can also be used, including partial confined space (inset space). Assuming urban redevelopment or rebuilding of buildings, the spatial and image data of the city before development are combined into new city data by combining the date, time, location, and direction information of the space. It is also possible to perform image processing for extrapolation or interpolation and display. Future-predicted image data also includes spatial and image data generated mechanically (such as CAD data) or by artificial intelligence. If the area, building coverage ratio, type of building, etc. are used as input information, spatial image data of standard structures can be obtained and utilized.
すなわち、データベース26は、過去から現在までの対象物Tの画像データだけでなく、未来を予測した画像データ(未来予測画像データ)も有する。未来予測画像データとは、現在である2021年3月1日に対して、2021年3月2日以降の対象物Tの状態を予測した画像データである。使用者が入力装置32を用いて、所望の時間として未来の時間、例えば、2031年3月1日を入力した場合、画像データ取得部34は、2021年3月1日以前の画像データだけでなく、2021年3月2日以降の未来予測画像データも取得する。3次元モデル補正部36は、2021年3月1日以前の画像データと2021年3月2日以降の未来予測画像データを用いて3次元モデルを補正する。
That is, the
[本実施形態の作用効果]
本実施形態では、時間情報を含む対象物Tの画像データを取得する画像データ取得部34と、画像データ取得部34が取得した対象物Tの画像データに基づいて3次元モデルを生成する3次元モデル生成部35と、3次元モデルに対して所定の時間における対象物Tの変化度合いを推定して前記3次元モデルを補正する3次元モデル補正部36とを備える。
[Action and effect of the present embodiment]
In this embodiment, an image
そのため、3次元モデル生成部35は、複数の画像データと、各画像データにおける時間情報に基づいて3次元モデルを生成し、3次元モデル補正部36は、3次元モデルに対して所定の時間における対象物Tの変化度合いを推定して3次元モデルを補正する。すなわち、まず、存在する多数の画像データを取得し、取得した多数の画像データから所定の時間の3次元モデルを生成する。次に、複数の時間の3次元モデルにおける時間から推定した形状や色などの変化度合い(劣化度合い)に基づいて、3次元モデルを補正して画像データが存在しない時間の3次元モデルを生成する。その結果、画像データの有無に拘わらず3次元モデルを生成することができる。 Therefore, the 3D model generation unit 35 generates a 3D model based on a plurality of image data and time information in each image data, and the 3D model correction unit 36 applies the 3D model at a predetermined time. The degree of change of the object T is estimated to correct the three-dimensional model. That is, first, a large number of existing image data are acquired, and a three-dimensional model of a predetermined time is generated from the acquired large number of image data. Next, based on the degree of change (degree of deterioration) of the shape, color, etc. estimated from time in the 3D model at a plurality of times, the 3D model is corrected to generate a 3D model at times where there is no image data. . As a result, a three-dimensional model can be generated regardless of the presence or absence of image data.
また、本実施形態では、対象物Tの画像データは、位置情報と方位情報を含み、3次元モデル生成部35は、時間情報と位置情報と方位情報が一致する複数の対象物Tの画像データに基づいて3次元モデルを生成する。そのため、所定の時間における対象物Tの3次元モデルを高精度に生成することができる。 Further, in this embodiment, the image data of the target object T includes position information and orientation information, and the three-dimensional model generation unit 35 generates image data of a plurality of target objects T whose time information, position information, and orientation information match. Generate a three-dimensional model based on Therefore, a three-dimensional model of the object T at a predetermined time can be generated with high accuracy.
また、本実施形態では、3次元モデル補正部36は、異なる時間における3次元モデルの変化量に基づいて3次元モデルを補正する。そのため、所望の時間における画像データが存在しなくても、所望の時間以外の画像データの変化量に基づいて画像データが存在しなし所望の時間における3次元モデルを生成することができる。 Further, in the present embodiment, the 3D model correction unit 36 corrects the 3D model based on the amount of change in the 3D model at different times. Therefore, even if there is no image data at the desired time, it is possible to generate a three-dimensional model at the desired time without image data based on the amount of change in the image data at times other than the desired time.
これまで本発明に係る3次元モデル生成装置について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよい。 Although the three-dimensional model generation device according to the present invention has been described so far, it may be implemented in various different forms other than the above-described embodiments.
図示した3次元モデル生成装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated three-dimensional model generation device is functionally conceptual, and does not necessarily have to be physically configured as illustrated. In other words, the specific form of each device is not limited to the illustrated one, and all or part of it may be functionally or physically distributed or integrated in arbitrary units according to the processing load and usage conditions of each device. may
3次元モデル生成装置の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the three-dimensional model generation device is implemented by, for example, a program loaded into a memory as software. In the above embodiments, functional blocks realized by cooperation of these hardware or software have been described. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The components described above include those that can be easily assumed by those skilled in the art and those that are substantially the same. Furthermore, the above configurations can be combined as appropriate. Also, various omissions, substitutions, or modifications of the configuration are possible without departing from the gist of the present invention.
10 画像取得装置
11 カメラ(撮像装置)
12 GPS受信部
13 方位センサ
21 時間情報取得部
22 位置情報取得部
23 方位情報取得部
24 フォーマット部
25 記憶部
26 データベース
30 3次元モデル生成装置
31 画像処理装置
32 入力装置
33 表示装置
34 画像データ取得部
35 3次元モデル生成部
36 3次元モデル補正部
T 対象物
10
12 GPS receiver 13 direction sensor 21 time
Claims (5)
前記画像データ取得部が取得した前記対象物の画像データに基づいて3次元モデルを生成する3次元モデル生成部と、
前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正する3次元モデル補正部と、
を備える三次元モデル生成装置。 an image data acquisition unit that acquires image data of an object including time information;
a three-dimensional model generation unit that generates a three-dimensional model based on the image data of the object acquired by the image data acquisition unit;
a three-dimensional model correction unit for estimating the degree of change of the object at a predetermined time with respect to the three-dimensional model and correcting the three-dimensional model;
3D model generation device.
前記3次元モデル生成部は、前記時間情報と前記位置情報と前記方位情報が一致する複数の対象物の画像データに基づいて3次元モデルを生成する、
請求項1に記載の三次元モデル生成装置。 the image data of the object includes position information and orientation information;
The three-dimensional model generating unit generates a three-dimensional model based on image data of a plurality of objects whose time information, position information, and orientation information match.
3. The three-dimensional model generation device according to claim 1.
請求項1または請求項2に記載の三次元モデル生成装置。 The three-dimensional model correction unit corrects the three-dimensional model based on the amount of change in the three-dimensional model at different times.
3. The three-dimensional model generation device according to claim 1 or 2.
取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、
前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、
を含む3次元モデル生成方法。 obtaining image data of the object including time information;
generating a three-dimensional model based on the acquired image data of the object;
estimating the degree of change of the object at a predetermined time with respect to the three-dimensional model and correcting the three-dimensional model;
A three-dimensional model generation method comprising:
取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、
前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、
を3次元モデル生成装置として動作するコンピュータに実行させるプログラム。 obtaining image data of the object including time information;
generating a three-dimensional model based on the acquired image data of the object;
estimating the degree of change of the object at a predetermined time with respect to the three-dimensional model and correcting the three-dimensional model;
A program that causes a computer that operates as a three-dimensional model generation device to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021069058A JP2022163920A (en) | 2021-04-15 | 2021-04-15 | Three-dimensional model generation device, three-dimensional model generation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021069058A JP2022163920A (en) | 2021-04-15 | 2021-04-15 | Three-dimensional model generation device, three-dimensional model generation method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022163920A true JP2022163920A (en) | 2022-10-27 |
Family
ID=83743100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021069058A Pending JP2022163920A (en) | 2021-04-15 | 2021-04-15 | Three-dimensional model generation device, three-dimensional model generation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022163920A (en) |
-
2021
- 2021-04-15 JP JP2021069058A patent/JP2022163920A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Teller et al. | Calibrated, registered images of an extended urban area | |
KR101285360B1 (en) | Point of interest displaying apparatus and method for using augmented reality | |
US7773799B2 (en) | Method for automatic stereo measurement of a point of interest in a scene | |
AU2011312140B2 (en) | Rapid 3D modeling | |
US11887273B2 (en) | Post capture imagery processing and deployment systems | |
TWI483215B (en) | Augmenting image data based on related 3d point cloud data | |
CN106599119B (en) | Image data storage method and device | |
US20210056751A1 (en) | Photography-based 3d modeling system and method, and automatic 3d modeling apparatus and method | |
KR101342393B1 (en) | Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera | |
JP2010109783A (en) | Electronic camera | |
CN108399631B (en) | Scale invariance oblique image multi-view dense matching method | |
CN111815759B (en) | Measurable live-action picture generation method and device, and computer equipment | |
US8509522B2 (en) | Camera translation using rotation from device | |
US20120038770A1 (en) | Precise target positioning in geographical imaging | |
Reitinger et al. | Augmented reality scouting for interactive 3d reconstruction | |
JP5991821B2 (en) | Photogrammetry equipment | |
WO2020051208A1 (en) | Method for obtaining photogrammetric data using a layered approach | |
CN111402315A (en) | Three-dimensional distance measuring method for adaptively adjusting base line of binocular camera | |
d'Annibale et al. | Finalizing a low-cost photogrammetric workflow: from panoramic photos to Heritage 3D documentation and visualization | |
JP2022163920A (en) | Three-dimensional model generation device, three-dimensional model generation method, and program | |
JP2008203991A (en) | Image processor | |
KR20150096127A (en) | Method and apparatus for calculating location of points captured in image | |
Barazzetti et al. | Stitching and processing gnomonic projections for close-range photogrammetry | |
Rawlinson | Design and implementation of a spatially enabled panoramic virtual reality prototype | |
CA3102860C (en) | Photography-based 3d modeling system and method, and automatic 3d modeling apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231228 |