JP6458371B2 - 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム - Google Patents

3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム Download PDF

Info

Publication number
JP6458371B2
JP6458371B2 JP2014132835A JP2014132835A JP6458371B2 JP 6458371 B2 JP6458371 B2 JP 6458371B2 JP 2014132835 A JP2014132835 A JP 2014132835A JP 2014132835 A JP2014132835 A JP 2014132835A JP 6458371 B2 JP6458371 B2 JP 6458371B2
Authority
JP
Japan
Prior art keywords
objects
image
dimensional model
portable electronic
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014132835A
Other languages
English (en)
Other versions
JP2015015023A (ja
Inventor
ジェイ. バック メアリベス
ジェイ. バック メアリベス
アレンダッシュ デイビッド
アレンダッシュ デイビッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2015015023A publication Critical patent/JP2015015023A/ja
Application granted granted Critical
Publication of JP6458371B2 publication Critical patent/JP6458371B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

開示の技術は、3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラムに関する。
3次元(3D)環境はより広く用いられるようになってきている。例えば、ゲームのいくつかでは仮想3次元環境でユーザが行動する。3次元環境は、また、教育、訓練、外科手術、エンターテイメント(映画など)などのために使用されている。
リー(Lee)、「ビデオシースルー拡張現実によるリアルオブジェクトのモデリング(Modeling Real Objects Using Video See-Through Augmented Reality)」、プレゼンス(Presence)、2002年4月、Vol. 11, No. 2, 頁14 レイノルド(Reynolds)、「モバイル拡張現実のためのリンク済みオープンデータの利用(Exploiting Linked Open Data for Mobile Augmented Reality)」、W3C ワークショップ:ウェブ上の拡張現実(W3C Workshop: Augmented Reality on the Web)、2010年6月、頁7 ピアス(Pierce)、「3次元没入環境における画像面インタラクション技術(Image Plane Interaction Techniques in 3D Immersive Environments)」、インタラクティブ3次元グラフィックスに関するシンポジウム(Symposium on Interactive 3D Graphics)、1997年、頁5
3次元環境は、一般的に、3次元モデルによって表現される。一般的な3次元モデルは、各々の3次元オブジェクトのテクスチャなどの3次元オブジェクトの特性を含む情報を含む。3次元オブジェクトの各々が、3次元環境においてより現実的に見えるようにするために、テクスチャは重要な役割を演じる。しかしながら、適確かつ適切なテクスチャの収集及び適用は困難であり、時間がかかる。
本発明の第1の態様は、3次元モデルのためのテクスチャデータを取得する方法であって、ポータブル電子デバイスはカメラ、1つもしくは複数のプロセッサ及びメモリを備え、前記プロセッサは、前記カメラによって1つもしくは複数のオブジェクトを含む画像を取得し、前記画像の少なくとも部分と3次元モデルの1つもしくは複数のオブジェクトの表現とを表示し、前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像に含まれる1つもしくは複数のオブジェクトとは少なくとも部分的に重畳し、前記画像に含まれる1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして前記画像の少なくとも1つもしくは複数の部分を前記メモリに保存する。
本発明の第2の態様は、第1の態様の方法であって、前記3次元モデルの1つもしくは複数のオブジェクトは前記画像に含まれる1つもしくは複数のオブジェクトに対応する。
本発明の第3の態様は、第1または第2の態様の方法であって、前記プロセッサが、さらに、前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像の少なくとも部分とを位置合わせする。
本発明の第4の態様は、第3の態様の方法であって、前記ポータブル電子デバイスはタッチセンシティブディスプレイデバイスをさらに備え、前記プロセッサは、前記タッチセンシティブディスプレイデバイス上の1つもしくは複数のタッチジェスチャを受信し、1つもしくは複数の前記タッチジェスチャに従って、前記3次元モデルの1つもしくは複数のオブジェクトの表現を位置合わせする。
本発明の第5の態様は、第4の態様の方法であって、1つもしくは複数の前記オブジェクトを位置合わせすることは、前記3次元モデルの1つもしくは複数のオブジェクトの表現を拡大縮小し、前記3次元モデルの1つもしくは複数のオブジェクトの表現を移動し、前記3次元モデルの1つもしくは複数のオブジェクトの表現を回転する、ことの1つもしくは複数を含む。
本発明の第6の態様は、第3の態様の方法であって、前記画像は1つもしくは複数の拡張現実マーカを含み、前記プロセッサは、1つもしくは複数の前記拡張現実マーカの位置の各々に従って、前記3次元モデルの一つもしくは複数の前記オブジェクトの表現を位置合わせする。
本発明の第7の態様は、第6の態様の方法であって、前記プロセッサは、さらに、1つもしくは複数の前記拡張現実マーカの少なくとも1つに従って、前記ポータブル電子デバイスの位置及び方向の1つもしくは複数を較正する。
本発明の第8の態様は、第6または第7の態様の方法であって、前記ポータブル電子デバイスは、リモートサーバから、1つもしくは複数の前記拡張現実マーカの情報を受信する。
本発明の第9の態様は、第8の態様の方法であって、複数の拡張現実マーカの情報が前記リモートサーバに保存され、複数の前記拡張現実マーカの情報は、前記ポータブル電子デバイスで受信された1つもしくは複数の前記拡張現実マーカの情報を含み、前記ポータブル電子デバイスで受信される1つもしくは複数の拡張現実マーカは、前記ポータブル電子デバイスの位置に従って選択される。
本発明の第10の態様は、第1〜第9のいずれかの態様の方法であって、前記プロセッサは、さらに、位置の各々で複数の画像を取得し、複数の前記画像に基づいて前記位置の各々の3次元モデルの各々を生成する。
本発明の第11の態様は、第10の態様の方法であって、前記ポータブル電子デバイスは方向センサを含み、前記プロセッサは、複数の前記画像についての方向情報を有する複数の前記画像を前記位置の各々で取得し、複数の前記画像及び前記方向情報に基づいて前記位置の各々の前記3次元モデルの各々を生成する。
本発明の第12の態様は、第1〜7のいずれかの態様の方法であって、前記画像の少なくとも部分は、前記画像に含まれる1つもしくは複数の前記オブジェクトの1つもしくは複数のためのテクスチャデータとしてリモートサーバに送信される。
本発明の第13の態様は、第12の態様の方法であって、他のテクスチャデータが、前記ポータブル電子デバイスとは異なる複数のポータブル電子デバイスから前記リモートサーバに送信される。
本発明の第14の態様は、第1〜第13のいずれかの態様の方法であって、前記カメラによって取得された1つもしくは複数の前記オブジェクトのビデオと前記3次元モデルの1つもしくは複数のオブジェクトの表現とを表示し、前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記ビデオの1つもしくは複数のオブジェクトとは少なくとも部分的に重畳し、1つもしくは複数の前記オブジェクトのビデオと前記3次元モデルの1つもしくは複数のオブジェクトの表現とを表示しながら、ユーザ入力を受信し、前記ユーザ入力の受信に応じて、前記ユーザ入力のタイミングに従って前記ビデオから選択される画像の少なくとも部分を、前記ビデオの1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして保存し、前記画像の部分と前記3次元モデルの1つもしくは複数のオブジェクトの表現とは少なくとも部分的に重畳する。
本発明の第15の態様は、第1〜第3のいずれかの態様の方法であって、前記プロセッサは、さらに、前記3次元モデルの1つもしくは複数のオブジェクトの情報及び前記3次元モデルの1つもしくは複数のオブジェクトのテクスチャデータからレンダリングされた画像を受信し、レンダリングされた前記画像の少なくとも部分を表示する。
本発明の第16の態様は、第15の態様の方法であって、前記ポータブル電子デバイスはタッチセンシティブディスプレイデバイスをさらに備え、前記プロセッサは、さらに、前記タッチセンシティブディスプレイデバイス上のタッチジェスチャを受信し、前記タッチジェスチャに従って前記テクスチャデータを調整する。
本発明の第17の態様は、第16の態様の方法であって、前記テクスチャデータを調整することは、前記3次元モデルの1つもしくは複数のオブジェクトに前記テクスチャデータを位置付けすること、前記テクスチャデータをリサイズすること、前記テクスチャデータをトリミングすること、の1つもしくは複数を含む。
本発明の第18の態様は、第1〜第17のいずれかの態様の方法であって、前記プロセッサは、さらに、カメラ配置の情報を受信し、前記カメラ配置の情報は1つもしくは複数の前記オブジェクトに対する視角及び視野に少なくとも基づいている。
本発明の第19の態様は、ポータブル電子デバイスであって、カメラと、1つもしくは複数のプロセッサと、1つもしくは複数のプログラムを記憶するメモリと、を備え、1つもしくは複数の前記プログラムを前記プロセッサによって実行することにより、前記カメラによって1つもしくは複数のオブジェクトを含む画像を取得し、前記画像の少なくとも部分と3次元モデルの1つもしくは複数のオブジェクトの表現とを表示し、前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像に含まれる1つもしくは複数のオブジェクトとは少なくとも部分的に重畳し、前記画像に含まれる1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして、前記画像の少なくとも1つもしくは複数の部分を前記メモリに保存する。
本発明の第20の態様は、プログラムであって、カメラによって1つもしくは複数のオブジェクトを含む画像を取得し、前記画像の少なくとも部分と3次元モデルの1つもしくは複数のオブジェクトの表現とを表示し、前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像に含まれる1つもしくは複数のオブジェクトとは少なくとも部分的に重畳し、前記画像に含まれる1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして、前記画像の少なくとも1つもしくは複数の部分をメモリに保存する、処理をコンピュータに実行させる。
開示の技術によれば、適格かつ適切なテクスチャを容易に収集及び適用することが可能となる。
実施形態のいくつかによる3次元モデルのためにテクスチャを取得するシステムを例示するブロック図である。 実施形態のいくつかによるポータブル電子デバイスを例示するブロック図である。 実施形態のいくつかによるサーバを例示するブロック図である。 実施形態のいくつかによる3次元モデルデータを例示するブロック図である。 実施形態のいくつかによるポータブル電子デバイスのオペレーションを例示する。 実施形態のいくつかによるポータブル電子デバイスのオペレーションを例示する。 実施形態のいくつかによるポータブル電子デバイスのオペレーションを例示する。 実施形態のいくつかによるポータブル電子デバイスのオペレーションを例示する。 実施形態のいくつかによるポータブル電子デバイスのオペレーションを例示する。 実施形態のいくつかによるポータブル電子デバイスのオペレーションを例示する。 実施形態のいくつかによるポータブル電子デバイスのオペレーションを例示する。 実施形態のいくつかによる3次元モデルのためのテクスチャデータを取得する方法を示すフローチャートである。 実施形態のいくつかによる3次元モデルのためのテクスチャデータを取得する方法を示すフローチャートである。 実施形態のいくつかによる3次元モデルのためのテクスチャデータを取得する方法を示すフローチャートである。
3次元モデルのテクスチャデータを取得するための方法及びシステムについて説明する。特定の実施形態に言及し、その例を図面を用いて説明する。同様の参照符号は図面全体にわたって対応する同様の構成要素を参照する。特定の実施形態だけに本発明の範囲を限定することは意図していない。むしろ、添付の図面によって画定される思想及び範囲内にある代替、変更及び等価物を含むことを意図している。
実施形態のいくつかにおいて、3次元モデルは、デジタルカメラ、カメラを有するモバイル電子デバイス(スマートフォン、タブレットコンピュータなど)などのモバイル撮像デバイス、ラップトップコンピュータなどのディスプレイに表示される。3次元モデルを表示すると共に、撮像デバイスは現実世界のテクスチャの画像を取得するように構成されている。当該テクスチャは、3次元モデルの1つもしくは複数の表面に選択的に適用される。実施形態のいくつかにおいて、現実世界のテクスチャは、撮像デバイスのディスプレイを介して3次元モデルの表面に適用されてもよい。実施形態のいくつかにおいて、テクスチャもしくはモデルの一方が他方への透過性を有するオーバレイとして、モデル及び取得されたテクスチャはディスプレイに同時に表示されてもよい。実施形態のいくつかにおいて、表示されているテクスチャは表示されている3次元モデルの対応部分に適用されてもよい。例えば、撮像デバイスのユーザは、ウッドテクスチャを撮像し、撮像されたテクスチャと同時に表示されているモデルの部分に撮像されたウッドテクスチャを当該撮像デバイスで適用することにより、ウッドテクスチャをウッドテーブルのモデルに適用することができる。
実施形態のいくつかにおいて、モバイル撮像デバイスは、ユーザが、3次元モデルの1つもしくは複数の表面に取得したテクスチャのどの部分が適用されるべきか選択することを可能にする、及び/もしくは、特定の取得されたテクスチャが適用される3次元モデルの特定の表面もしくは部分を選択することを可能にする、ユーザインターフェイスを備える。実施形態のいくつかにおいて、結果的に取得されるモデル及び関連付けられ適用されるテクスチャは、デスクトップモデリングもしくはコンピュータ支援設計プログラムなどの他のプログラムで使用するために、保存され及び出力されてもよい。
図1は、実施形態のいくつかによるテクスチャデータを取得するためのシステム100を例示するブロック図である。システム100は、1つもしくは複数のサーバ102及び1つもしくは複数のポータブル電子デバイス130(例えば、130−1、130−2、…、130−n)を含む。1つもしくは複数のサーバ102及びポータブル電子デバイス130はネットワーク150を介して相互に接続されている。ネットワーク150は、一般的に、コンピュータノードを接続することが可能な任意のタイプの有線または無線通信チャネルを含んでいてよい。ネットワーク150は、ローカルエリアネットワーク、ワイドエリアネットワークもしくは複合ネットワークを含むが、これらに限定されるものではない。実施形態のいくつかにおいて、ネットワーク150はインターネットを含む。
ポータブル電子デバイス130は、以下に説明するアクティビティを可能とするために使用される多くのポータブルコンピューティングデバイス(例えば、PDA(personal digital assistant)、携帯電話、ゲーム機、デスクトップコンピュータ、ラップトップコンピュータ、ハンドヘルドコンピュータ、デジタルカメラ、もしくは、これらの機器を組み合わせた装置)のいずれかであってよい。ポータブル電子デバイス130は、クライアントとも呼ばれる。ポータブル電子デバイス130は、1つもしくは複数のカメラ及びディスプレイを含む。実施形態のいくつかにおいて、ポータブル電子デバイス130は、モバイル撮像デバイスとも呼ばれる。
実施形態のいくつかにおいて、1つもしくは複数のサーバ102は、3次元モデルエンジン104、マーカデータベース106を含む。実施形態のいくつかにおいて、1つもしくは複数のサーバ102は、また、1つもしくは複数の他のデータベース(例えば、3次元モデルデータベース、テクスチャデータベースなど)を含む。1つもしくは複数のサーバ102は、1つもしくは複数のサーバ102の内部にあるマーカデータベース106などのデータベースと、ローカルエリアネットワークを用いて、内部通信バスによって、もしくは、他の任意の適切な機構もしくは複合機構によって、通信する。
アプリケーション132は、ポータブル電子デバイス130に様々な機能を提供するために使用されるアプリケーションプログラムを含む。実施形態のいくつかにおいて、アプリケーション132はテクスチャデータ(テクスチャとも呼ばれる)を取得するために使用されるソフトウェアアプリケーションを含む。
実施形態のいくつかにおいて、マーカデータベース106は、マーカの各々のパターン、位置、及び方向などのマーカ情報を含む。実施形態のいくつかにおいて、マーカはテクスチャと関連付けられている。
図2は実施形態のいくつかによるポータブル電子デバイス130を例示するブロック図である。ポータブル電子デバイス130は、一般的に、1つもしくは複数の処理ユニット(CPU)202、1つもしくは複数のネットワークもしくは他の通信インターフェイス204、ユーザインターフェイス206、1つもしくは複数のセンサ212、メモリ220及びこれらの構成要素を相互に接続するための1つもしくは複数の通信バス230を含む。実施形態のいくつかにおいて、通信バス230はシステム構成要素間を相互に接続し、システム構成要素間の通信を制御する回路(チップセットとも呼ばれる)を含む。ユーザインターフェイス206は、ディスプレイデバイス208及び1つもしくは複数の入力デバイス210(例えば、ボタン、タッチセンシティブ表面など)を含む。1つもしくは複数のセンサ212は1つもしくは複数のカメラ214を含む。実施形態のいくつかにおいて、1つもしくは複数のセンサ212はまた1つもしくは複数の位置センサ216及び1つもしくは複数の方向センサ218を含む。メモリ220は、DRAM、SRAM、DDR RAMもしくは他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。メモリ220は、また、1つもしくは複数の磁気ディスクストレージデバイス、光ディスクストレージデバイス、フラッシュメモリデバイスもしくは他の不揮発性ソリッドステートストレージデバイスなどの不揮発性メモリを含んでいてもよい。メモリ220は、オプションで、CPU202から離隔して配置される1つもしくは複数のストレージデバイスを含んでもよい。メモリ220、もしくは、代替的に、メモリ220内の不揮発性メモリデバイスは非一時的コンピュータ可読記憶媒体を含む。実施形態のいくつかにおいて、メモリ220は以下のプログラム、モジュール及びデータ構造もしくはこれらのサブセットを記憶する。
●オペレーティングシステム222
様々な基本システムサービスを扱うためのプロシージャ及びハードウェア依存タスクを実行するためのプロシージャを含む。
●通信モジュール224
1つもしくは複数の通信インターフェイス204(有線もしくは無線)及びインターネットなどの1つもしくは複数の通信ネットワーク、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどを介して、他のコンピュータとポータブル電子デバイス130とを接続するために使用される。
●ハードウェアドライバ226(オプション)
1つもしくは複数のハードウェア構成要素(例えば、ディスプレイデバイス208、1つもしくは複数の入力デバイス210、1つもしくは複数のカメラ214などの1つもしくは複数のセンサ212)のオペレーションを制御するため、及び、1つもしくは複数のハードウェアにデータを送信し、1つもしくは複数のハードウェアからデータを受信するために使用される。
●ユーザインターフェイスモジュール228
入力デバイス210を介してユーザからコマンド及び/もしくはユーザ入力を受信し、ディスプレイデバイス208に表示するためにユーザインターフェイスオブジェクトを用意する。
●アプリケーション132
3次元モデルアプリケーション232を含む1つもしくは複数のアプリケーションを含む。
●ローカルデータベース246
画像及び/もしくはビデオデータ248を含む。
実施形態のいくつかにおいて、3次元モデルアプリケーション232は以下のプログラム、モジュール及びデータ構造、もしくは、プログラム、モジュール及びデータ構造のサブセットもしくはスーパーセットを含む。
●画像及び/もしくはビデオ取得モジュール234
ハードウェアドライバ226を用いることによって1つもしくは複数の通信バス230を介して1つもしくは複数のカメラ214からビデオもしくは画像を受信する。
●画像処理モジュール236(オプション)
画像を変更する(例えば、画像の1つもしくは複数の部分を回転、リサイズ、移動する)。
●レンダリングモジュール238
ディスプレイデバイス208に表示されるべき画像を用意する。可能であれば、オプションで、3次元モデルデータ(例えば、3次元モデルデータ250)から画像を用意してもよい。
●データインターフェイス240
ローカルデータベース246にデータを保存し、及び/もしくは、ローカルデータベース246からデータを取り出す処理を促進する。
●拡張現実マーカ処理モジュール242(オプション)
1つもしくは複数の画像及び/もしくはビデオに含まれる1つもしくは複数の拡張現実マーカを識別し、複数の拡張現実マーカから情報を抽出する。
●モデリングモジュール244(オプション)
ユーザ入力及び画像及び/もしくはビデオデータに基づいて1つもしくは複数の3次元モデルを生成し、及び/もしくは、変更する。
実施形態のいくつかにおいて、ローカルデータベース246は3次元モデルデータ250を含む。実施形態のいくつかにおいて、3次元モデルデータ250はレンダリングモジュール238によって使用される。
上記識別される構成要素の各々は、1つもしくは複数の上記メモリデバイスに記憶されていてもよく、上記機能を実行する命令セットに対応していてもよい。上記識別されるモジュール(すなわち、命令セット)は、別個のソフトウェアプログラム、プロシージャ、もしくはモジュールとして実装される必要はない。様々な実施形態において、これらのモジュールの様々なサブセットが組み合わされてもよいし、再配置されてもよい。例えば、レンダリングモジュール238はユーザインターフェイスモジュール228の部分として実装されてもよいし、ユーザインターフェイスモジュール228はレンダリングモジュール238の部分として実装されてもよい。実施形態のいくつかにおいて、メモリ220は上記で識別されたモジュール及びデータ構造のサブセットを記憶する。さらに、実施形態のいくつかにおいて、メモリ220は上記されていないさらなるモジュール及びデータ構造を記憶する。
図3は実施形態のいくつかによるサーバ102を例示するブロック図である。サーバ102(サーバシステムとも呼ばれる)は、一般的に、1つもしくは複数の処理ユニット(CPU)302、1つもしくは複数のネットワークもしくは他の通信インターフェイス304、メモリ316、及びこれらの構成要素を相互に接続する1つもしくは複数の通信バス309を含む。実施形態のいくつかにおいて、通信バス309はシステム構成要素間を相互に接続し、システム構成要素間の通信を制御する回路(チップセットとも呼ばれる)を含む。他の実施形態のいくつかにおいて、サーバ102はユーザインターフェイス306(例えば、ディスプレイデバイス308及びキーボード及びマウスもしくは他のポインティングデバイスなどの1つもしくは複数の入力デバイス310を有するユーザインターフェイス)を含む。サーバ102は、様々なクライアントデバイスによって制御され、アクセスされることが一般的である。
サーバ102のメモリ316はDRAM、SRAM、DDR RAMもしくは他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。メモリ316は、また、1つもしくは複数の磁気ディスクストレージデバイス、光ディスクストレージデバイス、フラッシュメモリデバイスもしくは他の不揮発性ソリッドステートストレージデバイスなどの不揮発性メモリを含んでいてもよい。メモリ316は、オプションで、CPU302から離隔して配置される1つもしくは複数のストレージデバイスを含んでもよい。メモリ316、もしくは、代替的に、メモリ316内の不揮発性メモリデバイスは非一時的コンピュータ可読記憶媒体を含む。実施形態のいくつかにおいて、メモリ316もしくはメモリ316のコンピュータ可読記憶媒体は以下のプログラム、モジュール及びデータ構造もしくはこれらのサブセットを記憶する。
●オペレーティングシステム318
様々な基本システムサービスを扱うためのプロシージャ及びハードウェア依存タスクを実行するためのプロシージャを含む。
●ネットワーク通信モジュール(もしくは命令)320
サーバ102を、1つもしくは複数の通信インターフェイス304及び、インターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つもしくは複数の通信ネットワーク150(図1)を介して、他のコンピュータ(例えば、ポータブル電子デバイス130)に接続するために使用される。
●3次元モデルエンジン322(オプション)
3次元モデルデータを生成し、及び/もしくは3次元モデルデータ(例えば、3次元モデルデータ340)から画像を用意する。
●マーカデータ330
●3次元モデルデータ340(オプション)
実施形態のいくつかにおいて、3次元モデルエンジン322は以下のプログラム、モジュール及びデータ構造もしくはこれらのサブセットを含む。
●レンダリングモジュール324
3次元データから1つもしくは複数の画像を用意する。
●モデリングモジュール328
3次元データを生成し、及び/もしくは、改訂する。
実施形態のいくつかにおいて、レンダリングモジュール324は3次元モデルの3次元オブジェクトにテクスチャを適用するテクスチャモジュール326を含む。
実施形態のいくつかにおいて、マーカデータ330は以下のデータ構造もしくはデータ構造のサブセットもしくはスーパーセットを含む。
●マーカパターンデータ332
1つもしくは複数のマーカパターン(例えば、バーコード、マトリックスバーコード、QR(Quick Response)コードなどのマーカ各々のグラフィックパターン)を識別する情報を含む。
●位置データ334
マーカ各々の位置情報を含む。
●他のデータ336(例えば、マーカ各々の方向など)
実施形態のいくつかにおいて、マーカデータ330は拡張現実マーカのデータを含む。
上記識別されたモジュール及びアプリケーションの各々は、1つもしくは複数の上記機能を実行するための命令セットに対応する。これらのモデル(すなわち、命令セット)は別個のソフトウェアプログラム、プロシージャもしくはモジュールとして実装されなくてもよい。これらのモジュールの様々なサブセットは様々な実施形態において組み合わされてもよいし、再配置されてもよい。実施形態のいくつかにおいて、メモリ316は上記モジュール及びデータ構造のサブセットを記憶してもよい。さらに、メモリ316は上記されていないほかのモジュール及びデータ構造を記憶してもよい。
図1、2及び3では分離したブロックが示されているが、これらの図は実施形態の機能的な構成要素の構造的な説明ではなく、実施形態のいくつかの機能的な説明のためのものであることを意図している。実際の実装は、グループ化された機能的な構成要素を有していてもよいし、様々な構成要素に分離された機能的な構成要素を有してもよい。実用的には、分離して示されたアイテムは組み合わされてもよいし、アイテムのいくつかは分離されてもよい。例えば、実施形態のいくつかにおいて、画像処理モジュール236は画像及び/もしくはビデオ取得モジュール234の部分である。実施形態のいくつかにおいて、ローカルデータベース246はデータインターフェイス240を含む。実施形態のいくつかにおいて、マーカデータ330は3次元モデルデータ340の部分であるか、もしくは、3次元モデルデータ340はマーカデータ330の部分である。
サーバ102を実装するために使用されるサーバの実際の数及びどの特徴がどのサーバに割り当てられるか、は実装によって異なり、ピーク利用期間及び平均利用期間にシステムが扱わなければならないデータトラフィック量に部分的に依存し、サーバ102によって保存されるデータ量にも依存する。さらに、図3の1つもしくは複数のブロックは説明した機能を提供するために設計された1つもしくは複数のサーバに実装されてもよい。例えば、サーバ102は、3次元モデルエンジン322の機能を提供する1つもしくは複数の3次元モデルエンジンサーバ及びマーカデータ330へのアクセスを提供する1つもしくは複数の別個のマーカサーバに実装されてもよい。ここでは、ポータブル電子デバイス130に実装される機能及びサーバ102に実装される機能に言及しているが、実施形態はこのような区別に限定されるものではない。例えば、ここで、ポータブル電子デバイス130の部分として説明された特徴はサーバ102の全体もしくは部分として実装されてもよいし、サーバ102の部分として説明された特徴はポータブル電子デバイス130の全体もしくは部分として実装されてもよい。
実施形態のいくつかにおいて、ポータブル電子デバイス130は「シンクライアント」であってよく、サーバ102によってレンダリングされた3次元オブジェクトの表現を表示するレンダリングモジュール238を含んでもよい。この実施形態において、ポータブル電子デバイス130は画像もしくはビデオデータを取得して送信し、レンダリングされた画像を受信して表示するだけであり、他のソフトウェアを含まない。シンクライアントの実施形態において、3次元モデルデータの生成及び3次元モデルデータからの画像のレンダリングなどの計算量の多いタスクはサーバ102によって扱われる。
図4は実施形態のいくつかによる3次元モデルデータ340を例示するブロック図である。3次元モデルデータ340は1つもしくは複数の3次元モデル(例えば、「モデル1」402、「モデル2」など)を含む。
図4に示すように、モデルの各々(例えば、「モデル1」402)は、1つもしくは複数の3次元オブジェクト(例えば、「オブジェクト1」404−1、「オブジェクト2」404−2など)の情報を含む。実施形態のいくつかにおいて、オブジェクトの各々(例えば、「オブジェクト1」404−1)の情報は、オブジェクトの各々の形状410(例えば、立方体、棒、円筒、球など)、サイズ412、方向414及びテクスチャ416を含む。実施形態のいくつかにおいて、テクスチャ416は対応するテクスチャデータ(例えば、画像ファイル)へのポインタである。実施形態のいくつかにおいて、テクスチャ416は(例えば、ヌル値を含むことによって)対応するテクスチャデータがないことを示す。
実施形態のいくつかにおいて、モデルの各々(例えば、「モデル1」402)は、1つもしくは複数の3次元オブジェクトの位置情報(例えば、「オブジェクト1」404−1の「位置1」406−1及び「オブジェクト2」404−2の「位置2」406−2)も含む。
実施形態のいくつかにおいて、モデルの各々(例えば、「モデル1」402)は3次元オブジェクトの各々の1つもしくは複数のマーカ(例えば、拡張現実マーカ)を識別する情報も含む。例えば、いくつかの場合、3次元オブジェクトの各々は、2以上の拡張現実マーカによってタグ付けされる。他の場合、3次元オブジェクトの各々は1つの拡張現実マーカによってタグ付けされる。実施形態のいくつかにおいて、1つもしくは複数のマーカを識別する情報は、図3に関連して上記した、マーカの各々のパターン420、位置422、及び方向424の一つもしくは複数を含む。
実施形態のいくつかにおいて、1つもしくは複数のマーカは3次元オブジェクトの各々の位置を識別するために使用される。例えば、1つもしくは複数のマーカが3次元オブジェクトの各々に付加される場合、3次元オブジェクトの各々の位置は1つもしくは複数のマーカの位置に基づいて決定される。実施形態のいくつかにおいて、3次元オブジェクトの各々の位置は、3次元オブジェクトの各々に付加されているマーカの各々の位置の各々に対応する。
実施形態のいくつかにおいて、1つもしくは複数のマーカは3次元オブジェクトの方向(例えば、3次元オブジェクトがまっすぐであるか、逆様であるか、傾いているか)を識別するために使用される。例えば、1つもしくは複数のマーカが3次元オブジェクトの各々に付加されている場合、3次元オブジェクトの方向は1つもしくは複数のマーカの方向及び/もしくは位置に基づいて決定される。実施形態のいくつかにおいて、3次元オブジェクトの各々の方向は、3次元オブジェクトの各々に付加されているマーカの各々の方向の各々に対応する。実施形態のいくつかにおいて、マーカの各々の方向424はマーカの各々が向く方向(例えば、北、南、東、西)を示す。実施形態のいくつかにおいて、マーカの各々の方向424は数値単位(例えば、度)で示される。
実施形態のいくつかにおいて、1つもしくは複数のマーカは3次元オブジェクトの各々(例えば、ライブビデオもしくは画像の現実のオブジェクト)と3次元モデルの対応するオブジェクト(例えば、仮想オブジェクト)とを位置合わせするために使用される。代替的に、もしくは、加えて、実施形態のいくつかにおいて、1つもしくは複数のマーカは3次元モデルのオブジェクトと3次元オブジェクトとを位置合わせするために使用される。実施形態のいくつかにおいて、3次元モデルのマーカの位置は、(例えば、ライブビデオもしくは画像における)対応する物理的マーカの位置に適合するように更新される。実施形態のいくつかにおいて、マーカに関連する3次元オブジェクトの各々の位置は対応する物理的マーカの位置に適合するように更新される。例えば、あるケースでは、ライブビデオもしくは画像の物理的マーカが3次元モデルの対応するマーカの位置に対応しない位置で検出された場合、3次元モデルのマーカの更新された位置がライブビデオもしくは画像の物理的マーカの位置に対応するように、3次元モデルは更新される(例えば、移動、回転及び/もしくは拡大縮小される)。いくつかのケースでは、ライブビデオもしくは画像の複数の物理的マーカが3次元モデルの対応するマーカの位置に対応しない場合、3次元モデルのマーカの更新された位置がライブビデオもしくは画像の物理的マーカの位置に対応するように3次元モデルは更新される(例えば、移動、回転及び/もしくは拡大縮小される)。一般的に、3次元オブジェクトの各々の位置は、複数の物理的マーカを用いて更新される場合、より正確である。
図5A〜5Gは、実施形態のいくつかによるポータブル電子デバイス130のオペレーションを例示する。例示したオペレーションは、3次元モデルへの実空間のマッピング、及び、対応する3次元モデル表面へテクスチャを配置するための実空間の画像もしくはビデオの使用を含む。
図5Aは1つもしくは複数のオブジェクトの画像(例えば、実世界のオブジェクト)を例示する。実施形態のいくつかにおいて、ポータブル電子デバイスはカメラを含み、画像はポータブル電子デバイスのカメラによって取得される。
実施形態のいくつかにおいて、1つもしくは複数のオブジェクトの画像は1つもしくは複数のオブジェクトの静止画像である。他の実施形態のいくつかにおいて、1つもしくは複数のオブジェクトの画像はビデオの部分である。例えば、ポータブル電子デバイスは、1つもしくは複数のオブジェクトを含む画像を含む1つもしくは複数のビデオフレームを含むライブビデオを表示してもよい。これらの実施形態において、オーバヘッドマップのポータブル電子デバイスの位置は、ポータブル電子デバイスの移動によって更新される。
図5Aに示されるように、実施形態のいくつかにおいて、オーバヘッドマップは1つもしくは複数のオブジェクトの画像に重畳される。実施形態のいくつかにおいて、オーバヘッドマップはポータブル電子デバイスの位置を示す。
図5Aは1つもしくは複数のオブジェクトの画像と、複数のユーザインターフェイスオブジェクトと、が同時に表示される例も示す。例えば、図5Aに示されるように、リセットボタン(Reset)、グラブボタン(Grab)、スライダなどのユーザインターフェイスオブジェクトが1つもしくは複数のオブジェクトの画像上に表示されている。実施形態のいくつかにおいて、図5Aに示されるように、1つもしくは複数のユーザインターフェイスオブジェクト(例えば、リセットボタン、グラブボタン及びスライダ)が1つもしくは複数のオブジェクトの画像上に半透明で表示される。実施形態のいくつかにおいて、(例えば、タッチセンシティブ面上のスライダに対応する位置で指をスライドするジェスチャによって)調整された場合、スライダは1つもしくは複数のオブジェクトの表示の視野の変更を開始する。実施形態のいくつかにおいて、(例えば、タッチセンシティブ面上のグラブボタンに対応する位置でのタップジェスチャによって)選択された場合、グラブボタンは1つもしくは複数のオブジェクトの画像の少なくとも部分の保存を開始する。実施形態のいくつかにおいて、(例えば、タッチセンシティブ面上のリセットボタンに対応する位置でのタップジェスチャによって)選択された場合、リセットボタンは1つもしくは複数のオブジェクトの表示の設定(例えば、視野、ズーム、回転など)のリセットを開始する。
図5Bは、1つもしくは複数のオブジェクトの画像と、3次元モデルの1つもしくは複数のオブジェクトの表現と、を同時に表示する例を示す。実施形態のいくつかにおいて、3次元モデルの1つもしくは複数のオブジェクトの表現は3次元モデルの1つもしくは複数のオブジェクトのワイヤフレームモデルの2次元表示を含む。実施形態のいくつかにおいて、同時表示は、半透明前景レイヤーの1つもしくは複数のオブジェクトの画像及び背景レイヤーの3次元モデルの1つもしくは複数のオブジェクトの表現を含む。実施形態のいくつかにおいて、図5Bに示されるように、同時表示は、半透明前景レイヤーの3次元モデルの1つもしくは複数のオブジェクトの表現及び背景レイヤーの1つもしくは複数のオブジェクトの画像を含む。
実施形態のいくつかにおいて、図5Bに示されるように、3次元モデルの1つもしくは複数のオブジェクトは画像の1つもしくは複数のオブジェクトに対応する(例えば、3次元モデルのドアは画像のドアに対応する)。これにより、3次元モデルの1つもしくは複数のオブジェクトと画像の1つもしくは複数の対応するオブジェクトとの直接的な対比が可能となる。
実施形態のいくつかにおいて、3次元モデルの1つもしくは複数のオブジェクトの表現は1つもしくは複数のオブジェクトの画像と位置合わせされる。実施形態のいくつかにおいて、1つもしくは複数のオブジェクトの画像の少なくとも部分は3次元モデルの1つもしくは複数のオブジェクトの表現と位置合わせされる。実施形態のいくつかにおいて、3次元モデルの1つもしくは複数のオブジェクトの表現は(図示しない)1つもしくは複数のマーカを用いて1つもしくは複数のオブジェクトの画像に位置合わせされる。
図5C〜5Eは、実施形態のいくつかによる3次元モデルの1つもしくは複数のオブジェクトの表現と1つもしくは複数のオブジェクトの画像の部分とを位置合わせする例を示す。
図5Cは、マーカの第1セット(濃色マーカ)が画像においてドアの角に配置されている例を示す。実施形態のいくつかにおいて、マーカの第1セットはユーザ入力に依存せず配置される。例えば、マーカの第1セットは自動的に(例えば、エッジ検出及び/もしくは角検出方法を用いて)配置される。実施形態のいくつかにおいて、マーカの第1セットはユーザ入力によって配置される。
図5Cは、マーカの第2セット(薄色マーカ)が配置される例も示す。実施形態のいくつかにおいて、マーカの第2セットは手動で(例えば、ユーザ入力によって)配置される。実施形態のいくつかにおいて、マーカの第2セットはユーザ入力に依存せず配置される。例えば、マーカの第2セットは3次元モデルの対応するオブジェクトの形状によって配置されてもよい。
図5Dは第1マーカセット及び第2マーカセットによる画像の部分(例えば、ドア)のマッピング(例えば、ストレッチング)を例示する。これにより、斜めから見た画像のドアは、ドアのためのテクスチャとして使用される正面から見たドアに変換される。
図5Eはマッピングされたドアの画像を例示する。このドアの画像はドアのテクスチャとして使用されてもよい。代替的に、もしくは、さらに、(木製)ドアのマッピング画像の少なくとも部分は他の木製オブジェクト(例えば、テーブル)のテクスチャとして使用されてもよい。
図5F〜5Gは、実施形態のいくつかによる3次元モデルの1つもしくは複数のオブジェクトのテクスチャを取得することに関連するインターフェイスを例示する。
図5Fはオブジェクトのトップダウンビューを例示する。当該オブジェクトのためにテクスチャデータが収集される。図5Fには、オブジェクトは白で示され、カメラの現在位置は黒丸で示され、カメラの視野は直線で示される。実施形態のいくつかにおいて、カメラがオブジェクトに非常に近く配置されている場合、カメラはオブジェクト全体を取得することが不可能であるかもしれないし、カメラがオブジェクト全体を取得することは所望されないかもしれない。カメラがオブジェクトから非常に離隔して配置されている場合、カメラはオブジェクトの高解像度画像を取得することが不可能であるかもしれない、カメラがオブジェクトの高解像度画像を取得することは所望されないかもしれない。これらの2つを含む要因のいくつかを重み付けすることにより、オブジェクトのテクスチャデータを取得するカメラの推奨位置を判定する。いくつかのケースでは、1つもしくは複数の他のオブジェクトによって対象オブジェクトが隠されているか否かも、カメラの推奨位置を判定するため検討される。いくつかのケースでは、オブジェクトの全体を取得するために必要とされる画像の総数が、カメラの推奨位置を判定する際に考慮される。あまりにも多くの画像を取得しなければならないことは望ましくないためである。図5Fに示されるように、カメラの推奨位置を示すためにグラデーションが使用されてもよい。グラデーションにおいて薄い色で示される概ね半円の円弧に沿った領域はオブジェクトのテクスチャデータを取得するための推奨位置を示し、当該グラデーションにおいて、色が薄いほどカメラ位置として適切であることを示している。グラデーションにおいて濃い色で示される領域はオブジェクトのテクスチャデータを取得するために推奨されない位置を示す。
図5Gは複数のカメラ位置(及び、オプションで視野)が隠された面のテクスチャデータを取得するために推奨される例を示す。図5Gにおいて、オブジェクトは部分的に壁によって隠されている。図5Gは、少なくとも2つの場所から取得される画像を撮影し、オブジェクトのテクスチャデータを取得するためのカメラの推奨位置を示す例を示す。
図6A〜図6Cは実施形態のいくつかによる3次元モデルのテクスチャデータを取得するための方法600を示すフローチャートである。実施形態のいくつかにおいて、本方法は1つもしくは複数のプロセッサ及びメモリ(例えば、図2のCPU202及びメモリ220)を含むポータブル電子デバイスで実行される。実施形態のいくつかにおいて、ポータブル電子デバイスはカメラ(例えば、図2の1つもしくは複数のカメラ214などの統合型カメラ)を含む。実施形態のいくつかにおいて、ポータブル電子デバイスはリモートカメラに接続されている。実施形態のいくつかにおいて、ポータブル電子デバイスはディスプレイデバイス及び1つもしくは複数の入力デバイス(例えば、図2のディスプレイデバイス208及び入力デバイス210)を含む。実施形態のいくつかにおいて、1つもしくは複数の入力デバイスはタッチセンシティブ面(例えば、タッチパッド)を含む。実施形態のいくつかにおいて、タッチセンシティブ面はディスプレイデバイスと統合されている(例えば、タッチセンシティブディスプレイデバイス)。実施形態のいくつかにおいて、ポータブル電子デバイスは1つもしくは複数の位置センサ(例えば、図2の位置センサ216)を含む。実施形態のいくつかにおいて、ポータブル電子デバイスは1つもしくは複数の方向センサ(例えば、図2の方向センサ218を含む)。
ポータブル電子デバイス(例えば、図1のポータブル電子デバイス130)はカメラによって1つもしくは複数のオブジェクトの画像を取得する(602)。例えば、図5Aに示すように、部屋にあるオブジェクト(例えば、ドア、壁など)の画像が取得される。
ポータブル電子デバイスは、3次元モデルの1つもしくは複数のオブジェクトの表現と、画像の少なくとも部分と、を同時に表示する(604)。3次元モデルの1つもしくは複数のオブジェクトの表現と、画像の1つもしくは複数のオブジェクトと、は少なくとも部分的に重畳する。3次元モデルの1つもしくは複数のオブジェクトの表現と、画像と、を同時に表示する例を図5Bに示す。図5Bに示されるように、3次元モデルの1つもしくは複数のオブジェクト(例えば、3次元モデルのドア及び壁)の表現と、画像の1つもしくは複数のオブジェクト(例えば、画像のドア及び壁)と、は少なくとも部分的に重畳する。
実施形態のいくつかにおいて、3次元モデルの1つもしくは複数のオブジェクトは画像の1つもしくは複数のオブジェクトに対応する(606)。例えば、図5Bに示されるように、3次元モデルのドアの表現と、画像のドアと、は重畳される。実施形態のいくつかにおいて、3次元モデルの1つもしくは複数のオブジェクトは画像の1つもしくは複数のオブジェクトに対応しない。実施形態のいくつかにおいて、3次元モデルの1つもしくは複数のオブジェクトの表現と、画像の1つもしくは複数のオブジェクトと、が少なくとも部分的に重畳する場合、3次元モデルの1つもしくは複数のオブジェクトと、3次元モデルが重畳している画像の1つもしくは複数のオブジェクトと、は異なっていてもよい。例えば、テーブルの表現と、画像のドアと、が重畳してもよい。
実施形態のいくつかにおいて、ポータブル電子デバイスは、3次元モデルの1つもしくは複数のオブジェクトの表現と画像の少なくとも部分とを位置合わせする(608)。実施形態のいくつかにおいて、3次元モデルの1つもしくは複数のオブジェクトの表現と画像の少なくとも部分とを位置合わせすることは、3次元モデルの1つもしくは複数のオブジェクトの表現の回転、拡大縮小(サイズ変更)及び/もしくはトリミングを含む。実施形態のいくつかにおいて、ポータブル電子デバイスは画像の部分と3次元モデルの1つもしくは複数のオブジェクトの表現とを位置合わせする。実施形態のいくつかにおいて、画像の部分と3次元モデルの1つもしくは複数のオブジェクトの表現とを位置合わせすることは、画像の部分の回転、拡大縮小(もしくはサイズ変更)及び/もしくはトリミングを含む。実施形態のいくつかにおいて、ポータブル電子デバイスは、3次元モデルの1つもしくは複数のオブジェクトの表現と画像の少なくとも部分とをユーザ入力に依存せず位置合わせする。例えば、ポータブル電子デバイスは、3次元モデルの1つもしくは複数のオブジェクトの表現と画像の少なくとも部分とを自動的に位置合わせする。実施形態のいくつかにおいて、ポータブル電子デバイスは、画像の部分と3次元モデルの1つもしくは複数のオブジェクトの表現とをユーザ入力に依存せず位置合わせする。例えば、ポータブル電子デバイスは画像の部分と1つもしくは複数のオブジェクトの表現とを自動的に位置合わせする。
実施形態のいくつかにおいて、ポータブル電子デバイスはタッチセンシティブディスプレイデバイスを含む(610)。ポータブル電子デバイスは、タッチセンシティブディスプレイデバイス上で1つもしくは複数のタッチジェスチャを受信し、1つもしくは複数のタッチジェスチャに従って、3次元モデルの1つもしくは複数のオブジェクトの表現を位置合わせする。
実施形態のいくつかにおいて、1つもしくは複数のオブジェクトを位置合わせすることは、3次元モデルの1つもしくは複数のオブジェクトの表現を拡大縮小し、3次元モデルの1つもしくは複数のオブジェクトの表現を移動し、3次元モデルの1つもしくは複数のオブジェクトの表現を回転する、ことの1つもしくは複数を含む(612)。
実施形態のいくつかにおいて、画像は1つもしくは複数の拡張現実マーカ(バーコード、マトリックスバーコード、QRコード(登録商標)など)を含む(614)。実施形態のいくつかにおいて、1つもしくは複数の拡張現実マーカは1つもしくは複数の現実のオブジェクトに物理的に付加される。ポータブル電子デバイスは、1つもしくは複数の拡張現実マーカの位置の各々に従って、3次元モデルの1つもしくは複数のオブジェクトの表現を位置合わせする。例えば、ポータブル電子デバイスは、1つもしくは複数の拡張現実マーカの既知位置に基づいて、1つもしくは複数の拡張現実マーカによって、オブジェクトの各々の位置を判定する。
実施形態のいくつかにおいて、ポータブル電子デバイスは、1つもしくは複数の拡張現実マーカの少なくとも1つに従って、ポータブル電子機器の位置及び方向の1つもしくは複数を較正する(616)。例えば、ポータブル電子デバイスは、1つもしくは複数の拡張現実マーカの既知位置に基づいて、ポータブル電子デバイスの位置を判定する。実施形態のいくつかにおいて、(ポータブル電子デバイスは1つもしくは複数の拡張現実マーカの画像を取得することが可能であるため、)ポータブル電子デバイスが1つもしくは複数の拡張現実マーカに隣接することが、判定される。実施形態のいくつかにおいて、ポータブル電子デバイスのより正確な位置は、一つもしくは複数の拡張現実マーカのサイズ及び1つもしくは複数の拡張現実マーカが画像に表れる角度に基づいて判定される。実施形態のいくつかにおいて、ポータブル電子機器は、拡張現実マーカの各々の既知方向に基づいて、ポータブル電子機器の方向を判定する。
実施形態のいくつかにおいて、リモートサーバからの1つもしくは複数の拡張現実マーカの情報がポータブル電子デバイスで受信される(618)。例えば、図1に示されるポータブル電子デバイス130−1はサーバ102から1つもしくは複数の拡張現実マーカの情報を受信してもよい。実施形態のいくつかにおいて、1つもしくは複数の拡張現実マーカの情報は、拡張現実マーカの各々のパターン420、位置422及び方向424の一つもしくは複数を含む(図4)。
実施形態のいくつかにおいて、複数の拡張現実マーカの情報はリモートサーバ(例えば、図3のサーバ102のマーカデータ330)に保存される(620)。複数の拡張現実マーカの情報はポータブル電子デバイスで受信される1つもしくは複数の拡張現実マーカの情報を含み、ポータブル電子デバイスで受信された1つもしくは複数の拡張現実マーカはポータブル電子デバイスの位置に従って選択される。例えば、ポータブル電子デバイスは、ポータブル電子デバイスに隣接しない拡張現実マーカの情報を受信せずに、ポータブル電子デバイスに隣接する拡張現実マーカの情報を受信する。これにより、リモートサーバとポータブル電子デバイスとの間で伝送されるデータ量を低減することが可能となる。ポータブル電子デバイスがポータブル電子デバイスから遠く離隔している1つもしくは複数の拡張現実マーカを有する画像を取得する可能性は低いので、ポータブル電子デバイスのユーザによって知覚されるポータブル電子デバイスのオペレーションに悪い影響を及ぼすことはない。実施形態のいくつかにおいて、ポータブル電子デバイスが第1領域から第1領域とは異なる第2領域へ移動している間、ポータブル電子デバイスは第1領域に隣接する1つもしくは複数の拡張現実マーカの情報及び第2領域に隣接する1つもしくは複数の拡張現実マーカの情報を受信する。実施形態のいくつかにおいて、ポータブル電子デバイスが第1領域から第2領域に移動した後、ポータブル電子デバイスは、第1領域に隣接する1つもしくは複数の拡張現実マーカの情報を受信せずに、第2領域に隣接する1つもしくは複数の拡張現実マーカの情報を受信する。
ポータブル電子デバイスは、画像の1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして画像の少なくとも1つもしくは複数の部分を保存する(622)。例えば、実施形態のいくつかにおいて、ポータブル電子デバイスは特定のオブジェクト(例えば、画像のドアに対応する3次元モデルのドアオブジェクト)のテクスチャデータ(例えば、図4のテクスチャ416)として画像の部分(例えば、図5Aの画像のドア)を保存する。実施形態のいくつかにおいて、ポータブル電子デバイスは、ローカルデータベース246(図2)にテクスチャデータとして画像の部分を保存する。実施形態のいくつかにおいて、ポータブル電子デバイスはリモートサーバにテクスチャデータ(例えば、図3の3次元モデルデータ340)として保存されるべき画像の部分を送信する。
実施形態のいくつかにおいて、ポータブル電子デバイスは、画像のオブジェクトの各々のテクスチャデータとして複数の画像を保存する。例えば、単一のオブジェクトは、複数の別個の画像のテクスチャデータに対応してもよい(例えば、異なる時間に異なる影を含む壁、異なる時間に異なる板書を含む黒板など)。
実施形態のいくつかにおいて、ポータブル電子デバイスは、3次元モデルの1つもしくは複数のオブジェクトの表現と、カメラによって取得された1つもしくは複数のオブジェクトのビデオと、を同時に表示する(624)。実施形態のいくつかにおいて、ポータブル電子デバイスは、3次元モデルの1つもしくは複数のオブジェクトの表現と、カメラによって取得された1つもしくは複数のオブジェクトのライブビデオと、を同時に表示する。例えば、ポータブル電子デバイスは、リアルタイムで1つもしくは複数のオブジェクトのライブビデオを取得し表示する。実施形態のいくつかにおいて、3次元モデルの1つもしくは複数のオブジェクトの表現は、ポータブル電子デバイスの位置及び方向に従ってリアルタイムで更新される。例えば、ポータブル電子デバイスが横方向に揺らされた場合、実際のオブジェクトの表示が変化し、3次元モデルの1つもしくは複数のオブジェクトの表現も更新される。3次元モデルの1つもしくは複数のオブジェクト表現と、ビデオの1つもしくは複数のオブジェクトと、は少なくとも部分的に重畳する。1つもしくは複数のオブジェクトのビデオと3次元モデルの1つもしくは複数のオブジェクトの表現とを同時に表示しながら、ポータブル電子デバイスはユーザ入力を受け取り、受け取ったユーザ入力に応じて、ユーザ入力のタイミングに従ってビデオから選択された画像の少なくとも部分を、ビデオの1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして保存する。例えば、ポータブル電子デバイスは、グラブボタン(図5B)に対応する位置でタッチセンシティブ面へのユーザ入力を検出し、ユーザ入力が検出されたときに表示されているビデオのフレームを保存する。画像の部分と、3次元モデルの1つもしくは複数のオブジェクトの表現と、は少なくとも部分的に重畳する。
実施形態のいくつかにおいて、ポータブル電子デバイスは位置の各々で複数の画像を取得し、複数の画像に基づいて位置の各々の3次元モデルの各々を生成する(626)。例えば、ポータブル電子デバイスは複数の部屋の画像を取得することが可能である。実施形態のいくつかにおいて、ポータブル電子デバイスは複数の画像をつなぎ合せることによって部屋のパノラマ表示を用意する。次に、ポータブル電子デバイスはエッジ検出を用いることにより壁を識別する。例えば、縦方向の線は、2つの壁が合わさる位置として認識されてもよい。実施形態のいくつかにおいて、2つの壁の影は各々の壁の方向を判定するために使用される。壁の位置及び方向に基づいて、ポータブル電子デバイスは部屋の3次元モデルを生成する。
実施形態のいくつかにおいて、ポータブル電子デバイスは方向センサを含む(628)。ポータブル電子デバイスは、複数の画像の方向情報を用いて、各々の位置で複数の画像を取得し、複数の画像及び方向情報に基づいて各々の位置の3次元モデルの各々を生成する。上記部屋モデル例において、ポータブル電子デバイスは、部屋のより正確な3次元モデルを生成するために複数の画像の方向情報を使用してもよい(例えば、東側の壁の画像、北側の壁の画像など)。
実施形態のいくつかにおいて、画像の少なくとも1つもしくは複数の画像が画像の1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとしてリモートサーバに送信される(630)。例えば、ポータブル電子デバイスは、テクスチャデータとしてリモートサーバに保存される画像の部分を送信してもよい(例えば、図3の3次元モデルデータ340)。
実施形態のいくつかにおいて、ポータブル電子デバイス(例えば、図1のポータブル電子デバイス130−1)とは異なる複数のポータブル電子デバイス(例えば、図1のポータブル電子機器130−2〜130−n)からリモートサーバに、他のテクスチャデータが送信される(632)。例えば、複数のポータブル電子デバイスが複数のユーザに提供されてもよい。ユーザの各々は、特定の領域(例えば、特定のビルの内部)のテクスチャデータを取得するために、ポータブル電子デバイスの各々を使用してもよい。複数のポータブル電子デバイスがテクスチャデータを取得するので、複数のオブジェクトのテクスチャデータを取得する速さを改善することが可能となる。
実施形態のいくつかにおいて、ポータブル電子デバイスはテクスチャデータを必要とする3次元モデルの1つもしくは複数のオブジェクトを示す情報をリモートサーバから受信する。例えば、リモートサーバは、特定のオブジェクト(例えば、図4の「オブジェクト1」404−1)がテクスチャデータ(例えば、図4のテクスチャ416)を有さないことを判定し、ポータブル電子デバイスに指標を送信する。実施形態のいくつかにおいて、当該指標は、ポータブル電子デバイスのオーバヘッドマップに表示される。実施形態のいくつかにおいて、当該指標は3次元モデルの1つもしくは複数のオブジェクトの表現と共に表示されている。例えば、テクスチャデータを有さないオブジェクトは異なる色で表示されてもよい。これにより、ユーザエラー(例えば、ユーザが1つもしくは複数のオブジェクトのテクスチャデータを取得し損ねる)を低減することが可能となる。
実施形態のいくつかにおいて、ポータブル電子デバイスは、3次元モデルの1つもしくは複数のオブジェクトの情報及び3次元モデルの1つもしくは複数のオブジェクトのテクスチャデータからレンダリングされる画像を受信し、レンダリングされた画像の少なくとも部分を表示する(634)。例えば、リモートサーバ102の3次元モデルエンジン322(図3)は、3次元モデルの1つもしくは複数のオブジェクトの情報(例えば、形状、サイズ及び方向)及びテクスチャデータから画像をレンダリングし、ポータブル電子デバイスにレンダリングした画像を送信する。ポータブル電子デバイスは、レンダリング画像を受信し、レンダリング画像の少なくとも部分を表示する。
実施形態のいくつかにおいて、ポータブル電子デバイスはタッチセンシティブディスプレイデバイスのタッチジェスチャを受信し、タッチジェスチャに従ってテクスチャデータを調整する(636)。例えば、3次元モデルのドアオブジェクトのテクスチャデータとして使用される場合、ドアの画像はドアオブジェクトと適切に位置合わせすることができないかもしれない(例えば、ドアの画像はドアオブジェクトに対して傾いているかもしれない)。ポータブル電子デバイスは1つもしくは複数のタッチジェスチャ(例えば、回転ジェスチャ)を受信し、それに従ってテクスチャデータを調整する(例えば、ドアオブジェクトと位置合わせするためにドアの画像を回転する)。
実施形態のいくつかにおいて、テクスチャを調整することは、3次元モデルの1つもしくは複数のオブジェクトにテクスチャデータを位置付けすること、テクスチャデータをリサイズすること、及びテクスチャデータをトリミングすること、の1つもしくは複数を含む(638)。
実施形態のいくつかにおいて、3次元モデルの1つもしくは複数のオブジェクトの情報からレンダリングされた画像及び3次元モデルの1つもしくは複数のオブジェクトのテクスチャデータは1つもしくは複数のオブジェクトの少なくとも部分にマッピングされている複数のテクスチャタイル画像を含む。テクスチャタイルの各々はテクスチャデータに対応する。例えば、テクスチャデータはオブジェクトの部分を表現してもよい(例えば、ドアの部分の木目画像)。このようなケースにおいて、テクスチャデータはテクスチャタイルとして使用されてもよく、複数のテクスチャタイルは1つもしくは複数のオブジェクトの表面にマッピングされる(例えば、テクスチャデータは1つもしくは複数のオブジェクトの表面をカバーするように複数回使用される)。
実施形態のいくつかにおいて、ポータブル電子デバイスはカメラ配置の情報を受信する(640)。カメラ配置の情報は、1つもしくは複数のオブジェクトに関する少なくとも視角及び視野に基づく。例えば、図5F及び5Gに関して上記したように、ポータブル電子デバイスは推奨カメラ位置を受信して表示する。
説明のために、特定の実施形態について上記した。しかしながら、上記の例示的な説明は網羅的であること、開示の形態通りの発明に限定すること、を意図していない。多くの修正及び変更が上記開示の観点から可能である。発明の原理及び実用的な応用をもっとも適切に説明するために、実施形態を選択し、記載した。上記説明により、本発明を最適に実施することが可能であり、考えられ得る特定の使用に適するように、様々な実施形態に様々な変更を加えることが可能である。
さらに、実施形態の全体的な理解を支援するために多くの特定の詳細を記載した。しかしながら、これらの特定な詳細を含まずに、本発明を実施することは可能である。よく知られている事物、方法、プロシージャ、構成要素及びネットワークは、本発明の態様を不明瞭にすることを防ぐために詳細には記載されていない。
第1、第2などの用語を様々な構成要素を記述するために使用したが、これの構成要素はこれらの用語によって限定されるものではない。これらの用語は1つの構成要素から他の構成要素を区別するために使用されているに過ぎない。本発明の範囲から逸脱せずに、例えば、第1領域を第2領域という用語に置き換え、同様に、第2領域を第1領域という用語に置き換えることが可能である。第1領域及び第2領域は双方とも領域であるが、同一の領域ではない。
実施形態の記述に使用される用語は特定の実施形態を記述する目的のためのものであり、発明を限定することを意図していない。発明の説明及び添付の請求項において使用される単数を示す「1つの」などによって示される構成要素は、明らかに除外されていない限り、複数の構成要素も含む。ここで使用される用語「及び/もしくは」は、関連する構成要素のいずれか、及び、1つもしくは複数の全ての可能な組み合わせを包含する。さらに、用語「含む」は、記載された特徴、数、ステップ、オペレーション、及び/もしくは構成要素などの存在を特定するが、1つもしくは複数の他の特徴、数、ステップ、オペレーション、構成要素、及び/もしくは、これらの組み合わせを除外することは意図していない。
100 システム
102 サーバ
130 ポータブル電子デバイス
202 CPU
206 ユーザインターフェイス
212 センサ
220 メモリ
302 CPU
316 メモリ

Claims (18)

  1. ポータブル電子デバイスはカメラ、1つもしくは複数のプロセッサ及びメモリを備え、
    前記プロセッサは、
    前記カメラによって1つもしくは複数のオブジェクトを含む画像を取得し、
    前記画像の少なくとも部分と3次元モデルの1つもしくは複数のオブジェクトの表現とを表示し、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像に含まれる1つもしくは複数のオブジェクトとは少なくとも部分的に重畳し、
    前記画像に含まれる1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして、前記画像の少なくとも1つもしくは複数の部分を前記メモリに保存する、
    3次元モデルのためのテクスチャデータを取得する方法であって、
    前記プロセッサが、さらに、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像の少なくとも部分とを位置合わせし、
    前記画像は1つもしくは複数の拡張現実マーカを含み、
    前記プロセッサは、
    1つもしくは複数の前記拡張現実マーカの位置の各々に従って、前記3次元モデルの一つもしくは複数の前記オブジェクトの表現を位置合わせする、
    方法。
  2. 前記3次元モデルの1つもしくは複数のオブジェクトは前記画像に含まれる1つもしくは複数のオブジェクトに対応する、請求項1に記載の方法。
  3. 前記ポータブル電子デバイスはタッチセンシティブディスプレイデバイスをさらに備え、
    前記プロセッサは、
    前記タッチセンシティブディスプレイデバイス上の1つもしくは複数のタッチジェスチャを受信し、
    1つもしくは複数の前記タッチジェスチャに従って、前記3次元モデルの1つもしくは複数のオブジェクトの表現を位置合わせする、
    請求項に記載の方法。
  4. 1つもしくは複数の前記オブジェクトを位置合わせすることは、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現を拡大縮小し、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現を移動し、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現を回転する、
    ことの1つもしくは複数を含む、
    請求項に記載の方法。
  5. 前記プロセッサは、さらに、
    1つもしくは複数の前記拡張現実マーカの少なくとも1つに従って、前記ポータブル電子デバイスの位置及び方向の1つもしくは複数を較正する、
    請求項に記載の方法。
  6. 前記ポータブル電子デバイスは、リモートサーバから、1つもしくは複数の前記拡張現実マーカの情報を受信する、請求項またはに記載の方法。
  7. 複数の拡張現実マーカの情報が前記リモートサーバに保存され、
    複数の前記拡張現実マーカの情報は、前記ポータブル電子デバイスで受信された1つもしくは複数の前記拡張現実マーカの情報を含み、
    前記ポータブル電子デバイスで受信される1つもしくは複数の拡張現実マーカは、前記ポータブル電子デバイスの位置に従って選択される、
    請求項に記載の方法。
  8. 前記プロセッサは、さらに、
    位置の各々で複数の画像を取得し、
    複数の前記画像に基づいて前記位置の各々の3次元モデルの各々を生成する、
    請求項1〜のいずれか1項に記載の方法。
  9. 前記ポータブル電子デバイスは方向センサを含み、
    前記プロセッサは、
    複数の前記画像についての方向情報を有する複数の前記画像を前記位置の各々で取得し、
    複数の前記画像及び前記方向情報に基づいて前記位置の各々の前記3次元モデルの各々を生成する、
    請求項に記載の方法。
  10. 前記画像の少なくとも部分は、前記画像に含まれる1つもしくは複数の前記オブジェクトの1つもしくは複数のためのテクスチャデータとしてリモートサーバに送信される、
    請求項1〜のいずれか1項に記載の方法。
  11. 他のテクスチャデータが、前記ポータブル電子デバイスとは異なる複数のポータブル電子デバイスから前記リモートサーバに送信される、請求項1に記載の方法。
  12. 前記カメラによって取得された1つもしくは複数の前記オブジェクトのビデオと前記3次元モデルの1つもしくは複数のオブジェクトの表現とを表示し、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記ビデオの1つもしくは複数のオブジェクトとは少なくとも部分的に重畳し、
    1つもしくは複数の前記オブジェクトのビデオと前記3次元モデルの1つもしくは複数のオブジェクトの表現とを表示しながら、ユーザ入力を受信し、
    前記ユーザ入力の受信に応じて、前記ユーザ入力のタイミングに従って前記ビデオから選択される画像の少なくとも部分を、前記ビデオの1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして保存し、
    前記画像の部分と前記3次元モデルの1つもしくは複数のオブジェクトの表現とは少なくとも部分的に重畳する、
    請求項1〜1のいずれか1項に記載の方法。
  13. 前記プロセッサは、さらに、
    前記3次元モデルの1つもしくは複数のオブジェクトの情報及び前記3次元モデルの1つもしくは複数のオブジェクトのテクスチャデータからレンダリングされた画像を受信し、
    レンダリングされた前記画像の少なくとも部分を表示する、
    請求項1または請求項2に記載の方法。
  14. 前記ポータブル電子デバイスはタッチセンシティブディスプレイデバイスをさらに備え、
    前記プロセッサは、さらに、
    前記タッチセンシティブディスプレイデバイス上のタッチジェスチャを受信し、
    前記タッチジェスチャに従って前記テクスチャデータを調整する、
    請求項1に記載の方法。
  15. 前記テクスチャデータを調整することは、
    前記3次元モデルの1つもしくは複数のオブジェクトに前記テクスチャデータを位置付けすること、
    前記テクスチャデータをリサイズすること、
    前記テクスチャデータをトリミングすること、
    の1つもしくは複数を含む、
    請求項1に記載の方法。
  16. 前記プロセッサは、さらに、
    カメラ配置の情報を受信し、
    前記カメラ配置の情報は1つもしくは複数の前記オブジェクトに対する視角及び視野に少なくとも基づく、
    請求項1〜1のいずれか1項に記載の方法。
  17. カメラと、
    1つもしくは複数のプロセッサと、
    1つもしくは複数のプログラムを記憶するメモリと、
    を備え、
    1つもしくは複数の前記プログラムを前記プロセッサによって実行することにより、
    前記カメラによって1つもしくは複数のオブジェクトを含む画像を取得し、
    前記画像の少なくとも部分と3次元モデルの1つもしくは複数のオブジェクトの表現とを表示し、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像に含まれる1つもしくは複数のオブジェクトとは少なくとも部分的に重畳し、
    前記画像に含まれる1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして、前記画像の少なくとも1つもしくは複数の部分を前記メモリに保存する、
    ポータブル電子デバイスであって、
    前記プログラムを前記プロセッサによって実行することにより、さらに、
    前記プロセッサは、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像の少なくとも部分とを位置合わせし、
    前記画像は1つもしくは複数の拡張現実マーカを含み、
    前記プロセッサは、前記位置合わせでは、1つもしくは複数の前記拡張現実マーカの位置の各々に従って、前記3次元モデルの一つもしくは複数の前記オブジェクトの表現を位置合わせする、
    ポータブル電子デバイス
  18. カメラによって1つもしくは複数のオブジェクトを含む画像を取得し、
    前記画像の少なくとも部分と3次元モデルの1つもしくは複数のオブジェクトの表現とを表示し、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像に含まれる1つもしくは複数のオブジェクトとは少なくとも部分的に重畳し、
    前記画像に含まれる1つもしくは複数のオブジェクトの1つもしくは複数のためのテクスチャデータとして、前記画像の少なくとも1つもしくは複数の部分をメモリに保存する、
    処理をコンピュータに実行させるためのプログラムであって、
    前記処理には、さらに、
    前記3次元モデルの1つもしくは複数のオブジェクトの表現と前記画像の少なくとも部分とを位置合わせすることが含まれ、
    前記画像は1つもしくは複数の拡張現実マーカを含み、
    前記位置合わせでは、1つもしくは複数の前記拡張現実マーカの位置の各々に従って、前記3次元モデルの一つもしくは複数の前記オブジェクトの表現を位置合わせする、
    プログラム
JP2014132835A 2013-07-03 2014-06-27 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム Active JP6458371B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/934,617 US9437045B2 (en) 2013-07-03 2013-07-03 Real-time mobile capture and application of photographic images as textures in three-dimensional models
US13/934,617 2013-07-03

Publications (2)

Publication Number Publication Date
JP2015015023A JP2015015023A (ja) 2015-01-22
JP6458371B2 true JP6458371B2 (ja) 2019-01-30

Family

ID=52132508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014132835A Active JP6458371B2 (ja) 2013-07-03 2014-06-27 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム

Country Status (2)

Country Link
US (1) US9437045B2 (ja)
JP (1) JP6458371B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10139985B2 (en) 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
US10163261B2 (en) 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
US9786097B2 (en) 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
TWI625699B (zh) * 2013-10-16 2018-06-01 啟雲科技股份有限公司 雲端三維模型建構系統及其建構方法
US9688403B2 (en) 2014-05-20 2017-06-27 Infatics, Inc. Method for adaptive mission execution on an unmanned aerial vehicle
US9723109B2 (en) * 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
US9659381B2 (en) * 2015-01-26 2017-05-23 Daqri, Llc Real time texture mapping for augmented reality system
JP2017012264A (ja) * 2015-06-29 2017-01-19 セイコーエプソン株式会社 リハビリ補助用具およびリハビリ装置
US10230888B2 (en) * 2015-07-31 2019-03-12 Qualcomm Incorporated Sensor-based camera initialization
US10650591B1 (en) 2016-05-24 2020-05-12 Out of Sight Vision Systems LLC Collision avoidance system for head mounted display utilized in room scale virtual reality system
US10981060B1 (en) 2016-05-24 2021-04-20 Out of Sight Vision Systems LLC Collision avoidance system for room scale virtual reality system
JP6917820B2 (ja) * 2016-08-05 2021-08-11 株式会社半導体エネルギー研究所 データ処理システム
WO2018144929A1 (en) * 2017-02-02 2018-08-09 Infatics, Inc. (DBA DroneDeploy) System and methods for improved aerial mapping with aerial vehicles
US11272160B2 (en) * 2017-06-15 2022-03-08 Lenovo (Singapore) Pte. Ltd. Tracking a point of interest in a panoramic video
US10627232B2 (en) 2017-06-27 2020-04-21 Infatics, Inc. Method and system for aerial image processing
WO2019031386A1 (ja) * 2017-08-09 2019-02-14 シャープ株式会社 画像処理装置、表示装置、画像送信装置、画像処理方法、制御プログラム及び記録媒体
CN111369659B (zh) * 2018-12-26 2023-05-02 杭州海康威视数字技术股份有限公司 一种基于三维模型的纹理映射方法、装置及设备
CN109949212B (zh) * 2019-03-13 2023-05-02 北京达佳互联信息技术有限公司 图像映射方法、装置、电子设备及存储介质
EP3938919A4 (en) * 2019-04-02 2022-05-18 Buildots Ltd. DETERMINING THE POSITION OF AN IMAGE CAPTURE DEVICE

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7421112B2 (en) * 2004-03-12 2008-09-02 General Electric Company Cargo sensing system
US8669945B2 (en) * 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
JP2012048529A (ja) * 2010-08-27 2012-03-08 Mitsubishi Precision Co Ltd 地物の外観表示用画像の生成方法及びその装置
US8749580B1 (en) * 2011-08-12 2014-06-10 Google Inc. System and method of texturing a 3D model from video
US9448758B2 (en) * 2012-07-18 2016-09-20 The Boeing Company Projecting airplane location specific maintenance history using optical reference points
US9336629B2 (en) * 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
US9679414B2 (en) * 2013-03-01 2017-06-13 Apple Inc. Federated mobile device positioning

Also Published As

Publication number Publication date
US9437045B2 (en) 2016-09-06
JP2015015023A (ja) 2015-01-22
US20150009206A1 (en) 2015-01-08

Similar Documents

Publication Publication Date Title
JP6458371B2 (ja) 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
CN109146954B (zh) 用于与所显示的地图进行交互的增强现实界面
US9224237B2 (en) Simulating three-dimensional views using planes of content
US9437038B1 (en) Simulating three-dimensional views using depth relationships among planes of content
US9591295B2 (en) Approaches for simulating three-dimensional views
US20200250889A1 (en) Augmented reality system
KR101380854B1 (ko) 웹 정보구조에 기반한 증강현실 콘텐츠 제공장치 및 방법
JP6013583B2 (ja) 有効インターフェース要素の強調のための方式
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10049490B2 (en) Generating virtual shadows for displayable elements
TW201346640A (zh) 影像處理裝置及電腦程式產品
Li et al. Cognitive issues in mobile augmented reality: an embodied perspective
JP6260241B2 (ja) ユーザの入力を受け付けるシステム、プログラムおよび方法
CN104360729A (zh) 基于Kinect和Unity3D的多交互方法与装置
CN112912936A (zh) 混合现实系统、程序、移动终端装置和方法
US9881419B1 (en) Technique for providing an initial pose for a 3-D model
Abbas et al. Augmented reality-based real-time accurate artifact management system for museums
US9292165B2 (en) Multiple-mode interface for spatial input devices
US10466818B2 (en) Pointing action

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R150 Certificate of patent or registration of utility model

Ref document number: 6458371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350