JP6199313B2 - モーションセンサーデータに基づく3dモデルを計算するように構成されたモバイルデバイス - Google Patents

モーションセンサーデータに基づく3dモデルを計算するように構成されたモバイルデバイス Download PDF

Info

Publication number
JP6199313B2
JP6199313B2 JP2014554717A JP2014554717A JP6199313B2 JP 6199313 B2 JP6199313 B2 JP 6199313B2 JP 2014554717 A JP2014554717 A JP 2014554717A JP 2014554717 A JP2014554717 A JP 2014554717A JP 6199313 B2 JP6199313 B2 JP 6199313B2
Authority
JP
Japan
Prior art keywords
image
mobile device
model
motion sensor
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014554717A
Other languages
English (en)
Other versions
JP2015508197A5 (ja
JP2015508197A (ja
Inventor
チ、インヨン
ヤン、ルイドゥオ
スンダレサン、サイラム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015508197A publication Critical patent/JP2015508197A/ja
Publication of JP2015508197A5 publication Critical patent/JP2015508197A5/ja
Application granted granted Critical
Publication of JP6199313B2 publication Critical patent/JP6199313B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
[0001] 本出願は、その開示全体が引用により本明細書に組み込まれる、2012年1月26日に出願された米国仮特許出願第61/591,196号と、2012年11月9日に出願された米国特許出願第13/673,681号の利益を主張する。
[0002] 本開示は、一般的にはオブジェクトの3次元モデル(three-dimensional (3D) models of objects.)の発生に関する。
[0003] 技術における進歩は、より小型で、より強力な計算デバイスをもたらした。例えば、小型で、軽く、かつユーザによって容易に持ち運ばれる携帯用無線電話、携帯情報端末(PDA)、およびページングデバイスなどの無線計算デバイスを含むさまざまな携帯用パーソナル計算デバイスが現在存在している。より具体的には、セルラ電話およびインターネットプロトコル(IP)電話のようなポータブル無線電話は、無線ネットワーク上で音声およびデータパケットを通信することができる。また、このような無線電話は、インターネットにアクセスするために使用されることができるウェブブラウザアプリケーションなどのソフトウェアアプリケーションを含む実行可能な命令を処理することができる。または、これらの無線電話は、重要な計算能力を含み得、および、3次元(3D)オブジェクトの図形処理能力があり得る。
[0004] オブジェクトの3次元(3D)モデルは、オブジェクトのマルチビューイメージ(例えば、異なった角度および/または、場所から、1つまたは複数のカメラにより撮られたオブジェクトの複数の視界に基づき発生され得る。3次元(3D)モデルは、ワイヤレスデバイスのユーザに、便利な興味深い情報を提供し得、および、ユーザの経験全体を高め得る。3D復元は、セキュリティ、調査およびロボット工学に使用され得る。さらに、3D復元は、仮想の旅行を発生するための、または航海目的のための構築のモデルの開発のために、使用され得る。さらに、すでに破壊されている可能性のあるオブジェクトは、再現され保存され得る(例えば博物館において)。
[0005] ワイヤレスデバイスの複数の視界処理におけるオブジェクト復元を公式化された動作の方法とシステムが開示される。開示された具体的表現は、1つまたは複数の3D復元技術に関連した3次元(3D)モデル(例えば3D構造)を発生させることの複雑性を減少させるために、1つまたは複数のモーションセンサによって提供されたワイヤレスデバイスの動作の情報を利用する。
[0006] 特定な例によると、特徴点基準復元技術(例えばバンドル調整技術(bundle adjustment technique))は、3Dモデルを計算するためにモーションセンサデータの接続に使用されている。幾つかのアプローチによると、バンドル調整は、次の式のための「最大尤度ソリューション(maximum likelihood solution)」である。
Figure 0006199313
ここでPiは、カメラのi番目の射影マトリクス(projection matrix)(つまり、カメラによりとられ、およびi番目のイメージに投影されたオブジェクトの特徴点の表現)であり、ここでXは、オブジェクトのj番目の特徴点であり、ここでx は、i番目のイメージにおけるj番目の特徴点の座標であり、ここでd(・)は、下記で説明する距離関数(distance function)を表す。オブジェクトの特徴点は、オブジェクトの3Dモデルを発生させるために重要であり得るオブジェクトの部分を含む(例えばオブジェクトにおけるコーナー、オブジェクトにおけるカーブ、オブジェクトの端等)。例えば、特徴点は、マグのハンドル、マグのグラフィックパターンのコーナー、文字列を含むマグの部分、およびマグの底を含み得る。
[0007] バンドル調整技術(bundle adjustment technique)の少なくとも一つの使用によれば、カメラの最初の場所から次の場所へのカメラの位置と方向を推定している最初の(例えばi=1)、および、次の(例えばi=2,3,...,n)射影マトリクス(projection matrix)Pは、推定される。オブジェクトの特徴点Xは、推定され、カメラによりキャプチャされたオブジェクトの複数のイメージにおける特徴点x の座標もまた、推定される。バンドル調整ソリューションは、推定される大量のパラメータのために、大きな、コンピュータ的に激しい問題をもたらし得る。それ故に、バンドル調整ソリューションは、コンピュータ的に要求が多くなり得、プロセッサのリソースに負担をかけ得る。
[0008] 少なくとも本開示の一つの具体例によれば、バンドル調整技術の複雑性は、Pi+1を決定(または、Pi+1の推定)するために、モーションセンサデータを使用することにより減少され得る。例えば、バンドル調整の複雑性は、式により、減少され得る:
Figure 0006199313
i+1=[R|T]Pの影響を受け、ここで、RとTは、それぞれ、回転および変換マトリクス(rotational and translation matrices)であり、[R|T]は、ワイヤレスデバイスの1つまたは複数のセンサによってなされた測定に基づいた、ワイヤレスデバイスと関係がある相対位置マトリクス(relative pose matrix)である。それ故に、少なくとも一つのi番目+1の射影マトリクス(projection matrix)は、一つまたは複数のモーションセンサにより供給されるワイヤレスデバイスのモーション情報に、由来し得、バンドル調整技術を経由して、反復して推定される必要がなく、全体の複雑性の減少をもたらす。
[0009] 他の特別な例によると、モーションセンサの測定は、シルエット基準3D(silhouette-based 3D)オブジェクトを発生するためのカメラの位置情報を引き出すために使用される(例えば、視覚外殻構造技術(visual hull technique)を用いて発生させられた3Dオブジェクト)。モーションセンサの測定を用いて、シルエット基準3D(silhouette-based 3D)モデルは、モバイルデバイス(例えば、「固定された」または、あらかじめ位置を決められた、とは関係しないデバイス)により効果的に発生させられ得る。
[0010] 特別な具体例においては、方法は、モバイルデバイスのカメラにて、モバイルデバイスが、第1のポジションにいる間、オブジェクトの第1のイメージを、キャプチャリングすること、および、モバイルデバイスが、第2のポジションにいる間、オブジェクトの第2のイメージを、キャプチャリングすること、を含んでいる。方法は、モバイルデバイスの少なくとも1つのモーションセンサーによる出力データに基づき、第1の位置から第2の位置へのモバイルデバイスの動きを決定することを含んでいる。方法は、第1のイメージ、第2のイメージ、およびモバイルデバイスの決定された動きに基づき、オブジェクトの3次元(3D)モデルを計算することも含んでいる。
[0011] 特定の具体例においては、装置は、第1のポジションの間、オブジェクトの第1のイメージを捕えるように、第2のポジションの間、オブジェクトの第2のイメージを捕えるように構成されたカメラを含んでいる。装置は、少なくとも1つのモーションセンサー、プロセッサおよびプロセッサにより実行可能な命令を記憶しているメモリを含んでいる。命令は、少なくとも1つのモーションセンサにより出力されたデータに基づき、第1の位置から第2の位置までカメラの動きを決定するために、および、第1のイメージ、第2のイメージ、およびカメラの決定された動きに基づき、オブジェクトの3次元(3D)モデルを計算するために実行可能である。
[0012] 特定の具体例において、方法は、少なくとも1つのモーションセンサから受信されたデータに基づき、第1の位置から第2の位置までのモバイルデバイスの動きを、決定することを含んでいる。方法は、モバイルデバイスの第1の位置からのオブジェクトの第1の視野に対応したオブジェクトの第1のイメージに基づき、さらに、モバイルデバイスの第2の位置からのオブジェクトの第2の視野に対応したオブジェクトの第2のイメージに基づき、さらに、モバイルデバイスの動きに基づき、オブジェクトの3次元(3D)モデルを計算することもまた含んでいる。
[0013] 特定の具体例において、装置は、少なくとも1つのモーションをセンスするための手段から受信されたデータに基づき、第1の位置から第2の位置までのモバイルデバイスの動きを、決定するための手段を含んでいる。装置は、モバイルデバイスの第1の位置からのオブジェクトの第1の視野に対応したオブジェクトの第1のイメージに基づき、さらに、モバイルデバイスの第2の位置からのオブジェクトの第2の視野に対応したオブジェクトの第2のイメージに基づき、さらに、モバイルデバイスの動きに基づき、オブジェクトの3次元(3D)モデルを計算する手段もまた含んでいる。
[0014] 特定の具体例において、一時的でないコンピュータ可読媒体は、プロセッサにより実行されたときに、少なくとも1つのモーションセンサから受信されたデータに基づき、第1の位置から第2の位置までのモバイルデバイスの動きを、決定することをプロセッサに引き起こす命令を含んでいる。命令は、さらにモバイルデバイスの第1の位置からのオブジェクトの第1の視野に対応したオブジェクトの第1のイメージに基づき、さらに、モバイルデバイスの第2の位置からのオブジェクトの第2の視野に対応したオブジェクトの第2のイメージに基づき、さらに、モバイルデバイスの動きに基づき、オブジェクトの3次元(3D)モデルを計算することも実行可能である。
[0015] 本開示の他の態様、利点、および特徴が、下記のセクション:図面の簡単な説明、発明を実施するための形態、および特許請求の範囲、を含む本願全体のレビュー後に明らかになるであろう。
[0016] 第1図は、モーションセンサデータに基づき3Dモデルを計算するように構成された、モバイルデバイスを含むシステムの特定の具体例の図である; [0017] 図2は、図1のモバイルデバイスの特定の実例となる具体例の図である; [0018] 図3は、図1のモバイルデバイスの他の特定の実例となる具体例の図である; [0019] 図4は、図1のモバイルデバイスの他の特定の実例となる具体例の図である; [0020] 図5は、モーションセンサデータに基づく3Dモデルを計算する方法の特定の具体例を説明しているフロー図である; [0021] 図6は、モーションセンサデータに基づく3Dモデルを計算する方法の他の特定の具体例を説明しているフロー図である; [0022] 図7は、モーションセンサデータに基づく特徴点基準復元技術(feature point-based reconstruction technique)(例えばバンドル調整技術(bundle adjustment technique))による3Dモデルを計算する方法の特定の具体例を説明しているフロー図である; [0023] 図8は、モーションセンサデータに基づくシルエット基準復元技術(例えば視覚外殻構造技術(visual hull technique))による3Dモデルを計算する方法の特定の具体例を説明しているフロー図である; [0024] 図9は、モーションセンサデータに基づくシルエット基準復元技術(silhouette-based reconstruction technique)(例えば視覚外殻構造技術(visual hull technique))による3Dモデルを計算する方法の他の特定の具体例を説明しているフロー図である; [0025] 図10は、図1のモバイルデバイスの他の特定の実例となる具体例の図であり、ここで、モバイルデバイスは、モーションセンサデータに基づく特徴点基準復元技術(feature point-based reconstruction technique)(例えばバンドル調整技術(bundle adjustment technique))による3Dモデルを計算するように構成されている。 [0026] 図11は、図1のモバイルデバイスの他の特定の実例となる具体例の図であり、ここで、モバイルデバイスは、モーションセンサデータに基づくシルエット基準復元技術(silhouette-based reconstruction technique )(例えば視覚外殻構造技術(visual hull technique ))による3Dモデルを計算するように構成されている。
[0027] 図1を参照し、システムの特定の具体例の図が、概して100に指定され、開示されている。システム100は、オブジェクト130のような1または複数のオブジェクトの、1または複数のイメージ(例えば第1のイメージ120と第2のイメージ122)をキャプチャするように構成された、カメラ108を含むモバイルデバイス102を含んでいる。モバイルデバイス102はさらに、1または複数のモーションセンサ104、1または複数の記憶デバイス106、および3Dモデラー110を含んでいる。3Dモデラー110は、さらに下述するようにハードウェアを用いて、コンピュータ可読な有形の媒体に保存されたプロセッサ実行可能な命令を、またはそれらの組み合わせを用いて実装され得る。
[0028] オブジェクト130は、オブジェクト130の頂点、オブジェクト130の土台、オブジェクト130のハンドル、オブジェクト130における文字列または画像、オブジェクト130のカーブ、オブジェクト130の1または複数の他の目立つ点、またはこれらの任意の組み合わせのような、1または複数の特徴点を含み得る。図1は、モバイルデバイス102が、2つのポジションにいたときの、カメラ108によりキャプチャされた、オブジェクト130の120、122の2つのイメージを表しているが、モバイルデバイス102の複数のポジションに対応したオブジェクト130の複数のイメージがカメラ108により、キャプチャされ得ることは、注目されるべきである。
[0029] カメラ108は、モバイルデバイス102の複数のポジションでオブジェクト130のイメージをキャプチャするように構成され得る(例えば、座標システムまたは、最初のポジションに対して異なる角度および/または、回転)。例えば、カメラ108は、モバイルデバイス102(およびカメラ108)が、第1のポジション(例えばオブジェクト130の第1の視界140)に位置するとき、オブジェクト130の第1のイメージ120をキャプチャし得、および、カメラ108は、モバイルデバイス102(およびカメラ108)が、第2のポジション(例えばオブジェクト130の第2の視界150)に位置するとき、オブジェクト130の第2のイメージ122をキャプチャし得る。少なくとも1つの具体例において、第1の視点140と第2の視点150に対応したイメージデータは、1または複数の記憶デバイス106に保存され得る。
[0030] 1つまたは複数のセンサ104は、モバイルデバイス102の場所を示すモーションセンサデータを、発生するように構成され得る(例えば、モバイルデバイス102の最初のポジションに対する、または座標システムに対するモバイルデバイス102の回転および/または、移動)。例えば、1つまたは複数のモーションセンサ104は、第1のイメージ120をキャプチャしているカメラ108と同時に、モーションセンサデータ112を、発生するように構成され得る。他の例として、1つまたは複数のモーションセンサ104は、第2のイメージ122をキャプチャしているカメラ108と同時に、モーションセンサデータ114を、発生するように構成され得る。少なくとも1つの具体例において、モバイルデバイス102は、さらに下述されたように、モーションセンサデータ112、114を用い、さらに、イメージ120,122に関するイメージデータを用い、オブジェクト130の3Dモデル116を発生するために、3Dモデラー110を使用する。
[0031] 動作中に、モバイルデバイス102は、カメラ108の第1の視点140に基づくカメラ108を介し、オブジェクト130の第1のイメージ120をキャプチャし得る。モバイルデバイス102は、第2のポジション(例えばモバイルデバイス102のユーザの動きによる)に移動し得、カメラ108の第2の視点150に基づくカメラ108を介し、オブジェクト130の第2のイメージ122をキャプチャし得る。モバイルデバイス102の1つまたは複数のセンサ104は、第1のポジションから第2のポジションへのモバイルデバイス102の移動の決定を可能にするモバイルデバイス102のモーションデータに対応したモーションセンサデータ112、114を出力し得る。モーションセンサデータ112、114は、モバイルデバイス102の回転および並進運動を示し得る。
[0032] 説明のため、モバイルデバイス102が第1のポジションに位置するとき、3Dモデラー110は、第1のイメージ120に対応したデータ受信し得、さらに、1つまたは複数のモーションセンサ104により出力されたモーションセンサデータ112を受信し得る。同様に、モバイルデバイス102が、第2のポジションに位置するとき、3Dモデラー110は、第2のイメージ122に対応したデータ受信し得、さらに、1つまたは複数のモーションセンサ104により出力されたモーションセンサデータ114を受信し得る。モーションセンサデータ114は、第1のポジションから第2のポジションへのモバイルデバイス102の移動情報を示し得る。例えば、モーションセンサデータ114は、第1のポジションから第2のポジションへのモバイルデバイス102の回転および並進に対応した、モバイルデバイス102の回転および並進マトリクス(rotational and translational matrices)を含み得る。他の例として、モーションセンサデータ112、114は、モバイルデバイス102の回転および並進マトリクスの発生を可能にする情報を提供し得る。モーションセンサデータ112、114は、さらに下述するように、1つまたは複数のモーションセンサ104から取得された「カメラポーズ」マトリクス(“camera pose” matrix)を含みまたは示し得る。
[0033] 説明目的のため、無制限に、例示の動作は、オブジェクト130の3Dモデル116を発生するためにイメージ120、120に対応したデータおよびモーションセンサデータ112、114を使用した3Dモデラー110に供給される。特定の例において、3Dモデラー110は、1つまたは複数のモーションセンサ104により供給されたモーションセンサデータ114に基づくバンドル調整式
Figure 0006199313
を計算により3Dモデル116を発生するように構成されている。そのような具体例によると、およびさらに下述するように、3Dモデラー110は、計算に基づきオブジェクト130の3D特徴点を出力し得る。3D特徴点の出力は、オブジェクト130の3Dモデルに対応している。特定の具体例において、バンドル調整式を計算することは、1つまたは複数のモーションセンサ104データ出力および、第1の推定された再射影されたイメージポイント、第2の推定された再射影されたイメージポイントの機能に基づきオブジェクト130の特徴点を決定することを含み得る。例えば、バンドル調整式を計算することは、オブジェクト130の1つまたは複数の特徴点(X)および第1のポジション(すなわちP)の第1の推定の結果に基づきオブジェクト130の第1の推定された再射影されたイメージポイントを決定することを含み得る(すなわちPを計算すること)。バンドル調整式を計算することは、オブジェクト130の1つまたは複数の特徴点(X)および第2のポジション(すなわちP)の第2の推定の結果に基づきオブジェクトの第2の推定された再射影されたイメージポイントを決定すること(すなわちPを計算すること)もまた含み得る。バンドル調整式を計算することは、第1の推定された再射影されたイメージポイントと第1のイメージ120におけるオブジェクト130の座標の間の第1のユークリッド距離の平方を決定すること(すなわち
Figure 0006199313
を計算すること)および、第2の推定された再射影されたイメージポイントと第2のイメージ122におけるオブジェクト130の座標の間の第2のユークリッド距離の平方を決定すること(すなわち
Figure 0006199313
を計算すること)もまた含み得る。バンドル調整式を計算することは、第1のユークリッド距離の平方、および第2のユークリッド距離の平方の合計を減少する、または「最小化」するために、3Dモデル116の推定を修正することを含み得る(すなわち
Figure 0006199313
を「最小化」すること)。第1のポジションの第1の推定Pは、平方の合計をさらに減少するために、修正され得る。しかしながら、第1のポジションの第1の推定Pは、Pi+1=βPとなるように制限され、ここで、βは、回転マトリクス(rotation matrix)Rおよび/または変換マトリクス(transformation matrix)Tのような、カメラのポーズ情報を指している。例えば、少なくとも1つの具体例では、β=[R|T] である。P...Pを制限することにより、特徴点を発生することの複雑さは大いに軽減され得る。ユークリッド距離関数は、前述の例との関係において示されるが、他の距離関数が利用されていることは、注目されるべきである。例えばd(・)は、イメージにおける、測定された特徴座標と射影された特徴座標間の距離または開きを測定する任意の他のメトリックまたは、幾何学的な距離のような距離関数を表している。
[0034] カメラのポーズ情報は、技術の種類により決定され得る。説明のため、1つまたは複数の特徴点Xの少なくとも1つが、カメラ108によりキャプチャされたNのイメージ(例えば第一のイメージ120と第2イメージ122)において「一致した」(例えば判明された)と仮定する。一致した特徴点は、mとして示され得、ここで(i=1,...N)につきm=[x,y,1]である。一致した特徴点は、mは、空間ポジションM=[XYZ1]と関連している。スケーリング因子μに対し,μ[x,y,1]T=PM、i=1,...,N≧2に対し、ここでP=K[R|T]はi番目のカメラ射影マトリクスでKは、i=1,...Nに対するモバイルデバイス102のi番目のカメラ(例えばカメラ108のマルチカメラの具体例に対し、それは、明瞭な説明のため図1からは削除されている)の上三角較正マトリクス(upper triangular calibration matrix)(例えば3×3上三角較正マトリクス)である。上三角較正マトリクス(upper triangular calibration matrix)Kiは、同じカメラでキャプチャされたイメージに対してと同様であり得る(例えば、モバイルデバイス102の一つのカメラの具体例に対するように、カメラ108が、N個のイメージのそれぞれをキャプチャするのに使用されたとき)。[R|T]は、i番目のカメラに関する、相対ポーズマトリクス(relative pose matrix)であり得る。それ故、
Figure 0006199313
[0035] ここで、P は、i番目のカメラの投影マトリクスのj番目の列で、3つの未知数(X,Y,Z)を伴うAM=0は、2N個の同次方程式(homogeneous equations)のセットである。全てのカメラ射影マトリクスは知られ得、Nは2と等しいか超える数であり得るので、方程式は、最小二乗解(least squares solution)を持ち得、それは、代数的な再射影誤差(algebraic reprojection error)の最小化を可能にし得る。
[0036] 以下の記述に対応するバンドル調整技術は、3Dモデル116の計算的に効率的な決定および簡易化を可能にするためにカメラポーズデータ(例えばモーションセンサデータ112、114)を利用し得ることは理解されるべきである。従来のアプローチ(例えばモーションセンサ情報を利用しないバンドル調整計算)は、幾何学的な誤差を「最小化する」ための非線形解によるような、計算的に集中的な「最小二乗解(least squares solution)」の支配を受け得る。
[0037]
Figure 0006199313
[0038] 図2は、モバイルデバイス102の特定の実例となる具体例を描写している。図2のモバイルデバイス102は、1つまたは複数のモーションセンサ104、1つまたは複数のストレージデバイス106、カメラ108および3Dモデラー110を含んでいる。
[0039] 図2の特定の具体例において、1つまたは複数のストレージデバイス106は、3Dモデル116を発生するために3Dモデラー110に使用されるため、3D復元データ202を記憶している。3D復元データ202は、モーションセンサデータ112、114を含み得、および、さらにそれぞれ図1の第1のイメージ120および図1の第2のイメージ122に対応した第1のイメージデータ220および第2のイメージデータ222を含み得る。3Dモデル116は、モバイルデバイス102のディスプレイに表示され得る(図2に不示)。
[0040] 特定の実例となる具体例によると、図2のイメージデータ220、220は、ユーザの入力への応答において個別にキャプチャされている各画像であるが、画像のシーケンスに対応している(例えば、ビデオシーケンスの一部でなく、および、ユーザにより「手動」によってキャプチャされた「スチル」または「スナップショット」画像)。少なくとも一つの具体例において、図2の例は、ユーザが使用しているカメラ108によりキャプチャされたスチル画像に基づく、3Dモデル116のような3Dモデルをユーザに発生させることを可能にするモバイルデバイス102の適用とのつながりにおいて使用され得る。さらなる具体例によると、およびさらに下記に論じられるように、イメージデータ220、222は、ビデオフレームシーケンスのビデオフレーム対応し得る(例えば、「自動的に」周期的にキャプチャされたシーケンシャルなスチルイメージ)。
[0041] 図3は、図1を参照して描かれたモバイルデバイス102他の特定の実例となる具体例を表現している。図3のモバイルデバイス102は、1つまたは複数のモーションセンサ104、1つまたは複数のストレージデバイス106、カメラ108、3Dモデラー110およびディスプレイ320を含んでいる。図3の3Dモデラー110は、シンクロナイザ308を含んでいる。図3の1つまたは複数のストレージデバイス106は、モーションセンサデータバッファ306およびビデオフレームバッファ304を含んでいる。随意に、図3のモバイルデバイス102は、メインメモリ310を含み得る。
[0042] 動作において、カメラ108は、ビデオフレームシーケンス302をキャプチャし得る。ビデオフレームバッファ304は、カメラ108に応答し得、ビデオフレームシーケンス302の1つまたは複数のビデオフレームを保存するように構成され得る。例えば、図3の例において、イメージデータ220、222は、ビデオフレームシーケンス302のビデオフレームに対応している。モーションセンサデータバッファ306は、1つまたは複数のモーションセンサ104に応答し得る。モーションセンサデータバッファ306は、モーションセンサデータ112、114を記憶し得る。
[0043] シンクロナイザ308は、モーションセンサデータバッファ306からのデータに関して、ビデオフレームバッファ304からのデータを同期し得る。例えば、シンクロナイザ308は、第1のモーションセンサデータ112と第1のイメージデータ220を同期し得、更に第2のモーションセンサデータ114と第2のイメージデータ222を同期し得る。少なくとも第1の技術によると、シンクロナイザ308は、イメージデータ220、222と関連するタイムスタンプとモーションセンサデータ112、114と関係があるタイムスタンプとの比較によるように、タイムスタンプを比較することにより、モーションセンサデータバッファ306からのデータに関してビデオフレームバッファ304からのデータを同期する。少なくとも第2の技術によると、シンクロナイザ308は、定期的に、ビデオフレームバッファ304からのおよびモーションセンサデータバッファ306からのデータにアクセスする。少なくとも第3の技術によると、シンクロナイザ308は、モバイルデバイス102の動きに反応し(例えば、1つまたは複数のモーションセンサ104反応する)、検出された動作への応答において、ビデオフレームバッファ304からの、およびモーションセンサデータバッファ306からのデータを引き出す。更なる技術は、1つまたは複数の第1の技術、第2の技術、および第3の技術の組み合わせを利用し得る。随意に、ビデオフレームバッファ304によるデータ出力は、ビデオフレームシーケンス302を含むビデオファイル312として、メインメモリ310において記憶され得る。
[0044] 理解されるように、メインメモリ310の代わりに「一時的な」ストレージからデータ引き出すことにより(例えば図3のモーションセンサデータバッファ306およびビデオフレームバッファ304)、3Dモデラー110は「急いで」動作し得る。例えば、3Dモデラー110は、3Dモデル116を発生し得、モバイルデバイス102は、キャプチャされたビデオフレームシーケンス302と同時に、または実質的に同時に、ディスプレイ320において3Dモデル116を表示し得る。ここで使われているように、「急いで」「同時に」および「実質的に同時に」は、ユーザが同時に起こっていると把握するオブジェクトの3Dモデルの発生とキャプチャされたオブジェクトの視野との間の関係を参照する。
[0045] それ故、図3に関連して説明された例は、3Dモデル116の「急いで」の発生に対応し得る。例えば、ユーザは、オブジェクトについてのモバイルデバイス102を移動させるので(図1のオブジェクト130のように)、3Dモデラー110は、「自動的」に、3Dモデル116を繰り出し得、それはユーザの動きと同時に、ディスプレイ320において表示される。さらなる具体例によると、さらに下記に論じるように、1つまたは複数の具体例が、ビデオフレームシーケンスとモーションセンサデータに基づく非同時な3Dモデルの発生を可能にし得る。
[0046] 図4は、図1を参照して描かれたモバイルデバイス102の他の特定の実例となる具体例を表現している。図4のモバイルデバイス102は、1つまたは複数のモーションセンサ104、1つまたは複数のストレージデバイス106、カメラ108、3Dモデラー110、ビデオフレームバッファ304、およびディスプレイ320を含んでいる。
[0047] 動作において、1つまたは複数のモーションセンサ104は、モーションセンサデータ112、114を発生し得、それは、1つまたは複数のストレージデバイス106において記憶され得る。カメラ108は、ビデオフレームシーケンス302をキャプチャし得、それは、ビデオフレームシーケンス302と関係がある「プレビュー」特性との関連におけるように、ビデオフレームバッファ304において、一時的に記憶され得、およびディスプレイ320において表示され得る。例えば、ビデオフレームシーケンス302は、1つまたは複数のストレージデバイス106において記憶されているビデオフレームシーケンス302(例えばイメージデータ220、222として)に先んじて、および/または3Dモデル116を発生している3Dモデラー110に先んじて、ディスプレイ320に表示され得る。
[0048] それ故、図4の特定の具体例において、3Dモデラー110は、「ポストプロセシング」技術によれば、3Dモデル116を発生し得る。例えば、3Dモデル116は、カメラ108によりキャプチャされたビデオフレームシーケンス302と同時に表示および発生させられないので、ディスプレイ320は、そのかわりにカメラ108によりキャプチャされたイメージの「プレビュー」を見せ得る。さらに、ディスプレイ320は、カメラポジションに対するユーザの命令を表示し得る(例えば、見られるオブジェクトとの関係でカメラがホールドされるべきポジションおよび/または角度)。3Dモデル116は、その後、1つまたは複数のストレージデバイス106にアクセスすることにより、3Dモデラー110により発生させられ、それは、図3との関係で表現されているメインメモリ310のような「メインメモリ」であり得る。
[0049] 図5に関して、モーションセンサデータに基づいて、3Dモデルを計算する方法の特定の具体例を説明している図が、概して500に指定され、開示されている。方法500は、モバイルデバイスが、502における第1のポジションにいる間、オブジェクトの第1のイメージをモバイルデバイスのカメラにおいてキャプチャすること、および、モバイルデバイスが、504における第2のポジションにいる間、オブジェクトの第2のイメージをキャプチャすること、を含む。例えば、カメラ108は、モバイルデバイス102が、第1のポジションにいる間、オブジェクト130の第1のイメージ120をキャプチャし得、およびカメラ108は、モバイルデバイス102が、第2のポジションにいる間、オブジェクト130の第2のイメージ122をキャプチャし得る。第1のイメージ120は、第1のポジションにいる間、カメラ108によりキャプチャされたものとしてオブジェクト130の第1の視点140に対応し得、第2のイメージ122は、第2のポジションにいる間、カメラ108によりキャプチャされたものとしてオブジェクト130の第2の視点150に対応し得る。
[0050] 方法500は、さらに、506において、第1のポジションから、第2のポジションへのモバイルデバイスの動きを、モバイルデバイスの少なくとも1つのモーションセンサにより出力されたデータに基づき決定することを含む。例えば、1つまたは複数のモーションセンサ104は、モバイルデバイス102のモーション情報に対応したモーションセンサデータ112、114を出力し得る。特定の具体例において、モーション情報は、第1のポジションから、第2のポジションへのモバイルデバイス102の回転および並進を含み得る。説明のため、1つまたは複数のモーションセンサは、第1のポジションに対応したモバイルデバイス102の第1の回転および/または並進マトリクスおよび、第2のポジションに対応したモバイルデバイス102の第2の回転および/または並進マトリクスを提供し得る。少なくとも1つの具体例において、モバイルデバイスの第1のポジションは、「基準」ポジションとして使用され、第2のポジションは、それに応じて、モバイルデバイスのポジションにおける変化を示す。他の具体例によると、他のポジション(例えば前回のポジション、または、あらかじめ定められた座標システムに対応したポジション)が、「基準」ポジションとして使用され、第1のポジション、第2のポジション両方が、モバイルデバイスのポジションにおける変化を各、表示する。
[0051] 方法500は、508において、モバイルデバイスの決定された動きおよび第1のイメージ、第2のイメージに基づきオブジェクトの3Dモデルを計算することも含む。例えば、特徴点基準復元技術(feature point-based reconstruction technique)によれば、および少なくとも図1への言及に記述されたように、3Dモデラー110は、第1のイメージ120と第2のイメージ122に基づく、オブジェクト130の特徴点を計算し得る。特定の具体例において、3Dモデラー110は、第1のイメージ120、第2のイメージ122および、1つまたは複数のモーションセンサ104により供給されるモーションセンサデータ114に基づくバンドル調整式(bundle adjustment expression)
Figure 0006199313
を計算するように構成され得る。更なる具体例によれば、および、さらに下記に表現されたように、3Dモデルは、シルエット基準技術(silhouette-based technique )(例えば視覚外殻構造技術(visual hull technique))により計算され得る。
[0052] 図6を参照し、モーションセンサデータに基づく3次元(3D)モデルを計算する方法の他の特定の具体例を説明している図が、概して600に指定され、開示されている。方法600は、602において第1のポジションから第2のポジションへのモバイルデバイスの動きを、少なくとも1つのモーションセンサから受信したデータに基づき、決定することを含んでいる。データ、少なくとも1つのモーションセンサ、およびモバイルデバイスは、モーションセンサデータ112、114、1つまたは複数のモーションセンサ104およびモバイルデバイス102に、それぞれ対応し得る。
[0053] 方法600は、604において、さらに、モバイルデバイスの第1のポジションからオブジェクトの第1の視点に対応するオブジェクトの第1のイメージに基づき、さらに、モバイルデバイスの第2のポジションからオブジェクトの第2の視点に対応するオブジェクトの第2のイメージに基づき、さらに、モバイルデバイスの動きに基づき、オブジェクトの3Dモデルを計算することを含む。例えば、カメラ108は、モバイルデバイス102が、第1のポジションに位置する間、オブジェクト130の第1のイメージ120をキャプチャし得、カメラ108は、モバイルデバイス102が、第2のポジションに位置する間、オブジェクト130の第2のイメージ122をキャプチャし得る。第1のイメージ120は、第1のポジションに位置する間、カメラ108によりキャプチャされるようにオブジェクト130の第1の視点140に対応し得、第2のイメージ122は、第2のポジションに位置する間、カメラ108によりキャプチャされるようにオブジェクト130の第2の視点150に対応し得る。
[0054] 図7を参照し、モーションセンサデータに基づく特徴点基準復元技術(feature point-based reconstruction technique )(例えばバンドル調整技術(bundle adjustment technique))による3Dモデルを計算する方法の特定の具体例を説明しているフロー図は、表現され、概して700に指定されている。方法700は、702において、モバイルデバイス(例えばモバイルデバイス102)のカメラ(例えばカメラ108)を用いて、オブジェクト(例えばオブジェクト130)のイメージ(例えばイメージ120,122)をキャプチャすることを含んでいる。
[0055] 704において、方法700は、1つまたは複数のモーションセンサを用い(例えば1つまたは複数のモーションセンサ104)モーションセンサデータ(例えばモーションセンサデータ112、114)を決定することを含んでいる。706において、イメージの1つまたは複数の特徴点が一致し、および、708において、1つまたは複数の一致した特徴点のそれぞれの3Dロケーションが決定される。1つまたは複数の特徴点および、1つまたは複数の一致した特徴点のそれぞれの3Dロケーションを決定することは、少なくとも図1を参照して上記で説明したようにバンドル調整技術(bundle adjustment technique)のような、任意の適切な技術を使用して実行され得る。
[0056] 710において、オブジェクトの3Dモデルは、1つまたは複数の一致した特徴を用いて発生させられる(例えばバンドル調整技術(bundle adjustment technique)により)。少なくとも1つの具体例において、図7の方法700は、少なくとも図10を参照して、さらに表現されたようにモバイルデバイス102のプロセッサを用いて実行される。
[0057] 図8を参照して、モーションセンサデータに基づくシルエット基準復元技術(silhouette-based reconstruction technique)(例えば視覚外殻構造技術(visual hull technique))により3Dモデルを計算する方法の特定の具体例を説明しているフロー図が、概して800に指定され、表現されている。方法800は、802において、モバイルデバイス(例えばモバイルデバイス102)のカメラ(例えばカメラ108)を用いて、オブジェクト(例えばオブジェクト130)のイメージ(例えばイメージ120,122)をキャプチャすることを含んでいる。
[0058] 804において、モバイルデバイスの1つまたは複数のモーションセンサを用い(例えば1つまたは複数のモーションセンサ104)モーションセンサデータ(例えばモーションセンサデータ112、114)は決定される。806において、イメージのそれぞれにおけるオブジェクトのシルエットは、発生させられる。方法800は、808において、オブジェクトのシルエット基準モデルを発生することを、810において、シルエット基準モデルに基づいた3Dモデルを発生することを、さらに含んでいる。シルエット基準復元技術(silhouette-based reconstruction technique)の特定の例が、図9を参照して、表わされている。
[0059] 図9を参照して、モーションセンサデータに基づくシルエット基準復元技術(例えば視覚外殻構造技術)により3Dモデルを計算する方法の他の特定の具体例を説明しているフロー図が、概して900に指定され、表現されている。方法900は、902において、第1の視点の各画素をモバイルデバイス(例えばモバイルデバイス102)によりスキャンすること、および視野方向に基づき光線Rを投影することを含んでいる。904において、光線Rは、1つまたは複数の参照イメージに投影され、インターバルIは、インターバルIが、イメージのそれぞれのシルエットに交差するように見いだされる。
[0060] 906において、モバイルデバイスのポジションにおける変化(change in position)(例えば第1のポジションから第2のポジションへの)を示しているモーションセンサデータ(例えばモーションセンサデータ112、114)は、少なくとも1つのセンサを経由して(例えば1つまたは複数のモーションセンサ104を経由して)決定される。少なくとも1つの具体例において、906において決定されたモーションセンサデータは、902において1つまたは複数の参照イメージに光線Rを投影するために使用される。方法900は、さらに、908において、3DインターバルLとして知られたカメラ射影Pを用いて、もとの3Dスペースの中にインターバルIを射影することを含んでいる。知られたカメラ射影Pは、モーションセンサデータから由来し得る。方法900はさらに、910において、重なっているLから、いちばん深い(例えば一番短い)(innermost)交点Qを選択することを含んでおり、ここで、Qは、構成されるべき3Dモデルの表面のポイントに対応したエンドポイントを持つ最後の3Dインターバルである。914において、閾値Nより交点Qの数が少ないことに応じて、他の光線または視点が加えられる。閾値Nを満足するQの数が満足することに応じて、3Dモデル(例えば3Dモデル116)は、交点Qを用いて発生される。図8の方法800、図9の方法900、またはこれらの組み合わせは、少なくとも図11を参照して、さらに記述されるように、モバイルデバイス102のプロセッサを用いて実行され得る。
[0061] 図10は、モバイルデバイス102の他の特定の実例となる具体例の図であり、ここでモバイルデバイス102は、モーションセンサデータに基いた特徴点基準復元技術(feature point-based reconstruction technique)(例えばバンドル調整技術(bundle adjustment technique))によって3Dモデルを計算するように構成されている。図10のモバイルデバイス102は、1つまたは複数のモーションセンサ104およびメモリ1032に接続された、プロセッサ1010のような、プロセッサを含んでいる。1つまたは複数のモーションセンサ104は、また、メモリ1032に接続され得る。
[0062] メモリ1032は、コンピュータ可読な、データ(例えばモバイルデバイス102のモーションセンサデータ)、命令、またはそれらの組み合わせを記憶する非一時的な媒体であり得る。特定の具体例において、メモリ1032は、モバイルデバイス102の1つまたは複数の機能を実行するための、プロセッサ1010を引き起こすため、プロセッサ1010により実行され得る命令1054を含み得る。例えば、命令1054は、ユーザアプリケーション、オペレーティングシステムまたは他の実行可能な命令またはそれらの組み合わせを含み得る。命令1054は、1つまたは複数のモーションセンサ104により決定されるモーションセンサデータ(例えばモーションセンサデータ112、114)に基づき、モバイルデバイス102の動きを決定することのような、ここに記載されたように、1つまたは複数の動作を実行するためのプロセッサ1010を引き起こすため、プロセッサ1010により実行可能であり得る。少なくとも1つの具体例において、メモリ1032は、図3を参照して、記述されるように、メインメモリ310のような「メインメモリ」である。代替としてまたは加えて、メモリ1032は、1つまたは複数のストレージデバイス106、モーションセンサデータバッファ306、ビデオフレームバッファ304またはそれらの組み合わせを含み得る。
[0063] プロセッサ1010は、3Dモデラー110を含み得る。例えば、3Dモデラー110は、プロセッサ1010のハードウェアコンポーネント、プロセッサ1010にて実行され得る命令のセット(メモリ1032において記憶された命令、またはそれらの組み合わせであり得る。図10の特定の具体例において、3Dモデラー110は、特徴点発生器1092を含み、それは特徴点基準復元技術(feature-point based reconstruction technique)に関連したオブジェクトのキャプチャされたイメージ(例えば図1の第1のイメージ120および第2のイメージ122)の特徴点1094を決定し得る。3Dモデラー110は、特徴点1094に基づいた3Dモデル116を発生し得る。
[0064] 図10は、イメージ120,122および/または3Dモデラー110により処理されるビデオデータを提供し得るカメラコントローラ1090に接続されたカメラ108を説明している。カメラコントローラ1090は、プロセッサ1010ディスプレイコントローラ1026に接続され得る。カメラ108は、ビデオカメラ、非ビデオカメラ、単数のカメラ、複数のカメラ(例えばステレオカメラ)または、それらの組み合わせであり得る。
[0065] 図10は、ディスプレイコントローラ1026が、プロセッサ1010およびディスプレイ320に接続され得ることを示す。コーダ/デコーダ(コーデック(CODEC))1034(例えばオーディオおよび/またはボイスコーデック(voice CODEC)は、プロセッサ1010に接続され得る。スピーカ1036およびマイクロホン1038が、コーデック(CODEC)1034に接続されうる。図10は、ワイヤレスコントローラ1040が、プロセッサ1010およびワイヤレスアンテナ1042に接続されているトランシーバ1050に接続され得ることも示している。特定の具体例において、プロセッサ1010、1つまたは複数のモーションセンサ104、カメラコントローラ1090、ディスプレイコントローラ1026、メモリ1032、コーデック(CODEC)1034、ワイヤレスコントローラ1040、トランシーバ1050はシステムインパッケージ(system-in-package)またはシステムオンチップ(system-on-chip)デバイス1022に含まれる。
[0066] 特定の具体例において、入力デバイス1030および電源1044が、システムオンチップ(system-on-chip)デバイス1022に接続される。さらに、特定の具体例において、図10において説明されるように、ディスプレイ320、カメラ108、入力デバイス1030、スピーカ1036、マイクロホン1038、ワイヤレスアンテナ1042および電源1044は、システムオンチップ(system-on-chip)デバイス1022の外付けとなる。しかしながら、ディプレイ320、入力デバイス1030、スピーカ1036、マイクロホン1038、ワイヤレスアンテナ1042、および電源1044の各々は、インタフェースまたはコントローラなどの、システムオンチップ(system-on-chip)デバイス1022のコンポーネントに接続されうる。しかしながら、1つまたは複数のモーションセンサ104は、システムオンチップ(system-on-chip)デバイス1022に含まれるものとして説明され、他の具体例において、1つまたは複数のモーションセンサ104は、システムオンチップ(system-on-chip)デバイス1022の外付けおよび、システムオンチップ(system-on-chip)デバイス1022に接続され得る。
[0067] 図11は、モバイルデバイス102の他の特定の実例となる具体例の図であり、ここで、モバイルデバイス102は、モーションセンサデータに基づきシルエット基準復元技術(silhouette-based reconstruction technique)(例えば視覚外殻構造技術(visual hull technique))により3Dモデルを計算するように構成されている。図11のあるモバイルデバイス102の特徴とコンポーネントは、プロセッサ1010、1つまたは複数のモーションセンサ104、カメラコントローラ1090、ディスプレイコントローラ1026、メモリ1032、命令1054、コーデック(CODEC)1034、ワイヤレスコントローラ1040、トランシーバ1050、システムインパッケージ(system-in-package)またはシステムオンチップ(system-on-chip)デバイス1022、ワイヤレスアンテナ1042、入力デバイス1030、ディスプレイ320、カメラ108、スピーカ1036、マイクロホン1038および電源1044のような、概して、図10のモバイルデバイス102に関連して表現され得る。しかしながら、図11の3Dモデラー110は、例えば、視覚外殻構造技術(visual hull technique)との関係で、シルエット1194を発生するための、シルエット発生器(silhouette generator)1192を、含んでいる。シルエット1194は、3Dモデル116を発生するために3Dモデラー110により使用され得る。
[0068] 本開示は、説明の簡易化のために、モバイルデバイス(例えばモバイルデバイス102)との関連で、表現されているが、ここに説明された機能性は、他のデバイスを用いて実装され得ることを、理解されるべきである。例えば、図10と11のプロセッサ1010およびメモリ1032は、マルチメヂィアプレーヤ、娯楽ユニット、ナビゲーションデバイス、パーソナルデジタルアシスタント(personal digital assistant (PDA))、固定位置データユニット(fixed location data unit)またはコンピュータ(例えばタブレットコンピュータ、ラップトップコンピュータ、デスクトップコンピュータなど)、メディアデバイス、ワイヤレスでデータを通信するように構成された他のデバイス、またはそれらの組み合わせに集積され得る。さらに、説明の便利のため、様々な技術(例えば、特徴点基準(feature point-based)およびシルエット基準復元技術(silhouette-based reconstruction techniques)のような、復元技術)が離れて表現されてきたが、1つまたは複数のそのような技術(またはそれらの要素)は結合され得る。
[0069] 説明された具体例と連結して、第1のポジションから第2のポジションへのモバイルデバイスの動きを、動作をセンスするための少なくとも1つの手段から受信したデータに基づき、決定するための手段を含む装置が開示されている。例えば、決定するための手段は、図1−4,10,および11の3Dモデラー110、図10および11のプロセッサ1010、モバイルデバイスの動きを決定するように構成された1つまたは複数の他のデバイスまたは、それらの任意の組み合わせを含み得る。動作をセンスするための手段は、1つまたは複数のモーションセンサ104を含み得る。
[0070] 装置は、モバイルデバイスの第1のポジションからオブジェクトの第1の視点に対応するオブジェクトの第1のイメージに基づいた、さらにモバイルデバイスの第2のポジションからオブジェクトの第2の視点に対応するオブジェクトの第2のイメージに基づいた、さらにモバイルデバイスの動きに基づいたオブジェクトの3次元(3D)モデルを計算するための手段をさらに含む。例えば、3Dモデルを計算するための手段は、図1−4,10と11の3Dモデラー110、図10と11のプロセッサ1010、3Dモデルを計算するように構成された1つまたは複数の他のデバイス、またはそれらの組み合わせを含み得る。
[0071] 当業者はさらに、ここに開示された具体例に関連して表現された様々な実例となる論理ブロック、構成、モデル、回路、およびアルゴリズムステップは、電気的なハードウェア、コンピュータ可読な有形な媒体、記憶されたプロセッサで実行可能な命令、または両方の組み合わせに実装され得ることを理解すべきである。さまざまな例示的なコンポーネント、ブロック、構成、モジュール、回路、およびステップは、一般的にそれらの機能の観点から上述された。このような機能が、ハードウェアとして実装されるか、あるいはソフトウェアとして実装されるかは、特定のアプリケーションおよびシステム全体に課せられる設計制約に依存する。当業者は、各々の特定のアプリケーションのために、多様な方法で説明された機能を実装し得るが、このような実装の決定は、本開示の範囲からの逸脱を引き起こしていると解釈されるべきでない。
[0072] ここで開示された実施形態に関連して説明されたアルゴリズムまたは方法のステップは、直接ハードウェアにおいて、プロセッサによって実行されるソフトウェアモジュールにおいて、あるいは2つの組み合わせにおいて、具体化されうる。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、フラッシュメモリ、リードオンリーメモリ(ROM)、プログラマブルリードオンリーメモリ(PROM)、消去可能プログラマブルリードオンリーメモリ(EPROM)、電気的消去可能プログラマブルリードオンリーメモリ(EEPROM)、レジスタ、ハードディスク、リムーバブルディスク、コンパクトディスクリードオンリーメモリ(CD−ROM)、あるいは非一時的な記憶媒体の他の任意の形状に存在しうる。典型的な記憶媒体は、プロセッサがこの記憶媒体から情報を読み取り、またこの記憶媒体に情報を書き込むことができるように、プロセッサに結合される。代替において、記憶媒体は、プロセッサと一体化されうる。プロセッサおよび記憶媒体は、特定用途向け集積回路(ASIC)内に存在しうる。ASICは、計算デバイスまたはユーザ端末(例えば、モバイルフォンまたはPDA)内に存在しうる。代替において、プロセッサおよび記憶媒体は、ユーザ端末または計算デバイスに個別のコンポーネントとして存在しうる。
[0073] 開示された実施形態の先の説明は、開示された実施形態を製造および使用することを当業者に可能にするために提供される。これらの実施形態への種々の変更は、当業者にとって容易に明らかであり、ここに定義された原理は、本開示の範囲から逸脱することなく他の実施形態に応用されうる。したがって、本開示は、ここに開示された実施形態に制限されるようには意図されず、下記の特許請求の範囲によって定義されるような原理および新規な特徴と一致する最も広い範囲と一致すべきである。
なお、本願の出願当初の請求項と同一の記載を以下に付記する。
[C1]
モバイルデバイスが第1のポジションに位置する間に、オブジェクトの第1のイメージを前記モバイルデバイスのカメラにおいて、キャプチャすること、前記モバイルデバイスが第2のポジションに位置する間に、前記オブジェクトの第2のイメージをキャプチャすること、前記第1のポジションから前記第2のポジションへの前記モバイルデバイスの動きを、前記モバイルデバイスの少なくとも1つのモーションセンサにより出力されたデータに基づき、決定すること、および前記モバイルデバイスの前記決定された動きおよび、前記第1のイメージ、前記第2のイメージに基づき前記オブジェクトの3次元(3D)モデルを計算することを備える方法。
[C2]
前記第1のイメージ、前記第2のイメージは、記憶されたビデオファイルに関連するビデオフレームであり、さらに、前記ビデオフレームにアクセスするために前記記憶されたビデオファイルに周期的にアクセスすることを備えるC1記載の方法。
[C3]
前記第1のイメージ、前記第2のイメージは、ビデオフレームシーケンスに関連するビデオフレームであり、さらに、ビデオファイルとしての前記ビデオフレームシーケンスを記憶することにより前に、ビデオフレームにアクセスすることを備えるC1記載の方法。
[C4]
前記第1のイメージ、前記第2のイメージは、スナップショットイメージであるC1記載の方法。
[C5]
前記オブジェクトの3Dモデルを計算することは、さらに、前記オブジェクトの1つまたは複数のシルエットに基づくC1記載の方法。
[C6]
前記少なくとも1つのモーションセンサにより出力された前記データは、前記モバイルデバイスに関連する回転動作、前記モバイルデバイスに関連する並進動作またはそれらの組み合わせを含むC1記載の方法。
[C7]
前記モバイルデバイスの前記決定された動きは、前記モバイルデバイスの回転、前記モバイルデバイスの移動、またはそれらの組み合わせを含むC1記載の方法。
[C8]
前記オブジェクトの前記3Dモデルを計算することは、さらに少なくとも1つのモーションセンサにより出力された前記データおよび、第一の推測された再射影されたイメージポイント、第二の推測された再射影されたイメージポイント、の関数に基づき前記オブジェクトの特徴点を決定することを備えるC1記載の方法。
[C9]
前記オブジェクトの前記3次元モデルを計算することは、さらに前記オブジェクトの1つまたは複数の特徴点および前記第1のポジションの第1の推定の成果に基づいた前記オブジェクトの第1の推定され再射影されたイメージポイントを、決定すること、前記オブジェクトの前記1つまたは複数の特徴点および前記第2のポジションの第2の推定の成果に基づいた前記オブジェクトの第2の推定され再射影されたイメージポイントを、決定すること、前記第1のイメージにおける前記オブジェクトの座標と前記第1の推定され再射影されたイメージポイントの間の第1のユークリッド距離の平方を決定すること、前記第2のイメージにおける前記オブジェクトの座標と前記第2の推定され再射影されたイメージポイントの間の第2のユークリッド距離の平方を決定すること、前記第1のユークリッド距離の前記平方、および前記第2のユークリッド距離の前記平方の合計を最小化するため、前記3Dモデルの推定を修正すること、を含み、前記第2のポジションの前記第2の推定は、少なくとも1つのモーションセンサにより出力された前記データ、および前記第1のポジションの前記第1の推定に基づき発生されるC1記載の方法。
[C10]
前記3Dモデルの前記推定を修正することは、
Figure 0006199313
の最大尤度ソリューションを決定するためにバンドル調整技術により実行されここでdは、距離の演算に関係し、ここでPiは、前記カメラの射影マトリクスであり、ここでXは、前記オブジェクトのj番目の特徴点であり、ここでxi は、i番目のイメージにおけるj番目の特徴点の座標であるC9記載の方法。
[C11]
第1のポジションに位置する間に、オブジェクトの第1のイメージをキャプチャするように、および第2のポジションに位置する間に、前記オブジェクトの第2のイメージをキャプチャするように、構成されたカメラと、少なくとも1つのモーションセンサと、プロセッサと、前記第1のポジションから前記第2のポジションへの前記カメラの動きを、少なくとも1つのモーションセンサにより出力されたデータに基づき、決定すること、および前記カメラの前記決定された動きおよび、前記第1のイメージ、前記第2のイメージに基づき前記オブジェクトの3次元(3D)モデルを計算することを、前記プロセッサにより実行可能な命令を記憶しているメモリと、を備える装置。
[C12]
前記プロセッサは、モバイルデバイス、カメラ、マルチメヂィアプレーヤ、娯楽ユニット、ナビゲーションデバイス、パーソナルデジタルアシスタント(PDA)、ポータブルコンピュータまたはそれらの任意の組み合わせに集積されているC11の装置。
[C13]
前記少なくとも1つのモーションセンサにより出力された前記データは、前記カメラに関連する回転の情報、前記カメラに関連する並進の情報またはそれらの組み合わせを含むC11の装置。
[C14]
前記カメラの前記決定された動きは、前記カメラの回転、前記カメラの並進、またはそれらの組み合わせを含むC11の装置。
[C15]
前記命令は、さらに前記少なくとも1つのモーションセンサにより出力された前記データおよび、第1の推定された再射影されたイメージポイント、第2の推定された再射影されたイメージポイント、の関数に基づき前記オブジェクトの特徴点を決定するために、前記プロセッサにより実行可能であるC11の装置。
[C16]
前記オブジェクトの1つまたは複数の特徴点および前記第1のポジションの第1の推定の成果に基づいた前記オブジェクトの第1の推定され再射影されたイメージポイントを、決定するために前記オブジェクトの前記1つまたは複数の特徴点および前記第2のポジションの第2の推定の成果に基づいた前記オブジェクトの第2の推定された再射影されたイメージポイントを、決定するために前記第1のイメージにおける前記オブジェクトの座標と前記第1の推定され再射影されたイメージポイントの間の第1のユークリッド距離の平方を決定するために、前記第2のイメージにおける前記オブジェクトの座標と前記第2の推定され再射影されたイメージポイントの間の第2のユークリッド距離の平方を決定するために、前記第1のユークリッド距離の前記平方、および前記第2のユークリッド距離の前記平方の合計を最小化するため、前記3Dモデルの推定を修正するために、前記命令は、前記プロセッサにより、さらに実行可能であり、前記第2のポジションの前記第2の推定は、前記少なくとも1つのモーションセンサにより出力された前記データ、および前記第1のポジションの前記第1の推定に基づき発生されるC11の装置。
[C17]
前記3Dモデルの前記推定を修正することは、
Figure 0006199313
の最大尤度ソリューションを決定するためにバンドル調整技術により実行されここでdは、距離の演算に関係し、ここでPiは、前記カメラの射影マトリクスであり、ここでXは、前記オブジェクトのj番目の特徴点であり、ここでxi は、i番目のイメージにおけるj番目の特徴点の座標であるC16の装置。
[C18]
第1のポジションから第2のポジションへのモバイルデバイスの動きを、少なくとも1つのモーションセンサから受信されたデータに基づき、決定すること、および前記モバイルデバイスの前記第1のポジションからのオブジェクトの第1の視野に対応した前記オブジェクトの第1のイメージに基づき、さらに、前記モバイルデバイスの前記第2のポジションからの前記オブジェクトの第2の視野に対応した前記オブジェクトの第2のイメージに基づき、さらに、前記モバイルデバイスの前記動きに基づき、オブジェクトの3次元(3D)モデルを計算すること、を備える方法。
[C19]
第1のポジションから第2のポジションへのモバイルデバイスの動きを、少なくとも1つのモーションをセンスする手段から受信されたデータに基づき決定する手段、および前記モバイルデバイスの前記第1のポジションからのオブジェクトの第1の視野に対応した前記オブジェクトの第1のイメージに基づき、さらに、前記モバイルデバイスの前記第2のポジションからの前記オブジェクトの第2の視野に対応した前記オブジェクトの第2のイメージに基づき、さらに、前記モバイルデバイスの前記動きに基づき、オブジェクトの3次元(3D)モデルを計算する手段、を備える装置。
[C20]
さらに、前記第1のイメージをキャプチャするための手段と、前記第2のイメージをキャプチャするための手段を備えるC19の装置。
[C21]
さらに、前記少なくとも1つのモーションをセンスするための手段により受信された前記データおよび、第1の推定された再射影されたイメージポイント、第2の推定された再射影されたイメージポイント、の関数に基づく前記オブジェクトの特徴点を決定するための手段を備えるC19の装置。
[C22]
プロセッサにより実行されたときにプロセッサに、第1のポジションから第2のポジションへのモバイルデバイスの動きを、少なくとも1つのモーションセンサから受信されたデータに基づき決定すること、および、前記モバイルデバイスの前記第1のポジションからのオブジェクトの第1の視野に対応した前記オブジェクトの第1のイメージに基づき、さらに、前記モバイルデバイスの前記第2のポジションからの前記オブジェクトの第2の視野に対応した前記オブジェクトの第2のイメージに基づき、さらに、前記モバイルデバイスの前記動きに基づき、オブジェクトの3次元(3D)モデルを計算すること、を引き起こす命令を備えたコンピュータ可読媒体。
[C23]
データは、前記モバイルデバイスに対応した回転の情報、前記モバイルデバイスに対応した並進の情報、またはそれらの組み合わせを含むC22のコンピュータ可読媒体。
[C24]
前記データおよび、第1の推定され再射影されたイメージポイント、第二の推定され再射影されたイメージポイント、の関数に基づく前記オブジェクトの特徴点を決定することを、プロセッサにより実行可能な命令を備えるC22のコンピュータ可読媒体。
[C25]
さらに、前記オブジェクトに対応した1つまたは複数のシルエットを発生するための前記プロセッサにより実行可能な命令を備え、前記オブジェクトの前記3Dモデルは、さらに1つまたは複数のシルエットに基づく、C22のコンピュータ可読媒体。

Claims (15)

  1. 基準ポジションから第2のポジションへのモバイルデバイスの動きを、前記モバイルデバイスの少なくとも1つのモーションセンサから受信されたデータに基づき、決定することと、
    前記モバイルデバイスの前記基準ポジションからのオブジェクトの第1の視野に対応した前記オブジェクトの第1のイメージに基づき、さらに、前記モバイルデバイスの前記第2のポジションからの前記オブジェクトの第2の視野に対応した前記オブジェクトの第2のイメージに基づき、さらに、前記モバイルデバイスの前記動きに基づき、バンドル調整技術を適用することによって前記オブジェクトの3次元(3D)モデルを計算すること、ここにおいて、前記バンドル調整技術を適用することは、少なくとも前記第1のイメージと関連付けられた第1の射影マトリクスと、前記基準ポジションから前記第2のポジションまでの前記モバイルデバイスの前記決定された動きに基づく相対位置マトリクスとに基づいて、前記第2のイメージと関連付けられる第2の射影マトリクスを推定することを含む、と
    を備える方法。
  2. 前記オブジェクトの第2の3Dモデルを視覚外殻構造技術によって計算することをさらに備え、前記第2の3Dモデルを前記視覚外殻構造技術によって計算することは
    前記第1の視野の視野方向に基づいて複数の第1の光線を投影することと、
    前記第2の視野に関して、前記第2の射影マトリクスと前記複数の第1の光線とに基づいて、複数の第2の光線を投影することと、
    前記複数の第1の光線と前記複数の第2の光線とに基づいて、前記第2の3Dモデルを生成することと、
    を備える、請求項1記載の方法。
  3. 前記モバイルデバイスが前記基準ポジションに位置する間に、前記オブジェクトの前記第1のイメージを前記モバイルデバイスのカメラにおいて、キャプチャすること、および
    前記モバイルデバイスが前記第2のポジションに位置する間に、前記オブジェクトの前記第2のイメージをキャプチャすること、
    をさらに備える請求項1の方法。
  4. 前記第1のイメージ、前記第2のイメージは、記憶されたビデオファイルに関連するビデオフレームであり、
    さらに、前記ビデオフレームにアクセスするために前記記憶されたビデオファイルに周期的にアクセスすることを備える、
    請求項3記載の方法。
  5. 前記第1のイメージ、前記第2のイメージは、ビデオフレームシーケンスに関連するビデオフレームであり、
    さらに、ビデオファイルとしての前記ビデオフレームシーケンスを記憶するより前に、前記ビデオフレームにアクセスすることを備える
    請求項3記載の方法。
  6. 前記第1のイメージ、前記第2のイメージは、スナップショットイメージである
    請求項3記載の方法。
  7. 前記少なくとも1つのモーションセンサから受信された前記データは、前記モバイルデバイスに関連する回転動作、前記モバイルデバイスに関連する並進動作またはそれらの組み合わせを含む請求項1−6のいずれかに記載の方法。
  8. 前記モバイルデバイスの前記決定された動きは、前記モバイルデバイスの回転、前記モバイルデバイスの移動、またはそれらの組み合わせを含む請求項1−7のいずれかに記載の方法。
  9. 前記オブジェクトの前記3Dモデルを計算することは、さらに
    前記オブジェクトの1つまたは複数の特徴点と、前記第1の射影マトリクスの成果に基づいて前記オブジェクトの第1の推定され再射影されたイメージポイントを、決定すること
    前記オブジェクトの前記1つまたは複数の特徴点と、前記第2の射影マトリクスの成果に基づいて前記オブジェクトの第2の推定され再射影されたイメージポイントを、決定すること
    前記第1のイメージにおける前記オブジェクトの座標と、前記第1の推定され再射影されたイメージポイントの座標の間のユークリッド距離の平方および、前記第2のイメージにおける前記オブジェクトの座標と、前記第2の推定され再射影されたイメージポイントの座標の間の前記ユークリッド距離の前記平方の合計を最小化するため、前記3Dモデルの前記特徴点の推定を修正すること
    に基づいて、前記オブジェクトの前記3Dモデルに対応する特徴点を決定すること
    を備える、請求項3記載の方法。
  10. 前記3Dモデルの前記特徴点の前記推定を修正することは、
    Figure 0006199313
    の最大尤度ソリューションを決定するために前記バンドル調整技術により実行され
    ここでdは、距離の演算に関係し、
    ここでPi、i番目のイメージに関する射影マトリクスであり、
    ここでXは、前記オブジェクトのj番目の特徴点であり、
    ここでxi は、前記i番目のイメージにおける前記j番目の特徴点の座標である
    請求項9記載の方法。
  11. 前記第1のイメージと前記第2のイメージは静止画であり、および前記第1のイメージと前記第2のイメージはユーザ入力に応答してキャプチャされる、請求項1記載の方法。
  12. 前記3Dモデルは、前記第1のイメージと前記第2のイメージのうちの少なくとも1つをキャプチャするのと同時に計算される、請求項1記載の方法。
  13. 基準ポジションから第2のポジションへのモバイルデバイスの動きを、前記モバイルデバイスの少なくとも1つのモーションセンサから受信されたデータに基づき、決定するための手段と、
    前記モバイルデバイスの前記基準ポジションからのオブジェクトの第1の視野に対応した前記オブジェクトの第1のイメージに基づき、さらに、前記モバイルデバイスの前記第2のポジションからの前記オブジェクトの第2の視野に対応した前記オブジェクトの第2のイメージに基づき、さらに、前記モバイルデバイスの前記動きに基づき、バンドル調整技術を適用することによって前記オブジェクトの3次元(3D)モデルを計算するための手段、ここにおいて、前記バンドル調整技術を適用することは、少なくとも前記第1のイメージと関連付けられた第1の射影マトリクスと、前記基準ポジションから前記第2のポジションまでの前記モバイルデバイスの前記決定された動きに基づく相対位置マトリクスとに基づいて、前記第2のイメージと関連付けられる第2の射影マトリクスを推定することを含む、と
    を備える装置。
  14. 請求項2−12のいずれかに従った方法を行うための手段を備える、請求項13記載の装置。
  15. プロセッサによって実行される時、請求項1−12のいずれかに従った方法を前記プロセッサに行わせる命令を備えるコンピュータ可読記憶媒体。
JP2014554717A 2012-01-26 2012-12-12 モーションセンサーデータに基づく3dモデルを計算するように構成されたモバイルデバイス Active JP6199313B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261591196P 2012-01-26 2012-01-26
US61/591,196 2012-01-26
US13/673,681 2012-11-09
US13/673,681 US9639959B2 (en) 2012-01-26 2012-11-09 Mobile device configured to compute 3D models based on motion sensor data
PCT/US2012/069088 WO2013112237A1 (en) 2012-01-26 2012-12-12 Mobile device configured to compute 3d models based on motion sensor data

Publications (3)

Publication Number Publication Date
JP2015508197A JP2015508197A (ja) 2015-03-16
JP2015508197A5 JP2015508197A5 (ja) 2017-03-23
JP6199313B2 true JP6199313B2 (ja) 2017-09-20

Family

ID=48869873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014554717A Active JP6199313B2 (ja) 2012-01-26 2012-12-12 モーションセンサーデータに基づく3dモデルを計算するように構成されたモバイルデバイス

Country Status (6)

Country Link
US (1) US9639959B2 (ja)
EP (1) EP2807629B1 (ja)
JP (1) JP6199313B2 (ja)
KR (1) KR101827046B1 (ja)
CN (1) CN104081434B (ja)
WO (1) WO2013112237A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10261408B2 (en) * 2010-07-18 2019-04-16 Spatial Cam Llc Mobile and portable camera platform for tracking an object
US9131118B2 (en) * 2012-11-14 2015-09-08 Massachusetts Institute Of Technology Laser speckle photography for surface tampering detection
WO2014082276A1 (en) * 2012-11-30 2014-06-05 Thomson Licensing Method and system for capturing a 3d image using single camera
KR102153539B1 (ko) * 2013-09-05 2020-09-08 한국전자통신연구원 영상 처리 장치 및 방법
US9173066B1 (en) * 2014-06-13 2015-10-27 Xerox Corporation Methods and systems for controlling an electronic device
CN104282041A (zh) * 2014-09-30 2015-01-14 小米科技有限责任公司 三维建模方法及装置
JP6306996B2 (ja) * 2014-10-01 2018-04-04 日本電信電話株式会社 映像データ処理方法、映像データ処理装置及び映像データ処理プログラム
JP2016070891A (ja) * 2014-10-01 2016-05-09 日本電信電話株式会社 映像データ処理装置及び映像データ処理プログラム
KR102248404B1 (ko) 2014-11-17 2021-05-07 삼성전자주식회사 움직임 분석 방법 및 움직임 분석 장치
CN104517316B (zh) * 2014-12-31 2018-10-16 中科创达软件股份有限公司 一种三维物体建模方法及终端设备
CN108139876B (zh) * 2015-03-04 2022-02-25 杭州凌感科技有限公司 用于沉浸式和交互式多媒体生成的系统和方法
CN104794723A (zh) * 2015-05-04 2015-07-22 福建师范大学 一种基于概率的遥感影像建筑物位置检测方法
US10012509B2 (en) * 2015-11-12 2018-07-03 Blackberry Limited Utilizing camera to assist with indoor pedestrian navigation
US10341633B2 (en) 2015-11-20 2019-07-02 Qualcomm Incorporated Systems and methods for correcting erroneous depth information
KR20170076471A (ko) 2015-12-24 2017-07-04 삼성전자주식회사 변형 가능한 디스플레이 장치 및 이를 이용한 영상 표시 방법
US10841486B2 (en) * 2017-07-20 2020-11-17 Eclo, Inc. Augmented reality for three-dimensional model reconstruction
CN108235764B (zh) * 2017-12-29 2022-09-16 达闼机器人股份有限公司 信息处理方法、装置、云处理设备及计算机程序产品
WO2019198562A1 (ja) * 2018-04-11 2019-10-17 富士フイルム株式会社 構造物管理装置、構造物管理方法、及び構造物管理プログラム
CN113140030A (zh) * 2020-01-17 2021-07-20 北京小米移动软件有限公司 三维模型生成方法、装置及存储介质
US11694313B2 (en) * 2020-02-28 2023-07-04 Unity Technologies Sf Computer-generated image processing including volumetric scene reconstruction

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094215A (en) 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
WO1999065681A1 (en) * 1998-06-18 1999-12-23 Kline & Walker, Llc Automated devices to control equipment and machines with remote control and accountability worldwide
US7466843B2 (en) * 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US6539330B2 (en) 2000-07-19 2003-03-25 Pentax Corporation Method and apparatus for measuring 3-D information
US6961055B2 (en) * 2001-05-09 2005-11-01 Free Radical Design Limited Methods and apparatus for constructing virtual environments
JP2003006680A (ja) 2001-06-20 2003-01-10 Zenrin Co Ltd 3次元電子地図データの生成方法
US7596473B2 (en) * 2003-05-20 2009-09-29 Interlego Ag Method of constructing a virtual construction model
EP1625488A2 (en) * 2003-05-20 2006-02-15 Lego A/S Method and system for manipulating a digital representation of a three-dimensional object
JP4132068B2 (ja) 2005-02-28 2008-08-13 学校法人早稲田大学 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
JP4910312B2 (ja) * 2005-06-03 2012-04-04 ソニー株式会社 撮像装置および撮像方法
US7856125B2 (en) 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
CN101395613A (zh) 2006-01-31 2009-03-25 南加利福尼亚大学 由2d图像实现3d人脸重建
US20070248260A1 (en) 2006-04-20 2007-10-25 Nokia Corporation Supporting a 3D presentation
US8498497B2 (en) 2006-11-17 2013-07-30 Microsoft Corporation Swarm imaging
US7676146B2 (en) * 2007-03-09 2010-03-09 Eastman Kodak Company Camera using multiple lenses and image sensors to provide improved focusing capability
JP2009200713A (ja) 2008-02-20 2009-09-03 Sony Corp 画像処理装置、画像処理方法、プログラム
CA2718680C (en) * 2008-03-18 2016-12-06 Elliptic Laboratories As Object and movement detection
US20100316282A1 (en) 2009-06-16 2010-12-16 Hope Clinton B Derivation of 3D information from single camera and movement sensors
WO2011091552A1 (en) 2010-02-01 2011-08-04 Intel Corporation Extracting and mapping three dimensional features from geo-referenced images
US20110234750A1 (en) 2010-03-24 2011-09-29 Jimmy Kwok Lap Lai Capturing Two or More Images to Form a Panoramic Image
KR20110116525A (ko) 2010-04-19 2011-10-26 엘지전자 주식회사 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
FR2960082B1 (fr) 2010-05-17 2012-08-10 Commissariat Energie Atomique Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
WO2013085512A1 (en) * 2011-12-07 2013-06-13 Intel Corporation Guided image capture

Also Published As

Publication number Publication date
CN104081434A (zh) 2014-10-01
KR20140116867A (ko) 2014-10-06
EP2807629A1 (en) 2014-12-03
US9639959B2 (en) 2017-05-02
EP2807629B1 (en) 2017-09-20
US20130194392A1 (en) 2013-08-01
JP2015508197A (ja) 2015-03-16
WO2013112237A1 (en) 2013-08-01
KR101827046B1 (ko) 2018-02-07
CN104081434B (zh) 2018-01-05

Similar Documents

Publication Publication Date Title
JP6199313B2 (ja) モーションセンサーデータに基づく3dモデルを計算するように構成されたモバイルデバイス
JP2015508197A5 (ja)
JP7249390B2 (ja) 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム
JP7161150B2 (ja) ジオメトリ情報の動き補償
KR102524422B1 (ko) 객체 모델링 및 움직임 방법 및 장치, 그리고 기기
WO2019205852A1 (zh) 确定图像捕捉设备的位姿的方法、装置及其存储介质
US10388025B2 (en) Interactive image based 3D panogragh
TWI534755B (zh) 三維立體模型之建立方法和裝置
WO2023138477A1 (zh) 三维模型重建与图像生成方法、设备以及存储介质
US20230245391A1 (en) 3d model reconstruction and scale estimation
CN111161336B (zh) 三维重建方法、三维重建装置和计算机可读存储介质
JP7223449B2 (ja) 撮影に基づく3dモデリングシステム
TW201915944A (zh) 圖像處理方法、裝置、系統和儲存介質
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
WO2014135022A1 (zh) 街景地图展现方法及系统
JP2017529620A (ja) 姿勢推定のシステムおよび方法
US11928778B2 (en) Method for human body model reconstruction and reconstruction system
CN109906600B (zh) 模拟景深
JP6845490B2 (ja) 自由動作fvvアプリケーションのためのマルチレイヤuvマップに基づくテクスチャレンダリング
WO2017113729A1 (zh) 360度图像加载方法、加载模块及移动终端
JP2016152586A (ja) プロジェクションマッピング装置、映像投影制御装置、映像投影制御方法および映像投影制御プログラム
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
JP2004326179A (ja) 画像処理装置、画像処理方法および画像処理プログラムならびに画像処理プログラムを記録した記録媒体
WO2023056879A1 (zh) 一种模型处理方法、装置、设备及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170823

R150 Certificate of patent or registration of utility model

Ref document number: 6199313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250