JP2015504640A - 2次元の画像から3次元のメッシュを生成するための方法、システム、及びコンピュータプログラム製品 - Google Patents

2次元の画像から3次元のメッシュを生成するための方法、システム、及びコンピュータプログラム製品 Download PDF

Info

Publication number
JP2015504640A
JP2015504640A JP2014543987A JP2014543987A JP2015504640A JP 2015504640 A JP2015504640 A JP 2015504640A JP 2014543987 A JP2014543987 A JP 2014543987A JP 2014543987 A JP2014543987 A JP 2014543987A JP 2015504640 A JP2015504640 A JP 2015504640A
Authority
JP
Japan
Prior art keywords
depth map
mesh
computer readable
additional details
readable program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014543987A
Other languages
English (en)
Inventor
ペル オストランド,
ペル オストランド,
Original Assignee
ソニーモバイルコミュニケーションズ, エービー
ソニーモバイルコミュニケーションズ, エービー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーモバイルコミュニケーションズ, エービー, ソニーモバイルコミュニケーションズ, エービー filed Critical ソニーモバイルコミュニケーションズ, エービー
Publication of JP2015504640A publication Critical patent/JP2015504640A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

2次元画像から3次元(3D)メッシュを取得するための方法が提供される。当該方法は、カメラアレイを使用して一連の2D画像を取得することと、取得された一連の2D画像を使用して深度マップを計算することと、計算された深度マップのうち、追加の詳細が必要な部分を識別することと、深度マップの追加の詳細を取得するために、計算された深度マップの識別された部分に対しテクスチャベースのアルゴリズムを適用することと、より正確な3Dメッシュを提供するために、計算された深度マップを取得された追加の詳細と結合することと、を含む。関連するシステム及びコンピュータプログラム製品もまた、提供される。【選択図】図4

Description

[優先権主張]
2011年12月2日に出願された米国仮出願第61/566145号(代理人整理番号9342−534PR)から、本出願の優先権を主張する。当該開示は、その全体が記載されているかのように参照によりここに取り入れられる。
本発明は、一般に画像化に関し、特に、2Dの画像の3次元(3D)メッシュを生成する方法、システム、及びコンピュータプログラム製品に関する。
単眼の2次元(2D)画像から3次元(3D)モデルを生成することには、難しい問題がある。コンピュータ支援の画像は、コンピュータの処理及びデータハンドリングのケイパビリティの支援を受けて、2以上のデジタル化された2D画像から端末画面又はグラフィカルユーザインタフェース上にオブジェクト又はシーン(以下、総称して「オブジェクト」)の新たな2D及び3D画像をレンダリングする処理である。2D画像から3Dモデルを構築することは、例えば、CAD(computer-aided design)、3Dテレショッピング、及びバーチャルリアリティシステムにおいて利用されうる。それらにおける処理のゴールは、もともと2D画像の有限数によってのみ表現されたシーンのグラフィカル3Dモデルである。3Dモデルが構築されたものからの2D画像は、オブジェクトのビューを、オブジェクトの周囲の異なるビューや位置から把握されるものとして表す。画像は、オブジェクトやシーンの周りに配置された複数のカメラ、オブジェクトやシーンの周りで動いている単一のカメラ、カメラアレイなどを使用して得ることができる。2D画像内の情報は、合成された、コンピュータベースのグラフィカルな3Dモデルを製作するために組み合され、対比される。
複数の2Dイメージを使用して、シーンのグラフィカル3Dモデルを再構築する現在の1つの方法が、深度マップである。深度マップは、空間内のサーフェスを数学的に表現するための値の2D配列であり、当該配列の行及び列は、サーフェスのx及びy位置情報に対応し、配列要素は、所与の点又はカメラ位置からサーフェスまでの深度又は距離測定値である。深度マップは、オブジェクトの表面(サーフェス)上の各点における明度及び色情報、又はピクセルを置き換える深度の情報を有する、オブジェクトのグレースケール画像として見ることができる。オブジェクトのグラフィカルな表現は、深度マップによって評価されうる(estimated)。しかしながら、深度マップの精度は、オブジェクトへの距離が増加するにつれて、低下する。
2D画像からより正確な3Dモデルを生成するために、他のアルゴリズムが開発されてきた。例えば、テクスチャベースのアルゴリズムは、静止した2D画像を3Dモデルに変換するのに使用されうる。これらの製品のうちの1つが、スタンフォード大学の教授によって開発されたMake3Dである。しかしながら、得られた3Dモデルの精度は、依然として一定の距離を経ると悪化する。
本発明の概念のいくつかの実施形態は、2次元画像から3次元(3D)メッシュを取得するための方法を提供する。当該方法は、カメラアレイを使用して一連の2D画像を取得することと、取得された一連の2D画像を使用して深度マップを計算することと、計算された深度マップのうち、追加の詳細が必要な部分を識別することと、深度マップの追加の詳細を取得するために、計算された深度マップの識別された部分に対しテクスチャベースのアルゴリズムを適用することと、より正確な3Dメッシュを提供するために、計算された深度マップを、取得された追加の詳細と結合することと、を含み、取得すること、計算すること、識別すること、適用すること、及び結合することのうち少なくとも1つは、少なくとも1つのプロセッサによって実行される。
さらなる実施形態では、カメラアレイは、4×4マトリックスのカメラ及び4×5マトリックスのカメラのうちの1つであってもよい。
さらなる実施形態では、カメラアレイは、無線通信装置のコンピュテーショナルカメラに含まれてもよい。
いくつかの実施形態では、計算された深度マップの部分を識別することは、dより大きい距離を有する深度マップ内の領域をマークすることを含むことができる。dは、追加の詳細が必要とされる場合を定義する、深度マップへの距離である。
さらなる実施形態では、テクスチャベースのアルゴリズムを適用することは、マークされた領域についての改良されたメッシュを取得するために、マークされた領域に対しテクスチャベースのアルゴリズムを適用することを含むことができる。
さらなる実施形態では、結合することは、より正確な3Dメッシュを取得するために、計算された深度マップと、マークされた領域についての改良されたメッシュとを結合することをさらに含むことができる。
いくつかの実施形態では、結合することに先行して、dより大きい距離を有する領域についての深度マップのマークされた領域について改良されたメッシュに対し、より高い重みを割り当て、dより小さい距離を有する深度マップの領域について計算された深度マップに対し、より高い重みを割り当てることができる。
本発明の概念のさらなる実施形態は、2次元(2D)画像の3次元(3D)メッシュを取得するためのシステムを提供する。当該システムは、カメラアレイを使用して一連の2D画像を取得するように構成されるカメラと、プロセッサとを含む。当該プロセッサは、前記取得された一連の2D画像を使用して深度マップを計算するように構成される深度マップモジュールと、計算された深度マップのうち、追加の詳細が必要な部分を識別するように構成される改良モジュールと、追加の詳細を取得するために、計算された深度マップの識別された部分に対しテクスチャベースのアルゴリズムを適用するように構成されるテクスチャベース取得モジュールと、を含み、改良モジュールは、さらに、取得された一連の2D画像のより正確な3Dメッシュを提供するために、計算された深度マップを取得された追加の詳細と結合するように構成される。
本発明の概念のさらなる実施形態は、2次元の画像から3次元(3D)メッシュを取得するためのコンピュータプログラム製品を提供する。当該コンピュータプログラム製品は、その中に具現化されたコンピュータ読み取り可能なプログラムコードを含む、非一時的コンピュータ読み取り可能な記憶媒体を含む。当該コンピュータ読み取り可能なプログラムコードは、カメラアレイを使用して一連の2D画像を取得するように構成されるコンピュータ読み取り可能なプログラムコードと、取得された一連の2D画像を使用して深度マップを計算するように構成されるコンピュータ読み取り可能なプログラムコードと、計算された深度マップのうち、追加の詳細を必要とする部分を識別するように構成されるコンピュータ読み取り可能なプログラムコードと、深度マップ内の追加の詳細を取得するために、計算された深度マップの識別された部分に対しテクスチャベースのアルゴリズムを適用するように構成されるコンピュータ読み取り可能なプログラムコードと、より正確な3Dメッシュを提供するために、計算された深度マップを取得された追加の詳細と結合するように構成されるコンピュータ読み取り可能なプログラムコードと、を含む。
発明の概念の実施形態によれば、他の方法、システム及び/又はコンピュータプログラム製品は、以下の図面及び詳細な説明を検討すれば、当業者に明らかになるであろう。
全てのそのような追加の方法、システム及び/又はコンピュータプログラム製品は、この説明に含まれ、本発明の概念の範囲内にあり、添付の特許請求の範囲によって保護されることが意図されている。また、ここに開示される全ての実施形態は、任意の方法及び/又は組み合わせで、分離して実装し又は組み合わせることができることが意図されている。
発明の概念の更なる理解を提供するために含まれ、本明細書に組み込まれ、本出願の一部を構成する添付図面は、発明の概念の特定の実施形態を示す。
本発明の概念のいくつかの実施形態に係るカメラアレイを含むシステムの簡易的なブロック図である。 本発明の概念のいくつかの実施形態に係るモジュールを含むデータ処理システムのより詳細なブロック図である。 本発明の概念のいくつかの実施形態に係る無線通信端末の、コンピュテーショナルカメラを含む、いくつかの電子コンポーネントのブロック図である。 本発明の概念の様々な実施形態に係る動作を示すフローチャートである。
以下の詳細な説明において、本発明の概念の完全な理解を提供するために、多数の特定の詳細が説明される。しかしながら、本発明の概念は、これらの特定の詳細なしに実施できることが当業者には理解されるであろう。他の例では、本発明の概念を不明瞭にしないように、周知の方法、手続き、コンポーネント及び回路については詳細に説明されていない。
上述したように、単眼の2次元(2D)画像から3次元(3D)モデルを生成することには、難しい問題がある。既存のテクスチャベースのアルゴリズム、例えば、Make3D、及びアレイカメラからの深度マップは、適切な解決策を提供しない。例えば、アレイカメラからの深度マップの精度は、オブジェクトへの距離が増加するにつれて低下する。これは、カメラ間の長さが限られており、カメラ間の長さがオブジェクトまでの距離を判定するのに可能な解像度にセットされるという事実が原因である。人間の心は、ずっと遠くのオブジェクトを認識し、テクスチャ、色などの特徴(features)によって形状や3Dプロパティを解釈するように訓練されている。
従来の方法についての問題に対処するため、本発明の概念のいくつかの実施形態は、改良された3Dメッシュを提供するために、深度マップの方法及びテクスチャベースのアルゴリズムの特徴を組み合わせる。特に、本発明の概念のいくつかの実施形態は、以下図1から4を参照してここでさらに述べるように、コンピュテーショナルカメラによって生成される深度マップを使用してより詳細が必要な3D画像内の領域を識別し、その後、テクスチャベースのアルゴリズムを使用してこれらの領域を埋める。
まず図1を参照して、本発明の概念のいくつかの実施形態に係るシステム100は、例えばカメラアレイを含むコンピュテーショナルカメラであるカメラ124と、プロセッサ127を含む通信装置110と、改良された3Dメッシュ160とを含む。カメラ124及び通信装置110を囲む点線135によって示されるように、いくつかの実施形態では、これらの要素は、例えば、図3を参照して以下でさらに述べる無線通信装置のように単一の装置内に全て含まれてもよい。
例えばカメラアレイであるカメラ124は、通信装置110のプロセッサ127に供給されうる一連の2D画像を取得するために使用されることができる。カメラ124は、本発明の概念の範囲から逸脱することなく、例えば4×4又は4×5マトリックスのカメラでありうる。
プロセッサ127は、2D画像からより大きな画像を生成するように構成され、当該より大きな画像から深度マップが生成されることができる。深度マップの生成方法は、当業者に既知である。本発明の概念の範囲から逸脱することなく、任意の方法が使用されることができる。
プロセッサ127はさらに、より詳細が必要であるかもしれない3Dメッシュの部分を識別するように構成されうる。上述したように、ある距離、例えば、2.0〜3.0メートルを経ると、深度マップを使用して生成された3D画像の精度が低下する。したがって、いくつかの実施形態では、より詳細が必要であるとして識別される領域をマークするために、閾値関数が使用されることができる。例えば、2.0メートル以上の距離を有する3Dメッシュ内のものはいずれも、より詳細が必要であるとして“マーク”されうる。画像が低下する距離は、使用されているアレイカメラの物理的寸法に関係することを理解されたい。その結果、より小さなカメラはより小さな距離の閾値を有し、同様に、より大きなカメラは、より大きな距離の閾値を有し得る。
本発明の概念のいくつかの実施形態は、追加の詳細を要することなく、多少の品質の低下を許容することができる。例えば、3Dメッシュの精度が90〜95パーセントの間であれば、これは許容されうる。しかしながら、90パーセントより小さい精度のものはいずれも、より詳細が必要であるとしてマークされうる。したがって、いくつかの実施形態では、閾値関数は、距離d>Tdで、領域をマークするのに使用される。Tdは、深度マップの精度によって決まる。
プロセッサ127はさらに、テクスチャベースのアルゴリズム、例えばMake3Dを使用して、より詳細が必要であるとしてマークされた領域内の詳細を提供するように構成されうる。言い換えると、テクスチャベースのアルゴリズムは、欠落している深度マップの詳細を埋めるために使用されうる。本発明の概念の実施形態は、Make3Dの使用について論じるが、実施形態はこの構成に限定されない。いかなるテクスチャベースのアルゴリズムも、本発明の概念の範囲から逸脱することなく使用されうる。
最後に、プロセッサ127は、オブジェクト又はシーンの改良された3Dメッシュ160を製作するために、深度マップのメッシュとテクスチャベースのメッシュとを結合するように構成されうる。いくつかの実施形態では、2つのメッシュには、計算されたメッシュの精度によって決まる重みが加えられてもよい。例えば、dより大きい距離についてのテクスチャベースのメッシュにより高い重みを割り当て、dより小さい距離についての深度マップ(カメラアレイ)のメッシュにより高い重みを割り当てる。上述したように、距離dは、精度が90パーセントより小さくなるところの距離として定義される。画像が低下するところの距離は、使用されているアレイカメラの物理的な寸法に関係することを理解されたい。その結果、より小さなカメラは、より小さな距離の閾値を有し、同様に、より大きなカメラはより大きな距離の閾値を有しうる。
ここで、図2を参照して、いくつかの実施形態に係る、より詳細なデータ処理システムについて説明する。図2に示すように、本発明の概念のいくつかの実施形態に係る、図1を参照して上述した計算を実行するために使用されうる例としてのデータ処理システムについて説明する。図示したように、データ処理システムは、ディスプレイ245、プロセッサ227、メモリ295及び入力/出力回路246を含む。データ処理システムは、例えば、無線通信装置、パーソナルコンピュータ、サーバ、ルータ又は同種のものに組み込まれてもよい。プロセッサ227は、アドレス/データバス248を介してメモリ295と通信し、アドレス/データバス249を介して入力/出力回路246と通信し、接続247を介してディスプレイと通信する。入力/出力回路246は、メモリ295と他のコンピュータシステム、又は例えばインターネットプロトコル(IP)接続を使用するネットワークとの間で、情報を移動するために使用されることができる。これらのコンポーネントは、多くの従来のデータ処理システムにおいて使用されるもののような従来のコンポーネントであることができ、ここに記載されるように動作するように構成されることができる。
特に、プロセッサ227は、任意の商業的に入手することができるものであることができ、又は、カスタムマイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ若しくは同種のものであることができる。メモリ295は、本発明の概念の実施形態に係り使用される機能的回路又はモジュールを実装するために使用されるソフトウェア及びデータを含む、任意のメモリ装置を含むことができる。メモリ295は、以下の種類の装置を含むことができるが、限定されるものではない:キャッシュ、ROM、PROM、EPROM、EEPROM、フラッシュメモリ、SRAM、DRAM及び磁気ディスク。本発明の概念のいくつかの実施形態では、メモリ295は、連想メモリ(CAM;content addressable memory)であってもよい。
さらに図2に示されるように、メモリ295は、データ処理システムで使用される数種類のソフトウェア及びデータ:オペレーティングシステム280、アプリケーションプログラム257、入力/出力デバイスドライバ290、及びデータ270を含むことができる。当業者によって理解されるように、オペレーティングシステム280は、データ処理システムとともに使用するのに適した任意のオペレーティングシステム、例えば、アイビーエム(International Business Machines Corporation,Armonk,NY)のOS/2、AIX若しくはzOS、マイクロソフト(Microsoft Corporation,Redmond,WA)のWindows95、Windows98、Windows2000若しくはWindowsXP、Unix、Linux又は任意のAndroidオペレーティングシステムとすることができる。入力/出力デバイスドライバ290は、典型的には、入力/出力回路246及び特定のメモリ295のコンポーネントなどのデバイスと通信するために、アプリケーションプログラム257によってオペレーティングシステム280を介してアクセスされるソフトウェアルーチンを含む。アプリケーションプログラム257は、本発明の概念のいくつかの実施形態による回路及びモジュールの様々な特徴を実装するプログラムを例示するものである。最後に、データ270は、アプリケーションプログラム257、オペレーティングシステム280、入力/出力デバイスドライバ290、及びメモリ295内に常駐しうるその他のソフトウェアプログラムによって使用される静的及び動的データを表す。図2に示すように、データ270は、上述したような本発明の概念のいくつかの実施形態によるアプリケーションプログラム257の回路及びモジュールにより使用されるための2D画像261、深度マップデータ263、テクスチャベースデータ265及び改良された3Dメッシュ267を含むことができるが、限定されるものではない。
さらに図2に示すように、アプリケーションプログラム257は、深度マップモジュール253、テクスチャベース取得モジュール254、及び改良モジュール255を含む。本発明の概念は、図2のアプリケーションプログラムである深度マップモジュール253、テクスチャベース取得モジュール254及び改良モジュール255を参照して示されるが、当業者によって理解されるように、他の構成も本発明の概念の範囲内に収まる。例えば、深度マップモジュール253、テクスチャベース取得モジュール254及び改良モジュール255は、アプリケーションプログラム257であるよりもむしろ、オペレーティングシステム280又はダイナミックリンクライブラリコード等の、データ処理システムの他のそのような論理部分に組み込まれることもできる。さらに、深度マップモジュール253、テクスチャベース取得モジュール254及び改良モジュール255は、単一のデータ処理システム内に示されているが、当業者によって理解されるように、そのような機能が1又は複数のデータ処理システムに分散されてもよい。したがって、本発明の概念は、図2に示される構成に限定されるものと解釈されるべきではないが、データ処理システム間の機能の他の配置及び/又は分割によって提供されてもよい。例えば、図2は、複数のモジュールを有するものとして示されているが、モジュールは、本発明の概念の範囲を逸脱することなく追加されうる、3又はそれより少ない又は多いモジュールに結合されてもよい。
特に、深度マップモジュール253は、カメラアレイ(図1の124)を使用して取得される一連の2D画像からより大きな画像を取得し、当該より大きな画像から深度マップを生成するように構成される。上述したように、深度マップの計算は、当業者に既知である。改良モジュール255は、計算された深度マップの、追加の詳細が必要な部分を識別するように構成される。テクスチャベース取得モジュール254は、追加の詳細を取得するために、計算された深度マップの識別された部分に対しテクスチャベースアルゴリズムを適用するように構成される。追加の詳細が取得されると、改良モジュール255は、取得された一連の2D画像のより正確な3Dメッシュを提供するために、計算された深度マップを取得された追加の詳細と結合する。
いくつかの実施形態では、改良モジュール255は、距離dよりも大きい距離を有する、深度マップ内の領域をマークするように構成される。距離dは、追加の詳細が必要とされる場合を定義する、深度マップへの距離である。上述したように、いくつかの実施形態では、この距離は約2.0から約3.0メートルである。これは、いくつかの実施形態で、精度が90パーセントより低下するときの距離でありうる。
さらなる実施形態では、改良モジュール255は、dより大きい距離を有する領域についての深度マップのマークされた領域について、改良されたメッシュに対しより高い重みを割り当て、dより小さい距離を有する深度マップの領域について、計算された深度マップに対しより高い重みを割り当てるようにさらに構成されてもよい。
ここで図3を参照して、上述したように、本発明の概念のいくつかの実施形態では、データ処理システムは、無線通信装置内に含まれてもよい。図3に示すように、本発明の概念のいくつかの実施形態に係るコンピュテーショナルカメラ324及びプロセッサ327を含む、無線通信端末350のブロック図について説明する。図3に示すように、端末350は、アンテナシステム300、トランシーバ340、プロセッサ327を含み、標準的なディスプレイ308、キーパッド302、スピーカ304、大容量メモリ328、マイクロフォン306、及び/又はコンピュテーショナルカメラ324をさらに含むことができ、そのうちの1又は複数は、アンテナ300と同一のグランドプレーンに電気的に接地されうる。
トランシーバ340は、アンテナシステム300の異なる放射エレメントに対し各々のRPフィードを介してRP信号を供給/受信するための別々の通信パスを提供する、送信/受信回路(TX/RX)を含むことができる。
プロセッサ327と動作上協力関係にあるトランシーバ340は、2以上の周波数レンジで、少なくとも1つの無線アクセス技術にしたがって通信するように構成されうる。少なくとも1つの無線アクセス技術は、WLAN(例えば、802.11)、WiMAX(Worldwide Interoperability for Microwave Access)、TransferJet、3GPP LTE(3rd Generation Partnership Project Long Term Evolution)、UMTS(Universal Mobile Telecommunications System)、GSM(Global Standard for Mobile)通信、GPRS(General Packet Radio Service)、EDGE(enhanced data rates for GSM evolution)、DCS、PDC、PCS、CDMA(code division multiple access)、wideband−CDMA、及び/又はCDMA2000を含むことができるが、これに限定されるものではない。他の無線アクセス技術及び/又は周波数帯域もまた、発明の概念に係る実施形態において使用されることができる。
ここで、図4のフローチャートを参照して、様々な実施形態に係る、2次元画像から3次元メッシュを取得するための動作について述べる。図4に示されるように、動作は、ブロック400において、カメラアレイを使用して一連の2D画像を取得することにより開始する。いくつかの実施形態では、カメラアレイは、4×4マトリックスのカメラ及び4×5マトリックスのカメラのうちの1つである。上述したように、いくつかの実施形態では、カメラアレイは、無線通信装置のコンピュテーショナルカメラに含まれてもよい。
深度マップは、取得された一連の2D画像を使用して計算される(ブロック410)。特に、一連の2D画像は、より大きな画像を生成するために使用され、深度マップは、より大きな画像から生成される。計算された深度マップのうち追加の詳細が必要な部分が識別される(ブロック420)。いくつかの実施形態では、dより大きな距離を有する深度マップの領域をマークすることにより、計算された深度マップの部分が識別されうる。dは、追加の詳細が必要とされる場合を定義する、深度マップへの距離である。テクスチャベースのアルゴリズムが、追加の詳細を取得するために、計算された深度マップの識別された部分に適用される(ブロック430)。取得された一連の2D画像のより正確な3Dメッシュを提供するために、計算された深度マップは、取得された追加の詳細と結合される(ブロック440)。
いくつかの実施形態では、より高い重みが、dより大きい距離を有する領域についての深度マップのマークされた領域について、改良されたメッシュに対し割り当てられてもよく、より高い重みが、dより小さい距離を有する深度マップ内の領域について、計算された深度マップに対し割り当てられてもよい。
発明の概念の実施形態が示された添付の図面を参照して、ここで様々な実施形態について述べた。しかしながら、本発明の概念は、多くの異なる形式で具現化することができ、ここに記載された実施形態に限定されると解釈されるべきではない。むしろ、この開示が徹底的かつ完全となり、当業者に本発明の概念の範囲を十分に伝えることとなるように、これらの実施形態が提供される。
要素が別の要素に“接続される(connected)”、“連結される(coupled)”、“対応する(responsive)”又はこれらの変形で言及されるとき、それは、他の要素に直接的に接続され、連結され、又は対応することができ、又は介在要素が存在してもよいことが理解されるであろう。対照的に、要素が別の要素に“直接接続される(directly connected)”、“直接連結される(directly coupled)”、“直接対応する(directly responsive)”又はこれらの変形で言及されるとき、介在要素は存在しない。さらに、ここで使用されるものとして“連結される(coupled)”、“接続される(connected)”、“対応する(responsive)”又はこれらの変形は、無線で連結され、接続され、又は対応することを含むことができる。同様の数字は、全体を通して同様の要素を指す。ここで使用される用語は、特定の実施形態を説明する目的のためであり、本発明の概念を限定することを意図するものではない。ここで使用する場合、単数形の“a”、“an”及び“the”は、文脈が明確にそうでないことを示さない限り、複数形も含むことを意図している。周知の機能又は構造は、簡潔及び/又は明瞭のため詳細には説明されないことがある。
第1、第2等の用語は、様々な要素を説明するためにここで使用され得るが、これらの要素は、これらの用語によって限定されるべきではないことが理解されるであろう。これらの用語は、ある要素を別の要素から区別するために使用される。本発明の概念の範囲から逸脱することなく、例えば、第1の要素は、第2の要素と呼ぶことができ、同様に、第2の要素は、第1の要素と呼ぶことができる。さらに、ここで使用される場合、“及び/又は(and/or)”の用語は、列挙された関連項目の1又は複数のあらゆる組合せを含む。
特に定義しない限り、ここで使用される(技術用語及び科学用語を含む)全ての用語は、本発明の概念が属する技術分野の当業者によって一般に理解されるものと同じ意味を有する。さらに、一般に使用される辞書で定義されるもののような用語は、本明細書及び関連技術の文脈における意味と一致する意味を有するものとして解釈されるべきであり、ここで明示的に定義された、理想化された又は過度に形式的な意味に解釈されることはないと理解されるべきである。
ここで使用される場合、“comprise”、“comprising”、“comprises”、“include”、“including”、“includes”、“have”、“has”、“having”の用語又はこれらの変形は、無制限であり、1又は複数の述べられた特徴、整数、要素、ステップ、コンポーネント又は機能を含むが、1又は複数の他の特徴、整数、要素、ステップ、コンポーネント、機能又はそれらのグループの存在又は追加を排除するものではない。さらに、ここで使用される場合、ラテン語のフレーズ、例を挙げると(exempli gratia)に由来する共通の略語“例えば(e.g.)”は、一般的な例又は前述の項目の例を導入又は指定するために使用されることができ、そのような項目を限定することを意図するものではない。ここで使用される場合、ラテン語のフレーズ、すなわち(id est)に由来する共通の略語“すなわち(i.e.)”は、より一般的な列挙から特定の項目を指定するために使用されてもよい。
例示的な実施形態は、コンピュータ実装方法、装置(システム及び/又はデバイス)、及び/又はコンピュータプログラム製品のブロック図及び/又はフローチャート図を参照してここに記載された。なお、ブロック図及び/又はフローチャート図のブロック、及びブロック図及び/又はフローチャート図におけるブロックの組み合わせは、1又は複数のコンピュータ回路によって実行されるコンピュータプログラム命令によって実装されることができると理解される。ブロック図及び/又はフローチャートのブロックで指定された機能/動作を実装し、それによってブロック図及び/又はフローチャートのブロックで指定された機能/動作を実装するための手段(機能)及び/又は構造を生成するために、トランジスタ、記憶位置に格納された値、及びそのような回路内の他のハードウェアコンポーネントをコンピュータ及び/又は他のプログラム可能なデータ処理装置のプロセッサを介して実行される命令が変換及び制御するような機械を製造するために、これらのコンピュータプログラム命令は、汎用コンピュータ回路、デジタルプロセッサなどの専用コンピュータ回路、及び/又は他のプログラム可能なデータ処理回路に提供されることができる。これらのコンピュータプログラム命令はまた、コンピュータ読み取り可能な媒体に格納された命令がブロック図及び/又はフローチャートのブロックで指定された機能/動作を実装する命令を含む製品を製造するような、特定の方法で機能するようにコンピュータ又は他のプログラム可能なデータ処理装置に指示することができる、コンピュータ読み取り可能な媒体に格納されることができる。
有形の非一時的コンピュータ読み取り可能な媒体は、電子、磁気、光学、電磁気、又は半導体データ記憶システム、装置、又はデバイスを含むことができる。コンピュータ読み取り可能な媒体のより具体的な例としては、以下のものが含まれる:ポータブルコンピュータディスケット、ランダムアクセスメモリ(RAM)回路、読み取り専用メモリ(ROM)回路、消去可能プログラム可能な読み取り専用メモリ(EPROM又はフラッシュメモリ)、ポータブルコンパクトディスク読み取り専用メモリ(CD−ROM)、及びポータブルデジタルビデオディスク読み取り専用メモリ(DVD/BlueRay)。
コンピュータ又は他のプログラム可能な装置上で実行される命令が、ブロック図及び/又はフローチャートのブロックで指定された機能/動作を実装するためのステップを提供するような、コンピュータで実装されたプロセスを生産するために、コンピュータプログラム命令はまた、一連の動作ステップがコンピュータ及び/又は他のプログラム可能な装置上で実行されるようにするためにコンピュータ及び/又は他のプログラム可能なデータ処理装置上にロードされることができる。
したがって、本発明の概念の実施形態は、“回路(circuitry)”、“モジュール(module)”又はこれらの変形で総称されうる、ハードウェア及び/又はデジタル信号プロセッサ等のプロセッサ上で実行されるソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)において具現化されうる。
いくつかの代替的な実装においては、ブロックで記述された機能/動作は、フローチャートで記述された順序と違う順序で起こりうることにも留意すべきである。例えば、連続して示された2つのブロックは、実際には実質的に同時に実行されてもよく、あるいは、ブロックは、関連する機能/動作に応じて時には逆の順序で実行されてもよい。さらに、
フローチャート及び/又はブロック図の所与のブロックの機能が、複数のブロックに分割されてもよく、及び/又はフローチャート及び/又はブロック図の2以上のブロックの機能が少なくとも部分的に統合されてもよい。最後に、図示されているブロックの間に他のブロックが追加/挿入されてもよい。また、図のいくつかは、通信の主要な方向を示す通信経路上の矢印を含むが、描かれた矢印と反対方向に通信が生じ得ることが理解されるべきである。
多くの異なる実施形態は、以下の説明及び図面と関連して、ここに開示された。それはこれらの実施形態の全ての組み合わせ及びサブコンビネーションを文字通り説明し、例示することが過度の繰り返し及び曖昧化であろうということが理解されるであろう。したがって、図面を含む本明細書が、ここに記載された実施形態の全ての組み合わせ及びサブコンビネーション、並びにそれらを作り使用する方法及びプロセスの、完全な明細書を構成するものと解釈すべきであり、任意のこのような組み合わせ又はサブコンビネーションの特許請求の範囲をサポートすべきである。
例示及び説明のみの目的のために、本発明の概念の様々な実施形態は、セルラ通信(例えば、セルラ音声及び/又はデータ通信)を行うように構成されるユーザ機器(例えば、“無線ユーザ端末”、“無線通信端末”、“無線端末”、“端末”、“ユーザ端末”、等)との関連においてここに記述された。しかしながら、本発明の概念は、そのような実施形態に限定されず、1又は複数のRATに従って送信及び受信するように構成されている任意の無線通信端末において、一般的に具現化されうることが理解されるであろう。さらに、“ユーザ機器”は、ユーザ機器の1又は複数の部分を指すためにここで使用される。頭字語“UE”及び“UEs”が、それぞれ、ユーザ装置の単一の部分及びユーザ装置の複数の部分を示すために使用されてもよい。
ここで使用されるように、“ユーザ機器”の用語は、マルチラインディスプレイを有する又は有しないセルラ及び/又は衛星無線電話、データ処理、ファクシミリ及び/又はデータ通信ケイパビリティを組み合わせることができるPCS(Personal Communications System)端末、無線周波数トランシーバ及びページャ、インターネット/イントラネットアクセス、ウェブブラウザ、オーガナイザ、カレンダ及び/又はGPS(global positioning system)受信機を含むことができるPDA(Personal Digital Assistant(s))又はスマートフォン、及び/又は従来型のラップトップ(ノートブック)及び/又はパームトップ(ネットブック)コンピュータ又は無線周波数トランシーバを含む他の電化製品を含む。ここで使用されるように、“ユーザ機器”の用語は、また、時間変動又は固定された地理的座標を有してもよく、及び/又は携帯型で、可搬型で、(航空、海上又は陸上の)乗り物に設置され、及び/又はローカルに、及び/又は1又は複数の地球上及び/又は地球外の場所を超えた分散型方法で動作するように位置し及び/又は構成されてもよい。最後に、“ノード”又は“基地局”の用語は、1又は複数のユーザ機器及びコアネットワークと通信するように構成される、任意の固定の、携帯型の及び/又は可搬型のデバイスを含み、例えば、地上波セルラ基地局(マイクロセル、ピコセル、無線アクセスポイント及び/又はアドホック通信アクセスポイント)及び衛星を含む。衛星は、地球上に位置してもよく、及び/又は任意の高度で地球の上空に軌道を持っていてもよい。
図面及び明細書において、本発明の概念の実施形態が開示されており、特定の用語が採用されているが、それらは限定の目的のためではなく、汎用的かつ説明的な意味で使用されているだけであり、本発明の概念の範囲は、以下の特許請求の範囲に記載されている。

Claims (20)

  1. 2次元の画像から3次元(3D)メッシュを取得するための方法であって、
    カメラアレイを使用して一連の2D画像を取得することと、
    前記取得された一連の2D画像を使用して深度マップを計算することと、
    前記計算された深度マップのうち、追加の詳細が必要な部分を識別することと、
    前記深度マップの前記追加の詳細を取得するために、前記計算された深度マップの前記識別された部分に対しテクスチャベースのアルゴリズムを適用することと、
    より正確な3Dメッシュを提供するために、前記計算された深度マップを前記取得された追加の詳細と結合することと、
    を含み、
    取得すること、計算すること、識別すること、適用すること、及び結合することのうち少なくとも1つは、少なくとも1つのプロセッサによって実行される方法。
  2. 前記カメラアレイは、4×4マトリックスのカメラ及び4×5マトリックスのカメラのうちの1つである、請求項1の方法。
  3. 前記カメラアレイは、無線通信装置のコンピュテーショナルカメラに含まれる、請求項1の方法。
  4. 前記計算された深度マップの部分を識別することは、dより大きい距離を有する前記深度マップ内の領域をマークすることを含み、dは、前記追加の詳細が必要とされる場合を定義する、前記深度マップへの前記距離である、請求項1の方法。
  5. テクスチャベースのアルゴリズムを適用することは、前記マークされた領域についての改良されたメッシュを取得するために、前記マークされた領域に対しテクスチャベースのアルゴリズムを適用することを含む、請求項4の方法。
  6. 結合することは、前記より正確な3Dメッシュを取得するために、前記計算された深度マップと、前記マークされた領域についての前記改良されたメッシュとを結合することをさらに含む、請求項5の方法。
  7. 結合することに先行して、
    dより大きい距離を有する領域についての前記深度マップの前記マークされた領域について前記改良されたメッシュに対し、より高い重みを割り当てることと、
    dより小さい距離を有する前記深度マップの領域について前記計算された深度マップに対し、より高い重みを割り当てることと、
    をさらに含む、請求項5の方法。
  8. 2次元(2D)画像の3次元(3D)メッシュを取得するためのシステムであって、
    カメラアレイを使用して一連の2D画像を取得するように構成されるカメラと、
    プロセッサとを含み、
    前記プロセッサは、
    前記取得された一連の2D画像を使用して深度マップを計算するように構成される深度マップモジュールと、
    前記計算された深度マップのうち、前記深度マップ内で追加の詳細が必要な部分を識別するように構成される改良モジュールと、
    前記追加の詳細を取得するために前記計算された深度マップの前記識別された部分に対しテクスチャベースアルゴリズムを適用するように構成されるテクスチャベース取得モジュールと、を含み、
    前記改良モジュールは、より正確な3Dメッシュを提供するために、前記計算された深度マップを前記取得された追加の詳細と結合するようにさらに構成される、システム。
  9. 前記システムは、無線通信装置に含まれる、請求項8のシステム。
  10. 前記カメラは、無線通信装置に含まれる、請求項8のシステム。
  11. 前記改良モジュールは、
    dより大きい距離を有する前記深度マップ内の領域をマークするようにさらに構成され、
    dは、前記追加の詳細が必要とされる場合を定義する、前記深度マップへの前記距離である、請求項8のシステム。
  12. 前記テクスチャベース取得モジュールは、前記マークされた領域についての改良されたメッシュを取得するために、前記マークされた領域に対しテクスチャベースのアルゴリズムを適用するようにさらに構成される、請求項11のシステム。
  13. 前記改良モジュールは、前記より正確な3Dメッシュを取得するために、前記計算された深度マップと前記マークされた領域についての前記改良されたメッシュとを結合するようにさらに構成される、請求項12のシステム。
  14. 前記改良モジュールは、dより大きい距離を有する領域についての前記深度マップの前記マークされた領域についての前記改良されたメッシュに対し、より高い重みを割り当て、
    dより小さい距離を有する前記深度マップ内の領域についての計算された深度マップに対し、より高い重みを割り当てるようにさらに構成される、請求項12のシステム。
  15. 2次元の画像から3次元(3D)メッシュを取得するためのコンピュータプログラム製品であって、
    具現化されたコンピュータ読み取り可能なプログラムコードを含む非一時的コンピュータ読み取り可能な記憶媒体を含み、
    前記コンピュータ読み取り可能なプログラムコードは、
    カメラアレイを使用して一連の2D画像を取得するように構成されるコンピュータ読み取り可能なプログラムコードと、
    前記取得された一連の2D画像を使用して深度マップを計算するように構成されるコンピュータ読み取り可能なプログラムコードと、
    前記計算された深度マップのうち、追加の詳細を必要とする部分を識別するように構成されるコンピュータ読み取り可能なプログラムコードと、
    前記深度マップ内の前記追加の詳細を取得するために、前記計算された深度マップの前記識別された部分に対しテクスチャベースのアルゴリズムを適用するように構成されるコンピュータ読み取り可能なプログラムコードと、
    より正確な3Dメッシュを提供するために、前記計算された深度マップを前記取得された追加の詳細と結合するように構成されるコンピュータ読み取り可能なプログラムコードと、
    を含む、コンピュータプログラム製品。
  16. 前記計算された深度マップの部分を識別するように構成される前記コンピュータ読み取り可能なプログラムコードは、dより大きい距離を有する前記深度マップ内の領域をマークするように構成されるコンピュータ読み取り可能なプログラムコードを含み、
    dは、前記追加の詳細が必要とされる場合を定義する前記深度マップへの前記距離である、請求項15のコンピュータプログラム製品。
  17. テクスチャベースのアルゴリズムを適用するように構成される前記コンピュータ読み取り可能なプログラムコードは、前記マークされた領域についての改良されたメッシュを取得するために、前記マークされた領域に対しテクスチャベースのアルゴリズムを適用するように構成されるコンピュータ読み取り可能なプログラムコードを含む、請求項16のコンピュータプログラム製品。
  18. 結合するように構成される前記コンピュータ読み取り可能なプログラムコードは、前記より正確な3Dメッシュを取得するために、前記計算された深度マップと、前記マークされた領域についての前記改良されたメッシュとを結合するように構成されるコンピュータ読み取り可能なプログラムコードをさらに含む、請求項16のコンピュータプログラム製品。
  19. dより大きい距離を有する領域についての前記深度マップの前記マークされた領域についての前記改良されたメッシュに対し、より高い重みを割り当てるように構成されるコンピュータ読み取り可能なプログラムコードと、
    dより小さい距離を有する前記深度マップの領域についての計算された深度マップに対し、より高い重みを割り当てるように構成されるコンピュータ読み取り可能なプログラムコードと、
    をさらに含む、請求項16のコンピュータプログラム製品。
  20. 前記コンピュータプログラム製品が実行される場合に、無線通信装置のプロセッサにより実行される、請求項15のコンピュータプログラム製品。
JP2014543987A 2011-12-02 2012-11-29 2次元の画像から3次元のメッシュを生成するための方法、システム、及びコンピュータプログラム製品 Pending JP2015504640A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161566145P 2011-12-02 2011-12-02
US61/566,145 2011-12-02
US13/355,960 US20130141433A1 (en) 2011-12-02 2012-01-23 Methods, Systems and Computer Program Products for Creating Three Dimensional Meshes from Two Dimensional Images
US13/355,960 2012-01-23
PCT/IB2012/002532 WO2013080021A1 (en) 2011-12-02 2012-11-29 Methods, systems and computer program products for creating three dimensional meshes from two dimensional images

Publications (1)

Publication Number Publication Date
JP2015504640A true JP2015504640A (ja) 2015-02-12

Family

ID=48523664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014543987A Pending JP2015504640A (ja) 2011-12-02 2012-11-29 2次元の画像から3次元のメッシュを生成するための方法、システム、及びコンピュータプログラム製品

Country Status (4)

Country Link
US (1) US20130141433A1 (ja)
EP (1) EP2786348B1 (ja)
JP (1) JP2015504640A (ja)
WO (1) WO2013080021A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11657520B2 (en) 2018-02-27 2023-05-23 Samsung Electronics Co., Ltd. Electronic device and method for controlling same

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140363097A1 (en) 2013-06-06 2014-12-11 Etron Technology, Inc. Image capture system and operation method thereof
US9140554B2 (en) * 2014-01-24 2015-09-22 Microsoft Technology Licensing, Llc Audio navigation assistance
US9734594B2 (en) 2015-08-26 2017-08-15 Electronics Arts Inc. Producing three-dimensional representation based on images of an object
US10169891B2 (en) * 2015-08-26 2019-01-01 Electronic Arts Inc. Producing three-dimensional representation based on images of a person
US10372968B2 (en) * 2016-01-22 2019-08-06 Qualcomm Incorporated Object-focused active three-dimensional reconstruction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266128A (ja) * 2000-03-21 2001-09-28 Nippon Telegr & Teleph Corp <Ntt> 奥行き情報取得方法,装置および奥行き情報取得プログラムを記録した記録媒体
JP2002116008A (ja) * 2000-10-11 2002-04-19 Fujitsu Ltd 距離測定装置及び映像監視装置
WO2007052191A2 (en) * 2005-11-02 2007-05-10 Koninklijke Philips Electronics N.V. Filling in depth results
JP2010256138A (ja) * 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870097A (en) * 1995-08-04 1999-02-09 Microsoft Corporation Method and system for improving shadowing in a graphics rendering system
US6016150A (en) * 1995-08-04 2000-01-18 Microsoft Corporation Sprite compositor and method for performing lighting and shading operations using a compositor to combine factored image layers
US5870098A (en) * 1997-02-26 1999-02-09 Evans & Sutherland Computer Corporation Method for rendering shadows on a graphical display
KR100560507B1 (ko) * 1997-12-05 2006-03-15 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 개선된 영상 변환 및 부호화 기술
US6297825B1 (en) * 1998-04-06 2001-10-02 Synapix, Inc. Temporal smoothing of scene analysis data for image sequence generation
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
JP2001118082A (ja) * 1999-10-15 2001-04-27 Toshiba Corp 描画演算処理装置
US7098925B1 (en) * 2000-03-10 2006-08-29 Intel Corporation Shading of images using texture
US6664962B1 (en) * 2000-08-23 2003-12-16 Nintendo Co., Ltd. Shadow mapping in a low cost graphics system
GB2378337B (en) * 2001-06-11 2005-04-13 Canon Kk 3D Computer modelling apparatus
US20030179249A1 (en) * 2002-02-12 2003-09-25 Frank Sauer User interface for three-dimensional data sets
US7399220B2 (en) * 2002-08-02 2008-07-15 Kriesel Marshall S Apparatus and methods for the volumetric and dimensional measurement of livestock
WO2004066212A2 (en) * 2003-01-17 2004-08-05 Koninklijke Philips Electronics N.V. Full depth map acquisition
KR100528343B1 (ko) * 2003-07-14 2005-11-15 삼성전자주식회사 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치
US7689043B2 (en) * 2003-10-09 2010-03-30 University Of York Image recognition
US7324594B2 (en) * 2003-11-26 2008-01-29 Mitsubishi Electric Research Laboratories, Inc. Method for encoding and decoding free viewpoint videos
US8114172B2 (en) * 2004-07-30 2012-02-14 Extreme Reality Ltd. System and method for 3D space-dimension based image processing
US20060187297A1 (en) * 2005-02-24 2006-08-24 Levent Onural Holographic 3-d television
US7633503B2 (en) * 2005-03-22 2009-12-15 Microsoft Corporation Local, deformable precomputed radiance transfer
US7286127B2 (en) * 2005-06-22 2007-10-23 Microsoft Corporation Large mesh deformation using the volumetric graph Laplacian
US7586489B2 (en) * 2005-08-01 2009-09-08 Nvidia Corporation Method of generating surface defined by boundary of three-dimensional point cloud
KR100731979B1 (ko) * 2005-10-18 2007-06-25 전자부품연구원 다시점 정방향 카메라 구조 기반의 메쉬를 이용한 중간영상 합성 방법 및 장치와 이를 구현하는 기능을실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는기록 매체
US7605817B2 (en) * 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US9101279B2 (en) * 2006-02-15 2015-08-11 Virtual Video Reality By Ritchey, Llc Mobile user borne brain activity data and surrounding environment data correlation system
DE102006018689A1 (de) * 2006-04-13 2007-10-25 Seereal Technologies S.A. Verfahren zum Rendern und Generieren computergenerierter Videohologramme in Echtzeit
US8433157B2 (en) * 2006-05-04 2013-04-30 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
US7711201B2 (en) * 2006-06-22 2010-05-04 Sony Corporation Method of and apparatus for generating a depth map utilized in autofocusing
WO2007148219A2 (en) * 2006-06-23 2007-12-27 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
WO2008044913A1 (en) * 2006-10-13 2008-04-17 Tele Atlas B.V. System for and method of processing laser scan samples and digital photographic images relating to building façade
US8330823B2 (en) * 2006-11-01 2012-12-11 Sony Corporation Capturing surface in motion picture
CA2670214A1 (en) * 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US8160149B2 (en) * 2007-04-03 2012-04-17 Gary Demos Flowfield motion compensation for video compression
US20090002368A1 (en) * 2007-06-26 2009-01-01 Nokia Corporation Method, apparatus and a computer program product for utilizing a graphical processing unit to provide depth information for autostereoscopic display
US20090010507A1 (en) * 2007-07-02 2009-01-08 Zheng Jason Geng System and method for generating a 3d model of anatomical structure using a plurality of 2d images
GB2464453B8 (en) * 2008-10-10 2016-09-14 Toshiba Res Europ Ltd An imaging system and method
US9225965B2 (en) * 2008-11-07 2015-12-29 Telecom Italia S.P.A. Method and system for producing multi-view 3D visual contents
US20100231590A1 (en) * 2009-03-10 2010-09-16 Yogurt Bilgi Teknolojileri A.S. Creating and modifying 3d object textures
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
US20130124148A1 (en) * 2009-08-21 2013-05-16 Hailin Jin System and Method for Generating Editable Constraints for Image-based Models
BR112012008988B1 (pt) * 2009-10-14 2022-07-12 Dolby International Ab Método, meio legível não transitório e aparelho para processamento de mapa de profundidade
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
US9208612B2 (en) * 2010-02-12 2015-12-08 The University Of North Carolina At Chapel Hill Systems and methods that generate height map models for efficient three dimensional reconstruction from depth information
US20110222757A1 (en) * 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US8515669B2 (en) * 2010-06-25 2013-08-20 Microsoft Corporation Providing an improved view of a location in a spatial environment
US8861800B2 (en) * 2010-07-19 2014-10-14 Carnegie Mellon University Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
JP5899232B2 (ja) * 2010-11-24 2016-04-06 グーグル インコーポレイテッド 地理的位置指定パノラマを通した誘導付きナビゲーション
KR101181199B1 (ko) * 2011-01-03 2012-09-18 한국과학기술원 배경 지형 장면의 입체 이미지 생성 방법, 시스템 및 이를 위한 기록매체
US8587583B2 (en) * 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US20130095920A1 (en) * 2011-10-13 2013-04-18 Microsoft Corporation Generating free viewpoint video using stereo imaging
US8933935B2 (en) * 2011-11-10 2015-01-13 7D Surgical Inc. Method of rendering and manipulating anatomical images on mobile computing device
US9171393B2 (en) * 2011-12-07 2015-10-27 Microsoft Technology Licensing, Llc Three-dimensional texture reprojection
US8462155B1 (en) * 2012-05-01 2013-06-11 Google Inc. Merging three-dimensional models based on confidence scores

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266128A (ja) * 2000-03-21 2001-09-28 Nippon Telegr & Teleph Corp <Ntt> 奥行き情報取得方法,装置および奥行き情報取得プログラムを記録した記録媒体
JP2002116008A (ja) * 2000-10-11 2002-04-19 Fujitsu Ltd 距離測定装置及び映像監視装置
WO2007052191A2 (en) * 2005-11-02 2007-05-10 Koninklijke Philips Electronics N.V. Filling in depth results
JP2010256138A (ja) * 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11657520B2 (en) 2018-02-27 2023-05-23 Samsung Electronics Co., Ltd. Electronic device and method for controlling same

Also Published As

Publication number Publication date
WO2013080021A1 (en) 2013-06-06
EP2786348B1 (en) 2017-12-20
EP2786348A1 (en) 2014-10-08
US20130141433A1 (en) 2013-06-06

Similar Documents

Publication Publication Date Title
JP2015504640A (ja) 2次元の画像から3次元のメッシュを生成するための方法、システム、及びコンピュータプログラム製品
US11816786B2 (en) System and method for dynamically adjusting level of details of point clouds
WO2017067390A1 (zh) 图像中弱纹理区域的深度信息获取方法及终端
CN103175525B (zh) 基于电子海图和导航数据的雷达图像模拟系统和方法
CN110869980B (zh) 将内容分发和呈现为球形视频和3d资产组合
US9078232B2 (en) Methods and apparatuses for characterizing and affecting mobile device location accuracy and/or uncertainty
EP3687210A1 (en) Path loss prediction method and apparatus
CN103760573A (zh) 电离层延迟获取方法和装置
CN108573522B (zh) 一种标志数据的展示方法及终端
US20220053291A1 (en) Method and apparatus for augmented reality service in wireless communication system
CN114080582B (zh) 用于稀疏分布式渲染的系统和方法
US10613191B2 (en) Object tracking and ranging
CN112312306A (zh) 一种定位方法及装置
CN107278315A (zh) 运动模糊的快速自适应估计以用于相干渲染
CN111433822B (zh) 增强现实内容的行星规模定位
CN111354037A (zh) 一种定位方法及系统
CN105472541A (zh) 一种定位方法、系统、定位服务器及终端
WO2009085402A1 (en) Determining position of a node and representing the position as a position probability space
US20090144311A1 (en) Method and apparatus for developing high resolution databases from low resolution databases
CN104683464A (zh) 一种针对计算机的定位方法、装置及系统
CN113891249A (zh) 网络覆盖确定方法、装置及存储介质
WO2020196308A1 (ja) 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
CN111292288B (zh) 一种目标检测及定位的方法及装置
KR101727823B1 (ko) 영상 처리 장치 및 그의 동작 방법
US11671189B2 (en) Systems and methods for managing energy detection thresholds

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160223