JP2014534656A - 運動視差を用いた、2d画像からの3d知覚の生成 - Google Patents

運動視差を用いた、2d画像からの3d知覚の生成 Download PDF

Info

Publication number
JP2014534656A
JP2014534656A JP2014529661A JP2014529661A JP2014534656A JP 2014534656 A JP2014534656 A JP 2014534656A JP 2014529661 A JP2014529661 A JP 2014529661A JP 2014529661 A JP2014529661 A JP 2014529661A JP 2014534656 A JP2014534656 A JP 2014534656A
Authority
JP
Japan
Prior art keywords
viewing angle
images
display
information
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014529661A
Other languages
English (en)
Other versions
JP6240963B2 (ja
Inventor
サン、ウェイ
パスクア、キーラン デル
パスクア、キーラン デル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2014534656A publication Critical patent/JP2014534656A/ja
Application granted granted Critical
Publication of JP6240963B2 publication Critical patent/JP6240963B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

シーンの複数の2次元(2D)画像を受信することと、これらの複数の2D画像を用いて、シーンに関連付けられた3次元(3D)情報を決定することと、ディスプレイに対するユーザー視認角を決定することとを含むシステム、デバイス及び方法が記載されている。次に、これらの3D情報及びユーザー視認角を用いて、生成された画像をディスプレイ上に提示することができる。ユーザーがディスプレイに対して移動した場合、これに対応して新たなユーザー視認角を決定することができ、これらの3D情報及び新たなユーザー視認角を用いて、異なる生成画像を表示することができる。【選択図】図1

Description

立体表示デバイス、シャトル眼鏡、偏光眼鏡等の特別な視認デバイスを必要とすることなく、ユーザーの視点から3Dシーンの3D知覚を提供するものに、運動視差視認技法がある。ユーザーの体験は、鏡の中のシーン又は窓を通したシーンを見ることと等価であるので、運動視差の視認は、一般に特別な視認デバイスを用いることに関連した眼精疲労等の影響を引き起こすおそれがない。今日まで、運動視差の効果は、コンピューターグラフィックスによって生成された3D仮想コンテンツを視認することにのみ用いられてきており、カメラによってキャプチャされた2D写真コンテンツ及び/又は2Dビデオコンテンツを視認することには用いられていなかった。運動視差の効果を2D写真及び2Dビデオを視認することに用いることは、画像キャプチャ中及び/又は画像キャプチャ後に、実生活のシーンから3D情報を抽出することを伴う。
本明細書において説明される内容は、添付した図において、限定としてではなく例として示されている。説明を簡単かつ明瞭にするために、図に示した要素は、必ずしも一律の縮尺で描かれているものではない。例えば、幾つかの要素の寸法は、明瞭にするために、他の要素に比べて誇張されている場合がある。さらに、適切と考えられる場合には、対応する要素又は類似の要素を示すのに、参照符号が図の間で繰り返されている。
一例示の視差視認システムの説明図である。 一例示の視差視認システムの説明図である。 一例示の視差視認プロセスを示す図である。 一例示のカメラ視点の説明図である。 一例示の視差視認方式を示す図である。 一例示の視差視認プロセスを示す図である。 一例示のシステムの説明図である。 本開示の少なくとも幾つかの実施態様に従って全て配列された一例示の視差視認プロセスを示す図である。
ここでは、同封された図を参照して1つ又は複数の実施形態又は実施態様を説明する。特定の構成及び装置が議論されるが、これは、例示の目的でのみなされていることが理解されるべきである。当業者であれば、この説明の趣旨及び範囲から逸脱することなく他の構成及び装置を用いることができることを認識するであろう。本明細書において説明する技法及び/又は装置は、本明細書において説明するもの以外の他の様々なシステム及びアプリケーションにおいても用いることができることが当業者には明らかであろう。
以下の説明は、例えば、システムオンチップ(SoC)アーキテクチャ等のアーキテクチャにおいて顕在化させることができる様々な実施態様を記載しているが、本明細書において説明する技法及び/又は装置の実施態様は、特定のアーキテクチャ及び/又はコンピューティングシステムに制限されるものではなく、同様の目的の任意のアーキテクチャ及び/又はコンピューティングシステムによって実施することができる。例えば複数の集積回路(IC)チップ及び/又はパッケージを用いる、例えば様々なアーキテクチャ、及び/又はセットトップボックス、スマートフォン等の様々なコンピューティングデバイス及び/又は消費家電(CE)デバイスが、本明細書において説明する技法及び/又は装置を実施することができる。さらに、以下の説明は、ロジックの実施態様、システム構成要素、ロジックの分割/統合の選択肢等のタイプ及び相互関係等の多数の特定の詳細を記載している場合があるが、特許請求される主題は、そのような特定の詳細がなくても実施することができる。それ以外の場合に、例えば、制御構造及び全ソフトウェア命令シーケンス等の幾つかの内容は、本明細書に開示する内容を分かりにくくしないように詳細に示されていない場合がある。
本明細書に開示する内容は、ハードウェア、ファームウェア、ソフトウェア、又はそれらの任意の組み合わせで実施することができる。本明細書に開示する内容は、1つ又は複数のプロセッサが読み出して実行することができる機械可読媒体上に記憶された命令として実施することもできる。機械可読媒体は、機械(例えば、コンピューティングデバイス)によって可読な形式で情報を記憶又は送信するための任意の媒体及び/又はメカニズムを含むことができる。例えば、機械可読媒体は、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイス、電気的形態、光学的形態、音響的形態又は他の形態の伝播信号(例えば、搬送波、赤外線信号、デジタル信号等)等を含むことができる。
本明細書において「1つの実施態様」、「一実施態様」、「一例示の実施態様」等というとき、これは、説明される実施態様が、特定の特徴、構造又は特性を含む場合があるが、あらゆる実施態様が、その特定の特徴、構造又は特性を必ずしも含むとは限らないことを示す。その上、そのようなフレーズは、必ずしも同じ実施態様を指しているとは限らない。さらに、特定の特徴、構造又は特性が一実施態様に関して説明されているとき、本明細書において明示的に説明されているか否かを問わず、他の実施態様に関してもそのような特徴、構造又は特性が有効であることが当業者には知られていると考えられる。
図1は、本開示による一例示の運動視差視認システム100を示している。様々な実施態様では、システム100は、2次元(2D)ビデオ画像の形式のソース画像107を提供するビデオ対応カメラ等の撮像デバイス102を備えることができる。様々な実施態様では、撮像デバイス102は、デジタル形式の2Dビデオ画像107を提供することができるビデオ対応スマートフォン等の任意のタイプのデバイスとすることができる。ソース画像107は、任意の解像度及び/又はアスペクト比を有することができる。ソース画像107は、撮像デバイス102にローカルに記憶することもできるし、ネットワーク104を通じて送信することもできる。ネットワーク104は、任意のタイプのネットワークとすることができ、無線及び/又は有線のネットワーク技術の任意の組み合わせを含むことができる。例えば、非限定的な例において、ネットワーク104は、インターネット等のワイドエリアネットワーク(WAN)と組み合わさった1つ又は複数の無線ローカルエリアネットワーク(LAN)(例えば、3D環境103にサービス提供する)を含むことができる。
図1に示すように、ビデオ画像107をキャプチャするとき、シーン105に対して水平なカメラ102の動きによって、シーン105に対する様々な向き又は視角を有するキャプチャされたビデオソース画像107を生成することができる。様々な実施態様では、シーン105に対してカメラ102を水平に移動させるのに任意の手法を用いることができる。例えば、ビデオモードにある間、カメラ102をマニュアルで(例えば、手によって)移動させて、異なる視角を有するソース画像107を取得することができる。他の実施態様では、カメラ102は、異なる視角を有するソース画像107を自動的に取得することができる。例えば、ソース画像107を取得するために、ユーザーはシャッター制御に一度携わるだけでよくカメラをマニュアルで移動させる必要がないように、カメラ102は、任意の内部機械式制御方式を用いて、異なる視角を有するソース画像107を自動的に取得するレンズ/撮像システムを組み込むことができる。
システム100は、運動視差視認エンジン106、データベース108及びディスプレイエンジン110も備え、これらは全て、互いに直接又はネットワーク104を介して通信結合されている。様々な実施態様では、以下でより詳細に説明するように、視差視認エンジン106は、ネットワーク104を介してソース画像107を受信することができ、それらの画像に対して様々なプロセスを実行して、様々な画像に関連付けられた視角等の3D情報を取得することができる。視差視認エンジン106は、ソース画像107に関連付けられた3D情報をデータベース108に記憶することができる。様々な実施態様では、以下でより詳細に説明するように、ディスプレイエンジン110は、ソース画像107及び関連付けられた3D情報を撮像デバイス102から直接又はネットワーク104を介して受信することができ、様々なプロセスを行って、ディスプレイ112に対するユーザーの視認角に依存したディスプレイ112上に提示される画像を提供することができる。
図2は、本開示による別の例示の視差視認システム200を示している。様々な実施態様では、システム200は、シーン105のそれぞれの2Dソース画像206及び208をネットワーク104に提供する少なくとも2つの撮像デバイス(例えば、カメラ)202及び204を備えることができる。様々な実施態様では、デバイス202及び204は、デジタル形式の2D画像をネットワーク104に提供することができるスマートフォン等の任意のタイプのデバイスとすることができる。ソース画像206及び208は、任意の解像度及び/又はアスペクト比を有することができる。様々な実施態様では、デバイス202及び204は、既知の技法を用いて較正することができる(例えば、H. Malm及びA. Heyden「Simplified Intrinsic Camera Calibration and Hand-Eye Coordination for Robot Vision」(Proceedings of the 2003 IEEE/RSJ Intl. Conference on Intelligent Robots and Systems (October, 2003))参照)。
図2に示すように、撮像デバイス202及び204は、互いに離間し、シーン105に対して対応する向き又は視角Θ及びΘを有する。その結果、それぞれの画像206及び208は、異なる視角Θ及びΘに従った異なる視点からシーン105をキャプチャすることができる。様々な実施態様では、撮像デバイス202と204との間の距離x、すなわちベースラインは、撮像デバイス202及び204とシーン105との間の深度すなわち距離dに依存する場合がある。例えば、非限定的な例では、撮像デバイス202及び204とシーン105との間の深度dが約2メートルである場合、撮像デバイス202と204との間の約10センチメートルのベースラインによって、以下でより詳細に説明するような立体再構成技法に適したシーン105の異なる視点を有する画像206及び208を提供することができる。
様々な実施態様では、2つの撮像デバイス202及び204は、同様のデバイスとすることができる。例えば、幾つかの実施態様では、デバイス202及び204は、同様の高解像度カラーカメラとすることができる。更に他の実施態様では、デバイス202及び204は、構造化光カメラ又は飛行時間カメラ等の同様のカラー深度カメラとすることができる。別の更なる実施態様では、2つの撮像デバイス202及び204は、異種のデバイスとすることができる。例えば、幾つかの実施態様では、デバイス202は、高解像度カラーカメラとすることができる一方、デバイス204は、例えば、魚眼レンズを装備した広視野カメラとすることができる。
システム200は、視差視認エンジン106、データベース108及びディスプレイエンジン110も備え、これらは全てネットワーク104に通信結合されているとともに、ネットワーク104を介して互いに通信結合されている。様々な実施態様では、以下で更に詳細に説明するように、視差視認エンジン106は、ネットワーク104を介してソース画像206及び208を受信することができ、それらの画像に対して立体再構成等の様々なプロセスを実行して、シーン105に関連付けられた3D情報を取得することができる。視差視認エンジン106は、この3D情報をデータベース108に記憶することができる。様々な実施態様では、以下でより詳細に説明するように、ディスプレイエンジン110は、ネットワーク104を介してこの3D情報を受信することができ、様々なプロセスを行って、ディスプレイ112に対するユーザーの視認角に依存したシーン105の合成画像を提供することができる。
図1及び図2は、エンジン106及び110並びにデータベース108を、互いに別個のものとして示しているが、本開示は、そのような配置に限定されるものではない。例えば、幾つかの実施態様では、エンジン106及び110及び/又はデータベース108は、サーバー等の単一のデバイス又はコンピューティングシステムによって提供することができる。さらに、幾つかの実施態様では、例えば、システム100において、視認エンジン106及びカメラ102は、スマートフォン等の単一のデバイス又はコンピューティングシステムに含めることができる。また、更に他の実施態様では、システム200は、2つのみの撮像デバイス202及び204ではなく、3つ以上の視角からシーン105の複数の画像を同時にキャプチャすることができるように互いに水平方向に離間する複数の画像キャプチャデバイス(例えば、カメラ素子)を備えることができる。上記は、システム100及び200の項目のほんの数例の配置にすぎず、本開示と矛盾しない多数の他の配置又は実施態様が可能である。
図3は、本開示の様々な実施態様による一例示の視差視認プロセス300の流れ図を示している。プロセス300は、図3のブロック302、304、306、308、310、312及び314のうちの1つ又は複数によって示されているような1つ又は複数の動作、機能又は行為を含むことができる。非限定的な例として、プロセス300は、本明細書では、図1の例示のシステム100に関して説明される。
プロセス300は、複数のソースビデオ画像301を受信することができるブロック302において開始することができる。例えば、システム100を参照すると、ブロック302は、視差視認エンジン106がネットワーク104を介してソース画像107を受信することを含むことができる。幾つかの実施態様では、ソース画像は、ブロック302においてデータベース108から受信することができる。
次に、ブロック304において、ソース画像の視角を決定することができる。様々な実施態様では、ブロック304は、視差視認エンジン106が既知の技法(例えば、M. Goesele他「Multi-View Stereo for Community Photo Collections」(IEEE 11th International Conference on Computer Vision (2007))参照)を用いて、ブロック302において受信された各画像の視角を決定することを含むことができる。例えば、図4は、シーン105の中心点406及び関連付けられた中心軸407に対するソース画像の幾つかのカメラ視点402〜405の単純化した例示の略図面400を示している。略図面400に示すように、ブロック304は、視点402の視角408、視点403の視角410等を決定することを含むことができる。様々な実施態様では、視角408及び410等の軸407の左側の視角は、負の値の視角として指定することができる一方、視点405の視角412等の軸407の右側の視角は、正の値の視角として指定することができる。
プロセス300の議論に戻ると、ブロック304において決定された視角は、対応するソース画像に関連付けられたメタデータとして記憶することができる(ブロック306)。例えば、様々な実施態様では、視差視認エンジン106は、ブロック304において視角を決定すると、視角メタデータがデータベース108内の対応するソース画像に関連付けられようにこの視角メタデータをデータベース108に記憶することによって、ブロック306を行うことができる。
ブロック308において、ユーザー視認角を決定することができる。様々な実施態様では、ブロック308は、前向きカメラ及び関連付けられたロジック等のディスプレイに関連付けられたメカニズムが、当該ディスプレイに対するユーザーの角度を決定することを含むことができる。ここで、ディスプレイは、シーン105の画像をユーザーに提示するのに用いられる。例えば、図5は、システム100及び200のディスプレイ112を含む単純化した例示の略図面500を示している。ディスプレイ112は、前向きカメラ502と、既知の技法を用いてユーザーの顔及び/又は頭部を検出することができ、それによって、ユーザーの視認角Θuserを決定することができる関連付けられたロジック(図示せず)とを備える。ユーザー視認角Θuserは、顔/頭部認識技法を用いて確立された、ユーザーの視点506に関連付けられたユーザーの視線504と、ディスプレイ112の中心軸508との間の角度差として決定することができる。様々な実施態様では、システム100のディスプレイエンジン110は、ブロック308を行うことができる。さらに、中心軸508の右側のユーザー視認角は、正の値を有するように指定することができる一方、中心軸508の左側の角度は、負の値として指定することができる。
プロセス300の議論に戻ると、ユーザー視認角に最も近い視角を有する最もよく一致したソース画像を決定することができる(ブロック310)。様々な実施態様では、ブロック308は、ディスプレイエンジン110が、ブロック306からの結果の視角メタデータにアクセスし、対応する視角をブロック308において決定されたユーザー視認角と比較して、ユーザー視認角に値が最も近い画像視角に対応する最もよく一致したソース画像を決定することを含むことができる。ブロック310を行う際に、ディスプレイエンジン110は、データベース108に記憶された視角メタデータにアクセスすることができる。
ブロック312において、最もよく一致したソース画像を表示することができる。例えば、ディスプレイエンジン110は、ブロック310において、最もよく一致したソース画像を決定すると、そのソース画像をディスプレイ112上に提示することができる。ブロック312を行う際に、ディスプレイエンジン110は、対応するソース画像をデータベース108から取り出すことができる。
ブロック314において、ユーザー視認角が変化したか否かに関する判断を行うことができる。例えば、図5も参照すると、ブロック314は、ユーザーがディスプレイ112に対して移動したため、ユーザーは現在、新たなユーザーの視点510に位置していると判断することを含むことができる。その結果、プロセス300は、ブロック308に戻ることができ、このブロック308において、上述したものと同様の方法で、新たなユーザー視認角Θuserを決定することができる。その後、ブロック310及び312を再び行って、上述したものと同様の方法で、新たな最もよく一致したソース画像を決定し、その新たな最もよく一致したソース画像を表示することができる。新たなユーザー視点が、新たな最もよく一致したソース画像を得るほど十分に変化していないと判断された場合、プロセス300は、ブロック312に戻って、現在の最もよく一致したソース画像の表示を継続することができる。このように、プロセス300は、ユーザ操作可能な(user-steerable)3D知覚又は視認体験を提供することができる。
ブロック308は、上述したように、前向きカメラを用いてユーザー視認角を決定するが、本開示は、ユーザー視認角を決定するための特定の方法に限定されるものではない。例えば、ユーザー視認角を決定するのに用いることができる他の技法は、よく知られたマウス、キーボード、及び/又はタッチスクリーンのユーザー制御技法を用いることを含む。例えば、ユーザー視認角を決定することは、タッチスクリーンコンピューティングシステムとのユーザーのインターラクションの結果として行うことができる。例えば、ユーザー視認角は、ユーザーがタッチスクリーン上の特定のロケーションをタッチすることによって示すことができる。さらに、ユーザーがスクリーンをタッチし、次いで、その指を特定の方向にスライドすること等が、ユーザー視認角の変化を示すことができる。
図6は、本開示の様々な実施態様による一例示の視差視認プロセス600の流れ図を示している。プロセス600は、図6のブロック602、604、606、608、610、612及び614のうちの1つ又は複数によって示されるような1つ又は複数の動作、機能又は行為を含むことができる。非限定的な例として、プロセス600は、本明細書では、図2の例示のシステム200に関して説明される。
プロセス600は、少なくとも一対のソース画像を受信することができるブロック602において開始することができる。例えば、システム200を参照すると、ブロック602は、視差視認エンジン106が、ネットワーク104を介して第1のソース画像206及び第2のソース画像208を受信することを含むことができる。幾つかの実施態様では、ソース画像は、ブロック602においてデータベース108から受信することができる。
図2の議論において上述したように、撮像デバイス202及び204は、同様のデバイスとすることができ、したがって、ソース画像206及び208も、同様のものとすることができる。例えば、デバイス202及び204が同様の高解像度カラーカメラである実施態様では、ソース画像206及び208は、同様のデータフォーマット、解像度及びアスペクト比を有する高解像度カラー画像とすることができる。デバイス202及び204が構造化光カメラ又は飛行時間カメラ等の同様のカラー深度カメラである更に他の実施態様では、ソース画像206及び208は、同様のデータフォーマット(深度データを含む)、解像度及びアスペクト比を有する高解像度カラー画像とすることができる。
上記とは対照的に、撮像デバイス202及び204が異種のものである実施態様では、ソース画像206及び208も、同様に異種のものとすることができる。例えば、デバイス202が高解像度カラーカメラであり、デバイス204が広視野カメラである実施態様では、ソース画像206は、高解像度カラー画像とすることができる一方、ソース画像208は、それよりも低い解像度の広視野カラー画像とすることができる。そのような実施態様では、画像206及び208は、同様のアスペクト比を有することができるが、シーン105の異なる部分又は側面をキャプチャすることができる。例えば、画像206は、シーン105の視野の中央における高解像度の視覚的詳細を提供する高解像度カラー画像とすることができる一方、魚眼画像208は、シーン105のそれよりも低い解像度の周辺視野を提供することができる。
ブロック604において、ソース画像を解析して、シーン105の3D情報を取得することができる。ソース画像が同様の較正された撮像デバイスから取得される様々な実施態様では、ブロック604は、シーン105の3D情報を抽出することと、既知の立体再構成技法(例えば、Seitz他「A Comparison and Evaluation of Multi-View Stereo Reconstruction Algorithms」(In Proc. IEEE Conf. on Computer Vision and Pattern Recognition (2006))参照)を用いてソース画像間の回転及び平行移動等のカメラの動きを推定することとを含むことができる。様々な実施態様では、ブロック604において生成されて、ブロック602において受信されたソース画像に関連付けられた3D情報は、(例えば、シーンのワールド座標系におけるシーン特徴点についての)シーンの3D座標、及び2つのソース画像に関連付けられたカメラ姿勢情報を含むことができる。
ブロック604を行う際に、2つのソース画像206及び208のカメラ視角を、左端基準視角及び右端基準視角として用いることができる。例えば、ソース画像がカラー深度撮像デバイスから取得される幾つかの実施態様、又は撮像デバイス間のベースラインがシーンの信頼できる立体再構成を妨げるほど十分大きい実施態様では、テクスチャレスシーンからの3D情報の抽出を援助するのにソース画像内の深度データを用いることもできる。ブロック606において、3D情報は、ソース画像に関連付けられたメタデータとして記憶することができる。例えば、3D情報は、システム200のデータベース108にメタデータとして記憶することができる。様々な実施態様では、プロセス600のブロック602〜606は、視差視認エンジン106が行うことができる。
ブロック608において、ユーザー視認角を決定することができる。例えば、ブロック608は、プロセス300のブロック308に関して本明細書において説明したものと同様の方法で行うことができる。ブロック308に関して前述したように、ユーザー視認角は、ディスプレイ112上の前向きカメラを用いて、又はマウス、キーボード、タッチスクリーン等のユーザー操作に応答して決定することができる。
ブロック610において、ブロック604において決定された3D情報及びブロック608において決定されたユーザー視認角に少なくとも部分的に基づいて、画像を合成することができる。様々な実施態様では、ブロック610は、3D情報を投影する既知の技法を用いて、ディスプレイ112に対するユーザーの視認角に対応する視点を有するシーン105の画像を生成することを含むことができる。次に、ブロック612において、結果の合成画像を表示することができる。例えば、この合成画像は、ディスプレイ112上にレンダリング又は提示することができる。
ブロック614において、ユーザー視認角が変化したか否かに関する判断を行うことができる。例えば、図5を再び参照すると、ブロック614は、ユーザーがディスプレイ112に対して移動したため、ユーザーは現在、新たなユーザーの視点510に位置していると判断することを含むことができる。その結果、プロセス600は、ブロック608に戻ることができ、このブロック608において、上述したものと同様の方法で、新たなユーザー視認角Θuserを決定することができる。その後、ブロック610及び612を再び行って、上述したものと同様の方法で、新たなユーザー視認角に対応する視点を有するシーン105の新たな画像を合成することができる。新たなユーザー視点が十分に変化していないと判断された場合、プロセス600は、ブロック612に戻って、現在の合成画像表示を継続することができる。このように、プロセス600は、ユーザ操作可能な3D知覚又は視認体験を提供することができる。様々な実施態様では、プロセス600のブロック608〜614は、ディスプレイエンジン110が行うことができる。
図3及び図6に示すような例示のプロセス300及び600の実施態様は、示された順序で図示した全てのブロックを行うことを含むことができるが、本開示は、この点に限定されるものではなく、様々な例では、プロセス300及び600の実施態様は、図示した全てのブロックのサブセットのみを行うこと、及び/又は示したものとは異なる順序で行うことを含むことができる。さらに、プロセス300及び/又は600の一部は、異なる連結で行うことができる。例えば、図3のブロック302〜306又は図6のブロック602〜606は、視差視認エンジン106が行うことができ、それらの行為の結果は、データベース108に記憶することができる。その後になって(例えば、数日後、数週間後又は数ヵ月後)、ディスプレイエンジン110は、図3のブロック308〜314又は図6のブロック608〜614を行うことができる。
加えて、図3及び図6のプロセス及び/又はブロックのうちの任意の1つ又は複数は、1つ又は複数のコンピュータープログラム製品によって提供される命令に応答して行うことができる。そのようなプログラム製品は、例えば、1つ又は複数のプロセッサコアによって実行されると、本明細書において説明した機能を提供することができる命令を提供する信号担持媒体を含むことができる。コンピュータープログラム製品は、任意の形式のコンピューター可読媒体において提供することができる。したがって、例えば、1つ又は複数のプロセッサコアを含むプロセッサは、コンピューター可読媒体によってプロセッサに搬送される命令に応答して、図3及び図6に示すブロックのうちの1つ又は複数を行うことができる。
図7は、本開示による一例示のシステム700を示している。システム700は、本明細書において議論した様々な機能の一部又は全てを実行するのに用いることができ、本開示の様々な実施態様による視差視認を実施することができる任意のデバイス又はデバイスの集合体を備えることができる。例えば、システム700は、デスクトップ、移動コンピューター又はタブレットコンピューター、スマートフォン、セットトップボックス等のコンピューティングプラットフォーム又はデバイスの選択された構成要素を含むことができるが、本開示は、この点に限定されるものではない。幾つかの実施態様では、システム700は、CEデバイス用のIntel(登録商標)アーキテクチャ(IA)に基づくコンピューティングプラットフォーム又はSoCとすることができる。本明細書において説明した実施態様は、本開示の範囲から逸脱することなく、代替の処理システムとともに用いることができることが当業者によって容易に認識されるであろう。
システム700は、1つ又は複数のプロセッサコア704を有するプロセッサ702を備える。プロセッサコア704は、少なくとも部分的にソフトウェアを実行し及び/又はデータ信号を処理することができる任意のタイプのプロセッサロジックとすることができる。様々な例では、プロセッサコア704は、CISCプロセッサコア、RISCマイクロプロセッサコア、VLIWマイクロプロセッサコア、及び/又は命令セットの任意の組み合わせを実装する任意の数のプロセッサコア、又はデジタル信号プロセッサ若しくはマイクロコントローラー等の他の任意のプロセッサデバイスを含むことができる。
プロセッサ702は、例えば、ディスプレイプロセッサ708及び/又はグラフィックスプロセッサ710によって受信された命令を制御信号及び/又はマイクロコードエントリー点にデコードするのに用いることができるデコーダー706も備える。コア(複数の場合もある)704とは別個の構成要素としてシステム700に示されているが、当業者であれば、コア(複数の場合もある)704のうちの1つ又は複数が、デコーダー706、ディスプレイプロセッサ708、及び/又はグラフィックスプロセッサ710を実施することができることを認識することができる。幾つかの実施態様では、プロセッサ702は、図3及び図6に関して説明した例示のプロセスを含む、本明細書において説明したプロセスのうちの任意のものを行うように構成することができる。さらに、制御信号及び/又はマイクロコードエントリー点に応答して、デコーダー706、ディスプレイプロセッサ708、及び/又はグラフィックスプロセッサ710は、対応する動作を実行することができる。
処理コア(複数の場合もある)704、デコーダー706、ディスプレイプロセッサ708、及び/又はグラフィックスプロセッサ710は、システム相互接続716を通じて互いに及び/又は様々な他のシステムデバイスと通信可能に及び/又は動作可能に結合することができる。これらの様々な他のシステムデバイスは、例えば、メモリコントローラー714、オーディオコントローラー718、及び/又は周辺装置720を含むことができるが、これらに限定されるものではない。周辺装置720は、例えば、統一シリアルバス(USB:unified serial bus)ホストポート、ペリフェラルコンポーネントインターコネクト(PCI)エクスプレスポート、シリアル周辺インターフェース(SPI)インターフェース、拡張バス、及び/又は他の周辺装置を含むことができる。図7は、相互接続716によってデコーダー706並びにプロセッサ708及び710に結合されたものとしてメモリコントローラー714を示しているが、様々な実施態様では、メモリコントローラー714は、デコーダー706、ディスプレイプロセッサ708、及び/又はグラフィックスプロセッサ710に直接結合することができる。
幾つかの実施態様では、システム700は、図7に図示していない様々なI/OデバイスとI/Oバス(同様に図示せず)を介して通信することができる。そのようなI/Oデバイスは、例えば、ユニバーサル非同期受信機/送信機(UART)デバイス、USBデバイス、I/O拡張インターフェース、又は他のI/Oデバイスを含むことができるが、これらに限定されるものではない。様々な実施態様では、システム700は、移動通信、ネットワーク通信、及び/又は無線通信を行うためのシステムの少なくとも一部分を表すことができる。
システム700は、メモリ712を更に備えることができる。メモリ712は、ダイナミックランダムアクセスメモリ(DRAM)デバイス、スタティックランダムアクセスメモリ(SRAM)デバイス、フラッシュメモリデバイス、又は他のメモリデバイス等の1つ又は複数のディスクリートメモリ構成要素とすることができる。図7は、プロセッサ702の外部のものとしてメモリ712を示しているが、様々な実施態様では、メモリ712は、プロセッサ702の内部とすることができる。メモリ712は、図3及び図6に関して説明した例示のプロセスを含む、本明細書において説明したプロセスのうちの任意のものを行う際に、プロセッサ702が実行することができるデータ信号によって表される命令及び/又はデータを記憶することができる。幾つかの実施態様では、メモリ712は、システムメモリ部分及びディスプレイメモリ部分を含むことができる。
例示のシステム100、200、及び/又は700等の本明細書において説明したデバイス及び/又はシステムは、本開示による多くの可能なデバイス構成、アーキテクチャ又はシステムのうちの幾つかを表している。例示のシステム100、200、及び/又は700の変形形態等の、システムの多数の変形形態が、本開示と矛盾せずに可能である。
図8は、本開示の様々な実施態様による一例示の視差視認プロセス800の流れ図を示している。プロセス800は、図8のブロック802、804、806、808、810及び812のうちの1つ又は複数によって示されるような1つ又は複数の動作、機能又は行為を含むことができる。
プロセス800は、本明細書において説明したようにシーンの複数の2D画像801を受信することができるブロック802において開始することができる。ブロック804において、シーンに関連付けられた3D情報を決定することができる。例えば、プロセス300及び600を参照すると、ブロック804は、本明細書において説明したように、ブロック304又は604をそれぞれ行うことを含むことができる。その後、本明細書において説明したように、3D情報をメタデータとして記憶することができ(ブロック806)、同様に本明細書において説明したように、ブロック808において、ディスプレイに対するユーザー視認角を決定することができる。ブロック810において、シーンに関連付けられた3D情報及びユーザー視認角を少なくとも部分的に用いて、画像を生成することができる。例えば、プロセス300及び600を参照すると、ブロック810は、本明細書において説明したように、ブロック310又は610をそれぞれ行うことを含むことができる。ブロック811において、生成された画像を表示することができる。最後に、ブロック812において、ユーザー視認角が変化したか否かに関する判断を行うことができる。変化していた場合、ブロック808及び810を繰り返すことができる。変化していない場合、プロセス800は、ブロック811に戻って、生成された現在の画像の表示を継続する。このように、プロセス800は、ユーザ操作可能な3D知覚又は視認体験を提供することができる。
上述したシステム、及び本明細書において説明したようなそれらのシステムによって実行される処理は、ハードウェア、ファームウェア、若しくはソフトウェア、又はそれらの任意の組み合わせで実施することができる。加えて、本明細書において開示した任意の1つ又は複数の特徴は、ディスクリートロジック及び集積回路ロジック、特定用途向け集積回路(ASIC)ロジック、並びにマイクロコントローラーを含むハードウェア、ソフトウェア、ファームウェア及びそれらの組み合わせで実施することができ、特定領域集積回路パッケージの一部、又は集積回路パッケージの組み合わせとして実施することができる。ソフトウェアという用語は、本明細書において用いられるとき、本明細書において開示した1つ若しくは複数の特徴及び/又は特徴の組み合わせをコンピューターシステムに実行させるコンピュータープログラムロジックが記憶されているコンピューター可読媒体を含むコンピュータープログラム製品を指す。
本明細書において記載された或る特定の特徴を様々な実施態様に関して説明してきたが、この説明は、限定的な意味に解釈されることを意図するものではない。したがって、本開示が関係する技術分野の当業者に明らかである、本明細書において説明した実施態様及び他の実施態様の様々な変更は、本開示の趣旨及び範囲内にあるとみなされる。
本明細書において記載された或る特定の特徴を様々な実施態様に関して説明してきたが、この説明は、限定的な意味に解釈されることを意図するものではない。したがって、本開示が関係する技術分野の当業者に明らかである、本明細書において説明した実施態様及び他の実施態様の様々な変更は、本開示の趣旨及び範囲内にあるとみなされる。
本発明の例を下記の各項目として示す。
[項目1]
シーンの複数の2次元画像(複数の2D画像)を受信することと、
前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
ディスプレイに対する第1のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
を含む、コンピューター実施方法。
[項目2]
前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
を更に含む、項目1に記載の方法。
[項目3]
前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することは、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを含む、項目1に記載の方法。
[項目4]
前記第1の生成された画像を前記ディスプレイ上に提示することは、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを含む、項目3に記載の方法。
[項目5]
前記3D情報に対応するメタデータを記憶することを更に含む、項目1に記載の方法。
[項目6]
前記ディスプレイに対する前記第1のユーザー視認角を決定することは、
前向きカメラ、マウス、キーボード又はタッチスクリーンのユーザー制御のうちの少なくとも1つを用いて、前記ディスプレイに対するユーザーの向きを決定することを含む、項目1に記載の方法。
[項目7]
前記シーンに関連付けられた3D情報を決定することは、前記複数の2D画像に応じて立体再構成を実行することを含む、項目1に記載の方法。
[項目8]
前記第1の生成された画像を提示することは、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを含む、項目7に記載の方法。
[項目9]
前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、項目7に記載の方法。
[項目10]
前記複数の2D画像は、複数の撮像デバイスによってキャプチャされた画像を含む、項目1に記載の方法。
[項目11]
前記複数の撮像デバイスは、カラーカメラ又はカラー深度カメラのうちの少なくとも一方を含む、項目10に記載の方法。
[項目12]
前記複数の撮像デバイスは、高解像度カラーカメラ及び広視野カラーカメラを含む、項目10に記載の方法。
[項目13]
命令を記憶しているコンピュータープログラム製品を含む物品であって、前記命令は実行されると、結果として、
シーンの複数の2次元画像(複数の2D画像)を受信することと、
前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
ディスプレイに対する第1のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
が行われる命令を記憶しているコンピュータープログラム製品を含む物品。
[項目14]
前記コンピュータープログラム製品は、実行されると、結果として、
前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
が行われる命令を更に記憶している、項目13に記載の物品。
[項目15]
前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することは、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを含む、項目13に記載の物品。
[項目16]
前記第1の生成された画像を前記ディスプレイ上に提示することは、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを含む、項目15に記載の物品。
[項目17]
前記コンピュータープログラム製品は、実行されると、結果として、
前記3D情報に対応するメタデータを記憶することが行われる命令を更に記憶している、項目13に記載の物品。
[項目18]
前記ディスプレイに対する前記第1のユーザー視認角を決定することは、
前向きカメラ、マウス、キーボード又はタッチスクリーンのユーザー制御のうちの少なくとも1つを用いて、前記ディスプレイに対するユーザーの向きを決定することを含む、項目13に記載の物品。
[項目19]
前記シーンに関連付けられた3D情報を決定することは、前記複数の2D画像に応じて立体再構成を実行することを含む、項目13に記載の物品。
[項目20]
前記第1の生成された画像を提示することは、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを含む、項目19に記載の物品。
[項目21]
前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、項目19に記載の物品。
[項目22]
システムであって、
プロセッサと、該プロセッサに結合されたメモリとを備え、該メモリ内の命令は、
シーンの複数の2次元画像(複数の2D画像)を受信することと、
前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
ディスプレイに対する第1のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
を行うように前記プロセッサを構成する、システム。
[項目23]
前記メモリ内の命令は、
前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
を行うように前記プロセッサを更に構成する、項目22に記載のシステム。
[項目24]
前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することを行うように前記プロセッサを構成する命令は、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを行うように前記プロセッサを構成する命令を含む、項目22に記載のシステム。
[項目25]
前記第1の生成された画像を前記ディスプレイ上に提示することを行うように前記プロセッサを構成する命令は、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを行うように前記プロセッサを構成する命令を含む、項目24に記載のシステム。
[項目26]
前向きカメラ、マウス、キーボード又はタッチスクリーンシステムのうちの少なくとも1つを更に備え、前記ディスプレイに対する前記第1のユーザー視認角を決定することを行うように前記プロセッサを構成する命令は、前記前向きカメラ、前記マウス、前記キーボード又は前記タッチスクリーンのユーザー制御を用いて、前記ディスプレイに対するユーザーの向きを決定することを行うように前記プロセッサを構成する命令を含む、項目22に記載のシステム。
[項目27]
前記シーンに関連付けられた3D情報を決定することを行うように前記プロセッサを構成する命令は、前記複数の2D画像に応じて立体再構成を実行することを行うように前記プロセッサを構成する命令を含む、項目22に記載のシステム。
[項目28]
前記第1の生成された画像を提示することを行うように前記プロセッサを構成する命令は、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを行うように前記プロセッサを構成する命令を含む、項目27に記載のシステム。
[項目29]
前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、項目27に記載のシステム。
[項目30]
カラーカメラ、カラー深度カメラ又は広視野カメラのうちの少なくとも2つを含む複数の撮像デバイスを更に備える、項目22に記載のシステム。

Claims (30)

  1. シーンの複数の2次元画像(複数の2D画像)を受信することと、
    前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
    ディスプレイに対する第1のユーザー視認角を決定することと、
    少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
    を含む、コンピューター実施方法。
  2. 前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
    少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
    を更に含む、請求項1に記載の方法。
  3. 前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することは、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを含む、請求項1に記載の方法。
  4. 前記第1の生成された画像を前記ディスプレイ上に提示することは、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを含む、請求項3に記載の方法。
  5. 前記3D情報に対応するメタデータを記憶することを更に含む、請求項1に記載の方法。
  6. 前記ディスプレイに対する前記第1のユーザー視認角を決定することは、
    前向きカメラ、マウス、キーボード又はタッチスクリーンのユーザー制御のうちの少なくとも1つを用いて、前記ディスプレイに対するユーザーの向きを決定することを含む、請求項1に記載の方法。
  7. 前記シーンに関連付けられた3D情報を決定することは、前記複数の2D画像に応じて立体再構成を実行することを含む、請求項1に記載の方法。
  8. 前記第1の生成された画像を提示することは、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを含む、請求項7に記載の方法。
  9. 前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、請求項7に記載の方法。
  10. 前記複数の2D画像は、複数の撮像デバイスによってキャプチャされた画像を含む、請求項1に記載の方法。
  11. 前記複数の撮像デバイスは、カラーカメラ又はカラー深度カメラのうちの少なくとも一方を含む、請求項10に記載の方法。
  12. 前記複数の撮像デバイスは、高解像度カラーカメラ及び広視野カラーカメラを含む、請求項10に記載の方法。
  13. 命令を記憶しているコンピュータープログラム製品を含む物品であって、前記命令は実行されると、結果として、
    シーンの複数の2次元画像(複数の2D画像)を受信することと、
    前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
    ディスプレイに対する第1のユーザー視認角を決定することと、
    少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
    が行われる命令を記憶しているコンピュータープログラム製品を含む物品。
  14. 前記コンピュータープログラム製品は、実行されると、結果として、
    前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
    少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
    が行われる命令を更に記憶している、請求項13に記載の物品。
  15. 前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することは、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを含む、請求項13に記載の物品。
  16. 前記第1の生成された画像を前記ディスプレイ上に提示することは、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを含む、請求項15に記載の物品。
  17. 前記コンピュータープログラム製品は、実行されると、結果として、
    前記3D情報に対応するメタデータを記憶することが行われる命令を更に記憶している、請求項13に記載の物品。
  18. 前記ディスプレイに対する前記第1のユーザー視認角を決定することは、
    前向きカメラ、マウス、キーボード又はタッチスクリーンのユーザー制御のうちの少なくとも1つを用いて、前記ディスプレイに対するユーザーの向きを決定することを含む、請求項13に記載の物品。
  19. 前記シーンに関連付けられた3D情報を決定することは、前記複数の2D画像に応じて立体再構成を実行することを含む、請求項13に記載の物品。
  20. 前記第1の生成された画像を提示することは、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを含む、請求項19に記載の物品。
  21. 前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、請求項19に記載の物品。
  22. システムであって、
    プロセッサと、該プロセッサに結合されたメモリとを備え、該メモリ内の命令は、
    シーンの複数の2次元画像(複数の2D画像)を受信することと、
    前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
    ディスプレイに対する第1のユーザー視認角を決定することと、
    少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
    を行うように前記プロセッサを構成する、システム。
  23. 前記メモリ内の命令は、
    前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
    少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
    を行うように前記プロセッサを更に構成する、請求項22に記載のシステム。
  24. 前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することを行うように前記プロセッサを構成する命令は、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを行うように前記プロセッサを構成する命令を含む、請求項22に記載のシステム。
  25. 前記第1の生成された画像を前記ディスプレイ上に提示することを行うように前記プロセッサを構成する命令は、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを行うように前記プロセッサを構成する命令を含む、請求項24に記載のシステム。
  26. 前向きカメラ、マウス、キーボード又はタッチスクリーンシステムのうちの少なくとも1つを更に備え、前記ディスプレイに対する前記第1のユーザー視認角を決定することを行うように前記プロセッサを構成する命令は、前記前向きカメラ、前記マウス、前記キーボード又は前記タッチスクリーンのユーザー制御を用いて、前記ディスプレイに対するユーザーの向きを決定することを行うように前記プロセッサを構成する命令を含む、請求項22に記載のシステム。
  27. 前記シーンに関連付けられた3D情報を決定することを行うように前記プロセッサを構成する命令は、前記複数の2D画像に応じて立体再構成を実行することを行うように前記プロセッサを構成する命令を含む、請求項22に記載のシステム。
  28. 前記第1の生成された画像を提示することを行うように前記プロセッサを構成する命令は、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを行うように前記プロセッサを構成する命令を含む、請求項27に記載のシステム。
  29. 前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、請求項27に記載のシステム。
  30. カラーカメラ、カラー深度カメラ又は広視野カメラのうちの少なくとも2つを含む複数の撮像デバイスを更に備える、請求項22に記載のシステム。
JP2014529661A 2011-09-12 2011-09-12 運動視差を用いた、2d画像からの3d知覚の生成 Expired - Fee Related JP6240963B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/051197 WO2013039470A1 (en) 2011-09-12 2011-09-12 Using motion parallax to create 3d perception from 2d images

Publications (2)

Publication Number Publication Date
JP2014534656A true JP2014534656A (ja) 2014-12-18
JP6240963B2 JP6240963B2 (ja) 2017-12-06

Family

ID=47883554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014529661A Expired - Fee Related JP6240963B2 (ja) 2011-09-12 2011-09-12 運動視差を用いた、2d画像からの3d知覚の生成

Country Status (6)

Country Link
US (1) US20140306963A1 (ja)
EP (1) EP2756680A4 (ja)
JP (1) JP6240963B2 (ja)
KR (2) KR101609486B1 (ja)
CN (1) CN103765878A (ja)
WO (1) WO2013039470A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3125549A1 (en) 2015-07-27 2017-02-01 Masaki Fusama Three-dimensional image display device

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9106908B2 (en) 2012-07-30 2015-08-11 Intel Corporation Video communication with three dimensional perception
US9241103B2 (en) 2013-03-15 2016-01-19 Voke Inc. Apparatus and method for playback of multiple panoramic videos with control codes
US9384551B2 (en) * 2013-04-08 2016-07-05 Amazon Technologies, Inc. Automatic rectification of stereo imaging cameras
US9392248B2 (en) * 2013-06-11 2016-07-12 Google Inc. Dynamic POV composite 3D video system
US10321126B2 (en) * 2014-07-08 2019-06-11 Zspace, Inc. User input device camera
CN105120251A (zh) * 2015-08-19 2015-12-02 京东方科技集团股份有限公司 一种3d场景展示方法及装置
US10003786B2 (en) * 2015-09-25 2018-06-19 Intel Corporation Method and system of 3D image capture with dynamic cameras
US10327624B2 (en) * 2016-03-11 2019-06-25 Sony Corporation System and method for image processing to generate three-dimensional (3D) view of an anatomical portion
US10616551B2 (en) * 2017-01-27 2020-04-07 OrbViu Inc. Method and system for constructing view from multiple video streams
US10535156B2 (en) 2017-02-03 2020-01-14 Microsoft Technology Licensing, Llc Scene reconstruction from bursts of image data
EP3416371A1 (en) * 2017-06-12 2018-12-19 Thomson Licensing Method for displaying, on a 2d display device, a content derived from light field data
EP3416381A1 (en) 2017-06-12 2018-12-19 Thomson Licensing Method and apparatus for providing information to a user observing a multi view content
US10275934B1 (en) * 2017-12-20 2019-04-30 Disney Enterprises, Inc. Augmented video rendering
US11323754B2 (en) * 2018-11-20 2022-05-03 At&T Intellectual Property I, L.P. Methods, devices, and systems for updating streaming panoramic video content due to a change in user viewpoint
CN113892129B (zh) * 2019-05-31 2022-07-29 苹果公司 创建三维外观的虚拟视差

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02251708A (ja) * 1989-03-27 1990-10-09 Nissan Motor Co Ltd 三次元位置計測装置
JPH0814861A (ja) * 1994-07-01 1996-01-19 Canon Inc 3次元形状の計測方法及び装置
JP2000215311A (ja) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法およびその装置
JP2007019666A (ja) * 2005-07-05 2007-01-25 Ntt Docomo Inc 立体画像表示装置及び立体画像表示方法
JP2010072477A (ja) * 2008-09-19 2010-04-02 Toshiba Tec Corp 画像表示装置、画像表示方法及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5287437A (en) * 1992-06-02 1994-02-15 Sun Microsystems, Inc. Method and apparatus for head tracked display of precomputed stereo images
KR100304784B1 (ko) * 1998-05-25 2001-09-24 박호군 편광과광띠를이용한다자시청용3차원영상표시장치
US6573912B1 (en) * 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
KR100424401B1 (ko) * 2001-11-02 2004-03-24 전자부품연구원 검색기능을 포함한 3차원 입체영상을 위한 다시점영상통신 시스템
CN1809131A (zh) * 2005-01-20 2006-07-26 乐金电子(沈阳)有限公司 显示外部全景的影像显示设备及其方法
KR100560464B1 (ko) * 2005-03-30 2006-03-13 (주)디노스 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
JP2008146221A (ja) * 2006-12-07 2008-06-26 Sony Corp 画像表示システム
US8189035B2 (en) * 2008-03-28 2012-05-29 Sharp Laboratories Of America, Inc. Method and apparatus for rendering virtual see-through scenes on single or tiled displays
CN101582959A (zh) * 2008-05-15 2009-11-18 财团法人工业技术研究院 智能型多视角数字显示系统及显示方法
JP2009294728A (ja) * 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置
KR101154051B1 (ko) * 2008-11-28 2012-06-08 한국전자통신연구원 다시점 영상 송수신 장치 및 그 방법
US8199186B2 (en) 2009-03-05 2012-06-12 Microsoft Corporation Three-dimensional (3D) imaging based on motionparallax
DE102009041328A1 (de) * 2009-09-15 2011-03-24 Natural View Systems Gmbh Verfahren und Vorrichtung zum Erzeugen von Teilansichten und/oder einer Raumbildvorlage aus einer 2D-Ansicht für eine stereoskopische Wiedergabe

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02251708A (ja) * 1989-03-27 1990-10-09 Nissan Motor Co Ltd 三次元位置計測装置
JPH0814861A (ja) * 1994-07-01 1996-01-19 Canon Inc 3次元形状の計測方法及び装置
JP2000215311A (ja) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法およびその装置
JP2007019666A (ja) * 2005-07-05 2007-01-25 Ntt Docomo Inc 立体画像表示装置及び立体画像表示方法
JP2010072477A (ja) * 2008-09-19 2010-04-02 Toshiba Tec Corp 画像表示装置、画像表示方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3125549A1 (en) 2015-07-27 2017-02-01 Masaki Fusama Three-dimensional image display device
US10104370B2 (en) 2015-07-27 2018-10-16 Masaki Fusama Three-dimensional image display device

Also Published As

Publication number Publication date
KR20150080003A (ko) 2015-07-08
WO2013039470A1 (en) 2013-03-21
EP2756680A4 (en) 2015-05-06
EP2756680A1 (en) 2014-07-23
US20140306963A1 (en) 2014-10-16
KR20140057610A (ko) 2014-05-13
KR101609486B1 (ko) 2016-04-05
JP6240963B2 (ja) 2017-12-06
CN103765878A (zh) 2014-04-30

Similar Documents

Publication Publication Date Title
JP6240963B2 (ja) 運動視差を用いた、2d画像からの3d知覚の生成
US20200051269A1 (en) Hybrid depth sensing pipeline
US9049428B2 (en) Image generation system, image generation method, and information storage medium
EP4038478A1 (en) Systems and methods for video communication using a virtual camera
US20110306413A1 (en) Entertainment device and entertainment methods
EP3942796A1 (en) Method and system for rendering a 3d image using depth information
JP2017532847A (ja) 立体録画及び再生
US20180288387A1 (en) Real-time capturing, processing, and rendering of data for enhanced viewing experiences
WO2013056188A1 (en) Generating free viewpoint video using stereo imaging
JP2008140271A (ja) 対話装置及びその方法
Jia et al. 3D image reconstruction and human body tracking using stereo vision and Kinect technology
CN108885342A (zh) 用于低延迟渲染的宽基线立体
JP2023515669A (ja) マルチビューステレオのための疎点の三角測量および緻密化を学習することによる深度推定のためのシステムおよび方法
US20230298280A1 (en) Map for augmented reality
US20210082176A1 (en) Passthrough visualization
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、系统
JP2013115668A (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN105301789A (zh) 一种跟随人眼位置的立体显示装置
US11741671B2 (en) Three-dimensional scene recreation using depth fusion
Yuan et al. 18.2: Depth sensing and augmented reality technologies for mobile 3D platforms
JP2024062935A (ja) 立体視表示コンテンツを生成する方法および装置
TW202332263A (zh) 立體影像播放裝置及其立體影像產生方法
CN117768599A (zh) 处理图像的方法、装置、系统、电子设备和存储介质
CN117745982A (zh) 录制视频的方法、装置、系统、电子设备和存储介质
Xu et al. A camera network for the voxel data acquiring of the Three-Dimensional Swept Volume Display

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160721

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160729

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R150 Certificate of patent or registration of utility model

Ref document number: 6240963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees