JP6759371B2 - 3dプレノプティックビデオ画像を作成するためのシステムおよび方法 - Google Patents

3dプレノプティックビデオ画像を作成するためのシステムおよび方法 Download PDF

Info

Publication number
JP6759371B2
JP6759371B2 JP2019003491A JP2019003491A JP6759371B2 JP 6759371 B2 JP6759371 B2 JP 6759371B2 JP 2019003491 A JP2019003491 A JP 2019003491A JP 2019003491 A JP2019003491 A JP 2019003491A JP 6759371 B2 JP6759371 B2 JP 6759371B2
Authority
JP
Japan
Prior art keywords
image
prenoptic
user
depth
plenoptic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019003491A
Other languages
English (en)
Other versions
JP2019092170A5 (ja
JP2019092170A (ja
Inventor
ギゥリアーノ・マシオッチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2019092170A publication Critical patent/JP2019092170A/ja
Publication of JP2019092170A5 publication Critical patent/JP2019092170A5/ja
Application granted granted Critical
Publication of JP6759371B2 publication Critical patent/JP6759371B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

[0001]本発明は一般的には立体視プレノプティックビデオ画像(stereoscopic plenoptic video images)を作成するためのシステムおよび方法に関し、またより詳細には観察者の目の座標をトラッキングすることによって立体視プレノプティックビデオ画像を作成し表示するためのシステムおよび方法に関する。
[0002]3D立体視映像は固定したフォーカスを有する、このことは観察者が設定深度面(set depth plane)の外部において画像にフォーカスしようと試みたときに深度の錯覚が破られることを意味する。この効果のために、3Dコンテンツの一部の観察者に目の疲れを生じさせる可能性があり、これは当初撮像された際にシーンの設定深度面の外部にあったコンテンツに目がフォーカスしようと試みる(ものの、これがうまくできない)ことによる。プレノプティック(別名、「ライトフィールド」)カメラ技術は、画像が取り込まれた後のフォーカスを可能にするように画像を取り込むことを可能にしている。従来の応用設定ではこれによって、プレノプティック画像内のあらゆる物体をそれがどんなフォーカルプレーン(focal plane)内に包含されていてもシャープなフォーカスにすることを可能にしている。
[0003]従来の写真技術では、画像のフォーカス領域は写真を撮影する前に構成されている。写真が撮影された後では、フォーカス領域が設定されており、フォーカスの外れた領域を合フォーカスにすることは不可能である。逆に、ライトフィールドカメラすなわちプレノプティックカメラは、シーンの視野域内のライトフィールド全体を取り込むために特殊なレンズおよびセンサを使用する。したがってプレノプティックカメラは、空間内のあらゆる点であらゆる方向に伝播する光のすべてを取り込むことが可能である。プレノプティックカメラではすべての光の色相、方向および強度が取り込まれるため、写真が撮影された後でソフトウェアを用いてフォーカシングが実行される。写真が撮影された後にフォーカスすることによってユーザは、合フォーカスの画像領域を任意の時点で修正することが可能となる。
[0004]一実施形態では本発明は、プレノプティック画像を作成するためのシステムを提供する。本システムは、少なくとも1つのプレノプティック画像の作成が可能なプレノプティック画像ソースを備える。本システムは、少なくとも1つのプレノプティック画像内の物体を深度面に割り当てるように構成された深度マッピングモジュールをさらに備える。本システムは、少なくとも1つのプレノプティック画像を表示するためのディスプレイをさらに備える。本システムは、ディスプレイ上のユーザの注視位置をトラッキングするように構成されたアイトラッキングシステムと、ユーザによって観察されている深度面に表示画像のフォーカルプレーンを設定することと、をさらに備える。
[0005]別の実施形態では本発明は、ユーザにより観察される画像のフォーカルプレーンを設定するための方法を提供する。本方法は、少なくとも1つのプレノプティック画像を作成することを備える。本方法は、少なくとも1つのプレノプティック画像内の物体を深度面にマッピングすることをさらに備える。本方法は、少なくとも1つのプレノプティック画像を表示することをさらに備える。本方法は、ユーザの注視位置およびディスプレイをトラッキングすること、ならびにユーザによって観察されている深度面に表示画像のフォーカルプレーンを設定することをさらに備える。
[0006]別の実施形態では本発明は、プレノプティック画像のフォーカルプレーンを設定するためのシステムを提供する。本システムは、少なくとも1つのプレノプティック画像を作成するための手段を備える。本システムは、少なくとも1つのプレノプティック画像内の物体を深度面にマッピングするための手段をさらに備える。本システムは、少なくとも1つのプレノプティック画像を表示するための手段をさらに備える。本システムは、ディスプレイ上のユーザの注視位置をトラッキングするための手段をさらに備える。本システムは、ユーザによって観察されている深度面に表示画像のフォーカルプレーンを設定するための手段をさらに備える。
[0007]メガネ(B)を介したまたは赤外線(A)を介したユーザのアイトラッキングを用いたスクリーン上の3Dプレノプティック画像を観察しているユーザを示した図。 [0008]ユーザの目の座標に従ってフォーカシングを受ける3つの深度面を有するプレノプティック画像フレームの図。 [0009]本発明の一実施形態に従ったシステムレベル概要のブロック図。 [0010]3Dプレノプティック映像を作成するためのプロセスの概要を示した流れ図。 [0011]ユーザの目の位置を取り込むためのプロセスの概要を示した流れ図。 [0012]ユーザの目の座標をプレノプティック画像深度面にマッピングするためのプロセスの概要を示した流れ図。 [0013]ユーザの目の座標をプレノプティック画像深度面にマッピングするためのプロセスの概要を示した流れ図。
[0014]本発明の実施形態は、ユーザに対して立体視プレノプティック画像を表示するためのシステムおよび方法に関する。プレノプティック画像は、単一のプレノプティック画像から当該画像を立体視的に表示するのに十分な情報を包含する。プレノプティックカメラは深度情報を記録しているため(様々な深度でのフォーカスが可能であるため)、単一のプレノプティック画像取り込みからソフトウェアで立体視画像が構築され得る。プレノプティックカメラは、「4次元の」ライトフィールド情報を取り込むためにマイクロレンズアレイを使用する。マイクロレンズアレイは、マイクロレンズ上の入射光(incident rays)の一部を分離して同じ位置から発せられたが異なる角度方向となった束にすることが可能である。したがって、取り込まれたプレノプティック画像はあるフォーカス距離範囲をカバーするある画像ボリュームを、アポステリオリ(a posteriori)に再生成するのに十分な情報を包含する。異なる焦点距離および深度(different focal distances and depths)において画像対をマッチングさせることによって、ユーザに対して3D用途向けにプレノプティック画像が立体視的に表示され得る。
[0015]実施形態は一般的には、静止画像や映像を作成するためにプレノプティック画像を使用するシステムおよび方法に関し、ここにおいてこの画像や映像の異なる深度部分はアイトラッキングの使用を通じてユーザによってフォーカスされ得る。したがっていくつかの実施形態では、多重深度面情報を包含した2Dまたは3D動画シーケンスを作成するために個々のプレノプティック画像からなるストリームが1つのフレームシーケンスに合成される。プレノプティックデータからなる各フレームは、ユーザに対して表示するためにたとえば毎秒30フレームなどの標準的な速度で合成されることがある。ユーザに対してある特定の映像フレームが表示されているときに、本システムは画像のある種のフィーチャの2Dスクリーン座標をその適正な深度面にリンクさせているフレームごとの座標マップを計算することになる。たとえば、シーンの前景にある木が前方深度面に割り当てられることになり、また背景にある山が第2の深度面に割り当てられることになる。動画のシーンごとに異なる数の深度面が使用されることがある。要素が数個だけの単純なシーンは2〜5の深度面を有することがある一方、多くの要素を伴ったさらに複雑なシーンは6〜10の深度面を有することがある。
[0016]画像の各フィーチャの2D座標が深度面に割り当てられると、3Dテレビジョンなどの標準的なまたは立体視的なディスプレイ上にフレームが表示され得る。ユーザの目を正しい深度面上に適正にフォーカスするために本システムは、ディスプレイ上でユーザがフォーカスしていた位置を検出し、次いでこのレンダリングされたプレノプティック画像を観察者の注視を包含したスクリーン座標に対応する深度面にリフォーカスさせるアイトラッキング構成要素を含むことになる。この実施形態で使用するためのアイトラッキングデバイスの例はよく知られており、Tobii Technology,Inc(Fall Church,VA)によるIS−1またはIS−2 Eye Trackerなどである。これらの特定のデバイスは、ユーザの目の位置および注視をトラッキングするためにユーザの角膜から反射する赤外光を使用する。他のシステムは、ユーザによって任意の時点でフォーカスされる画像内の点を計算するために、ユーザによって装着されたヘッドアップディスプレイやメガネの中にカメラ、赤外線レーザーまたは赤外線センサを組み込むことがある。
[0017]このような要素の組合せによれば、表示画像のフォーカルプレーンをユーザによって目下観察されている深度面に適応させることによってユーザが注視している箇所の変化に応答するような反応性の画像や動画を表示するシステムが得られる。したがって、このシステムによってユーザは、任意の検知深度にある2Dまたは立体視像(3D)内の表示されたシーンの任意の一部に関してクリアなフォーカスを得ることが可能となる。
[0018]図1は、ユーザに対してプレノプティック画像および映像を表示するためのプレノプティック映像システム100の一実施形態の図である。テレビジョンスクリーン(ただし、これに限らない)などの表示デバイス110が、ユーザに対してプレノプティック映像情報120を表示させる。スクリーン110はたとえば、単一のプレノプティック画像、2Dプレノプティック画像または3Dプレノプティック映像を表示することがある。図1に示した実施形態では、プレノプティック画像120は表示された画像の前景に第1の人物125Aと第2の人物125Bとを含む。さらに、表示された画像の背景にはシーンの一部として表された山128が存在している。人物125A、Bの像を有する前景が1つの深度面を示すことがある一方、山128の背景シーンが第2の深度面を示すことがある。プレノプティックフレーム内には、その各々が表示されたシーンの異なる部分を示すような任意の数の深度面が存在することがある。
[0019]表示デバイス110は、プレノプティックデータを表示デバイス110に送るハードウェアデバイス140に接続されることがある。ハードウェアデバイス140はたとえば、プレノプティック映像や画像データを保存しているブルーレイ(登録商標)ディスクプレーヤや記憶デバイスを備えることがある。一実施形態では、「A」で示した1対の観察者の目160が表示デバイス110上のプレノプティック画像または映像120を注視しており、またこれがアイトラッキングデバイス130を介して線C2およびC2に沿ってトラッキングされている。アイトラッキングデバイス130は、プレノプティック画像または映像120上の観察者の目の位置および観察角度をトラッキングするために赤外線システムを備えることがある。観察者の目位置および観察角度をトラッキングすることによって本システムは、事前規定の時間期間にわたって観察が見ているディスプレイ110上の場所を決定することが可能である。たとえば本システムは観察者が表示デバイス110上を見回すに連れて、観察者の目を1秒ごと、2分の1秒ごと、4分の1秒ごと、または10分の1秒ごとにトラッキングすることがある。アイトラッキングデバイス130はまた、追加のユーザに対して、プレノプティック画像または映像120を観察すること、ならびにその部屋にいる各観察者の位置および注視を別々にトラッキングすることを可能にさせることができ得る。
[0020]本システムによってユーザが任意の時点で見ているところが計算され終わった後に、本システムはディスプレイ上における観察者の注視の2D座標を決定することが可能である。たとえば本システムは、ディスプレイを2次元の格子になるように分割するとともに、このディスプレイ120に関する事前規定の格子内においてユーザが位置X=100、Y=200のところを見ていると決定することがある。ディスプレイ上でユーザが注視している座標位置が決定された後に本システムは次いで、どの深度面が観察されているかを決定することになる。本システムは次いで、観察者向けに表示された画像を観察者が注視している位置および深度面にフォーカスさせることになる。したがって、表示されるプレノプティック画像フレーム120は、観察者の注視箇所に対応する深度面にフォーカスが来ることになる。
[0021]たとえば観察者が前景の人物125Aを注視している場合、アイトラッキングデバイス130は、目下のフレーム120上の座標箇所として観察者の目の注視をトラッキングするとともに、プレノプティックフレームを人物125Aに帰結する対応する深度面にフォーカスすることができ得る。本システムは、フレームが変わるに従って合フォーカスの深度面を更新する。そのため観察者がフレーム120上の異なる場所を見るに従って観察者の注視箇所が変わると、フォーカスのある深度面もフレームが2D映像ストリームを進むに連れて変化する。さらにプレノプティックフレーム120は、3D映像ストリームのフレームとすることがある。
[0022]したがってユーザが表示スクリーン110の自身の注視箇所を変えると、フレームが立体視映像ストリームで表示される際に本システムは異なる深度面にフォーカスをもって来ることになる。この結果は、見かけでは表示デバイス110上に表示されたのではなくユーザの前方で演じられる「実在の」シーンと同じである。別の実施形態では、「B」で示した観察者の目がアイトラッキングメガネ150を介してトラッキングされている。この実施形態では表示スクリーン110は、アイトラッキングメガネ150に対してまたアイトラッキングメガネ150からのデータの送受信をするように構成された内部のまたは外部の受信機を備える。アイトラッキングメガネ150は、表示スクリーン上のユーザ注視の位置を能動的にトラッキングするとともに、このユーザの注視情報を表示スクリーン110に送信する。表示スクリーン110は次いで、観察者の目の座標に関する任意の2D座標を含んだこの注視情報を、スクリーン向けの座標決定系に変換することがある。たとえばメガネ150の内にある観察者の目がプレノプティックフレーム120のうちの(x1,y1)という2D座標箇所にある箇所を注視している場合、表示スクリーン110は方向余弦行列または数学的変換を用いてこの2D座標箇所を、表示スクリーン110上の座標(x1’,y1’)の等価位置に変換することがある。スクリーン110上における観察者の注視の箇所が既知となると、プレノプティックフレーム120は次いで、スクリーン上のユーザが見ている位置にクリアなフォーカスされた画像がユーザによって見えるように対応する深度面にフォーカスすることが可能である。実施形態「A」に関して上で説明したように、プレノプティック映像フレーム120は2Dまたは3D映像ストリームのいずれかのフレームとすることができ得る。
[0023]図2は、3つの異なる深度面にフォーカスされた同じ取り込まれたプレノプティック画像の異なる例を示している。第1の画像201では、オットセイ202を含んだ前景深度面が画像のフォーカルプレーンにあるように設定されている。したがって、手前側のオットセイ202が合フォーカスとなって示されており、一方中間のオットセイ203と山のシーン204はフォーカス外れで示されている。第2の画像205では、シーンの中央の中間のオットセイ203に合フォーカスとなるようにそのフォーカルプレーンが中間の深度面と一致するように設定されており、一方手前側のオットセイ202と山のシーン204はボケている。第3の画像207は、山のシーン204が合フォーカスとなり、一方手前側のオットセイ202と中間のオットセイ203はフォーカス外れとなるようにフォーカルプレーンが背景の深度面と一致するように設定されている例を示している。
[0024]図2に示したように、立体視テレビジョン220は動画の各プレノプティックフレームを表示することができ得る。フレームが表示されると、観察者の目の注視が計算され、次いでテレビジョン220上でユーザが特定の任意の時点で見ている場所に関する予測がなされる。一実施形態では、観察者の目の動きがリアルタイムでトラッキングされ、ユーザがある特定の時点で画像内のどこを見ているかに基づいてテレビジョン220上に提示される画像は絶えず異なるフォーカスに合フォーカスになったりフォーカス外れになったりしている。したがってシステムは、ユーザの注視を監視するとともに、十字細線225で示したようにユーザがある特定の時点でテレビジョン上で見ている場所の2次元座標を予測することができ得る。これらの座標からシステムは、どの深度面を合フォーカスにさせるべきかを予測することが可能である。たとえば観察者が中間のオットセイ203を見ているとき、ユーザにこの中間のオットセイのクリアな像が得られるようにこのオットセイと関連付けされた深度面を合フォーカスにもって来ることになる。本システムは次いで、ユーザによって具体的に観察されているフィーチャの深度面と連携するように、プレノプティック画像のフォーカスを変更するとともに表示されるフォーカルプレーンを絶えず更新するように構成されている。このためにシステムは、ユーザに対して絶えずフォーカスの合った立体視情報を提示することが可能である。
[0025]図3は、図1のシステム100と同様とし得るシステム300のブロック図である。アイトラッキングおよび深度面フォーカシングシステムの機能のうちの多くを提供するためにシステム内で協働して動作するような1組のシステムモジュール310が示されている。アイトラッキングモジュール304は、表示されたプレノプティック映像または画像を注視する間における観察者の目の座標をトラッキングする役割をする。観察者の目はたとえば、アイトラッキングメガネまたは赤外線システムを介してトラッキングされることがある。座標マッピングモジュール306は、観察者の目の座標面を表示デバイスの対応する座標面に変換するように構成されている。
[0026]表示デバイス上における観察者の注視の2D座標箇所は、目下表示中のプレノプティックフレームにどの深度面がフォーカスされ得るかを決定することができ得る。深度面フォーカスモジュール308は、目下表示中のプレノプティックフレームをそのフレーム上の観察者の注視の箇所に対応する深度モジュールにフォーカスさせるように構成されている。たとえば目下表示中のプレノプティックフレームが10面の異なる深度面を備える場合、深度面フォーカスモジュール308は(モジュール306による計算に従って)10面の深度面のうちのどの面が観察者の2D座標箇所に対応するかを計算するとともに、これに従って目下表示中のプレノプティックフレームの10面の深度面のうちの1つをフォーカスすることができ得る。
[0027]プレノプティック画像記憶装置322は、システム300によって表示させようとするプレノプティック画像を保存するように構成されている。プレノプティック2D画像作成器モジュール320は、プレノプティック画像記憶装置322から表示のために待ち行列に入れられたプレノプティック画像を取り出すことができ得る。プレノプティック映像作成器モジュール318は、プレノプティック画像記憶装置322からプレノプティック画像のシーケンスを取り出すとともにこれらを映像ストリームに変換するように構成されることがある。同じくシステム300内には、アイトラッキングおよび深度面フォーカシングのためのモジュール310の組をプレノプティック映像または画像ソースモジュール318および320のうちのいずれかと組み合わせるように構成されたプロセッサ302を存在させることが可能である。映像作成モジュール312は、プレノプティック映像モジュール318から出力された2D映像ストリームを3Dプレノプティック映像ストリームに変換するように構成されることがある。さらにシステム300は、2D映像ストリームを表示するために2D映像信号をモジュール312に通すことが可能なように構成されることがある。表示出力314は、3D映像をモニターやテレビジョンなどの表示デバイス上に表示するように構成されることがある。作成画像出力モジュール316は、単一のプレノプティック画像またはフレームを表示出力314上に表示するためのフォーマットとなるように変換することができ得る。
[0028]図4は、本明細書で検討しているような3Dプレノプティック映像を作成するためのプロセス400の一実施形態の流れ図である。プロセス400は、プレノプティック画像を取り込むためのブロック410で開始される。プレノプティック画像は、「Red Hot」モデル(lytro.com;Mountain View,CA)などのプレノプティックカメラ、またはプレノプティック画像の映像ストリームを取り込むように構成されたプレノプティック映像記録デバイスを介して取り込まれ得る。ブロック410ではプロセス400はさらに、プレノプティック画像のストリームを取り込むとともに、映像ストリームを作成するように取り込まれた画像をシーケンスの形に「一体に縫い合わせる」ことができ得る。プロセス400は次いで、プレノプティック画像の深度面が規定されるブロック420に進む。
[0029]たとえば前景に人物がありかつ背景に木があるような単純なプレノプティックフレームでは、プロセスブロック420は2つの深度面だけしか規定しないことがある。逆に、複数の深度領域を備えたさらに複雑なプレノプティックフレームではプロセス400はブロック420において、画像内でその各深度面がプレノプティック画像内の異なる深度領域を意味するようなさらに多くの深度面を規定することがある。プロセス400は次いで、観察者の目の位置を取り込むためのプロセスブロック430に続く。観察者の目の位置を取り込むこのプロセス430については、後で図5に関連してさらに詳細に説明することにする。
[0030]観察者の目の座標が取り込まれた後に、プロセス400は目の座標情報を読み取るためにブロック440に続く。この目の座標情報は、観察者によって観察されている表示デバイス上において観察者が当該時点で見ている場所である決定された座標位置である。プロセス400は次いで、ユーザの目の座標を表示されたプレノプティックフレームの座標面と対応する深度面とにマッピングするためのプロセスブロック450に進む。プロセス450については、後で図6に関連してさらに詳細に説明することにする。
[0031]次にプロセス400は、プレノプティックフレームまたは画像が観察者の注視箇所に対応する深度面にフォーカスされるプロセスブロック460に進む。このプロセスについては、後で図7に関連してさらに詳細に説明することにする。最後にプロセス400はブロック470に進むとともに、観察者の目下の注視箇所に対応する深度面にフォーカスされ終えたプレノプティックフレームを表示する。
[0032]プロセス400は次いで、映像ストリーム内のプレノプティックフレームのシーケンスにあるプレノプティックフレームごとに反復する。したがって、映像シーケンス内の各プレノプティックフレームは観察者の2D注視座標、深度面およびフォーカス領域を規定し直している。得られた3D映像は、プレノプティック映像ストリーム内の各プレノプティックフレームのフォーカスされた領域を観察者の注視箇所に基づいて相次いで更新しているような「実在の」体裁を有する。
[0033]図5は、ユーザの目の位置を取り込むためのプロセスブロック430で行われるプロセスをさらに詳細に示している。プロセス430は、開始ブロック510で始まり、次いで観察者がアイトラッキングメガネを用いていることをシステムが検出したか否かが判定される判断ブロック520に進む。観察者が起動されたアイトラッキングメガネをしていることが分かった場合、プロセスは観察者の目のトラッキングを開始するためにブロック530に進む。次にプロセスは、メガネ内部の観察者の目の観察座標をプレノプティック画像のうちユーザが注視しているところに表示された領域の2D座標箇所に対応してトラッキングを開始するためにブロック540に進む。プロセスは次いでユーザの目の座標を、表示スクリーン上の表示されたプレノプティック画像の対応する座標にマッピングするブロック580に進む。この変換は、表示されたプレノプティック画像の大きさおよびスクリーンの大きさに応じて様々となる。プロセスは次いで、システム内部に観察者の目下の目の座標情報を保存するためにブロック590に進む。
[0034]判断ブロック520に戻って、観察者が起動されたアイトラッキングメガネをしていないと判定された場合、プロセスは観察者の目をトラッキングするために赤外線システムが利用可能かどうかを判定するために判断ブロック550に進む。利用可能な赤外線アイトラッキングシステムが存在する場合、プロセスは観察者の目の座標をプレノプティック画像のうちユーザが注視しているところに表示された領域の2D座標箇所に対応してトラッキングするためにブロック560に進む。プロセスは次いで、ユーザの目の目座標を表示スクリーン上でユーザが見ている位置に対してマッピングするためにブロック580に進む。プロセス430は次いで、システム内における座標のマッピングおよび保存のためにブロック590に進む。
[0035]判断ブロック550において赤外線アイトラッキングシステムがアイトラッキングに利用可能でないと判定された場合、プロセスは観察者の目の座標をトラッキングするための他のトラッキングシステムを開始させるためにブロック570に進む。プロセスは次いで、上で検討したようなユーザそれ注視しているディスプレイの座標のマッピングおよび保存のために上で検討したようにブロック580および590に進む。
[0036]図6は、ユーザの目の2D座標をプレノプティック画像深度面に対してマッピングするためのプロセス450をさらに詳細に考察したものである。プロセスは、目下表示中のプレノプティックフレーム内に存在する深度面の数が決定されているブロック610で開始される。次に、目下表示中のプレノプティックフレーム内の深度面の数に関する決定がなされた後にプロセスは、目下表示中の画像内にある深度面のうちのどれが観察者の注視の箇所に対応するかを決定するためにブロック620に進む。たとえば、深度面が2つしか存在せずかつユーザが第2の深度面の領域にあるプレノプティック画像の箇所を注視している場合、プロセスは第2の深度面が観察者の目の目下の座標に対応する深度面であると決定することになる。ユーザ現注視位置と観察される正しい深度面とのこの整列を実現するために、システムはユーザの目下の視線をこれらの視線がディスプレイを横切る位置と一致させる。
[0037]したがって一実施形態では本システムは、ディスプレイに向かうユーザの注視の視線を決定する。これは、各目の位置を決定し次いでユーザの目からディスプレイまで線を投射することによって計算することが可能である。ディスプレイは通常、ユーザを基準として固定された位置にあり、したがってシステムはユーザの目の位置を基準としたディスプレイ位置を認識するようにトレーニングしておくことが可能である。たとえば、目の位置がディスプレイに取り付けられた赤外線検出器によって検出される場合、検出器は常にディスプレイを基準とした同じ位置を有することになる。したがって、ディスプレイの前方の3次元空間内においてユーザの各瞳孔の位置および方向を決定することによって、ユーザの注視に関する最初の位置および方向を示すベクトルが決定され得る。このベクトルからシステムは、ディスプレイ上のベクトルがディスプレイと交差する点を決定することが可能である。ディスプレイ上のユーザの注視が見ているこの位置は次いで、どの深度面がユーザの目下の注視と対応するかを決定するために使用することが可能である。いくつかの実施形態では、ディスプレイが2次元座標系に分割されているとともに、システムはディスプレイ上でユーザの注視が向けられている位置のX/Y座標を検出する。
[0038]ユーザの注視がディスプレイに接触する座標を知ることに加えて、システムはさらに、表示されたフレーム上の等価位置を決定済みとするように構成されている。したがってディスプレイ上に各フレームが表示されると、システムはこの表示された画像フレームに対して座標系を割り当てることが可能であり、画像の座標を表示デバイスの座標と一致させる。これによってシステムは、表示デバイスのある特定の座標位置がユーザによって注視されているときに画像のどの座標位置が観察されているかを決定することが可能である。
[0039]最後にプロセスは、観察者の目の座標に対応する深度面情報を保存するためにブロック630に進む。
[0040]図7は、プレノプティック画像を観察者の注視に対応する深度面にフォーカスするプロセス460をさらに詳細に考察したものである。プロセスは、上で検討したブロック630からの保存された深度面から深度面情報を読み取るためのブロック710で開始となる。次にプロセスは、目下表示中のプレノプティックフレームをプレノプティックフレーム上の観察者の2Dの目の座標に対応する深度面にフォーカスするためにブロック720に進む。プロセスはさらに、プレノプティックフレームのフォーカスされた深度面がこれに対して3D効果を有し、人が実世界のシーンを観察するやり方と同じ現出となるようなブロック730に示したような立体視3Dのための機能を含む。上で検討したように、合フォーカスにさせる深度面はプレノプティック映像ストリームのプレノプティックフレームのフレームごとに様々となり得る。最後にプロセスは、ブロック740に示したように目下のフォーカスのあるプレノプティックフレームをメモリ内に保存する。
[0041]本技術は、汎用または特殊目的の他の多くのコンピューティングシステム環境または構成で動作する。本発明と一緒に用いるのに適し得るよく知られたコンピューティングシステム、環境および/または構成の例としては、パーソナルコンピュータ、サーバコンピュータ、ハンドへルド型またはラップトップ型デバイス、マルチプロセッサシステム、プロセッサベースのシステム、プログラマブルな家庭用電子機器、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記のシステムやデバイスのいずれかを含む分散コンピューティング環境、その他(ただし、これらに限らない)が含まれる。
[0042]本明細書で使用される場合に命令とは、システム内で情報を処理するためのコンピュータ実装型のステップを意味している。命令は、ソフトウェア、ファームウェアまたはハードウェアの形で実装可能であり、システムの構成要素によって実施される任意のタイプのプログラム式ステップを含むことが可能である。
[0043]プロセッサは、Pentium(登録商標)プロセッサ、PentiumProプロセッサ、8051プロセッサ、MIPS(登録商標)プロセッサ、Power PC(登録商標)プロセッサまたはAlpha(登録商標)プロセッサなど、単一チップまたはマルチチップの任意の従来式で汎用のプロセッサとすることがある。さらにこのプロセッサは、ディジタル信号プロセッサやグラフィックスプロセッサなどの任意の従来式の特殊目的プロセッサとすることがある。このプロセッサは典型的には、従来式のアドレスライン、従来式のデータライン、および1つまたは複数の従来式の制御ラインを有する。
[0044]本システムは、詳細に検討したような様々なモジュールからなる。当業者であれば理解できるようにこれらのモジュールの各々は様々なサブルーチン、手続き、定義文およびマクロを備える。これらのモジュールの各々は典型的には、単独でコンパイルされて単一の実行可能プログラムとするようにリンクされている。したがって好ましいシステムの機能を記述するために便宜上、これらのモジュールの各々に関する記述が用いられている。したがって、これらのモジュールの各々によって実施されるプロセスはそれ以外のモジュールのうちの1つに適宜再配分されること、単一のモジュールとするように互いに結合されること、あるいはたとえば共有可能なダイナミックリンクライブラリ内で利用可能とさせることがあり得る。
[0045]本システムは、Linux(登録商標)、UNIX(登録商標)またはMicrosoft Windows(登録商標)などの様々なオペレーティングシステムと接続して使用されることがある。
[0046]本システムは、C、C++、BASIC、PascalまたはJava(登録商標)などの従来の任意のプログラミング言語で記述されることがあり、また従来のオペレーティングシステム下で動作されることがある。C、C++、BASIC、Pascal、JavaおよびFORTRANは、実行可能コードを作成するために多くの商用のコンパイラの使用が可能な工業標準のプログラミング言語である。本システムはまた、Perl、PythonまたはRubyなどのインタプリタ型言語を用いて記述されることがある。
[0047]当業者であればさらに、本明細書で開示された実施形態と連携して説明した様々な例示の論理ブロック、モジュール、回路およびアルゴリズムステップが電子的ハードウェアとして、コンピュータソフトウエアとして、あるいはこの両者の組合せとして実装され得ることを理解されよう。ハードウェアとソフトウェアのこの相互交換可能性を明瞭に例証するために、様々な例示の構成要素、ブロック、モジュール、回路およびステップについて全体としてその機能に関して上で説明した。このような機能をハードウェアとして実装されるかソフトウェアとして実装されるかは、具体的な用途や全体システムに課せられた設計上の制約に依存する。当業者は、記載された機能を具体的な各用途に合わせて多様な方法で実装することになるが、このような実装上の判断は本開示の趣旨からの逸脱を生じるものと解釈されるべきでない。
[0048]本明細書で開示された実施形態と連携して説明した様々な例示の論理ブロック、モジュールおよび回路は、汎用のプロセッサ、ディジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス、離散的なゲートまたはトランジスタロジック、離散的なハードウェア構成要素、または本明細書に記載された機能を実行するように設計されたこれらの任意の組合せを用いて実装または実行されることがある。汎用プロセッサはマイクロプロセッサとすることがあるが、代替としてプロセッサを任意の従来式プロセッサ、コントローラ、マイクロコントローラまたは状態機械とすることがある。プロセッサはまた、コンピューティングデバイスの組合せ(たとえば、DSPとマイクロプロセッサの組合せ)として、複数のマイクロプロセッサとして、DSPコアと接合させた1つまたは複数のマイクロプロセッサとして、または他の任意のこうした構成として実装されることがある。
[0049]1つまたは複数の例示の実施形態では、記載された機能および方法は、ハードウェア、ソフトウェア、またはプロセッサ上で実行させるファームウェア、あるいはこれらの任意の組合せの形で実装されることがある。ソフトウェアでの実装の場合にその機能は、コンピュータ読み取り可能な媒体上に保存されることや、コンピュータ読み取り可能な媒体上の1つまたは複数の命令またはコードとして送信されることがある。コンピュータ読み取り可能な媒体は、コンピュータ記憶媒体と、コンピュータプログラムのある箇所から別の箇所への転送を容易にする任意の媒体を含んだ通信媒体と、の両方を含む。記憶媒体は、コンピュータによるアクセスが可能な利用可能な任意の媒体とすることがある。限定ではなく一例として、このようなコンピュータ読み取り可能な媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスク記憶デバイス、磁気ディスク記憶デバイスまたは他の磁気記憶デバイス、または命令またはデータ構造の形態での所望のプログラムコードの運搬または保存に使用することが可能でありかつコンピュータによるアクセスが可能であるような他の任意の媒体を備えることが可能である。さらに任意の接続も、コンピュータ読み取り可能な媒体と呼ぶのに適当である。たとえばソフトウェアをウェブサイト、サーバまたは他のリモートソースから同軸ケーブル、光ファイバケーブル、ツイストペア、ディジタル加入者線(DSL)、または赤外線、無線およびマイクロ波などのワイヤレス技術を用いて送信する場合、この同軸ケーブル、光ファイバケーブル、ツイストペア、DSLまたは赤外線、無線およびマイクロ波などのワイヤレス技術は媒体の定義の中に含まれる。本明細書で使用される場合のディスク(disk)やディスク(disc)には、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、ディジタル多目的ディスク(DVD)、フロッピー(登録商標)ディスクおよびブルーレイディスクを含んでいる(ここで、ディスク(disk)は通常データを磁気式に再生するものであり、一方ディスク(disc)はデータをレーザーを用いて光学式に再生するものである)。上述したものの組合せもコンピュータ読み取り可能な媒体の範囲に含まれるべきである。
[0050]上の説明は、本明細書で開示されたシステム、デバイスおよび方法に関するある種の実施形態について詳述したものである。しかし、上述の内容がテキストでどのように詳述されたかによらず、このシステム、デバイスおよび方法は多くの方法で実施される可能性があることが理解されるべきである。さらに上で述べたように、本発明のある種のフィーチャや態様を説明する際における具体的な用語法の使用は、その用語法が本明細書では当該の用語法に関連付けされる技術のフィーチャや態様の任意の指定の特性を含むような限定を受けるように再定義されていることを示唆するものと取られるべきでないことに留意されるべきである。
[0051]様々な修正および変更が記載された技術の趣旨を逸脱することなく実施され得ることが当業者によって理解されるであろう。このような修正や変更は、実施形態の趣旨の域内にあるように意図されている。さらに、一実施形態に含まれる部品がその他の実施形態と相互交換可能であること、記載された実施形態からの1つまたは複数の部品が記載された他の実施形態とで任意の組合せで含まれ得ること、が当業者によって理解されるであろう。たとえば、本明細書に記載されたおよび/または図面に示された様々な構成要素のうちのいずれかが、他の実施形態と組み合わされること、相互交換されること、あるいはこれから除かれることがあり得る。
[0052]本明細書における実質的に任意の複数および/または単数の用語の使用に関して、当業者はコンテキストおよび/または用途に対する適合に応じて複数形を単数形におよび/または単数形を複数形に変換することが可能である。本明細書では明瞭にするために、様々な単数形/複数形の置換が明確に示されることがある。
[0053]一般に、本明細書で用いられる用語が全般的に「開放型の(open)」用語とするように意図されていること(たとえば、「〜を含んだ(including)」という用語は「〜(ただし、これらに限らない)を含んだ(including but not limited to)」と解釈されるべきである、「〜を有する(having)」という用語は「少なくとも〜を有する(having at least)」と解釈されるべきである、「〜を含む(includes)」という用語は「(ただし、これらに限らない)を含む(includes but is not limited to)」と解釈されるべきである、その他であること)が当業者によって理解されるであろう。さらに、導入された特許請求記述について具体的な数を意図している場合、このような意図がその特許請求で明示的に記述されることになるが、このような記述がなければこのような意図は存在しないことが当業者によって理解されるであろう。たとえば理解の支援として、以下の添付の特許請求の範囲は、特許請求記述を導入するために「少なくとも1つの」や「1つまたは複数の」という導入表現の使用を包含することがある。しかしこのような表現の使用は「a」や「an」という不定冠詞による特許請求記述の導入が、導入されたこのような特許請求記述を包含した具体的な任意の特許請求をこのような記述1つだけを包含した実施形態に限定していることを示唆するものと解釈されるべきでないこと(同じ特許請求が「1つまたは複数の」あるいは「少なくとも1つの」という導入表現と「a」や「an」などの不定冠詞とを含む場合(たとえば、「a」および/または「an」は典型的には「少なくとも1つの」あるいは「1つまたは複数の」を意味すると解釈されるべきである)であっても同じ)、また特許請求記述の導入に使用された定冠詞の使用についても同じことが成り立つ。さらに当業者であれば、導入された特許請求記述について具体的な数が明示的に記述されている場合であっても、このような記述は典型的には、記述した数が少なくともあることを意味する(たとえば、他の修飾詞を伴わない「2つの記述内容」のむき出しの記述は典型的には、少なくとも2つの記述内容、または2つ以上の記述内容を意味する)ことを理解されよう。さらに、「A、BおよびC、その他のうちの少なくとも1つ」に相当する用法が用られている場合においては一般に、このような構造は当業者がこの用法を理解するような感覚で捉えられ得る(たとえば、「A、BおよびCのうちの少なくとも1つを有するシステム」であればAを単独で有する、Bを単独で有する、Cを単独で有する、AおよびBを一緒に有する、AおよびCを一緒に有する、BおよびCを一緒に有する、および/またはA、BおよびCを一緒に有する、その他を有するようなシステムを含むが、これらに限定されることがない)。「A、BまたはC、その他のうちの少なくとも1つ」に相当する用法が用られている場合においては一般に、このような用法は当業者がこの用法を理解するような感覚で捉えられ得る(たとえば、「A、BまたはCのうちの少なくとも1つを有するシステム」であればAを単独で有する、Bを単独で有する、Cを単独で有する、AおよびBを一緒に有する、AおよびCを一緒に有する、BおよびCを一緒に有する、および/またはA、BおよびCを一緒に有する、その他を有するようなシステムを含むが、これらに限定されることがない)。さらに、2つ以上の代替的な用語を示すような事実上任意の離接語および/または表現は、本説明、特許請求の範囲または図面のいずれであるかによらず、その用語のうちの1つ、その用語のうちのいずれか一方、あるいはその用語の両方を含む可能性を企図しているものと当業者によって理解されるべきである。たとえば、「AまたはB」という表現は、「A」または「B」または「AおよびB」の可能性を含むものと理解されることになる。
[0054]本明細書に様々な態様および実施形態が開示されているが、他の態様および実施形態については当業者には明らかであろう。本明細書で開示された様々な態様および実施形態は、例示を目的としたものであり、限定とするように意図されたものではない。
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
少なくとも1つのプレノプティック画像を作成することが可能なプレノプティック画像ソースと、
前記少なくとも1つのプレノプティック画像内の物体を深度面に割り当てるように構成された深度マッピングモジュールと、
前記少なくとも1つのプレノプティック画像を表示するためのディスプレイと、
前記ディスプレイ上のユーザの注視位置をトラッキングするように構成されかつ前記ユーザによって観察されている深度面に前記表示画像のフォーカルプレーンを設定しているアイトラッキングシステムと、
を備える、プレノプティック画像を作成するためのシステム。
[C2]
前記少なくとも1つのプレノプティック画像はプレノプティック画像からなる映像である、C1に記載のシステム。
[C3]
前記少なくとも1つのプレノプティック画像は立体視画像である、C1に記載のシステム。
[C4]
前記少なくとも1つのプレノプティック画像は2次元画像である、C1に記載のシステム。
[C5]
前記アイトラッキングシステムは前記ユーザの目の動きおよび座標をトラッキングするために前記ユーザによって装着されるメガネを備える、C1に記載のシステム。
[C6]
前記アイトラッキングシステムは前記ユーザの目の動きおよび座標をトラッキングするように構成された赤外線システムを備える、C1に記載のシステム。
[C7]
前記プレノプティック画像ソースはプレノプティック画像フレームを備えた映像を表示することが可能である、C1に記載のシステム。
[C8]
少なくとも1つのプレノプティック画像を作成することと、
前記少なくとも1つのプレノプティック画像内の物体を深度面にマッピングすることと、
前記少なくとも1つのプレノプティック画像を表示することと、
ディスプレイ上のユーザの注視位置をトラッキングすることと、
前記ユーザによって観察されている深度面に前記表示画像のフォーカルプレーンを設定することと、
を備える、ユーザにより観察される画像のフォーカルプレーンを設定する方法。
[C9]
前記少なくとも1つのプレノプティック画像はプレノプティック画像からなる映像である、C8に記載の方法。
[C10]
前記少なくとも1つのプレノプティック画像は2次元画像である、C8に記載の方法。
[C11]
前記ユーザの注視位置をトラッキングすることは、前記ユーザの目の前記動きおよび座標をトラッキングするために前記ユーザによって装着されるメガネを備える、C8に記載の方法。
[C12]
前記ユーザの注視位置をトラッキングすることは前記ユーザの目の前記動きおよび座標をトラッキングするように構成された赤外線システムを備える、C8に記載の方法。
[C13]
少なくとも1つのプレノプティック画像を作成するための手段と、
前記少なくとも1つのプレノプティック画像内の物体を深度面に対してマッピングするための手段と、
前記少なくとも1つのプレノプティック画像を表示するための手段と、
ディスプレイ上のユーザの注視位置をトラッキングするための手段と、
前記ユーザによって観察されている深度面に前記表示画像の前記フォーカルプレーンを設定するための手段と、
を備える、プレノプティック画像のフォーカルプレーンを設定するシステム。
[C14]
少なくとも1つのプレノプティック画像を作成するための前記手段はプレノプティックカメラを備える、C13に記載のシステム。
[C15]
前記少なくとも1つのプレノプティック画像内の物体を深度面にマッピングするための前記手段は座標マッピングモジュールを備える、C13に記載のシステム。
[C16]
前記少なくとも1つのプレノプティック画像を表示するための前記手段は表示デバイスを備える、C13に記載のシステム。
[C17]
前記ディスプレイ上のユーザの注視位置をトラッキングするための前記手段はアイトラッキングメガネを備える、C13に記載のシステム。
[C18]
前記ディスプレイ上のユーザの注視位置をトラッキングするための前記手段は赤外線アイトラッキングシステムを備える、C13に記載のシステム。
[C19]
前記ユーザによって観察されている深度面に前記表示画像の前記フォーカルプレーンを設定するための前記手段は深度面フォーカスモジュールを備える、C13に記載のシステム。
[C20]
プロセッサによって実行されたときに前記プロセッサに対してプレノプティック画像のフォーカルプレーンを設定する方法を実行させる命令を備えた非一時的コンピュータ読み取り可能な媒体、ここにおいて前記方法は、
少なくとも1つのプレノプティック画像を作成することと、
前記少なくとも1つのプレノプティック画像内の物体を深度面にマッピングすることと、
前記少なくとも1つのプレノプティック画像を表示することと、
ディスプレイ上のユーザの注視位置をトラッキングすることと、
前記ユーザによって観察されている深度面に前記表示画像の前記フォーカルプレーンを設定することと、
を備える、
非一時的コンピュータ読み取り可能な媒体。

Claims (11)

  1. プレノプティック画像を作成するためのシステムであって、
    複数の深度面を有する少なくとも1つのプレノプティック画像を作成することが可能なプレノプティック画像ソースと、
    前記少なくとも1つのプレノプティック画像内の物体を前記複数の深度面のうちの1つに割り当てるように構成された深度マッピングモジュールと、
    前記複数の深度面のうちの1つに割り当てられた前記物体を有する前記少なくとも1つのプレノプティック画像を表示するためのディスプレイと、
    前記表示されたプレノプティック画像の前記複数の深度面のうちの1つ内の前記物体にユーザの注視位置をトラッキングし、かつ前記ユーザによって観察されている前記物体の前記深度面に前記表示されたプレノプティック画像のフォーカルプレーンを設定するように構成されるアイトラッキングシステム、ここにおいて、前記アイトラッキングシステムは、前記ユーザから離れた赤外線システムを備え、前記システムは、前記ユーザの目の動きおよび座標をトラッキングするように構成される、と、
    前記ユーザによって観察されている前記物体の前記深度面と連携するように前記プレノプティック画像のフォーカスを変更するとともに表示されるフォーカルプレーンを更新するように構成される深度面フォーカスモジュールと
    を備える、システム。
  2. 前記少なくとも1つのプレノプティック画像はプレノプティック画像からなる映像である、請求項1に記載のシステム。
  3. 前記少なくとも1つのプレノプティック画像は立体視画像である、請求項1に記載のシステム。
  4. 前記少なくとも1つのプレノプティック画像は2次元画像である、請求項1に記載のシステム。
  5. 前記アイトラッキングシステムは前記ユーザの目の前記動きおよび座標をトラッキングするために前記ユーザによって装着されるメガネを備える、請求項1に記載のシステム。
  6. 前記プレノプティック画像ソースはプレノプティック画像フレームを備えた映像を表示することが可能である、請求項1に記載のシステム。
  7. ユーザにより観察される画像のフォーカルプレーンを設定することを備える方法であって、
    複数の深度面を有する少なくとも1つのプレノプティック画像を作成することと、
    前記少なくとも1つのプレノプティック画像内の物体を前記複数の深度面のうちの1つにマッピングすることと、
    ディスプレイ上に前記複数の深度面のうちの1つに割り当てられた前記物体を有する前記少なくとも1つのプレノプティック画像を表示することと、
    ディスプレイ上の前記複数の深度面のうちの1つ内の前記物体へのユーザの注視位置をトラッキングするためのアイトラッキングシステムを使用すること、ここにおいて、前記アイトラッキングシステムは、前記ユーザから離れた赤外線システムを備え、前記システムは、前記ユーザの目の動きおよび座標をトラッキングするように構成される、と、
    前記ユーザによって観察されている前記物体の前記深度面に、前記表示されたプレノプティック画像のフォーカルプレーンを設定することと、
    前記ユーザによって観察されている前記物体の前記深度面と連携するように前記プレノプティック画像のフォーカスを変更するとともに表示されるフォーカルプレーンを更新することと
    を備える、方法。
  8. 前記少なくとも1つのプレノプティック画像はプレノプティック画像からなる映像である、請求項7に記載の方法。
  9. 前記少なくとも1つのプレノプティック画像は2次元画像である、請求項7に記載の方法。
  10. 前記ユーザの注視位置をトラッキングすることは、前記ユーザの目の前記動きおよび座標をトラッキングするために前記ユーザによって装着されるメガネを備える、請求項7に記載の方法。
  11. プロセッサによって実行されたときに前記プロセッサに請求項7乃至10のいずれか1項に記載の方法を実行させる命令を備えた非一時的コンピュータ読み取り可能な媒体。
JP2019003491A 2012-11-27 2019-01-11 3dプレノプティックビデオ画像を作成するためのシステムおよび方法 Active JP6759371B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/686,456 US9137524B2 (en) 2012-11-27 2012-11-27 System and method for generating 3-D plenoptic video images
US13/686,456 2012-11-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015544084A Division JP2016504825A (ja) 2012-11-27 2013-11-13 3dプレノプティックビデオ画像を作成するためのシステムおよび方法

Publications (3)

Publication Number Publication Date
JP2019092170A JP2019092170A (ja) 2019-06-13
JP2019092170A5 JP2019092170A5 (ja) 2019-07-18
JP6759371B2 true JP6759371B2 (ja) 2020-09-23

Family

ID=49641897

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015544084A Pending JP2016504825A (ja) 2012-11-27 2013-11-13 3dプレノプティックビデオ画像を作成するためのシステムおよび方法
JP2019003491A Active JP6759371B2 (ja) 2012-11-27 2019-01-11 3dプレノプティックビデオ画像を作成するためのシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015544084A Pending JP2016504825A (ja) 2012-11-27 2013-11-13 3dプレノプティックビデオ画像を作成するためのシステムおよび方法

Country Status (6)

Country Link
US (1) US9137524B2 (ja)
EP (1) EP2926554A1 (ja)
JP (2) JP2016504825A (ja)
KR (1) KR102164723B1 (ja)
CN (1) CN104798370B (ja)
WO (1) WO2014085092A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201426018A (zh) * 2012-12-19 2014-07-01 Ind Tech Res Inst 影像處理裝置及影像再對焦方法
US9699433B2 (en) * 2013-01-24 2017-07-04 Yuchen Zhou Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye
US20140327771A1 (en) * 2013-05-01 2014-11-06 Nvidia Corporation System, method, and computer program product for displaying a scene as a light field
US20140375772A1 (en) * 2013-06-19 2014-12-25 Thaddeus Gabara Method and Apparatus for an SR and LR 3-D Visual Images and Sharing
US9319665B2 (en) * 2013-06-19 2016-04-19 TrackThings LLC Method and apparatus for a self-focusing camera and eyeglass system
US10652525B2 (en) 2013-10-31 2020-05-12 3Di Llc Quad view display system
US11343487B2 (en) 2013-10-31 2022-05-24 David Woods Trackable glasses system for perspective views of a display
US9986228B2 (en) * 2016-03-24 2018-05-29 3Di Llc Trackable glasses system that provides multiple views of a shared display
US10091411B2 (en) * 2014-06-17 2018-10-02 Lg Electronics Inc. Mobile terminal and controlling method thereof for continuously tracking object included in video
CN105323573B (zh) * 2014-07-16 2019-02-05 北京三星通信技术研究有限公司 三维图像显示装置和方法
CN104539924A (zh) * 2014-12-03 2015-04-22 深圳市亿思达科技集团有限公司 基于人眼追踪的全息显示方法及全息显示装置
US9541998B2 (en) * 2015-01-29 2017-01-10 Samsung Electronics Co., Ltd. Electronic system with gaze alignment mechanism and method of operation thereof
DE102015006528A1 (de) * 2015-05-27 2016-12-01 Roland Harras Verfahren zur Bild- und Filmwiedergabe mit automatischer Fokusierung der Blickbereiche der Betrachter
EP3099078A1 (en) * 2015-05-29 2016-11-30 Thomson Licensing Method for collecting information on users of 4d light field data, corresponding apparatuses and computer programs
US10757399B2 (en) * 2015-09-10 2020-08-25 Google Llc Stereo rendering system
EP3185550A1 (en) 2015-12-23 2017-06-28 Thomson Licensing Tridimensional rendering with adjustable disparity direction
TWI589150B (zh) * 2016-03-04 2017-06-21 液態三維系統有限公司 3d自動對焦顯示方法及其系統
US10218968B2 (en) 2016-03-05 2019-02-26 Maximilian Ralph Peter von und zu Liechtenstein Gaze-contingent display technique
EP3264741A1 (en) * 2016-06-30 2018-01-03 Thomson Licensing Plenoptic sub aperture view shuffling with improved resolution
US10943359B2 (en) 2016-08-04 2021-03-09 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
US10108144B2 (en) * 2016-09-16 2018-10-23 Microsoft Technology Licensing, Llc Holographic wide field of view display
KR102306775B1 (ko) * 2017-03-24 2021-09-29 한국전자통신연구원 사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치
EP3416371A1 (en) * 2017-06-12 2018-12-19 Thomson Licensing Method for displaying, on a 2d display device, a content derived from light field data
EP3416381A1 (en) 2017-06-12 2018-12-19 Thomson Licensing Method and apparatus for providing information to a user observing a multi view content
SE543121C2 (en) 2019-02-04 2020-10-13 Tobii Ab Method and system for determining a current gaze direction
CN111752383B (zh) * 2019-03-29 2024-09-27 托比股份公司 更新角膜模型
WO2020213088A1 (ja) * 2019-04-17 2020-10-22 楽天株式会社 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US12067162B2 (en) * 2019-07-10 2024-08-20 Nec Corporation Gaze point detection device and gaze point detection method
US10989927B2 (en) * 2019-09-19 2021-04-27 Facebook Technologies, Llc Image frame synchronization in a near eye display
CN110933396A (zh) * 2019-12-12 2020-03-27 中国科学技术大学 集成成像显示系统及其显示方法
CN111031250A (zh) * 2019-12-26 2020-04-17 福州瑞芯微电子股份有限公司 一种基于眼球追踪的重对焦的方法和装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5467104A (en) 1992-10-22 1995-11-14 Board Of Regents Of The University Of Washington Virtual retinal display
US7239293B2 (en) 1998-01-21 2007-07-03 New York University Autostereoscopic display
US6466250B1 (en) 1999-08-09 2002-10-15 Hughes Electronics Corporation System for electronically-mediated collaboration including eye-contact collaboratory
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
JP5387856B2 (ja) * 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US20110228051A1 (en) 2010-03-17 2011-09-22 Goksel Dedeoglu Stereoscopic Viewing Comfort Through Gaze Estimation
US20110273369A1 (en) 2010-05-10 2011-11-10 Canon Kabushiki Kaisha Adjustment of imaging property in view-dependent rendering
EP2403234A1 (en) 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Method and system for constructing a compound image from data obtained by an array of image capturing devices
US20120019703A1 (en) 2010-07-22 2012-01-26 Thorn Karl Ola Camera system and method of displaying photos
US8724000B2 (en) * 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
KR101670927B1 (ko) * 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
CN102314683B (zh) * 2011-07-15 2013-01-16 清华大学 一种非平面图像传感器的计算成像方法和成像装置
KR102065687B1 (ko) * 2012-11-01 2020-02-11 아이캠, 엘엘씨 무선 손목 컴퓨팅과 3d 영상화, 매핑, 네트워킹 및 인터페이스를 위한 제어 장치 및 방법

Also Published As

Publication number Publication date
EP2926554A1 (en) 2015-10-07
US9137524B2 (en) 2015-09-15
KR20150090183A (ko) 2015-08-05
KR102164723B1 (ko) 2020-10-13
WO2014085092A1 (en) 2014-06-05
US20140146148A1 (en) 2014-05-29
CN104798370A (zh) 2015-07-22
JP2016504825A (ja) 2016-02-12
CN104798370B (zh) 2017-05-03
JP2019092170A (ja) 2019-06-13

Similar Documents

Publication Publication Date Title
JP6759371B2 (ja) 3dプレノプティックビデオ画像を作成するためのシステムおよび方法
US11838518B2 (en) Reprojecting holographic video to enhance streaming bandwidth/quality
US10437065B2 (en) IPD correction and reprojection for accurate mixed reality object placement
KR102417177B1 (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9842433B2 (en) Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality
US9710973B2 (en) Low-latency fusing of virtual and real content
US20150312561A1 (en) Virtual 3d monitor
US11010979B2 (en) Overlay for camera field of vision
US20140176591A1 (en) Low-latency fusing of color image data
US20130326364A1 (en) Position relative hologram interactions
US20130328925A1 (en) Object focus in a mixed reality environment
KR101788452B1 (ko) 시선 인식을 이용하는 콘텐츠 재생 장치 및 방법
JP2016525741A (ja) 共有ホログラフィックオブジェクトおよびプライベートホログラフィックオブジェクト
WO2020215960A1 (zh) 注视区域的确定方法、装置及可穿戴设备
JP2019510991A (ja) 適応焦点面を有して仮想現実をレンダリングする構成
EP3308539A1 (en) Display for stereoscopic augmented reality
US11539933B2 (en) 3D display system and 3D display method
US11543655B1 (en) Rendering for multi-focus display systems
KR102197504B1 (ko) 사전 계산된 조명으로 증강 현실 환경을 구성하는 기법
CN114020150A (zh) 图像显示方法、装置、电子设备及介质
CN116612234A (zh) 基于增强或虚拟现实应用程序内立体视觉的高效动态遮挡
WO2023146882A1 (en) Display system with machine learning (ml) based stereoscopic view synthesis over a wide field of view

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200902

R150 Certificate of patent or registration of utility model

Ref document number: 6759371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250