JP6223965B2 - 立体ビデオ表現のためのコンピュータ・システム及び方法 - Google Patents

立体ビデオ表現のためのコンピュータ・システム及び方法 Download PDF

Info

Publication number
JP6223965B2
JP6223965B2 JP2014515917A JP2014515917A JP6223965B2 JP 6223965 B2 JP6223965 B2 JP 6223965B2 JP 2014515917 A JP2014515917 A JP 2014515917A JP 2014515917 A JP2014515917 A JP 2014515917A JP 6223965 B2 JP6223965 B2 JP 6223965B2
Authority
JP
Japan
Prior art keywords
viewer
data
video
representation
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014515917A
Other languages
English (en)
Other versions
JP2014525049A (ja
JP2014525049A5 (ja
Inventor
バティチェ,スティーヴン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014525049A publication Critical patent/JP2014525049A/ja
Publication of JP2014525049A5 publication Critical patent/JP2014525049A5/ja
Application granted granted Critical
Publication of JP6223965B2 publication Critical patent/JP6223965B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、立体ビデオ表現に関する。
ビデオコンテンツは、2次元又は3次元フォーマットで表現されてよい。3次元ビデオ表現は、視聴者の左目と右目に対して僅かに異なる映像を届けることができるように、しばしばフィルター眼鏡を使用する。そうしたビデオ表現においては、表示された画像が3次元であるように見える一方で、視聴環境の中での視聴者の視点にかかわらず同一の画像が視聴者の目に届くので、ユーザーが視点を変えても視聴されているコンテンツは変化しない。
仮想世界及び他のインタラクティブなコンピューターグラフィック表現により、ユーザーは、ユーザー入力を介してシーン(scene)の異なる部分を見ることができる。ユーザー入力は、そのシーンを見ている1人称又は3人称の人物の視点を変化させる。ユーザーは、仮想世界及び他のインタラクティブなコンピューターグラフィック環境において見られる視点を、キーボード、ジョイスティック、等といったユーザー入力デバイスからの入力を介してコントロールすることができる。
そうしたビデオ表現においては、表示された画像が3次元であるように見える一方で、視聴環境の中での視聴者の視点にかかわらず同一の画像が視聴者の目に届くので、ユーザーが視点を変えても視聴されているコンテンツは変化しない。
ヘッドマウント(head−mount)ディスプレイを介した表現空間におけるビデオ表現に関する種々の実施例が開示される。ユーザーは、表現空間の中で視点を変更することによって立体画像を異なる視点から見ることができる。例えば、一つの開示された実施例は、位置及び方向検知システムから位置データ及び方向データを受取ることを含み、そして、視聴者の位置データ及び視聴者の方向データから、表現空間の中に視聴者を位置決めし、ユーザーが直面している方向を判断し、ヘッドマウントディスプレイシステムの向きを決定する。決定された位置、方向、および、向きから、ヘッドマウントディスプレイシステムに送付するための表現画像が、表現空間にマップされた立体画像の領域及び向きに基づいて決定される。立体画像は、表現空間における視聴者の視野に基づいて視聴者の視野の中にあるものである。そして、表現画像はヘッドマウントディスプレイに送られる。
本概要は、以降の詳細な説明でより詳しく記述される本発明の概念について、簡素化された形式において代表的な概念の選択を紹介するものである。本概要は、特許請求された技術的事項の主要な特徴または本質的な特徴を特定することを意図するものではなく、また、特許請求された技術的事項の範囲を限定するために使用されることを意図するものでもない。さらに、特許請求された技術的事項は、この発明開示のあらゆる場所において記載されたいかなる又は全ての不利な点を解決する実施例に限定されない。
図1は、表現空間における視聴者を模式的に示している。さらに、本発明開示の一つの実施例に従って、表現空間の中での視聴者の視点の機能としてユーザーに対して表示されるビデオ画像を示している。 図2は、立体ビデオ表現システムの一つの実施例のブロックダイヤグラムである。 図3は、ヘッドマウントディスプレイシステムの一つの実施例を示している。 図4は、視聴者に対して立体ビデオ画像を表示する方法に係る一つの実施例のフローチャートである。 図5は、インタラクティブグラフィックユーザーインターフェイスを表示する方法に係る一つの実施例のフローチャートである。 図6は、ユーザーのインタラクションを受取る以前のインタラクティブなビジュアルインターフェイスの一つの実施例を示している。 図7は、ユーザーのインタラクションを受取った後の、図6に係るユーザーインターフェイスを示している。 図8は、コンピューターデバイスの一つの実施例を示している。
上述のように、視覚世界及び他のコンピューターグラフィック表現により、ユーザー入力を介して、ユーザーは一つのシーンを異なる視点から眺めることができる。ユーザー入力は、その人を通してシーンが眺められている1人称又は3人称の人物の視点を変えるものである。ユーザーは、仮想世界及び他のインタラクティブなコンピューターグラフィック環境において見られる視点を、キーボード、ジョイスティック、等といったユーザー入力デバイスからの入力を介してコントロールすることができる。
しかしながら、現在の仮想世界体験と供にプレーヤーが楽しんでいるインタラクティビティ(interactivity)の程度は、仮想世界を通じてユーザーの動作をコントロールするためのメカニズムによって制限されることがある。例えば、仮想世界をナビゲーションするための、キーボード、ジョイスティック、十字キー、等といった手動の入力デバイスを使用することは、ユーザーが、その世界とのよりリアルなインタラクティビティを楽しむことを妨げている。そのシーンを異なる視点で見るために仮想世界シーンの中を歩くことができる、といったことである。
さらに、上述のように、ビデオ表現は、ユーザーに対してビデオコンテンツの中で視点を変更する能力を提供することができない。例えば、コンピューターグラフィック表現とは違って、ビデオ視聴者は、視点を180度変更するように選択することでビデオ視聴者の視点の後ろで起こっている行為を眺める能力を有していない。
従って、ビデオコンテンツ表現に関する実施例がここにおいて開示される。ユーザーは、いろいろな視点からビデオコンテンツ表現を眺めるために、ビデオ表現空間の中で動くことができるといったものである。例えば、フットボールの試合を見ている視聴者は、試合のスクリメージライン(line of scrimmage)をより近くで見るために視聴環境の中を歩くことができる。同様に、ドラマを見ている視聴者は、部屋の中で異なる視点から人物を眺めるために、シーンが起きている部屋の中を歩き回ることができる。
開示される実施例は、視聴者に対して画像を表示するためにヘッドマウントディスプレイを使用し、表現空間の中でのユーザーの位置及び向きをトラック(track)するために位置及び向きトラッキングシステムを使用する。こうした位置及び向きトラッキングシステムは、例えば、表現空間を捉えるように構成された一つまたはそれ以上のカメラ、及び/又は、ロール(roll)、ピッチ(pitch)、及び/又は、ヨー(yaw)軸に沿ったユーザーの頭の向きをトラックするためのヘッドマウント上の一つまたはそれ以上の動作センサー、を含んでよい。
位置及び向きトラッキングシステムは、また、カメラビーコンシステムを含んでもよい。例えば、表現空間における対象物は、参照信号を発するように構成されてよい、参照信号は、ヘッドマウントディスプレイシステム上のカメラが、構成された照明パターンを見てトラックすることができるように空間的に関連付けされて構成されている。さらの他の実施例においては、表現空間の中に一つの広い視野のカメラが備えられ、ユーザーの位置及び向きを判断するために、ヘッドマウントディスプレイシステムは、カメラによって見ることができる構成的、空間的に関連付けられたビーコンを発する。同様にシステムは、ラジオ周波数のビーコンを使用してもよい。こうした位置及び向きトラッキングシステムは、例示目的のために説明されるものであって、いかなるやり方も制限するものではないこと、および、磁気システムといった、あらゆる他の好適な動作トラッキングシステムが使用され得ることが理解されるべきである。
位置及び向きトラッキングシステムから、表現空間における視聴者の目の位置及び向きを表わすデータが得られ、ヘッドマウントディスプレイを介した表示のための画像を計算し表すことができる。こうした位置及び向きの分析は、フレームごとに、または、表現空間におけるユーザーの動作が検知されたときにだけ実行されてよい。いずれの場合でも、ユーザーは、表現空間の中で物理的に動くことによってビデオ表現を幅広い種々の視点から眺めることができる。
こうしたシステムにより、ビデオデータは、表現空間に対して立体ビデオデータをマッピングすることによって、部屋といった、表現空間の中に表示され得る。用語「立体ビデオデータ(“volumetric video data”)」は、ここにおいて使用されるように、複数のビュー(view)からキャプチャーされたビデオデータを表しており、ビデオデータにおける対象物の出現及び空間的な関連付けが、視聴空間の中で種々の視点から好適に表される。より特定的な実施例として、ドラマ表現が複数の異なる角度におけるカメラによって記録されてもよい。例えば、実質的に舞台を取り囲んでいるカメラである。そして、カメラからの画像データは、複数のカメラによってキャプチャーされた視点の範囲の中の全ての画像データを包含するビデオファイルを形成するように一緒に縫い合わされる。そのドラマ表現がビデオでキャプチャーされたコンテンツ制作空間の配置に関する知識によって、製作空間をキャプチャーされたビデオデータに対してマップすることができる。そして、このマッピングは、ビデオデータが表示される表現空間に適用される。このようにして、表現空間の容積はマップされたビデオデータで満たされる。表現空間における視聴者は、ヘッドマウントディスプレイシステムを介して表現空間の中であらゆる好適な視点からビデオコンテンツを眺めることができるようにである。表現空間とビデオデータにおけるキャプチャーされたコンテンツ制作空間容積との間の配置的な不一致を取り扱うことができる。ビデオコンテンツのサイドをクロップ(crop)したり、ユーザーがビデオコンテンツを表現空間の中及び外にスクロールできるようにしたり(例えば、イメージセンサーによって検知されたジェスチャー入力による)、ユーザーが移動できる(眺めるのとは反対に)ビデオデータ容積の領域を制限したり、及び/又は、あらゆる他の好適なやり方によって取扱うことができる。
図1は、こうした立体ビデオ表現のシナリオ使用の一つの実施例を示している。視聴者100が表現空間102の中に示されており、表現空間は、部屋の中で様々な位置に配置された複数のカメラ104、106を含んでいる。カメラ104、106は、表現空間102の中での視聴者100の位置をトラックするために使用される。説明のために2つのカメラが示されているが、表現空間102の中の視聴者100の位置をトラックするためにあらゆる好適な数量のカメラが使用され得ることが理解されるべきである。さらに、表現空間は、上記に説明されたものに限定されることなく、あらゆる他の好適な位置及び向きトラッキングシステムを含み得ることが理解されるべきである。
さらに、表現空間102は、立体映像表現を眺めるために視聴者100によって装着されたヘッドマウントディスプレイを含んでいる。例示目的のために一人の視聴者110が示されているが、複数の視聴者も表現空間102の中でビデオ表現を眺めることができることが理解されるべきである。
表現空間102は、さらに、ビデオ表現計算デバイス112を含んでいる。ビデオ表現計算デバイス112は、ビデオ表現のための立体的ビデオデータを受取り、その立体的データを表現空間に対してマップするように構成されている。立体的ビデオデータは、あらゆる好適なソースから受取られ得ることが理解されよう。ソースは、これらに限定されるわけではないが、DVDプレーヤー、及び/又は、ネットワークを介した離れたソースといったものを含むものである。
ビデオ表現計算デバイス112は、さらに、視聴者がトラッキングしているカメラ104、106からの映像データを、ヘッドマウントディスプレイシステム100(以下に説明される)上の種々のセンサーからの動作データと同様、受取るように構成されており、表現空間102における視聴者100の目の位置及び向きをトラックすることができる。さらに、いくつかの実施例においては、ヘッドマウントディスプレイシステム100上の眼球トラッキングカメラからの入力が、視聴者の凝視が向けられている方向に関する入力を提供することができる。こうした入力から、ビデオ表現計算デバイス112は、視聴者100に対する表現のためにヘッドマウントディスプレイシステム110に送付する映像を決定することができる。
こうしたプロセスをフレームごとに実行することにより、視聴者が表現空間102の中で移動するにつれて、異なる映像を視聴者に対して表わすことができる。例えば、図1は、野球の試合を眺めている視聴者100を示している。時間tにおける第1の表現において、視聴者100は、ホームプレートの後ろに視界を置く場所に配置されている。次の、時間tにおいて視聴者100は、表現空間102の中で、一塁ベースラインに沿って野球の試合を眺めることができる位置及び向きへ移動している。そして、時間tにおいて視聴者100は、一塁ベースラインに沿ってさらに移動し、ライトへのヒットを見るために向きを変えている。このように、視聴者100は、表現空間102の中を単純に移動することによって、試合を眺める視点を変更することができる。表現空間の立体的ビデオデータへのマッピング及び立体的データにおいて利用可能な視点の範囲に依存するものであるが、視聴者は、ピッチャー又はキャッチャーの後ろ、または、あらゆる他の好適な視点といった野球グラウンド上の視点を変更することができることが理解されるべきである。
図2は、図1に係る視聴環境のブロックダイヤグラムを示している。図1の表現空間102は、破線で示されており、ビデオ表現計算デバイス112を含んでいる。しかしながら、ビデオ表現計算デバイス112と表現空間102において使用される種々の入力センサー及び出力デバイスとの間にコミュニケーションチャネルが存在する限りにおいて、ビデオ表現計算デバイス112、及び/又は、あらゆる他の好適なコンポーネントは、表現空間102から物理的に離れて配置されてもよいことが理解されるべきである。
ヘッドマウントディスプレイシステム110は、種々のセンサー及び出力デバイスを含んでよい。例えば、ヘッドマウントディスプレイシステム110は、シ−スルー(see−through)ディスプレイサブシステム220を含んでおり、映像がレンズ202の上に投射されるか、または、レンズ202の中に配置された映像生成エレメント(例えば、シ−スル−OLEDディスプレイ)によって生成される。ヘッドマウントディスプレイサブシステム11は、さらに、一つまたはそれ以上の映像センサー204を含んでよい。例えば、映像センサー204は、視聴者の眼球をトラックできるようにするための映像データを取得するように構成された眼トラッキング映像センサーを含み得る。同様に、映像センサー204は、例えば、ジェスチャーベースのユーザー入力を可能にするための、一つまたはそれ以上の外側に向いた映像センサーを含んでよい。いくつかの実施例において、ジェスチャーベースのユーザー入力は、また、表現空間のカメラ104、106を介して検知することもできる。一方、他の実施例において、ジェスチャーベースの入力は使用されないこともある。ヘッドマウントディスプレイシステム110は、さらに、一つまたはそれ以上のマイクロフォン206を含んでよく、ユーザー入力として音声コマンドを使用することができる。代替的または追加的には、視聴者の音声コマンドを検知するために、ヘッドマウントディスプレイシステム110から離れた視聴環境のマイクロフォン207を使用してもよい。
ヘッドマウントディスプレイシステム110は、さらに、視聴者がヘッドマウントディスプレイシステム110を装着している場合に、視聴者の頭の動きを検知するための一つまたはそれ以上の動作センサー208を含んでよい。動作センサー208は、視聴者の頭の動き及び眼の向きをトラッキングするために、ビデオ表現計算デバイス112に対して提供するための動作データを出力することができる。こうした動作データは、ユーザーの頭のロール、ピッチ、及び/又は、ヨー軸に沿った傾きの検知を促進し、こうしたデータは、また、向きデータとしても使用することができる。同様に、動作センサー208は、また、ユーザー入力デバイスとして使用されてもよく、ユーザーは、首及び頭、もしくは胴体でさえ、のジェスチャーを介してヘッドマウントディスプレイシステム110とインタラクションすることができる。図2に示されたセンサーは説明目的のものであり、いかなる方法においても本発明を限定するように意図されたものではなく、あらゆる他の好適なセンサー及び/又はセンサーの組合せが使用され得ることが理解されるべきである。
ヘッドマウントディスプレイシステム110は、さらに、コントローラー210を含んでおり、ロジックサブシステム212、および、データ保持サブシステム214を有し、ヘッドマウントディスプレイシステム110の種々の入力及び出力とコミュニケーションしている。データ保持サブシステム214は、ロジックサブシステム212によって実行可能なインストラクションをそこに保管している。例えば、センサーからの入力を受取ってコミュニケーションサブシステム216を介して(非処理または処理形式で)ビデオ表現計算デバイス112に対して送付し、ビデオ表現計算デバイス112から映像データを受取り、かつ、シースルーディスプレイサブシステム200を介して視聴者に対してそうした映像を表わすためである。音声が、ヘッドマウントディスプレイシステム上の一つまたはそれ以上のスピーカー218を介して、または表現空間における別の音声出力220を介して提供されてもよい。
ヘッドマウントディスプレイシステム110は、あらゆる好適な物理的形状であってよい。例えば、いくつかの実施例において、ヘッドマウントディスプレイシステム110は、図3に示されるように、サングラスの形状であってよい。他の実施例において、ヘッドマウントディスプレイシステム110は、あらゆる他の好適な形式であってよく、視聴者の眼の前面でシースルーディスプレイシステムが保持されている。図3は、外側に面している映像センサー204と同様に、眼トラッキング映像センサー300の両方を示していることに留意すべきである。
図2に戻ると、図1に係るカメラ104、106は、カメラ1及び任意のカメラnとして示されている。あらゆる好適なカメラの数量を示しており、2個に限定されるものではない。カメラは、表現空間102におけるユーザー動作をトラックして、ビデオ表現計算デバイスに対して視聴者の位置データを提供するために使用される。さらに、あらゆる他の好適な位置及び向き検知システムが使用され得ることが理解されるべきである。
視聴者位置のトラッキングのために複数のカメラが使用されている場合に、あらゆる好適な方法で表現空間に対して較正され得るいくつかの実施例において、カメラは、カメラ自身で較正するように構成されてもよい。例えば、それぞれのカメラは、表現空間の中に立体照明を投影する立体照明投影システムを含んでもよい。そうした立体照明は、カメラによって検知されて、表現環境に対してカメラ自身を較正する。次に、表現空間において一つのカメラの位置を別のカメラに対して較正するために、一つのカメラは、立体照明パターンを発する一方で、映像を取得することができる。映像における立体照明パターンの外見及び位置は、どのカメラが立体照明パターンを発したかの知識を伴なって、ビデオ表現計算デバイスによって使用され、それぞれのカメラによって取得された映像間のオーバーラップ(overlap)が較正される。
ビデオ表現計算デバイス112は、表現空間102の中で、ヘッドマウントディスプレイシステム110、カメラ104、106、マイクロフォン207、および、音声出力220と、コミュニケーションしているように示されている。さらに、ビデオ表現計算デバイス112は、複数のコンテンツソースから入力を受取るように図示されている。コンテンツソースは、表現空間102の中に位置するコンテンツソース1 222、および、表現空間102に対して外側に位置するコンテンツソース2 222、n 226を含んでいる。
コンテンツソース222は、あらゆる好適なローカルのコンテンツソースを表していいる。DVDプレーヤー、デジタルビデオレコーダー(DVR)といったもの、または、そういったローカルメディアのデータソースである。同様に、コンテンツソース224、226は、ビデオ表現計算デバイス112によってアクセス可能なあらゆるリモートコンテンツソースを表している。例えば、コンテンツソース2及び/又はnは、そこから立体ビデオデータがストリームされ、または、ダウンロードされるウェブサイトを表してよい。同様に、コンテンツソース224、226は、あらゆる好適なリモートメディアソースを表してよい。ケーブルテレビのプロバイダー、衛星テレビのプロバイダー、コンピューターでアクセス可能なストーミングメディアプロバイダー、等といったものである。そのようにして、ネットワーク228は、リモートソースからコンテンツを受取るあらゆる好適なネットワークを表している。
図4は、ヘッドマウントディスプレイを解して立体ビデオ画像を表示する方法400に係る一つの実施例のフローチャートである。方法400を実行する前に、ビデオ表現計算デバイスは、表現空間の中に配置された映像センサーを表現空間に対して較正することが理解されるべきである。こうした構成は、これに限定されるわけではないが、システム設定を含めて、あらゆる好適な方法、あらゆる好適な頻度において実行されてよい。
方法400は、最初にステップ402において、立体映像データを受取り、その立体映像データを表現空間に対してマップすることを含んでいる。こうしたマッピングは、例えば、ユーザーが動き回ることができる立体映像の中の領域を表す立体映像データの部分を決定すること、および、映像のその部分にあるピクセルを表現空間における位置と関連付けることを含んでよい。
いくつかの実施例において、全体の映像量はインタラクティブであってよく、ユーザーは、あらゆる所望の視点からそれぞれの映像における対象物を眺めることができる。より特定的な実施例として、立体ドラマ表現が、十分な数のカメラアングルから記録されてもよく、ユーザーは、表示されたシーンの周囲を、そのシーンの立体全体を通じるのと同様に歩き回ることができ、その領域の中で全ての視点から俳優の映像を眺めることができる。こうした表現の一つの特定の実施例において、シーンにおける壁の映像の配置は、表現空間における実際の壁の位置に対応していてよい。映像は、あらゆる他の好適な境界外見を有し得ることが正しく理解されるべきである。
他の実施例においては、映像量の一部領域だけがインタラティブであり、ユーザーは、その立体ビデオコンテンツの中の対象物及び/又は人間のいくつかの視点を明らかするために移動できないことがある。
立体ビデオデータを表現空間に対してマッピングした後、方法400は、ステップ404において立体ビデオデータのフレームを検索し、そして、視聴者に対する表現のためにヘッドマウントディスプレイに送付する映像を決定するための種々のプロセスを実行する。例えば、ステップ408において、方法400は、表現空間における映像センサーからの視聴者トラッキングデータを受取り、ステップ410において、トラッキング映像データを介して表現空間において視聴者を配置する。表現空間における複数の視聴者が、この方法によって特定され得ることが理解されるべきである。同様に、視聴者トラッキングデータも、また、ステップ412で示されているように、表現空間においてユーザーが直面している方向を判断するために使用されてもよい。
さらに、ヘッドマウントディスプレイシステム上の動作センサーからのデータは、視聴者に対して表す映像の決定を手助けするために使用されてよい。例えば、ステップ414で示されるように、方法400は、ヘッドマウントディスプレイシステム上の一つまたはそれ以上の動作センサーからの動作データを受取り、そして、ステップ416において、ヘッドマウントディスプレイ(従って、ユーザーの眼)の向きを決定する。
いくつかの実施例において、眼球トラッキングデータは、ステップ418に示されるように、ヘッドマウントディスプレイシステム上の映像センサーから受取ることができる。そうしたデータは、次に、ステップ420で示されるように、視聴者が真直ぐ前を向いていることに対応するヘッドマウントディスプレイシステムの光学軸に関して、視聴者の視点が向けられている方向を決定する。
次に、視聴者トラッキングデータ、向きデータ、及び/又は、眼球トラッキングデータに基づいて、方法400は、ステップ422において、立体ビデオデータの現在のフレームの領域及び向きを決定することを含んでおり、立体ビデオデータは、表現空間のビデオデータに対するマッピングに基づく表現空間における視聴者の視野の中にある。そして、ステップ424において、ビデオ表現計算デバイスは、表示のためにヘッドマウントディスプレイシステムに送付する表現映像を決定して、ステップ426で、その映像を送付する。立体ビデオデータのそれぞれのフレームに対してステップ404から426のプロセスを実行することによって、ステップ428に示すように、視聴者に対して立体的ビデオ表現を表示することができる。
いくつかの実施例において、インタラクティブグラフィックユーザーインターフェイスも、また、視聴者に対して表示され、例えば、ビデオ表現をコントロールすることができる。図5は、立体的グラフィックユーザーインターフェイスを表示する方法500を示すフローチャートであり、図6及び図7は、そうしたユーザーインターフェイスの一つの実施例を説明している。方法500は、ステップ502において、グラフィックユーザーインターフェイスに対するユーザーリクエストを検知し、そして、ステップ504において、ヘッドマウントディスプレイシステムに対してユーザーインターフェイス映像を送付する。ユーザーは、あらゆる好適な方法で、グラフィックユーザーインターフェイスにリクエストすることができる。例えば、図6を参照すると、ユーザーは、手602を所定の姿勢に広げるといった、ジェスチャーを実行することによってユーザーインターフェイスにリクエストする。それに対応して、ユーザーインターフェイス604は、ボタン606といった、複数のプッシュ可能なエレメントをユーザーの腕が明確に届く範囲内に表示する。あらゆる好適なタイプのユーザーインターフェイスエレメントが表示され得ることが理解されるべきである。これらに限定されるわけではないが、プッシュ可能、プル(pull)可能、移動可能、回転可能、等なエレメントを含んでいる。さらに、手603は、ヘッドマウントディスプレイシステムを通じて見られるユーザーの実際の手を表してもよく、または、ユーザーインターフェイス映像の一部としてユーザーに対して表示されるアバター(avatar)を表してもよいことが理解されるべきである。アバターは、ユーザーの実際の手の動きをトラックするように構成されている。
方法500は、次に、ステップ506において、ユーザーインターフェイス映像とインタラクションしているユーザージェスチャーを検知する。これに応じて、方法550は、ステップ508において、ユーザージェスチャーの効果を説明する変更されたユーザーインターフェイス映像を送付し、そして、ステップ510において、リクエストされたアクションを実行する。例えば、図7を参照すると、ユーザーは、指を伸ばしてボタン606を押すことによってユーザーインターフェイス映像とインタラクションしている。これに応じて、そのボタンは動作状態にあるように表示される(例えば、他のボタンと比較して押されているように、または、他のボタンと比べて視覚的に対比するあらゆる他の好適なやり方である)。
いくつかの実施例において、ユーザーは、追加的またはジェスチャーに替えて、音声コマンドを介してビデオ表現計算デバイス112とインタラクションすることができる。こうして、方法500は、ステップ512において、音声入力を受取って、音声入力の中の音声コマンドを検知する。そして、ステップ514において、音声入力の中でリクエストされたアクションを実行する。音声入力は、ヘッドマウントディスプレイ上に配置されたマイクロフォン、または表現空間の中のどこかに配置されたマイクロフォンを介して受取ることができる。ユーザーは、あらゆる他の好適なやり方でビデオ表現計算デバイスとインタラクションし得ることが、さらに、理解されるべきである。
ユーザーインターフェイスのインタラクションの最中、ビデオ表現は種々の方法で表示され得ることが理解されるべきである。例えば、図6及び図7を参照すると、ユーザーインターフェイスのアクションの最中は、ビデオ表現が停止しているように示されている。他の実施例では、ビデオ表現が続いていてもよいし、または、全く表示されなくてもよい。
ここにおいて説明されたビデオコンテンツの表現により、従って、現在のビデオコンテンツ表現方法よりもイマーシブ(immersive)な体験をすることができ、そして、それぞれの視聴者は、その視聴者にとって最も興味のある視界を選定することができる。
いくつかの実施例において、上述の方法及びプロセスは、ビデオ表現計算デバイス112といった、一つまたはそれ以上のコンピューターを含むコンピューターシステムと連結されてもよい。特に、ここにおいて説明された方法及びプロセスは、コンピューターアプリケーション、コンピューターサービス、コンピューターAPI、コンピューターライビラリー、及び/又は、他のコンピュータープログラム製品として実施されてよい。
図8は、上述の一つまたはそれ以上の方法またはプロセスを実行することができる制限のないコンピューターシステム800を示している。コンピューターシステム800は、簡素化された形式で示されている。本発明開示の範囲から逸脱することなく仮想的にあらゆるコンピューターアーキテキチャーが使用され得ることが理解されるべきである。異なる実施例において、コンピューターシステム800は、メインフレームコンピューター、サーバーコンピューター、デスクトップコンピューター、ラップトップコンピューター、タブレットコンピューター、ホームエンターテイメントコンピューター、モバイルコンピューター、モバイル通信デバイス、ゲーム機器、等の形式であってよい。
コンピューターシステム800は、ロジックサブシステム802及びデータ保持サブシステム804を含んでいる。コンピューターシステム800は、任意的に、ディスプレイサブシステム806、コミュニケーションシステム808、及び/又は、図8に示されていない他のコンポーネントを含んでよい。コンピューターシステム800は、また、任意的に、例えば、キーボード、マウス、ゲームコントローラー、カメラ、マイクロフォン、及び/又は、タッチスクリーンといったユーザー入力デバイスを含んでもよい。
ロジックサブシステム802は、一つまたはそれ以上のインストラクションを実行するように構成された一つまたはそれ以上の物理的デバイスを含み得る。例えば、ロジックサブシステムは、一つまたはそれ以上のアプリケーション、サービス、プログラム、ルーチン、ライブラリー、オブジェクト、コンポーネント、データ構造、または、他の論理的構成の一部である一つまたはそれ以上のインストラクションを実行するように構成されてよい。こうしたインストラクションは、タスクを実行し、データタイプを施し、一つまたはそれ以上のデバイスの状態を転換し、または、そうでなければ所望の結果に至るように実施され得る。
ロジックサブシステムは、ソフトウェアインストラクションを実行するように構成された一つまたはそれ以上のプロセッサを含んでよい。追加的または代替的に、ロジックサブシステムは、ハードウェアまたはファームウェアのインストラクションを実行するように構成された一つまたはそれ以上のハードウェアまたはファームウェアのロジックマシン(logic machine)を含んでよい。ロジックサブシステムのプログラムは、シングルコア又はマルチコアであってよく、そこで実行されるプログラムは、並行又は分散処理のために構成されてよい。ロジックサブシステムは、任意的に2つ又はそれ以上のデバイスの全てにわたって配置された個々のコンポーネントを含んでよく、コーディネイトされた処理のために離れて配置、及び/又は、構成されている。ロジックサブシステムの一つまたはそれ以上の態様は、クラウドコンピューティングコンフィギュレーション(cloud computing configuration)において構成され、離れてアクセス可能なネットワーク化されたコンピューターデバイスによって、仮想化され実行されてもよい。
データ保持サブシステム804は、ここにおいて説明された方法又はプログラムを実施するためのロジックサブシステムによって実行可能なデータ及び/又はインストラクションを保持するように構成された、一つまたはそれ以上の物理的、固定デバイスを含んでよい。こうした方法及びプロセスが実施される場合、データ保持サブシステム804の状態は(例えば、異なるデータ保持へと)転換されてよい。
データ保持サブシステム804は、リムーバブルメディア及び/又はビルトインデバイスを含んでよい。データ保持サブシステム804は、光メモリーデバイス(例えば、CD、HD−DVD、ブルーレイディスク、等)、半導体メモリーセルデバイス(例えば、RAM、EPROM、EEPROM、等)、及び/又は、磁気メモリーデバイス(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAM、等)、などを含んでいる。データ保持サブシステム804は、以下の特性の一つまたはそれ以上を伴なうデバイスを含んでよい。それらは、揮発性、不揮発性、動的、静的、リード/ライト、リードオンリー、ランダムアクセス、シーケンシャルアクセス、ロケーションアドレス可能、ファイルアドレス可能、及び、コンテンツアドレス可能、である。いくつかの実施例において、ロジックサブシステム802及びデータ保持サブシステム804は、特定用途向け集積回路(ASIC)またはシステムオンチップといった、一つまたはそれ以上の共通デバイスの中に統合されてもよい。
図8は、また、リムーバブルなコンピューターで読取り可能な媒体810の形式におけるデータ保持サブシステムの態様を示しており、ここにおいて説明された方法及びプロセスを実施するように実行可能なデータ及び/又はインストラクションを保管及び/又は転換するために使用されてもよい。リムーバブルなコンピューターで読取り可能な媒体810は、CD、DVD、ブルーレイディスク、EEPROM、及び/又は、フロッピー(登録商標)ディスクといった形式であってよい。
データ保持サブシステム804は、一つまたはそれ以上の物理的、固定デバイスを含むことが正しく理解されるべきである。対照的に、いくつかの実施例において、ここにおいて説明されたインストラクションの態様は、純粋な信号(例えば、電磁気信号、光信号、等)によって一時的な形式でプロパゲート(propagate)されてもよい。純粋な信号は、物理的デバイスによって、少なくとも有限の持続時間は保持されない。さらに、データ及び/又は本発明開示に適用されている情報の他の形式は、純粋なしんごうによってプロパゲートされ得る。
用語「モジュール」、「プログラム」、および、「エンジン」は、一つまたはそれ以上の所定の機能を実行するために実施されるコンピューターシステム800の態様を記述するために使用されてよい。いくつかの実施例において、モジュール、プログラム、または、エンジンは、データ保持サブシステム804によって保持されているインストラクションを実行するロジックサブシステム802を介してインスタンス化(instantiate)されてよい。異なるモジュール、プログラム、及び/又は、エンジンが、同一のアプリケーション、サービス、コードブロック、オブジェクト、ライブラリー、ルーチン、API、ファンクション、等からインスタンス化されてもよいことが理解されるべきである。同様に、同一のモジュール、プログラム、及び/又は、エンジンは、異なるアプリケーション、サービス、コードブロック、オブジェクト、ライブラリー、ルーチン、API、ファンクション、等からインスタンス化されてもよい。用語「モジュール」、「プログラム」、および、「エンジン」は、実行可能なファイル、データファイル、ライブラリー、ドライバー、スクリプト、データベースレコード、等のそれぞれ又はグループを包含することを意味している。
ディスプレイサブシステム806は、それが含まれる場合に、データ保持サブシステム804によって保持されたデータの視覚的表現を表すために使用されてよい。ここにおいて説明されたように、方法およびプロセスは、データ保持サブシステムによって保持されたデータを変更し、従って、データ保持サブシステムの状態を転換する。ディスプレイサブシステム806の状態も同様に元となるデータにおける変化を視覚的に表現するように転換され得る。ディスプレイサブシステム806は、仮想的にあらゆるタイプの技術を使用している一つまたはそれ以上のディスプレイデバイスを含んでよい。そうしたディスプレイデバイスは、共有のエンクロージャーにおけるロジックサブシステム802及び/又はデータ保持サブシステム804と組合わされてもよい。または、そうしたディスプレイデバイスは、上述のヘッドマウントディスプレイシステムといった、ペリフェラルディスプレイデバイスであってよい。
コミュニケーションサブシステム808は、それが含まれる場合に、コンピューターシステム800を一つまたはそれ以上の他のコンピューターデバイスと通信可能に接続するよう構成されてよい。コミュニケーションサブシステム808は、一つまたはそれ以上の異なる通信プロトコルとコンパチブル(compatible)な有線及び/又は無線のコミュニケーションデバイスを含んでよい。限定されることのない実施例として、コミュニケーションサブシステムは、無線電話ネットワーク、無線ローカルエリアネットワーク、有線ローカルエリアネットワーク、無線ワイドエリアネットワーク、有線ワイドエリアネットワーク、等を介してコミュニケーションするように構成されてよい。いくつかの実施例においては、コミュニケーションサブシステムにより、コンピューターシステム800は、インターネットといったネットワークを介して、メッセージを他のデバイスから受取り、及び/又は、他のデバイスへ送付することができる。
ここにおいて説明された構成及び/又はアプローチは、本質的に例示であること、および、これら所定の実施例又は例示は本発明を限定する意味で考慮されるべきものではないことが理解されるべきである。数多くの変形が可能だからである。ここにおいて説明された所定のルーチンまたは方法は、あらゆる数のプロセスストラテジーのうちの一つまたはそれ以上を表すものであってよい。このように、説明された種々のアクトは、説明された順序で、他の順序で、並行に、または、いくつかのケースを省いて、実行されてもよい。同様に、上述のプロセスの順序も変更されてよい。
本発明開示に係る技術的事項は、種々のプロセス、システムと構成、および、他の特徴、機能、アクト、及び/又は、ここにおいて開示された特性の新規で非自明な全ての組合せ及び部分的組合せを含むものであり、これらのあらゆる全ての均等物も同様である。

Claims (9)

  1. ロジックサブシステムと、
    保管されたインストラクションを含むデータ保持サブシステムと、
    ヘッドマウントディスプレイシステムであり、
    前記ヘッドマウントディスプレイシステム上の眼球トラッキング映像センサーと、
    を含む、ヘッドマウントディスプレイシステムと、
    位置及び向き検知システムであり、
    前記ヘッドマウントディスプレイシステム上に配置された一つまたはそれ以上の動作センサーと、
    前記ヘッドマウントディスプレイシステム上に配置されたものではない表現空間における一つまたはそれ以上の映像センサーと、含み、
    前記映像センサーは、立体照明投影システムを含む複数のカメラであり、
    前記カメラは、前記表現空間の中に投射された立体照明パターンを使用して、それぞれのカメラによって取得された映像間のオーバーラップを較正する、
    位置及び向き検知システムと、
    を含む、コンピュータ・システムであって、
    インストラクションが前記ロジックサブシステムによって実行されると、前記ロジックサブシステムは、
    表現される現実の空間である前記表現空間において、前記位置及び向き検知システムから視聴者の位置データ及び視聴者の向きデータを受取り、さらに、前記眼球トラッキング映像センサーから、眼球トラッキングデータを受取り、
    前記視聴者の位置データ及び前記視聴者の向きデータから、前記表現空間の中に視聴者を配置し、前記表現空間において前記視聴者が正対している方向を判断し、かつ、前記表現空間における前記ヘッドマウントディスプレイの向きである光学軸を決定し、さらに、前記眼球トラッキングデータに基づいて前記光学軸に関して前記視聴者の視線の方向を決定し、
    前記視聴者の位置及び前記視聴者の視線の方向に基づいて、前記視聴者の視野の中にある前記表現空間の領域における立体映像の領域及び向きを判断することによって、前記ヘッドマウントディスプレイシステムに対して送付する表現映像を決定し、前記表現映像は、前記立体映像における対象物の第1の視点に対応しており、
    前記表現映像を前記ヘッドマウントディスプレイシステムに対して送付し、
    前記視聴者の位置及び前記視聴者の視線の方向における変化を検出し、かつ、
    前記視聴者の位置及び前記視聴者の視線の方向において検出された前記変化に基づいて、前記ヘッドマウントディスプレイシステムに送付するための異なる表現映像を決定し、前記異なる表現映像は、前記立体映像における前記対象物の第2の異なる視点に対応している、
    ことを特徴とするコンピュータ・システム
  2. 前記インストラクションは、さらに、
    前記立体映像の入力を受取り、前記立体映像を前記表現空間に対してマップするように構成されている、
    請求項1に記載のコンピュータ・システム
  3. 前記立体映像データは、複数のアングルからキャプチャーされたシーンのビデオ映像データを含む、
    請求項1に記載のコンピュータ・システム
  4. 前記インストラクションは実行されると、さらに、
    前記向きデータから、前記ヘッドマウントディスプレイシステムのロール、ピッチ、ヨーを検知する、
    請求項1に記載のコンピュータ・システム
  5. 前記インストラクションは実行されると、さらに、
    ユーザーインターフェイスにリクエストしているユーザー入力を検知し;
    表示のために前記ヘッドマウントディスプレイシステムに対して送付するユーザーインターフェイス映像を決定し、前記ユーザーインターフェイス映像はユーザーインターフェイスエレメントを含んでおり;
    前記ユーザーインターフェイス映像とインタラクションしているユーザージェスチャーを検知し;かつ、
    それに応じて、前記ユーザーインターフェイス映像上のユーザージェスチャーの効果を説明する変更されたユーザーインターフェイスを送付する、
    請求項1に記載のコンピュータ・システム
  6. 前記ユーザーインターフェイスエレメントは、プッシュ可能、及び/又は、プル可能なエレメントである、
    請求項に記載のコンピュータ・システム
  7. 前記インストラクションは実行されると、
    前記表現空間の中の複数の視聴者を検知し、前記表現空間におけるそれぞれの視聴者の位置に基づいて、前記複数の視聴者それぞれに対して送付する異なった映像を決定する、
    請求項1に記載のコンピュータ・システム
  8. 前記インストラクションは実行されると、さらに、
    音声入力を受取り、前記音声入力における音声コマンドを検知し、かつ、前記音声入力に応じた機能を実行する、
    請求項1に記載のコンピュータ・システム
  9. 立体ビデオ映像データを表現する方法であって、前記方法は、
    前記立体ビデオ映像データを受取るステップと、
    前記立体ビデオ映像データのピクセルを表現される現実の空間である表現空間における位置と関連付けることによって、前記立体ビデオ映像データを前記表現空間に対してマッピングするステップと、
    複数の映像キャプチャーデバイスから視聴者トラッキング映像データを受取るステップであり、前記複数の映像キャプチャーデバイスは、立体照明投影システムを含む複数のカメラであり、前記表現空間の中に投射された立体照明パターンを使用して、取得された映像間のオーバーラップを較正する、ステップと、
    ヘッドマウントディスプレイシステム上の一つまたはそれ以上の動作センサーから動作データを受け取るステップと、
    前記視聴者トラッキング映像データを介して前記表現空間の中に視聴者を配置し、前記表現空間の中で前記視聴者が正対している方向を判断するステップと、
    前記動作データから、前記表現空間における前記ヘッドマウントディスプレイシステムの向きである光学軸を決定するステップと、
    前記ヘッドマウントディスプレイシステム上の映像センサーから眼球トラッキングデータを受取るステップと、
    前記眼球トラッキングデータに基づいて前記光学軸に関して前記視聴者の視線の方向を決定するステップと、
    前記視聴者のトラッキング映像データ、前記動作データ、および、前記眼球トラッキングデータによる前記視聴者の位置及び前記視聴者の視線の方向に基づいて、前記視聴者の視野の中にある前記表現空間の領域における立体映像の領域及び向きを判断することによって、前記ヘッドマウントディスプレイシステムに対して送付する表現映像を決定するステップであり、前記表現映像は、前記立体ビデオ映像データにおける対象物の第1の視点に対応している、ステップと、
    前記表現映像を前記ヘッドマウントディスプレイシステムに対して送付するステップと、
    前記視聴者のトラッキング映像データ、前記動作データ、および、前記眼球トラッキングデータによる前記視聴者の位置及び前記視聴者の視線の方向における変化を検出するステップと、
    前記視聴者のトラッキング映像データ、前記動作データ、および、前記眼球トラッキングデータによる前記視聴者の位置及び前記視聴者の視線の方向において検出された前記変化に基づいて、前記ヘッドマウントディスプレイシステムに送付するための異なる表現映像を決定するステップであり、前記異なる表現映像は、前記立体ビデオ映像データにおける前記対象物の第2の異なる視点に対応している、ステップと、を含む、
    ことを特徴とする方法。
JP2014515917A 2011-06-17 2012-06-12 立体ビデオ表現のためのコンピュータ・システム及び方法 Active JP6223965B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/163,407 US8964008B2 (en) 2011-06-17 2011-06-17 Volumetric video presentation
US13/163,407 2011-06-17
PCT/US2012/042064 WO2012173998A2 (en) 2011-06-17 2012-06-12 Volumetric video presentation

Publications (3)

Publication Number Publication Date
JP2014525049A JP2014525049A (ja) 2014-09-25
JP2014525049A5 JP2014525049A5 (ja) 2015-07-09
JP6223965B2 true JP6223965B2 (ja) 2017-11-01

Family

ID=47353374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014515917A Active JP6223965B2 (ja) 2011-06-17 2012-06-12 立体ビデオ表現のためのコンピュータ・システム及び方法

Country Status (7)

Country Link
US (1) US8964008B2 (ja)
EP (1) EP2721443A4 (ja)
JP (1) JP6223965B2 (ja)
KR (1) KR101925658B1 (ja)
CN (1) CN103608716B (ja)
TW (1) TWI571130B (ja)
WO (1) WO2012173998A2 (ja)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US20130083252A1 (en) * 2011-10-04 2013-04-04 David John Boyes Gesture recognition capable picture video frame
US20150097772A1 (en) * 2012-01-06 2015-04-09 Thad Eugene Starner Gaze Signal Based on Physical Characteristics of the Eye
KR101958778B1 (ko) * 2012-08-31 2019-03-15 엘지전자 주식회사 헤드 마운트 디스플레이 및 이를 이용한 디지털 디바이스 제어 방법
US8933882B2 (en) 2012-12-31 2015-01-13 Intentive Inc. User centric interface for interaction with visual display that recognizes user intentions
CN104020935A (zh) * 2013-02-28 2014-09-03 国际商业机器公司 用于控制显示屏上的显示对象的方法和装置
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US9908048B2 (en) * 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
AU2014295814B2 (en) * 2013-07-23 2019-07-11 Ayvri Holdings Pty Ltd Geo-located activity visualisation, editing and sharing
KR102120764B1 (ko) 2013-09-16 2020-06-09 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
WO2015037784A1 (en) * 2013-09-16 2015-03-19 Lg Electronics Inc. Portable device and control method thereof
US9083860B2 (en) 2013-10-09 2015-07-14 Motorola Solutions, Inc. Method of and apparatus for automatically controlling operation of a user-mounted recording device based on user motion and event context
US9635424B2 (en) * 2014-07-18 2017-04-25 Sony Interactive Entertainment America Llc Virtual high definition video player
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
CN104216533B (zh) * 2014-08-28 2017-06-06 东华大学 一种基于DirectX9的头戴式虚拟现实显示器
WO2016041088A1 (en) * 2014-09-19 2016-03-24 Sulon Technologies Inc. System and method for tracking wearable peripherals in augmented reality and virtual reality applications
TWI530821B (zh) * 2014-09-25 2016-04-21 中強光電股份有限公司 頭戴式顯示系統及其操作方法
KR102309281B1 (ko) * 2014-11-07 2021-10-08 삼성전자주식회사 오브젝트를 표시하는 방향 기반 전자 장치 및 방법
KR20160059765A (ko) * 2014-11-19 2016-05-27 삼성전자주식회사 전자 장치의 디스플레이 방법 및 장치
US20160210780A1 (en) * 2015-01-20 2016-07-21 Jonathan Paulovich Applying real world scale to virtual content
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US9721385B2 (en) * 2015-02-10 2017-08-01 Dreamworks Animation Llc Generation of three-dimensional imagery from a two-dimensional image using a depth map
US9897806B2 (en) 2015-02-10 2018-02-20 Dreamworks Animation L.L.C. Generation of three-dimensional imagery to supplement existing content
US20160261908A1 (en) * 2015-03-05 2016-09-08 Htc Corporation Media streaming system and control method thereof
KR102013403B1 (ko) * 2015-05-27 2019-08-22 구글 엘엘씨 구면 영상 스트리밍
KR20160139461A (ko) * 2015-05-27 2016-12-07 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
CN107735152B (zh) * 2015-06-14 2021-02-02 索尼互动娱乐股份有限公司 用于虚拟现实(vr)观看的扩展视野重新渲染
CN108702451A (zh) * 2016-02-17 2018-10-23 高途乐公司 用于呈现和观看球形视频片段的系统和方法
KR101916863B1 (ko) * 2016-06-13 2018-11-08 주식회사 네비웍스 가상현실게임제어장치 및 그 동작 방법
US10245507B2 (en) * 2016-06-13 2019-04-02 Sony Interactive Entertainment Inc. Spectator management at view locations in virtual reality environments
WO2018002882A1 (en) * 2016-06-30 2018-01-04 Nokia Technologies Oy Method and apparatus for rotation and switching of video content
US10652284B2 (en) * 2016-10-12 2020-05-12 Samsung Electronics Co., Ltd. Method and apparatus for session control support for field of view virtual reality streaming
WO2018074263A1 (ja) * 2016-10-20 2018-04-26 ソニー株式会社 情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステム
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
GB2561882A (en) * 2017-04-27 2018-10-31 Nokia Technologies Oy Virtual reality viewport adaption
US11093752B2 (en) * 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10706813B1 (en) * 2018-02-03 2020-07-07 Facebook Technologies, Llc Apparatus, system, and method for mitigating motion-to-photon latency in head-mounted displays
CN108337573A (zh) * 2018-03-26 2018-07-27 京东方科技集团股份有限公司 一种赛事实时解说的实现方法和介质
EP3821602A4 (en) * 2018-07-10 2022-05-04 Nokia Technologies Oy METHOD, APPARATUS AND PRODUCT COMPUTER PROGRAM FOR VOLUMETRIC VIDEO CODING
US11006091B2 (en) 2018-11-27 2021-05-11 At&T Intellectual Property I, L.P. Opportunistic volumetric video editing
US11089281B2 (en) 2018-11-27 2021-08-10 At&T Intellectual Property I, L.P. Volumetric video creation from user-generated content
WO2020127226A1 (en) * 2018-12-21 2020-06-25 Koninklijke Kpn N.V. Streaming volumetric and non-volumetric video
WO2020153946A1 (en) 2019-01-22 2020-07-30 Hewlett-Packard Development Company, L.P. Mixed reality presentation
US11074697B2 (en) 2019-04-16 2021-07-27 At&T Intellectual Property I, L.P. Selecting viewpoints for rendering in volumetric video presentations
US10970519B2 (en) 2019-04-16 2021-04-06 At&T Intellectual Property I, L.P. Validating objects in volumetric video presentations
US11012675B2 (en) 2019-04-16 2021-05-18 At&T Intellectual Property I, L.P. Automatic selection of viewpoint characteristics and trajectories in volumetric video presentations
US11153492B2 (en) 2019-04-16 2021-10-19 At&T Intellectual Property I, L.P. Selecting spectator viewpoints in volumetric video presentations of live events
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
EP4078533A1 (en) * 2019-12-16 2022-10-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Augmenting a view of a real-world environment with a view of a volumetric video object
US11330252B2 (en) * 2020-02-12 2022-05-10 At&T Intellectual Property I, L.P. Apparatus and method for providing content with multiplane image transcoding
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
JP2023159708A (ja) 2022-04-20 2023-11-01 キヤノン株式会社 撮像システムの制御装置および制御方法
US20240073404A1 (en) * 2022-08-31 2024-02-29 Snap Inc. Controlling and editing presentation of volumetric content
US20240071007A1 (en) * 2022-08-31 2024-02-29 Snap Inc. Multi-dimensional experience presentation using augmented reality

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US6008781A (en) 1992-10-22 1999-12-28 Board Of Regents Of The University Of Washington Virtual retinal display
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
EP0775327B1 (en) * 1994-08-10 1998-07-22 Retinal Display Cayman Ltd. Head mounted display optics
JPH08116556A (ja) * 1994-10-14 1996-05-07 Canon Inc 画像処理方法および装置
US6608622B1 (en) * 1994-10-14 2003-08-19 Canon Kabushiki Kaisha Multi-viewpoint image processing method and apparatus
US6327381B1 (en) 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
KR19980023727U (ko) * 1996-10-31 1998-07-25 배순훈 지문인식을 이용한 자동차 도어 열림장치
KR20020025301A (ko) 2000-09-28 2002-04-04 오길록 다중 사용자를 지원하는 파노라믹 이미지를 이용한증강현실 영상의 제공 장치 및 그 방법
JP2003244728A (ja) * 2002-02-15 2003-08-29 Mitsubishi Heavy Ind Ltd 仮想映像作成装置及び仮想映像作成方法
WO2004044664A1 (en) 2002-11-06 2004-05-27 Julius Lin Virtual workstation
US7352340B2 (en) 2002-12-20 2008-04-01 Global Imagination Display system having a three-dimensional convex display surface
CA2524213A1 (en) * 2003-04-30 2004-11-18 D4D Technologies, L.P. Intra-oral imaging system
WO2005010623A2 (en) 2003-07-24 2005-02-03 Zebra Imaging, Inc. Enhanced environment visualization using holographic stereograms
US7814436B2 (en) * 2003-07-28 2010-10-12 Autodesk, Inc. 3D scene orientation indicator system with scene orientation change capability
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
JP4373286B2 (ja) * 2004-05-06 2009-11-25 オリンパス株式会社 頭部装着型表示装置
US20060176242A1 (en) * 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
US7925391B2 (en) * 2005-06-02 2011-04-12 The Boeing Company Systems and methods for remote display of an enhanced image
CN1877390A (zh) * 2005-06-08 2006-12-13 大学光学科技股份有限公司 具有数字内容显示的焦距可调整的头戴式显示系统及用于实现该系统的装置
US7843449B2 (en) 2006-09-20 2010-11-30 Apple Inc. Three-dimensional display system
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
WO2010062481A1 (en) 2008-11-02 2010-06-03 David Chaum Near to eye display system and appliance
US20100128112A1 (en) 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd Immersive display system for interacting with three-dimensional content
KR101647722B1 (ko) * 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8836771B2 (en) * 2011-04-26 2014-09-16 Echostar Technologies L.L.C. Apparatus, systems and methods for shared viewing experience using head mounted displays

Also Published As

Publication number Publication date
KR20140033144A (ko) 2014-03-17
TW201301892A (zh) 2013-01-01
TWI571130B (zh) 2017-02-11
JP2014525049A (ja) 2014-09-25
EP2721443A4 (en) 2015-04-22
US20120320169A1 (en) 2012-12-20
KR101925658B1 (ko) 2019-02-27
CN103608716A (zh) 2014-02-26
CN103608716B (zh) 2016-03-30
EP2721443A2 (en) 2014-04-23
US8964008B2 (en) 2015-02-24
WO2012173998A3 (en) 2013-07-11
WO2012173998A2 (en) 2012-12-20

Similar Documents

Publication Publication Date Title
JP6223965B2 (ja) 立体ビデオ表現のためのコンピュータ・システム及び方法
JP7419460B2 (ja) Vr観戦のための拡大された視野再レンダリング
US11079999B2 (en) Display screen front panel of HMD for viewing by users viewing the HMD player
JP6708689B2 (ja) 三次元ゲームプレイの共有
US10497175B2 (en) Augmented reality virtual monitor
US11534684B2 (en) Systems and methods for detecting and displaying a boundary associated with player movement
US10388071B2 (en) Virtual reality (VR) cadence profile adjustments for navigating VR users in VR environments
EP2887322B1 (en) Mixed reality holographic object development
US9429912B2 (en) Mixed reality holographic object development
US9024844B2 (en) Recognition of image on external display
JP2020123962A (ja) 注視追跡のための装置及び方法
US20130141419A1 (en) Augmented reality with realistic occlusion
US20150312561A1 (en) Virtual 3d monitor
US20120200667A1 (en) Systems and methods to facilitate interactions with virtual content
KR20160148623A (ko) 디스플레이 디바이스 뷰어 시선 유인
JP7249975B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150515

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171004

R150 Certificate of patent or registration of utility model

Ref document number: 6223965

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250