JP2021524102A - 予測サッカード着地点に基づく動的グラフィックスレンダリング - Google Patents

予測サッカード着地点に基づく動的グラフィックスレンダリング Download PDF

Info

Publication number
JP2021524102A
JP2021524102A JP2020564320A JP2020564320A JP2021524102A JP 2021524102 A JP2021524102 A JP 2021524102A JP 2020564320 A JP2020564320 A JP 2020564320A JP 2020564320 A JP2020564320 A JP 2020564320A JP 2021524102 A JP2021524102 A JP 2021524102A
Authority
JP
Japan
Prior art keywords
eye
saccade
hmd
point
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020564320A
Other languages
English (en)
Other versions
JP7164630B2 (ja
Inventor
ヤング アンドリュー
ヤング アンドリュー
フェルナンデス リコ ハビエル
フェルナンデス リコ ハビエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2021524102A publication Critical patent/JP2021524102A/ja
Application granted granted Critical
Publication of JP7164630B2 publication Critical patent/JP7164630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Optics & Photonics (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

ヘッドマウントディスプレイ(HMD)における眼球運動を予測する方法である。この方法では、複数のサンプル点で、HMDに配置されている視線追跡システムを用いて、ユーザの眼球運動を追跡する。この方法では、眼球運動に基づいて運動の速度を判定するまた、この方法では、速度が閾値速度に達したとき、ユーザの眼がサッカードにあると判定する。この方法では、サッカードにおける眼の方向に対応する、HMDのディスプレイ上の着地点を予測する。【選択図】図5B

Description

本開示は、コンピュータ生成画像に関し、より詳細には、コンピュータ生成グラフィックスのリアルタイムレンダリングに関する。
レンダリングパイプラインにおける仮想現実(VR)シーンのコンピュータレンダリングは、中央処理装置(CPU)及びグラフィック処理ユニット(GPU)のリソースを必要とする。VRシーンは、広い表示範囲でレンダリングされ得るが、その表示範囲のより小さい部分のみが表示される。さらに、VRシーンは従来のシーンよりも複雑であり得、また、映像酔いを回避するために画像処理に一層高いフレームレートを必要とすることもあり、その全てが高い消費電力率をもたらす。
電力を節約するために、ディスプレイの一部を他の部分よりも高い解像度で提示し得る。例えば、ユーザが凝視し得る画面の一部は、周辺領域といったユーザが凝視していない他の部分よりも高い解像度で提示され得る。ディスプレイの周辺部分をより低い解像度でレンダリングすることにより、処理リソースが節約でき、ユーザは周辺に焦点を合わせていないので、そうした低解像度でもユーザの視聴体験が低下することはない。しかしながら、VRシーンを見ているユーザの眼球運動は、レンダリングパイプラインを通してフレームが更新されるよりも速い場合がある。このように、眼がコンピュータレンダリングパイプラインよりも速いことにより、ユーザが以前は周辺にあった可能性のあるシーンの一部に移動すると、更新が眼球運動に追いつくまで、その部分は低解像度で提示され得る。これにより、ユーザに対してぼやけた画像がもたらされる。
本開示の実施形態はこのような背景の下になされたものである。
本開示の実施形態は、ヘッドマウントディスプレイ(HMD)のディスプレイを見ているユーザに関連するサッカード(saccade:跳躍性眼球運動)の着地点を予測することに関する。本開示のいくつかの発明実施形態が、以下に説明される。
一実施形態において、HMDにおける眼球運動を予測する方法を開示する。方法は、複数のサンプル点で、HMDに配置されている視線追跡(あるいは視線トラッキング)システムを用いて、ユーザの眼球運動を追跡することを含む。方法は、眼球運動に基づいて運動の速度を判定することを含む。方法は、速度が閾値速度に達したとき、ユーザの眼がサッカードにあると判定することを含む。方法は、サッカードにおける眼の方向に対応する、HMDのディスプレイ上の着地点を予測することを含む。
別の実施形態では、ディスプレイを見ているユーザに関連するサッカードの着地点を予測する方法が開示される。この方法は、視線追跡システムを用いてユーザの眼球運動を追跡することを含む。視線追跡システムは、複数のサンプル点での物理的な視聴空間内の眼の向きのデータを収集するように構成されている。追跡中、ユーザの眼は、アプリケーションの実行によって生成されディスプレイに提示される一連のビデオフレームを見ている。この方法は、ユーザの眼が第1のサンプル点においてサッカードにあると識別する。この方法は、サッカード識別後、眼の向きのデータにアクセスすることを含む。眼の向きのデータは、視線追跡システムから収集されたサンプル点のセットに対応し、セットの少なくとも1つのサンプル点は、サッカード中に発生する。方法は、サンプル点のセットの眼の向きのデータに基づいて、サッカードの終わりの物理的な視聴空間における眼の最後の凝視方向を予測することを含む。
別の実施形態では、HMDにおける眼球運動を予測するためのコンピュータプログラムを格納する非一時的なコンピュータ可読媒体を開示する。コンピュータ可読媒体は、複数のサンプル点で、HMDに配置されている視線追跡システムを用いて、ユーザの眼球運動を追跡するためのプログラム命令を含む。コンピュータ可読媒体は、眼球運動に基づいて運動の速度を判定するためのプログラム命令を含む。コンピュータ可読媒体は、速度が閾値速度に達したとき、ユーザの眼がサッカードにあると判定するためのプログラム命令を含む。コンピュータ可読媒体は、サッカードにおける眼の方向に対応する、HMDのディスプレイ上の着地点を予測するためのプログラム命令を含む。
さらに別の実施形態では、プロセッサと、プロセッサに結合されたメモリとを有するコンピュータシステムが開示され、メモリは命令を格納しており、当命令は、コンピュータシステムにより実行されると、HMDにおける眼球運動を予測する方法をコンピュータシステムに実行させる。この方法は、複数のサンプル点で、HMDに配置されている視線追跡システムを用いて、ユーザの眼球運動を追跡することを含む。この方法は、眼球運動に基づいて運動の速度を判定することを含む。この方法は、速度が閾値速度に達したとき、ユーザの眼がサッカードにあると判定することを含む。この方法は、サッカードにおける眼の方向に対応する、HMDのディスプレイ上の着地点を予測することを含む。
本開示の他の態様は、本開示の原理の例として示される添付図面と併せて、下記の発明を実施するための形態から明らかになるであろう。
本開示は、添付図面と併せて、以下の説明を参照することにより、最も良く理解され得る。
本開示の一実施形態による、VRコンテンツとのインタラクティブな体験を提供するように、かつ、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測するように構成されているシステムの図であり、いくつかの入力制御がハンドヘルドコントローラを介して提供でき、いくつかの入力制御はカメラを介して実装されるような身体部分の追跡を通じて管理され得る。 本開示の一実施形態による、VRコンテンツとのインタラクティブな体験を提供するように、かつ、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測するように構成されているシステムの図であり、編集のためのいくつかの入力制御がハンドヘルドコントローラを介して提供でき、いくつかの入力制御はカメラを介して実装されるような身体部分の追跡を通じて管理され得るものであり、カメラはまた、データをHMDに送信するRFエミッタのビーム追跡の目的で、HMDの動きも追跡する。 本開示の一実施形態による、VRコンテンツとインタラクティブな体験を提供するように、かつ、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測するように構成されているシステムの図であり、編集のためのいくつかの入力制御がハンドヘルドコントローラを介して提供でき、いくつかの入力制御は部分的に磁気源を介して実装されるような身体部分の磁気追跡を通じて管理され得る。 開示の実施形態による、実行中のビデオゲームと連動する、3Dデジタルコンテンツの編集のための3D編集空間を提供するための、HMDの機能の概略図である。 一実施形態による、視線追跡センサを含むHMDの内部を示す、顔がディスプレイハウジングと接触するように設計されている内表面を見ている、一例のディスプレイハウジングの図である。 一実施形態による、視線追跡センサを含むHMDの内部を示す、顔がディスプレイハウジングと接触するように設計されている内表面を見ている、一例のディスプレイハウジングの図である。 一実施形態による、視線追跡センサを含むHMDの内部を示す、顔がディスプレイハウジングと接触するように設計されている内表面を見ている、一例のディスプレイハウジングの図である。 本開示の一実施形態による、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測するように構成されている予測エンジンの図である。 本開示の一実施形態による、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測するのに使用されるリカレントニューラルネットワークの図である。 本開示の一実施形態による、HMDでVRシーンを見ている1人以上のユーザに対するサッカード運動のモデルを構築するのに使用される例示的なニューラルネットワークの図である。 本開示の一実施形態による、眼球運動の完了後に画像がユーザに対してぼやけることにつながる、眼球運動に比べてのフレーム更新の遅れがどのようなものかを示すサッカード予測なしのレンダリングパイプラインの図である。 本開示の一実施形態による、レンダリングパイプラインにおいて高解像度の中心窩領域の更新を進めることによって、眼球運動の完了後に画像がユーザに対して焦点を合わせることにつながる、HMDのディスプレイを見ているユーザの眼球運動のサッカード予測ありで構成されているレンダリングパイプラインの結果として得られる効果を示す図である。 本開示の一実施形態による、HMDのディスプレイを見ているユーザのサッカードの眼の変位及び速度の図である。 本開示の一実施形態による、HMDのディスプレイを見ているユーザのサッカードの速度グラフにおける様々なサンプル点での眼の向きのデータのサンプリングの図である。 本開示の一実施形態による、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測するのに使用される1つまたは複数のサンプル点のセットに対する眼の向きのデータの収集の図である。 本開示の一実施形態による、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測するのに使用されるサンプル点のセットに対する眼の向きのデータを一覧表示している表を示す。 本開示の一実施形態による、ユーザの眼(複数可)の速度を判定するのに使用される視線方向ベクトルの図である。 本開示の一実施形態による、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測する方法のステップを示すとともに、サッカード中に収集されたサンプル点のセットからの眼の向きのデータを用いて、HMDのディスプレイを見ているユーザに関連するサッカードの着地点の複数の予測の収束を含む流れ図である。 本開示の様々な実施形態の態様を実行するのに使用することができる例示的なデバイスの構成要素の図である。 開示の実施形態による、ヘッドマウントディスプレイの構成要素を示す図である。 開示の様々な実施形態による、ゲームシステムのブロック図である。
以下の発明を実施するための形態は、例示目的で多くの具体的な詳細を含むが、当業者であれば、以下の詳細に対する多数の変形及び変更が本開示の範囲内にあることを理解するであろう。したがって、後述の本開示の態様は、この説明に続く特許請求の範囲の普遍性を失うことなく、かつ特許請求の範囲に制限を課すことなく記載される。
概して、本開示の様々な実施形態は、HMDのディスプレイを見ているユーザに関連して定義されたサッカード中かつ/またはその終わりのユーザの眼の視線方向に関連付けられた、ディスプレイ上の着地点を予測するためのシステム及び方法を説明する。具体的には、ユーザの視線がある凝視点から別の凝視点に通常の方法で移動するとき、ユーザの眼球運動を定義するサッカードの測定部分の速度グラフを使用して、サッカード全体の特性を予測することができる。このように、1つまたは複数の眼の方向を速度分析に基づいて予測することができ、眼の方向は、ディスプレイ上の1つまたは複数の着地点に対応する。ディスプレイの標的着地点が分かると、HMDに表示するためにレンダリングされるフレームは、標的着地点を考慮して更新され得る。例えば、眼球運動が標的着地点での中心窩領域の表示と一致するように、標的着地点でのまたはその周囲の領域に対応する、ディスプレイの中心窩領域が更新され得る。中心窩領域(例えば、眼が焦点を合わせ、向けられる場所)は高解像度でレンダリングされ、中心窩ではない領域(例えば、周辺)はより低い解像度でレンダリングされ得る。
様々な実施形態の上記の概要的な理解とともに、以下、実施形態の例示的な詳細を様々な図面を参照して説明する。
本明細書全体を通して、「ゲーミングアプリケーション」とは、入力コマンドの実行を通して指示される任意のタイプのインタラクティブアプリケーションを表すことを意味する。単なる例示目的で、インタラクティブアプリケーションには、ゲーム、ワード処理、ビデオ処理、ビデオゲーム処理などのためのアプリケーションが含まれる。さらに、ビデオゲームとゲーミングアプリケーションという用語は、置換え可能である。
本明細書全体を通して、ユーザのサッカードへの言及がなされる。一般に、サッカードは、ディスプレイ上のある凝視点から別の凝視点に移動するときになされるユーザの眼(複数可)の急速かつ同時の運動を指す。眼(複数可)のサッカード運動は、一般に、特定の方向になされ、必ずしも回転的に行われるとは限らない。サッカード運動は、毎秒900度を超えるピーク角速度に達することもあり、20から200ミリ秒(ms)の範囲で持続し得る。サッカード中の眼(複数可)の角変位(度)は、上向きに約90度までの範囲であり得るが、20から50度を超える変位は、頭の動きを伴い得る。
図1Aは、開示の実施形態による、ゲーミングアプリケーションのインタラクティブなゲームプレイのためのシステムを示す。ユーザ100は、HMD102を着用して示され、HMD102は、眼鏡、ゴーグル、またはヘルメットと同じ様に着用され、インタラクティブゲーミングアプリケーションからのビデオゲームまたはインタラクティブアプリケーションからの他のコンテンツをユーザ100に表示するように構成されている。HMD102は、ユーザの眼にごく接近して表示機構を提供することにより、非常に没入感のある体験をユーザに提供する。このように、HMD102は、ユーザの視野の大部分または全体でさえも占める表示領域をユーザの眼のそれぞれに提供することができる。
図1Aのシステムは、ユーザの眼(複数可)の運動が、更新された標的着地点におけるディスプレイ上の中心窩領域の提示と一致するように、HMD102のディスプレイ上の標的着地点を更新するように構成されている。特に、着地点のサッカード予測は、HMD102、コンピュータ106、及びクラウドゲーミングサーバ114のうちの1つまたは複数で、単独でまたは組み合わせて実行され得る。予測は、被験者に対して測定されたサッカード(例えば、眼の向きのデータまたはパラメータの収集)に基づいてサッカードのトレーニングモデルを介して生成することによって、及び、ユーザの現在のサッカードの眼の向きのデータを、サッカードのトレーニングされたモデルと比較して、サッカード中かつ/またはその終わりのユーザの視線方向に関連付けられた、ディスプレイ上の着地点を予測することの一方または両方を実行するように構成されている深層学習エンジン190を含むサッカード予測エンジン300によって行われる。
一実施形態では、HMD102は、コンピュータまたはゲーム機106に接続され得る。コンピュータ106への接続は、有線または無線であり得る。一部の実装例では、HMD102はまた、HMD102及びコンピュータ106の両方が接続されているネットワーク112を介してなど代替の機構またはチャネルを介してコンピュータと通信し得る。コンピュータ106は、以下に限定するものではないが、ゲーム機、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、モバイルデバイス、携帯電話、タブレット、シンクライアント、セットトップボックス、メディアストリーミングデバイスなどを含む、当技術分野で知られている汎用または特殊目的の任意のコンピュータであり得る。一実施形態では、コンピュータ106は、ゲーミングアプリケーションを実行し、HMD102によるレンダリングのためにゲーミングアプリケーションからビデオ及びオーディオを出力するように構成され得る。コンピュータ106は、ゲーミングアプリケーションを実行することに限定されず、HMD102によるレンダリングのためにVRコンテンツ191を出力するインタラクティブアプリケーションを実行するようにも構成され得る。一実施形態では、コンピュータ106は、ディスプレイを見ているユーザに関連して定義されるサッカード中かつ/またはその終わりのユーザの眼の視線方向に関連付けられた、HMDのディスプレイ上の着地点を予測するように構成されている。他の実施形態では、着地点の予測は、HMD102、コンピュータ106、及びクラウドゲーミングサーバ114のうちの1つまたは複数によって、単独でまたは組み合わせて実行され得る。
ユーザ100は、コントローラ104を操作して、ゲーミングアプリケーションへの入力を提供し得る。コンピュータ106への接続は、有線または無線であり得る。さらに、カメラ108は、ユーザ100が置かれているインタラクティブな環境の1つまたは複数の画像をキャプチャするように構成され得る。これらのキャプチャされた画像を分析して、ユーザ100、ユーザの一部(例えば、入力コマンドのための手のジェスチャを追跡する)、HMD102、及びコントローラ104の位置及び動きを判定することができる。一実施形態では、コントローラ104は、その位置及び向きを判定するために追跡することができる光または他のマーカ要素を含む。さらに、HMD102は、HMD102の位置及び向きを判定するために追跡することができる1つまたは複数の光を含み得る。カメラ108によって部分的に実装されるような追跡機能は、コントローラ104及び/またはユーザ100の身体部分(例えば、手)の動きを通して生成された入力コマンドを提供する。カメラ108は、インタラクティブな環境から音を取り込むための1つまたは複数のマイクロフォンを含み得る。マイクロフォンアレイによって取り込まれた音は、音源の位置を特定するために処理され得る。特定された位置からの音は、この特定された位置からではない他の音を排除するために、選択的に利用または処理することができる。さらに、カメラ108は、複数の画像キャプチャデバイス(例えば、立体視可能な一対のカメラ)、IRカメラ、深度カメラ、及びそれらの組み合わせを含むように定義することができる。
別の実施形態では、コンピュータ106は、ネットワークを介してクラウドゲーミングプロバイダ112と通信するシンクライアントとして機能する。クラウドゲーミングプロバイダ112は、ユーザ102がプレイしているゲーミングアプリケーションを保持かつ実行する。コンピュータ106は、HMD102、コントローラ104、及びカメラ108からの入力を、クラウドゲーミングプロバイダに送信し、クラウドゲーミングプロバイダは、この入力を処理して、実行中のゲーミングアプリケーションのゲーム状態に影響を与える。実行中のゲーミングアプリケーションからの、ビデオデータ、オーディオデータ、及び触覚フィードバックデータなどの出力は、コンピュータ106に送信される。コンピュータ106は、データをさらに処理した後に送信する場合もあれば、データを関連デバイスに直接送信する場合もある。例えば、ビデオストリーム及びオーディオストリームはHMD102に提供される一方、触覚フィードバックデータは振動フィードバックコマンドを生成するのに用いられ、それはコントローラ104に提供される。
一実施形態では、HMD102、コントローラ104、及びカメラ108は、それら自体が、クラウドゲーミングプロバイダ112と通信するためにネットワーク110に接続しているネットワーク化されたデバイスであってもよい。例えば、コンピュータ106は、通常はビデオゲーム処理を実行するのではなくネットワークトラフィックの通過を促進するルータなどのローカルネットワークデバイスであってもよい。HMD102、コントローラ104、及びカメラ(すなわち画像キャプチャデバイス)108によるネットワークへの接続は、有線または無線であり得る。
さらに別の実施形態では、コンピュータ106は、ゲーミングアプリケーションの一部を実行でき、ゲーミングアプリケーションの残りの部分は、クラウドゲーミングプロバイダ112上で実行され得る。他の実施形態では、ゲーミングアプリケーションの一部はHMD102上でも実行され得る。例えば、コンピュータ106からゲーミングアプリケーションをダウンロードする要求は、クラウドゲーミングプロバイダ112によって提供され得る。要求の提供中、クラウドゲーミングプロバイダ112は、ゲーミングアプリケーションの一部を実行し、HMD102上でレンダリングするためにゲームコンテンツをコンピュータ106に提供し得る。コンピュータ106は、ネットワーク110を介してクラウドゲーミングプロバイダ112と通信し得る。HMD102、コントローラ104、及びカメラ108から受信した入力はクラウドゲーミングプロバイダ112に送信され、その一方で、ゲーミングアプリケーションはコンピュータ106にダウンロードされている。クラウドゲーミングプロバイダ112は、入力を処理して、実行中のゲーミングアプリケーションのゲーム状態に影響を与える。実行中のゲーミングアプリケーションからのビデオデータ、オーディオデータ、及び触覚フィードバックデータなどの出力は、それぞれのデバイスへの以降の送信のためにコンピュータ106に送信される。
ゲーミングアプリケーションがコンピュータ106に完全にダウンロードされると、コンピュータ106は、ゲーミングアプリケーションを実行し、クラウドゲーミングプロバイダ112上で中断されたところからゲーミングアプリケーションのゲームプレイを再開し得る。HMD102、コントローラ104、及びカメラ108からの入力は、コンピュータ106によって処理され、ゲーミングアプリケーションのゲーム状態は、HMD102、コントローラ104、及びカメラ108から受信した入力に応答して調整される。そのような実施形態では、コンピュータ106でのゲーミングアプリケーションのゲーム状態は、クラウドゲーミングプロバイダ112でのゲーム状態と同期される。同期は、コンピュータ106及びクラウドゲーミングプロバイダ112の両方でゲーミングアプリケーションの状態を最新に保つために周期的に行われ得る。コンピュータ106は、出力データを、関連するデバイスに直接送信し得る。例えば、ビデオストリーム及びオーディオストリームはHMD102に提供されるのに対して、触覚フィードバックデータは振動フィードバックコマンドを生成するのに用いられ、それはコントローラ104に提供される。
図1Bは、本開示の一実施形態による、VRコンテンツとのインタラクティブな体験を提供するように、かつ、3Dデジタルコンテンツを編集するための3D編集空間を提供するように構成されているシステムを示す。さらに、システム(例えば、HMD102、コンピュータ106、及び/またはクラウド114)は、ユーザの眼(複数可)の運動が、更新された標的着地点のディスプレイ上の中心窩領域(高解像度の領域)の提示と一致するように、HMD102のディスプレイ上の標的着地点を更新するように構成されている。図1Bは、図1Aに記載されたシステムに類似するが、例えば、RF信号を介してHMD102へデータ配信を行うように構成されている送信機/受信機(トランシーバ)110が追加されている。トランシーバ110は、ゲーミングアプリケーションからのビデオ及びオーディオをHMD102にそこでレンダリングを行うために(有線接続または無線接続によって)送信するように構成されている。さらに、トランシーバ110は、編集の目的で、3D編集空間内で3Dデジタルコンテンツの画像、ビデオ、及びオーディオを送信するように構成されている。この実装例では、本開示の一実施形態にしたがって、カメラ108は、トランシーバ110がそのRF電力の大部分(RF放射パターンを介して供給される)をHMD102に(例えば、データ配信の目的で)ビームステアリングし得るよう、HMD102の動きを追跡するように構成され得る。
図1Cは、本開示の一実施形態による、VRコンテンツとのインタラクティブな体験を提供するように構成されているシステムを示す。さらに、システム(例えば、HMD102、コンピュータ106、及び/またはクラウド114)は、ユーザの眼(複数可)の運動が、更新された標的着地点のディスプレイ上の中心窩領域(高解像度の領域)の提示と一致するように、HMD102のディスプレイ上の標的着地点を更新するように構成されている。図1Cは、図1Aに記載されたシステムと類似するが、HMD102、コントローラ104(例えば、インターフェースコントローラとして構成されている)、または磁気センサ(例えば、手袋、指などといった身体部分に配置されるストリップ)を用いて構成される任意の物体の磁気追跡を可能にするために磁場を放出するように構成されている磁気源116が追加されている。例えば、磁気センサは、誘導要素であり得る。特に、磁気センサは、磁気源116によって放出される磁場(例えば、強度、向き)を検出するように構成することができる。磁気センサから集められた情報は、3D編集空間内で実行されるような入力コマンドを提供するために、HMD102、コントローラ104、及び他のインターフェースオブジェクトなどの位置及び/または向きを判定かつ追跡するのに使用することができる。実施形態では、磁気追跡は、カメラ108ならびに/またはHMD102、コントローラ104及び/または他のインターフェースオブジェクト内の慣性センサを介して実行される追跡と組み合わされる。
一部の実装例では、インターフェースオブジェクト(例えばコントローラ104)は、HMD102に対して追跡される。例えば、HMD102は、インターフェースオブジェクトを含む画像をキャプチャした外向きカメラを含み得る。他の実施形態では、HMD102は、インターフェースオブジェクトなどの外部オブジェクトを追跡するために使用されるIRエミッタを含み得る。キャプチャされた画像を分析して、HMD102に対するインターフェースオブジェクトの位置/向きを判定でき、HMD102の既知の位置/向きを用いて、ローカル環境におけるインターフェースオブジェクトの位置/向き及び/または動きを判定することができるようにする。
ユーザ100がHMD102に表示されるゲーミングアプリケーションのまたは3D編集空間の仮想現実シーンとインターフェースする方法は様々なものであり得、インターフェースオブジェクト(例えば、コントローラ104)に加えて他のインターフェースデバイスを用いることができる。例えば、様々な種類の片手用コントローラ、ならびに両手用コントローラ104を使用することができる。一部の実装例では、コントローラに含まれる光を追跡することによって、またはコントローラ104に関連する形状、センサ、及び慣性データを追跡することによって、コントローラ104自体を追跡することができる。これらの様々なタイプのコントローラ104、またはもっと単純に、行われて1つまたは複数のカメラでキャプチャされる手のジェスチャ、及び磁気センサを使用して、HMD102上に提示された仮想現実ゲーミング環境とインターフェースすること、制御すること、操作すること、インタラクトすること、及び参加することが可能である。
図2は、開示の実施形態による、VRコンテンツ291の生成(例えば、アプリケーション及び/またはビデオゲームの実行など)に関連するHMD102の機能を概念的に示しており、ユーザの眼(複数可)の運動が、更新された標的着地点でのディスプレイ上の中心窩領域(例えば、高解像度領域)の提示と一致するように、HMD102のディスプレイ上の標的着地点を更新することを含む。着地点のサッカード予測は、HMD102、コンピュータ106、及びクラウドゲーミングサーバ114のうちの1つまたは複数によって、単独でまたは組み合わせて実行され得る。実施形態では、VRコンテンツエンジン220は、HMD102上で実行されている。他の実施形態では、VRコンテンツエンジン220は、HMD102に通信可能に結合されている、かつ/またはHMD102と組み合わせてコンピュータ106(図示せず)上で実行されている。コンピュータは、HMDに対してローカルであってもよく(例えば、ローカルエリアネットワークの一部)、または、遠隔に位置し(例えば、広域ネットワーク、クラウドネットワークの一部など)、ネットワークを介してアクセスされてもよい。HMD102とコンピュータ106間の通信は、有線または無線接続プロトコルに従い得る。例では、アプリケーションを実行しているVRコンテンツエンジン220は、ゲーミングアプリケーションを実行しているビデオゲームエンジンであり得、ゲーミングアプリケーションのゲーム状態を更新する入力を受信するように構成されている。図2の以下の説明は、簡潔さ及び明快さの目的で、ゲーミングアプリケーションを実行しているVRコンテンツエンジン220の文脈内で説明され、VRコンテンツ291を生成可能な任意のアプリケーションの実行を表すことを意図している。ゲーミングアプリケーションのゲーム状態は、オブジェクトの存在及び位置、仮想環境の状況、イベントのトリガ、ユーザプロファイル、表示視点などといった現在のゲームプレイの様々な態様を規定するビデオゲームの様々なパラメータの値によって少なくとも部分的に定義することができる。
図示された実施形態では、VRコンテンツエンジン220は、例として、コントローラ入力261、オーディオ入力262、及びモーション入力263を受信する。コントローラ入力261は、ハンドヘルドゲーミングコントローラ104(例えば、Sony DUALSHOCK(登録商標)4 無線コントローラ、Sony PlayStation(登録商標)Moveモーションコントローラ)、またはウェアラブルグローブインターフェースコントローラなどといったウェアラブルコントローラのような、HMD102とは別個のゲーミングコントローラの操作から定義され得る。例として、コントローラ入力261は、方向入力、ボタン押下、トリガ起動、動き、ジェスチャ、またはゲーミングコントローラの操作から処理される他の種類の入力を含み得る。オーディオ入力262は、HMD102のマイクロフォン251から、または画像キャプチャ装置208に含まれるマイクロフォンもしくはローカルシステム環境内の他の箇所から処理することができる。モーション入力263は、HMD102に含まれるモーションセンサ259から、またはHMD102の画像をキャプチャする画像キャプチャデバイス108から処理することができる。例えば、ゲーミングアプリケーションを実行する場合、VRコンテンツエンジン220は、ゲームエンジンとして動作するコンテンツエンジン220の構成にしたがって処理される入力を受信して、ビデオゲームのゲーム状態を更新する。エンジン220は、ゲーム状態データを、ユーザに提示されることになるコンテンツを定義するためにゲーム状態データを処理する様々なレンダリングモジュールに出力する。
図示の実施形態では、ビデオレンダリングモジュール283は、HMD102で提示するためにビデオストリームをレンダリングするように定義される。
HMD102の光学系270のレンズは、VRコンテンツ291を表示するために構成されている。HMD102がユーザによって装着されたとき光学系270のレンズが表示画面904とユーザの眼260の間に在るように、表示画面904は、光学系270のレンズ背部に配置される。そのようにして、ビデオストリームは、表示画面/プロジェクタ機構904により提示され、ユーザの眼260によって光学系270を通して見られ得る。HMDユーザは、例えば、3D編集空間で3Dデジタルコンテンツを編集する目的で、HMDを装着することにより、インタラクティブなVRコンテンツ291(例えば、VRビデオソース、ビデオゲームコンテンツなど)とインタラクトすることを選択し得る。ビデオゲームからのインタラクティブな仮想現実(VR)シーンは、HMDの表示画面904上にレンダリングされ得る。そのようにして、ゲーム開発中に、HMD102により、ユーザは、インタラクティブなVRシーンを編集かつ確認することが可能となる。また、ゲームプレイ(編集の確認を含む)中、HMDによって、ユーザは、ユーザの眼にごく近接してHMDの表示機構をプロビジョニングすることによりゲームプレイに完全に没入することが可能となる。コンテンツをレンダリングするためにHMDの表示画面に画定される表示領域は、ユーザの視野の大部分または全体でさえ占有し得る。通常、それぞれの眼は、1つまたは複数の表示画面を表示している光学系270の関連するレンズによってサポートされる。
オーディオレンダリングモジュール282は、ユーザによって聴取されるオーディオストリームをレンダリングするように構成されている。一実施形態では、オーディオストリームは、HMD102に関連付けられたスピーカ152を通して出力される。スピーカ152は、オープンエアスピーカ、ヘッドフォン、またはオーディオを提示することが可能である任意の他の種類のスピーカの形態を取り得ることを理解すべきである。
一実施形態では、ユーザの視線の追跡を可能にするために、視線追跡センサ265がHMD102に含まれる。1つの視線追跡センサ265のみが含まれているが、図3A〜3Cに関して説明するように、ユーザの視線を追跡するために2つ以上の視線追跡センサを用い得ることに留意すべきである。例えば、一部の実施形態では、片方の眼だけが追跡されるが(例えば、1つのセンサを使用して)、他の実施形態では、2つの眼が複数のセンサで追跡される。視線追跡センサ265は、カメラ、光学センサ、赤外線センサ、EMG(筋電図)センサ、光学反射器センサ、距離センサ、及びオプティカルフローセンサ、ドップラーセンサ、マイクロフォンなどの1つまたは複数であり得る。一般に、センサ265は、眼球運動方向の変化、加速度、及び速度などの急速な眼球運動を検出するように構成され得る。例えば、視線追跡カメラは、ユーザの眼の画像をキャプチャし、それらを分析してユーザの視線方向を判定する。一実施形態では、ユーザの視線方向に関する情報を利用して、ビデオレンダリングに影響を与えることができる。例えば、ユーザの眼が特定の方向を見ていると判定された場合、その方向に対するビデオレンダリングを優先または強調することができる。本開示の実施形態では、視線方向及び/または他の眼の向きのデータは、ディスプレイを見ているユーザに関連して定義されたサッカード中かつ/またはその終わりのユーザの眼(複数可)の対応する視線方向に関連付けられている、HMDのディスプレイ上の着地点を予測するのに使用され得る。サッカード予測は、図4A〜4Cに関してさらに説明されるサッカード予測エンジン400によって実行され得る。サッカード予測エンジン400はまた、反復的かつ計算集約的な操作を実行するように構成されている深層学習エンジン190と連動して動作し得る。具体的には、深層学習エンジン190は、ユーザの眼(複数可)の運動が、更新された標的着地点におけるディスプレイ上の中心窩領域(高解像度領域)と一致するように、HMD102のディスプレイ上の標的着地点を更新するのに使用されるサッカードモデリング及びサッカード予測の機能を含み、実行し得る。ユーザの視線方向は、ヘッドマウントディスプレイに対して、ユーザが置かれている実環境に対して、かつ/またはヘッドマウントディスプレイ上でレンダリングされている仮想環境に対して定義することができることを理解すべきである。視線方向はHMDの画面に対して定義され得るので、視線方向は、画面上の位置に変換され得る。その位置は、フレームに対して高解像度でレンダリングされた中心窩領域の中心であり得る。
大まかに言えば、単独で考える場合、視線追跡センサ265によってキャプチャされた画像の分析により、HMD102に対するユーザの視線方向が提供される。しかしながら、HMD102の追跡された位置及び向きと組み合わせて考える場合、HMD102の位置及び向きはユーザの頭の位置及び向きと同義であるので、ユーザの実世界の視線方向も判定され得る。すなわち、ユーザの実世界の視線方向は、ユーザの眼の位置的な運動を追跡することとHMD102の位置及び向きを追跡することから判定することができる。仮想環境の表示をHMD102上でレンダリングするとき、ユーザの実世界の視線方向を適用して、仮想環境におけるユーザの仮想世界の視線方向を判定することができる。
さらに、触覚フィードバックモジュール281は、HMD102、またはHMDユーザによって操作されるコントローラ104などの別デバイスのいずれかに含まれる触覚フィードバックハードウェアに信号を供給するように構成されている。触覚フィードバックは、振動フィードバック、温度フィードバック、圧力フィードバックなどといった様々な種類の触感の形態を取り得る。
図3A〜3Cは、一実施形態による、視線追跡センサを含むHMDの内部を示す、顔がディスプレイハウジングと接触するように設計されている内表面を見ている、一例のディスプレイハウジングの図を示す。
特に、図3Aは、顔がディスプレイハウジング102aと接触するように設計されている内表面を見ている、例示的なディスプレイハウジング102aの図を示す。示されるように、インターフェース面102eは、着用されるとディスプレイハウジング102aがユーザの眼及び眼を囲む顔の特徴を実質的に覆うように、ディスプレイハウジング102aを囲んでいる。これにより、ユーザが光学系102bを通して見ている領域への光が低減し、したがって、HMD102によって提供される仮想現実シーンのより現実的な表示が提供される。ディスプレイハウジング102aがユーザの頭に配置されると、ユーザの鼻は、鼻挿入領域102d内にスライドするか、またはその中に嵌まり得る。鼻挿入領域102dは、ディスプレイハウジング102aの下部の、光学系102bの間の領域である。
フラップ102cは、ユーザの鼻が少なくとも部分的に鼻挿入領域102dに配置されたときに動くまたは屈曲するように設計されている。図示されるように、近接センサ206は、ディスプレイハウジング102a内に統合され、鼻挿入領域102dの領域に向けられ、ユーザの鼻が少なくとも部分的に鼻挿入領域102d内に配置されたときに情報をキャプチャするようにする。フラップ102cは、ユーザの鼻に隣接して嵌まるように設計されており、フラップは、ディスプレイハウジング102aがユーザの顔に配置されたときに、光が光学系102b及びユーザの眼に向かって漏れないようにすることを助ける。
また図3Aに示されるように、近接センサ302は、ディスプレイハウジング102aの内表面に統合され、光学系102b間に配置されている。したがって、近接センサ302の位置は、ユーザの額から離間することになり、インターフェース表面102eに、より近接し得る。しかしながら、HMD102におけるユーザの顔の存在は、近接センサ302によって感知することができる。さらに、近接センサ302はまた、HMD102が装着されたときのユーザの顔の距離、テクスチャ、画像、及び/または一般的な特性に関する情報も感知することができる。上述のように、近接センサ302は、ディスプレイハウジング102a内で、同じ場所または異なる場所で統合され得る複数のセンサによって定義され得る。
ディスプレイハウジング102aの光学系102b間の位置で統合され得る視線検出センサ265も示されている。視線検出センサ265は、光学系102bを通して見ているときのユーザの眼球運動を監視するように構成されている。視線検出センサは、ユーザがVR空間において見ている位置を特定するのに使用することができる。さらなる実施形態では、視線検出センサ265を使用してユーザの眼を監視する場合、この情報をユーザのアバターの顔に用いて、アバターの顔が、ユーザの眼球運動と同じ様に動く眼を有するようにすることができる。視線検出センサ265はまた、ユーザが映像酔いを体験している可能性があるときを監視するためにも使用することができる。
視線検出センサ265は、眼の向きに関する1つまたは複数のパラメータをキャプチャするように構成されている。視線検出センサ265からの情報を使用して、眼の瞳孔の向きに基づいて、ユーザの眼(複数可)の視線方向(例えば、角度θ)を判定し得る。瞳孔は、光が網膜に入り、網膜に当たることを可能にする眼の中心の開口部である。視線検出センサ265は、眼(複数可)を照らすために使用される非可視光(例えば、赤外光)の1つまたは複数の波長のエネルギーを放出する1つまたは複数の光源(図示せず)と連動して機能し得る。例えば、光源は、光エネルギーを眼(複数可)に向ける発光ダイオード(LED)であり得る。視線検出センサ265は、瞳孔、角膜、及び/または眼の虹彩からの反射を捕捉するために使用され得る。反射はその後分析されて(例えば、HMD102のプロセッサ、コンピュータ106などによって)、視線方向及び/または瞳孔の向きを判定し、それは、眼(複数可)の視線方向へと翻訳可能である。視線方向(例えば、角度θ)は、HMD102、及び/または実世界空間に関して参照され得る。視線の向き及び/または方向を判定するために、明瞳孔追跡、暗瞳孔追跡などといった様々な既知の技術が実装され得る。ユーザの瞳孔(複数可)及び/または眼(複数可)の方向及び/または向きを判定するのに用いられる眼の向きのデータをキャプチャするように構成されている、図4Aに示す1つまたは複数の光源(複数可)401及び1つまたは複数の視線検出センサ(複数可)265を含む視線追跡システム820が示される。
さらに、視線方向に基づいて追加情報が判定され得る。例えば、眼(複数可)の速度及び加速度などの眼球運動データが判定され得る。眼(複数可)の追跡された運動は、ユーザのサッカードを判定するために使用され得る。センサからの情報はまた、ユーザの頭を追跡するのにも使用され得る。例えば、情報は、頭の位置、モーション(動き)、向き、向きの変化に反応し得る。この情報は、実世界環境内の視線方向を判定するために使用され得る。
図3Bから3Cもまた、視線方向センサ265の様々な配置位置を示す、HMD102の異なる斜視図を示す。例えば、図3Bは、眼の視線を捕捉するために、光学系102bの外側部分に配置された視線検出センサ265a及び265bの例である。図3Cは、眼の視線を捕捉するために、光学系102bの間に配置された視線検出センサ265x及び265yを含む。視線検出センサの位置は、ディスプレイハウジング102a内で異なるものであり得、一般に、ユーザの眼に向けられた表示を提供するように配置される。これらの例示は、視線検出センサがHMD102内の様々な位置に柔軟に配置できることを示すために提供されている。
図4Aは、本開示の一実施形態による、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測するように構成されている予測エンジン400を示す。予測エンジン400は、前述のように、HMD102、コンピュータ106、及びクラウドゲーミングサーバ114のうちの1つまたは複数に配置され得る。
示されるように、視線追跡システム820は、ユーザの瞳孔(複数可)及び/または眼(複数可)の視線の方向及び/または向きを判定するように構成されている。視線方向は、HMD102のディスプレイといったディスプレイに関してのものであり得る。前述のように、視線追跡システム820は、1つまたは複数の光源(複数可)401及び1つまたは複数の視線検出センサ(複数可)265を含む。特に、視線追跡システム820からの情報は、1つまたは複数のサンプル点において収集される。例えば、情報は、サッカード中に眼を1回以上サンプリングするのに十分な期間で、周期的に収集され得る。例えば、情報は、特定の瞬間における眼(複数可)の視線方向を含み得る。1つまたは複数のサンプル点における情報は、現在のサンプル点における情報を含めて、後でアクセスするためにストレージ806に保持される。
さらに、現在のサンプル点における情報は、入力として予測エンジン400に送られる。より具体的には、一実施形態において、Δθ速度生成器410は、現在のサンプル点402からの情報及び前のサンプル点403からの情報(ストレージ806から送られるか、または生成器410によってアクセス可能なバッファ405に保持されている)を分析して、眼球運動の速度を判定する。このようにして、速度生成器410は、現在のサンプル点402からの情報及び前のサンプル点403からの情報に基づいて、特定のサンプル点における眼球運動の速度を判定するように構成されている。例えば、情報は特定の時間における視線方向であり得る。別の実施形態では、後方差分の代わりに、速度の中心差分推定が実行される。そのように、検出を遅延させ、前の位置及び次の位置を使用して、速度のより滑らかな推定値を取得することが可能である。これは、サッカード検出を実行する際の誤判定を低減するのに役立ち得る。
速度情報(例えば、dθ/dt)が、サッカード識別子420に入力として提供される。ユーザの眼球運動がサッカード内にあるときを判定するために、速度生成器410によって様々な技術が用いられ得る。一実施形態では、眼及び/または眼の眼球運動は、速度が閾値に達するかつ/または超えるとき、サッカード内にある。閾値は、眼がサッカードに達していることを必ずしも示すとは限らないノイズの多い情報は避けるように選択される。例えば、閾値は、オブジェクトを追跡するときなど、眼が滑らかな追跡を実行しているときに通常見られる速度を上回るものである。純粋に例示のために、サッカード検出は、10ms内に実行され得る。
前に説明したように、サッカードは、ディスプレイ上のある凝視点から別の凝視点に移動するときになされるユーザの眼(複数可)の急速なかつ同時の運動を定義する。サッカード運動は、毎秒900度を超えるピーク角速度に達でき、20から200ミリ秒(ms)の範囲で持続する。120ヘルツ(Hz)のフレームレートでは、サッカードは、2から25フレームの範囲で持続し得る。例えば、HMDは、90または120Hzのレートでリフレッシュして、ユーザの不快感(例えば、映像酔いによる)を最小限に抑える。
眼及び/または眼球運動がサッカードにあると判定されると、予測エンジン400は、ユーザの視線方向が指しているディスプレイ上の着地点を判定するように構成されている。すなわち、サッカード中の特定の点(例えば、中間点、終わりなど)において、着地点は、図4Bに示されるように、予測エンジン400によって、より具体的には深層学習エンジン190によって判定することができる。特に、サンプルセットコレクタ430は、現在のサンプル点402からの情報を含むように、サンプル点のセットからの情報を収集する。サンプル点のセットから判定された速度情報がさらに判定でき、全速度グラフの少なくとも一部が、ユーザが体験するサッカードに対して生成され得るようにする。速度グラフの一部を含む情報は、着地点を判定するために、深層学習エンジン190に入力として提供される。
例えば、図4Bは、本開示の一実施形態による、HMDのディスプレイを見ているユーザに関連するサッカードの着地点を予測するために使用される深層学習エンジン190としてのリカレントニューラルネットワークを示す。リカレントニューラルネットワークは、長短期記憶(LSTM)モジュール440及び全結合された多層ネットワーク450(例えば、多層パーセプトロン)を含む。特に、深層学習エンジン190は、入力情報451(例えば、速度グラフの一部など)を、深層学習エンジン190によって生成されかつ/または知られるサッカードのモデルと比較するように構成されている。例えば、分析されているサッカードの一部は、被験者の複数のサッカードから構築された速度グラフと比較される。他の実施形態では、ニューラルネットワークへの入力は、各サンプル点での速度といった速度に加えて、各サンプル点での視線方向、及び各サンプル点での時間の情報を含み得る。そのようにして、ユーザの眼の方向に対応する、ディスプレイ上の着地点は、深層学習エンジン190によって構築されかつ/または知られるサッカードモデルに基づいて、サッカード中の任意の点について判定され得る。示されるように、深層学習エンジン190の出力452は、判定された着地点を指しているユーザの視線方向を示すベクトル(XF−n)、及び任意選択的に、ユーザの眼が着地点に向けられるときを予測する時間(tn)パラメータを含む。時間(tn)パラメータは、サッカードの開始、サッカードが判定される点、サンプル点のサンプルセット451における最新のサンプル点などといった1つまたは複数の点を参照し得る。
図4Cは、本開示の一実施形態による、被験者の測定されたサッカードに基づいてサッカードモデル及び/またはそれらサッカードモデルにおける速度グラフを構築するために、かつ、例えばHMDのディスプレイ上で着地点の予測を実行するために使用される例示的なニューラルネットワークを示す。着地点は、ディスプレイ(例えば、HMDの)を見ているユーザに関連して定義されるサッカード中かつ/またはその終わりのユーザの任意の眼の視線方向に関連付けられる。具体的には、サッカード予測エンジン400の深層学習または機械学習エンジン190は、ユーザの眼の向きのデータに関する情報(例えば、視線方向、時間、サッカードの速度グラフの一部など)を入力として受信するように構成されている。深層学習エンジン190は、深層学習アルゴリズム、強化学習、または他の人工知能ベースのアルゴリズムを含む人工知能を利用して、前述のように、サッカードモデル、例えばそれらのサッカードモデルに対する速度グラフを構築して、現在ユーザが体験しているサッカードを認識し、サッカード中の任意のポイントで視線方向が指している場所を予測する。
すなわち、学習及び/またはモデリング段階中に、深層学習エンジン190は、入力データ(例えば、被験者のサッカードの測定値)を用いて、ユーザの眼(複数可)が指している、ディスプレイの着地点を予測するのに使用することができるサッカードモデル(それらのサッカードモデルに対する速度グラフを含む)を作成する。例えば、入力データは、被験者のサッカードの複数の測定値を含み得、測定値は、深層学習エンジン190に供給されると、1つまたは複数のサッカードモデルを作成するように構成されており、サッカードモデルごとに、サッカード認識アルゴリズムを用いて、現在のサッカードがそのサッカードモデルといつ一致するかを識別することができる。
特に、ニューラルネットワーク190は、対応するユーザの応答、行動、態度、所望、及び/またはニーズを判定するためにデータセットを分析する自動分析ツールの例を表す。異なるタイプのニューラルネットワーク190が可能である。例では、ニューラルネットワーク190は、深層学習をサポートする。したがって、ディープニューラルネットワーク、深層畳み込みニューラルネットワーク、及び/または教師ありもしくは教師なしのトレーニングを使用したリカレントニューラルネットワークを実装することができる。別の例では、ニューラルネットワーク190は、強化学習をサポートする深層学習ネットワークを含む。例えば、ニューラルネットワーク190は、強化学習アルゴリズムをサポートするマルコフ決定プロセス(MDP)としてセットアップされる。
一般に、ニューラルネットワーク190は、人工ニューラルネットワークなどの相互接続されたノードのネットワークを表す。各ノードは、データからある情報を学習する。相互接続を介して、ノード間で知識を交換することができる。ニューラルネットワーク190への入力により、ノードのセットがアクティブ化される。次に、このノードのセットは、他のノードをアクティブ化し、それにより入力に関する知識が伝播される。このアクティブ化プロセスは、出力が提供されるまで、他のノードにわたって繰り返される。
図示されるように、ニューラルネットワーク190は、ノードの階層を含む。最下位階層に、入力層191が存在する。入力層191は、入力ノードのセットを含む。例えば、これらの入力ノードのそれぞれは、対応するサッカード中にある被験ユーザ/被験者の監視(例えば眼の向きのデータ)中に、アクチュエータを介して能動的に収集された、またはセンサにより受動的に収集されたローカルデータ115にマッピングされる。
最上位階層には、出力層193が存在する。出力層193は、出力ノードのセットを含む。出力ノードは、現在体験されているサッカードの情報に関する決定(例えば予測)を表す。前述のように、出力ノードは、ユーザが体験したサッカードを、以前にモデル化されたサッカードと一致させ、さらに、サッカード中かつ/またはその終わりにユーザの視線方向が指している、ディスプレイ(例えばHMDの)の予測着地点を識別し得る。
これらの結果は、適切なサッカードモデル及び所与の入力セットに対するサッカード中かつ/またはその終わりのユーザの視線方向に対応するディスプレイの予測着地点を反復的に判定するように、深層学習エンジン190によって用いられるパラメータを改良かつ/または修正するために、前のインタラクション及び被験者の監視から得られた所定かつ真の結果と比較することができる。すなわち、ニューラルネットワーク190におけるノードは、パラメータを改良するときにそうした決定をなすために用いることができるサッカードモデルのパラメータを学習する。
特に、隠れ層192が、入力層191と出力層193の間に存在する。隠れ層192は、「N」個の隠れ層を含み、「N」は、1以上の整数である。次に、隠れ層のそれぞれはまた、隠れノードのセットも含む。入力ノードは、隠れノードと相互接続されている。同様に、隠れノードは、出力ノードと相互接続されているため、入力ノードは、出力ノードと直接相互接続されていない。複数の隠れ層が存在する場合、入力ノードは、最下位の隠れ層の隠れノードと相互接続される。次に、これらの隠れノードは、次の隠れ層の隠れノードと相互接続され、以下同様に続く。次の最上位の隠れ層の隠れノードは、出力ノードと相互接続される。相互接続は、2つのノードを接続する。相互接続は、学習することができる数値の重みを有し、ニューラルネットワーク190を入力に適応させて、学習可能にする。
一般に、隠れ層192により、入力ノードに関する知識が、出力ノードに対応する全てのタスク間で共有されることが可能となる。そのようにするため、一実装例では、隠れ層192を介して入力ノードに変換fが適用される。例では、変換fは、非線形である。例えば線形整流器関数f(x)=max(0,x)を含む、様々な非線形変換fが利用可能である。
ニューラルネットワーク190はまた、最適解を見つけるためにコスト関数cを使用する。コスト関数は、所与の入力xに関してf(x)と定義されたニューラルネットワーク190によって出力される予測と、グラウンドトゥルースまたはターゲット値y(例えば見込まれる結果)との偏差を測定する。最適解は、最適解のコストよりコストの低い解がない状況を表す。コスト関数の例として、グラウンドトゥルースラベルが利用可能なデータの場合、予測とグラウンドトゥルースとの平均二乗誤差が挙げられる。学習プロセス中に、ニューラルネットワーク190は、誤差逆伝播アルゴリズムを使用して、様々な最適化方法を採用し、コスト関数を最小化するモデルパラメータ(例えば隠れ層192内のノード間の相互接続の重み)を学習し得る。このような最適化方法の一例として、確率的勾配降下法が挙げられる。
例では、ニューラルネットワーク190におけるトレーニングデータセットは、同じデータドメインに由来し得る。例えば、ニューラルネットワーク190は、所与の入力または入力データのセットに基づく被験者の類似するサッカードのパターン及び/または特性を学習するようにトレーニングされる。例えば、データドメインは、眼の向きのデータを含む。別の例では、トレーニングデータセットは、ベースライン以外の入力データを含むように、異なるデータドメインに由来する。このようにして、ニューラルネットワーク190は、眼の向きのデータを使用してサッカードを認識でき、または、眼の向きのデータに基づいて所与のサッカードにおけるサッカードモデルを生成するように構成され得る。
図5Aは、本開示の一実施形態による、眼球運動の完了後に画像がユーザに対してぼやけることにつながる、眼球運動に比べてのフレーム更新の遅れがどのようなものかを示すサッカード予測なしのレンダリングパイプライン501を示す。レンダリングパイプライン501は、前述のように、HMD102、コンピュータ106、及びクラウドゲーミングサーバ114内に、単独でまたは組み合わせて実装され得る。
着地点予測が有効になっていないレンダリングパイプライン501が図5Aに示されているが、本開示の実施形態において、レンダリングパイプライン501は、図5Bに示すように、サッカード及び眼球運動を識別するために、かつ、サッカード中かつ/またはその終わりにユーザの眼(複数可)260の視線方向が指しているディスプレイ(例えばHMD102の)上の着地点を予測する(例えばONにされる)ために、視線追跡情報を分析するように最適化され得ることが理解される。すなわち、図5Bにおいて、レンダリングパイプライン501は、図5Bに関して以下でさらに説明するように、着地点の予測に基づいて中心窩レンダリングを実行するように構成され得る。
特に、レンダリングパイプラインは、中央処理装置(CPU)802、グラフィックス処理ユニット(GPU)816、及び両方にアクセス可能なメモリ(例えば、頂点バッファ、インデックスバッファ、深度またはZバッファ、ディスプレイに送られるレンダリングされたフレームを格納するためのフレームバッファなど)を含む。レンダリングパイプライン(またはグラフィックスパイプライン)は、3D(3次元)ポリゴンレンダリングプロセスを使用するときなどの、画像をレンダリングするための一般的なプロセスを示す。例えば、レンダリングされた画像に対するレンダリングパイプライン501は、ディスプレイにおけるピクセルのそれぞれに対する対応する色情報を出力し、色情報は、テクスチャ及びシェーディング(例えば、色、陰影など)を表し得る。
CPU802は、一般に、オブジェクトアニメーションを実行するように構成され得る。CPU802は、3D仮想環境内のオブジェクトに対応する入力ジオメトリを受信する。入力ジオメトリは、3D仮想環境内の頂点、及び各頂点に対応する情報として表され得る。例えば、3D仮想環境内のオブジェクトは、頂点によって定義されるポリゴン(例えば、三角形)として表すことができ、対応するポリゴンの表面は、次に、レンダリングパイプライン501を介して処理されて、最終効果(例えば、色、テクスチャ、等)を達成する。CPU802の動作はよく知られており、本明細書では大まかに説明する。一般に、CPU802は、1つまたは複数のシェーダ(例えば、計算、頂点など)を実装して、オブジェクトに加えられるかつ/またはオブジェクトによって加えられる力(例えば、重力などの外力、及び動きを誘発するオブジェクトの内力)に応じて、フレームからフレームへオブジェクトアニメーションを実行する。例えば、CPU802は、3D仮想環境において、オブジェクトの物理シミュレーション及び/または他の機能を実行する。次に、CPU802は、GPU816によって実行されるポリゴン頂点に対する描画コマンドを発行する。
特に、CPU802によって生成されたアニメーション結果は、頂点バッファに格納でき、それは次に、ポリゴン頂点をレンダリングする目的で、ポリゴン頂点のディスプレイ(例えば、HMDの)への投影及び投影されたポリゴンのテッセレーションを実行するように構成されているGPU816によってアクセスされる。すなわち、GPU816は、3D仮想環境内でオブジェクトを構成するポリゴン及び/またはプリミティブをさらに構築するように構成でき、これには、ポリゴンに対するライティング、シャドウイング、及びシェーディング計算の実行が含まれ、それはシーンに対するライティングに依存する。ビュー錐台の外側のプリミティブを識別して無視するクリッピング、及びシーンにおけるオブジェクトをディスプレイ上に投影するためのラスタ化(例えば、オブジェクトを、ユーザの視点に関連付けられた画像平面に投影する)などの追加の操作が実行され得る。単純なレベルでは、ラスタ化には、各プリミティブを調べ、そのプリミティブの影響を受けるピクセルを判別することが含まれる。プリミティブの断片化を使用して、プリミティブをピクセルサイズのフラグメントに分割でき、各フラグメントは、ディスプレイ内のピクセル及び/またはレンダリングの視点に関連付けられた参照面に対応する。1つまたは複数のプリミティブの1つまたは複数のフラグメントは、ディスプレイ上にフレームをレンダリングするときのピクセルの色に寄与し得る。例えば、所与のピクセルについて、3D仮想環境内のすべてのプリミティブの所与のピクセルフラグメントが、表示のためのピクセルに結合される。つまり、対応するピクセルに対する全体的なテクスチャ及びシェーディング情報が組み合わされて、ピクセルの最終的なカラー値が出力される。これらのカラー値は、フレームバッファに格納でき、フレームごとにシーンの対応する画像を表示するときに対応するピクセルにスキャンされる。
レンダリングパイプライン501は、視線方向及び/または向きの情報をCPU802に提供するように構成されている視線追跡システム820を含み得る。この視線方向情報は、中心窩レンダリングを実行する目的で使用でき、中心窩領域は、高解像度でレンダリングされ、ユーザが注視している方向に対応する。図5Aは、中心窩レンダリングに関するがサッカード予測なしで(すなわち、サッカード予測がオフになっている)構成されているレンダリングパイプライン501を示す。すなわち、着地点の予測は実行されず、その結果、HMDに表示されるフレームは、ユーザの眼球運動と一致しない中心窩領域を有する。なぜなら、特に眼が動いているときは、計算された各中心窩領域は表示の際古いからである。さらに、図5Aは、シーケンス内のフレーム(例えば、F1からF8)がレンダリングパイプライン501からスキャンアウトされる時間を示すタイムライン520を示す。フレームF1からF8のシーケンスも、ディスプレイを見ているユーザのサッカードの一部である。
図5Aに示すように、レンダリングパイプラインは、視線追跡システム820、CPU802、GPU816、及びレンダリングされたフレームをディスプレイ810にスキャンアウトするためのラスタエンジンによって順番に実行される動作を含むとして示されている。例示のために、レンダリングパイプラインシーケンス591〜595が示される。スペースの制約のため、フレームF3からF−22に対するシーケンスといった他のパイプラインシーケンスは示されない。図5Aに示す例では、レンダリングパイプライン501の構成要素のそれぞれは、同じ周波数で動作する。例えば、視線追跡システム820は、120Hzで視線方向及び/または向きの情報を出力していてもよく、これは、CPU802及びGPU816のレンダリングパイプラインが使用するのと同じ周波数であり得る。このように、ユーザの眼(複数可)の視線方向260は、レンダリングパイプラインでスキャンアウトされるフレームごとに更新され得る。他の実施形態では、視線追跡システム820は同じ周波数で動作しておらず、したがって、視線方向情報は、スキャンアウトされているレンダリングされたフレームと一致しない場合がある。その場合には、視線追跡システム820の周波数がCPU802及びGPU816によって使用される周波数よりも低速の場合、視線方向情報は追加の遅延を加え得る。
視線追跡情報は、高解像度でレンダリングされる中心窩領域を判定するために用いられ得る。中心窩領域の外側の領域は、低解像度で表示される。しかしながら、図5Aに示されるように、サッカード予測がない場合、視線追跡情報を用いてスキャンアウトするフレームを判定するときまでに、少なくとも2フレーム期間、そして最大3フレーム期間が、対応するフレームが視線追跡情報を使用して表示されるまでに経過している。例えば、レンダリングパイプラインシーケンス591において、視線追跡情報は、時間t−20(サッカードの中間点)における第1のフレーム期間で判定され、CPU802に送られる。時間t−21における第2のフレーム期間で、CPU802は、オブジェクトに対して物理シミュレーションを実行し、ポリゴンプリミティブを描画命令と共にGPU816に送る。時間t−23における第3のフレーム期間で、GPUは、プリミティブアセンブリを実行して、レンダリングされたフレーム(F23)を生成する。さらに、GPUは、少なくとも2フレーム期間前に判定された、時間t−20における第1のフレーム期間に送られた視線方向に対応する中心窩領域をレンダリングし得る。中心窩領域を含むフレームF23は、時間t−23における第4のフレーム期間でスキャンアウトされる。注目すべきは、レンダリングパイプラインシーケンス591おいて、時間t−20で判定された視線追跡情報は、少なくともt−21及びt−22におけるフレーム期間(2フレーム期間)、場合によっては第3のフレーム期間の一部分、古くなっていることである。同様に、パイプラインシーケンス592は、時間t−24でフレームF24をスキャンアウトするが、中心窩領域は、遡って時間t−21における第1のフレーム期間で定義されたものである。また、パイプラインシーケンス593は、時間t−25でフレームF25をスキャンアウトするが、中心窩領域は、遡って時間t−22における第1のフレーム期間で定義されたものである。さらに、パイプラインシーケンス594は、時間t−26でフレームF26をスキャンアウトするが、中心窩領域は、遡って時間t−23における第1のフレーム期間で定義されたものである。また、パイプラインシーケンス595は、時間t−27でフレームF27をスキャンアウトするが、中心窩領域は、遡って時間t−24における第1のフレーム期間で定義されたものである。
眼260は、各レンダリングパイプラインに対して検出されている点(例えば、時間)(例えば、レンダリングパイプラインシーケンス591または592または593の開始時など)を過ぎても動き続けるので、スキャンされるときの対応するレンダリングパイプラインシーケンス(例えば、シーケンス595)のフレーム(例えばフレームF27)における中心窩領域は、少なくとも2から3フレーム期間古い(あるいは遅れている)場合がある。例えば、スキャンアウト時のレンダリングされたフレームF27は、ユーザの視線方向と一致しない中心窩領域を有する。特に、ディスプレイ810は、時間t−27におけるフレームF27を示すように示され、サッカード経路510(フレームF0とF27の間)が、ディスプレイ810に重ね合わされ、凝視点A(例えば、方向506及びベクトルXF−0)を示し、これはサッカードの始まりに対応する。例示のために、フレームF1が、時間t−0でサッカード経路510の始まりでスキャンアウトされており、中心窩領域は、凝視点Aを中心としている。サッカード経路510は、サッカードの終わりに対応する凝視点B、またはサッカードの少なくとも第2の点を含む。例示のために、フレームF27は、時間t−27でサッカード経路510の終わりでスキャンアウトされる。
また、レンダリングパイプライン501によって実行されるサッカード経路の予測がないことから、視線追跡システム820によって提供される視線方向情報は、少なくとも2または3フレーム期間古くなる。このように、フレームF27は時間t−27でレンダリングパイプラインシーケンス595に対してスキャンアウトされているとき、眼260は凝視点B(眼の方向507及びベクトルXF−27で)を凝視するが、レンダリングパイプラインシーケンス595は、時刻t−24で提供された古い視線方向情報を使用する。すなわち、時間t−24で判定された視線方向情報は、レンダリングパイプラインシーケンス595を伝播して、時間t−27でスキャンアウトされる。特に、時間t−24における視線追跡システム820は、ディスプレイ810上の点591を指す視線方向を記録している。このように、時間t−24において、フレームF24がスキャンアウトされているとき、ユーザの眼260は、ディスプレイの点591に向けられている。レンダリングされているときのフレームF24の中心窩領域がディスプレイ810上に正しく配置されているかどうかは、サッカード中、眼260によって受けられた画像は完全に処理されず視聴者においてぼやけて見え得るので、重要ではない場合がある。しかしながら、フレームF27が時間t−27でディスプレイ810上にスキャンアウトされるとき、レンダリングされた中心窩領域549が時間t−24における点591の周囲にあると計算されていても、ユーザの眼は凝視点B(点線領域592によって示されるように)を向いている。このように、前述のように、時間t−27において眼260を領域592に向けかつ焦点を合わせいるユーザにとって、領域592は周辺にあると計算され、より低い解像度でレンダリングされ得るが、古い中心窩領域549(眼が向けられていない)は高解像度でレンダリングされるため、フレームF27はぼやけて見える。
図5Bは、本開示の一実施形態による、レンダリングパイプラインにおける高解像度の中心窩領域の更新を進めることによって、眼球運動の完了後、画像がユーザに対して焦点を合わせるように、HMDのディスプレイを見ているユーザの眼球運動のサッカード予測ありで構成されているレンダリングパイプラインの結果的な効果を示す。例えば、図5Aに示されているレンダリングパイプライン501において、ここで、サッカード予測、より具体的には着地点予測を有効にする。すなわち、レンダリングパイプライン501は、ここで、サッカード及び眼球運動を識別するため視線追跡情報を分析するように、かつ、サッカード中かつ/またはその終わりにユーザの眼(複数可)260の視線方向が指している、ディスプレイ(例えばHMD102の)上の着地点を予測する(例えばONにする)ように最適化される。このように、図5Bにおいて、レンダリングパイプライン501は、ここで、着地点の予測に基づいて中心窩レンダリングが行われるように構成されている。例示のみを目的として、図5Bは、一実施形態におけるサッカード510の終わりの着地点の予測を示すが、他の実施形態では、サッカード中の着地点の予測が可能である(例えば、現在のサンプル点を過ぎて3から5フレーム期間、着地点を予測する)。
特に、ディスプレイ810は、時間t−27でフレームF27を提示するように示される。サッカード経路510は、ディスプレイ810に重ね合わされ、サッカードの始まりに対応する凝視点A(例えば、方向506及びベクトルXF−0)を示す。例示のために、フレームF1は、時間t−0でサッカード経路510の始まりでスキャンアウトされており、中心窩領域は、凝視点Aを中心とする。サッカード経路510は、サッカードの終わりに対応する凝視点B、またはサッカードの少なくとも第2の点を含む。例示のために、フレームF27は、時間t−27においてサッカード経路510の終わりにスキャンアウトされる。
各フレームがスキャンアウトされるときに、サッカード予測がレンダリングパイプライン501内で実行される。一実施形態では、サッカード予測及び/または着地点予測は、CPU802、GPU816、または両方の組み合わせ内で実行することができる。別の実施形態では、サッカード予測は遠隔で実行され、レンダリングパイプライン501へ入力として送られる。予測が実行されると、GPU816は、フレームを着地点予測に基づく中心窩領域とともにレンダリングすることができる。特に、GPU816は、中心窩レンダリングを修正することができ、その結果、図5Aで前述したような古い視線方向情報に依存する代わりに、予測着地点を用いて中心窩領域の位置を判定する。
特に、凝視点Bに対する予測着地点が、ディスプレイ810に重ね合わされる。これらの着地点は、前のレンダリングパイプラインシーケンスで判定されたものである。特に、フレームF8以降のフレームがスキャンアウトされる時間までに、サッカードにおける予測着地点は、例えば凝視点Bに収束している。示されるように、サッカード検出後のある点で(例えば、時間t−5におけるフレームF5のスキャンアウト中)、予測が実行される。例えば、予測は、フレームF5及び後続のフレームのレンダリングから開始して実行され得る。サッカード510は、図5Aで以前に紹介しており、開始点として凝視点A、及び凝視点B(例えば、終点、またはサッカード内の事前定義された点−未来の3から5フレーム期間など−として)を含む。
フレームF5がスキャンアウトされるとき、予測着地点(例えば、ベクトルXF−5を中心とする)が、凝視点Bから離れている、予測中心窩領域541として示される。次のレンダリングパイプラインシーケンスでは、フレームF6がスキャンアウトされるとき、予測着地点(例えば、ベクトルXF−6を中心とする)が予測中心窩領域542として示され、これは、凝視点Bに近いが、まだ離れている。予測は収束するため、次のレンダリングパイプラインシーケンスでは、フレームF7がスキャンアウトされるとき、予測着地点(ベクトルXF−7を中心とする)が、凝視点Bに非常に近い、予測中心窩領域543として示される。フレームF8がスキャンされるとき、次のレンダリングパイプラインシーケンスに収束が現れ得、予測着地点(例えば、ベクトルXF−8を中心とする)は、凝視点Bを中心とする予測中心窩領域592(太字)として示される。任意の後続のレンダリングパイプラインシーケンスに対して、中心窩領域592は、サッカード510のフレームF9からF27をレンダリング及びスキャンアウトするときなど、レンダリングに使用され、凝視点Bを中心とする。そのようにして、フレームF27がレンダリングされると、凝視点Bに対する着地点予測により、中心窩領域592は、サッカードの終わりにおいてなどで、ユーザの眼(複数可)260の運動と一致する。また、着地点の予測は、フレームF8のレンダリング及びスキャンアウトとともに収束するので、フレームF9からF27は全て、ユーザの眼(複数可)の運動に備えて、既に中心窩領域592を有し得る。このように、予測なしで中心窩領域549をレンダリングする代わりに(図5Aに記載されるように)、標的着地点(例えば、未来の定義されたフレーム期間数、サッカードの終わりなど)は、予測中心窩領域592を用いて更新され、眼がその予測着地点に到達したときに、フレームが、その予測着地点を中心とする中心窩領域とともにレンダリングされるようにする。
図6Aは、本開示の一実施形態による、HMDのディスプレイを見ているユーザのサッカードの眼の変位及び速度を示すグラフ600Aを示す。グラフ600Aは、サッカード中の眼球運動の角速度(dθ/dt)を示す垂直軸610Aを含む。さらに、グラフ600Aは、角変位(θ)を示す別の垂直軸610Bを含む。グラフ600Aは、時間を示す横軸615を含み、時間t−0とおおよそt−27及び/またはt−28の間のサッカードにおける時系列を含む。
純粋に例示のために、グラフ600Aは、線630でサッカードの角変位を示す。以前に紹介したように、サッカードは、ディスプレイ上のある凝視点から別の凝視点に移動するときになされたユーザの眼(複数可)の急速なかつ同時の運動を定義する。示されるように、眼の変位線630によって示されるような角運動は、特定の方向(例えば、左から右へ)にある。すなわち、サッカード中、眼の視線方向は、グラフ600Aの例では、0度から30度の間で移動する。
それに対応して、純粋に例示のために、グラフ600Aは、線620でサッカード中の眼の速度を示す。異なるサッカードの速度グラフは、一般に、線620に示されているのと同じ形状に従う。例えば、サッカードの開始時、サッカードの速度は線形進行に従う(例えば、時間t−0とt−8の間)。線形進行後、速度は時間t−8とt−17の間などでプラトーになり得る。線620の速度グラフは、プラトー後、サッカードの終了まで、例えば、時間t−17とt−27の間などで、速度の急激な低下を示す。
本開示の実施形態は、現在のサッカードの速度グラフの一部(例えば、線620の線形部分)を、モデル化されたサッカード(例えば、深層学習エンジン190をトレーニングすると構築される)に一致させる。現在のサッカードの着地点は、サッカード中の任意の点におけるモデル化されたサッカードの着地点に近似でき、現在のサッカードにおいて予測することができる。
図6Bは、本開示の一実施形態による、HMDのディスプレイを見ているユーザのサッカードの速度グラフ600Bにおける様々なサンプル点での眼の向き/追跡データのサンプリングを示す。グラフ600Bは、図6Aのグラフ600Aに従い、サッカード中の眼球運動の角速度(dθ/dt)を示す垂直軸610A、及び水平軸615を含むが、線620でサッカードの速度のみを示すように切り離されている。
特に、サッカード中の様々なサンプル点で、視線追跡システム820から眼の向き/追跡データが収集される。例示のみを目的として、サンプル点は少なくとも時間t−0、t−1、t−2…t−27…t−nに生じ得る。例えば、線620上のサンプル点S1は、時間t−1における視線追跡データ(例えば、視線方向、速度など)に関連し、サンプル点S2は、時間t−2における視線追跡データに関連し、サンプル点S3は、時間t−4における眼の向き/追跡データに関連し、サンプル点S5は、時間t−5における視線追跡データに関連し、サンプル点S6は、時間t−6における視線追跡データに関連し、サンプル点S7は、時間t−7における視線追跡データに関連し、サンプル点S8は、時間t−8における視線追跡データに関連するなど、である。例として、各サンプル点で収集されたデータは、前述のように、視線方向、時間、及び他の情報を含み得る。データに基づいて、ユーザの眼(複数可)に対する速度情報が判定され得る。一部の実施形態では、速度データは、視線追跡システム820から直接収集され得る。
このように、速度線620によって示されるサッカード中、少なくともサンプル点S1からおおよそS27までに対して視線追跡データが収集かつ/または判定される。サンプル点S1からS8は、グラフ600Bで強調されて、図5Bで先に示したようにサッカードに対する着地点の予測の収束を示し(例えばサッカード510の終わり)、それは、サンプル点S8に対応するおおよそ時間t−8での収束を示す。
図6Cは、本開示の一実施形態による、HMDのディスプレイを見ているユーザの眼(複数可)260に関連するサッカードの着地点を予測するために使用される1つまたは複数のサンプル点のセットに対する眼の向き/追跡データの収集を示す。図6Cは、ユーザの眼(複数可)のサッカードの着地点を予測するための、図6Bのグラフ600Bで紹介したサンプル点での情報の使用を示す。
示されるように、眼の向き/追跡データは、複数のサンプル点650(例えば時間t−1からt−27のそれぞれにおけるS1からS27)において眼260上で視線追跡システム820によって収集される。純粋に例示のみを目的として、サッカードは、凝視点Aと凝視点Bの間を0から30度の間で移動するように示される。
特に、速度データは、サンプル点650のそれぞれに対する眼の向き/追跡データから収集かつ/または判定される。サンプル点を強調する丸640が拡大して示され、少なくともサンプル点S1からS8を含む。例えば、速度データV1はサンプル点S1と関連し、速度データV2はサンプル点S2と関連し、速度データV3はサンプル点S3と関連し、速度データV4はサンプル点S4と関連し、速度データV5はサンプル点S5と関連し、速度データV6はサンプル点S6と関連し、速度データV7はサンプル点S7と関連し、少なくとも速度データV8はサンプル点S8と関連する。追加データが残りのサンプル点に対して収集かつ/または判定されるが、丸640には示されていない。
予測の目的で、ユーザの眼(複数可)がサッカードにあると識別されると、サンプル点のセットからの情報が収集される。例示の目的のために、サッカード識別は、サンプル点S5と関連する時間t−5で発生可能であり、それはまた未来のフレームF8のレンダリングの開始と一致する。一実施形態では、サッカード識別は、眼(複数可)の速度が閾値速度に達するかつ/またはそれを超えると確認される。
サッカード識別後、事前定義された着地点の予測が実行される。具体的には、サンプル点のセットからの情報が識別される。少なくとも、情報には、測定されるかつ/または計算される角速度が含まれる。セットには、現在のサンプル点を含む、事前定義された数のサンプル点が含まれ得る。例えば、セットには、1から10のサンプル点が含まれ得る。一実施形態では、セットには、エラーを低減するために3から5のサンプル点が含まれ得る。
例示の目的で、セットには、図6Cに記載されているように、現在のサンプル点を含む4つのサンプル点が含まれ得る。サンプル点のセットから情報を収集するスライディングウィンドウが示される。例えば、現在のサンプル点S5に対応するフレーム期間または時間において、ウィンドウ(w1)は、サンプル点S2からS5を含み、これらのサンプル点からのそれぞれの情報(例えば速度)を用いて着地点を予測する。次の現在のサンプル点S6に対応する次のフレーム期間または時間において、ウィンドウ(w2)は、サンプル点S3からS6を含み、それぞれの情報を用いて更新着地点を予測する。また、次の現在のサンプル点S7に対応する次のフレーム期間または時間において、ウィンドウ(w3)は、サンプル点S4からS7を含み、それぞれの情報を用いて更新着地点を予測する。収束は、次の現在のサンプル点S8に対応する次のフレーム期間または時間に発生可能であり、ウィンドウ(w4)はサンプル点S5からS8を含む。
収束は、図5Bに関連して以前に説明している。収束の確認は、ウィンドウw5...w27に対してなど着地点の後続の予測をもって発生し得る。一実施形態では、収束が確認されると、予測は停止され得る。
図6Dは、本開示の一実施形態による、HMDのディスプレイを見ているユーザに関連するサッカードの着地点(例えば、サッカードの終わり)を予測するために使用されるサンプル点のセットに対する眼の向きのデータを一覧表示している表600Dを示す。図6Dは、凝視点Bにおける予測着地点の予測及び収束を示す図5Bと連携している。
具体的には、列661はウィンドウ指定を示し(例えばw1からw5)、列662はサンプル点のセットを示し、列663はサッカードの終わりと一致する予測着地点を示し、ここで角変位は、凝視点Aにおけるサッカードの開始を基準としており、列664は、予測サッカード終了時間(例えば、フレームまたはフレーム期間単位で)を示し、ここで予測終了時間は、凝視点Aにおけるサッカードの開始時間を基準としている。
例えば、ウィンドウw1は、サンプル点S2からS5を含むサンプル点のセットからの情報(例えば、速度)を使用して着地点(サッカードの終了)を予測する。予測着地点に対するユーザの眼(複数可)の予測視線方向は、42度の角度を持つベクトルXF−5である。予測着地点は、図5Bの凝視領域541を中心として示される。さらに、サッカードの予測終了時間または持続時間は、フレーム及び/またはフレーム期間F38に関連するおおよそ時間t−38であると予測される。
また、ウィンドウw2は、サンプル点S3からS6を含むサンプル点のセットからの情報(例えば速度)を使用して更新着地点(サッカードの終わり)を予測する。予測着地点に対するユーザの眼(複数可)の予測視線方向は、18度の角度を持つベクトルXF−6である。予測着地点は、図5Bの凝視領域542を中心として示される。さらに、サッカードの予測終了時間または持続時間は、フレーム及び/またはフレーム期間F20に関連するおおよそ時間t−20であると予測される。
ウィンドウw3は、サンプル点S4からS7を含むサンプル点のセットからの情報(例えば、速度)を使用して更新着地点(サッカードの終わり)を予測する。予測着地点に対するユーザの眼(複数可)の予測視線方向は、28度の角度を持つベクトルXF−7であり、これは、30度の角度における凝視点Bに近接する。予測着地点は、図5Bの凝視領域543を中心として示され、これは、凝視点Bに近接する。さらに、サッカードの予測終了時間または持続時間は、フレーム及び/またはフレーム期間F25に関連するおおよそ時間t−25であると予測される。
ウィンドウw4及びw5は、予測着地点(例えばサッカードの終わり)の収束を示す。すなわち、これらのウィンドウに関連付けられた予測は、30度(例えば、凝視点Aから)の着地点を示す。例えば、ウィンドウ(w4)は、サンプル点S5からS8を用いて着地点を予測する。ユーザの眼(複数可)の予測視線方向及び予測着地点は、30度の角度を持つベクトルXF−8であり、これは凝視点Bに対する角度でもある。サッカードの予測終了時間または持続時間は、フレーム及び/またはフレーム期間F27に関連するおおよそ時間t−27であると予測される。また、ウィンドウ(w5)は、サンプル点S6からS9を用いて、凝視点Bにおける30度と同一の着地点を予測する。サッカードの予測終了時間または持続時間は、フレーム及び/またはフレーム期間F27に関連する時間t−27であり同一である。このように、収束は、ウィンドウ(w4)で発生し、収束の確認は、ウィンドウ(w5)で発生する。後続の予測では、収束した着地点が示されるであろう。
ゲーム機、HMD、及びクラウドゲーミングサーバの様々なモジュールの詳細な説明とともに、本開示の一実施形態による、着地点がサッカード中の任意の点またはその終わりで生じ得る、サッカードを体験しているユーザの眼(複数可)の視線方向に関連付けられた、ディスプレイ(例えばHMDの)上の着地点を予測する方法が、ここで、図7の流れ図700に関連して説明される。前述のように、流れ図700は、HMD、ゲーム機、及びクラウドゲーミングサーバの1つまたは複数で着地点を予測するために含まれる動作のプロセス及びデータフローを示す。特に、流れ図300の方法は、少なくとも部分的に図1A〜1C、2及び4A〜4Cのサッカード予測エンジン400によって実行され得る。
710で、方法は、複数のサンプル点で、HMDに配置されている視線追跡システムを用いて、ユーザの少なくとも片方の眼球の運動を追跡することを含む。例えば、少なくとも視線方向を含むように、眼の向き/追跡データが収集され得る。例えば、本開示の一実施形態にしたがって、視線方向は、様々な時間t0からt5において図6Eに示され得る。図6Eでは、時間t0において、視線方向は、ベクトルXt0によって定義され、時間t1において、視線方向は、ベクトルXt1によって定義され、時間t2において、視線方向は、ベクトルXt2によって定義され、時間t3において、視線方向は、ベクトルXt3によって定義され、時間t4において、視線方向は、ベクトルXt4によって定義され、時間t5において、視線方向は、ベクトルXt5によって定義される。
720で、方法は、追跡に基づいて運動の速度を判定することを含む。図6Eに示すような視線方向ベクトルは、ユーザの眼(複数可)の速度を判定するのに使用され得る。すなわち、眼(複数可)の速度は、2つのサンプル点からの第1の眼または視線方向及び第2の眼または視線方向に基づいて判定され得る。特に、2つのサンプル点の間の視線方向、2つの視線方向の間の角度、及び2つのサンプルの点の間の時間を用いて、2つのサンプル点の間の速度を判定し得る。例えば、2つのサンプル点の間の角度(θ)は、次の式で定義される三角関数を含む多数の手法のうちの1つを使用して判定され得る。例示として、角度(θ)は、一実施形態において、以下の式(1)を使用して、時間tn及び時間tn−1で取られた2つのサンプル点の間で判定される。図6Eを参照すると、角度θ2は、ベクトルXt1及びXt2から判定でき、角度θ3は、ベクトルXt2及びXt3から判定でき、θ4は、ベクトルXt3及びXt4から判定でき、角度θ5は、ベクトルXt4及びXt5から判定され得る。
Figure 2021524102
式1は、時間tn及び時間tn−1で取られた2つのサンプル点の視線方向の間の角度を与える。2つのサンプル点の間で発生する速度を計算するには、以下の式(2)に示すように、角度を2つのサンプル点の間の持続時間であるΔtで除算する。

速度(1秒あたりの度)=θ/(tn−tn−1) (2)
このように、速度(v2)は、ベクトルXt1及びXt2を用いて、時間t1及びt2で取られたサンプル点の間で判定することができ、速度(v3)は、ベクトルXt2及びXt3を用いて、時間t2及びt3で取られたサンプル点の間で判定することができ、速度(v4)は、ベクトルXt3及びXt4を用いて、時間t3及びt4で取られたサンプル点の間で判定することができ、速度(v5)は、ベクトルXt4及びXt5を用いて、時間t4及びt5で取られたサンプル点の間で判定することができる。
730で、この方法では、一実施形態において、速度が閾値速度に達したとき、ユーザの眼がサッカードにあると判定する。他の実施形態では、ユーザの眼(複数可)がサッカードにあると判定するのに他の方法を使用することができる。前に説明したように、閾値速度は、眼(複数可)が別のタイプの運動(例えば、円滑追跡)を体験している可能性があるときまたはデータにノイズが多いとき、サッカードを識別しないように事前定義されている。
740で、この方法では、サッカードにおける眼の方向に対応する、HMDのディスプレイ上の着地点を予測する。一実施形態では、その方向は、眼の視線方向に対応する。視線方向はHMDの画面に対して定義され得るので、視線方向は、画面上の位置に変換され得る。位置とは、着地点である。着地点は、フレームに対して高解像度でレンダリングされる中心窩領域の中心として使用され得る。一実施形態では、着地点は、サッカード中の任意の点で発生可能であり、眼の中間方向に対応するサッカードの中間点を含む。例えば、一実施形態では、着地点は、現在のフレーム期間を過ぎて事前定義されたフレーム期間の数だけ発生し得る。別の実施形態では、着地点は、サッカードの終わりに発生可能であり、眼の凝視方向に対応する。
着地点の予測は、サンプル点のセットに対する眼球運動を追跡するときの眼の向き/追跡データを収集することを含み得る。すなわち、サンプル点のセットからの情報を用いて、着地点を予測する。眼の向き/追跡データは、HMDに関する少なくとも眼及び/または視線の方向を含み、セットのうちの少なくとも1つのサンプル点は、サッカード中に発生する。速度情報は、前に説明したように、眼の向き/追跡データから判定でき、速度データも、着地点を予測するために使用され得る。さらに、サンプル点のセットに対する眼の向き/追跡データは、リカレントニューラルネットワーク(例えば深層学習エンジン)に入力として提供される。ニューラルネットワークは、例えば、被験者の複数のサッカードの以前に測定された眼の向きのデータに関してトレーニングされる。一実施形態では、リカレントニューラルネットワークは、長短期記憶ニューラルネットワーク、及び全結合された多層パーセプトロンネットワークを含む。リカレントニューラルネットワークは、サンプル点のセットに対する眼の向きのデータから構築された眼の速度グラフの一部を、被験者の複数のサッカードから構築された眼の速度グラフと比較するように構成され得る。ユーザのサッカードの眼の速度グラフの一部との一致は、リカレントニューラルネットワークにおけるトレーニングされたサッカードを用いてなされ得る。一致がなされると、ユーザのサッカードの1つまたは複数の予測着地点は、トレーニングされたサッカードの1つまたは複数の着地点に近似し得る。このようにして、サッカードの着地点(例えば、サッカードの終わり、またはサッカード中の中間点)は、リカレントニューラルネットワークを使用して、サンプル点のセットからの情報を用いて予測され得る。
さらに、着地点の予測は、異なるサンプル点のセットのデータを用いる後続の予測をもって更新され得る。例えば、第1の現在のサンプル点に関連して、第1の着地点が741で予測される。第1の着地点の予測は、第1のサンプル点及び少なくとも1つの前のサンプル点を含む第1のサンプル点のセットの眼の向きのデータに基づく。眼の向きのデータには、HMDに関する眼及び/または視線方向が含まれる。742で、サッカードにおける第1のサンプル点に続く第2の現在のサンプル点に関連して、更新された予測が行われる。着地点の更新は、第2のサンプル点及び少なくとも1つの前のサンプル点(例えば、第1のサンプル点)を含む第2のサンプル点のセットの眼の向きのデータに基づいて、第2の着地点を予測することを含む。
決定ステップ743で、方法は、予測着地点の収束があるかどうかを判定する。例えば、2つの予測着地点が閾値測定値内にある(例えば、2つの予測着地点の間のディスプレイ上のデルタ距離)とき、収束は発生し得る。一実施形態では、2つの予測着地点が同一であるとき収束は発生する。
収束がない場合、方法は744に進み、別の予測が行われる。具体的には、前のサンプル点に続く次のサンプル点において、次の着地点が、次のサンプル点及び少なくとも1つの前のサンプル点からの眼の向き/追跡データに基づいて予測される。方法は、決定ステップ743に戻って、収束があるかどうかを判定する。
一方、収束がある場合、方法は745に進み、最後の予測着地点が、サッカード予測の着地点として選択される。すなわち、収束により、最後に計算された着地点が予測着地点として使用される。
一実施形態では、中心窩レンダリングが、予測着地点に基づいて行われ得る。例えば、第1のビデオフレームが、表示するためにレンダリングでき、第1のビデオフレームは、ディスプレイ上の予測着地点を中心とする中心窩領域を含む。中心窩領域は、高解像度でレンダリングされ得る。さらに、ディスプレイの中心窩ではない領域は、ディスプレイの残りの部分を含み、より低い解像度でレンダリングされる。さらに、中心窩領域を有する第1のビデオフレームは、HMDのディスプレイ上に提示され、眼は、第1のビデオフレームを表示するとき、着地点(すなわち、中心窩領域に対応する)に向けられると予測される。
別の実施形態では、HMD上に表示するためにフレームをレンダリングするときの電力消費を削減するために、追加の手段を取り得る。特に、サッカード中、眼球運動が速すぎる場合があるので、ユーザは、レンダリングされ表示される中間フレーム見ることができない場合がある。このようにして、中間ビデオフレームのうちの少なくとも1つのレンダリングは、レンダリングに使用されるコンピューティングリソースを節約するために、終了され得る。すなわち、方法は、第1のビデオフレームの前にレンダリングされる、サッカード中の少なくとも1つのビデオフレームのレンダリングを終了することを含む。
さらに別の実施形態では、HMD上に表示するためにフレームをレンダリングするときの電力消費を削減するために別の手段をとり得る。特に、ユーザは、サッカード中レンダリングされ表示される中間フレームを見ることができない場合があるので、ビデオフレーム全体は、より低い解像度でまたは低解像度でレンダリングされ得る。すなわち、そのフレームに対して中心窩領域はレンダリングされない。言い換えれば、方法は、第1のビデオフレームの前にレンダリングされる、サッカード中の少なくとも1つのビデオフレームを低解像度でレンダリングすることを含む。
図8は、本開示の様々な実施形態の態様を実行するために使用することができる例示的なデバイス800の構成要素を示す。例えば、図8は、一実施形態による、ユーザの眼球(複数可)運動が、更新された標的着地点におけるディスプレイ上の中心窩領域の提示と一致するように、ディスプレイ上の標的着地点を予測かつ更新するように構成されているデバイスを実装するのに適した例示的なハードウェアシステムを示す。着地点の予測が、HMDならびにより従来のディスプレイの文脈両方で実行され得るときの、例示的なデバイス800が一般に記載される。このブロック図は、開示の実施形態を実施するのに適した、パーソナルコンピュータ、ビデオゲーム機、パーソナルデジタルアシスタント、または他のデジタルデバイスを組み込むことができる、またはそれらであり得るデバイス800を示す。デバイス800は、ソフトウェアアプリケーション及び任意選択的にオペレーティングシステムを動作させる中央処理装置(CPU)802を含む。CPU802は、1つまたは複数の同種または異種の処理コアで構成され得る。例えば、CPU802は、1つまたは複数の処理コアを有する1つまたは複数の汎用マイクロプロセッサである。メディア及びインタラクティブエンターテインメントアプリケーション、または前述のようなディスプレイを見ているユーザに関連して定義されるサッカード中かつ/またはその終わりのユーザの眼(複数可)の視線方向に関連付けられたディスプレイ上の着地点の予測を提供するように構成されているアプリケーションなど、高並列かつ計算集中的なアプリケーションに特に適合したマイクロプロセッサアーキテクチャを有する1つ以上のCPUを用いて、さらなる実施形態を実装することができる。
メモリ804は、CPU802が使用するアプリケーション及びデータを格納する。ストレージ806は、アプリケーション及びデータ用の不揮発性ストレージ及び他のコンピュータ可読媒体を提供し、かつ、固定ディスクドライブ、取り外し可能ディスクドライブ、フラッシュメモリデバイス、及びCD−ROM、DVD−ROM、Blu−ray(登録商標)、HD−DVD、または他の光学記憶デバイス、ならびに信号伝送及び記憶媒体を含み得る。ユーザ入力デバイス808は、1人以上のユーザからのユーザ入力をデバイス800へ通信するものであり、その例には、キーボード、マウス、ジョイスティック、タッチパッド、タッチスクリーン、スチルレコーダ/カメラもしくはビデオレコーダ/カメラ、ジェスチャを認識する追跡デバイス、及び/またはマイクロフォンが挙げられ得る。ネットワークインターフェース814は、デバイス800が電子通信ネットワークを介して他のコンピュータシステムと通信することを可能にし、かつ、ローカルエリアネットワーク、及びインターネットなどの広域ネットワークを介する有線または無線通信を含み得る。オーディオプロセッサ812は、CPU802、メモリ804、及び/またはストレージ806によって提供される命令及び/またはデータから、アナログまたはデジタルのオーディオ出力を生成するように適合されている。CPU802、メモリ804、データストレージ806、ユーザ入力デバイス808、ネットワークインターフェース810、及びオーディオプロセッサ812を含むデバイス800の構成要素は、1つ以上のデータバス822を介して接続されている。
グラフィックスサブシステム814がさらに、データバス822及びデバイス800の構成要素と接続されている。グラフィックスサブシステム814は、グラフィック処理装置(GPU)816及びグラフィックメモリ818を含む。グラフィックメモリ818は、出力画像の各画素の画素データを格納するために使用される表示メモリ(例えばフレームバッファ)を含む。グラフィックメモリ818は、GPU816と同じデバイスに統合する、GPU816に別個のデバイスとして接続する、かつ/またはメモリ804内に実装することができる。画素データは、CPU802から直接グラフィックメモリ818へ提供することができる。代替として、CPU802は、所望の出力画像を定義するデータ及び/または命令をGPU816に提供し、GPU816は、そこから、1つ以上の出力画像の画素データを生成する。所望の出力画像を定義するデータ及び/または命令は、メモリ804及び/またはグラフィックメモリ818に格納することができる。実施形態において、GPU816は、シーンの形状、照明、陰影、テクスチャ、モーション(動き)、及び/またはカメラのパラメータを定義する命令及びデータから、出力画像の画素データを生成する3Dレンダリング機能を含む。GPU816はさらに、シェーダプログラムを実行可能な1つまたは複数のプログラム可能実行ユニットを含み得る。
グラフィックスサブシステム814は、グラフィックメモリ818からの画像の画素データを周期的に出力して、ディスプレイデバイス810に表示させる、または投影システム840によって投影させる。ディスプレイデバイス810は、デバイス800からの信号に応じて視覚情報を表示可能である任意のデバイスであり得、これにはCRT、LCD、プラズマ、及びOLEDディスプレイが含まれる。デバイス800は、ディスプレイデバイス810に、例えばアナログ信号またはデジタル信号を提供することができる。
さらに、デバイス800は、前述のような、視線追跡センサ265及び光源(例えば、不可視赤外光を放出する)を含む視線追跡システム820を含む。
本明細書で説明される実施形態は、任意のタイプのクライアントデバイス上で実行され得ることを理解すべきである。一部の実施形態では、クライアントデバイスは、ヘッドマウントディスプレイ(HMD)、または投影システムである。図9では、開示の実施形態による、ヘッドマウントディスプレイ102の構成要素を例示する図が示される。HMD102は、ディスプレイを見ているユーザに関連して定義されるサッカード中かつ/またはその終わりのユーザの眼(複数可)の視線方向に関連付けられた、HMDのディスプレイ上の着地点を予測するように構成され得る。
ヘッドマウントディスプレイ102は、プログラム命令を実行するプロセッサ900を含む。メモリ902は、ストレージ目的で提供され、揮発性メモリ及び不揮発性メモリの両方を含み得る。ユーザが見得る視覚的インターフェースを提供するディスプレイ904が含まれる。ヘッドマウントディスプレイ102の電源として、バッテリ906が提供される。モーション検出モジュール908は、磁力計910A、加速度計912及びジャイロスコープ914などの、様々な種類のモーション検知ハードウェアのいずれかを含み得る。
加速度計は、加速度及び重力誘起反力を測定するデバイスである。様々な方向の加速の大きさ及び方向を検出するために、単軸モデル及び多軸モデルが利用可能である。加速度計を使用して、傾き、振動、及び衝撃を感知する。一実施形態では、3つの加速度計912を使用して重力方向が提供され、これにより、2つの角度(世界空間ピッチ及び世界空間ロール)の絶対基準が与えられる。
磁力計は、ヘッドマウントディスプレイ付近の磁場の強度及び方向を測定する。一実施形態において、3つの磁力計910Aが、ヘッドマウントディスプレイ内で使用され、世界空間ヨー角度についての絶対基準を確保する。一実施形態では、磁力計は、±80マイクロステラの地磁場範囲を有するように設計される。磁力計は金属の影響を受け、実際のヨーに対して単調なヨー測定を提供する。磁場は環境内の金属により歪むことがあり、これによりヨー測定に歪みが生じる。必要な場合、この歪みは、ジャイロスコープまたはカメラなどの他のセンサからの情報を用いて、較正することができる。一実施形態では、加速度計912を磁力計910と共に使用して、ヘッドマウントディスプレイ102の傾斜角及び方位を取得する。
ジャイロスコープは、角運動量の原理に基づいて、配向を測定または維持するためのデバイスである。一実施形態では、3つのジャイロスコープ914は、慣性感知に基づいて、それぞれの軸(x、y、及びz)にわたる動きに関する情報を提供する。ジャイロスコープは、高速回転の検出に役立つ。しかしながら、ジャイロスコープは、絶対基準が存在しないと、時間の経過と共にドリフトし得る。このことは、周期的にジャイロスコープを再設定することを必要とし、再設定は、オブジェクトの視覚追跡、加速度計、磁力計などに基づく位置/配向判定といった、他の利用可能な情報を用いて行われ得る。
実環境の画像及び画像ストリームを取り込むために、カメラ916が提供される。後面(ユーザがヘッドマウントディスプレイ102のディスプレイを見ているときユーザから離れる方向を向く)カメラと、前面(ユーザがヘッドマウントディスプレイ102のディスプレイを見ているときユーザを向く)カメラとを含む2つ以上のカメラが、ヘッドマウントディスプレイ102に含まれ得る。さらに、実環境内のオブジェクトの深度情報(depth information)を感知するために、深度カメラ918がヘッドマウントディスプレイ102に含まれ得る。
一実施形態では、HMDの前面に統合されたカメラを使用して、安全に関する警告が提供され得る。例えば、ユーザが壁またはオブジェクトに接近している場合、ユーザに警告が与えられ得る。一実施形態では、室内の物理的オブジェクトの外観をユーザに提供して、ユーザにそれらの存在を警告し得る。外観は、例えば仮想環境において重ね合わせられ得る。一部の実施形態では、例えば床に重ね合わせられた参照マーカの表示が、HMDユーザに提供され得る。例えば、マーカは、ユーザに、ユーザがゲームをプレイしている部屋の中心の場所の参照を提供し得る。これは、例えば部屋の中の壁または他のオブジェクトに衝突しないようにユーザが移動すべき場所の視覚情報をユーザに提供し得る。ユーザがHMDを装着してゲームをプレイする、またはHMDでコンテンツを操作するとき、安全性を高めるために、触覚的警告及び/または音声警告もユーザに提供することができる。
ヘッドマウントディスプレイ102は、音声出力を提供するスピーカ252を含む。また、周囲環境からの音、ユーザによる発言などを含む実環境からの音声を取り込むために、マイクロフォン251が含まれ得る。ヘッドマウントディスプレイ102は、ユーザに触覚フィードバックを提供する触覚フィードバックモジュール281を含む。一実施形態では、触覚フィードバックモジュール281は、触覚フィードバックをユーザに提供することができるように、ヘッドマウントディスプレイ102の動き及び/または振動を引き起こすことが可能である。
LED926は、ヘッドマウントディスプレイ102の状態の視覚的インジケータとして提供される。例えば、LEDは、バッテリレベル、電源オンなどを示し得る。ヘッドマウントディスプレイ102がメモリカードから情報を読み出し、メモリカードに情報を書き込むことを可能にするために、カードリーダ928が提供される。周辺デバイスの接続、または他のポータブルデバイス、例えばコンピュータなどの他のポータブルデバイスへの接続を可能にするインターフェースの一例として、USBインターフェース930が含まれる。ヘッドマウントディスプレイ102の様々な実施形態では、ヘッドマウントディスプレイ102のより良い接続性を可能にするために、様々な種類のインターフェースのいずれかが含まれ得る。
無線ネットワーク技術を介してインターネットへの接続を可能にするために、Wi−Fiモジュール932が含まれる。また、ヘッドマウントディスプレイ102は、他のデバイスへの無線接続を可能にするために、ブルートゥース(登録商標)モジュール934を含む。また、他のデバイスへの接続のために通信リンク936が含まれてもよい。一実施形態では、通信リンク936は、無線通信のために赤外線伝送を利用する。他の実施形態では、通信リンク936は、他のデバイスとの通信のために各種の無線または有線伝送プロトコルのいずれかを利用してもよい。
入力ボタン/センサ938は、ユーザに対する入力インターフェースを提供するために含まれる。ボタン、タッチパッド、ジョイスティック、トラックボールなどといった様々な種類の入力インターフェースのうちのいずれかが含まれ得る。超音波技術を介して他のデバイスとの通信を促進するために、超音波通信モジュール940が、ヘッドマウントディスプレイ102に含まれ得る。
バイオセンサ942は、ユーザからの生理学的データの検出を可能にするために含まれる。一実施形態では、バイオセンサ942は、ユーザの皮膚を通してユーザの生体電気信号を検出するために、1つ以上のドライ電極を含む。
3次元の物理的環境に配置されたエミッタ(例えば赤外線基地局)からの信号に応答するために、光センサ944が含まれる。ゲーム機は、光センサ944及びエミッタからの情報を分析して、ヘッドマウントディスプレイ102に関する位置及び向きの情報を判定する。
さらに、視線追跡システム820が含まれ、これは、ユーザの視線追跡を可能にするように構成される。例えば、システム820は、ユーザの眼の画像をキャプチャするための視線追跡カメラ(例えばセンサ)を含み得、キャプチャされた画像はその後、ユーザの視線方向を判定するために分析される。一実施形態では、ユーザの視線方向に関する情報を利用して、ビデオレンダリングに影響を与えることができ、かつ/または、サッカード中またはサッカードの終わりのユーザの視線が向けられるディスプレイ上の着地点を予測することができる。また、中心窩レンダリングにより詳細、より高い解像度を提供すること、中心窩領域に表示されるパーティクルシステム効果のより高い解像度を提供すること、中心窩領域の外側に表示されるパーティクルシステム効果のより低い解像度を提供すること、またはユーザが見ている領域のより高速な更新を提供することなどにより、視線方向のビデオレンダリングを優先または強調することができる。
ヘッドマウントディスプレイ102の前述の構成要素は、ヘッドマウントディスプレイ102に含まれ得る単なる例示的な構成要素として説明されている。開示の様々な実施形態では、ヘッドマウントディスプレイ102は、上記の様々な構成要素の一部を含んでもよいし、または含まなくてもよい。本明細書で説明される本開示の態様を簡易にするために、ここでは記述されていないが当技術分野では既知の他の構成要素が、ヘッドマウントディスプレイ102の実施形態にはさらに含まれ得る。
本開示の様々な実施形態では、様々なインタラクティブ機能を提供するために、前述のヘッドマウントデバイスが、ディスプレイに表示されるインタラクティブアプリケーションと併せて利用され得ることが、当業者には理解されよう。本明細書で説明される例示的な実施形態は、限定としてではなく、単に例として提供される。
現在の実施形態のゲームへのアクセス提供など、広範囲な地域にわたり送られるアクセスサービスは、多くの場合、クラウドコンピューティングを使用することに留意すべきである。クラウドコンピューティングは、動的に拡張縮小可能で多くの場合仮想化されたリソースがインターネットを介したサービスとして提供される、コンピューティング様式である。ユーザは、ユーザをサポートする「クラウド」の技術的インフラストラクチャのエキスパートである必要はない。クラウドコンピューティングは、Infrastructure as a Service(IaaS)、Platform as a Service(PaaS)、及びSoftware as a Service(SaaS)などの異なるサービスに分類することができる。クラウドコンピューティングサービスは、多くの場合、ビデオゲームなどの共通のアプリケーションを、ウェブブラウザからアクセスするオンラインで提供するが、ソフトウェア及びデータは、クラウド内のサーバに格納される。クラウドという用語は、コンピュータネットワーク図におけるインターネットの描かれ方に基づいたインターネットの隠喩として使われ、複雑なインフラストラクチャを隠し持つことの抽象的概念である。
ゲーム処理サーバ(GPS)(または単純に「ゲームサーバ」)は、ゲームクライアントにより、シングルプレーヤ及びマルチプレーヤのビデオゲームをプレイするのに使用される。インターネット上でプレイされる大抵のビデオゲームは、ゲームサーバへの接続を介して動作する。通常、ゲームは、プレーヤからデータを収集し、収集したデータを他のプレーヤに配信する専用サーバアプリケーションを使用する。これは、ピアツーピア構成よりも効率的かつ効果的であるが、サーバアプリケーションをホストする別個のサーバが必要となる。別の実施形態では、GPSは、プレーヤ及びそれぞれのゲームプレイデバイスの間の通信を確立して、集中型GPSに依存せずに情報を交換する。
専用GPSは、クライアントとは無関係に稼働するサーバである。このようなサーバは、通常、データセンタに配置された専用ハードウェア上で稼働し、より多くの帯域幅及び専用処理能力を提供する。専用サーバは、大抵のPCベースマルチプレーヤゲームのゲームサーバをホストするのに、好ましい方法である。大規模なマルチプレーヤオンラインゲームは、ゲームタイトルを所有するソフトウェア会社が通常ホストする専用サーバ上で稼働し、専用サーバがコンテンツを制御かつ更新することを可能にする。
ユーザは、少なくともCPU、ディスプレイ、及びI/Oを含むクライアントデバイスにより、リモートサービスにアクセスする。クライアントデバイスは、PC、携帯電話、ネットブック、PDAなどであり得る。一実施形態では、ゲームサーバ上で実行されるネットワークは、クライアントが使用するデバイスの種類を認識し、採用する通信方法を調整する。別の事例では、クライアントデバイスは、HTMLなどの標準的な通信方法を使用して、インターネットを介してゲームサーバ上のアプリケーションにアクセスする。
本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な一般消費者向け電気製品、小型コンピュータ、及びメインフレームコンピュータなどを含む様々なコンピュータシステム構成により実施され得る。本開示はまた、有線ベースネットワークまたは無線ネットワークを介してリンクされたリモート処理デバイスによりタスクが行われる分散型コンピューティング環境においても、実施することができる。
所与のビデオゲームまたはゲーミングアプリケーションは、特定のプラットフォーム及び特定の関連コントローラデバイス用に開発されてもよいことを、理解すべきである。しかしながら、このようなゲームが、本明細書において提示されるようなゲームクラウドシステムを介して利用可能となる場合、ユーザは、異なるコントローラデバイスでビデオゲームにアクセスしている可能性がある。例えば、あるゲームは、ゲーム機及びその関連コントローラ用に開発された可能性があるが、ユーザは、キーボード及びマウスを利用してパーソナルコンピュータから、ゲームのクラウドベースバージョンにアクセスすることができる。このようなシナリオでは、入力パラメータ構成により、ユーザが利用可能なコントローラデバイス(この事例ではキーボード及びマウス)により生成され得る入力からビデオゲームの実行で受入れ可能な入力へのマッピングが定義され得る。
別の例では、ユーザは、タブレットコンピューティングデバイス、タッチスクリーンスマートフォン、または他のタッチスクリーン駆動デバイスを介して、クラウドゲームシステムにアクセスし得る。この場合、クライアントデバイス及びコントローラデバイスは、同じデバイス内に一体に統合され、入力は、検出されたタッチスクリーン入力/ジェスチャにより提供される。このようなデバイスでは、入力パラメータ構成により、ビデオゲームのゲーム入力に対応する特定のタッチスクリーン入力が定義され得る。例えば、ユーザがタッチしてゲーム入力を生成することができる、タッチスクリーン上の位置を示すために、ビデオゲームの実行中に、ボタン、方向パッド、または他の種類の入力要素が、表示または重ね合わされ得る。特定の方向のスワイプまたは特定のタッチ動作などのジェスチャも、ゲーム入力として検出され得る。一実施形態では、タッチスクリーン上での制御操作にユーザを慣れさせるために、例えばビデオゲームのゲームプレイを始める前に、ゲームプレイのタッチスクリーンを介して入力を提供する方法を示すチュートリアルがユーザに提供され得る。
いくつかの実施形態では、クライアントデバイスは、コントローラデバイスの接続ポイントとして機能する。すなわち、コントローラデバイスは、無線接続または有線接続を介してクライアントデバイスと通信して、コントローラデバイスからクライアントデバイスへ入力を送信する。今度はクライアントデバイスが、これらの入力を処理し、次いで入力データを、ネットワークを介して(例えばルータなどのローカルネットワークデバイスを介してアクセスされる)、クラウドゲームサーバへ送信し得る。しかしながら、他の実施形態では、コントローラ自体が、このような入力をまずクライアントデバイスを通して通信する必要なく、ネットワークを介して入力を直接クラウドゲームサーバに通信する能力を有するネットワーク化されたデバイスであり得る。例えば、コントローラは、ローカルネットワークデバイス(前述のルータなど)に接続して、クラウドゲームサーバとデータを送受信することができる。このようにして、クライアントデバイスは依然として、クラウドベースのビデオゲームからのビデオ出力を受信して、それをローカルディスプレイにレンダリングする必要はあり得るが、コントローラがクライアントデバイスをバイパスして、ネットワークを介してクラウドゲームサーバに入力を直接送信することを可能にすることによって、入力待ち時間を低減することができる。
一実施形態では、ネットワーク化されたコントローラ及びクライアントデバイスは、特定の種類の入力を直接コントローラからクラウドゲームサーバへ、及び他の種類の入力を、クライアントデバイスを介して送信するように構成することができる。例えば、コントローラ自体とは別の任意の追加のハードウェアまたは処理に依存しない検出による入力は、クライアントデバイスをバイパスして、ネットワークを介して直接コントローラからクラウドゲームサーバへ送信することができる。このような入力には、ボタン入力、ジョイスティック入力、埋込型動作検出入力(例えば加速度計、磁力計、ジャイロスコープ)などが含まれ得る。しかしながら、追加のハードウェアを利用する、またはクライアントデバイスによる処理を要する入力は、クライアントデバイスによりクラウドゲームサーバへ送信され得る。これらには、クラウドゲームサーバへ送信する前にクライアントデバイスにより処理され得る、ゲーム環境から取り込まれたビデオまたはオーディオが含まれ得る。さらに、コントローラの位置及び動作を検出するために、コントローラの動作検出ハードウェアからの入力が、取り込まれたビデオと併せてクライアントデバイスにより処理され、処理された入力はその後、クライアントデバイスによりクラウドゲームサーバへ通信される。様々な実施形態によるコントローラデバイスも、クライアントデバイスから、または直接クラウドゲームサーバから、データ(例えばフィードバックデータ)を受信し得ることを理解すべきである。
特に、図10は、開示の様々な実施形態による、ゲームシステム1000のブロック図である。ゲームシステム1000は、ネットワーク1015を介して1つ以上のクライアント1010に対し、シングルプレーヤモードまたはマルチプレーヤモードなどで、ビデオストリームを提供するように構成されている。ゲームシステム1000は、通常、ビデオサーバシステム1020及び任意選択のゲームサーバ1025を含む。ビデオサーバシステム1020は、1つまたは複数のクライアント1010に対し、最低限のサービス品質でビデオストリームを提供するように構成されている。例えば、ビデオサーバシステム1020は、ビデオゲームの状態またはビデオゲーム内の視点を変更するゲームコマンドを受信し、この状態変更を反映させた更新済ビデオストリームを、最小の遅延時間でクライアント1010に提供し得る。ビデオサーバシステム1020は、ビデオストリームを、まだ定義されていない形式を含む多種多様な代替的ビデオ形式で提供するように構成され得る。さらに、ビデオストリームは、多種多様なフレームレートでユーザに提示されるように構成されたビデオフレームを含み得る。通常のフレームレートは、毎秒30フレーム、毎秒80フレーム、及び毎秒820フレームである。しかしながら、開示の代替的実施形態には、より高いまたはより低いフレームレートが含まれる。
本明細書で個別に1010A、1010Bなどと称されるクライアント1010には、ヘッドマウントディスプレイ、端末、パーソナルコンピュータ、ゲーム機、タブレットコンピュータ、電話、セットトップボックス、キオスク、無線デバイス、デジタルパッド、スタンドアロンデバイス、及び/またはハンドヘルドゲームプレイデバイスなどが含まれ得る。通常、クライアント1010は、符号化された(すなわち圧縮された)ビデオストリームを受信し、ビデオストリームを復号化し、得られたビデオをユーザ、例えばゲームのプレーヤに提示するように構成されている。符号化されたビデオストリームを受信しかつ/またはビデオストリームを復号化するプロセスは通常、クライアントの受信バッファに個々の映像フレームを格納することを含む。映像ストリームは、クライアント1010に統合されたディスプレイ、またはモニタもしくはテレビなどの別個のデバイス上で、ユーザに提示され得る。クライアント1010は、任意選択的に、複数のゲームプレーヤをサポートするように構成されている。例えば、ゲーム機は、2人、3人、4人以上の同時プレーヤをサポートするように構成され得る。これらのプレーヤのそれぞれは別個のビデオストリームを受信し得る、または、単一のビデオストリームは、各プレーヤのために特別に生成された、例えば各プレーヤの視点に基づいて生成されたフレームの領域を含み得る。クライアント1010は、任意選択的に地理的に分散される。ゲームシステム1000に含まれるクライアントの数は、1もしくは2から数千、数万、またはそれ以上と大きく変動し得る。本明細書で使用される用語「ゲームプレーヤ」は、ゲームをプレイする人を指すのに用いられ、用語「ゲームプレイデバイス」は、ゲームをプレイするのに使用されるデバイスを指すのに用いられる。いくつかの実施形態では、ゲームプレイデバイスは、協働してユーザにゲーム体験を届ける複数のコンピューティングデバイスを指し得る。例えば、ゲーム機及びHMDは、ビデオサーバシステム1020と協働して、HMDを通して見るゲームを配信し得る。一実施形態では、ゲーム機は、ビデオサーバシステム1020からビデオストリームを受信し、ゲーム機は、レンダリングのためにHMDに対し、ビデオストリームまたはビデオストリームの更新を転送する。
クライアント1010は、ネットワーク1015を介してビデオストリームを受信するように構成されている。ネットワーク1015は、電話ネットワーク、インターネット、無線ネットワーク、電力線ネットワーク、ローカルエリアネットワーク、広域ネットワーク、及び/またはプライベートネットワークなどを含む任意の種類の通信ネットワークであり得る。典型的な実施形態では、ビデオストリームは、TCP/IPまたはUDP/IPなどの標準プロトコルを介して通信される。代替として、ビデオストリームは、独自の規格を介して通信される。
クライアント1010の典型的な例には、プロセッサと、不揮発性メモリと、ディスプレイと、復号化ロジックと、ネットワーク通信機能と、入力デバイスとを備えるパーソナルコンピュータが挙げられる。復号化ロジックには、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体に格納されたソフトウェアが含まれ得る。ビデオストリームを復号化(及び符号化)するシステムは、当技術分野において周知のものであり、使用される特定の符号化方式に応じて異なる。
クライアント1010は、必須ではないが、受信したビデオを修正するように構成されたシステムを、さらに含み得る。例えば、クライアントは、1つのビデオを別のビデオ上に重ね合わせる、かつ/またはビデオを切り取るなど、さらなるレンダリングを実行するように構成され得る。例えば、クライアント1010は、Iフレーム、Pフレーム、及びBフレームなどの様々な種類のビデオフレームを受信し、これらのフレームを処理して、ユーザに表示するための画像にするように構成され得る。いくつかの実施形態では、クライアント1010のメンバは、ビデオストリームに対しさらなるレンダリング、シェーディング、または3Dへの変換などの動作を実行するように構成されている。クライアント1010のメンバは任意選択的に、1つより多いオーディオストリームまたはビデオストリームを受信するように構成されている。クライアント1010の入力デバイスには、例えば、片手用ゲームコントローラ、両手用ゲームコントローラ、ジェスチャ認識システム、視線認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、フォースフィードバックデバイス、動作及び/または位置感知デバイス、マウス、タッチスクリーン、ニューラルインターフェース、カメラ、ならびに/または開発中の入力デバイスなどが含まれ得る。
クライアント1010が受信するビデオストリーム(及び任意でオーディオストリーム)は、ビデオサーバシステム1020によって生成かつ提供される。本明細書の別の箇所でさらに説明されるように、このビデオストリームは、ビデオフレームを含む(オーディオストリームは、オーディオフレームを含む)。ビデオフレームは、ユーザに表示される画像に有意義に寄与するように構成されている(例えば、ビデオフレームは、適切なデータ構造の画素情報を含む)。本明細書で使用される用語「ビデオフレーム」は、ユーザに示される画像に寄与する、例えば作用するように構成された情報を主に含むフレームを指すのに使用される。「ビデオフレーム」に関する本明細書の教示のほとんどは、「オーディオフレーム」にも適用することができる。
クライアント1010は通常、ユーザからの入力を受信するように構成されている。これらの入力は、ビデオゲームの状態を変化させるまたは他の方法でゲームプレイに影響を与えるように構成されているゲームコマンドを含み得る。ゲームコマンドは、入力デバイスを使用して受信することができ、かつ/またはクライアント1010上で実行されるコンピューティング命令により自動的に生成され得る。受信されたゲームコマンドは、ネットワーク1015を介してクライアント1010から、ビデオサーバシステム1020及び/またはゲームサーバ1025へ通信される。例えば、いくつかの実施形態では、ゲームコマンドは、ビデオサーバシステム1020を介してゲームサーバ1025へ通信される。いくつかの実施形態では、ゲームコマンドの別個の複製が、クライアント1010から、ゲームサーバ1025及びビデオサーバシステム1020へ通信される。ゲームコマンドの通信は、任意選択的に、コマンドの識別に依存する。ゲームコマンドは、任意選択的に、クライアント1010Aにオーディオストリームまたはビデオストリームを提供するために使用される経路または通信チャネルとは異なる経路または通信チャネルを介して、クライアント1010Aから通信される。
ゲームサーバ1025は、任意選択的に、ビデオサーバシステム1020とは異なるエンティティにより運用される。例えば、ゲームサーバ1025は、マルチプレーヤゲームの発行者により運用され得る。この例では、ビデオサーバシステム1020は、任意選択的に、ゲームサーバ1025によりクライアントとして見られ、任意選択的に、ゲームサーバ1025の視点から、従来技術のゲームエンジンを実行する従来技術のクライアントに見えるように構成されている。ビデオサーバシステム1020とゲームサーバ1025の通信は、任意選択的に、ネットワーク1015を介して生じる。このようにして、ゲームサーバ1025は、ゲームサーバシステム1020を含む複数のクライアントにゲーム状態情報を送信する従来技術のマルチプレーヤゲームサーバであり得る。ビデオサーバシステム1020は、ゲームサーバ1025の複数のインスタンスと同時に通信するように構成され得る。例えば、ビデオサーバシステム1020は、異なるユーザに複数の異なるビデオゲームを提供するように構成され得る。これらの異なるビデオゲームのそれぞれは、異なるゲームサーバ1025によりサポートされ得る、かつ/または、異なるエンティティにより発行され得る。いくつかの実施形態では、ビデオサーバシステム1020のいくつかの地理的に分散されたインスタンスは、複数の異なるユーザにゲームビデオを提供するように構成されている。ビデオサーバシステム1020のこれらのインスタンスのそれぞれは、ゲームサーバ1025の同じインスタンスと通信し得る。ビデオサーバシステム1020と1つ以上のゲームサーバ1025の間の通信は、任意選択的に、専用通信チャネルを介して生じる。例えば、ビデオサーバシステム1020は、ゲームサーバ1025に、これらの2つのシステム間の通信専用の高帯域幅チャネルを介して接続され得る。
ビデオサーバシステム1020は、少なくとも、ビデオソース1030と、I/Oデバイス1045と、プロセッサ1050と、非一時的ストレージ1055とを備える。ビデオサーバシステム1020は、1つのコンピューティングデバイスを含み得る、または、複数のコンピューティングデバイスに分散され得る。これらのコンピューティングデバイスは、任意選択的に、ローカルエリアネットワークなどの通信システムを介して接続される。
ビデオソース1030は、例えばストリーミングビデオ、または動画を形成する一連のビデオフレームといった、ビデオストリームを提供するように構成されている。いくつかの実施形態では、ビデオソース1030は、ビデオゲームエンジン及びレンダリングロジックを含む。ビデオゲームエンジンは、プレーヤからゲームコマンドを受信し、受信したコマンドに基づいてビデオゲームの状態の複製を保持するように構成されている。このゲーム状態は、ゲーム環境内のオブジェクトの位置、並びに通常は視点を含む。ゲーム状態はまた、オブジェクトの特性、画像、色、及び/またはテクスチャも含み得る。
ゲーム状態は通常、ゲーム規則、ならびに、移動、方向転換、攻撃、焦点の設定、インタラクション、及び/または使用などのゲームコマンドに基づいて保持される。ゲームエンジンの一部は、任意選択的に、ゲームサーバ1025内に配置される。ゲームサーバ1025は、地理的分散クライアントを使用して複数のプレーヤから受信したゲームコマンドに基づいて、ゲームの状態の複製を保持し得る。これらの場合、ゲーム状態は、ゲームサーバ1025によりビデオソース1030に提供され、ゲーム状態の複製が格納され、レンダリングが行われる。ゲームサーバ1025は、ネットワーク1015を介して直接クライアント1010からゲームコマンドを受信してもよく、かつ/または、ビデオサーバシステム1020を介してゲームコマンドを受信してもよい。
ビデオソース1030は通常、レンダリングロジック、例えば、ハードウェア、ファームウェア、及び/またはストレージ1055などのコンピュータ可読媒体に格納されたソフトウェアを含む。このレンダリングロジックは、ゲーム状態に基づいて、ビデオストリームのビデオフレームを作成するように構成されている。レンダリングロジックの全てまたは一部は、任意選択的に、グラフィック処理ユニット(GPU)内に配置される。レンダリングロジックは通常、ゲーム状態及び視点に基づいて、オブジェクト間の3次元空間的関係を判定するように、かつ/または適切なテクスチャなどを適用するように構成された処理段階を含む。レンダリングロジックは、未加工ビデオを生成し、次いで未加工ビデオは、通常、クライアント1010へ通信される前に符号化される。例えば、未加工ビデオは、Adobe Flash(登録商標)規格、.wav、H.264、H.263、On2、VP6、VC‐1、WMA、Huffyuv、Lagarith、MPG‐x.Xvid.FFmpeg、x264、VP6−8、realvideo、またはmp3などにしたがって、符号化され得る。符号化プロセスは、リモートデバイス上のデコーダに配信するために任意選択的にパッケージ化されたビデオストリームを生成する。ビデオストリームは、フレームサイズ及びフレームレートによって特徴付けられる。典型的なフレームサイズには、800×600、1280×720(例えば720p)、1024×768が挙げられるが、任意の他のフレームサイズも使用されてもよい。フレームレートは、1秒あたりのビデオフレームの数である。ビデオストリームは、様々な種類のビデオフレームを含み得る。例えば、H.264規格は、「P」フレーム及び「I」フレームを含む。Iフレームは、ディスプレイデバイス上の全てのマクロブロック/画素を更新する情報を含み、一方、Pフレームは、そのサブセットを更新する情報を含む。Pフレームは通常、Iフレームよりデータサイズが小さい。本明細書において使用される用語「フレームサイズ」は、フレーム内の画素数を指すことを意味する。用語「フレームデータサイズ」は、フレームを格納するのに必要なバイト数を指すために使用される。
他の実施形態では、ビデオソース1030は、カメラなどの映像記録デバイスを含む。このカメラを使用して、コンピュータゲームのビデオストリームに含めることができる遅延映像またはライブ映像が生成され得る。結果得られるビデオストリームには、レンダリングされた画像と、スチルカメラまたはビデオカメラを使用して記録された画像との両方が、任意で含まれる。ビデオソース1030はまた、ビデオストリームに含めるために事前に記録したビデオを格納するように構成されたストレージデバイスも含み得る。ビデオソース1030はまた、例えば人といったオブジェクトの動作または位置を検出するように構成された動作または位置感知デバイスと、検出された動作及び/または位置に基づいてゲーム状態の判定またはビデオの生成を行うように構成されたロジックとを含み得る。
ビデオソース1030は、任意選択的に、他のビデオ上に配置されるように構成されたオーバーレイを提供するように構成されている。例えば、これらのオーバーレイには、コマンドインターフェース、ログイン指示、ゲームプレーヤへのメッセージ、他のゲームプレーヤの画像、他のゲームプレーヤの映像配信(例えばウェブカメラ映像)が含まれ得る。クライアント1010Aがタッチスクリーンインターフェースまたは視線検出インターフェースを含む実施形態では、オーバーレイには、仮想キーボード、ジョイスティック、及び/またはタッチパッドなどが含まれ得る。オーバーレイの一例では、プレーヤの声がオーディオストリームにオーバーレイされる。ビデオソース1030は任意選択的に、1つ以上のオーディオ源をさらに含む
ビデオサーバシステム1020が複数のプレーヤからの入力に基づいてゲーム状態を維持するように構成された実施形態では、ビューの位置及び方向を含む視点は、各プレーヤで異なり得る。ビデオソース1030は、任意選択的に、各プレーヤの視点に基づいて、別個のビデオストリームを各プレーヤに提供するように構成されている。さらに、ビデオソース1030は、クライアント1010のそれぞれに、異なるフレームサイズ、フレームデータサイズ、及び/または符号化を提供するように構成され得る。ビデオソース1030は、任意選択的に、3−Dビデオを提供するように構成されている。
I/Oデバイス1045は、ビデオサーバシステム1020が、ビデオ、コマンド、情報要求、ゲーム状態、視線情報、デバイス動作、デバイス位置、ユーザ動作、クライアント識別、プレーヤ識別、ゲームコマンド、セキュリティ情報、及び/またはオーディオなどの情報を、送信かつ/または受信するように構成されている。I/Oデバイス1045は通常、ネットワークカードまたはモデムなどの通信ハードウェアを含む。I/Oデバイス1045は、ゲームサーバ1025、ネットワーク1015、及び/またはクライアント1010と通信するように構成されている。
プロセッサ1050は、本明細書で論述されるビデオサーバシステム1020の様々な構成要素内に含まれるロジック、例えばソフトウェアを実行するように構成されている。例えば、プロセッサ1050は、ビデオソース1030、ゲームサーバ1025、及び/またはクライアントクオリファイア1060の機能を実行するために、ソフトウェア命令でプログラムされ得る。ビデオサーバシステム1020は、任意選択的に、プロセッサ1050の複数のインスタンスを含む。プロセッサ1050はまた、ビデオサーバシステム1020が受信したコマンドを実行するために、または、本明細書において論述されるゲームシステム1000の様々な要素の動作を調整するように、ソフトウェア命令でプログラムされ得る。プロセッサ1050は、1つ以上のハードウェアデバイスを含み得る。プロセッサ1050は、電子プロセッサである。
ストレージ1055は、非一時的なアナログ及び/またはデジタルのストレージデバイスを含む。例えば、ストレージ1055は、ビデオフレームを格納するように構成されたアナログストレージデバイスを含み得る。ストレージ1055は、例えばハードドライブ、光学ドライブ、またはソリッドステートストレージといったコンピュータ可読デジタルストレージを含み得る。ストレージ1055は、ビデオフレーム、人工フレーム、ビデオフレームと人工フレームの両方を含むビデオストリーム、オーディオフレーム、及び/またはオーディオストリームなどを(例えば適切なデータ構造またはファイルシステムで)格納するように構成されている。ストレージ1055は、任意選択的に、複数のデバイスに分散される。いくつかの実施形態では、ストレージ1055は、本明細書の別の箇所で論述されるビデオソース1030のソフトウェア構成要素を格納するように構成されている。これらの構成要素は、必要に応じてすぐに提供できる形式で格納され得る。
ビデオサーバシステム1020は、任意選択的に、クライアントクオリファイア1060をさらに備える。クライアントクオリファイア1060は、クライアント1010Aまたは1010Bなどのクライアントの機能をリモートで判定するように構成されている。これらの機能には、クライアント1010A自体の機能、ならびにクライアント1010Aとビデオサーバシステム1020の間の1つ以上の通信チャネルの機能の両方が含まれ得る。例えば、クライアントクオリファイア1060は、ネットワーク1015を介して、通信チャネルをテストするように構成され得る。
クライアントクオリファイア1060は、手動または自動で、クライアント1010Aの機能を判定(例えば発見)することができる。手動判定は、クライアント1010Aのユーザと通信して、ユーザに機能を提供するように依頼することを含む。例えば、いくつかの実施形態では、クライアントクオリファイア1060は、クライアント1010Aのブラウザ内に画像及び/またはテキストなどを表示するように構成されている。一実施形態では、クライアント1010Aは、ブラウザを含むHMDである。別の実施形態では、クライアント1010Aは、HMD上に表示され得るブラウザを有するゲーム機である。表示されるオブジェクトは、ユーザに、クライアント1010Aのオペレーティングシステム、プロセッサ、ビデオデコーダの種類、ネットワーク接続の種類、ディスプレイの解像度などの情報を入力するように要求する。ユーザにより入力された情報は、クライアントクオリファイア1060へ返信される。
自動判定は、例えば、クライアント1010A上でエージェントを実行することにより、かつ/またはクライアント1010Aにテストビデオを送信することにより、行われ得る。エージェントは、ウェブページに埋め込まれた、またはアドオンとしてインストールされたジャバスクリプトなどのコンピューティング命令を含み得る。エージェントは、任意選択的に、クライアントクオリファイア1060により提供される。様々な実施形態では、エージェントは、クライアント1010Aの処理機能、クライアント1010Aの復号化及び表示機能、クライアント1010Aとビデオサーバシステム1020の間の通信チャネルの遅延時間信頼性及び帯域幅、クライアント1010Aのディスプレイの種類、クライアント1010A上に存在するファイアウォール、クライアント1010Aのハードウェア、クライアント1010A上で実行されるソフトウェア、及び/またはクライアント1010A内のレジストリエントリなどを、明らかにすることができる。
クライアントクオリファイア1060は、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体に格納されたソフトウェアを含む。クライアントクオリファイア1060は、任意選択的に、ビデオサーバシステム1020の1つ以上の他の要素とは別個のコンピューティングデバイス上に配置される。例えば、いくつかの実施形態では、クライアントクオリファイア1060は、クライアント1010とビデオサーバシステム1020の複数のインスタンスの間の通信チャネルの特性を判定するように構成されている。これらの実施形態では、クライアントクオリファイアが発見した情報を使用して、クライアント1010のうちの1つにストリーミングビデオを配信するのに最適なビデオサーバシステム1020のインスタンスを判定することができる。
特定の実施形態は、ディスプレイ上の標的着地点を予測かつ更新することにより、ユーザの眼(複数可)の運動が、更新された標的着地点におけるディスプレイ上の中心窩領域の提示と一致することを明示するために提供されているが、これらは、限定ではなく例として説明されている。本開示を読んだ当業者は、本開示の趣旨及び範囲に含まれる追加の実施形態を実現するであろう。
本明細書で定義される様々な実施形態は、本明細書で開示される様々な特徴を使用する特定の実装例に組み合わされ得る、または組み立てられ得ることを、理解すべきである。したがって、提供される実施例は、いくつかの可能な例にすぎず、様々な要素を組み合わせることでより多くの実装例を定義することが可能な様々な実装例に限定されない。いくつかの例では、いくつかの実装例は、開示されたまたは同等の実装例の趣旨から逸脱することなく、より少ない要素を含んでいてもよい。
本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースのまたはプログラム可能な一般消費者向け電気製品、小型コンピュータ、及びメインフレームコンピュータなどを含む様々なコンピュータシステム構成により実施され得る。本開示の実施形態はまた、有線ベースまたは無線のネットワークを介してリンクされるリモート処理デバイスによりタスクが行われる分散型コンピューティング環境においても、実施することができる。
前述の実施形態を念頭に置いて、本開示の実施形態は、コンピュータシステムに格納されたデータを伴う様々なコンピュータ実装動作を用い得ることを、理解すべきである。これらの動作は、物理量の物理的操作を要する動作である。本開示の実施形態の一部を形成する、本明細書で説明される動作のうちのいずれも、有用な機械動作である。開示の実施形態はまた、これらの動作を実行するためのデバイスまたは装置に関する。装置は、必要な目的のために特別に構築され得る、または装置は、コンピュータに格納されたコンピュータプログラムにより選択的に有効化または構成される汎用コンピュータであり得る。具体的には、様々な汎用機械を、本明細書の教示にしたがって書かれたコンピュータプログラムと共に使用することができる、または、必要な動作を実行するためにさらに特化した装置を構築するほうがより便利であり得る。
開示は、コンピュータ可読媒体上のコンピュータ可読コードとして具体化することもできる。コンピュータ可読媒体は、データを記憶することができ、その後コンピュータシステムによって読み取ることができる任意のデータ記憶デバイスである。コンピュータ可読媒体の例には、ハードドライブ、ネットワーク接続ストレージ(NAS)、読み取り専用メモリ、ランダムアクセスメモリ、CD‐ROM、CD‐R、CD‐RW、磁気テープ、ならびに他の光学式データ記憶デバイス及び非光学式データ記憶デバイスが含まれる。コンピュータ可読媒体には、コンピュータ可読コードが分散方式で格納かつ実行されるように、ネットワーク接続されたコンピュータシステム上に分散されたコンピュータ可読有形媒体が含まれ得る。
以上のように方法や動作を特定の順序で説明したが、オーバーレイ動作の処理が所望の方法で実行される限り、動作間に他の維持管理動作が実行されてもよく、または動作がわずかに異なる時間に起こるように調整されてもよく、またはシステム内に動作を分散することで、様々な処理関連間隔で処理動作が起こることを可能にしてもよいことを、理解すべきである。
前述の開示は、理解を明確にするためにある程度詳細に説明されたが、添付の特許請求の範囲内で特定の変更及び修正を実施できることは明らかであろう。したがって、本実施形態は、限定ではなく例示としてみなされるべきであり、本開示の実施形態は、本明細書に提供される詳細に限定されるものではなく、添付の特許請求の範囲内及び均等物内で変更されてもよい。

Claims (26)

  1. ヘッドマウントディスプレイ(HMD)における眼球運動を予測する方法であって、
    複数のサンプル点で、前記HMDに配置されている視線追跡システムを使用してユーザの眼球運動を追跡し、
    前記追跡に基づいて前記運動の速度を判定し、
    前記速度が閾値速度に達したとき、前記ユーザの前記眼がサッカードにあると判定し、
    前記サッカードにおける前記眼の方向に対応する、前記HMDの前記ディスプレイ上の着地点を予測する、方法。
  2. 更に、前記ディスプレイ上の前記着地点を中心とする中心窩領域を有する第1のビデオフレームを表示するためにレンダリングし、
    前記HMDの前記ディスプレイ上に前記中心窩領域を有する前記第1のビデオフレームを提示し、前記眼は、前記第1のビデオフレームを表示するとき、前記着地点に向けられると予測される、請求項1に記載の方法。
  3. 更に、前記サッカード中に、少なくとも1つのビデオフレームであって前記第1のビデオフレームの前にレンダリングされるもののレンダリングを終了する、請求項2に記載の方法。
  4. 更に、前記サッカード中に、少なくとも1つのビデオフレームであって前記第1のビデオフレームの前にレンダリングされるものを低解像度でレンダリングする、請求項2に記載の方法。
  5. 前記着地点の前記予測では、
    第1のサンプル点において、前記第1のサンプル点及び少なくとも1つの前のサンプル点を含むサンプル点の第1のセットの眼の向きのデータに基づいて、第1の着地点を予測し、前記眼の向きのデータは、前記HMDに関する眼の方向を含むものであり、
    前記サッカードにおける前記第1のサンプル点に続く第2のサンプル点において、前記第2のサンプル点及び少なくとも1つの前のサンプル点を含むサンプル点の第2のセットの眼の向きのデータに基づいて、第2の着地点を予測することによって、前記着地点を更新する、請求項1に記載の方法。
  6. 前記着地点の前記予測では、
    サンプル点のセットに対する前記眼球運動を追跡するとき眼の向きのデータを収集し、前記眼の向きのデータは、前記HMDに関する眼の方向を含み、前記セットのうちの少なくとも1つのサンプル点は前記サッカード中に発生するものであり、
    前記サンプル点のセットに対する前記眼の向きのデータを、被験者の複数のサッカードの眼の向きのデータに関してトレーニングされたリカレントニューラルネットワークに、入力として提供し、
    前記リカレントニューラルネットワークにおいて、前記サンプル点のセットに対する前記眼の向きのデータから構築された眼の速度グラフの一部を、被験者の前記複数のサッカードから構築された眼の速度グラフと比較し、
    前記リカレントニューラルネットワークにおいて前記着地点を判定する、請求項1に記載の方法。
  7. 前記着地点が、前記サッカードの終わりに発生し、前記眼の凝視方向に対応する、請求項6に記載の方法。
  8. 前記着地点が、前記サッカードの中間点で発生し、前記眼の中間方向に対応する、請求項6に記載の方法。
  9. 前記リカレントニューラルネットワークが、
    長短期記憶ニューラルネットワークと、
    全結合された多層パーセプトロンネットワークと、を備える、請求項6に記載の方法。
  10. 前記速度の判定には、
    2つのサンプル点からの第1の眼の方向および第2の眼の方向に基づいて前記眼の速度を判定することが含まれる、請求項1に記載の方法。
  11. コンピュータシステムであって、
    プロセッサと、
    前記プロセッサに結合されて、前記コンピュータシステムによって実行された場合に、前記コンピュータシステムに、ヘッドマウントディスプレイ(HMD)における眼球運動を予測する方法を実行させる命令が格納されたメモリと、を有し、前記方法は、
    複数のサンプル点で、前記HMDに配置されている視線追跡システムを使用してユーザの眼球運動を追跡し、
    前記追跡に基づいて前記運動の速度を判定し、
    前記速度が閾値速度に達したとき、前記ユーザの前記眼がサッカードにあると判定し、
    前記サッカードにおける前記眼の方向に対応する、前記HMDの前記ディスプレイ上の着地点を予測する、コンピュータシステム。
  12. 前記方法は、さらに、
    前記ディスプレイ上の前記着地点を中心とする中心窩領域を有する第1のビデオフレームを表示するためにレンダリングし、
    前記HMDの前記ディスプレイ上に前記中心窩領域を有する前記第1のビデオフレームを提示し、前記眼は、前記第1のビデオフレームを表示するとき、前記着地点に向けられると予測されるものである、請求項11に記載のコンピュータシステム。
  13. 前記方法は、さらに、
    前記サッカード中に、少なくとも1つのビデオフレームであって前記第1のビデオフレームの前にレンダリングされるもののレンダリングを終了する、請求項12に記載のコンピュータシステム。
  14. 前記方法は、さらに、
    前記サッカード中に、少なくとも1つのビデオフレームであって前記第1のビデオフレームの前にレンダリングされるものを低解像度でレンダリングする、請求項12に記載のコンピュータシステム。
  15. 前記方法において、前記着地点の前記予測では、
    第1のサンプル点において、前記第1のサンプル点及び少なくとも1つの前のサンプル点を含むサンプル点の第1のセットの眼の向きのデータに基づいて、第1の着地点を予測し、前記眼の向きのデータは、前記HMDに関する眼の方向を含むものであり、
    前記サッカードにおける前記第1のサンプル点に続く第2のサンプル点において、前記第2のサンプル点及び少なくとも1つの前のサンプル点を含むサンプル点の第2のセットの眼の向きのデータに基づいて、第2の着地点を予測することによって、前記着地点を更新する、請求項11に記載のコンピュータシステム。
  16. 前記方法において、前記着地点の前記予測では、
    サンプル点のセットに対する前記眼球運動を追跡するとき眼の向きのデータを収集し、前記眼の向きのデータは、前記HMDに関する眼の方向を含み、前記セットのうちの少なくとも1つのサンプル点は前記サッカード中に発生するものであり、
    前記サンプル点のセットに対する前記眼の向きのデータを、被験者の複数のサッカードの眼の向きのデータに関してトレーニングされたリカレントニューラルネットワークに入力として提供し、
    前記リカレントニューラルネットワークにおいて、前記サンプル点のセットに対する前記眼の向きのデータから構築された眼の速度グラフの一部を、被験者の前記複数のサッカードから構築された眼の速度グラフと比較し、
    前記リカレントニューラルネットワークにおいて前記着地点を判定する、請求項11に記載のコンピュータシステム。
  17. 前記方法において、
    前記着地点が、前記サッカードの終わりに発生し、前記眼の凝視方向に対応する、請求項16に記載のコンピュータシステム。
  18. 前記方法において、前記リカレントニューラルネットワークが、
    長短期記憶ニューラルネットワークと、
    全結合された多層パーセプトロンネットワークと、を備える、請求項16に記載のコンピュータシステム。
  19. 予測のためのコンピュータプログラムを格納する非一時的なコンピュータ可読媒体であって、
    複数のサンプル点で、HMDに配置されている視線追跡システムを使用してユーザの眼球運動を追跡するためのプログラム命令と、
    前記追跡に基づいて前記運動の速度を判定するためのプログラム命令と、
    前記速度が閾値速度に達したとき、前記ユーザの前記眼がサッカードにあると判定するためのプログラム命令と、
    前記サッカードにおける前記眼の方向に対応する、前記HMDの前記ディスプレイ上の着地点を予測するためのプログラム命令と、を有する、コンピュータ可読媒体。
  20. 前記ディスプレイ上の前記着地点を中心とする中心窩領域を有する第1のビデオフレームを表示するためにレンダリングし、
    前記HMDの前記ディスプレイ上に前記中心窩領域を有する前記第1のビデオフレームを提示し、前記眼は、前記第1のビデオフレームを表示するとき、前記着地点に向けられると予測されるものである、請求項19に記載のコンピュータ可読媒体。
  21. 更に、前記サッカード中に、少なくとも1つのビデオフレームのレンダリングであって前記第1のビデオフレームの前にレンダリングされるものを終了する、請求項20に記載のコンピュータ可読媒体。
  22. 更に、前記サッカード中に、少なくとも1つのビデオフレームであって前記第1のビデオフレームの前にレンダリングされるものを低解像度でレンダリングする、請求項20に記載のコンピュータ可読媒体。
  23. 前記着地点の前記予測では、
    第1のサンプル点において、前記第1のサンプル点及び少なくとも1つの前のサンプル点を含むサンプル点の第1のセットの眼の向きのデータに基づいて、第1の着地点を予測し、前記眼の向きのデータは、前記HMDに関する眼の方向を含むものであり、
    前記サッカードにおける前記第1のサンプル点に続く第2のサンプル点において、前記第2のサンプル点及び少なくとも1つの前のサンプル点を含むサンプル点の第2のセットの眼の向きのデータに基づいて、第2の着地点を予測することによって、前記着地点を更新する、請求項19に記載のコンピュータ可読媒体。
  24. 前記着地点の前記予測では、
    サンプル点のセットに対する前記眼球運動を追跡するとき眼の向きのデータを収集し、前記眼の向きのデータは、前記HMDに関する眼の方向を含み、前記セットのうちの少なくとも1つのサンプル点は前記サッカード中に発生するものであり、
    前記サンプル点のセットに対する前記眼の向きのデータを、被験者の複数のサッカードの眼の向きのデータに関してトレーニングされたリカレントニューラルネットワークに入力として提供し、
    前記リカレントニューラルネットワークにおいて、前記サンプル点のセットに対する前記眼の向きのデータから構築された眼の速度グラフの一部を、被験者の前記複数のサッカードから構築された眼の速度グラフと比較し、
    前記リカレントニューラルネットワークにおいて前記着地点を判定する、請求項19に記載のコンピュータ可読媒体。
  25. 前記着地点が、前記サッカードの終わりに発生し、前記眼の凝視方向に対応する、請求項24に記載のコンピュータ可読媒体。
  26. 前記リカレントニューラルネットワークが、
    長短期記憶ニューラルネットワークと、
    全結合された多層パーセプトロンネットワークと、を備える、請求項24に記載のコンピュータ可読媒体。
JP2020564320A 2018-05-17 2019-05-07 予測サッカード着地点に基づく動的グラフィックスレンダリング Active JP7164630B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/982,275 US10942564B2 (en) 2018-05-17 2018-05-17 Dynamic graphics rendering based on predicted saccade landing point
US15/982,275 2018-05-17
PCT/US2019/031211 WO2019221980A1 (en) 2018-05-17 2019-05-07 Dynamic graphics rendering based on predicted saccade landing point

Publications (2)

Publication Number Publication Date
JP2021524102A true JP2021524102A (ja) 2021-09-09
JP7164630B2 JP7164630B2 (ja) 2022-11-01

Family

ID=66669076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020564320A Active JP7164630B2 (ja) 2018-05-17 2019-05-07 予測サッカード着地点に基づく動的グラフィックスレンダリング

Country Status (5)

Country Link
US (3) US10942564B2 (ja)
EP (1) EP3794427A1 (ja)
JP (1) JP7164630B2 (ja)
CN (1) CN112400150A (ja)
WO (1) WO2019221980A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110324601A (zh) * 2018-03-27 2019-10-11 京东方科技集团股份有限公司 渲染方法、计算机产品及显示装置
WO2020023399A1 (en) * 2018-07-23 2020-01-30 Magic Leap, Inc. Deep predictor recurrent neural network for head pose prediction
US11119549B2 (en) * 2018-10-30 2021-09-14 Advanced Micro Devices, Inc. Machine intelligence performance boost with energy reservoir
US10706631B2 (en) * 2018-10-31 2020-07-07 Advanced Micro Devices, Inc. Image generation based on brain activity monitoring
US10926177B2 (en) * 2019-03-15 2021-02-23 Sony Interactive Entertainment Inc. Systems and methods for predicting states by using a distributed game engine
US11579688B2 (en) * 2019-06-28 2023-02-14 Canon Kabushiki Kaisha Imaging display device and wearable device
US20220146822A1 (en) * 2019-08-15 2022-05-12 Ostendo Technologies, Inc. Wearable Display Systems and Design Methods Thereof
US11662807B2 (en) * 2020-01-06 2023-05-30 Tectus Corporation Eye-tracking user interface for virtual tool control
US11030817B2 (en) * 2019-11-05 2021-06-08 Varjo Technologies Oy Display system and method of using environment map to generate extended-reality images
US11132056B2 (en) 2019-12-04 2021-09-28 Facebook Technologies, Llc Predictive eye tracking systems and methods for foveated rendering for electronic displays
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
US11170678B2 (en) 2020-02-06 2021-11-09 Varjo Technologies Oy Display apparatus and method incorporating gaze-based modulation of pixel values
US11307410B2 (en) 2020-02-06 2022-04-19 Varjo Technologies Oy Display apparatus and method incorporating adaptive pose locking
WO2021156548A1 (en) * 2020-02-06 2021-08-12 Varjo Technologies Oy Display apparatus and method incorporating adaptive pose locking
US11308900B2 (en) 2020-02-06 2022-04-19 Varjo Technologies Oy Display apparatus and method incorporating sub-pixel aware shifting and overlap compensation
US11348514B2 (en) 2020-02-06 2022-05-31 Varjo Technologies Oy LED-based display apparatus and method incorporating sub-pixel shifting
GB2595461B (en) * 2020-05-26 2023-06-07 Sony Interactive Entertainment Inc Gaze tracking apparatus and systems
US11119314B1 (en) * 2020-07-17 2021-09-14 Synapcis Inc. Apparatus and method for mitigating motion sickness through cyclical object projection in digital space
CN111949131B (zh) * 2020-08-17 2023-04-25 陈涛 一种基于眼动追踪技术的眼动交互方法、系统及设备
WO2022066341A1 (en) * 2020-09-22 2022-03-31 Sterling Labs Llc Attention-driven rendering for computer-generated objects
WO2022084420A1 (de) * 2020-10-20 2022-04-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum kontrollieren eines computerprogramms und computerprogrammprodukt
US11449138B1 (en) * 2021-01-09 2022-09-20 Meta Platforms Technologies, Llc Saccade-based positioning for radial user interface
US11625095B2 (en) * 2021-01-22 2023-04-11 Zinn Labs, Inc. Gaze sensors and display elements for detection of gaze vectors and user control at headset
WO2022250683A1 (en) * 2021-05-28 2022-12-01 Google Llc Machine learning based forecasting of human gaze
TW202315398A (zh) * 2021-08-05 2023-04-01 美商元平台技術有限公司 用於預測凝視距離的光學系統和方法
US20230037329A1 (en) * 2021-08-05 2023-02-09 Meta Platforms Technologies, Llc Optical systems and methods for predicting fixation distance
KR102628667B1 (ko) * 2021-09-23 2024-01-24 그리다텍 주식회사 태양계 공전 시스템을 모사한 vr 인터페이스 시스템
CN114022642B (zh) * 2021-10-08 2022-07-19 北京津发科技股份有限公司 时空行为轨迹采集、生成方法、装置、设备、系统及存储介质
US20230381645A1 (en) * 2022-05-27 2023-11-30 Sony Interactive Entertainment LLC Methods and systems to activate selective navigation or magnification of screen content
US20230410405A1 (en) * 2022-06-17 2023-12-21 Inseye Inc. Minimal latency apparatus and method for supporting foveated rendering

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6120461A (en) * 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
JP2008233765A (ja) * 2007-03-23 2008-10-02 Toshiba Corp 画像表示装置および画像表示方法
US20170090562A1 (en) * 2015-09-24 2017-03-30 Tobii Ab Eye-tracking enabled wearable devices
JP2017526078A (ja) * 2014-05-09 2017-09-07 グーグル インコーポレイテッド 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法
US20170287112A1 (en) * 2016-03-31 2017-10-05 Sony Computer Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5726916A (en) * 1996-06-27 1998-03-10 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for determining ocular gaze point of regard and fixation duration
US20030067476A1 (en) 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
US7809145B2 (en) 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US7783061B2 (en) 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US20080188777A1 (en) 2004-09-03 2008-08-07 Canadian Space Agency System and Method For Mental Workload Measurement Based on Rapid Eye Movement
WO2007070853A2 (en) 2005-12-14 2007-06-21 Digital Signal Corporation System and method for tracking eyeball motion
US20110298829A1 (en) 2010-06-04 2011-12-08 Sony Computer Entertainment Inc. Selecting View Orientation in Portable Device via Image Analysis
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
EP2235713A4 (en) 2007-11-29 2012-04-25 Oculis Labs Inc METHOD AND APPARATUS FOR SECURE VISUAL CONTENT DISPLAY
CN101681201B (zh) 2008-01-25 2012-10-17 松下电器产业株式会社 脑波接口系统、脑波接口装置、方法
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
WO2011008793A1 (en) 2009-07-13 2011-01-20 Emsense Corporation Systems and methods for generating bio-sensory metrics
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US8913004B1 (en) 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
US9421460B2 (en) 2010-08-31 2016-08-23 Sony Interactive Entertainment Inc. Offline Progress of console game via portable device
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US8786698B2 (en) 2010-09-23 2014-07-22 Sony Computer Entertainment Inc. Blow tracking user interface system and method
US9183683B2 (en) 2010-09-28 2015-11-10 Sony Computer Entertainment Inc. Method and system for access to secure resources
US8854298B2 (en) 2010-10-12 2014-10-07 Sony Computer Entertainment Inc. System for enabling a handheld device to capture video of an interactive application
US20120086630A1 (en) 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
US9044675B2 (en) 2010-11-17 2015-06-02 Sony Computer Entertainment Inc. Automated video game rating
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US10463248B2 (en) * 2011-03-02 2019-11-05 Brien Holden Vision Institute Limited Systems, methods, and devices for measuring eye movement and pupil response
US9030425B2 (en) 2011-04-19 2015-05-12 Sony Computer Entertainment Inc. Detection of interaction with virtual object from finger color change
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US9897805B2 (en) 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
KR101891786B1 (ko) 2011-11-29 2018-08-27 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
US8824779B1 (en) 2011-12-20 2014-09-02 Christopher Charles Smyth Apparatus and method for determining eye gaze from stereo-optic views
JP6096276B2 (ja) 2012-04-12 2017-03-15 インテル コーポレイション 視線追跡に基づくディスプレイの選択的バックライト
US20130279724A1 (en) 2012-04-19 2013-10-24 Sony Computer Entertainment Inc. Auto detection of headphone orientation
JP2014029448A (ja) 2012-07-31 2014-02-13 Toshiba Corp 液晶モジュール及び液晶表示装置
US20140092006A1 (en) 2012-09-28 2014-04-03 Joshua Boelter Device and method for modifying rendering based on viewer focus area from eye tracking
US10231614B2 (en) 2014-07-08 2019-03-19 Wesley W. O. Krueger Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
US20150213634A1 (en) 2013-01-28 2015-07-30 Amit V. KARMARKAR Method and system of modifying text content presentation settings as determined by user states based on user eye metric data
US9727991B2 (en) 2013-03-01 2017-08-08 Microsoft Technology Licensing, Llc Foveated image rendering
US9665171B1 (en) 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation
US9965062B2 (en) 2013-06-06 2018-05-08 Microsoft Technology Licensing, Llc Visual enhancements based on eye tracking
US10019057B2 (en) 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US20140362110A1 (en) 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US9468373B2 (en) 2013-09-24 2016-10-18 Sony Interactive Entertainment Inc. Gaze tracking variations using dynamic lighting position
WO2015048030A1 (en) 2013-09-24 2015-04-02 Sony Computer Entertainment Inc. Gaze tracking variations using visible lights or dots
US9781360B2 (en) 2013-09-24 2017-10-03 Sony Interactive Entertainment Inc. Gaze tracking variations using selective illumination
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
KR102180528B1 (ko) 2014-01-06 2020-11-18 삼성전자주식회사 색맹 교정을 위한 전자 장치 및 운영 방법
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US10228562B2 (en) 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
WO2015139002A1 (en) 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
US9652882B2 (en) 2014-04-05 2017-05-16 Sony Interactive Entertainment America Llc Gradient adjustment for texture mapping for multiple render targets with resolution that varies by screen location
US9836816B2 (en) 2014-04-05 2017-12-05 Sony Interactive Entertainment America Llc Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport
US9710957B2 (en) * 2014-04-05 2017-07-18 Sony Interactive Entertainment America Llc Graphics processing enhancement by tracking object and/or primitive identifiers
US20160025971A1 (en) 2014-07-25 2016-01-28 William M. Crow Eyelid movement as user input
US9746984B2 (en) 2014-08-19 2017-08-29 Sony Interactive Entertainment Inc. Systems and methods for providing feedback to a user while interacting with content
US9984505B2 (en) 2014-09-30 2018-05-29 Sony Interactive Entertainment Inc. Display of text information on a head-mounted display
KR102000888B1 (ko) * 2015-08-07 2019-10-01 애플 인크. 이미지들의 스트림을 디스플레이하기 위한 시스템 및 방법
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US10338677B2 (en) 2015-10-28 2019-07-02 Microsoft Technology Licensing, Llc Adjusting image frames based on tracking motion of eyes
US10726619B2 (en) 2015-10-29 2020-07-28 Sony Interactive Entertainment Inc. Foveated geometry tessellation
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US20170293356A1 (en) * 2016-04-08 2017-10-12 Vizzario, Inc. Methods and Systems for Obtaining, Analyzing, and Generating Vision Performance Data and Modifying Media Based on the Vision Performance Data
US11032457B2 (en) * 2016-08-15 2021-06-08 The Regents Of The University Of California Bio-sensing and eye-tracking system
US10643741B2 (en) * 2016-11-03 2020-05-05 RightEye, LLC Systems and methods for a web platform hosting multiple assessments of human visual performance
US11238340B1 (en) * 2016-12-21 2022-02-01 Facebook Technologies, Llc Predictive eyetracking using recurrent neural networks
US20180271364A1 (en) * 2017-03-24 2018-09-27 Osaka University Method and apparatus for detecting ocular movement disorders
CN107194346A (zh) * 2017-05-19 2017-09-22 福建师范大学 一种汽车疲劳驾驶预测方法
US10890968B2 (en) * 2018-05-07 2021-01-12 Apple Inc. Electronic device with foveated display and gaze prediction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6120461A (en) * 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
JP2008233765A (ja) * 2007-03-23 2008-10-02 Toshiba Corp 画像表示装置および画像表示方法
JP2017526078A (ja) * 2014-05-09 2017-09-07 グーグル インコーポレイテッド 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法
US20170090562A1 (en) * 2015-09-24 2017-03-30 Tobii Ab Eye-tracking enabled wearable devices
US20170287112A1 (en) * 2016-03-31 2017-10-05 Sony Computer Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system

Also Published As

Publication number Publication date
US10942564B2 (en) 2021-03-09
US20230044972A1 (en) 2023-02-09
JP7164630B2 (ja) 2022-11-01
US20210191513A1 (en) 2021-06-24
CN112400150A (zh) 2021-02-23
US11474599B2 (en) 2022-10-18
EP3794427A1 (en) 2021-03-24
US11947719B2 (en) 2024-04-02
US20190354173A1 (en) 2019-11-21
WO2019221980A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
JP7164630B2 (ja) 予測サッカード着地点に基づく動的グラフィックスレンダリング
TWI732194B (zh) 用於在hmd環境中利用傳至gpu之預測及後期更新的眼睛追蹤進行快速注視點渲染的方法及系統以及非暫時性電腦可讀媒體
JP6977134B2 (ja) 頭部装着ディスプレイにおける仮想現実(vr)コンテンツの視野(fov)絞り
US20210252398A1 (en) Method and system for directing user attention to a location based game play companion application
EP3177376A2 (en) Sensory stimulus management in head mounted display
US11278810B1 (en) Menu placement dictated by user ability and modes of feedback
JP7249975B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
JP2018190196A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018190397A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20240115940A1 (en) Text message or app fallback during network failure in a video game

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221020

R150 Certificate of patent or registration of utility model

Ref document number: 7164630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150