JP6408629B2 - ヘッドマウントディスプレイでユーザーの動きに応答する画像レンダリング - Google Patents

ヘッドマウントディスプレイでユーザーの動きに応答する画像レンダリング Download PDF

Info

Publication number
JP6408629B2
JP6408629B2 JP2017051072A JP2017051072A JP6408629B2 JP 6408629 B2 JP6408629 B2 JP 6408629B2 JP 2017051072 A JP2017051072 A JP 2017051072A JP 2017051072 A JP2017051072 A JP 2017051072A JP 6408629 B2 JP6408629 B2 JP 6408629B2
Authority
JP
Japan
Prior art keywords
hmd
rendering
region
game
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017051072A
Other languages
English (en)
Other versions
JP2017146607A (ja
Inventor
スタッフォード、ジェフリー、ロジャー
マオ、シャドン
ブラック、グレン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2017146607A publication Critical patent/JP2017146607A/ja
Application granted granted Critical
Publication of JP6408629B2 publication Critical patent/JP6408629B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、ヘッドマウントディスプレイ装置(HMD)の使い易さを改善するための方法に関するもので、より詳細には、HMD内のディスプレイ上に画像をレンダリングするための方法、システム、及びコンピュータプログラムに係るものである。
典型的には、HMDはユーザーの頭部の周りに着用される携帯用デバイスで、眼から短い距離に位置するディスプレイがユーザー対話のための画像を提供するようになっている。いくつかのHMDでは、混合された現実と仮想生活環境を提供し、ユーザーは、一部のリアルライブ画像と共にコンピューティングデバイスが生成した画像を見ることができる。その他のHMDでは、HMDディスプレイ上に仮想世界を提供しながら、ユーザーを外界から遮断する没入型の体験を提供している。
しかし、時としてHMDのコンピューティング能力がディスプレイ上の画像をリフレッシュするのに十分ではないため、ユーザーがHMDの表示を通じて現実世界や仮想世界を見ている間に問題が発生する場合がある。これは、HMDのユーザーに乗り物酔いを引き起こす可能性がある。
必要とされるのは、ユーザーの動きに迅速に対応する画像を提供し、ユーザーにあたかも現実世界を探しているのと同様な感覚の没入感を持たせるために十分なディスプレイ品質を実現するHMDである。
実施形態が生出するのはこの状況からである。
方法、装置、システム、及びコンピュータプログラムは、ヘッドマウントディスプレイ(HMD)上に画像をレンダリングするために提示されている。なお、本実施形態は、方法、装置、システム、デバイス、またはコンピュータ可読媒体上のコンピュータプログラムのような多くの手段で実装することができることを理解すべきである。いくつかの実施形態を以下に説明する。
一実施形態において、この方法は、HMD内部の1つ以上の第一カメラでHMDの動きを追跡するための動作を含む。HMDの動きは、HMDに含まれていない第二のカメラで撮影したHMDの画像を解析することによって追跡される。さらに、方法は、視線とHMDの動きに基づいてユーザーの視線の動きを予測するための動作を含む。HMDによってレンダリングされたビューに画成される複数の領域のためのレンダリング・ポリシーは、視線の予測された動きや軌跡に基づいて判断される。画像は、レンダリング・ポリシーに基づいてHMDによってレンダリングされる。
別の実施形態では、1つ以上のプロセッサによって実行されるときに、ヘッドマウントディスプレイ(HMD)に画像をレンダリングするための非一時的なコンピュータ可読記憶媒体に埋め込まれたコンピュータプログラムが提供される。コンピュータプログラムは、HMD内部の1つ以上の第一カメラでユーザーの視線を追跡するためのプログラム命令を含んでいる。さらに、コンピュータプログラムは、HMDの動きを追跡するためのプログラム命令を含んでいる。運動の追跡は、HMDに含まれていない第二カメラで撮影したHMDの画像を解析することを含んでいる。また、コンピュータプログラムは、視線とHMDの動きに基づいて、ユーザーの視線の動きを予測するためのプログラム命令と、視線の予測された動きに基づいて、HMDよってレンダリングされるビュー上で画成された複数の領域のためのレンダリング・ポリシーを決定するためのプログラム命令を含んでいる。コンピュータプログラムはさらに、レンダリング・ポリシーに基づいてHMDによって画像をレンダリングするためのプログラム命令を含んでいる。
さらに別の実施形態では、ヘッドマウントディスプレイ(HMD)に画像をレンダリングするためのこの方法は、HMDを装着したユーザーの視線を追跡するための動作を含んでいる。さらに方法は、ユーザーの視線に基づいて、HMDによってレンダリングされている複数のゲームオブジェクトの優先順位値を割り当てるための動作を含んでいる。各ゲームオブジェクトのレンダリング優先順位値は、レンダリングの周波数、レンダリングされるゲームオブジェクトの複雑度、ゲームオブジェクトの画質、またはレンダリング解像度の少なくとも1つによって決定される。さらにまた、この方法は、ゲーム内での各ゲームオブジェクトの重要度に基づいて、レンダリング優先順位値を変更するための動作を含んでいる。複数のゲームオブジェクトは、レンダリング優先順位値に応じてHMDによってレンダリングされる。
他の実施態様は、添付の図面と併せて以下の詳細な説明から明らかになるであろう。
実施形態は、添付の図面と併せて以下の説明を参照することによって最もよく理解することができる。
一実施形態によるヘッドマウント装置(HMD)を含む複数のデバイスと対話するユーザーを示している。
一実施形態による画像解析を介したHMDの追跡を示している。
一実施形態によるユーザーの視線を追跡するための内部カメラを備えるHMDを示している。
視覚追跡のための照明ポイントを伴うHMDの実施形態を示している。
一実施形態によるディスプレイのリフレッシングを示している。
一実施形態によるHMDのディスプレイに表示されるゲームシーンを示している。
一実施形態による優先順位レンダリングためのディスプレイ中での領域生成を示している。
本発明の実施形態を実施するために使用することができるデバイスのアーキテクチャーを示している。
一実施形態によるHMDに画像をレンダリングするためのフローチャートである。
本発明の実施形態を実施するために使用することができるハードウェア及びユーザーインタフェースを示している。
本発明の様々な実施形態によるゲームシステムのブロック図である。
以下の実施形態は、ヘッドマウントディスプレイ(HMD)でシーンをレンダリングするための方法、装置、システム、及びコンピュータプログラムについて説明している。なお、本実施形態は、これら特定な細目の一部または全てがなくても実施できることは明らかになるであろう。他の例において、周知のプロセス動作は、不必要に本発明の実施形態を不明瞭にしないために詳細には記載されていない。
図1は、一実施形態に従ったヘッドマウント装置(HMD)を含む複数のデバイスと対話するユーザーを示している。ユーザー114は、ユーザーの眼の近くに画像をレンダリングするディスプレイ110を備えたHMD102を着用している。一実施形態では、画像は3Dでレンダリングされる。
また、本明細書中に提示される実施形態ではHMD102のディスプレイを参照して記載されているが、他の実施形態では、ユーザーの網膜上に画像を投影するなど、他のビューレンダリング方法を使用することができる。
一実施形態では、コンピューティングデバイス106がHMD102上に表示されるゲームを実行する。従って、コンピューティングデバイス106は、ゲームをプレイするための画像を表示するHMD102と協働する。ゲーム動作処理は、コンピューティングデバイス106上で、HMD102上で、或いはコンピューティングデバイス106とHMD102の双方上で行うことができる。別の実施形態では、ゲーム動作の処理は、ネットワーク接続されたゲームサーバ124、または遠隔ゲームサーバ(図示せず)のクラスタによって実行されるが、これらはゲームをプレイするための画像を表示するためにコンピューティングデバイス106及び/またはHMD102と協働する。さらに別の実施形態では、HMD102は、ゲームをプレイするためのゲームサーバ124と協働する。
図1の実施形態では、HMD102は、コンピュータデバイス106と無線通信する(例えば、WiFi(登録商標)、ブルートゥースなど)。他の実施形態(図示せず)では、HMD102はコンピュータデバイス106に直接接続するか、或いはネットワーク(例えば、インターネット)を介して通信することができる。例えば、コンピュータデバイス106は、ゲームサービスを提供するネットワーク上のサーバであってもよい。いくつかの実施形態では、HMDは、自律ゲームプレイ装置であり、ゲームは、ゲームを実行するための外部装置を必要とせず、HMD上で直接実行される。
一実施形態では、カメラ(または複数のカメラ)がコンピューティングデバイス106に接続されている。コンピューティングデバイス106がネットワーク上のサーバである場合、カメラ104は、ネットワーク(例えば、インターネット)経由でコンピューティングデバイスに画像を送信するネットワーク接続カメラであってもよい。カメラ104は、1つまたは複数の通常の画像カメラ、ステレオカメラ(すなわち、プレイエリアから画像をキャプチャする2つ以上のレンズで)、赤外線カメラ、深度カメラ、3Dカメラなどであってもよい。
カメラ104で撮影された画像は、HMD102の位置と動きを追跡するために処理することができる。加えて、画像はプレイエリアで、ユーザーの位置と動き或いはユーザーの特徴(例えば、ユーザーの頭部、ユーザーの口、ユーザーの手、ユーザーの胴体など)、コントローラの特徴(例えば、片手コントローラ116、両手コントローラ118など)、または他の要素の特徴を追跡するために使用することができる。
一実施形態では、ユーザーは音声認識を介してコマンドを提供することができ、これは1つまたは複数のマイクロホン120から音声キャプチャを介してコンピューティングデバイス106で行ってもよいし、また、一実施形態では、1つ以上のマイクロホンも備えるHMD102によって行うことができる。別の実施形態において、ユーザー114は、コンピューティングデバイス106によって解析され認識されるジェスチャー(身振り)を介して入力することができる。
一実施形態では、コンピューティングデバイス106はまた、いくつかのゲーム動作を行うことができるディスプレイ108に接続される。例えば、ユーザーがHMD102を装着する前に、ディスプレイ108はユーザーに指示を与えることができる。別の実施形態では、ディスプレイ108は、HMDに示したものと同じ、または類似のディスプレイを提供するので、近傍にいる他のプレイヤーは、HMD102に表示されるゲーム上でユーザー114の進捗状況を認識することができる。
一実施形態では、ユーザーは1つまたは複数のコントローラ116を保持する。コンピューティングデバイス106は、コントローラの位置と動きを追跡し、コントローラの動きに関連する動作、またはコントローラで入力されたインプットはゲームのインプットとして使用することができる。例えば、コントローラは剣の握りを表現してもよいし、そして剣はゲームシーンで表示される。ユーザーがコントローラを移動させると、剣はコントローラに同期して仮想世界内を移動する。このように、プレイヤーは、剣が武器である格闘ゲームの操作を行うことができるのである。
一実施形態では、コンピューティングデバイス106は、HMD102とゲームコントローラ116との間の相対位置を算出する。その後、HMD102に同期してゲームオブジェクトを移動させるために、相対位置はゲームで使用される。
また、コンピューティングデバイスは第二のコントローラ116を追跡することができ、この第二のコントローラもHMDのディスプレイ上にレンダリングされるゲームオブジェクトにリンクすることができる。例えば、第二のコントローラは盾であってもよく、ユーザーは、仮想世界において剣と盾で戦うことができる。他の実施形態では、コントローラは、武器(例えば、銃、ライフルまたは任意のタイプの発砲武器、斧、レーザー銃、自動車のステアリングデバイス、自動車のステアリングデバイスまたはハンドル、閃光装置、ハンマー、盾など)のように他の目的のためにゲームで使用することができる。
別の実施形態では、ユーザーは両手コントローラと対話することができ、この両手コントローラは片手コントローラと同じように使用することができる。例えば、両手コントローラはハンドルとして使用することができる。
別の実施形態では、コントローラのボタンを押すことなどによってコントローラで入力されたインプットは、ゲームでのコマンドを実行するために使用することができる。例えば、ユーザーは、ゲーム内のアバターを移動させたり、武器を発射させたり、オブジェクトを掴んだりするために、コントローラのボタンを使用することができる。
なお、図1に示す実施形態は例示的なものであることに留意されたい。他の実施形態は、異なるデバイス、種々な数のデバイスを用いることができると共に、異なるデバイス間で多かれ少なかれ対話を有しており、他の通信方法(例えば、超音波)を使用することも可能であり、2人のユーザーがそれぞれのHMDを身に着けて同じゲームを楽しむマルチプレイヤーゲームなどを容易にする。従って、図1に示す実施の形態は、排他的または限定的として解釈されるべきではなく、例示的または具体例として解釈されるべきである。
図2は、一実施形態に従って画像解析を介したHMDの追跡を示している。一実施形態では、HMD208は、HMDの視覚追跡を援助するエレメントが含まれている。例えば、HMDは、赤外線光214、発光ダイオード(LED)210、及び画像解析によって容易に認識される特殊な形状のオブジェクトを含むことができる。例えば、簡単に追跡するために1つまたは複数の球形オブジェクト212をHMDに追加してもよい。また、球形オブジェクト212は、LED光、赤外光、または他のタイプの照明で照らすことができる。
また、HMD208は、回帰反射領域、特殊な色の領域(例えば、青色の長方形など)、或いはマーキング(例えば、HMD表面の3本の平行線)など、特別な視覚的マーカー(図示せず)を含むことができる。
いくつかの実施形態では、HMDは、HMDの背部(すなわち、頭部の後ろに触れるHMDの一部)にライトやマーカーを備えている。この構成では、ユーザーが向き直ってカメラに背を向けても、HMDの後ろでライトやマーカーを検出することにより、HMDの位置を視覚的に追跡することがなおも可能である。
HMDの視覚追跡は、異なるタイプのカメラを用いて実施することができる。一実施形態では、HMDは、2つ以上のレンズを備えたカメラであるステレオカメラ202で追跡される。HMDの位置追跡を援助するため、HMDにおいて、並びにHMDのプレイフィールド内の奥行き計算(例えば、HMDからHMDの写真を撮るカメラまでの距離)において、機能の三角測量解析を行う目的で、異なるレンズからの画像が比較される。
別の実施形態では、赤外線カメラ204は赤外光(例えば、赤外光214)を解析する。赤外光は人間の眼には見えないが、赤外光は赤外線カメラには可視である。このように、HMDは、HMDの外観を損なわない赤外光を含むことができる。また、一部の環境(例えば、低輝度または高輝度)では、他のタイプの光のよりも赤外光を追跡する方が簡単である。
さらに別の実施形態では、標準カメラ206もHMDの光または特徴を追跡するために使用されるが、1つのレンズだけを有しているので、本明細書ではモノカメラと称することにする。カメラでプレイフィールド内でのHMDの深度を判断するために、HMD上のいくつかの機能サイズは、深度を検出するために解析される。特徴が小さければ小さいほど、HMDはカメラから遠くにある。また、追跡は、慣性運動追跡、推測航法、コンピューティングデバイスにおけるHMD間の超音波通信などのような他のタイプの慣性運動トラッキングと組み合わせることもできる。
なお、図2に示す実施形態は例示的なものであることに留意されたい。他の実施形態は、プレイフィールドで異なる一種類のみのカメラ、複数のカメラなどを利用することができる。図2に示された実施形態は、排他的または限定的あると解釈されるべきではなく、例示的または具体例として解釈されるべきである。
図3は、一実施形態に従ってユーザーの視線を追跡するための内部カメラ302、304を備えるHMD208を示している。一実施形態では、HMD208は、ユーザーがHMD208のディスプレイ306を見ているとき、ユーザーの視線を追跡するための1つまたは複数のカメラ(例えば302、304)を有している。一実施形態では、2つのカメラ302、304がユーザーの視界を追跡し、各カメラが別々の眼を追跡する。別の実施形態では、HMDの中心の周りに位置する単一のカメラが両眼の画像を取得し、画像は視線を判断するために解析される。
なお、図3の実施形態は目の前に位置しているカメラを含んでいるが、カメラはまた、HMDのさまざまな部分に位置していてもよい。ミラー及びフィルタを使用して、複数の場所に視線追跡のためのカメラを配置することが可能である。例えば、一実施形態ではカメラをディスプレイの背後に位置づけることができ、これにより光を一方向(例えば、眼からカメラに)に通過させることが可能となる。別の実施形態では、カメラは一方の側に位置づけてもよいし、カメラの視界を眼の方向に向け直すためにカメラをHMDの中心にあるミラーに向けるようにすることもできる。
図4は、視覚追跡のための照明ポイントを伴ったHMDの実施形態を示している。図4は、プレイフィールド内でHMDの動きを追跡するのを容易にする複数の特徴を伴うHMDを示している。HMD402には、HMDの正面、側面、及び背面に位置する赤外光404が含まれている。
HMDの前面にある4つの赤外光は、HMDの同じ前頭部面に位置する。図4の実施形態では、上部の赤外光間の距離は、下部にある赤外光間の距離よりも小さい。このように、前面の赤外光により形成される台形のパターンは、HMDの追跡を容易にする。例えば、ユーザーが片側に自分の頭部を傾けた場合、前部の赤外光によって形成された台形は、ユーザーの頭部と同じ角度に傾くことになる。
また、それぞれの側部にある3つの赤外光も追跡を支援する。サイド赤外光のうちの2つは、HMDの前面と側部との間の角度で配置されている。そのため、これらの2つの赤外光は、カメラがHMDの前またはHMDの側部にあるとき、カメラによって見られることができる。HMDの側部のもう1つの赤外光は、頭部の側に向けられており、換言すれば赤外光は、HMDの正面に位置する赤外光に関して約90°である。最後に、HMDの背面にある赤外光は、ユーザーがカメラから顔をそらしたときにもHMDの追跡を可能にする。
ユーザーが頭部を回転させると、赤外光は様々なパターンを形成し、赤外光は、カメラからの画角に基づいて、異なるレベルの明るさで知覚される。これらの距離、赤外光のサイズ、明るさのレベルは、HMDの位置追跡においてコンピューティングデバイスを支援する。
また、HMDは3つのLEDライト406を備えている。HMDの正面に位置する2つのLEDライト406が存在し、これらは2つの交差した平面を形成するカバーを有している。平面の1つはHMDの側部にあり、他の平面はHMDの正面に関して一定の角度(例えば、45°)で存在する。赤外光の追跡と同様に、コンピューティングデバイスは、カメラで撮影したLEDライトの形状及び強度を解析する。このように、コンピューティングデバイスはHMDの位置を判断することができる。ここでも、HMDの背面に位置するLEDライトは、ユーザーがカメラから顔をそらしたときにカメラがHMDを検出することを可能にする。
なお、図4に示す実施形態は例示的なものである。他の実施形態は、異なる一種類のみの光、二種類以上の光、光の様々なレイアウト、様々な数の光などを利用することができる。従って、図4に示された実施形態は、排他的または限定的あると解釈されるべきではなく、例示的または具体例として解釈されるべきである。
図5は、一実施形態に従ったディスプレイのリフレッシュを示している。多くのディスプレイでは、ディスプレイのコンテンツがレンダリングされ、また、ラインでスキャンアウトまたはリフレッシュまたは更新されたとみなされる。一度に1つのラインが上から下へ順にレンダリングされる。各ライン内では、ラインに関連する画素が左から右にリフレッシュされる。このタイプのレンダリングは、ディスプレイ上で全ての画素について同じリフレッシュ周波数を取得する。
本明細書に提示される実施形態は、ディスプレイ内で種々な領域を画成し、各領域におけるピクセルに異なるレンダリングの優先順位が与えられる。レンダリングの優先順位は、いかにピクセルが表示されるかを決定する。一実施形態では、ピクセルのためのレンダリング優先順位が高いほど、より頻繁にピクセルがリフレッシュされるであろう。
本明細書で用いられるように、ディスプレイ上で特定された領域におけるレンダリング・ポリシーは、いかにして特定された領域がスキャンアウトされるかを判断する。レンダリング・ポリシーは、いかにして領域が表示されるべきかを判断する1つまたは複数の値を含んでいる。一実施形態では、レンダリング・ポリシーは、領域のために1つまたは複数の画面更新頻度(例えば、1秒に30回、しかし他の値も可能である)、レンダリング解像度、領域に画像をレンダリングする複雑度、或いは順序値をレンダリングすることを含んでいる。
レンダリング解像度は、領域内の全ての画素を個別にリフレッシュするかを判断する。最大解像度(例えば、100%)では、領域内の全てのピクセルは色と明るさのために個々の値でリフレッシュされるであろう。しかし、往々にして領域内の画素の解像度が低下してしまい(例えば、64%に)、これは領域内で画素の一部のみがすれ違いでリフレッシュされることを意味している。例えば、50%のレンダリング解像度では、領域内の画素の半分が1サイクルでリフレッシュされ、他の半分は次のサイクルでリフレッシュされる。
この領域内の画像をレンダリングする複雑度は、領域内の画素について画素値を生成するために必要な処理の量に基づいている。例えば、均一な色の背景領域、または背景画像からの画素値で充填されている領域は、移動するアバターを含む領域をレンダリングすることよりも複雑ではないであろう。アバターのいくつかの属性に依存し、アバターが長くて自由になびくヘアーを含んでいたり、アバターが毛皮を有する動物であったりするなどの場合には、複雑度が著しく増大する。さらに、ミラー上の画像がユーザーの視線に依存するため、ミラーを含む領域は画素値を判断するために複雑な処理を必要とする可能性があり、ミラーがどこに狙いを付けているのかを判断するための計算が必要となる。
別の実施形態では、領域の画成は、ピクセル情報を格納するために使用されるメモリセルの数を低下させることによって変更される。この場合、領域の解像度が最大値未満である場合、ピクセルデータを格納するために使用されるメモリはそれに応じて減少される。例えば、25%の解像度を伴う領域は、100%の解像度に関連付けられたメモリの25%のみを使用している。これは、同じ画素データが領域内の4つの画素グループをスキャンするために使用されることを意味している。
また、ディスプレイ技術は、画素領域を埋めるために領域と関連付けられたソースメモリをアップスケールすることができる。他の実施形態では、アップスケーリングまたはダウンスケーリングのための別の方法を使用することができるが、別の方法とは最近傍補間法、ミップマッピングを伴う最近傍、バイリニアフィルタリング、トライリニアフィルタリング、或いは異方性フィルタリングなどである。
例えば、バイリニアフィルタリングは、画素の第二の過半数画素を使用してディスプレイの一領域に第一の過半数画素を表示するときに、テクスチャーを平滑化するためのテクスチャーフィルタリング方法であるが、ここでは画素の前記第二の過半数画素数は、画素の前記第一の過半数画素数とは異なる。換言すれば、第二の過半数画素は、第一の過半数画素のスケーリング(アップまたはダウン)を必要とする。
多くの場合、画面上のテクスチャー形状を描画するときに、それが格納されているためテクスチャーは、ディストーションせずに正確に表示されない。このため、ほとんどのピクセルは、テクセルがそれぞれのセル内のどこかに位置する点であると仮定し、最終的にはテクセル(テクスチャー空間の単位)の間にあるテクスチャー上のポイントを使用する必要がなくなる。ピクセルが表す点(通常は、ピクセルの中央または左上の)に最も近い4つのテクセル間の双線形補間を実行するために、バイリニアフィルタリングは、これらのポイントを使用している。
一領域内の解像度や精細度を低下させることにより、コンピューティングリソースは、ユーザーにとってより良い体験を提供することがより重要である、画面上の他の領域に割り当てることができる。
レンダリング順序値は、領域が描画される順序を決定するために、コンピューティングデバイスによって割り当てられる値である。一実施形態では、コンピューティングデバイスは、領域毎にレンダリングの順序値を提供し、すべての領域がレンダリングの順序値によって決定された順序でスキャンアウトされる。つまり、コンピューティングデバイスは、レンダリングのためにすべての領域のソートされたリストを作成する。
一実施形態では、1つまたは複数のレンダリング規則がレンダリング・ポリシーを決める。例えば、レンダリング・ポリシーは1つのルール(例えば、左から右へ及び上から下へ画素を表示する規則)を含むことができ、或いは2つ以上のルールを含んでもよい。例えば、最初のルールは、ディスプレイの中央に位置する領域がディスプレイの周囲に位置する領域よりも高い優先度を有するであろうことを定めることができ、そして二番目のルールは、ゲームのキャラクターを持つ領域がゲームのキャラクターを持たない領域よりも高いレンダリング優先度を有していることを定めることができる。
図6は、一実施形態によるHMDのディスプレイ上に表示されるゲームシーンを示している。いくつかの実施形態では、視線追跡とHMDのモーショントラッキングは、HMDディスプレイ602上の様々な領域のスキャンアウトについて優先順位を決定するために使用される。
一実施形態では、画面が複数の領域またはセクションに分割され、領域が種々の優先順位と種々の解像度レベルでアップデートされる。これは、一部の領域が他のものより頻繁にリフレッシュされ、或いはより高い解像度にリフレッシュすることができることを意味している。
ユーザーが自分の視線を変えようとしている場合、眼の動きと比較して頭部の動きが僅かであっても同じ方向に頭部を移動させる自然な本能があるため、HMDを追跡することは、ユーザーが彼らの視線をどこに向けようとしているかを判断する際にこれをアシストすることになる。例えば、ユーザーが正面を向いており頭部を左に移動させ始めると(HMDと一緒に)、コンピューティングデバイスはユーザーが彼らの視線を左に移動しようとしていることを予測する。この検出に応答して、画面の左側の領域は、画面の右側の領域よりも優先してレンダリングされる。実際には、シーンが左にシフトするので、画面の右側境界線に向かって領域が視界から消えてしまう可能性が非常に高い。
様々な領域のスキャンアウトについて優先順位をつけることで、ユーザーがどこを見ているか、或いはユーザーが次にどこを見に行くかに着目して、ユーザーによりよい体験を提供することが可能となり、そして、ユーザーにより速く且つより高画質なビューをレンダリングできるようにコンピュータリソースを効率的に適用することが可能となる。
時として視線の動きよりもHMDの動きを検出するのが速いため、HMDのモーショントラッキングは重要である。場合によっては、HMDを視覚的に追跡するコンピューティングデバイスは、HMD以上のコンピューティングリソースを有しているため、コンピューティングデバイスはHMDの動きを検出し、HMDの動きに基づいてHMDの軌道を予測することができる。また、HMDは、視線の現在位置に関してコンピューティングデバイスに情報を提供し、コンピューティングデバイスは、視線の軌跡をより正確に予測するために情報ソースの双方を組み合わせることができる。
図6は、仮想現実ゲームの画面を表示している。本明細書に提示される実施形態は、仮想現実ディスプレイを参照して説明するが、画面はコンピューティングデバイスによって生成されたシーンを排他的に示している。しかしながら、本明細書に提示される原理は拡張現実ゲームに適用することができ、画面上のビューは、実世界の画像とコンピューティングデバイスで生成された画像の組み合わせである。一実施形態では、ゲームが広範囲仮想世界で再生される。ユーザーは、いつでも仮想世界の一部のみを見て、仮想世界を点々と移動することができる。ユーザーが仮想世界に移動すると、仮想世界の他の部分が現れる。
いくつかの実施形態では、現在のユーザーの視点604には、ユーザーの視点604の外側の領域よりも高いレンダリング優先順位が与えられる。ユーザーの視点は、ユーザーがその視界を集中しているディスプレイ上の領域として判断される。従って、ゲーム対話の大部分は、ユーザーの視点604内で発生する。勿論、ユーザーの視線は視点604を中心に集中する。
多くの人々は、彼らのフィールド内で左に約90°から右に約90°までの範囲のエリアを見ている。しかし、人はそれらの周辺領域内でいくつかの動きや変化を感じることができるかもしれないが、ユーザー視野の周辺部領域は、明確に知覚されない。
図6に示す実施形態では、視点は画面上で矩形セクションとして判断されるが、ここではユーザーの視線がこの矩形セクションの中央に集中される。しかし、他のタイプの視点領域も定めることができる。例えば、一実施形態では、視点領域は、画面上でのユーザーの注視点の周りの円として定められる。視野角は、画面上の注視点に対する眼の間の中点からのラインを参照して定められる。次に、視点円の半径は視野角によって決定される。いくつかの実施形態では、視野角が5°から45°の範囲内の値を有することができるが、他の値も可能である。
いくつかの実施形態では、レンダリング・ポリシーは、ゲームのキャラクターを持つ領域にゲームのキャラクターを持たない領域よりもより高いレンダリング優先順位が与えられていることを必要とする。他の実施形態では、別のレンダリング・ポリシーは、ゲームのキャラクターと、ゲームにおいて重要なゲームオブジェクトとしてランクされている特別なゲームオブジェクトに高いスキャンアウト優先順位を与えている。例えば、重要なゲームオブジェクトは、出口ドア、自動車や飛行機のナビゲーションコンソール、なだめるゲームの対象、敵機などであってもよい。一般的には、重要なゲームオブジェクトは、ユーザーによって作動させることができるオブジェクトであり、重要でないゲームオブジェクトは画面を満たすために背景でレンダリングされる。
図6では、領域606(ゲームのキャラクター610と612を含む)及び領域608(ゲームキャラクター614を含む)は、ゲームキャラクターを有する領域であり、ディスプレイの残りの部分よりも高いレンダリングの優先順位を与えられている。勿論、いくつかの実施形態では、レンダリング優先度は、ユーザーが自分の視線や頭部を移動しているときのようないくつかの他のルールによって変更することができるので、優先度は最終的なレンダリングの優先順位を算出する際の一要因にすぎない。
一実施形態では、速い動きはディスプレイの高速なアップデートを必要とするため、ユーザーが自分の頭部を素早く移動したときに画面上でブレが発生する可能性があり、HMDは、ユーザーの動きについていくのに十分なコンピューティングリソースがない可能性がある。HMDが高速で移動する間にもぶれないようにするため、レンダリング・ポリシーはユーザーの動きに関連する領域のリフレッシュをより速く開始し、いくつかの他の領域は、より低い頻度で、または低い解像度でリフレッシュすることもできる。HMDが移動停止すると、スキャンアウトした画像の高品質が復元される。
また、ここでユーザーの視線の軌跡を予測するために、コンピューティングデバイスは、所定の時間にわたってユーザーの視線の軌跡を追跡し、また、所定の時間(またはいくつかの他の期間)にわたってHMDの軌跡を追跡する。履歴データは、視線の動き及びHMDの動きの傾向を解析することにより、ユーザーの視線の軌跡を予測するために使用される。
なお、図6に示す実施形態は例示的なものであることに留意されたい。他の実施形態は、異なるタイプの視点領域、様々なタイプのディスプレイ、異なるタイプのレンダリング・ポリシーなどを用いることができる。従って、図6に示された実施形態は、排他的または限定的あると解釈されるべきではなく、例示的または具体例として解釈されるべきである。
図7は、一実施形態に従って優先順位付けされたレンダリングのためにディスプレイ内での領域の生成を示している。図7の実施形態では、複数の同じ大きさの領域が画面702上で画成される。例示的な実施形態では、30の領域(6x5)を生成するスクリーン上にグリッドが画成されている。他の実施形態では、画面上に画成された領域が同じ大きさを有していない。例えば、一般的に中央の領域はユーザーに優れた体験を提供するためにより重要であるため、ディスプレイの中心領域がディスプレイの外側の領域よりも小さくなっている。従って、これらの中央領域には、より高いレンダリング優先順位が与えられている。
いくつかの実施形態では、領域のいくつかには、ゲーム活動に基づいて、或いはユーザーが何をしているかに基づいてレンダリングするために高い優先順位が与えられている。例えば、図6を参照して上述したように、ユーザーの頭部の動きが検出され、ユーザーの視線があると予測される領域の優先度を増大させるために使用される。
一実施形態では、ゲームのキャラクターを有する領域は、ゲームのキャラクターなしの領域よりも高い優先順位が与えられている。図7の例示的な実施形態では、領域704及び706の内部領域は、ゲームのキャラクターのパーツを含んでいる。一実施形態では、レンダリング・ポリシーには、領域704と706へのレンダリング優先順位を上昇させる別のルールが含まれている。別のレンダリング・ポリシーは、画面の中心領域に高いレンダリング優先順位を与え、画面の周辺領域には低いレンダリング優先順位を与える。
一実施形態では、各領域のレンダリング・ポリシーは、優先度を判断する複数の因子またはルールを考慮して算出される。次式は、領域riのレンダリング・ポリシーrp値を決定するために使用される。
rp(r)=f(ルール(r)、ルール(r)、...、ルール(r))
rp(r)が描画領域(r)のためのレンダリング・ポリシーであり、ルール〜ルールがレンダリング・ポリシーを判断するために定められたポリシールールである。例えば、一番目のルールはディスプレイの中央領域により高いレンダリング優先度が与えられるように指示し、二番目のルールはゲームのキャラクターを有する領域により高いレンダリング優先度が与えられるように決定し、三番目のルールは視線の周囲の領域に高い優先度を与え、四番目のルールはユーザーが自分の頭部を回転するとき、頭部が移動すると予測される領域により高いレンダリング優先順位を与えることなどを決定することができる。
一実施形態では、レンダリング・ポリシーは、領域のための1つまたは複数の画面更新頻度、レンダリング解像度、及びレンダリング順序値を含んでいる。一実施形態においては、領域におけるレンダリング・ポリシーを算出するために各ルールが与えられている。いくつかの実施形態では、加重値は過去の経験に基づいて動的に調整することができる。
図8は、本発明の実施形態を実装するために使用することができるデバイスのアーキテクチャーを示している。ヘッドマウントディスプレイはコンピューティングデバイスであり、プロセッサ804、メモリ816(RAM、ROMなど)、1つまたは複数のバッテリ806またはその他の電源、及び永久記憶装置848(ハードディスクなど)のようなコンピューティングデバイス上で通常の見られるモジュールを含んでいる。
通信モジュールは、HMDが他の携帯機器、他のコンピュータ、他のHMD、サーバなどと情報を交換することができるようにする。通信モジュールは、ユニバーサルシリアルバス(USB)コネクタ846、通信リンク852(イーサネット(登録商標)など)、超音波通信856、ブルートゥース858、及びWiFi854を含む。
ユーザーインタフェースには、入力と出力のためのモジュールが含まれている。入力モジュールは、入力ボタン、センサ及びスイッチ810、マイクロホン832、タッチ感応画面(示されていないが、HMDを設定したり初期化したりするために使用することができる)、フロントカメラ840、リアカメラ842、視線追跡カメラ844を備えている。例えば、キーボードやマウスなどのその他の入力/出力デバイスも、USBやブルートゥースのような通信リンクを介して携帯デバイスに接続することが可能である。
出力モジュールは、ユーザーの眼の前で画像をレンダリングするためのディスプレイ814を備えている。いくつかの実施形態では、1つのディスプレイ、2つのディスプレイ(各眼に対して1つ)、マイクロプロジェクタ、または他のディスプレイ技術を備えることができる。他の出力モジュールは、発光ダイオード(LED)834(HMDの視覚追跡のためにも使用することができる)、振動触覚フィードバック850、スピーカー830、及びスピーカーまたはヘッドフォンへ配信されるサウンドの音像定位を行う音像定位モジュール812を備える。例えば、ヘッドフォンなどの他の出力装置もまた、通信モジュールを介してHMDに接続することができる。
モーショントラッキングを容易にするために備えることができるエレメントには、LED834、視覚認識836のための1つまたは複数のオブジェクト、及び赤外光838が含まれる。
様々なデバイスからの情報は、HMDの位置を算出するために位置モジュール828によって使用することができる。これらのモジュールは、磁力計818、加速度計820、ジャイロスコープ822、全地球測位システム(GPS)モジュール824、及びコンパス826を備える。さらに、位置モジュールは、位置を算出するためにカメラとマイクロホンでキャプチャされた音や画像データを解析することができる。さらにまた、位置モジュールは、WiFiのpingテストまたは超音波検査など、携帯デバイスの位置または近傍の他のデバイスの位置を決定するためのテストを実行することができる。
バーチャルリアリティ・ジェネレータ808は、位置モジュールによって算出された位置を使用して、前述したように仮想または拡張現実を生成する。バーチャルリアリティ・ジェネレータ808は、ディスプレイモジュール814のための画像を生成するために、他のコンピューティングデバイス(例えば、ゲームコンソール、インターネットサーバなど)と協働することができる。リモートデバイスは、画面上でゲームオブジェクトを生成するためにスクリーンアップデートまたは命令を送信することができる。
なお、図8に示す実施形態は、ポータブルデバイスの例示的な実装であることは理解されるべきである。他の実施形態では、様々なモジュール、モジュールのサブセットを利用することができ、或いは様々なモジュールに関連するタスクを割り当てることができる。従って、図8に示す実施形態は排他的または限定的あると解釈されるべきではなく、例示的または具体例として解釈されるべきである。
図9は、一実施形態によってHMDに画像をレンダリングするためのフローチャートである。このフローチャートでは種々の動作が提示され順次描写されているが、当業者は、動作の一部または全部が異なる順序で実行してもよく、組み合わされ或いは省略され、または並行して実行することも可能であることを認識するであろう。
動作902では、この方法はHMD内部の1つまたは複数のカメラでユーザーの視線を追跡する。動作902から、この方法は動作904に流れ、ここではこの方法がHMDの動きを追跡する。動きの追跡には、HMDに備えられていない第二のカメラ(例えば、図1のカメラ104)で撮影したHMDの画像を解析することが含まれる。
動作904から、この方法は、ユーザーの視線の動きが視線とHMDの動きに基づいて予測される(例えば、視線の予測軌道を)動作906に流れていく。また、動作906から、この方法は動作908に流れていくが、ここではHMDのディスプレイ上に画成された複数の領域のためのレンダリング・ポリシーが決定される。レンダリング・ポリシーは、視線の予測された動きに基づいて決定される。
動作908から、この方法は、以前に算出されたレンダリング・ポリシーに基づいて、ディスプレイ上に画像をレンダリングするために動作910に流れていく。また、一実施形態では、HMDが動いているときには領域に対するレンダリング解像度が低下し、HMDが静止状態になったとき領域のレンダリング解像度が増大される。
いくつかの実装形態では、慣性情報がHMDの動きに関して受信され、慣性情報はHMDで慣性センサによって捕捉される。別の実施形態では、HMDの動きは、HMDに備えられていない第二のカメラで撮影したHMDの画像を解析することによって追跡される。さらに別の実施形態では、HMDの動きは、第二のカメラで撮影した画像の解析結果と慣性情報を組み合わせることによって追跡される。
さらに別の実施形態では、HMDに画像をレンダリングするための方法が提供される。この方法は、HMD内部のディスプレイによって生成されたビューを見ているユーザーの視線を追跡するための動作を含んでいる。さらに、この方法は、ユーザーの視線に基づいて、ディスプレイ上にレンダリングされている複数のゲームオブジェクトのために、レンダリング優先順位値を割り当てるための動作を含んでいる。各ゲームオブジェクトのレンダリング優先順位値は、レンダリングの頻度及びレンダリング解像度を決定する。さらに、この方法は、ゲームにおける各ゲームオブジェクトの重要度に基づいて、レンダリング優先順位値を変更するための動作を含んでいる。別の動作では、この方法は、レンダリング優先順位値に応じてディスプレイ上に複数のゲームオブジェクトをレンダリングする。
別の実施形態では、実際のソース画像は変更ベースであり、ソース画像とソース画像が存在する領域がレンダリングされている。例えば、ゲームのキャラクターが直接視線の下にあるときには(例えば、ゲームのキャラクターがユーザーの視野の中央付近にあるとき)、ゲームキャラクターが直接視線の下にないとき(例えば、ゲームのキャラクターがユーザーの視野の中央付近にないとき)よりも詳細にゲームキャラクターが描画される。
図10は、本発明の実施形態を実装するために使用することができるハードウェア及びユーザーインタフェースを示す図である。図10は、Sony(登録商標)プレイステーション(登録商標)3エンターテイメントデバイスの全体的なシステムアーキテクチャーを概略的に示している。システムユニット1400は、システムユニット1400に接続可能なさまざまな周辺デバイスと共に提供される。システムユニット1400は、セルプロセッサ1428、Rambus(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット1426、専用のビデオランダムアクセスメモリ(VRAM)ユニット1432を備えたリアリティー・シンセサイザー(Reality Synthesizer)グラフィックユニット1430、及びI/Oブリッジ1434を備える。また、システムユニット1400は、ディスク1440aから読み出すためのブルーレイ(登録商標)ディスクBD−ROM(登録商標)光ディスクリーダ1440、I/Oブリッジ1434を介してアクセス可能なリムーバブルスロットインハードディスクドライブ(HDD)1436を備えている。任意に、システムユニット1400はまた、I/Oブリッジ1434を介して同様にアクセス可能なコンパクトフラッシュ(登録商標)メモリカードを読み取るためのメモリカードリーダ1438、Memory Stick(登録商標)メモリカードなどを含んでいる。
I/Oブリッジ1434はまた、6本のユニバーサルシリアルバス(USB)2.0ポート1424、ギガビット・イーサネット・ポート1422、IEEE802.11b/gの無線ネットワーク(Wi−Fi)ポート1420、7個までのブルートゥース接続をサポートすることが可能なブルートゥース(登録商標)ワイヤレスリンクポート1418に接続している。
また、ワイヤレス、USB及びイーサネットポートは、リモートコントロール1404、キーボード1406、マウス1408、ソニーPSP(登録商標)エンターテイメントデバイスなどの携帯エンターテイメントデバイス1410、プレイステーション(登録商標)アイカメラ1412などのビデオカメラ、ヘッドフォン1414、及びマイクロホン1415のようなゲームコントローラ1402〜1403とHMD1417に加えて、他の周辺機器のための接続性を提供している。従って、このような周辺デバイスは、原則的に無線でシステムユニット1400に接続してもよく、例えば、携帯エンターテイメントデバイス1410はWi−Fiアドホック接続を介して通信することができる一方で、ヘッドドフォン1414はブルートゥースリンクを介して通信することができる。
ゲームコントローラ1402〜1403はブルートゥースリンクを介してシステムユニット1400と無線通信して、或いはUSBポートに接続されて動作可能であり、それによってゲームコントローラ1402〜1403のバッテリを充電する電力を供給する。ゲームコントローラ1402は両手で使用するように設計されたコントローラであり、ゲームコントローラ1403はボールアタッチメントを有する片手コントローラである。1つ以上のアナログジョイスティック及び従来の制御ボタンに加え、ゲームコントローラは、3次元位置判定を受け入れる余地がある。その結果、ゲームコントローラのユーザーによるジェスチャー及び動きは、従来のボタンまたはジョイスティックコマンドに加えて或いはその代わりに、ゲームに対する入力として変換することができる。
一実施形態では、ユーザーの視線ポイント(POG)に応じて、特定のオーディオスピーカーに向かって音を再生するための音声や視線入力が利用される。オーディオコネクタ1450は従来のアナログ及びデジタル出力を備える一方で、ビデオコネクタ1452はコンポーネントビデオ、S−ビデオ、コンポジットビデオ、及び1つ以上の高品位マルチメディアインタフェース(HDMI(登録商標))出力を様々な形で備えることができる。従って、ビデオ出力は、PALまたはNTSC、或いは720p、1080iまたは1080pなどの高解像度フォーマットとすることができる。
図11は、本発明の様々な実施形態によるゲームシステム1100のブロック図である。ゲームシステム1100は、ネットワーク1115を介して1つまたは複数のクライアント1110にビデオストリームを提供するように構成されている。ゲームシステム1100は、典型的にはビデオサーバシステム1120及び任意のゲームサーバ1125を備えている。ビデオサーバシステム1120は、最低限のサービスでビデオストリームを1つまたは複数のクライアント1110に提供するように構成されている。例えば、ビデオサーバシステム1120は、ビデオゲーム内の状態や視点を変更するゲームコマンドを受信することができ、かつ最小限の遅延時間でこの状態の変化を反映して更新されたビデオストリームをクライアント1110に提供することができる。ビデオサーバシステム1120は、多種多様な代替的ビデオフォーマットのビデオストリームを提供するように構成することができる。
クライアント1110は、本明細書では個々に1110A、1110Bなどと示しているが、ヘッドマウントディスプレイ、端末、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、ワイヤレス・デバイス、デジタルパッド、スタンドアロン・デバイス、携帯ゲーム装置、及び/または均等物を含むことができる。一般的に、クライアント1110は符号化されたビデオストリームを受信し、ビデオストリームを復号化し、例えば、ユーザーのゲームプレイヤーに得られた映像を提供するように構成されている。符号化されたビデオストリームを受信及び/またはビデオストリームを復号化するプロセスは、典型的には、クライアントの受信バッファに個々のビデオフレームを格納する動作を含んでいる。ビデオストリームは、モニタやテレビなどのクライアント1110と一体型ディスプレイまたは別個のデバイス上でユーザーに提供することができる。必要に応じて、クライアント1110は、1つ以上のプレイヤーをサポートするように構成されている。例えば、ゲームコンソールが2つ、3つ、4つまたはそれ以上の同期プレイヤーをサポートするように構成されていてもよい。これらのプレイヤーのそれぞれが別個のビデオストリームを受信することができ、或いは単一のビデオストリームが、例えば、プレイヤーの各視点に基づいて生成されるように、各プレイヤーのために特別に生成されたフレームの領域を含むことができる。クライアント1110は、随意に地理的に散らばる。ゲームシステム1100に含まれるクライアントの数は、1つまたは2から数千或いは数万、或いはそれ以上まで幅広く変化させることができる。本明細書で使用するように、用語「ゲームプレイヤー」はゲームをプレイする人を指して用いられ、「ゲームプレイ装置」という用語はゲームをプレイするために使用されるデバイスを指して用いられている。いくつかの実施形態では、ゲームプレイ装置は、ユーザーにゲーム体験を提供するために協働する複数のコンピューティングデバイスを指すことがある。例えば、ゲームコンソールとHMDが、HMDを通じて見ることができるゲームを配信するためにビデオサーバシステム1120と協働することが可能である。一実施形態では、ゲームコンソールがビデオサーバシステム1120からのビデオストリームを受信し、ゲームコンソールはビデオストリームを更新し、レンダリングのためにHMDに転送する。
クライアント1110は、ネットワーク1115を介してビデオストリームを受信するように構成されている。ネットワーク1115は、電話ネットワーク、インターネット、無線ネットワーク、電力線ネットワーク、ローカルエリアネットワーク、広域ネットワーク、プライベートネットワーク、及び/または均等物を含む任意のタイプの通信ネットワークであってもよい。典型的な実施形態においては、ビデオストリームは、TCP/IPまたはUDP/IPなどの標準プロトコルを介して通信される。代替的に、ビデオストリームは、独自の規格を介して通信される。
クライアント1110の典型的な例は、プロセッサ、不揮発性メモリ、ディスプレイ、復号ロジック、ネットワーク通信機能、及び入力デバイスを備えるパーソナルコンピュータである。復号ロジックは、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体上に格納されたソフトウェアを含んでもよい。ビデオストリームを復号化(及び符号化)するためのシステムは当該技術分野において周知であり、使用される特定の符号化スキームに依存して変化する。
さらに、クライアント1110は、受信したビデオを修正するために設定されたシステムを備えることもできるが、必要ではない。例えば、クライアントは、さらにレンダリングを実行するように、1つのビデオイメージを別のビデオイメージ上にオーバーレイするように、或いはビデオイメージをトリミングするように、及び/または同様のことを実行するように設定することもできる。例えば、クライアント1110は、I−フレーム、P−フレーム及びB−フレームのような様々なタイプのビデオフレームを受信し、ユーザーに表示するために、これらの画像フレームを処理するように設定することができる。いくつかの実施形態では、ビデオストリーム上でさらなるレンダリング、シェーディング、3Dへの変換、HMDへの光学的歪み処理、或いは同様の動作を実行するように多数のクライアント1110が設定されている。必要に応じて多数のクライアント1110は、1つまたは複数のオーディオまたはビデオストリームを受信するように設定されている。クライアント1110の入力デバイスは、例えば、片手ゲームコントローラ、両手ゲームコントローラ、ジェスチャー認識システム、視線認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、フォースフィードバック装置、動き及び/または位置検出装置、マウス、タッチスクリーン、ニューラル・インタフェース、カメラ、まだ開発中の入力装置、及び/または均等物を含むことができる。
クライアント1110によって受信されたビデオストリーム(及び随意に音声ストリームも)が生成され、ビデオサーバシステム1120によって提供される。本明細書の他の箇所でさらに記載されるように、このビデオストリームは、ビデオフレーム(音声ストリームは音声フレームを含む)を含んでいる。ビデオフレームは、表示される画像をユーザーに有意に提供する(例えば、これらの画像は、適切なデータ構造内の画素情報を含んでいる)。本明細書で用いられているように、用語「ビデオフレーム」は、例えば、効果など、ユーザーに表示される画像に寄与するように設定されている主情報を含んだフレームを指して使用している。「ビデオフレーム」に関する本明細書の教示のほとんどは、「オーディオフレーム」に適用することも可能である。
クライアント1110は、典型的には、ユーザーからの入力を受け取るように設定されている。これらの入力は、ビデオゲームの状態を変更するか、そうでなければ、ゲームプレイに影響を与えるように設定するゲームコマンドを含むことができる。ゲームのコマンドは、入力デバイスを使用して受信することができるか、及び/またはクライアント1110上で実行される演算命令によって自動的に生成されてもよい。受信したゲームコマンドは、ネットワーク1115を介して、クライアント1110からビデオサーバシステム1120及び/またはゲームサーバ1125に伝達される。例えば、いくつかの実施形態では、ゲームコマンドはビデオサーバシステム1120を介してゲームサーバ1125に伝達される。また、いくつかの実施形態では、ゲームコマンドの別個のコピーが、クライアント1110からゲームサーバ1125及びビデオサーバシステム1120へ伝達される。ゲームコマンドの通信は、随意でコマンドの一致に依存している。ゲームコマンドは、オーディオまたはビデオストリームをクライアント1110Aに提供するために使用される別のルートまたは通信チャネルを介してクライアント1110Aから必要に応じて伝達される。
ゲームサーバ1125は、ビデオサーバシステム1120とは別のエンティティによって任意に操作される。例えば、ゲームサーバ1125は、マルチプレイヤーゲームのパブリッシャーによって動作させることができる。この例では、ビデオサーバシステム1120は、ゲームサーバ1125によって必要に応じてクライアントとしてみなされ、ゲームサーバ1125の観点から従来技術のゲームエンジンを実行する従来技術のクライアントであると思われるように設定されている。ビデオサーバシステム1120とゲームサーバ1125の間の通信は、必要に応じてネットワーク1115を介して行われる。このように、ゲームサーバ1125は、複数のクライアントにゲームの状態情報を送信する従来技術のマルチプレイヤーゲームサーバでもよく、そのうちの1つがゲームサーバシステム1120である。ビデオサーバシステム1120は、同時にゲームサーバ1125の複数のインスタンスと通信するように設定することもできる。例えば、ビデオサーバシステム1120は、異なるユーザーに複数の異なるビデオゲームを提供するように構成することができる。これらの異なるビデオゲームのそれぞれは、異なるゲームサーバ1125によってサポートされ、及び/または異なるエンティティによって発行されてもよい。いくつかの実施形態では、いくつかの地理的に散らばったインスタンスであるビデオサーバシステム1120は、複数の異なるユーザーにゲームビデオを提供するように設定されている。ビデオサーバシステム1120のこれらのインスタンスの各々は、ゲームサーバ1125の同じインスタンスと通信することができる。ビデオサーバシステム1120と1つまたは複数のゲームサーバ1125との間の通信は、必要に応じて専用の通信チャネルを介して行う。例えば、これら2つのシステム間の通信のために特定用途される高帯域幅チャネルを介して、ビデオサーバシステム1120をゲームサーバ1125に接続することもできる。
ビデオサーバシステム1120は、少なくともビデオソース1130、I/Oデバイス1145、プロセッサ1150、及び非一時ストレージ1155を備えている。ビデオサーバシステム1120は1つのコンピューティングデバイスを備えていてもよく、或いは複数のコンピューティングデバイス間で分散させてもよい。これらのコンピューティングデバイスは、必要に応じてローカルエリアネットワークなどの通信システムを介して接続される。
ビデオソース1130は、例えば、ストリーミングビデオ、または動画像を形成する一連のビデオフレームのようなビデオストリームを提供するように設定されている。いくつかの実施形態では、ビデオソース1130は、ビデオゲームエンジンとレンダリングロジックを含んでいる。ビデオゲームエンジンはプレイヤーからゲームコマンドを受信し、受信したコマンドに基づいてビデオゲームの状態のコピーを維持するように設定されている。このゲームの状態は、ゲーム環境内のオブジェクトの位置だけでなく、一般的に視点が含まれている。ゲーム状態は、プロパティ、画像、色及び/またはオブジェクトのテクスチャーも含むことができる。ゲーム状態は、典型的には、ゲームのルール、並びに動き、旋回、攻撃、セットフォーカス、対話、使用、及び/または同類のゲームコマンドに基づいて維持される。ゲームエンジンの一部は、必要に応じてゲームサーバ1125内に配置されている。ゲームサーバ1125は、地理的に散らばったクライアントを使用する複数のプレイヤーから受信したゲームコマンドに基づくゲーム状態のコピーを維持することができる。いずれの場合でも、ゲーム状態はゲームサーバ1125からビデオソース1130に提供され、ここでゲーム状態のコピーが格納され、レンダリングが実行される。ゲームサーバ1125は、ネットワーク1115を介してクライアント1110からコマンドを直接受信することができ、及び/またはビデオサーバシステム1120を介してゲームコマンドを受信することができる。
一般的に、ビデオソース1130は、例えば、ハードウェア、ファームウェア、及び/またはストレージ1155のようなコンピュータ可読媒体に格納されたソフトウェアを含んでいる。このレンダリングロジックは、ゲーム状態に基づいて、ビデオストリームのビデオフレームを生成するように設定されている。レンダリングロジックの全部または一部は、必要に応じてグラフィックス処理ユニット(GPU)内に配置される。ロジックのレンダリングは、典型的には、ゲーム状態と視点に基づいて、オブジェクト間の3次元空間的関係を判断する及び/または適切なテクスチャーなどを適用するように設定された処理ステージを含んでいる。レンダリングロジックは、その後、通常はクライアント1110に通信する前に符号化された生のビデオを生成する。生のビデオは、例えば、Adobe Flash(登録商標)標準、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG-x、Xvid.、FFmpeg、x264、VP6−8、realvideo、mp3、などによって符号化することができる。符号化処理は、リモート装置デコーダへの配信のために必要に応じてパッケージ化されたビデオストリームを生成する。ビデオストリームは、フレームサイズとフレームレートによって特徴付けられる。他のフレームサイズを使用してもよいが、典型的なフレームサイズは、800×600、1280×720(例えば、720p)、1024×768を含んでいる。フレームレートは、毎秒におけるビデオフレーム数である。ビデオストリームは、様々なタイプのビデオフレームを含んでもよい。例えば、H.264規格は、「P」フレーム及び「I」フレームを含む。Iフレームには表示デバイス上のすべてのマクロブロック/ピクセルをリフレッシュするための情報が含まれている一方、Pフレームにはサブセットをリフレッシュするための情報が含まれている。一般的に、PフレームはIフレームよりもデータサイズが小さい。本明細書で使用するように、用語「フレームサイズ」は、フレーム内のピクセルの数を意味している。用語「フレームデータサイズ」は、フレームを格納するのに必要なバイト数を指すために使用されている。
別の実施形態では、ビデオソース1130は、カメラなどの映像記録装置を備えている。このカメラは、コンピュータゲームのビデオストリームに含めることができる遅延映像またはライブビデオを生成するために使用することができる。得られたビデオストリームは、レンダリングされた画像とスチールカメラまたはビデオカメラを使用して記録された画像の両方を任意に含んでいる。ビデオソース1130は、ビデオストリームに含まれるように、記録されたビデオを前もって記憶するように設定された記憶装置も備えることができる。同様に、ビデオソース1130は、例えば、人のようなオブジェクトの動きまたは位置を検出するように設定した、動きまたは位置検出装置と、ゲームの状態を判断し、検出された動き及び/または位置に基づくビデオを生成するように設定されたロジックを含むことができる。
ビデオソース1130は、必要に応じて他のビデオ上に配置されるように設定されたオーバーレイを提供するようになっている。例えば、これらのオーバーレイは、コマンド・インターフェース、ログイン命令、ゲームプレイヤーへのメッセージ、他のゲームプレイヤーの画像、他のゲームプレイヤーの配信動画(例えば、ウェブカメラのビデオ)を含んでいてもよい。タッチスクリーンインターフェースまたは視線検出インターフェースを含むクライアント1110Aの実施形態では、オーバーレイは、仮想キーボード、ジョイスティック、タッチパッド、及び/または同様のものを含むことができる。オーバーレイの一例では、プレイヤーの声は、音声ストリームにオーバーレイされる。ビデオソース1130は、任意に1つまたは複数のオーディオソースを含んでいる。
ビデオサーバシステム1120が複数のプレイヤーからの入力に基づいて、ゲームの状態を維持するように構成されている実施形態では、各プレイヤーは、ビューの位置及び方向を含んで様々な視点を有することができる。ビデオソース1130は、必要に応じて彼らの視点に基づいて、各プレイヤーのために別個のビデオストリームを提供するように構成される。さらに、ビデオソース1130は、クライアント1110の各々に異なるフレームサイズ、フレームデータサイズ、及び/または符号化を提供するように設定され得る。ビデオソース1130は、任意で3次元ビデオを提供するように構成されている。
I/Oデバイス1145は、ビデオ、コマンド、情報の要求、ゲームの状態、視線情報、デバイスの動き、装置の位置、ユーザーの動き、クライアントのID、プレイヤーのID、ゲームコマンド、セキュリティ情報、オーディオ、及び/または同様のもののような情報をビデオサーバシステム1120が送信及び/または受信するように設定されている。一般的に、I/Oデバイス1145は、ネットワークカードやモデムなどの通信ハードウェアを備えている。I/Oデバイス1145は、ゲームサーバ1125、ネットワーク1115、及び/またはクライアント1110と通信するように設定されている。
プロセッサ1150は、本明細書で説明したビデオサーバシステム1120の様々なコンポーネント内に含まれるソフトウェアのようなロジックを実行するように設定されている。例えば、プロセッサ1150は、ビデオソース1130、ゲームサーバ1125、及び/またはクライアント修飾子1160の機能を実行するためにソフトウェア命令を用いてプログラムすることができる。ビデオサーバシステム1120は、任意にプロセッサ1150の1つ以上のインスタンスを含む。ビデオサーバシステム1120によって受信されたコマンドを実行するために、或いは本明細書で説明したゲームシステム1100の様々なエレメントの動作を調整するために、プロセッサ1150もまた、ソフトウェア命令を用いてプログラムすることができる。プロセッサ1150は、1つまたは複数のハードウェア装置を備えることができる。プロセッサ1150は電子プロセッサである。
ストレージ1155は、非一時的アナログ及び/またはデジタル記憶装置を備えている。例えば、ストレージ1155は、ビデオフレームを格納するように構成されたアナログストレージデバイスを備えることができる。ストレージ1155は、ハードドライブ、光学ドライブ、またはソリッド・ステート・ストレージなどのコンピュータ読み取り可能なデジタル・ストレージを備えることができる。ビデオフレーム、人工フレーム、ビデオフレーム及び人工フレームの両方を含むビデオストリーム、オーディオフレーム、オーディオストリーム、及び/または均等物を格納するようにストレージ1115は設定されている(適切なデータ構造またはファイルシステムによって)。ストレージ1155は、必要に応じて複数のデバイス間に分散される。いくつかの実施形態では、ストレージ1155は本明細書の他の箇所で説明したビデオソース1130のソフトウェア・コンポーネントを格納するように設定されている。これらのコンポーネントは、必要なときにプロビジョニングされる準備ができた形式で格納することができる。
ビデオサーバシステム1120は、必要に応じて、さらにクライアント修飾子1160を備えている。クライアント修飾子1160は、クライアント1110Aまたは1110Bのようなクライアントの能力を遠隔で判断するように設定されている。これらの能力は、クライアント1110A自体の能力、並びにクライアント1110Aとビデオサーバシステム1120との間の1つまたは複数の通信チャネルの機能の両方を含むことができる。例えば、クライアント修飾子1160は、ネットワーク1115を介して通信チャネルをテストするように設定することができる。
クライアント修飾子1160は、クライアント1110Aの能力を手動または自動で判断(例えば、発見)することができる。手動での判断は、クライアント1110Aのユーザーとの通信や能力を提供するようにユーザーに求めることを含む。例えば、いくつかの実施形態では、クライアント修飾子1160は、クライアント1110Aのブラウザ内に画像、テキスト及び/または同様のものを表示するように設定されている。一実施形態では、クライアント1110Aは、ブラウザが含まれているHMDである。別の実施形態では、クライアント1110Aは、ブラウザを有するゲームコンソールであり、HMDに表示することができる。表示されるオブジェクトは、クライアント1110Aのオペレーティング・システム、プロセッサ、ビデオデコーダのタイプ、ネットワーク接続のタイプ、ディスプレイ解像度などの情報をユーザーが入力することを要求する。ユーザーが入力した情報は、クライアント修飾子1160に戻って伝達される。
自動判断は、例えば、クライアント1110A上のエージェントを実行することにより、及び/またはクライアント1110Aにテスト映像を送信することによって行うことができる。エージェントは、Java(登録商標)スクリプトなどの演算命令を含むことができ、ウェブページに埋め込まれ或いはアドオンとしてインストールされる。エージェントは、任意にクライアント修飾子1160によって提供される。様々な実施形態では、エージェントは、クライアント1110Aの処理能力、クライアント1110Aのデコード及び表示機能、クライアント1110Aとビデオサーバシステム1120との間の通信チャネルのラグタイムの信頼性と帯域幅、クライアント1110Aのディスプレイのタイプ、クライアント1110Aのファイアウォール、クライアント1110Aのハードウェア、クライアント1110Aで実行されるソフトウェア、クライアント1110A内のレジストリエントリ、及び/または同様のものを見つけることができる。
クライアント修飾子1160は、コンピュータ可読媒体上に格納されたハードウェア、ファームウェア、及び/またはソフトウェアを含んでいる。クライアント修飾子1160は、必要に応じて、ビデオサーバシステム1120の1つ以上の他のエレメントとは別のコンピューティングデバイス上に配置される。例えば、いくつかの実施形態では、クライアント修飾子1160は、クライアント1110と複数のインスタンスのビデオサーバシステム1120の間の通信チャネルの特性を判断するように設定されている。これらの実施形態において、クライアント修飾子によって発見された情報は、クライアント1110の1つにストリーミングビデオを配信するために、ビデオサーバシステム1120のどのインスタンスが最も適しているかを決定するために使用することができる。
本発明の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な家庭用電化製品、ミニコンピュータ、メインフレームコンピュータなどを含むさまざまなコンピュータシステム構成で実施することができる。実施形態はまた、タスクがネットワークを介してリンクされるリモート処理装置によって実行される分散コンピューティング環境で実施することも可能である。
上記実施形態を念頭において、実施形態は、コンピュータシステムに格納されたデータを伴う様々なコンピュータ実装動作を用いることができることを理解すべきである。これらの動作は、物理量の物理的操作を必要とするものである。実施形態の一部を形成する本明細書中に記載したいずれかの動作は、有用なコンピュータ動作である。実施形態はまた、これらの動作を実行するためのデバイスまたは装置に関する。装置は、専用コンピュータのように必要な目的のために特別に構築されてもよい。専用コンピュータとして定義すると、コンピュータは、特別な目的の一部ではない他の処理、プログラムの実行やルーチン実行を行うこともできる一方で、特別な目的のために動作することが未だ可能である。代替的に、動作は、コンピュータメモリに格納された1つ以上のコンピュータプログラム、キャッシュ、或いはネットワークを介して取得したコンピュータプログラムによって選択的に起動または設定される汎用コンピュータで処理することもできる。データがネットワークを介して取得されるとき、データは、例えば、コンピューティングリソースのクラウドなどネットワーク上の他のコンピュータによって処理することもできる。
本発明の1つ以上の実施形態はまた、コンピュータ可読媒体上のコンピュータ読み取り可能なコードとして構築することができる。コンピュータ可読媒体はデータを記憶できる任意のデータ記憶装置であり、従って、コンピュータシステムによって読み取ることができる。コンピュータ可読媒体の例としては、ハードドライブ、ネットワーク接続ストレージ(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ及び他の光学並びに非光学データ記憶デバイスが含まれる。コンピュータ可読媒体は、コンピュータ可読コードが分散方式で格納及び実行されるように、ネットワーク結合型コンピュータシステム上に分散したコンピュータ読み取り可能な有形媒体を含むことができる。
方法の動作は特定の順序で記載したが、他のハウスキーピング演算が操作の間に行われてもよく、或いは僅かに異なる時間に発生するように動作が調整されてもよく、さらにはオーバーレイ動作の処理が所望の方法で行われる限り、処理に関連する様々な間隔で処理動作の発生を許可するシステムに分散されてもよいことが理解されるべきである。
上述した実施形態は理解を明確にする目的のため、ある程度詳細に説明してきたが、特定の変更及び改変が、添付の特許請求の範囲内で実施できることは明らかであろう。従って、本実施形態は、例示であって制限的なものではないと見なされるべきであり、本発明は、本明細書に記載された詳細に限定されるものではなく、添付の特許請求の範囲及び均等物の範囲内で改変することが可能である。

Claims (12)

  1. ヘッドマウントディスプレイ(HMD)上に画像をレンダリングするための方法であって、この方法は、
    前記HMD内部で1つまたは複数の第一のカメラでユーザーの視線を追跡し、
    前記HMDの動きを追跡し、前記動きを追跡することは前記HMD内部にはない第二のカメラで撮影した前記HMDの画像を解析することを含み、前記第二のカメラは赤外光または発光ダイオード(LED)光を検出して前記HMDの動きを追跡するように構成され、前記HMDの動きは仮想世界のレンダリングと前記HMDの追跡された動きにもとづいた前記仮想世界内の移動を引き起こし、
    前記HMDのディスプレイ画面に前記仮想世界をレンダリングし、前記レンダリングは、第一の領域を第二の領域よりも高い優先順位でレンダリングすることにより、前記第一の領域に前記第二の領域よりも高い解像度を与えるように構成され、前記第一の領域は、前記HMDの前記ディスプレイ画面を見るときの前記ユーザーの視線が検出された領域であり、
    前記仮想世界に対するビューに変化をもたらす前記HMDの前記動きにもとづいて前記ディスプレイ画面上の前記仮想世界の前記レンダリングを更新することを含み、
    前記更新することは、前記HMD内の前記第一のカメラによって検出された前記ユーザーの前記視線にもとづいて前記第一の領域の場所を更新し続け
    前記第一の領域および前記第二の領域はそれぞれレンダリング・ポリシーに関連づけられており、前記第一の領域および前記第二の領域に対する前記レンダリング・ポリシーは、前記ユーザーの前記視線の軌跡に基づいて予測される前記視線の動きに基づいて、決定される、方法。
  2. 前記レンダリング・ポリシーは、前記第一の領域に対して前記第二の領域よりも高い解像度を定義し、前記レンダリング・ポリシーは、さらに前記第一の領域および前記第二の領域に対する1つまたは複数の画面更新頻度と、前記第一の領域および前記第二の領域に画像をレンダリングする複雑度とを含む、請求項に記載の方法。
  3. 前記第二のカメラでコントローラの動きを追跡し、
    前記コントローラと同期して動くゲームオブジェクトを生成することをさらに含み、前記ゲームオブジェクトは前記仮想世界上でレンダリングされる、請求項1に記載の方法。
  4. 前記ゲームオブジェクトは、前記コントローラまたは前記コントローラを介した入力と同期して動くゲームまたは仮想空間におけるアバターである、請求項に記載の方法。
  5. ヘッドマウントディスプレイ(HMD)上に画像をレンダリングするための方法であって、この方法は、
    前記HMDの動きを追跡し、前記動きを追跡することは、前記HMDに関連づけられた慣性センサ情報、前記HMD内部にはなく前記HMDの相互作用空間をキャプチャするように向けられたカメラで撮影した前記HMDの画像を解析することとを組み合わせることによって実行され、前記カメラは赤外光または発光ダイオード(LED)光を検出して前記HMDの動きに連動した位置と向きを追跡するように構成され、前記HMDの動きは仮想世界に異なるビューのレンダリングと前記HMDの追跡された動きにもとづいた前記仮想世界内の移動を引き起こし、
    前記HMDのディスプレイ画面に前記仮想世界をレンダリングし、前記レンダリングは、第一の領域を第二の領域よりも高い優先順位でレンダリングすることにより、前記第一の領域に前記第二の領域よりも高い解像度を与えるように構成され、前記第一の領域は前記ディスプレイ画面の中央領域に配置され、前記第二の領域は前記ディスプレイ画面の前記中央領域の外側に配置され、
    前記仮想世界に対するビューに変化をもたらす前記HMDの前記動きにもとづいて前記ディスプレイ画面上の前記仮想世界の前記レンダリングを更新することを含み、
    前記更新することは、前記第二の領域の解像度に比べてより高い解像度で前記ディスプレイ画面の中央に前記仮想世界のための画像コンテンツをレンダリングし続け
    前記第一の領域および前記第二の領域はそれぞれレンダリング・ポリシーに関連づけられており、前記第一の領域および前記第二の領域に対する前記レンダリング・ポリシーは、ユーザーの視線の軌跡に基づいて予測される前記視線の動きに基づいて、決定される、方法。
  6. 前記レンダリング・ポリシーは、前記第一の領域に対して前記第二の領域よりも高い解像度を定義し、前記レンダリング・ポリシーは、さらに前記第一の領域および前記第二の領域に対する1つまたは複数の画面更新頻度と、前記第一の領域および前記第二の領域に画像をレンダリングする複雑度とを含む、請求項に記載の方法。
  7. 前記カメラでコントローラの動きを追跡し、
    前記コントローラと同期して動くゲームオブジェクトを生成することをさらに含み、前記ゲームオブジェクトは前記仮想世界上でレンダリングされる、請求項に記載の方法。
  8. 前記ゲームオブジェクトは、前記コントローラまたは前記コントローラを介した入力と同期して動くゲームまたは仮想空間におけるアバターである、請求項に記載の方法。
  9. 前記HMDはコンピュータと通信し、前記コンピュータは前記HMDによって前記仮想世界をレンダリングするための画像フレームを処理するように構成される、請求項に記載の方法。
  10. 前記コンピュータは前記画像フレームを生成するためのグラフィックス処理ユニット(GPU)を含む、請求項に記載の方法。
  11. 前記第一の領域に比べて低い解像度の前記第二の領域に対してはより少ない画像データを生成する、請求項に記載の方法。
  12. 前記HMDは有線接続または無線接続により前記コンピュータと通信する、請求項11に記載の方法。
JP2017051072A 2013-06-07 2017-03-16 ヘッドマウントディスプレイでユーザーの動きに応答する画像レンダリング Active JP6408629B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361832755P 2013-06-07 2013-06-07
US61/832,755 2013-06-07
US14/206,849 2014-03-12
US14/206,849 US9897805B2 (en) 2013-06-07 2014-03-12 Image rendering responsive to user actions in head mounted display

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016518339A Division JP6114472B2 (ja) 2013-06-07 2014-05-23 ヘッドマウントディスプレイでユーザーの動きに応答する画像レンダリング

Publications (2)

Publication Number Publication Date
JP2017146607A JP2017146607A (ja) 2017-08-24
JP6408629B2 true JP6408629B2 (ja) 2018-10-17

Family

ID=52005035

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016518339A Active JP6114472B2 (ja) 2013-06-07 2014-05-23 ヘッドマウントディスプレイでユーザーの動きに応答する画像レンダリング
JP2017051072A Active JP6408629B2 (ja) 2013-06-07 2017-03-16 ヘッドマウントディスプレイでユーザーの動きに応答する画像レンダリング

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016518339A Active JP6114472B2 (ja) 2013-06-07 2014-05-23 ヘッドマウントディスプレイでユーザーの動きに応答する画像レンダリング

Country Status (5)

Country Link
US (3) US9897805B2 (ja)
EP (2) EP3524328B1 (ja)
JP (2) JP6114472B2 (ja)
CN (2) CN109999491B (ja)
WO (1) WO2014197226A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11335066B2 (en) 2019-10-15 2022-05-17 Samsung Electronics Co., Ltd. Apparatus and operating method for displaying augmented reality object
WO2024071545A1 (ko) * 2022-09-29 2024-04-04 한국기계연구원 비균일 화소밀도를 갖는 디스플레이, 이의 제조방법 및 이를 포함하는 헤드 마운트 디스플레이 장치

Families Citing this family (224)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10209771B2 (en) 2016-09-30 2019-02-19 Sony Interactive Entertainment Inc. Predictive RF beamforming for head mounted display
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US10585472B2 (en) 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US10173129B2 (en) * 2013-06-09 2019-01-08 Sony Interactive Entertainment Inc. Methods for rendering interactive content to a head mounted display
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
US9524580B2 (en) * 2014-01-06 2016-12-20 Oculus Vr, Llc Calibration of virtual reality systems
KR102246553B1 (ko) * 2014-04-24 2021-04-30 엘지전자 주식회사 Hmd 및 그 제어 방법
US9459454B1 (en) * 2014-05-23 2016-10-04 Google Inc. Interactive social games on head-mountable devices
JP6355978B2 (ja) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
KR102244620B1 (ko) * 2014-09-05 2021-04-26 삼성전자 주식회사 렌더링 수준 제어 방법 및 장치
US9977495B2 (en) * 2014-09-19 2018-05-22 Utherverse Digital Inc. Immersive displays
JP6526051B2 (ja) * 2014-12-12 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US9978341B2 (en) * 2014-12-23 2018-05-22 Mediatek Inc. Visual data processing method and visual data processing system which can perform a process operation according to a gazing point
KR102311326B1 (ko) * 2015-01-02 2021-10-13 에스케이플래닛 주식회사 웹 컨텐츠 출력 장치 및 방법
KR102144515B1 (ko) 2015-01-07 2020-08-14 삼성전자주식회사 마스터 기기, 슬레이브 기기 및 그 제어 방법
US9659411B2 (en) 2015-01-14 2017-05-23 Oculus Vr, Llc Passive locators for a virtual reality headset
US20160210780A1 (en) * 2015-01-20 2016-07-21 Jonathan Paulovich Applying real world scale to virtual content
US9911232B2 (en) 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments
US9779554B2 (en) 2015-04-10 2017-10-03 Sony Interactive Entertainment Inc. Filtering and parental control methods for restricting visual activity on a head mounted display
JP2016207042A (ja) * 2015-04-24 2016-12-08 株式会社コーエーテクモゲームス プログラム及び記録媒体
CN106293561B (zh) 2015-05-28 2020-02-28 北京智谷睿拓技术服务有限公司 显示控制方法和装置、显示设备
US9898864B2 (en) 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US9836117B2 (en) 2015-05-28 2017-12-05 Microsoft Technology Licensing, Llc Autonomous drones for tactile feedback in immersive virtual reality
CN106303499B (zh) 2015-05-30 2018-10-16 北京智谷睿拓技术服务有限公司 视频显示控制方法和装置、显示设备
CN106303315B (zh) 2015-05-30 2019-08-16 北京智谷睿拓技术服务有限公司 视频显示控制方法和装置、显示设备
CN106303498B (zh) 2015-05-30 2018-10-16 北京智谷睿拓技术服务有限公司 视频显示控制方法和装置、显示设备
US9898091B2 (en) 2015-06-03 2018-02-20 Oculus Vr, Llc Virtual reality system with head-mounted display, camera and hand-held controllers
DE102015007245A1 (de) * 2015-06-05 2016-12-08 Audi Ag Verfahren zum Betreiben einer Datenbrilleneinrichtung und Datenbrilleneinrichtung
USD772986S1 (en) 2015-06-11 2016-11-29 Oculus Vr, Llc Wireless game controller
EP3307407B1 (en) 2015-06-14 2020-09-09 Sony Interactive Entertainment Inc. Expanded field of view re-rendering for vr spectating
US9776084B2 (en) * 2015-06-15 2017-10-03 Oculus Vr, Llc Virtual reality system with camera shock-mounted to head-mounted display
EP3113159A1 (en) 2015-06-30 2017-01-04 Thomson Licensing Method and device for processing a part of an immersive video content according to the position of reference parts
US10083544B2 (en) 2015-07-07 2018-09-25 Google Llc System for tracking a handheld device in virtual reality
EP4016250A1 (en) * 2015-07-17 2022-06-22 Magic Leap, Inc. Virtual/augmented reality system having dynamic region resolution
US10464482B2 (en) * 2015-07-21 2019-11-05 Utherverse Digital Inc. Immersive displays
EP3363050B1 (en) 2015-07-23 2020-07-08 Artilux Inc. High efficiency wide spectrum sensor
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
EP3709362B1 (en) 2015-08-04 2021-07-14 Artilux Inc. Germanium-silicon light sensing method
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
US20180227630A1 (en) * 2015-08-07 2018-08-09 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH System and method for displaying a stream of images
WO2017025483A1 (de) * 2015-08-07 2017-02-16 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten
US9893112B2 (en) 2015-08-27 2018-02-13 Artilux Corporation Wide spectrum optical sensor
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US9906704B2 (en) * 2015-09-17 2018-02-27 Qualcomm Incorporated Managing crowd sourced photography in a wireless network
US11194398B2 (en) * 2015-09-26 2021-12-07 Intel Corporation Technologies for adaptive rendering using 3D sensors
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
CN106652004A (zh) * 2015-10-30 2017-05-10 北京锤子数码科技有限公司 基于头戴式可视设备对虚拟现实进行渲染的方法及装置
US9839840B2 (en) 2015-11-05 2017-12-12 Oculus Vr, Llc Interconnectable handheld controllers
US10007339B2 (en) 2015-11-05 2018-06-26 Oculus Vr, Llc Controllers with asymmetric tracking patterns
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US20170132845A1 (en) * 2015-11-10 2017-05-11 Dirty Sky Games, LLC System and Method for Reducing Virtual Reality Simulation Sickness
US9990045B2 (en) 2015-11-12 2018-06-05 Oculus Vr, Llc Method and apparatus for detecting hand gestures with a handheld controller
US10130875B2 (en) 2015-11-12 2018-11-20 Oculus Vr, Llc Handheld controller with finger grip detection
US9805512B1 (en) * 2015-11-13 2017-10-31 Oculus Vr, Llc Stereo-based calibration apparatus
CN105487655B (zh) * 2015-11-23 2023-01-17 联想(北京)有限公司 信息处理方法及相关电子设备
JP2017130190A (ja) * 2015-12-04 2017-07-27 株式会社半導体エネルギー研究所 電子機器、表示システム
US9804693B2 (en) 2015-12-18 2017-10-31 Oculus Vr, Llc Handheld controller with activation sensors
US10229540B2 (en) * 2015-12-22 2019-03-12 Google Llc Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image
EP3398165B1 (en) * 2015-12-28 2023-02-01 Artilux Inc. Eye gesture tracking
JP6832061B2 (ja) * 2015-12-29 2021-02-24 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
US10386922B2 (en) 2015-12-30 2019-08-20 Facebook Technologies, Llc Handheld controller with trigger button and sensor retainer assembly
US10441880B2 (en) 2015-12-30 2019-10-15 Facebook Technologies, Llc Handheld controller with spring-biased third finger button assembly
US9977494B2 (en) * 2015-12-30 2018-05-22 Oculus Vr, Llc Tracking constellation assembly for use in a virtual reality system
US10343059B2 (en) 2015-12-30 2019-07-09 Facebook Technologies, Llc Handheld controller with thumbstick guard
US11857869B2 (en) 2015-12-31 2024-01-02 Meta Platforms Technologies, Llc Handheld controller with hand detection sensors
US10078218B2 (en) * 2016-01-01 2018-09-18 Oculus Vr, Llc Non-overlapped stereo imaging for virtual reality headset tracking
US10643381B2 (en) * 2016-01-12 2020-05-05 Qualcomm Incorporated Systems and methods for rendering multiple levels of detail
US10643296B2 (en) 2016-01-12 2020-05-05 Qualcomm Incorporated Systems and methods for rendering multiple levels of detail
JP2017130201A (ja) 2016-01-20 2017-07-27 株式会社半導体エネルギー研究所 入力システム、および電子機器
US10110935B2 (en) * 2016-01-29 2018-10-23 Cable Television Laboratories, Inc Systems and methods for video delivery based upon saccadic eye motion
JP6092437B1 (ja) * 2016-02-02 2017-03-08 株式会社コロプラ 仮想空間画像提供方法、及びそのプログラム
GB2548151B (en) * 2016-03-11 2020-02-19 Sony Interactive Entertainment Europe Ltd Head-mountable display
JP6632443B2 (ja) * 2016-03-23 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
CN105869215B (zh) * 2016-03-28 2019-03-12 上海米影信息科技有限公司 一种虚拟现实成像系统
US10169846B2 (en) * 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10979843B2 (en) * 2016-04-08 2021-04-13 Qualcomm Incorporated Spatialized audio output based on predicted position data
CN108463765A (zh) * 2016-04-08 2018-08-28 谷歌有限责任公司 基于姿势信息在头戴式显示装置处编码图像数据
US10025376B2 (en) 2016-04-27 2018-07-17 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
US9851792B2 (en) * 2016-04-27 2017-12-26 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
US10652572B2 (en) * 2016-04-29 2020-05-12 Ati Technologies Ulc Motion-adaptive intra-refresh for high-efficiency, low-delay video coding
CN105931272B (zh) * 2016-05-06 2019-04-05 上海乐相科技有限公司 一种运动对象追踪方法及系统
JP6689679B2 (ja) * 2016-06-01 2020-04-28 京セラ株式会社 表示装置、情報表示システム、及びプログラム
US9959678B2 (en) * 2016-06-03 2018-05-01 Oculus Vr, Llc Face and eye tracking using facial sensors within a head-mounted display
US10430988B2 (en) 2016-06-03 2019-10-01 Facebook Technologies, Llc Facial animation using facial sensors within a head-mounted display
CN109478097B (zh) * 2016-06-16 2022-02-22 苹果公司 用于提供信息的方法和系统及计算机程序产品
US20180007422A1 (en) * 2016-06-30 2018-01-04 Sony Interactive Entertainment Inc. Apparatus and method for providing and displaying content
GB2553086B (en) 2016-07-20 2022-03-02 V Nova Int Ltd Decoder devices, methods and computer programs
US11570454B2 (en) 2016-07-20 2023-01-31 V-Nova International Limited Use of hierarchical video and image coding for telepresence
US11138784B2 (en) 2016-07-29 2021-10-05 Sony Corporation Image processing apparatus and image processing method
TWI610059B (zh) * 2016-08-04 2018-01-01 緯創資通股份有限公司 三維量測方法及應用其之三維量測裝置
US20180061103A1 (en) * 2016-08-29 2018-03-01 Analogix Semiconductor, Inc. Systems and Methods for Generating Display Views Tracking User Head Movement for Head-Mounted Display Devices
JP6620079B2 (ja) * 2016-09-08 2019-12-11 株式会社ソニー・インタラクティブエンタテインメント 画像処理システム、画像処理方法およびコンピュータプログラム
KR20180028796A (ko) * 2016-09-09 2018-03-19 삼성전자주식회사 이미지 표시 방법, 저장 매체 및 전자 장치
US10068553B2 (en) * 2016-09-12 2018-09-04 Intel Corporation Enhanced rendering by a wearable display attached to a tethered computer
US10330935B2 (en) * 2016-09-22 2019-06-25 Apple Inc. Predictive, foveated virtual reality system
EP3504610A1 (en) 2016-09-22 2019-07-03 Apple Inc. Postponing the state change of an information affecting the graphical user interface until during the conditon of inattentiveness
USD835104S1 (en) 2016-09-27 2018-12-04 Oculus Vr, Llc Wireless game controller
WO2018064627A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US10565777B2 (en) * 2016-09-30 2020-02-18 Sony Interactive Entertainment Inc. Field of view (FOV) throttling of virtual reality (VR) content in a head mounted display
KR20180041984A (ko) * 2016-10-17 2018-04-25 삼성전자주식회사 이미지를 렌더링 하는 장치 및 방법
GB2555378B (en) * 2016-10-18 2021-06-09 Virtually Live Switzerland Gmbh HMD delivery system and method
US10438389B2 (en) * 2016-11-07 2019-10-08 Htc Corporation Method, device, and non-transitory computer readable storage medium for displaying virtual reality or augmented reality environment according to a viewing angle
KR20180052156A (ko) * 2016-11-09 2018-05-18 삼성디스플레이 주식회사 이동 단말기 및 그 제어 방법
CN109890472A (zh) * 2016-11-14 2019-06-14 华为技术有限公司 一种图像渲染的方法、装置及vr设备
EP3542249A1 (en) * 2016-11-15 2019-09-25 Google LLC Input controller stabilization techniques for virtual reality systems
WO2018109988A1 (ja) * 2016-12-16 2018-06-21 シャープ株式会社 表示装置、表示制御方法及びプログラム
JP6212667B1 (ja) * 2016-12-26 2017-10-11 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
TWI632395B (zh) * 2016-12-27 2018-08-11 廣達電腦股份有限公司 虛擬實境裝置以及其畫面產生方法
JP2018106520A (ja) * 2016-12-27 2018-07-05 株式会社コロプラ 仮想空間にコンテンツを提示するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、コンテンツ提示装置
CN106792133A (zh) * 2016-12-30 2017-05-31 北京华为数字技术有限公司 虚拟现实服务器、视频数据传输方法及系统
JP6791991B2 (ja) * 2017-01-19 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント 画像配信装置
JP6266814B1 (ja) * 2017-01-27 2018-01-24 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10504397B2 (en) 2017-01-31 2019-12-10 Microsoft Technology Licensing, Llc Curved narrowband illuminant display for head mounted display
US10298840B2 (en) 2017-01-31 2019-05-21 Microsoft Technology Licensing, Llc Foveated camera for video augmented reality and head mounted display
US11187909B2 (en) 2017-01-31 2021-11-30 Microsoft Technology Licensing, Llc Text rendering by microshifting the display in a head mounted display
US10354140B2 (en) 2017-01-31 2019-07-16 Microsoft Technology Licensing, Llc Video noise reduction for video augmented reality system
KR102606976B1 (ko) 2017-02-15 2023-11-29 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 데이터 송수신 방법
EP3367158A1 (en) * 2017-02-23 2018-08-29 Nokia Technologies Oy Rendering content
EP3588494B1 (en) * 2017-02-27 2024-04-03 Sony Group Corporation Information processing device, information processing method, and program
US10317670B2 (en) * 2017-03-03 2019-06-11 Microsoft Technology Licensing, Llc MEMS scanning display device
US10365709B2 (en) 2017-03-03 2019-07-30 Microsoft Technology Licensing, Llc MEMS scanning display device
CN108540517A (zh) * 2017-03-06 2018-09-14 中国移动通信有限公司研究院 一种信息获取方法、用户设备及系统
US10405374B2 (en) * 2017-03-17 2019-09-03 Google Llc Antenna system for head mounted display device
JP7107302B2 (ja) * 2017-03-21 2022-07-27 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
AU2017405914B2 (en) 2017-03-22 2021-06-10 Huawei Technologies Co., Ltd. Virtual reality image sending method and apparatus
IL269533B2 (en) * 2017-03-28 2023-11-01 Magic Leap Inc An augmented reality system with spatial audio linked to a user-operated virtual object
WO2018190826A1 (en) * 2017-04-12 2018-10-18 Hewlett-Packard Development Company, L.P. Transfer to head mounted display
US10979685B1 (en) 2017-04-28 2021-04-13 Apple Inc. Focusing for virtual and augmented reality systems
WO2018200993A1 (en) * 2017-04-28 2018-11-01 Zermatt Technologies Llc Video pipeline
WO2018213812A2 (en) 2017-05-18 2018-11-22 Synaptics Incorporated Display interface with foveal compression
US11216907B2 (en) * 2017-05-18 2022-01-04 Sony Interactive Entertainment Inc. Image generating apparatus, method, and program for displaying image resolution with motion in head-mounted display (HMD)
CN107194891B (zh) * 2017-05-18 2020-11-10 上海兆芯集成电路有限公司 改善图像质量的方法及虚拟实境装置
CN107194890B (zh) * 2017-05-18 2020-07-28 上海兆芯集成电路有限公司 使用多分辨率改善图像质量的方法及装置
KR101888364B1 (ko) * 2017-06-02 2018-08-14 주식회사 비주얼캠프 콘텐츠 표시 방법 및 이를 수행하기 위한 장치
US11861255B1 (en) 2017-06-16 2024-01-02 Apple Inc. Wearable device for facilitating enhanced interaction
US11164606B2 (en) 2017-06-30 2021-11-02 Qualcomm Incorporated Audio-driven viewport selection
US10366691B2 (en) * 2017-07-11 2019-07-30 Samsung Electronics Co., Ltd. System and method for voice command context
US10861142B2 (en) 2017-07-21 2020-12-08 Apple Inc. Gaze direction-based adaptive pre-filtering of video data
GB2564866B (en) 2017-07-24 2021-07-28 Advanced Risc Mach Ltd Method of and data processing system for providing an output surface
US10356401B1 (en) 2017-08-16 2019-07-16 Facebook, Inc. Noise cancellation in a wireless head mounted display
US10803642B2 (en) * 2017-08-18 2020-10-13 Adobe Inc. Collaborative virtual reality anti-nausea and video streaming techniques
US10395418B2 (en) * 2017-08-18 2019-08-27 Microsoft Technology Licensing, Llc Techniques for predictive prioritization of image portions in processing graphics
US10754496B2 (en) * 2017-08-24 2020-08-25 Microsoft Technology Licensing, Llc Virtual reality input
JP6755843B2 (ja) * 2017-09-14 2020-09-16 株式会社東芝 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム
US10366522B2 (en) * 2017-09-27 2019-07-30 Microsoft Technology Licensing, Llc Augmented and virtual reality bot infrastructure
US10867368B1 (en) 2017-09-29 2020-12-15 Apple Inc. Foveated image capture for power efficient video see-through
US10341537B2 (en) * 2017-09-29 2019-07-02 Sony Interactive Entertainment America Llc Spectator view into an interactive gaming world showcased in a live event held in a real-world venue
CN107831831B (zh) * 2017-11-13 2020-11-27 重庆市科源能源技术发展有限公司 一种电力企业员工业务内容培训系统
US10169843B1 (en) * 2017-11-20 2019-01-01 Advanced Micro Devices, Inc. Temporal foveated rendering using motion estimation
CN109814413A (zh) * 2017-11-21 2019-05-28 宏碁股份有限公司 头戴式显示设备、电子系统以及相关控制方法
KR102028997B1 (ko) * 2017-11-29 2019-10-07 엘지디스플레이 주식회사 헤드 마운트 디스플레이 장치
US10613323B1 (en) * 2017-12-13 2020-04-07 Facebook Technologies, Llc Transition feature for framing multizone optics
US10922992B2 (en) * 2018-01-09 2021-02-16 V-Armed Inc. Firearm simulation and training system and method
US11204215B2 (en) 2018-01-09 2021-12-21 V-Armed Inc. Wireless independent tracking system for use in firearm simulation training
US10706300B2 (en) * 2018-01-23 2020-07-07 Toyota Research Institute, Inc. Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction
US10817068B2 (en) * 2018-01-23 2020-10-27 Toyota Research Institute, Inc. Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction
US10853674B2 (en) 2018-01-23 2020-12-01 Toyota Research Institute, Inc. Vehicle systems and methods for determining a gaze target based on a virtual eye position
US10546425B2 (en) 2018-01-30 2020-01-28 Disney Enterprises, Inc. Real physical objects interacting with augmented reality features
KR102535918B1 (ko) * 2018-02-07 2023-05-25 삼성전자 주식회사 사용자의 움직임 정보에 기반하여 디스플레이의 오버 드라이빙 정보를 조정하기 위한 방법 및 웨어러블 장치
KR101943424B1 (ko) * 2018-02-20 2019-01-30 (주)라인크리에이티브 영상 제작 장치 및 방법
CN111868929B (zh) 2018-02-23 2021-08-03 奥特逻科公司 光检测装置及其光检测方法
US11105928B2 (en) 2018-02-23 2021-08-31 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
US10694170B2 (en) * 2018-03-05 2020-06-23 Valve Corporation Controlling image display via real-time compression in peripheral image regions
WO2019172678A1 (en) * 2018-03-07 2019-09-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
EP4212222A1 (en) * 2018-03-07 2023-07-19 Magic Leap, Inc. Visual tracking of peripheral devices
US11145096B2 (en) 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
US10445940B2 (en) 2018-03-15 2019-10-15 Disney Enterprises, Inc. Modeling interactions between simulated characters and real-world objects for more realistic augmented reality
CN112236686B (zh) 2018-04-08 2022-01-07 奥特逻科公司 光探测装置
CN108596834B (zh) * 2018-04-27 2023-11-17 腾讯科技(深圳)有限公司 图像的分辨率处理方法、图像处理装置及系统、存储介质
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
US11262839B2 (en) 2018-05-17 2022-03-01 Sony Interactive Entertainment Inc. Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment
US10942564B2 (en) 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
JP2021144258A (ja) * 2018-06-06 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2019235946A1 (en) * 2018-06-07 2019-12-12 Motorola Solutions, Inc System and method for sending and rendering an image by a device based on receiver's context
US10600236B2 (en) * 2018-08-06 2020-03-24 Valve Corporation Prediction and throttling adjustments based on application rendering performance
CN112585673A (zh) * 2018-08-29 2021-03-30 索尼公司 信息处理设备、信息处理方法及程序
WO2020045141A1 (ja) * 2018-08-31 2020-03-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11982809B2 (en) 2018-09-17 2024-05-14 Apple Inc. Electronic device with inner display and externally accessible input-output device
CN109453523A (zh) * 2018-09-26 2019-03-12 努比亚技术有限公司 一种游戏画面显示处理方法、终端及计算机可读存储介质
US11327561B1 (en) * 2018-09-27 2022-05-10 Apple Inc. Display system
CN111047676B (zh) * 2018-10-12 2023-04-25 中国移动通信集团广西有限公司 一种图像渲染方法、装置及存储介质
US11989930B2 (en) 2018-10-25 2024-05-21 Beyeonics Surgical Ltd. UI for head mounted display system
CN111309142A (zh) 2018-12-11 2020-06-19 托比股份公司 用于切换显示设备的输入模态的方法和设备
KR102204212B1 (ko) * 2018-12-21 2021-01-19 주식회사 딥엑스 실감형 콘텐츠 제공 장치 및 방법
US11226677B2 (en) 2019-01-08 2022-01-18 V-Armed Inc. Full-body inverse kinematic (FBIK) module for use in firearm simulation training
CN109473082A (zh) * 2019-01-08 2019-03-15 京东方科技集团股份有限公司 一种显示屏刷新率的调整方法、装置及虚拟现实设备
CN111523295A (zh) * 2019-01-17 2020-08-11 北京沃东天骏信息技术有限公司 数据渲染方法、装置、介质及电子设备
US11675424B2 (en) 2019-01-22 2023-06-13 Hewlett-Packard Development Company, L.P. Mixed reality presentation
US10931346B2 (en) * 2019-02-21 2021-02-23 Qualcomm Incorporated Techniques for using rotation vectors for beam management in high frequency wireless networks
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
CN110166758B (zh) * 2019-06-24 2021-08-13 京东方科技集团股份有限公司 图像处理方法、装置、终端设备及存储介质
US11106929B2 (en) * 2019-08-29 2021-08-31 Sony Interactive Entertainment Inc. Foveated optimization of TV streaming and rendering content assisted by personal devices
US11543873B2 (en) 2019-09-27 2023-01-03 Intel Corporation Wake-on-touch display screen devices and related methods
JP7498553B2 (ja) * 2019-09-30 2024-06-12 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像表示システム、画像データ転送装置、および画像処理方法
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
US11360528B2 (en) 2019-12-27 2022-06-14 Intel Corporation Apparatus and methods for thermal management of electronic user devices based on user activity
US11150470B2 (en) 2020-01-07 2021-10-19 Microsoft Technology Licensing, Llc Inertial measurement unit signal based image reprojection
CN111836116A (zh) * 2020-08-06 2020-10-27 武汉大势智慧科技有限公司 一种网络自适应渲染的视频展示方法及系统
US20220072380A1 (en) * 2020-09-04 2022-03-10 Rajiv Trehan Method and system for analysing activity performance of users through smart mirror
US11990064B2 (en) 2020-09-07 2024-05-21 Sony Group Corporation Display processing device, display processing method, storage medium, and information processing device
FR3114428B1 (fr) * 2020-09-23 2024-04-12 Squaremind Systeme pour generer un modele de corps humain et un avatar numerique dans un afficheur d’un casque de realite virtuelle, procede associe
US11488345B2 (en) * 2020-10-22 2022-11-01 Varjo Technologies Oy Display apparatuses and rendering servers incorporating prioritized re-rendering
CN112416125A (zh) * 2020-11-17 2021-02-26 青岛小鸟看看科技有限公司 Vr头戴式一体机
CN112419366A (zh) * 2020-11-30 2021-02-26 深圳力维智联技术有限公司 车辆的追踪方法、系统及计算机可读存储介质
KR102556863B1 (ko) * 2020-12-31 2023-07-20 동국대학교 산학협력단 사용자 맞춤형 운동 훈련 방법 및 시스템
US11403820B1 (en) 2021-03-11 2022-08-02 International Business Machines Corporation Predictive rendering of an image
FR3123132A1 (fr) * 2021-05-19 2022-11-25 Lexip Procédé d'émission d'un signal numérique par un moyen de contrôle
WO2022242854A1 (en) * 2021-05-19 2022-11-24 Telefonaktiebolaget Lm Ericsson (Publ) Prioritizing rendering by extended reality rendering device responsive to rendering prioritization rules
GB2609013A (en) 2021-07-16 2023-01-25 Sony Interactive Entertainment Inc Video recording and playback systems and methods
CN113613066B (zh) * 2021-08-03 2023-03-28 天翼爱音乐文化科技有限公司 一种实时视频特效的渲染方法、系统、装置及存储介质
US11756248B2 (en) * 2021-08-23 2023-09-12 International Business Machines Corporation Computer graphics object rendering based on priority
CN117959721B (zh) * 2024-04-02 2024-05-31 深圳市乐易网络股份有限公司 一种基于三维建模的游戏引擎设计系统及方法
CN117994181B (zh) * 2024-04-03 2024-06-11 成都力比科技有限公司 一种基于全屏幕的2d光照渲染方法及系统

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4348186A (en) * 1979-12-17 1982-09-07 The United States Of America As Represented By The Secretary Of The Navy Pilot helmet mounted CIG display with eye coupled area of interest
JP2671619B2 (ja) 1991-03-06 1997-10-29 富士通株式会社 映像生成処理装置
JPH04288122A (ja) * 1991-03-18 1992-10-13 A T R Shichiyoukaku Kiko Kenkyusho:Kk 視線表示装置
JP2550832B2 (ja) * 1992-07-21 1996-11-06 株式会社セガ・エンタープライゼス 仮想現実感生成装置
JP3001348B2 (ja) * 1993-06-08 2000-01-24 九州日本電気ソフトウェア株式会社 動画像表示方式
JP3058004B2 (ja) * 1994-03-23 2000-07-04 キヤノン株式会社 目視制御画像表示装置
JP2000132152A (ja) * 1998-10-27 2000-05-12 Sharp Corp 表示装置
US7395031B1 (en) * 1998-12-02 2008-07-01 Swisscom Mobile Ag Mobile device and method for receiving and processing program-accompanying data
AU1765800A (en) 1999-12-30 2001-07-16 Swisscom Mobile Ag Image data transmission method
US6529331B2 (en) 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US6943754B2 (en) * 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US7925391B2 (en) * 2005-06-02 2011-04-12 The Boeing Company Systems and methods for remote display of an enhanced image
JP4907128B2 (ja) * 2005-08-30 2012-03-28 任天堂株式会社 ゲームシステムおよびゲームプログラム
US8308563B2 (en) * 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US20070113242A1 (en) * 2005-11-16 2007-05-17 Fetkovich John E Selective post-processing of compressed digital video
JPWO2007069618A1 (ja) * 2005-12-12 2009-05-21 新世代株式会社 練磨方法、練磨装置、及び、コーディネーショントレーニング方法
TWI357987B (en) * 2007-10-24 2012-02-11 Hannstar Display Corp A three-dimension image display device and a displ
US20090225001A1 (en) * 2007-11-06 2009-09-10 University Of Central Florida Research Foundation, Inc. Hybrid Display Systems and Methods
JP5047090B2 (ja) 2008-07-31 2012-10-10 キヤノン株式会社 システム
CN102725789B (zh) * 2009-12-04 2015-08-05 Nlt科技股份有限公司 立体显示装置、用于产生用于立体显示的图像数据的方法
US10178290B2 (en) * 2010-02-17 2019-01-08 Sri International Method and apparatus for automatically acquiring facial, ocular, and iris images from moving subjects at long-range
US8446411B2 (en) 2010-06-11 2013-05-21 Microsoft Corporation Adaptive image rendering and use of imposter
JP2011258159A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
WO2012004709A1 (en) * 2010-07-06 2012-01-12 Koninklijke Philips Electronics N.V. Generation of high dynamic range images from low dynamic range images
JP5499985B2 (ja) * 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
JP2012095229A (ja) * 2010-10-28 2012-05-17 Sharp Corp 画像表示装置及び画像表示装置用のコンピュータプログラム
US20120106632A1 (en) * 2010-10-28 2012-05-03 Apple Inc. Method and apparatus for error resilient long term referencing block refresh
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
CN102223489B (zh) * 2011-06-09 2012-11-21 福州瑞芯微电子有限公司 一种基于触控技术的视频切换方法
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
EP2574382B1 (en) * 2011-09-29 2019-05-15 Sony Interactive Entertainment Europe Limited Video game assistance system and method
JP2013083731A (ja) * 2011-10-06 2013-05-09 Murata Mach Ltd 画像表示システム
US20130335405A1 (en) * 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
JP5891131B2 (ja) * 2012-07-11 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US9665171B1 (en) * 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11335066B2 (en) 2019-10-15 2022-05-17 Samsung Electronics Co., Ltd. Apparatus and operating method for displaying augmented reality object
US11798241B2 (en) 2019-10-15 2023-10-24 Samsung Electronics Co., Ltd. Apparatus and operating method for displaying augmented reality object
WO2024071545A1 (ko) * 2022-09-29 2024-04-04 한국기계연구원 비균일 화소밀도를 갖는 디스플레이, 이의 제조방법 및 이를 포함하는 헤드 마운트 디스플레이 장치

Also Published As

Publication number Publication date
US10545338B2 (en) 2020-01-28
EP3003517A1 (en) 2016-04-13
US20140361977A1 (en) 2014-12-11
CN105392538A (zh) 2016-03-09
CN109999491A (zh) 2019-07-12
WO2014197226A1 (en) 2014-12-11
CN105392538B (zh) 2019-04-12
JP6114472B2 (ja) 2017-04-12
EP3524328A1 (en) 2019-08-14
US9897805B2 (en) 2018-02-20
JP2016527536A (ja) 2016-09-08
CN109999491B (zh) 2023-06-30
US20180188534A1 (en) 2018-07-05
US11199705B2 (en) 2021-12-14
JP2017146607A (ja) 2017-08-24
EP3524328B1 (en) 2020-09-09
US20200159018A1 (en) 2020-05-21
EP3003517B1 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
JP6408629B2 (ja) ヘッドマウントディスプレイでユーザーの動きに応答する画像レンダリング
US11210807B2 (en) Optimized shadows in a foveated rendering system
US11037371B2 (en) Sensory stimulus management in head mounted display
US10740951B2 (en) Foveal adaptation of particles and simulation models in a foveated rendering system
US20210252398A1 (en) Method and system for directing user attention to a location based game play companion application
JP6929380B2 (ja) Vr環境への第2の画面の仮想ウィンドウ
US11222444B2 (en) Optimized deferred lighting in a foveated rendering system
JP7503122B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180920

R150 Certificate of patent or registration of utility model

Ref document number: 6408629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250