JP2020518321A - Vr環境への第2の画面の仮想ウィンドウ - Google Patents

Vr環境への第2の画面の仮想ウィンドウ Download PDF

Info

Publication number
JP2020518321A
JP2020518321A JP2019555790A JP2019555790A JP2020518321A JP 2020518321 A JP2020518321 A JP 2020518321A JP 2019555790 A JP2019555790 A JP 2019555790A JP 2019555790 A JP2019555790 A JP 2019555790A JP 2020518321 A JP2020518321 A JP 2020518321A
Authority
JP
Japan
Prior art keywords
virtual reality
player
handheld device
viewer
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019555790A
Other languages
English (en)
Other versions
JP6929380B2 (ja
Inventor
スティーヴン、オスマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2020518321A publication Critical patent/JP2020518321A/ja
Application granted granted Critical
Publication of JP6929380B2 publication Critical patent/JP6929380B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【解決手段】仮想現実プレーヤの仮想現実環境を観覧する方法は、観覧者のハンドヘルドデバイスにより、ヘッドマウントディスプレイを使用する仮想現実プレーヤに提示される仮想現実環境を実行するコンピュータと、接続を確立する。ハンドヘルドデバイスの第1カメラは、現実世界空間内の仮想現実プレーヤの現在位置を取り込む。ハンドヘルドデバイスの第2カメラは、観覧者の顔の位置が取り込む。ハンドヘルドデバイスの画面に対する視野方向を特定するために顔の位置を監視する。画面は、仮想現実環境と仮想現実環境内でインタラクトする仮想現実プレーヤとを提示する。コンピュータはハンドヘルドデバイスの現在位置及び観覧者の顔の位置を継続的に共有する。現実世界における仮想現実プレーヤの現在位置と画面に対する観覧者の視野方向とに合わせて調整された、仮想現実プレーヤを含む仮想現実環境の映像ストリームをコンピュータから受信する。【選択図】図5

Description

本開示は、ヘッドマウントディスプレイ(HMD)に提示される仮想現実(VR)環境コンテンツ、及び現実世界空間で観覧者が使用する第2の画面上で、VRプレーヤがインタラクトするVR環境に関連するコンテンツを提示する方法に関する。
ビデオゲーム産業は、長年にわたり数多くの変化を経験している。演算能力が拡張したことにより、ビデオゲームの開発者も同様に、この演算能力の向上を活用したゲームソフトウェアを製作している。この目的に向かって、ビデオゲーム開発者は、高度な動作及び計算を組み込んだゲームをコーディングして、非常に詳細で魅力的なゲーム体験を生み出している。
例示的なゲームプラットフォームには、Sony PlayStation(登録商標)、Sony PlayStation2(登録商標)(PS2)、Sony PlayStation3(登録商標)(PS3)、及びSony PlayStation4(登録商標)(PS4)が挙げられ、それぞれがゲーム機の形態で販売されている。周知のように、ゲーム機は、ディスプレイ(通常はテレビ)に接続して、ハンドヘルドコントローラを介してユーザインタラクションを可能にするように設計されている。ゲーム機は、CPUを含む特別処理ハードウェア、集中的なグラフィック動作を処理するグラフィックシンセサイザ、ジオメトリ変換を行うベクトルユニット、並びに他のグルーハードウェア、ファームウェア及びソフトウェアで設計されている。ゲーム機はさらに、ゲーム機を介したローカルプレイ用のゲームディスクを受け取る光ディスクリーダーを有するように設計され得る。オンラインゲームも可能であり、ユーザはインターネットを介して、他のユーザに対して、または他のユーザと共に、インタラクティブにプレイすることができる。ゲームの複雑さがプレーヤを魅了し続けているため、ゲーム及びハードウェアの製造業者は、さらなるインタラクティビティ及びコンピュータプログラムを可能にするために革新し続けている。
コンピュータゲーム産業において成長傾向にあるのが、ユーザとゲームシステム間のインタラクションを増やすゲームの開発である。より豊かなインタラクティブ体験を達成する1つの方法として、ワイヤレスゲームコントローラの使用があり、プレーヤの動きを追跡して、その動きをゲームへの入力として使用するために、ゲームシステムによりワイヤレスゲームコントローラの動きが追跡される。一般にジェスチャ入力は、コンピューティングシステム、ビデオゲーム機、スマート家電などの電子デバイスを用いて、電子デバイスが取り込んだプレーヤのあるジェスチャに反応することを指す。
さらに臨場感のあるインタラクティブ体験を達成する別の方法として、ヘッドマウントディスプレイの使用がある。ヘッドマウントディスプレイは、ユーザにより装着され、仮想空間のビューなど、様々なグラフィックを提示するように構成され得る。ヘッドマウントディスプレイ上で提示されるグラフィックは、ユーザの視野の大部分または全視野まで及ぶことができる。よって、ヘッドマウントディスプレイは、視覚的に臨場感のある体験をユーザに提供することができる。
このような背景において、本開示の実施形態は生じる。
本開示の実施態様は、HMDユーザが遭遇している、見ている、及び/またはインターフェースしている仮想現実環境及びコンテンツを観覧することを可能にするために使用される方法及びシステムを含む。
いくつかの構成では、AR/VR用の「ウィンドウ効果」が提供される。一構成では、ユーザ/観覧者のデバイスは、ポータブルデバイスの画面(すなわち第2の画面)を見ているユーザの頭部を追跡し、ユーザデバイスの画面上に、ウィンドウからのぞく効果に似た効果が生成される。例えば、ユーザが画面を自分の顔に近づけてポータブルデバイスの画面をのぞき込むと、VR環境をより多く見ることができる。ユーザがデバイスを自分の顔に対しある角度で動かすと、ユーザの視野方向で異なるコンテンツまたはズームを映し出す、例えばビューの視錐台を調節したVR環境内の画像が、ユーザに提供される。
一構成では、VRプレーヤのビュー(すなわちVR内にVRプレーヤが現れるビュー)を見るために、観覧者/第2のプレーヤが使用する追跡画面上でウィンドウ効果の使用が実行され得、観覧者/第2のプレーヤは、実物の自分の頭を画面に近づけてのぞきこむと、ウィンドウ効果を通してさらに詳細を見ることができる。
いくつかの構成では、追跡画面は提供されるが、主要プレーヤ(例えば第2のプレーヤ/観覧者ではなくVRプレーヤ)が追跡画面を保持し、VRプレーヤはVR内で画面を見て、VRプレーヤが追跡画面を見ながら頭部を周りに動かすと、ウィンドウ効果が適用される。いくつかの実施形態では、追跡画面は、追跡される電話またはタブレットである。
一構成では、第2の画面は、VR環境への一種の仮想ウィンドウを提供し、VR環境内のビューは、観覧者が自分の目または顔に対し第2の画面を保持することにより、制御可能である。いくつかの構成では、デバイスの前面カメラは、VRプレーヤまたはVRプレーヤの周りの空間を捉えているが、デバイスの第2の画面の位置を特定するために、自撮りカメラにより観覧者の目または顔が追跡される。この構成により、VRプレーヤの観覧者が1つ以上の第2の画面を取り扱うことを可能にするシステムが提供される。観覧者は、VRプレーヤがまだ見ていないかもしれないVRプレーヤの周りの領域を見ることができるため、観覧者はVRプレーヤを支援することができる。一構成では、観覧者は、VRプレーヤのVR環境内でインタラクトすることができる追加プレーヤになることができる。
一実施形態では、仮想現実プレーヤの仮想現実環境を観覧する方法が開示される。方法は、観覧者のハンドヘルドデバイスにより、ヘッドマウントディスプレイ(HMD)を使用する仮想現実プレーヤに提示される仮想現実環境を実行するコンピュータと、接続を確立することを含む。ハンドヘルドデバイスの第1のカメラにより、現実世界空間内の仮想現実プレーヤの現在位置が取り込まれる。ハンドヘルドデバイスの第2のカメラにより、観覧者の顔の位置が取り込まれる。顔の位置は、ハンドヘルドデバイスの画面に対する視野方向を特定するために監視される。ハンドヘルドデバイスの画面は、仮想現実環境と、仮想現実環境内でインタラクトする仮想現実プレーヤの少なくとも一部とを提示するように構成される。ハンドヘルドデバイスの現在位置、及び観覧者の顔の位置は、仮想現実プレーヤに提示される仮想現実環境を実行するコンピュータに、継続的に共有される。次に方法は、現実世界における仮想現実プレーヤの現在位置と、ハンドヘルドデバイスの画面に対する観覧者の視野方向とに合わせて調整された、仮想現実プレーヤの少なくとも一部を含む仮想現実環境の映像ストリームを、コンピュータから受信することを可能にする。
いくつかの実施形態では、継続的に共有される観覧者の顔の位置を使用して、観覧者の顔と画面との間の距離の変化が特定される。
いくつかの実施形態では、方法は、特定された距離の変化に基づいて、仮想現実環境の受信映像ストリームにおいてズームインまたはズームアウト画像を受信することを含む。一実施形態では、ユーザのハンドヘルドデバイスの正面と、ユーザの顔との間の距離が測定される。ユーザが遠くに手を伸ばすと、仮想現実環境内の画像ビューは拡大される。逆に、ユーザがハンドヘルドデバイスを自分の顔に近づけると、ビューはズームアウトされ、ハンドヘルドデバイスの前面カメラが向けられている領域の周りの空間がより多く映し出される。
いくつかの実施形態では、観覧者の顔と画面との間の距離が遠くなると、当該ズームイン処理が行われ、観覧者の顔と画面との間の距離が近くなると、当該ズームアウト処理が行われる。
いくつかの実施形態では、現実世界空間における仮想現実プレーヤの現在位置を使用して、HMDの視野方向が特定され、コンピュータはHMDの視野方向を使用して、HMDに提供されるビューを、仮想現実プレーヤがHMDを使用して制御したビューに近づける。
いくつかの実施形態では、ハンドヘルドデバイスの画面に対する視野方向を特定するために、観覧者の目が追跡され、ハンドヘルドデバイスの第2のカメラを使用して目の視線が追跡される。
いくつかの実施形態では、仮想現実プレーヤの周りにいる観覧者によるハンドヘルドデバイスの動きにより、ハンドヘルドデバイスの画面上に提示された映像ストリームにより提供されるビューが更新される。
いくつかの実施形態では、当該ビュー更新により、仮想現実環境の周りの360度ビューが可能となり、当該動きにより、仮想現実プレーヤを除く仮想現実環境の領域を見ることが可能となる。
いくつかの実施形態では、仮想現実プレーヤは、仮想現実環境とインタラクトするキャラクタとして、仮想現実環境内でレンダリングされる。
いくつかの実施形態では、当該継続的共有は、当該接続を介して可能であり、接続は、ハンドヘルドデバイスの第1のカメラ及び第2のカメラを使用して取り込まれた画像のストリームを、コンピュータに送信するように構成された無線接続である。
いくつかの実施形態では、当該コンピュータは、画像ストリームを分析して、ハンドヘルドデバイスの現在位置に対する現実世界空間内の仮想現実プレーヤの現在位置を特定するように構成される。ハンドヘルドデバイスの画面に提供される映像ストリームにより、HMDを使用して提示される仮想環境内を見ることが可能となり、ハンドヘルドデバイスを介して仮想現実環境内を見ることは、ハンドヘルドデバイスの動きにより制御され、HMDを介して仮想現実環境内を見ることは、仮想現実プレーヤによるHMDの動きにより独立して制御される。
いくつかの実施形態では、観覧者によるハンドヘルドデバイスの動きにより、仮想現実環境内に描かれた仮想現実プレーヤの上、下、及び周りを見ることが可能となる。
いくつかの実施形態では、ハンドヘルドデバイスの動きは、現実世界空間内の仮想現実プレーヤの現在位置に相対するものであり、ハンドヘルドデバイスの動きにより、仮想現実環境内のオブジェクトは、ハンドヘルドデバイスが観覧者の顔に近づくとパンアウトビューで、ハンドヘルドデバイスが観覧者の顔から離れるとパンインビューで、見ることが可能となる。
一実施形態では、仮想現実プレーヤの仮想現実環境を観覧する方法が開示される。方法は、コンピュータを介して仮想現実環境を実行することと、コンピュータと観覧者のハンドヘルドデバイスとの間の接続を確立することとを含む。仮想現実環境は、ヘッドマウントディスプレイ(HMD)を使用して仮想現実プレーヤに提示され、次いで、現実世界空間内の仮想現実プレーヤの第1の位置を特定するための画像データが受信される。画像データは、ハンドヘルドデバイスの第1のカメラにより取り込まれる。方法は、観覧者の顔の位置を特定するための画像データを受信して、第2のカメラを使用してハンドヘルドデバイスの画面に対する視野方向を特定することを含む。ハンドヘルドデバイスの画面は、仮想現実環境と、仮想現実環境内でインタラクトする仮想現実プレーヤの少なくとも一部とを提示するように構成される。ハンドヘルドデバイスの現在位置、及び観覧者の顔の位置は、仮想現実プレーヤに提示される仮想現実環境を実行するコンピュータにより、継続的に受信される。方法は、現実世界における仮想現実プレーヤの現在位置と、ハンドヘルドデバイスの画面に対する観覧者の視野方向とに合わせて調整された、仮想現実プレーヤの少なくとも一部を含む仮想現実環境の映像ストリームを、ハンドヘルドデバイスに送信することを含む。
いくつかの実施形態では、継続的に受信される観覧者の顔の位置を使用して、観覧者の顔と画面との間の距離の変化が特定される。次に、特定された距離の変化に基づいて、仮想現実環境の送信映像ストリームのために、ズームインまたはズームアウト画像が送信される。
いくつかの実施形態では、観覧者の顔と画面との間の距離が遠くなると、当該ズームイン処理が行われ、観覧者の顔と画面との間の距離が近くなると、当該ズームアウト処理が行われる。
いくつかの実施形態では、現実世界空間における仮想現実プレーヤの現在位置を使用して、HMDの視野方向が特定され、コンピュータはHMDの視野方向を使用して、HMDに提供されるビューを、仮想現実プレーヤがHMDを使用して制御したビューに近づける。
いくつかの実施形態では、ハンドヘルドデバイスの画面に対する視野方向を特定するために、観覧者の目が追跡され、ハンドヘルドデバイスの第2のカメラを使用して目の視線が追跡される。
いくつかの実施形態では、コンピュータは、画像ストリームを分析して、ハンドヘルドデバイスの現在位置に対する現実世界空間内の仮想現実プレーヤの現在位置を特定するように構成されており、その結果、ハンドヘルドデバイスの画面に提供される映像ストリームにより、HMDを使用して提示される仮想環境内を見ることが可能となり、よって、ハンドヘルドデバイスを介して仮想現実環境内を見ることは、ハンドヘルドデバイスの動きにより制御され、HMDを介して仮想現実環境内を見ることは、仮想現実プレーヤによるHMDの動きにより独立して制御される。
いくつかの実施形態では、仮想現実プレーヤは、仮想現実環境とインタラクトするキャラクタとして、仮想現実環境内でレンダリングされ、当該継続的受信は、当該接続を介して可能であり、接続は、ハンドヘルドデバイスの第1のカメラ及び第2のカメラを使用して取り込まれた画像のストリームを、コンピュータに受信するように構成された無線接続である。
いくつかの実施形態では、観覧者によるハンドヘルドデバイスの動きにより、仮想現実環境内に描かれた仮想現実プレーヤの上、下、及び周りを見ることが可能となる。
いくつかの実施形態では、仮想現実プレーヤの周りにいる観覧者によるハンドヘルドデバイスの動きにより、ハンドヘルドデバイスの画面上に提示された映像ストリームのビューが更新され、当該ビュー更新により、仮想現実環境の周りの360度ビューが可能となり、当該動きにより、仮想現実プレーヤを除く仮想現実環境の領域を見ることが可能となる。
いくつかの実施形態では、ハンドヘルドデバイスの動きは、現実世界空間内の仮想現実プレーヤの現在位置に相対するものであり、ハンドヘルドデバイスの動きにより、仮想現実環境内のオブジェクトは、ハンドヘルドデバイスが観覧者の顔に近づくとパンアウトビューで、ハンドヘルドデバイスが観覧者の顔から離れるとパンインビューで、見ることが可能となる。
いくつかの実施形態では、ハンドヘルドデバイスは、立体視ハンドヘルドデバイス(例えば3D眼鏡または自動立体視による)、または左目及び右目のそれぞれに異なる画像を提供する明視野ディスプレイであり得る。一構成では、各目に関して位置及び配向が測定され得る。一実施形態では、例えばVRプレーヤが現実世界をのぞいている場合、仮想ウィンドウにおいて各目に対し異なる画像をレンダリングすることにより、逆も成り立ち得る。
さらに別の実施形態では、システムは、VRプレーヤが別のVRプレーヤの第2のVR世界を見ることを可能にするように構成され得る。
本開示の他の態様及び利点は、本開示の原理を例として示す添付図面と併せて、下記の発明を実施するための形態から明らかになるであろう。
本開示は、添付図面と併せて、以下の説明を参照することにより、よりよく理解され得る。
本開示の一実施形態による、ビデオゲームのインタラクティブなゲームプレイのためのシステムを示す。
本開示の一実施形態による、ヘッドマウントディスプレイ(HMD)を示す。
一実施形態による、HMDユーザがクライアントシステムとインターフェースし、クライアントシステムが第2の画面と称される第2の画面ディスプレイにコンテンツを提供する一例を示す。
本開示の一実施形態による、実行中のビデオゲームに関連するHMDの機能を概念的に示す。
一実施形態による、VR空間内でインタラクトしているVRプレーヤの現実世界を捉えて、VR空間へのウィンドウビューを提供するデバイスを、観覧ユーザが利用する一例を示す。
一実施形態による、プレーヤのVR空間内の異なる観点を得るためにユーザのデバイスの位置を追跡し、VRプレーヤのVR空間へのウィンドウビューに異なるコンテンツを表示する一例を示す。
一実施形態による、観覧者がデバイスを利用してVRプレーヤを見て、VRプレーヤは、VRプレーヤがプレイしているVRキャラクタの形態で観覧者の画面に提示される一例を示す。
一実施形態による、観覧者が、デバイスを移動させて異なる角度または位置から画面を見て、VRプレーヤのVR空間内の異なる観点のビューを得る、従って観覧者のデバイスに表示されるウィンドウ効果により提供されるビューを変更させる一例を示す。
一実施形態による、観覧者がデバイスを利用してVRプレーヤを見る一例であって、コンピュータがVRプレーヤの位置ビューに相対した観覧者のデバイス用映像ストリームを共有し生成できるように、デバイスとコンピュータ、並びにコンピュータとVRヘッドセット及び周辺デバイスによる通信を表す一例を示す。
一実施形態による、観察者が、VRプレーヤに対する観覧者の位置、及び観覧者の顔に対するデバイスの位置により、ウィンドウビューを変更させる一例を示す。
一実施形態による、VRプレーヤの行動を、シューティングゲームをプレイするVRキャラクタまたはアバターで表示しながら、VRプレーヤの観覧者がとる位置に相対して変更された視点のウィンドウビューを示す。 一実施形態による、VRプレーヤの行動を、シューティングゲームをプレイするVRキャラクタまたはアバターで表示しながら、VRプレーヤの観覧者がとる位置に相対して変更された視点のウィンドウビューを示す。
本開示の一実施形態による、ヘッドマウントディスプレイの構成要素を示す。
本開示の様々な実施形態による、ゲームシステム1400のブロック図である。
本開示の下記の実施態様は、インタラクトするVRプレーヤをユーザデバイスが見ることを可能にする方法、システム、コンピュータ可読媒体、及びクラウドシステムを提供し、ユーザのデバイスには、VR空間内のVRプレーヤの画像(例えばVR空間内のキャラクタまたはアバターとして)が提供される。一構成では、ユーザのデバイスのカメラは、自撮りカメラを使用して、画面に対するユーザの顔及び/または目の位置を追跡する。デバイスの位置はさらに、デバイス内の慣性センサから取得した慣性データを使用して追跡され得る。この追跡情報は、コンピュータに伝達され得る。この構成では、デバイスの前面カメラは、例えばVRプレーヤがインタラクトしている前方の空間を捉える。
VRプレーヤも別個に追跡されている。VRプレーヤの追跡は、様々な技術を使用して実行することができる。例として、1つ以上のカメラを使用したHMDのLED追跡、放出されたIR光を検出するHMD上の光センサ、慣性センサ、及びこれらの組み合わせが挙げられる。VRプレーヤの追跡された位置は、コンピュータに伝達される。コンピュータは、観覧者のデバイスの観点から、VR環境内のVRプレーヤのストリーミングビューを生成するように構成される。VRプレーヤに対するデバイスの位置ビューに応じて、デバイスの第2の画面には異なるビューが提供される。ビューは、異なる観点及び位置の提供に加えて、ウィンドウ効果も提供し、これにより、画面に対する位置、角度、及びのぞく方向に応じて、VR環境内のビューを動的に変更することが可能になる。前述のように、画面に対する視野方向は、背面カメラ、すなわち自撮りカメラにより追跡される。
いくつかの実施形態では、自動立体視3Dディスプレイを使用することにより、仮想世界を立体で表示することが可能になる。頭部が追跡されているので、この3D画像は、観客/観覧者の角度だけから見えれば、全ての角度から見える必要はない。
人がVR内にいて現実世界を見渡している場合、仮想ユーザのビューに基づいて好適なビューポートがレンダリングされるように、現実世界に対し非常に広い視野のカメラを使用することが可能である。あるいは、広角カメラを使用するのではなく、ジンバル上のカメラを実装して、仮想ユーザの視点に一致するように向けることもできる。
しかしながら、本開示は、これらの具体的な詳細の一部または全てがなくとも実施できることは、当業者には明らかであろう。他の例では、本開示を不必要に不明瞭にしないために、周知のプロセス動作は詳細に説明されていない。
図1は、本開示の一実施形態による、ビデオゲームのインタラクティブなゲームプレイのためのシステムを示す。ヘッドマウントディスプレイ(HMD)102を装着しているユーザ100が示される。HMD102は、眼鏡、ゴーグル、またはヘルメットと同様に装着され、ユーザ100にビデオゲームまたは他のコンテンツを表示するように構成される。HMD102の表示機構はユーザの目の極めて近くで提供されるため、HMD102はユーザに非常に臨場感のある体験を提供する。従って、HMD102は、ユーザの視野の大部分または全体さえも占める表示領域を、ユーザの目のそれぞれに提供することができる。
一実施形態では、HMD102は、コンピュータ106に接続され得る。コンピュータ106への接続は、有線または無線であり得る。コンピュータ106は、当技術分野において既知の任意の汎用または専用コンピュータであり得、これには、ゲーム機、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、モバイルデバイス、セルラー電話、タブレット、シンクライアント、セットトップボックス、メディアストリーミングデバイスなどが含まれるが、これらに限定されない。一実施形態において、コンピュータ106は、ビデオゲームを実行し、HMD102によるレンダリングのためにビデオゲームから映像及び音声を出力するように構成され得る。仮想現実空間またはビューのレンダリングは、ハンドヘルドデバイスによってもできることを理解されたい。いくつかの実施形態では、仮想現実空間はコンピュータ106により生成され得、仮想現実空間内のビューもハンドヘルドデバイスにより生成され得る。いくつかの実施形態では、レンダリングはコンピュータにより行われ得、映像ストリームはハンドヘルドデバイスへ転送され得る。さらに別の実施形態では、レンダリングの一部は、クラウドもしくはサーバコンピュータ、またはコンピュータ106、ハンドヘルドデバイス、及びクラウド/サーバコンピュータの組み合わせにより行われ得る。さらに別の実施形態では、2つのコンピュータが提供され得る(1つはハンドヘルドデバイスにストリーミングされるビューを生成し、もう1つはHMDに提供されるビューを生成する)。いくつかの実施形態では、ハンドヘルドデバイスの代わりに、第2のデバイスが、画面を介してVR環境内のビューを提供するコンピュータであり得ることを理解されたい。
ユーザ100は、グローブインターフェースオブジェクト104aを操作して、ビデオゲームへの入力を行い得る。さらに、カメラ108は、ユーザ100が位置するインタラクティブ環境の画像を取り込むように構成され得る。これらの取り込まれた画像を分析して、ユーザ100、HMD102、及びグローブインターフェースオブジェクト104aの位置及び動きが特定され得る。一実施形態では、グローブインターフェースオブジェクト104aは、その位置及び配向を特定するために追跡可能な光源を含む。
後述されるように、HMD102に表示される仮想現実シーンとユーザがインターフェースする方法は様々であり得、グローブインターフェースオブジェクト104aに加えて他のインターフェースデバイスも使用することができる。例えば、両手コントローラだけでなく、片手コントローラも使用することができる。いくつかの実施形態では、コントローラは、コントローラに関連付けられた光源を追跡することにより、またはコントローラに関連付けられた形状、センサ、及び慣性データを追跡することにより、コントローラ自体の追跡を行うことができる。これらの様々な種類のコントローラを使用することで、または1つ以上のカメラにより取り込まれるユーザが行った手のジェスチャだけでも使用することで、HMD102に提示される仮想現実環境に対しインターフェース、制御、操作、インタラクト、及び参加を行うことが可能である。
さらに、HMD102は、HMD102の位置及び配向を特定するために追跡可能な1つ以上の光源を含み得る。カメラ108は、インタラクティブ環境から音を取り込むために、1つ以上のマイクロホンを含み得る。マイクロホンアレイにより取り込まれた音は、音源の位置を特定するように処理され得る。特定された位置からの音は、選択的に利用され得る、または特定された位置以外からの他の音を排除するように処理され得る。さらに、カメラ108は、多重画像取り込みデバイス(例えば立体視対カメラ)、IRカメラ、深度カメラ、及びこれらの組み合わせを含むように定義され得る。
別の実施形態では、コンピュータ106は、ネットワークを介したクラウドゲームプロバイダ112との通信において、シンクライアントとして機能する。クラウドゲームプロバイダ112は、ユーザ102によりプレイされているビデオゲームを維持し実行する。コンピュータ106は、HMD102、グローブインターフェースオブジェクト104a、及びカメラ108からの入力を、クラウドゲームプロバイダへ送信し、クラウドゲームプロバイダは、入力を処理して、実行中のビデオゲームのゲーム状態に作用させる。映像データ、音声データ、及び触覚フィードバックデータなどの実行中のビデオゲームからの出力は、コンピュータ106へ送信される。コンピュータ106はさらに、データを送信前に処理し得る、またはデータを関連デバイスに直接送信し得る。例えば、映像及び音声ストリームはHMD102に提供されるが、振動フィードバック命令はグローブインターフェースオブジェクト104aに提供される。
一実施形態において、HMD102、グローブインターフェースオブジェクト104a、及びカメラ108は、それ自体がネットワーク110と接続してクラウドゲームプロバイダ112と通信するネットワーク型デバイスであり得る。例えば、コンピュータ106は、ビデオゲーム処理を行わないがネットワークトラフィックの流れを促進するルータなどのローカルネットワークデバイスであり得る。HMD102、グローブインターフェースオブジェクト104a、及びカメラ108によるネットワークへの接続は、有線または無線であり得る。
さらに、本開示の実施形態はヘッドマウントディスプレイに関連して説明され得るが、別の実施形態では、テレビ、プロジェクタ、LCDディスプレイ画面、ポータブルデバイス画面(例えばタブレット、スマートフォン、ラップトップなど)、あるいは本実施形態に従って映像をレンダリングする及び/またはインタラクティブシーンもしくは仮想環境の表示を提供するように構成され得る任意の他の種類のディスプレイを、非限定的に含む非頭部搭載ディスプレイが代用され得ることが理解されよう。
図2Aは、本開示の一実施形態による、ヘッドマウントディスプレイ(HMD)を示す。示されるように、HMD102は、複数の光源200A〜Hを含む。これらの光源のそれぞれは、特定の形状を有するように構成されてもよく、同一または異なる色を有するように構成することができる。光源200A、200B、200C、及び200Dは、HMD102の前面に配置される。光源200E及び200Fは、HMD102の側面に配置される。光源200G及び200Hは、HMD102の前面及び側面に及ぶように、HMD102の角に配置される。ユーザがHMD102を使用するインタラクティブ環境の取り込み画像において、光源を特定することができることは理解されよう。光源の特定及び追跡に基づいて、インタラクティブ環境内のHMD102の位置及び配向を特定することができる。光源のうちのいくつかは、画像取り込みデバイスに対するHMD102の特定の配向によっては、視覚的に取り込み可能または不可能であることが、さらに理解されよう。また、画像取り込みデバイスに対するHMD102の配向によっては、光源の別の部分(例えば光源200G及び200H)が、画像取り込みに露呈され得る。
一実施形態では、光源は、周りにいる他の人に対し、HMDの現行状態を示すように構成され得る。例えば、光源の一部または全ては、特定の配色、強度案配を有するように構成され、点滅するように構成され、特定のオン/オフ構成またはHMD102の現行状態を示す他の装置を有し得る。例として、光源は、ビデオゲームの活動的ゲームプレイ(一般に活動的タイムライン内またはゲームシーン内に起こるゲームプレイ)中には、メニューインターフェースの移動またはゲーム設定の実施(その間ゲームタイムラインまたはゲームシーンが停止または一時停止され得る)などのビデオゲームの他の非活動的ゲームプレイ態様とは、異なる設定で表示するように構成され得る。光源はまた、ゲームプレイの相対激度レベルを示すように構成され得る。例えば、ゲームプレイの激しさが高まると、光源の強度、または点滅速度も高まり得る。このように、ユーザの周りにいる人は、HMD102上の光源を見て、ユーザが激しいゲームプレイに活発に参加しており、今は邪魔されたくないであろうと理解し得る。
HMD102はさらに、1つ以上のマイクロホンを含み得る。示される実施形態では、HMD102は、HMD102の前面に画定されたマイクロホン204A及び204Bと、HMD102の側面に画定されたマイクロホン204Cとを含む。マイクロホンアレイを利用して、マイクロホンのそれぞれからの音が処理され、音源の位置が特定され得る。この情報は、不要な音源の除外、音源と視覚識別との関連付けなどを含む様々な方法で利用され得る。
HMD102はまた、1つ以上の画像取り込みデバイスを含み得る。示される実施形態では、画像取り込みデバイス202A及び202Bを含むHMD102が示される。立体視対の画像取り込みデバイスを利用して、HMD102の観点から、環境の三次元(3D)画像及び映像が取り込まれ得る。このような映像はユーザに提示され、HMD102を装着している間、「ビデオシースルー」能力がユーザに提供され得る。すなわち、厳密に言えばユーザはHMD102を通して外部を見ることはできないが、それにもかかわらず、画像取り込みデバイス202A及び202B(または例えば、下記の図3に示されるように、HMD102の外側本体上に配置された1つ以上の前面カメラ108')により取り込まれる映像により、HMD102を通して見ているかのようにHMD102の外部の環境を見ることができる機能等価物が提供され得る。このような映像は、拡張現実体験を提供するために仮想要素と共に拡張することができる、あるいは別の方法で仮想要素と合併または融合され得る。示される実施形態では、2つのカメラがHMD102の前面に示されているが、HMD102上に設置され任意の方向に配向された外面カメラが任意の数存在し得ることは理解されよう。例えば、別の実施形態では、環境の追加パノラマ画像取り込みを提供するために、HMD102の側面に搭載されたカメラが存在し得る。
図2Bは、HMD102ユーザがクライアントシステム106とインターフェースし、クライアントシステム106が第2の画面107と称される第2の画面ディスプレイにコンテンツを提供する一例を示す。後述されるように、クライアントシステム106は、HMD102から第2の画面107へのコンテンツ共有を処理する集積電子機器を含み得る。別の実施形態は、クライアントシステムと、HMD102及び第2の画面107のそれぞれとの間をインターフェースする別個のデバイス、モジュールコネクタを含み得る。この一般的な例では、ユーザ100は、HMD102を装着し、コントローラ104を使用してビデオゲームをプレイしている。ユーザ100によるインタラクティブなプレイにより、HMD102にインタラクティブに表示されるビデオゲームコンテンツ(VGC)が生成される。
一実施形態では、HMD102に表示されているコンテンツは、第2の画面107に共有される。一例では、第2の画面107を見る人は、ユーザ100がHMD102においてインタラクティブにプレイしているコンテンツを見ることができる。別の実施形態では、別のユーザ(例えばプレーヤ2)は、クライアントシステム106とインタラクトして、第2の画面コンテンツ(SSC)を生成することができる。コントローラ104ともインタラクトするプレーヤにより生成される第2の画面コンテンツ(または任意の種類のユーザインターフェース、ジェスチャ、発声、または入力)は、クライアントシステム106へのSSCとして生成され得、これは、HMD102から受信されるVGCと一緒に、第2の画面107上に表示され得る。
従って、HMDユーザと同じ場所または離れた場所に存在し得る他のユーザによるインタラクティビティは、HMDユーザ、及び第2の画面107上でHMDユーザがプレイするコンテンツを見得るユーザの両者にとって、社交的で、相互作用があり、さらに臨場感があり得る。示されるように、クライアントシステム106は、インターネット110に接続され得る。インターネットは、様々なコンテンツソース120からのコンテンツへのアクセスも、クライアントシステム106に提供し得る。コンテンツソース120は、インターネットを介してアクセス可能な任意の種類のコンテンツを含み得る。
このようなコンテンツには、映像コンテンツ、動画コンテンツ、ストリーミングコンテンツ、ソーシャルメディアコンテンツ、ニュースコンテンツ、友人コンテンツ、広告コンテンツなどが含まれ得るが、これらに限定されない。一実施形態では、ゲームプレイ中にインタラクティビティに関連付けられたマルチメディアコンテンツをHMDに提供するように、クライアントシステム106を使用して、HMDユーザ用のコンテンツが同時に処理され得る。次いで、クライアントシステム106は、ビデオゲームコンテンツとは無関係であり得る他のコンテンツも、第2の画面に提供することができる。クライアントシステム106は、一実施形態では、コンテンツソース120のうちの1つから、またはローカルユーザもしくは遠隔ユーザから、第2の画面のコンテンツを受信し得る。
図3は、本開示の一実施形態による、実行中のビデオゲームに関連するHMD102の機能を概念的に示す。実行中のビデオゲームは、入力を受信してビデオゲームのゲーム状態を更新するゲームエンジン320により定義される。ビデオゲームのゲーム状態は、オブジェクトの存在及び位置、仮想環境の状況、イベントのトリガ、ユーザプロファイル、ビューの観点など、現行のゲームプレイの様々な態様を定義するビデオゲームの様々なパラメータの値により、少なくとも部分的に定義され得る。
示される実施形態では、ゲームエンジンは、例として、コントローラ入力314、音声入力316、及び動作入力318を受信する。コントローラ入力314は、ハンドヘルドゲームコントローラ(例えばSony DUALSHOCK(登録商標)4無線コントローラ、Sony PlayStation(登録商標)Move動作コントローラ)、またはグローブインターフェースオブジェクト104aなど、HMD102とは別個のゲームコントローラの操作から定義され得る。例として、コントローラ入力314には、直接入力、ボタン押下、トリガ起動、動き、ジェスチャ、またはゲームコントローラの操作から処理される他の種類の入力が含まれ得る。音声入力316は、HMD102のマイクロホン302から、または画像取り込みデバイス108もしくはローカル環境内の他の場所に含まれるマイクロホンから、処理され得る。動作入力318は、HMD102に含まれる動作センサ300から、またはHMD102の画像を取り込む画像取り込みデバイス108から、処理され得る。ゲームエンジン320は、ゲームエンジンの構成に従って処理された入力を受信し、ビデオゲームのゲーム状態を更新する。ゲームエンジン320は、様々なレンダリングモジュールにゲーム状態データを出力し、様々なレンダリングモジュールは、ゲーム状態データを処理して、ユーザに提示するコンテンツを定義する。
示される実施形態では、映像レンダリングモジュール322は、HMD102上に提示される映像ストリームをレンダリングするように定義される。映像ストリームは、ディスプレイ/プロジェクタ機構310により提示され、光学素子308を通してユーザの目306により見られ得る。音声レンダリングモジュール304は、ユーザが聴く音声ストリームをレンダリングするように構成される。一実施形態では、音声ストリームは、HMD102に関連付けられたスピーカ304を通して出力される。スピーカ304は、オープンエア型スピーカ、ヘッドホン、またはその他の種類の音声提供可能なスピーカの形態を取り得ることを理解されたい。
一実施形態では、ユーザの視線の追跡を可能にするために、視線追跡カメラ312がHMD102に含まれる。視線追跡カメラは、ユーザの目の画像を取り込み、取り込まれた画像はユーザの視線方向を特定するために分析される。一実施形態では、ユーザの視線方向に関する情報は、映像レンダリングに作用するように利用され得る。例えば、ユーザの目が特定の方向を見ていると判断されると、ユーザが見ている領域にさらなる詳細またはより早い更新を提供するなどして、その方向の映像レンダリングを優先または強調することができる。ユーザの視線方向は、ヘッドマウントディスプレイに相対して、ユーザが存在する現実環境に相対して、及び/またはヘッドマウントディスプレイ上でレンダリングされている仮想環境に相対して、定義され得ることを理解されたい。
概して、視線追跡カメラ312により取り込まれた画像の分析は、単独で検討する場合、HMD102に対するユーザの視線方向を提供する。しかし、HMD102の追跡された位置及び配向と組み合わせて検討する場合は、HMD102の位置及び配向はユーザの頭部の位置及び配向と同義であるため、ユーザの現実世界の視線方向を特定することができる。すなわち、ユーザの現実世界の視線方向は、ユーザの目の位置移動の追跡、並びにHMD102の位置及び配向の追跡から特定することができる。仮想環境のビューがHMD102上にレンダリングされると、仮想環境におけるユーザの仮想世界の視線方向を特定するために、ユーザの現実世界の視線方向が適用され得る。
加えて、触覚フィードバックモジュール326は、HMD102、またはコントローラ104などのユーザが操作する別のデバイスに含まれる触覚フィードバックハードウェアに対し、信号を提供するように構成される。触覚フィードバックは、振動フィードバック、温度フィードバック、圧力フィードバックなど、様々な種類の触感覚の形態を取り得る。
現在、ゲームのリプレイを共有するストリーミングサービスが非常に人気がある。このような共有を可能にするために、DualShock(登録商標)4無線コントローラは、コントローラ上に直接「共有ボタン」を含む。本開示の実施態様は、HMD/VRヘッドセットを使用してリプレイを探索したい人々のリプレイ共有を向上させる。本開示の実施態様は、非常に広い視野のゲームプレイのレンダリングを提供し、これにより観客は、HMDを使用して頭部を自由に動かして、新たな視座からリプレイを見ることが可能となる。従来のストリーミング手法では、リプレイは元のプレーヤが見たものにのみ限られており、よって視野方向は、観客の頭部の位置及び配向とは無関係であり、HMDを使用する観客が頭部を動かしても、何の変化も起こらない。
本開示の実施態様は、HMD内の新たな視点を支援するのに十分に広い視野の映像のレンダリングを提供する。ゲームエンジンのカスタムビルドは、クラウドサーバ上(例えばクラウド内のPlayStation(登録商標)4ハードウェアなどのゲーム機ハードウェア上)で実行され、元のプレーヤのゲームエンジンからストリーミングされるゲーム状態を入力として受け入れ、この入力を使用してゲームのビューを非常に広い視野(例えば150度以上)にレンダリングし、次いでそのゲームセッションのリアルタイムストリーミング及び/または事前に記録された再生に使用され得る。この非常に広い視野はHMDの視野を超えており、これにより、HMDを装着している観客がリプレイ内を見回すことが可能になることは理解されよう。実際のゲームは、ネットワーク型のエンジンに、その状態をストリーミングするように構成される。
前述のように、例えばHMD102を装着しているユーザが体験しているインタラクティブなアクティビティを観察するなどの観覧能力を、ユーザに提供する必要がある。例えば、1人のHMD仮想現実プレーヤは、HMDに提示されるアクティビティに没頭しており、同時に他の人がプレーヤと同じ場所にいる場合がある。同じ場所にいるこれらの他のプレーヤは、HMDプレーヤが体験しているインタラクティビティまたは見ている仮想現実シーンを観察することを、楽しみ得る。本明細書で使用されるHMDプレーヤとは、HMDに提示されるコンテンツを見ているプレーヤであり、またはHMDに提示されるあるコンテンツとインタラクトするプレーヤであり得、またはHMDに提示されるゲームをプレイしているプレーヤであり得る。よって、プレーヤへの言及は、HMDに提示されているコンテンツの種類に関係なく、HMDを装着しているユーザを参照することによってのみ行われる。
さらに別の実施形態では、HMDプレーヤと同じ場所にいない他の人が、HMDプレーヤのHMDに提示されているコンテンツ、インタラクティビティ、またはメディアを見ることを所望し得る。例えば、HMDプレーヤが自分のアクティビティを実行しているのを観察及び観覧するために、様々なHMDプレーヤからHMDプレーヤを選択する能力を、ユーザに提示するウェブサイトが提供され得る。この例は、インターネットに接続しているユーザが、ウェブサイトにアクセスして、遠隔プレーヤがプレイしている様々な種類のコンテンツまたはメディアを検索することを可能にする標準のTwitch型体験に似ている。遠隔プレーヤは、いくつかの実施形態では、HMD102を使用してゲームをプレイし得る。
別の実施形態では、遠隔プレーヤは、デバイスのディスプレイ画面またはテレビのディスプレイ画面を使用して、ゲームをプレイし得る、またはコンテンツを見得る。概して、例えばウェブサイトを介して、遠隔にいる別のプレーヤのアクティビティを見たいユーザは、特定のプレーヤもしくはゲームの種類、またはゲームのサムネイル、またはコンテンツのサムネイルを選択して、HMDプレーヤが指示するアクティビティを見ることができる。従って、遠隔HMDプレーヤが活発にプレイし得る特定のインタラクティブコンテンツを、ユーザが見て選択することを可能にするウェブサイトが提供され得る。HMDプレーヤによるアクティビティを見たい遠隔観覧者は、そのコンテンツをクリックするだけで、見始めることができる。
HMDプレーヤによる行動を観察及び観覧する人は、一般に観客と呼ばれる。観客とは、アクティビティ、インタラクティビティ、行動、動きなどを見るアクセス権を与えられた人であるが、必ずしもゲーム行動を制御しているわけではない。そのため、これらの観覧者は、観客と呼ばれる。HMDプレーヤとの関連において、HMDディスプレイに提示されるコンテンツは、動的であり、HMDプレーヤの動きにより制御される。例えば、HMDプレーヤが頭部を周りに動かした場合、周囲の現実世界の見え方と同様に見える異なるコンテンツが、そのプレーヤに提示される。
HMDプレーヤの頭部の動きはHMDプレーヤにとって自然であるが、HMDプレーヤと同じビューを提供される観客は、早い動きが原因で、コンテンツを見ている時に吐き気またはめまいを感じる場合がある。これは、観覧者が、HMDプレーヤと同様に自分で自分の頭部を動かしておらず、よってHMDプレーヤによる視野方向に基づいてコンテンツが変更されるからである。本明細書で説明される様々な実施形態では、観客の気を散らすことなく、観客にめまいまたは吐き気を生じさせる傾向もないように、HMDプレーヤが見ているコンテンツを観客が見ることを可能にする方法、システム、コンピュータ可読媒体、及びクラウド構成が提供される。
例として、本明細書で説明される実施形態のうちのいくつかは、HMDプレーヤが見ている仮想現実環境内の異なる観覧スポットを提供する方法を教示する。いくつかの実施形態では、観覧スポットは、観客が観覧可能な角度、方向、及びコンテンツに関して固定される。従って、HMDプレーヤが頭部をどちらかに動かした場合、仮想現実環境内の観客のビューは、安定した状態に保たれ得る。いくつかの実施形態では、HMDプレーヤが異なる仮想現実環境のシーン、場所、領域、レベル、チャプターなどを移動及び横断すると、観覧する観客にカスタマイズされた異なる観覧スポットが、観覧ユーザに提供され得る。例えば、異なる種類のコンテンツ用に、様々な観覧スポットを事前に作成することができる。
コンテンツがビデオゲームである場合、観客が観覧するための事前作成スポットとして、ビデオゲーム内で取ることができる異なる経路に沿った観覧スポットが、事前に定義され得る。従って、HMDプレーヤが特定の経路に沿って移動する場合、観覧者には、その経路に沿った観覧スポットが提供され得、提供される観覧スポットは、ゲーム開発者、前の観客、またはHMDプレーヤが事前選択または事前作成したものであり得る。このようにして、HMDプレーヤがHMDのVR環境を動き回ると、次の観覧スポットが優れている、またはより良い、あるいはより興味深いビューを提供するという判断に基づいて、観客は、1つの観覧スポットから次の観覧スポットにはじき出され得る。さらなる実施形態では、HMDプレーヤが見ている観覧可能なコンテンツの副部分が、観客に提供され得る。別の実施形態では、HMDプレーヤがまだ見ることができない追加コンテンツが、観客に提供され得る。
ゲーム、環境、コンテンツの種類、マルチメディアの種類に応じて、または定義された規則もしくは制約により、HMDプレーヤが見ている観覧可能なコンテンツのより少ないまたはより多いコンテンツが、観客に提供され得る。上記のように、観客に観覧可能に処理されたコンテンツは、HMDプレーヤが見ているコンテンツと同じであり得るが、HMDプレーヤとは異なる基準視点に基づき得る。しかしながら、いくつかの実施形態では、観客に提供されるビューは、HMDプレーヤのビューに類似し得るが、わずかに異なる角度または視点であり得る。さらに、HMD仮想プレーヤの頭部に書き込む仮想カメラのコンテキストから、HMDプレーヤに提供されるビューと同様のビューが、観客に提供され得る。一実施形態では、HMDプレーヤが頭部を動かす時、HMDプレーヤが見ているコンテンツの観客に提供される仮想カメラビューを動かす代わりに、HMDプレーヤが動かすビューと同じ進度または速度で、観客のビューを動かすことはない。
この実施形態では、観客に提供される仮想カメラビューは、HMDプレーヤのビューの動きよりも遅い速度で動かされ得、これは、ユーザの頭部の動きの実際の速度に基づいて変化する。さらに、仮想カメラビューの動きは、HMDプレーヤの頭部の動きを遅れて追従するように設定され得る。遅延は、仮想カメラのビューをHMDの動きにつなぐ概念的ゴムバンドに類似し得る。つまり、ユーザの頭部が左へ素早く動いた場合、オブジェクトが前方の移動オブジェクトにゴムバンドでつながれ引っ張られるのと同様の遅延を有した状態で、観客の仮想カメラビューは左へよりゆっくりと動く。いくつかの構成では、HMDプレーヤの実際のビューの動きを追従する速度で仮想カメラが動くように、ギア比が仮想カメラビューの動きに適用される。ギア比は、仮想現実シーンへの観客のビューを実行するコンピュータ、ゲーム、及び/またはプログラムにより、動的に変更され得る。ギアは、例えば、いくつかのゲーム、いくつかのシーン、いくつかの状況、いくつかのレベルにおいて、何人かのユーザなどに対し、より早く、または他の事例においてより遅く、変更され得る。動的なギアを使用することで、HMDが速くまたは不規則に動く場合でも観客のビューがより快適な観覧体験となるように、仮想カメラビューの動きを円滑化することができる。
さらに後述の実施形態では、HMDプレーヤが仮想現実環境内で見ている場所を、観客が特定することを可能にする視覚的手掛かりが、観客に提供され得る。一構成では、HMDプレーヤの視線を追跡して、HMDプレーヤがVRシーン内でまさに見ているものを特定することが可能となり得る。仮想カメラビュー(例えばHMDプレーヤの頭部の後ろに浮かぶ仮想カメラ)の観点からVRシーンを見ているであろう観客にとって、これは、特定のシーン内で焦点であるものを特定するのに有用である。このようにして、観客も、仮想現実プレーヤがシーン内で重要であると感じるものに焦点を当てることができる。
いくつかの例で、一人称シューティングゲームでは、観客は、例えば敵または障害物を特定するために、HMDプレーヤが見ている場所を知りたい場合がある。一実施形態では、HMDプレーヤの視線を追跡することで、コンテンツの強調表示、特定のオブジェクトまたは場所のコントラスト変更、コンテンツの囲み、マーカの追加、領域のグレーアウト、点滅ビーコンの追加、テキストの追加、浮遊オブジェクトの追加などにより、HMDプレーヤが見ているものを識別することが可能である。このようにして、観客は、HMDプレーヤが見ている場所を確実に知ることができ、よって観客自身も、同じ領域を見て、コンテンツをより楽しく体験することができる。
例えば、HMDプレーヤは特定のゲームでの経験がより豊富であり得る、または特定の種類のコンテンツを見たことがあるため、HMDプレーヤが仮想現実シーン内で見ている場所に関するこのインジケータを提供することは、観客にガイダンス、視覚的合図、及び支援を提供する。いくつかの実施形態では、これらの識別機能は、注意散漫にならないように、有効化及び無効化することができる。識別子は、HMDプレーヤにより有効化され得る、または観客により有効化され得る。例えばTwitchによる提示において、HMDプレーヤにより提供される同一コンテンツを複数の観客が見ているいくつかの実施形態では、観客のそれぞれに、視覚インジケータを提供するまたは提供しない能力をその観客与える異なる制御が提供され得る。HMDプレーヤの観点からは、HMDプレーヤのHMD内にインジケータは全く表示され得ない。しかしながら、これらのインジケータは、HMDプレーヤがインタラクトしているコンテンツを見ているであろう観客(複数可)にとって、有用である。
いくつかの実施形態では、観客が仮想現実環境内の特定の聴取区域を特定することを可能にする制御が、観客に提供され得る。聴取区域により、観客は、聴取したい仮想現実環境内の場所を選択することが可能となる。これは、その特定の場所から、観客が実際にシーン内に存在する状況を模倣する聴取音声及び音響が、観客に基本的に提供されることを意味する。例として、観覧場所に対して通りの向かいの建物を含むHMDコンテンツを観客が見ている場合、観客は、建物内のある場所、例えば人が立っている2階を特定し、その場所で聴取することを選択することができる。
この機能は、観客に聴取場所移動を提供し、これにより、観客は音声及び音響のコンテンツを、観客が2階の建物に座っているまたは立っているかのように、聞くことが可能となる。一例では、音声及び音響は基本的に、建物の2階の場所に存在する音声は拡大し、その仮想場所から離れた場所の音は低減させる。いくつかの実施形態では、観客は時々、主要な聴取区域として、環境内の様々な場所を選択することができる。さらに別の実施形態では、聴取区域を、HMDプレーヤと同じ聴取区域に調整することもできる。観客が聴取したい仮想環境内の場所を特定するために、切り替え可能な選択能力が、観客に提供され得る。
前述と同様に、観客はHMDプレーヤと同じ場所に存在し得、図2Bを参照して説明されるように、第2の画面上でHMDコンテンツを見得ることに留意されたい。あるいは、観客であるローカル観覧者は、HMDプレーヤのコンテンツを観客が見ることを可能にするHMDを装着することもできる。さらに別の実施形態では、観客は、遠隔に存在し得、観覧を可能にするウェブサイトにHMDプレーヤのコンテンツが公開されている場合、ウェブページから観覧することができる。いくつかの実施形態では、観客として行動する遠隔観覧者は、HMDプレーヤによるライブまたはほぼライブコンテンツを見ることができる。別の実施形態では、観客として行動する遠隔観覧者は、HMDプレーヤが見たコンテンツの記録版を見ることができる。さらに、ライブ版または記録版にかかわらず、HMDプレーヤの同一コンテンツを、複数の観客または多数の観客でも見ることを可能にするウェブサイトが提供され得る。
図4は、一実施形態による、観覧者がデバイス、例えばポータブルデバイスまたはスマートフォンを使用して、VRプレーヤの現実世界空間を捉える一例を示す。この例では、観覧者のデバイスの位置は、観覧者の顔に相対して追跡される。追跡は、デバイスに対する顔の位置を検出するために、観覧者の顔に面するカメラにより処理され得る。ユーザがデバイスを周りに動かすと、ユーザの顔に対するデバイスの相対位置に加えて、デバイスの慣性センサがデバイスの位置変化も追跡し得る。このようにして、角度、動き、回転、及び一般的動作における変化が追跡され得る。観覧者の顔または目に対するデバイスの位置を追跡することにより、VRプレーヤの仮想現実空間への異なる視座及びビューが、観覧者に提供され得る。
一実施形態では、観覧者のデバイスのカメラ、すなわち観覧者の反対側を向くハンドヘルドデバイスのカメラは、現実世界空間内の仮想現実プレーヤの現在位置を特定するために使用される画像データを取り込み得る。例えば、取り込まれた画像データは、例えば壁、家具、他の人、物体など、現実世界空間内のオブジェクトを特定し、これらのオブジェクトをアンカーとして使用し得る。これらのアンカーは、VRプレーヤがプレイしている現実世界の3D空間内の1つ以上の参照ポイントとして使用され得る。いくつかの実施形態では、異なるオブジェクトは、ハンドヘルドデバイスの深度センサで追跡することができる角または形状を有し得、これは、VRプレーヤの位置、またはVRプレーヤが仮想現実環境とインタラクトしながら動き回る時のVRプレーヤの位置の変化を特定することをさらに支援する。さらに別の実施形態では、観覧者のハンドヘルドデバイスは、信号データ、例えば信号強度情報を、VRプレーヤのHMDまたはコントローラと通信し交換し得る。
画像データに加えて、この情報を使用して、VRプレーヤが見ている場所、及びVRプレーヤがインタラクティビティ中に動き回る時の視野方向の変化を、特定することができる。さらに別の実施形態では、仮想現実環境を実行するHMDまたはコンピュータは、例えばHMD上の外部カメラまたはVRプレーヤを捉えている現実世界空間のカメラを使用して、現実世界空間内のVRプレーヤの位置を追跡し得る。HMD上の1つ以上のカメラは、VRプレーヤの周り、例えばVRプレーヤの周り360度を追跡して、観覧者の位置を特定することもできる。次に、この情報を使用して、VRプレーヤが見ているまたは探索している仮想現実環境内のビューが提供され得る。いくつかの実施形態では、ハンドヘルドデバイスの画面を見ている観覧者は、VR環境内に描かれるVRプレーヤ、並びに仮想現実環境内の周囲領域、オブジェクト、及びアニメーションを全くまたは一部しか見ることができない。よって、VRプレーヤに対する、及びハンドヘルドデバイスの画面への観覧者の視野方向に対するハンドヘルドデバイスの位置を追跡することで、VRプレーヤの仮想現実環境へのウィンドウが観覧者に提供され得る。
一実施形態では、VRプレーヤにレンダリングされるVRコンテンツは、観覧者の電話に配信される別個のストリームを生成するために拡張及び変更され得、これはVR空間内のビューにおける視座に関して一貫している。さらに、ユーザの顔に対する電話の位置を追跡することにより、VR空間へのウィンドウビューが制御され得る。VR空間へのウィンドウビューは、画面に対するユーザの顔及び目の位置に依存する。ユーザが画面に近づくと、VRプレーヤが演じる仮想現実のキャラクタの周りのコンテンツをより多く見ることができる。ユーザが電話をユーザの顔から離すと、VR空間内のビューは狭くなる。
いくつかの実施形態では、ユーザの顔に面するカメラは、ユーザの顔の画像を取り込む。画像を使用して、視線検出処理が行われ得る。さらなる実施形態では、画像を使用して、ハンドヘルドデバイスのカメラまたは画面に対するユーザの顔の近接度が特定され得る。いくつかの実施形態では、ハンドヘルドデバイスの慣性センサを使用して、ハンドヘルドデバイスの傾き及び位置変化が特定され得る。いくつかの実施形態では、ハンドヘルドデバイスにより深度感知カメラまたは深度センサを使用して、観覧者の顔に対するハンドヘルドデバイスの位置及び/または配向が特定され得る。いくつかの実施形態では、複数のセンサ(例えば画像、深度、音、IR光など)を使用してセンサ融合効果が処理され、観覧者の顔、及びVRプレーヤの仮想現実環境への指向または視野方向に対して、ハンドヘルドデバイスの位置及び配向が特定され得る。
ユーザはまた電話を左右に、または異なる角度で動かし画面の端をのぞき込んで、より多くのコンテンツまたはより少ないコンテンツを見ることができ、これは、窓の外を見ること、及び窓に近づくとより多くのことを見ることができることに類似する。ユーザが画面から離れると、VRプレーヤのVR空間に関して、観覧可能なコンテンツが少なくなり得る、または異なるコンテンツが観覧可能となり得る。よって、さらに示されるように、ウィンドウは、VR空間を見ている観覧者の目または顔の追跡位置により制御される。ユーザの顔に対するデバイスの相対位置はまた、パンインもしくはパンアウト機能、またはズームインもしくはズームアウト機能を制御することができ、またはVRプレーヤの周りを歩いて位置的に近くを見回すことを可能にする。
図5は、一実施形態による、観覧者がd1〜d6の異なる距離までデバイスを動かす一例を示す。観覧者は、第2のプレーヤまたは追加のプレーヤになり得る。例として、観覧者は、プレーヤのVR空間内を見ることができ、観覧者によるVRプレーヤの見方に相対してVRコンテンツのストリームが提供され得る。示されるように、A〜Fの異なる位置は、観覧者のデバイスのディスプレイに提供されるウィンドウビューを通して、ユーザがVRプレーヤのVR空間をより多くまたはより少なく見ることができる方法を例示する。述べられたように、観覧者は、参加者またはプレーヤにもなり得る。観覧者は同じVR空間を異なる観点から見ることができるため、観覧者は、特定の障害を避けるためにVRプレーヤに音声フィードバックを提供すること、またはVRプレーヤが見ていないであろうコンテンツに関する情報を提供することもできる。
一実施形態では、ユーザがデバイスを自分の顔に近づけるまたは遠ざけると、ユーザの顔とハンドヘルドデバイスとの間の距離「d」が変化する。例えば慣性センサを使用して、またはハンドヘルドデバイスの外面カメラにより取り込まれた現実世界空間内のマーカ/オブジェクトの追跡を使用して、ハンドヘルドデバイスの角度も監視される。例えば、ユーザの顔及び目は、ハンドヘルドデバイスのユーザに面した側面に配置されたカメラを使用して、追跡され得る。このカメラは多くの場合、自撮りのために使用される、または他の人とのテレビ会議通話のためにユーザの顔を取り込む。取り込まれたユーザの顔の画像を監視して、ユーザの顔までのハンドヘルドデバイスの距離が特定され得る。一実施形態では、ユーザの顔の複数のフレーム画像を分析することにより、距離が監視され得る。例えば、画像内のユーザの目が互いに離れている、または離れ始めた場合、ハンドヘルドデバイスのカメラは、ユーザの顔に近い、またはユーザの顔に近づけられている。画像内の目が互いに近づくように変化する場合、ハンドヘルドのカメラは、ユーザの顔から遠ざかっていると考えられる。いくつかの実施形態では、画像分析と慣性センサ追跡の組み合わせを使用して、ユーザの顔に対するハンドヘルドの位置が特定され得る。
いくつかの実施形態では、深度感知も実施することができ、ユーザの顔とハンドヘルドデバイスの位置との間の深度が計算される。さらに別の実施形態では、深度感知、画像分析、及び慣性センサ分析がセンサ融合を使用して実施され、ハンドヘルドとユーザの顔の間の距離が特定される。上記のように、ユーザの顔に対してハンドヘルドデバイスが配置された方向及び角度を特定することも可能である。図5では、位置D、E、及びFは、異なる角度のビューが追跡されていることを示し、これにより、仮想世界環境に関して、仮想世界内の異なるビューが可能となる。さらに、前面カメラにより取り込まれた画像データは、ほぼ同時に分析され、前面カメラが指向する場所が特定され得る。上記のように、一実施形態では、現実世界空間内のマーカを使用して、当該現実世界空間に対するハンドヘルドデバイスの実際の位置及び配向を追跡することが可能となる。1つの方法は、画像分析を使用して、例えば家具、建物、壁、木、歩道などの現実世界のオブジェクトを識別することである。これらのオブジェクトをアンカーとして使用することにより、当該オブジェクトに関するハンドヘルドデバイスの相対的な動きを特定することが可能となる。
いくつかの実施形態では、前面カメラの視野方向の位置及び配向は、VRプレーヤ、及び仮想現実空間のVRプレーヤのビューに対して特定される。例えば、ハンドヘルドデバイスがVRプレーヤの頭部の後ろに配置されている場合、観覧者に表示されるハンドヘルドデバイスの画面上のビューは、VRプレーヤが見るのと同じ方向のビューを示す。例えば図8A〜8Bに示されるように、ハンドヘルドデバイスがVRプレーヤの前面に向けられている場合、ビューは、仮想現実環境内のVRプレーヤのアバターを表示し得るが、VRプレーヤの後ろの仮想現実空間も映し出し得る。従って、ハンドヘルドデバイスの視野方向の追跡は、現実世界空間内のオブジェクトまたはタグに相対し得るが、VRプレーヤにも相対し得る。いくつかの実施形態では、ハンドヘルドデバイスの前面カメラにより取り込まれた画像を分析して、特別なマーカ、光、タグ、または形状(例えばVRプレーヤの大まかな外形)も特定され、ハンドヘルドデバイスの画面内に表示する仮想現実空間が特定され得る。いくつかの実施形態では、前面カメラにより取り込まれた画像データは、HMDまたはコントローラに関連付けられた可視光またはIR光、あるいはVRプレーヤ(複数可)が保持する衣服またはオブジェクトを含み得る。環境の追跡では、センサ融合を使用して、様々なオブジェクト、マーカ、タグ、画像、慣性データを特定し、VRプレーヤまたはVRユーザが見ているVR環境内の位置及び配向ビューを特定し得ることを、理解されたい。
いくつかの実施形態では、HMDは、観覧者のハンドヘルドデバイスと直接通信することができる。このような例では、通信により、HMD及び/またはハンドヘルドデバイスの位置データの交換が可能となり得る。この通信交換は、ストリーミング形式で行われ得る、あるいは変化が特定された時、または変化が閾値を超えるほど著しい時に定期的に行われ得る。通信交換はさらに、HMDまたはHMDのコンピュータに、仮想現実環境の第2の配信映像を直接ストリーミングさせることを含み得る。いくつかの実施形態では、配信映像は、ネットワークを介してクラウドから取得またはストリーミングされる。
図6A及び6Bは、VRプレーヤまたはVRプレーヤのヘッドセットがコンピュータと通信している間、デバイスもコンピュータと通信している一例を示す。VRプレーヤが周辺デバイスを利用している場合、周辺デバイスもコンピュータと通信し得る。この例は、図6Aにおいて、観覧者が距離d7でデバイスを保持している状態を示す。デバイスのこの位置は、本明細書ではウィンドウビューと称されるVRプレーヤのVR空間へのビューを提供する。ユーザがVRプレーヤの左方または右方を見たい場合、ユーザは単に、デバイスを左または右に移動させる、または左方を見るには自分の目を画面に対して右へ移動させる、またはVR空間内の右方を見るには自分の目を画面に対して左へ移動させることができる。従って、ウィンドウ効果は、デバイスに対する観覧者の目の位置を変えることで変更され得るVR空間内の視錐台展望を提供する。一実施形態では、コンピュータは、VR空間内のVRプレーヤの視野方向に相対して提供されるように拡張または変更されたVRコンテンツのストリームを生成することができる。
よって、VRプレーヤに提供されるものとはわずかに異なるビューが、観覧者のデバイスに提供される画像ストリームにより提供される。一実施形態では、デバイスは、VRシーン内のVRプレーヤを見るためのアクセスを与えられるが、VRプレーヤを追従して、VRゲームの様々な領域に入る。例として、VRプレーヤは、主要なプレーヤとみなされ、参加またはインタラクトしている様々なVR空間を制御することができる。一実施形態では、観覧者は、VRプレーヤにつながれ、さらにデバイスに提供されるストリームにより、VRプレーヤの空間の中及び周りのウィンドウビューが提供される。図6Bに示されるように、ユーザが電話を距離d8まで移動させ、また電話を傾けると、その位置では、VRシーン内のVRプレーヤが乗っているスケートボードなど、VRプレーヤの下に異なるコンテンツが表示される。このコンテンツは、図6Aに示される元の位置から観覧可能ではなかった。よって、ユーザは、デバイスを自由に周りに移動させて、ユーザの目に対するデバイスの相対位置を変えることで、VR空間内の異なるウィンドウビューを得ることができる。いくつかの実施形態では、VRプレーヤはまた、外の世界へのビューも提供され得る。例として、外の世界(現実世界)のVRプレーヤに提供されるビューは、ウィンドウのような映像であり得る。一実施形態では、HMDには、1つ以上の外部カメラ、または広角カメラを有する1つ以上のカメラ、またはジンバル上のカメラ、またはVRプレーヤの観点から様々な視点を取り込む複数のカメラが、設けられ得る。
図7は、一実施形態による、デバイスによりコンピュータに提供される顔−画面追跡データに関連して、コンピュータがコンテンツのストリームをデバイスに提供する一例を示す。ユーザ空間は、画面に対するデバイスの位置に関して追跡され、一実施形態では、デバイスの慣性センサデータもコンピュータに送信され得る。デバイスからの異なる追跡データを一緒に融合し注入することにより、VR空間に対するデバイスの配向及び方向、並びにユーザの顔に対する位置及び配向の精度は向上する。この例では、VRプレーヤは、コンピュータと通信しているHMDを利用している。通信は、有線または無線であり得る。VRプレーヤは、コンピュータと通信し得る周辺デバイスを利用することもできる。いくつかの実施形態では、コンピュータは、仮想現実コンテンツを処理し、HMDへの映像及び音声のストリームを生成するPCコンピュータである。さらに、PCコンピュータは、観覧者のデバイスへの映像及び音声の第2のストリームを生成し得る。VRプレーヤを見ているデバイスの位置に基づいて、第2のストリームは拡張され得る、またはHMDに提供されるストリームとは異なり得る。
図8Aは、VRプレーヤ、及び異なる角度からVRプレーヤを見るために動き回る観覧者の俯瞰図の一例を示す。従って、観覧者は、ユーザの顔に対してデバイスを近づけるまたは遠ざけることで、VRプレーヤのVR空間への様々な観覧ウィンドウ及びウィンドウ効果を得ることができることに加えて、様々な観点も提供され得る。
図8B及び8Cは、VRプレーヤを見ている観覧者の異なる位置に相対したウィンドウビューA及びウィンドウビューBの例を示す。観覧者のデバイスの画面に表示されるように、VRプレーヤは、VRゲームのVR空間平面上にいるように描かれる。1つのビューでは、VRプレーヤの正面が表示されるが、別のキャラクタはそのビューに表示されない。観覧者がVRプレーヤの背後に移動すると、VRプレーヤと戦っている別のプレーヤが表示される。従って、VRプレーヤを見ながら空間内を動き回ることにより、異なるコンテンツを見ることが可能であるが、デバイスに対する観覧者空間の追跡位置に基づいて、VR空間へのより多くの角度及び観点を提供するように、ウィンドウビュー効果でコンテンツを調整することも可能である。
図9を参照すると、本開示の一実施形態による、ヘッドマウントディスプレイ102の構成要素を例示する図が示される。ヘッドマウントディスプレイ102は、プログラム命令を実行するプロセッサ1300を含む。メモリ1302は、記憶目的で設けられ、揮発性及び不揮発性メモリの両方を含み得る。ユーザが見得る視覚インターフェースを提供するディスプレイ1304が含まれる。バッテリ1306は、ヘッドマウントディスプレイ102の電源として設けられる。動作検出モジュール1308は、磁力計1310、加速度計1312、及びジャイロスコープ1314などの様々な種類の動作感知ハードウェアのいずれかを含み得る。
加速度計は、加速及び重力誘起反力を測定するデバイスである。様々な方向の加速の大きさ及び方向を検出するために、単一及び複数軸モデルが利用可能である。加速度計を使用して、傾き、振動、及び衝撃が感知される。一実施形態では、3つの加速度計1312を使用して重力の方向が提供され、これは2つの角(世界空間ピッチ及び世界空間ロール)の絶対基準を与える。
磁力計は、ヘッドマウントディスプレイ付近の磁場の強度及び方向を測定する。一実施形態では、3つの磁力計1310がヘッドマウントディスプレイ内で使用され、世界空間ヨー角の絶対基準を確保する。一実施形態では、磁力計は、±80マイクロステラの地磁場範囲を有するように設計される。磁力計は、金属の影響を受けて、実際のヨーによる単調なヨー測定を提供する。磁場は環境内の金属により歪むことがあり、これによりヨー測定に歪みが生じる。必要に応じて、この歪みは、ジャイロスコープまたはカメラなどの他のセンサからの情報を用いて、較正することができる。一実施形態では、加速度計1312を磁力計1310と共に使用して、ヘッドマウントディスプレイ102の傾き及び方位が取得される。
いくつかの実施態様では、ヘッドマウントディスプレイの磁力計は、他の近くのデバイス内の電磁石が作動していない時間中に読み出されるように構成される。
ジャイロスコープは、角運動量の原理に基づいて、配向を測定または維持するためのデバイスである。一実施形態では、3つのジャイロスコープ1314は、慣性感知に基づいて、それぞれの軸(x、y、及びz)にわたる動きに関する情報を提供する。ジャイロスコープは、高速回転の検出に役立つ。しかしながら、ジャイロスコープは、絶対基準が存在しないと長時間変動し得る。これは、周期的にジャイロスコープを再設定することを必要とし、再設定は、オブジェクト、加速度計、磁力計などの視覚追跡に基づく位置/配向の特定といった、他の利用可能な情報を用いて行うことができる。
実環境の画像及び画像ストリームを取り込むために、カメラ1316が提供される。後面の(ユーザがヘッドマウントディスプレイ102のディスプレイを見ている時にユーザとは反対側に向けられた)カメラと、前面の(ユーザがヘッドマウントディスプレイ102のディスプレイを見ている時にユーザ側に向けられた)カメラとを含む複数のカメラが、ヘッドマウントディスプレイ102に含まれ得る。さらに、実環境内のオブジェクトの深度情報を感知するために、深度カメラ1318がヘッドマウントディスプレイ102に含まれ得る。
ヘッドマウントディスプレイ102は、音声出力を提供するスピーカ1320を含む。また、周辺環境からの音、ユーザによる発言などを含む実環境からの音声を取り込むために、マイクロホン1322が含まれ得る。ヘッドマウントディスプレイ102は、ユーザに触覚フィードバックを提供する触覚フィードバックモジュール1324を含む。一実施形態では、触覚フィードバックモジュール1324は、ユーザに触覚フィードバックを提供するために、ヘッドマウントディスプレイ102の動き及び/または振動を引き起こすことが可能である。
LED1326は、ヘッドマウントディスプレイ102の状態の視覚的インジケータとして提供される。例えば、LEDは、バッテリレベル、起動状態などを示し得る。ヘッドマウントディスプレイ102がメモリカードからの情報を読み出し、メモリカードに情報を書き込むことを可能にするために、カードリーダ1328が設けられる。周辺デバイスの接続、または他のポータブルデバイス、コンピュータなどの他のデバイスへの接続を可能にするインターフェースの一例として、USBインターフェース1330が含まれる。ヘッドマウントディスプレイ102の様々な実施形態では、ヘッドマウントディスプレイ102のより良い接続性を可能にするために、様々な種類のインターフェースのいずれかが含まれ得る。
無線ネットワーク技術を介してインターネットまたはローカルエリアネットワークへの接続を可能にするために、WiFi(登録商標)モジュール1332が含まれる。また、他のデバイスへの無線接続を可能にするために、ヘッドマウントディスプレイ102は、ブルートゥース(登録商標)モジュール1334を含む。他のデバイスへの接続のために、通信リンク1336も含まれ得る。一実施形態では、通信リンク1336は、無線通信のために赤外線通信を利用する。別の実施形態では、通信リンク1336は、他のデバイスと通信するために、様々な無線または有線伝送プロトコルのいずれかを利用し得る。
ユーザに入力インターフェースを提供するために、入力ボタン/センサ1338が含まれる。ボタン、タッチパッド、ジョイスティック、トラックボールなど、様々な種類の入力インターフェースのいずれかが含まれ得る。超音波技術を介した他のデバイスとの通信を促進するために、超音波通信モジュール1340が、ヘッドマウントディスプレイ102に含まれ得る。
ユーザからの生理学的データを検出することを可能にするために、生体センサ1342が含まれる。一実施形態では、生体センサ1342は、ユーザの皮膚を通してユーザの生体電気信号を検出するために、1つ以上の乾電極を含む。
映像入力1344は、HMD上のレンダリングのために、1次処理コンピュータ(例えば主要ゲーム機)からの映像信号を受信するように構成される。いくつかの実施態様では、映像入力はHDMI(登録商標)入力である。
ヘッドマウントディスプレイ102の前述の構成要素は、ヘッドマウントディスプレイ102に含まれ得る単なる例示的な構成要素として説明されている。本開示の様々な実施形態では、ヘッドマウントディスプレイ102は、前述の様々な構成要素のいくつかを、含んでも含まなくてもよい。本明細書において説明される本開示の態様を簡易にするために、ここでは記述されていないが当技術分野では既知の他の構成要素が、ヘッドマウントディスプレイ102の実施形態にさらに含まれ得る。
図10は、本開示の様々な実施形態による、ゲームシステム1400のブロック図である。ゲームシステム1400は、1つ以上のクライアント1410に対し、ネットワーク1415を介して映像ストリームを提供するように構成される。ゲームシステム1400は通常、映像サーバシステム1420と、任意のゲームサーバ1425とを含む。映像サーバシステム1420は、1つ以上のクライアント1410に対し、最低限のサービス品質の映像ストリームを提供するように構成される。例えば、映像サーバシステム1420は、ビデオゲームの状態またはビデオゲーム内の視点を変更するゲームコマンドを受信し、この状態変更を反映した更新済映像ストリームを、最小の遅延時間でクライアント1410に提供し得る。映像サーバシステム1420は、映像ストリームを、まだ定義されていないフォーマットを含む多種多様な代替的映像フォーマットで提供するように構成され得る。さらに、映像ストリームは、多種多様なフレームレートでユーザに提示されるように構成された映像フレームを含み得る。通常のフレームレートは、毎秒30フレーム、毎秒60フレーム、及び毎秒120フレームである。しかし本開示の代替的な実施形態には、より高いまたはより低いフレームレートが含まれる。
本明細書において個別に1410A、1410Bなどと称されるクライアント1410には、ヘッドマウントディスプレイ、端末、パーソナルコンピュータ、ゲーム機、タブレットコンピュータ、電話、セットトップボックス、キオスク、無線デバイス、デジタルパッド、スタンドアロンデバイス、及び/またはハンドヘルドゲームプレイデバイスなどが含まれ得る。通常、クライアント1410は、符号化された映像ストリームを受信し、映像ストリームを復号化し、復号化の結果映像をユーザ、例えばゲームのプレーヤに提示するように構成される。符号化された映像ストリームを受信する及び/または映像ストリームを復号化するプロセスは通常、クライアントの受信バッファに個々の映像フレームを記憶することを含む。映像ストリームは、クライアント1410と一体のディスプレイ上、またはモニタもしくはテレビなどの別個のデバイス上で、ユーザに提示され得る。クライアント1410は、任意で複数のゲームプレーヤを支援するように構成される。例えば、ゲーム機は、2人、3人、4人以上の同時プレーヤを支援するように構成され得る。これらのプレーヤのそれぞれは、別個の映像ストリームを受信し得る、または単一の映像ストリームは、各プレーヤのために特別に生成された、例えば各プレーヤの視点に基づいて生成されたフレームの領域を含み得る。クライアント1410は、任意で地理的に分散される。ゲームシステム1400に含まれるクライアントの数は、1つまたは2つから、数千、数万以上まで、大幅に異なり得る。本明細書で用いられるように、用語「ゲームプレーヤ」は、ゲームをプレイする人を指すために用いられ、用語「ゲームプレイデバイス」は、ゲームをプレイするために使用されるデバイスを指すために用いられる。いくつかの実施形態では、ゲームプレイデバイスは、協働してユーザにゲーム体験を届ける複数のコンピューティングデバイスを指し得る。例えば、ゲーム機及びHMDは、映像サーバシステム1420と協働して、HMDを通して見られるゲームを配信し得る。一実施形態では、ゲーム機は、映像サーバシステム1420から映像ストリームを受信し、ゲーム機は、レンダリングを行うHMDに対し、映像ストリームまたは映像ストリームへの更新を転送する。
クライアント1410は、ネットワーク1415を介して映像ストリームを受信するように構成される。ネットワーク1415は、電話ネットワーク、インターネット、無線ネットワーク、電力線ネットワーク、ローカルエリアネットワーク、広域ネットワーク、及び/またはプライベートネットワークなどを含む任意の種類の通信ネットワークであり得る。典型的な実施形態では、映像ストリームは、TCP/IPまたはUDP/IPなどの標準プロトコルを介して通信される。あるいは、映像ストリームは、プロプライエタリ規格を介して通信される。
クライアント1410の典型的な例には、プロセッサと、不揮発性メモリと、ディスプレイと、復号化ロジックと、ネットワーク通信能力と、入力デバイスとを備えるパーソナルコンピュータが挙げられる。復号化ロジックには、コンピュータ可読媒体に格納されたハードウェア、ファームウェア、及び/またはソフトウェアが含まれ得る。映像ストリームを復号化(及び符号化)するシステムは、当技術分野において周知であり、使用される特定の符号化スキームに応じて異なる。
クライアント1410は、必須ではないが、受信した映像を変更するように構成されたシステムをさらに含み得る。例えば、クライアントは、1つの映像を別の映像上にオーバーレイするために、及び/または映像を切り取るためになど、さらなるレンダリングを行うように構成され得る。例えば、クライアント1410は、Iフレーム、Pフレーム、及びBフレームなどの様々な種類の映像フレームを受信し、これらのフレームを、ユーザに表示するための画像に処理するように構成され得る。いくつかの実施形態では、クライアント1410の一員は、映像ストリームに対しさらなるレンダリング、シェーディング、または3D変換などの動作を行うように構成される。クライアント1410の一員は、任意で複数の音声または映像ストリームを受信するように構成される。クライアント1410の入力デバイスには、例えば、片手用ゲームコントローラ、両手用ゲームコントローラ、ジェスチャ認識システム、視線認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、力フィードバックデバイス、動作及び/または位置感知デバイス、マウス、タッチスクリーン、神経インターフェース、カメラ、及び/または開発中の入力デバイスなどが含まれ得る。
クライアント1410が受信する映像ストリーム(及び任意で音声ストリーム)は、映像サーバシステム1420により生成及び提供される。本明細書の別の箇所でさらに説明されるように、この映像ストリームは、映像フレームを含む(及び音声ストリームは音声フレームを含む)。映像フレームは、ユーザに表示する画像に有意義に貢献するように構成される(例えば映像フレームは、好適なデータ構造の画素情報を含む)。本明細書において使用される用語「映像フレーム」は、ユーザに表示される画像に対し、例えば作用するなど貢献するように構成された情報を主として含むフレームを指すために使用される。「映像フレーム」に関する本明細書の教示のほとんどは、「音声フレーム」にも適用することができる。
クライアント1410は通常、ユーザからの入力を受信するように構成される。これらの入力は、ビデオゲームの状態を変更する、あるいはゲームプレイに作用するように構成されたゲームコマンドを含み得る。ゲームコマンドは、入力デバイスを用いて受信することができ、及び/またはクライアント1410上で実行されるコンピューティング命令により自動的に生成され得る。受信されたゲームコマンドは、ネットワーク1415を介してクライアント1410から、映像サーバシステム1420及び/またはゲームサーバ1425へ通信される。例えば、いくつかの実施形態では、ゲームコマンドは、映像サーバシステム1420を介してゲームサーバ1425へ通信される。いくつかの実施形態では、ゲームコマンドの別個の複製が、クライアント1410から、ゲームサーバ1425及び映像サーバシステム1420へ通信される。ゲームコマンドの通信は、任意でコマンドの識別に依存する。ゲームコマンドは任意で、クライアント1410Aに音声または映像ストリームを提供するために使用される経路または通信チャネルとは異なる経路または通信チャネルを通して、クライアント1410Aから通信される。
ゲームサーバ1425は任意で、映像サーバシステム1420とは異なるエンティティにより運用される。例えば、ゲームサーバ1425は、マルチプレーヤゲームの発行者により運営され得る。この例では、映像サーバシステム1420は、任意でゲームサーバ1425によりクライアントとして見なされ、任意でゲームサーバ1425の観点から、従来技術のゲームエンジンを実行する従来技術のクライアントに見えるように構成される。映像サーバシステム1420とゲームサーバ1425との間の通信は、任意でネットワーク1415を介して行われる。よって、ゲームサーバ1425は、映像サーバシステム1420を含む複数のクライアントにゲーム状態情報を送信する従来技術のマルチプレーヤゲームサーバであり得る。映像サーバシステム1420は、ゲームサーバ1425の複数のインスタンスと同時に通信するように構成され得る。例えば、映像サーバシステム1420は、異なるユーザに複数の異なるビデオゲームを提供するように構成され得る。これらの異なるビデオゲームのそれぞれは、異なるゲームサーバ1425により支援され得、及び/または異なるエンティティにより発行され得る。いくつかの実施形態では、映像サーバシステム1420のいくつかの地理的に分散されたインスタンスは、複数の異なるユーザにゲーム映像を提供するように構成される。映像サーバシステム1420のこれらのインスタンスのそれぞれは、ゲームサーバ1425の同じインスタンスと通信し得る。映像サーバシステム1420と1つ以上のゲームサーバ1425との間の通信は、任意で専用通信チャネルを介して行われる。例えば、映像サーバシステム1420は、ゲームサーバ1425に対し、これらの2つのシステム間の通信専用である高帯域幅チャネルを介して接続され得る。
映像サーバシステム1420は少なくとも、映像源1430と、I/Oデバイス1445と、プロセッサ1450と、非一時的ストレージ1455とを備える。映像サーバシステム1420は、1つのコンピューティングデバイスを含み得る、または複数のコンピューティングデバイスに分散され得る。これらのコンピューティングデバイスは任意で、ローカルエリアネットワークなどの通信システムを介して接続される。
映像源1430は、例えば動画を形成するストリーミング映像または一連の映像フレームといった映像ストリームを提供するように構成される。いくつかの実施形態では、映像源1430は、ビデオゲームエンジン及びレンダリングロジックを含む。ビデオゲームエンジンは、プレーヤからゲームコマンドを受信し、受信したコマンドに基づいてビデオゲームの状態の複製を保持するように構成される。このゲーム状態は、ゲーム環境内のオブジェクトの位置、並びに通常では視点を含む。ゲーム状態はまた、プロパティ、画像、色、及び/またはオブジェクトの質感も含み得る。ゲーム状態は通常、ゲーム規則、並びに移動する、方向転換する、攻撃する、焦点を設定する、インタラクトする、及び/または使用するなどのゲームコマンドに基づいて、維持される。ゲームエンジンの一部は任意で、ゲームサーバ1425内に配置される。ゲームサーバ1425は、地理的分散クライアントを用いて複数のプレーヤから受信したゲームコマンドに基づいて、ゲームの状態の複製を維持し得る。これらの事例では、ゲーム状態はゲームサーバ1425により映像源1430に提供され、ゲーム状態の複製は記憶され、レンダリングが行われる。ゲームサーバ1425は、ネットワーク1415を介して直接クライアント1410からゲームコマンドを受信してもよく、及び/または映像サーバシステム1420を介してゲームコマンドを受信してもよい。
映像源1430は通常、例えばストレージ1455などのコンピュータ可読媒体に格納されたハードウェア、ファームウェア、及び/またはソフトウェアといったレンダリングロジックを含む。このレンダリングロジックは、ゲーム状態に基づいて、映像ストリームの映像フレームを作成するように構成される。レンダリングロジックの全てまたは一部は任意で、グラフィック処理ユニット(GPU)内に配置される。レンダリングロジックは通常、ゲーム状態及び視点に基づいて、オブジェクト間の3次元空間関係を特定するように、及び/または好適な質感などを適用するように構成された処理段階を含む。レンダリングロジックは、生映像を生成し、生映像は通常、クライアント1410へ通信する前に符号化される。例えば、生映像は、Adobe Flash(登録商標)規格、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x.Xvid.FFmpeg、x264、VP6−8、realvideo、またはmp3などに従って符号化され得る。符号化プロセスは、遠隔デバイス上のデコーダに配信するために任意でパッケージされた映像ストリームを生成する。映像ストリームは、フレームサイズ及びフレームレートにより特徴付けられる。典型的なフレームサイズには、800×600、1280×720(例えば720p)、1024×768が含まれるが、任意の他のフレームサイズも使用することができる。フレームレートは、1秒あたりの映像フレームの数である。映像ストリームは、様々な種類の映像フレームを含み得る。例えば、H.264規格は、「P」フレーム及び「I」フレームを含む。Iフレームは、ディスプレイデバイス上の全てのマクロブロック/画素を更新する情報を含み、一方Pフレームは、その部分集合を更新する情報を含む。Pフレームは通常、Iフレームよりデータサイズが小さい。本明細書において使用される用語「フレームサイズ」は、フレーム内の画素数を指すことを意味する。用語「フレームデータサイズ」は、フレームを記憶するのに必要なバイト数を指すために使用される。
代替的な実施形態では、映像源1430は、カメラなどの映像記録デバイスを含む。このカメラを使用して、コンピュータゲームの映像ストリームに含めることができる遅延映像またはライブ映像が生成され得る。得られた映像ストリームは任意で、レンダリングされた画像と、静止画カメラまたは動画カメラを使用して記録された画像との両方を含む。映像源1430はまた、映像ストリームに含めるために事前に記録した映像を記憶するように構成されたストレージデバイスも含み得る。映像源1430はまた、例えば人といったオブジェクトの動作または位置を検出するように構成された動作または位置感知デバイスと、ゲーム状態を特定する、あるいは検出された動作及び/または位置に基づいた映像を生成するように構成されたロジックとを含み得る。
映像源1430は任意で、他の映像上に配置されるように構成されたオーバーレイを提供するように構成される。例えば、これらのオーバーレイには、コマンドインターフェース、ログイン指示、ゲームプレーヤへのメッセージ、他のゲームプレーヤの画像、他のゲームプレーヤの映像配信(例えばウェブカメラ映像)が含まれ得る。クライアント1410Aがタッチスクリーンインターフェースまたは視線検出インターフェースを含む実施形態では、オーバーレイには、仮想キーボード、ジョイスティック、及び/またはタッチパッドなどが含まれ得る。オーバーレイの一例では、プレーヤの声が音声ストリームにオーバーレイされる。映像源1430は任意で、1つ以上の音声源をさらに含む。
映像サーバシステム1420が複数のプレーヤからの入力に基づいてゲーム状態を維持するように構成された実施形態では、ビューの位置及び方向を含む視点は、各プレーヤで異なり得る。映像源1430は任意で、各プレーヤの視点に基づいて、別個の映像ストリームを各プレーヤに提供するように構成される。さらに、映像源1430は、クライアント1410それぞれに対し、異なるフレームサイズ、フレームデータサイズ、及び/または符号化を提供するように構成され得る。映像源1430は任意で、3D映像を提供するように構成される。
I/Oデバイス1445は、映像サーバシステム1420のために、映像、コマンド、情報要求、ゲーム状態、視線情報、デバイス動作、デバイス位置、ユーザ動作、クライアント識別、プレーヤ識別、ゲームコマンド、セキュリティ情報、及び/または音声などの情報を、送信及び/または受信するように構成される。I/Oデバイス1445は通常、ネットワークカードまたはモデムなどの通信ハードウェアを含む。I/Oデバイス1445は、ゲームサーバ1425、ネットワーク1415、及び/またはクライアント1410と通信するように構成される。
プロセッサ1450は、本明細書において論述される映像サーバシステム1420の様々な構成要素内に含まれる、例えばソフトウェアといったロジックを実行するように構成される。例えば、プロセッサ1450は、映像源1430、ゲームサーバ1425、及び/またはクライアントクオリファイア1460の機能を実行するように、ソフトウェア命令でプログラムされ得る。映像サーバシステム1420は任意で、プロセッサ1450の複数のインスタンスを含む。プロセッサ1450はまた、映像サーバシステム1420が受信したコマンドを実行するように、または本明細書において論述されるゲームシステム1400の様々な要素の動作を調整するように、ソフトウェア命令でプログラムされ得る。プロセッサ1450は、1つ以上のハードウェアデバイスを含み得る。プロセッサ1450は、電子プロセッサである。
ストレージ1455は、非一時的アナログ及び/またはデジタルストレージデバイスを含む。例えば、ストレージ1455は、映像フレームを記憶するように構成されたアナログストレージデバイスを含み得る。ストレージ1455は、例えばハードドライブ、光学ドライブ、またはソリッドステートストレージといったコンピュータ可読デジタルストレージを含み得る。ストレージ1455は、映像フレーム、人工フレーム、映像フレームと人工フレームの両方を含む映像ストリーム、音声フレーム、及び/または音声ストリームなどを記憶するように構成される(例えば好適なデータ構造またはファイルシステムにより)。ストレージ1455は任意で、複数のデバイスに分散される。いくつかの実施形態では、ストレージ1455は、本明細書の別の箇所で論述される映像源1430のソフトウェア構成要素を格納するように構成される。これらの構成要素は、必要時にすぐにプロビジョニングできる形式で格納され得る。
映像サーバシステム1420は任意で、クライアントクオリファイア1460をさらに備える。クライアントクオリファイア1460は、クライアント1410Aまたは1410Bなどのクライアントの能力を遠隔で特定するように構成される。これらの能力には、クライアント1410A自体の能力、並びにクライアント1410Aと映像サーバシステム1420との間の1つ以上の通信チャネルの能力の両方が含まれ得る。例えば、クライアントクオリファイア1460は、ネットワーク1415を通して、通信チャネルを検査するように構成され得る。
クライアントクオリファイア1460は、手動または自動で、クライアント1410Aの能力を特定(例えば発見)し得る。手動特定は、クライアント1410Aのユーザと通信して、ユーザに能力を提供するように依頼することを含む。例えば、いくつかの実施形態では、クライアントクオリファイア1460は、クライアント1410Aのブラウザ内に画像及び/またはテキストなどを表示するように構成される。一実施形態では、クライアント1410Aは、ブラウザを含むHMDである。別の実施形態では、クライアント1410Aは、HMD上に表示され得るブラウザを有するゲーム機である。表示されるオブジェクトは、ユーザに、クライアント1410Aのオペレーティングシステム、プロセッサ、映像デコーダの種類、ネットワーク接続の種類、ディスプレイの解像度などの情報を入力するように要求する。ユーザにより入力された情報は、クライアントクオリファイア1460へ返信される。
自動特定は、例えば、クライアント1410A上でエージェントを実行することにより、及び/またはクライアント1410Aにテスト映像を送信することにより、行われ得る。エージェントは、ウェブページに埋め込まれた、またはアドオンとしてインストールされたジャバスクリプトなどのコンピューティング命令を備え得る。エージェントは任意で、クライアントクオリファイア1460により提供される。様々な実施形態では、エージェントは、クライアント1410Aの処理能力、クライアント1410Aの復号化及び表示能力、クライアント1410Aと映像サーバシステム1420間の通信チャネルの遅延時間信頼性及び帯域幅、クライアント1410Aのディスプレイの種類、クライアント1410A上に存在するファイアウォール、クライアント1410Aのハードウェア、クライアント1410A上で実行されるソフトウェア、及び/またはクライアント1410A内のレジストリエントリなどを、見つけ出すことができる。
クライアントクオリファイア1460は、コンピュータ可読媒体に格納されたハードウェア、ファームウェア、及び/またはソフトウェアを含む。クライアントクオリファイア1460は任意で、映像サーバシステム1420の他の1つ以上の要素とは別個のコンピューティングデバイス上に配置される。例えば、いくつかの実施形態では、クライアントクオリファイア1460は、クライアント1410と映像サーバシステム1420の複数のインスタンスとの間の通信チャネルの特性を特定するように構成される。これらの実施形態では、クライアントクオリファイアが発見した情報を使用して、クライアント1410のうちの1つにストリーミング映像を配信するのに最も好適な映像サーバシステム1420のインスタンスが特定され得る。
本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースのもしくはプログラム可能な一般消費者向け電気製品、小型コンピュータ、及びメインフレームコンピュータなどを含む様々なコンピュータシステム構成により実施され得る。本開示はまた、有線ベースまたは無線のネットワークを通してリンクされる遠隔処理デバイスによりタスクが行われる分散コンピューティング環境においても、実施することができる。
前述の実施形態を念頭に、本開示は、コンピュータシステムに記憶されるデータを伴う様々なコンピュータ実施動作を採用し得ることを理解されたい。これらの動作は、物理量の物理的操作を要する動作である。本開示の一部を形成する、本明細書で説明される動作のいずれも、有益な機械動作である。本開示はまた、これらの動作を実行するためのデバイスまたは機器に関する。機器は、必要な目的のために特別に構築され得る、あるいは機器は、コンピュータに記憶されたコンピュータプログラムにより選択的に有効化または構成された汎用コンピュータであり得る。具体的には、様々な汎用機械が、本明細書における教示に従って書かれたコンピュータプログラムと共に使用することができる、あるいは必要な動作を実行するようにより特化した機器を構築するほうがより便利であり得る。
本開示はまた、コンピュータ可読媒体上のコンピュータ可読コードとしても具現化することができる。コンピュータ可読媒体は、後でコンピュータシステムにより読み出され得るデータを記憶可能な任意のデータストレージデバイスである。コンピュータ可読媒体の例には、ハードドライブ、ネットワーク接続ストレージ(NAS)、読み出し専用メモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、並びに他の光学及び非光学データストレージデバイスが挙げられる。コンピュータ可読媒体には、コンピュータ可読コードが分散方式で記憶され実行されるように、ネットワーク接続されたコンピュータシステムにわたり分散されたコンピュータ可読有形媒体が含まれ得る。
いくつかの例では、方法の動作は特定の順序で説明されたが、動作の間に他のハウスキーピング動作が実行されてもよく、またはわずかに異なる時間に動作が起こるように動作が調整されてもよいことを理解されたい。いくつかの実施形態では、オーバーレイ動作の処理が所望の方法で実行される限り、動作はシステム内に分散されてもよく、これにより様々な処理関連間隔で処理動作が行われることが可能となる。
前述の開示は、理解を明確にするためにある程度詳細に説明されたが、特定の変更及び修正は、添付の特許請求の範囲内で実施できることは明らかであろう。従って、本実施形態は、限定ではなく例示とみなされるべきであり、本開示は、本明細書で与えられる詳細に限定されるものではないが、本開示及び添付の特許請求の範囲内及び均等物内で変更されてもよい。

Claims (23)

  1. 仮想現実プレーヤの仮想現実環境を観覧する方法であって、
    観覧者のハンドヘルドデバイスにより、ヘッドマウントディスプレイ(HMD)を使用する前記仮想現実プレーヤに提示される前記仮想現実環境を実行するコンピュータと、接続を確立することと、
    前記ハンドヘルドデバイスの第1のカメラにより、現実世界空間内の前記仮想現実プレーヤの現在位置を取り込むことと、
    前記ハンドヘルドデバイスの第2のカメラにより、前記観覧者の顔の位置を取り込むことであって、前記顔の位置は、前記ハンドヘルドデバイスの画面に対する視野方向を特定するために監視され、前記ハンドヘルドデバイスの前記画面は、前記仮想現実環境と、前記仮想現実環境内でインタラクトする前記仮想現実プレーヤの少なくとも一部とを提示するように構成され、前記ハンドヘルドデバイスの現在位置及び前記観覧者の前記顔の位置は、前記仮想現実プレーヤに提示される前記仮想現実環境を実行する前記コンピュータに、継続的に共有される、前記ハンドヘルドデバイスの前記第2のカメラにより、前記観覧者の前記顔の位置を取り込むことと、
    前記現実世界における前記仮想現実プレーヤの前記現在位置と、前記ハンドヘルドデバイスの前記画面に対する前記観覧者の前記視野方向とに合わせて調整された、前記仮想現実プレーヤの少なくとも一部を含む前記仮想現実環境の映像ストリームを、前記コンピュータから受信することと
    を含む、方法。
  2. 前記継続的に共有される前記観覧者の顔の位置を使用して、前記観覧者の顔と前記画面との間の距離の変化が特定される、請求項1に記載の方法。
  3. 前記距離の前記特定された変化に基づいて、前記仮想現実環境の前記受信された映像ストリームにおいてズームインまたはズームアウト画像を受信することをさらに含む請求項2に記載の方法。
  4. 前記観覧者の前記顔と前記画面との間の前記距離が遠くなると、前記ズームインが行われ、前記観覧者の前記顔と前記画面との間の前記距離が近くなると、前記ズームアウトが行われる、請求項3に記載の方法。
  5. 前記現実世界空間における前記仮想現実プレーヤの前記現在位置を使用して、HMD視野方向が特定され、前記コンピュータは前記HMD視野方向を使用して、前記HMDに提供されるビューを、前記仮想現実プレーヤが前記HMDを使用して制御したビューに近づける、請求項1に記載の方法。
  6. 前記ハンドヘルドデバイスの前記画面に対する前記視野方向を特定するために、前記観覧者の目が追跡され、前記ハンドヘルドデバイスの前記第2のカメラを使用して前記目の視線は追跡される、請求項1に記載の方法。
  7. 前記仮想現実プレーヤの周りにいる前記観覧者による前記ハンドヘルドデバイスの動きにより、前記ハンドヘルドデバイスの前記画面上に提示された前記映像ストリームにより提供されるビューが更新される、請求項1に記載の方法。
  8. 前記ビューの更新により、前記仮想現実環境の周りの360度ビューが可能となり、前記動きにより、前記仮想現実プレーヤを除く前記仮想現実環境の領域を見ることが可能となる、請求項7に記載の方法。
  9. 前記仮想現実プレーヤは、前記仮想現実環境とインタラクトするキャラクタとして、前記仮想現実環境内でレンダリングされる、請求項1に記載の方法。
  10. 前記継続的共有は、前記接続を介して可能であり、前記接続は、前記ハンドヘルドデバイスの前記第1のカメラ及び前記第2のカメラを使用して取り込まれた画像のストリームを、前記コンピュータに送信するように構成された無線接続である、請求項1に記載の方法。
  11. 前記コンピュータは、前記画像のストリームを分析して、前記ハンドヘルドデバイスの前記現在位置に対する前記現実世界空間内の前記仮想現実プレーヤの前記現在位置を特定するように構成されており、その結果、前記ハンドヘルドデバイスの前記画面に提供される前記映像ストリームにより、前記HMDを使用して提示される前記仮想環境内を見ることが可能となり、よって、前記ハンドヘルドデバイスを介して前記仮想現実環境内を見ることは、前記ハンドヘルドデバイスの動きにより制御され、前記HMDを介して仮想現実環境内を見ることは、前記仮想現実プレーヤによる前記HMDの動きにより独立して制御される、請求項10に記載の方法。
  12. 前記観覧者による前記ハンドヘルドデバイスの動きにより、前記仮想現実環境内に描かれた仮想現実プレーヤの上、下、及び周りを見ることが可能となる、請求項1に記載の方法。
  13. 前記ハンドヘルドデバイスの動きは、前記現実世界空間内の前記仮想現実プレーヤの前記現在位置に相対するものであり、前記ハンドヘルドデバイスの前記動きにより、前記仮想現実環境内のオブジェクトは、前記ハンドヘルドデバイスが前記観覧者の顔に近づくとパンアウトビューで、前記ハンドヘルドデバイスが前記観覧者の前記顔から離れるとパンインビューで、見ることが可能となる、請求項1に記載の方法。
  14. 仮想現実プレーヤの仮想現実環境を観覧する方法であって、
    コンピュータを介して前記仮想現実環境を実行することと、
    前記コンピュータと観覧者のハンドヘルドデバイスとの接続を確立することであって、前記仮想現実環境は、ヘッドマウントディスプレイ(HMD)を使用する前記仮想現実プレーヤに提示される、前記コンピュータと前記観覧者の前記ハンドヘルドデバイスとの前記接続を確立することと、
    前記ハンドヘルドデバイスの第1のカメラにより取り込まれた画像データを受信して、現実世界空間内の前記仮想現実プレーヤの第1の位置を特定することと、
    前記観覧者の顔の位置を特定するための画像データを受信して、第2のカメラを使用して前記ハンドヘルドデバイスの画面に対する視野方向を特定することであって、前記ハンドヘルドデバイスの前記画面は、前記仮想現実環境と、前記仮想現実環境内でインタラクトする前記仮想現実プレーヤの少なくとも一部とを提示するように構成され、前記ハンドヘルドデバイスの現在位置及び前記観覧者の前記顔の位置は、前記仮想現実プレーヤに提示される前記仮想現実環境を実行する前記コンピュータにより、継続的に受信される、前記観覧者の前記顔の位置を特定するための前記画像データを受信して、前記第2のカメラを使用して前記ハンドヘルドデバイスの前記画面に対する前記視野方向を特定することと、
    前記現実世界における前記仮想現実プレーヤの前記現在位置と、前記ハンドヘルドデバイスの前記画面に対する前記観覧者の前記視野方向とに合わせて調整された、前記仮想現実プレーヤの少なくとも一部を含む前記仮想現実環境の映像ストリームを、前記ハンドヘルドデバイスに送信することと
    を含む、方法。
  15. 前記継続的に受信される前記観覧者の顔の位置を使用して、前記観覧者の顔と前記画面との間の距離の変化が特定され、
    前記距離の前記特定された変化に基づいて、前記仮想現実環境の前記送信された映像ストリームのズームインまたはズームアウト画像を送信することをさらに含む、
    請求項14に記載の方法。
  16. 前記観覧者の前記顔と前記画面との間の前記距離が遠くなると、前記ズームインが行われ、前記観覧者の前記顔と前記画面との間の前記距離が近くなると、前記ズームアウトが行われる、請求項15に記載の方法。
  17. 前記現実世界空間における前記仮想現実プレーヤの前記現在位置を使用して、HMD視野方向が特定され、前記コンピュータは前記HMD視野方向を使用して、前記HMDに提供されるビューを、前記仮想現実プレーヤが前記HMDを使用して制御したビューに近づける、請求項14に記載の方法。
  18. 前記ハンドヘルドデバイスの前記画面に対する前記視野方向を特定するために、前記観覧者の目が追跡され、前記ハンドヘルドデバイスの前記第2のカメラを使用して前記目の視線は追跡される、請求項14に記載の方法。
  19. 前記コンピュータは、画像ストリームを分析して、前記ハンドヘルドデバイスの前記現在位置に対する前記現実世界空間内の前記仮想現実プレーヤの前記現在位置を特定するように構成されており、その結果、前記ハンドヘルドデバイスの前記画面に提供される前記映像ストリームにより、前記HMDを使用して提示される前記仮想環境内を見ることが可能となり、よって、前記ハンドヘルドデバイスを介して前記仮想現実環境内を見ることは、前記ハンドヘルドデバイスの動きにより制御され、前記HMDを介して仮想現実環境内を見ることは、前記仮想現実プレーヤによる前記HMDの動きにより独立して制御される、請求項14に記載の方法。
  20. 前記仮想現実プレーヤは、前記仮想現実環境とインタラクトするキャラクタとして、前記仮想現実環境内でレンダリングされ、前記継続的受信は、前記接続を介して可能であり、前記接続は、前記ハンドヘルドデバイスの前記第1のカメラ及び前記第2のカメラを使用して取り込まれた画像のストリームを、前記コンピュータに受信するように構成された無線接続である、請求項14に記載の方法。
  21. 前記観覧者による前記ハンドヘルドデバイスの動きにより、前記仮想現実環境内に描かれた仮想現実プレーヤの上、下、及び周りを見ることが可能となる、請求項14に記載の方法。
  22. 前記仮想現実プレーヤの周りにいる前記観覧者による前記ハンドヘルドデバイスの動きにより、前記ハンドヘルドデバイスの前記画面上に提示された前記映像ストリームのビューが更新され、前記ビューの更新により、前記仮想現実環境の周りの360度ビューが可能となり、前記動きにより、前記仮想現実プレーヤを除く前記仮想現実環境の領域を見ることが可能となる、請求項14に記載の方法。
  23. 前記ハンドヘルドデバイスの動きは、前記現実世界空間内の前記仮想現実プレーヤの前記現在位置に相対するものであり、前記ハンドヘルドデバイスの前記動きにより、前記仮想現実環境内のオブジェクトは、前記ハンドヘルドデバイスが前記観覧者の顔に近づくとパンアウトビューで、前記ハンドヘルドデバイスが前記観覧者の前記顔から離れるとパンインビューで、見ることが可能となる、請求項14に記載の方法。
JP2019555790A 2017-04-28 2018-04-26 Vr環境への第2の画面の仮想ウィンドウ Active JP6929380B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762492100P 2017-04-28 2017-04-28
US62/492,100 2017-04-28
US15/963,047 US10688396B2 (en) 2017-04-28 2018-04-25 Second screen virtual window into VR environment
US15/963,047 2018-04-25
PCT/US2018/029661 WO2018200883A1 (en) 2017-04-28 2018-04-26 Second screen virtual window into vr environment

Publications (2)

Publication Number Publication Date
JP2020518321A true JP2020518321A (ja) 2020-06-25
JP6929380B2 JP6929380B2 (ja) 2021-09-01

Family

ID=63916392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019555790A Active JP6929380B2 (ja) 2017-04-28 2018-04-26 Vr環境への第2の画面の仮想ウィンドウ

Country Status (5)

Country Link
US (2) US10688396B2 (ja)
EP (1) EP3615154B1 (ja)
JP (1) JP6929380B2 (ja)
CN (1) CN110536726B (ja)
WO (1) WO2018200883A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049290A (ko) * 2020-10-14 2022-04-21 주식회사 엔씨소프트 가상 현실 게임 방송 서비스 방법과 이를 수행하기 위한 장치 및 시스템
WO2024070085A1 (ja) * 2022-09-27 2024-04-04 株式会社Jvcケンウッド 仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10245507B2 (en) * 2016-06-13 2019-04-02 Sony Interactive Entertainment Inc. Spectator management at view locations in virtual reality environments
KR20180012064A (ko) * 2016-07-26 2018-02-05 엘지전자 주식회사 디스플레이 장치
US10445925B2 (en) * 2016-09-30 2019-10-15 Sony Interactive Entertainment Inc. Using a portable device and a head-mounted display to view a shared virtual reality space
CN108933913A (zh) * 2017-05-24 2018-12-04 中兴通讯股份有限公司 一种视频会议实现方法、装置、系统及计算机存储介质
CN109952757B (zh) * 2017-08-24 2020-06-05 腾讯科技(深圳)有限公司 基于虚拟现实应用录制视频的方法、终端设备及存储介质
US20190327355A1 (en) * 2017-11-07 2019-10-24 Katrina Goff Candy Hands free on call phone (foncph)
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
WO2019212902A1 (en) 2018-05-03 2019-11-07 Pcms Holdings, Inc. Systems and methods for physical proximity and/or gesture-based chaining of vr experiences
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US11036284B2 (en) * 2018-09-14 2021-06-15 Apple Inc. Tracking and drift correction
US11294453B2 (en) * 2019-04-23 2022-04-05 Foretell Studios, LLC Simulated reality cross platform system
JP7356827B2 (ja) * 2019-06-26 2023-10-05 株式会社コロプラ プログラム、情報処理方法、及び情報処理装置
JP7385733B2 (ja) * 2019-09-09 2023-11-22 アップル インコーポレイテッド 仮想カメラと物理的カメラとの位置同期
JP7185814B2 (ja) * 2019-11-11 2022-12-08 株式会社meleap 情報処理装置、情報処理方法及びプログラム
US11625973B2 (en) * 2020-04-22 2023-04-11 Igt Multi-user gaze detection at electronic gaming devices
US20220182581A1 (en) * 2020-05-12 2022-06-09 True Meeting Inc. Manipulating a virtual video conference environment
KR102433085B1 (ko) * 2020-06-25 2022-08-17 주식회사 리얼리티매직 가상 현실 게임용 중계 화면 생성 방법 및 이를 수행하는 가상 현실 시스템
WO2022000045A1 (en) * 2020-07-02 2022-01-06 VirtuReal Pty Ltd A virtual reality system
WO2022066438A1 (en) * 2020-09-25 2022-03-31 Sterling Labs Llc Asymmetric presentation of an environment
CN112330823B (zh) * 2020-11-05 2023-06-16 腾讯科技(深圳)有限公司 虚拟道具的显示方法、装置、设备及可读存储介质
US11924393B2 (en) * 2021-01-22 2024-03-05 Valeo Comfort And Driving Assistance Shared viewing of video among multiple users
US11614619B1 (en) 2022-04-11 2023-03-28 Voyetra Turtle Beach, Inc. Headset dynamic windowing
US11880499B2 (en) 2022-05-12 2024-01-23 Science Applications International Corporation Systems and methods for providing observation scenes corresponding to extended reality (XR) content
US11983822B2 (en) 2022-09-02 2024-05-14 Valeo Comfort And Driving Assistance Shared viewing of video with prevention of cyclical following among users

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013545510A (ja) * 2010-10-12 2013-12-26 株式会社ソニー・コンピュータエンタテインメント 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
WO2016084941A1 (ja) * 2014-11-28 2016-06-02 株式会社コロプラ ディスプレイとネットワークを介して接続される複数のコントローラとを連動させて画面操作するシステム、プログラム、及び方法
US20160361658A1 (en) * 2015-06-14 2016-12-15 Sony Interactive Entertainment Inc. Expanded field of view re-rendering for vr spectating

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100231581A1 (en) * 2009-03-10 2010-09-16 Jar Enterprises Inc. Presentation of Data Utilizing a Fixed Center Viewpoint
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US20130194304A1 (en) * 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US9715113B2 (en) * 2014-03-18 2017-07-25 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
US9818225B2 (en) * 2014-09-30 2017-11-14 Sony Interactive Entertainment Inc. Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
US9898091B2 (en) * 2015-06-03 2018-02-20 Oculus Vr, Llc Virtual reality system with head-mounted display, camera and hand-held controllers
US9776084B2 (en) * 2015-06-15 2017-10-03 Oculus Vr, Llc Virtual reality system with camera shock-mounted to head-mounted display
KR20170094883A (ko) * 2016-02-12 2017-08-22 동국대학교 산학협력단 접이식 가상현실 시청용 장치
US11163358B2 (en) * 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity
US10088898B2 (en) * 2016-03-31 2018-10-02 Verizon Patent And Licensing Inc. Methods and systems for determining an effectiveness of content in an immersive virtual reality world
CN106303706A (zh) * 2016-08-31 2017-01-04 杭州当虹科技有限公司 基于人脸和物件跟踪实现以主角跟随视角观看虚拟现实视频的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013545510A (ja) * 2010-10-12 2013-12-26 株式会社ソニー・コンピュータエンタテインメント 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
WO2016084941A1 (ja) * 2014-11-28 2016-06-02 株式会社コロプラ ディスプレイとネットワークを介して接続される複数のコントローラとを連動させて画面操作するシステム、プログラム、及び方法
US20160361658A1 (en) * 2015-06-14 2016-12-15 Sony Interactive Entertainment Inc. Expanded field of view re-rendering for vr spectating

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049290A (ko) * 2020-10-14 2022-04-21 주식회사 엔씨소프트 가상 현실 게임 방송 서비스 방법과 이를 수행하기 위한 장치 및 시스템
KR102481528B1 (ko) * 2020-10-14 2022-12-26 주식회사 엔씨소프트 가상 현실 게임 방송 서비스 방법과 이를 수행하기 위한 장치 및 시스템
WO2024070085A1 (ja) * 2022-09-27 2024-04-04 株式会社Jvcケンウッド 仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法

Also Published As

Publication number Publication date
US10688396B2 (en) 2020-06-23
CN110536726B (zh) 2024-02-27
CN110536726A (zh) 2019-12-03
US20180311585A1 (en) 2018-11-01
US20200391116A1 (en) 2020-12-17
US11389726B2 (en) 2022-07-19
EP3615154B1 (en) 2024-03-27
EP3615154A1 (en) 2020-03-04
JP6929380B2 (ja) 2021-09-01
WO2018200883A1 (en) 2018-11-01

Similar Documents

Publication Publication Date Title
US11389726B2 (en) Second screen virtual window into VR environment
US11662813B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
US10857455B2 (en) Spectator management at view locations in virtual reality environments
US10463962B2 (en) Spectator view perspectives in VR environments
US11079999B2 (en) Display screen front panel of HMD for viewing by users viewing the HMD player
US10388071B2 (en) Virtual reality (VR) cadence profile adjustments for navigating VR users in VR environments
US11534684B2 (en) Systems and methods for detecting and displaying a boundary associated with player movement
JP2019537087A (ja) Hmdユーザを現実世界空間内で安全に案内するために、仮想現実シーンにおいて対話型コンテンツを提供する方法
JP2019511781A (ja) 仮想現実(vr)環境におけるvrユーザの観客ビュー追跡

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210810

R150 Certificate of patent or registration of utility model

Ref document number: 6929380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250