JP2016533659A - ヘッドマウントシステムに関連するホップ数を削減するためのシステム及び方法 - Google Patents

ヘッドマウントシステムに関連するホップ数を削減するためのシステム及び方法 Download PDF

Info

Publication number
JP2016533659A
JP2016533659A JP2016518340A JP2016518340A JP2016533659A JP 2016533659 A JP2016533659 A JP 2016533659A JP 2016518340 A JP2016518340 A JP 2016518340A JP 2016518340 A JP2016518340 A JP 2016518340A JP 2016533659 A JP2016533659 A JP 2016533659A
Authority
JP
Japan
Prior art keywords
game
mounted display
hmd
user
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016518340A
Other languages
English (en)
Inventor
ペリー、デイヴィッド
Original Assignee
ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー, ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー filed Critical ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Publication of JP2016533659A publication Critical patent/JP2016533659A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/31Communication aspects specific to video games, e.g. between several handheld game devices at close range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/34Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using peer-to-peer connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/332Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using wireless networks, e.g. cellular phone networks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/358Adapting the game course according to the network or server load, e.g. for reducing latency due to different connection speeds between clients
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/538Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for performing operations on behalf of the game client, e.g. rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2350/00Solving problems of bandwidth in display systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Display Devices Of Pinball Game Machines (AREA)
  • Computer And Data Communications (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【解決手段】ヘッドマウントディスプレイに関連するホップの削減のためのシステム及び方法が記載される。ヘッドマウントディスプレイは、ネットワークを介したゲームプログラムに関連する双方向メディアの送受信のための通信回路を含む。双方向メディアはゲームクラウドシステムによって処理され、ヘッドマウントディスプレイの通信回路へと直接ストリーミングされる。ヘッドマウントディスプレイは、ユーザから動作を受信し、入力を生成するためのユーザ入力回路さらに含み、その入力にはユーザ入力回路によって検知されたポジション及び動きが含まれる。ヘッドマウントディスプレイはネットワークから受信された双方向メディアのデコードのためのゲーム処理回路を含む。ゲーム処理回路はゲームプログラムに関連する双方向部分を駆動する。双方向部分は入力に基づいて生成される。【選択図】図1B

Description

本開示は、ヘッドマウントシステムに関連するホップ数を削減するためのシステム及び方法に関する。
据置型ゲーム機は一般に、ゲームを行うために使用される。たとえばユーザは通常、ゲームを行うためにコントローラ及びコンソールを購入する。コンソールはインターネットに接続されていてもよい。コンソール及びインターネットを介してゲームを行うために、ユーザはコンソールの電源を入れ、コントローラを操作する。しかしゲームプレイを容易にするためにゲームデータを仲介する、たとえばネットワーク機器の数などのホップ数が、ゲームのプレイの速度を落とす可能性がある。たとえばユーザはゲームの特定のステージをプレイするために、インターネットからコンソールへグラフィックスがダウンロードされるまで待たなければならない場合がある。
本開示に記載の実施形態はこれに関連する。
本開示に記載の実施形態は、本明細書に記載のヘッドマウントシステムに関連するホップ数を削減するシステム及び方法を提供する。
広義的に言えば、このシステム及び方法により様々な実施形態において、ヘッドマウントディスプレイとネットワークとの間にルータをバイパスすることでメディアデータをネットワークからヘッドマウントディスプレイにストリーミングしてゲームプレイを行うことが可能になる。ルータを使用しないことで、ヘッドマウントディスプレイと、ユーザがゲームを行うためにゲームプログラムを実行するゲームクラウドとの間のホップ数を削減する。
いくつかの実施形態では、ゲームクラウドシステムを介したゲームプレイに使用されるヘッドマウントディスプレイについて記載する。ヘッドマウントディスプレイは、ネットワークを介したゲームプログラムに関連する双方向メディアの送受信を行う通信回路を含む。双方向メディアはゲームクラウドシステムによって処理され、ヘッドマウントディスプレイの通信回路に直接ストリーミングされる。ヘッドマウントディスプレイはさらにユーザからのアクションを受信するためのユーザ入力回路を含み、ユーザ入力回路によって検知されたポジション及び動作を含む入力を生成する。ヘッドマウントディスプレイは、ネットワークから受信した双方向メディアをデコードするためのゲーム処理回路を含む。ゲーム処理回路はゲームプログラムに関連する双方向部分を駆動する。双方向部分は入力に基づいて生成される。
いくつかの実施形態では、ゲームクラウドシステムを介したゲームプレイ方法について記載する。この方法は、ネットワークを介したゲームプログラムに関連する直接ストリーミングを行う双方向メディアを含む。双方向メディアはゲームクラウドシステムによって処理される。直接ストリーミングの操作はヘッドマウントディスプレイによって行われる。この方法はさらに、ヘッドマウントディスプレイによって検知されたポジション及び動作を含む入力の受信、ネットワークから受信した双方向メディアのデコード及びゲームプログラムに関連する双方向部分の駆動を含む。双方向部分は入力に基づいて生成される。
様々な実施形態では、ゲームクラウドシステムを介したゲームプレイにコンピュータ実行可能命令を格納する非一時的なコンピュータ可読媒体について記載する。コンピュータ実行可能命令はコンピュータのプロセッサによって実行されると、ネットワークを介したゲームプログラムに関連する双方向メディアの直接ストリーミングを行う。双方向メディアはゲームクラウドシステムによって処理される。さらにコンピュータ実行可能命令はプロセッサによって実行されると、ヘッドマウントディスプレイからの入力を受信する。入力はヘッドマウントディスプレイにより検知されたポジション及び動作を含む。コンピュータ実行可能命令はプロセッサによって実行されると、ネットワークから受信した双方向メディアをデコードし、ゲームプログラムに関連する双方向部分を駆動する。双方向部分は入力に基づいて生成される。
本明細書に記載の他の態様については、実施例として添付図面を用いて本開示に記載される実施形態の原理を実証する以下の詳細な説明により明らかにする。
本開示に記載の様々な実施形態については、添付図面を参照して以下の説明を読むと、最もよく理解できる。
本開示に記載の実施形態に係る、ゲームクラウドとヘッドマウントディスプレイ(HMD)または手持型コントローラ(HHC)との間のホップ数を削減するためのシステムの図である。
本開示に記載の実施形態に係る、ネットワーク及びルータを介したHMDまたはHHCとゲームクラウドとの間のデータ転送のためのシステムの図である。
本開示に記載の実施形態に係る、メディアデータの通信を行うためのコンソールを用いる、また入力データ及び/またはメディアデータの通信を行うためのルータを用いる、あるいは用いないシステムの図である。
本開示に記載の実施形態に係る、ユーザの頭部の動き及び/または手の動きに基づく入力データ生成を例示するシステムの図である。
本開示に記載の実施形態に係る、図1AのHMDの実施例であるHMDの図である。
本開示に記載の実施形態に係る、ワイヤレスネットワークにアクセスするために図3のHMDの表示画面に表示される画像の図である。
本開示に記載の実施形態に係る、ワイヤレスネットワークにアクセスするためにコンピュータの表示画面に表示される画像の図である。
本開示に記載の実施形態に係る、HMDの表示画面の周辺領域が低解像度を有し、中央領域が高解像度を有する、図3のHMDの表示画面に表示されるゲーム画像の図である。
本開示に記載の実施形態に係る、HMDの表示画面の上部領域及び下部領域が低解像度を有し、上部及び下部領域の間の領域が高解像度を有する、図3のHMDの表示画面に表示されるゲーム画像の図である。
本開示に記載の実施形態に係る、HMDの表示画面の右側領域及び左側領域が低解像度を有し、右側及び左側領域の間の領域が高解像度を有する、図3のHMDの表示画面に表示されるゲーム画像の図である。
本開示に記載の実施形態に係る、様々な種類のHHCを例示する図である。
本開示に記載の実施形態に係る、図3のHMDの実施例であるHMDの実施形態の図である。
本開示に記載の実施形態に係る、図3のHMDの実施例であるHMDの実施形態の等軸測視図である。
本開示に記載の実施形態に係る、図3のHHC及びHMDのインターフェイス接続に適合するコンソールのブロック図である。
本開示に記載の実施形態に係る、ゲームシステムの実施形態のブロック図である。
ヘッドマウントシステムに関連するホップ数の削減のためのシステム及び方法について記載する。たとえばルータ、リピータ、ハブ、コンピュータ、コンソールなどのネットワーク機器が、ネットワーク機器を介して転送中のデータに、ホップを追加する。1つまたは複数のネットワーク機器を、ヘッドマウントディスプレイ(HMD)とネットワークとの間、かつ/または手持型コントローラ(HHC)とネットワークとの間に配置してもよい。ネットワーク機器による別の機器からのデータの受信、ネットワーク機器によるデータのバッファリング、データの分析及び別の機器へのデータの再送の結果としてホップを追加してもよい。このシステム及び方法は、HMDとネットワークとの間、かつ/またはHHCとネットワークとの間のネットワーク機器数を削減する。ネットワーク機器数の削減により、たとえばラグタイム、データのバッファリング時間、データの受信時間、データの分析時間、データの再送時間などのレイテンシが削減される。レイテンシが削減されると、HMD及び/またはHMCを用いて、ネットワークを介してゲームクラウドから受信された精緻なグラフィックスが最短のレイテンシで表示される。本開示に記載の様々な実施形態については、これら特定の詳細の一部または全部がなくても実施することができる点に留意されたい。他の例において、周知のプロセス操作は本開示に記載の様々な実施形態を不必要に曖昧にしないために詳細に記載されていない。
いくつかの実施形態では、このシステムはコンピュータ、HHC及びHMDを含む。様々な実施形態では、コンピュータはディスプレイ上でレンダリングされる双方向ゲームプログラムの1つまたは複数の部分を実行する専用コンピュータ、ゲーミングコンソール、携帯電話、タブレットまたは他のそのような機器であってもよい。これらの実施形態において、双方向ゲームプログラムの残りのあらゆる部分は、たとえば1つまたは複数の仮想マシン(VM)などのゲームクラウドシステムにおいて実行される。いくつかの実施形態では、ゲームクラウドシステムはゲームプログラムを実行するいくつかのサーバを含み、ゲーム機器、HMD、テレビ、コンピュータスクリーンなどの上にゲーム環境を生成する。たとえばハイパーバイザがプロセッサ、記憶装置、サーバなどの物理リソース上で実行されることにより、いくつかのオペレーティングシステム及びいくつかのコンピュータソフトウェアアプリケーションが実行されてデータが生成され、そのデータをさらに用いてHMD上にゲーム環境が生成される。ゲーミングコンソールの例には、ソニー・コンピュータエンターテインメント(商標)及びその他メーカによって製造されているゲーミングコンソールが含まれる。双方向ゲームプログラムは複数ユーザがプレイするマルチユーザゲームプログラムまたは一名のユーザがコンピュータとプレイするシングルユーザゲームプログラムであってもよい。
いくつかの実施形態では、双方向ゲームプログラムのすべての部分がゲームクラウドシステムまたはコンピュータ上で実行される。
様々な実施形態では、没入型環境をHMD内に生成するために双方向ゲームプログラムが実行される。たとえば没入型環境はプロセッサにより作成され、ユーザ自身を没入させる。没入型環境は、自身がプロセッサにより作成される仮想世界の一部であるかのようにユーザに感じさせる。没入型環境はユーザを精神的に現実世界から隔離して仮想世界に引き込むことでユーザにゲーム体験を提供する。いくつかの実施形態では、プロセッサがHMD内に表示される没入型環境を生成して没入型環境の仮想世界が現実であるような感覚をユーザに与える。いくつかの実施形態では、メディアデータまたは付加メディアデータが、本明細書に記載するように、没入型環境を生成するために用いるデータを含む。
HMDは、ユーザの片目または両目の前にレンズや眼鏡などの小型のディスプレイオプティックを有する、ユーザの頭部に装着される装置またはヘルメットの一部である。いくつかの実施形態では、たとえば仮想シーン、拡張仮想現実シーンなどのワンシーンがHMDの表示画面状に表示される。両目用には2つのオプティックが使用されるが、両目でワンシーンを見る。
いくつかの実施形態では、HMDは映像出力をコンピュータから受信しレンダリングすることが可能である。様々な実施形態では、HHC及び/またはHMDは無線でコンピュータと通信し、これによって有線接続の場合よりもHHC及び/またはHMDの動きが自由になる。
HHCは、双方向ゲームプログラムへの入力を行うために、たとえばボタン、ジョイスティック、十字キー、トリガ、手のジェスチャー、タッチパッド、タッチスクリーンまたはその他の種類の入力機構などの様々な特徴を含んでもよい。HHCの例は、ソニー・コンピュータエンターテインメントによって製造されているソニーデュアルショック4コントローラである。HHCの他の例は他社製の任意の型番やバージョン番号を有するコントローラを含む。
さらにHHCは、モーションコントローラを動かすことでユーザが双方向ゲームプログラムとインターフェイス接続を行い、双方向ゲームプログラムに入力することを可能にするモーションコントローラであってもよい。モーションコントローラの例はソニー・コンピュータエンターテインメント(商標)によって製造されているプレイステーションムーブ(商標)コントローラを含む。
同様にHMDは、HMDを動かすことでユーザが双方向ゲームプログラムとインターフェイス接続を行い、双方向ゲームプログラムへの入力することを可能にするユーザ入力回路を含んでもよい。モーションコントローラ及び/またはHMDのポジション及び動きを検知するために様々な技術が採用されてもよい。たとえばモーションコントローラ及び/またはユーザ入力回路は、加速度センサ、ジャイロスコープ及び磁力計などの様々な種類の慣性センサ回路を含んでもよい。いくつかの実施形態では、加速度センサはレイテンシの短い6軸加速度センサである。いくつかの実施形態では、モーションコントローラ及び/またはHMDは1つまたは複数の、たとえば発光ダイオード(LED)、色点、反射鏡、マーカ、再帰反射材、定義済みの形状、定義済みの色、定義済みのオブジェクト、バーコード、タグ、クイックレスポンス(QR)コードなどの固定参照オブジェクトを含んでもよく、固定参照オブジェクトの画像は1つまたは複数のデジタルカメラによりキャプチャされる。いくつかの実施形態では、圧縮されたビデオデータを画像内ベースのモーションピクチャエキスパートグループ(MPEG)規格などの適切なフォーマットで送信することができるように、単一の電荷結合素子(CCD)、LEDインジケータ及びハードウェアベースのリアルタイムデータ圧縮ならびに符号化装置をさらに含むビデオカメラがデジタルカメラに含まれる。モーションコントローラのポジション及び動きについては及び/またはその後、1つまたは複数のデジタルカメラによりキャプチャされた画像の分析を通じて決定することができる。
図1Aは、ゲームクラウド102とHMD104またはHHC106との間のホップ数を削減するためのシステム100の実施形態の図である。いくつかの実施形態では、ゲームクラウド102は本明細書内でゲームクラウドシステムと称される。様々な実施形態では、HMD104はユーザ108によって、HMD104のレンズが自身の目の前に配置されるようにユーザ108がヘルメットを被るのと同様の方法で自身の頭部に置かれる。いくつかの実施形態では、HMD104は度付き眼鏡、ゴーグルなどの眼鏡のように装着される。HMD104のいくつかの実施形態において、HMD104はユーザ108の両目を覆う。HHC106はユーザ106が手で持つ。
様々な実施形態では、HHC106の代わりに、ユーザ106の手を用いて手のジェスチャー、指のジェスチャーなどのジェスチャーをHMD104に伝える。たとえばHMD104内のデジタルカメラがジェスチャーの画像をキャプチャし、HMD104内のプロセッサがジェスチャーを分析して、ジェスチャーがHMD104内に表示されたゲームに影響を与えるかどうかを決定する。
本明細書内では、プロセッサはマイクロプロセッサ、プログラマブルロジック装置(PLD)、特定用途向け集積回路(ASIC)またはそれらの組み合わせであってもよい。
システム100はローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)またはそれらの組み合わせであってもよいネットワーク110を含む。ネットワーク110の例にはインターネット、イントラネット、またはそれらの組み合わせが含まれる。いくつかの実施形態では、ネットワーク110が伝送制御プロトコル(TCP)/インターネットプロトコル(IP)またはユーザデータグラムプロトコル/IP(UDP/IP)を用いて、ネットワーク110を介しゲームクラウド102とHMD104またはHHC106との間でメディアデータを通信する。様々な実施形態では、ネットワーク110がイーサネット(登録商標)プロトコル、TCP/IPプロトコルまたは両方のプロトコルを用いて、ネットワーク110を介しゲームクラウド102とHMD104またはHHC106との間でメディアデータを通信する。
ゲームクラウド102はコーダ/デコーダ(コーデック)112及びストリームバッファ114を含む。ストリームバッファ114は、ゲームプログラム117の実行の際に生成されるメディアデータ116のストリームを格納する。メディアデータ116は仮想環境データ、仮想ゲームオブジェクトデータ、それらの組み合わせなどを含む。様々な実施形態において、仮想環境データはゲームの仮想環境を生成するためにレンダリングされ、仮想ゲームオブジェクトデータは仮想ゲームキャラクタ、仮想点、仮想景品、ゲームインターフェイスなどの1つまたは複数の仮想ゲームオブジェクトを生成するためにレンダリングされる。いくつかの実施形態では、ゲームの仮想環境は仮想ゲームオブジェクトを含む。仮想環境の例には仮想都市、仮想道路、仮想湖、仮想海などの仮想地域が含まれる。ゲームプログラム117は双方向ゲームプログラムの実施例であり、ゲームクラウド102の1つまたは複数のサーバによって実行される。コーデック112の例はコンプレッサ/デコンプレッサを含む。たとえばコーデック112はメディアデータ116をコード化/デコードする。圧縮の例には非可逆的圧縮、可逆的圧縮などが含まれる。いくつかの実施形態では、コーデック112がパケット化及びパケット解除を行い、コード化及びデコードを行う。これらの実施形態では、コーデック112がストリームバッファ114を含む。
ユーザ108はHMD104を用いて、HMD104のプロセッサによって実行されるオペレーティングシステム(OS)にアクセスする。たとえば、ユーザ108はボタンを介してHMD104の電源を入れ、HMD104のプロセッサがOSを実行する。
いくつかの実施形態では、OSによってHMD104のネットワーク110へのアクセスが可能になる。たとえばユーザ108が、OS上のHMD104のプロセッサによって実行されるネットワークアクセスアイコン、ネットワークアクセスシンボルなどのネットワークアクセスアプリケーションを選択する際に、ネットワークアクセスアプリケーションがHMD104のマイクロコントローラにネットワークのリストを提供し、それがユーザ108に対して表示される。ユーザ108はユーザ入力回路を用いてネットワーク110にアクセスするためにそれらネットワークの1つを選択する。たとえば、ユーザ108が頭部の傾き、まばたき、注視、凝視、うなずき、首振りなどの1つまたは複数の頭部の動きを行うと、それがユーザ入力回路により検知されてネットワークの1つの選択のための入力が生成される。別の実施例として、ユーザ108がHHC106上のボタンを選択し、ネットワークの1つが選択されて、その選択がHHC106の通信回路によってHHC106からHMD104へと通信される。通信回路の例には、トランシーバ、回路網の送信/受信、ネットワークインターフェイスコントローラまたはそれらの組み合わせなどが含まれる。ネットワークアクセスアプリケーションはまた、ネットワーク110にアクセスするためのセキュリティキー、パスコードなどのパスワードをユーザ108に要求する。パスワードが有効であると認証された場合には、ネットワークアクセスアプリケーションにより、ユーザ108はネットワーク110へのアクセスを許可される。
ネットワーク110が一度アクセスされると、OSによってHMD104のゲームプログラム117へのアクセスが可能になる。たとえばユーザ108がOS上でHMD104のプロセッサにより実行されるゲームアクセスアイコン、ゲームアクセスシンボルなどのゲームアクセスアプリケーションを選択すると、ゲームアクセスアプリケーションがネットワーク110を介してゲームプログラム117へのアクセスを要求する。たとえばユーザ108が1つまたは複数の頭部の動きを行うと、それがユーザ入力回路により検知されて、ゲームアクセスアプリケーションを選択するための入力が生成される。別の実施例として、ユーザ108がゲームアクセスアプリケーションを選択するためにHHC106上のボタンを選択し、その選択がHHC106の通信回路によってHHC106からHMD104に通信される。
ネットワーク110を介したゲームプログラム117へのアクセス取得時には、HMD104のマイクロコントローラがHMD104の表示画面上にゲームを表示する。いくつかの実施形態におけるHMD104の表示画面は、HMD104が急速に動かされた時のぶれを低減する高性能画面である。ユーザ108が1つまたは複数の頭部の動きを行うと、頭部の各々の動きがユーザ入力回路をトリガして、ゲームをプレイするために用いてもよい入力が生成される。いくつかの実施形態では、ユーザ108が自身の手を用いてHHC106の1つまたは複数のボタンの選択を行い、たとえば指を押し当てる、指を動かす、指を回転させる、指を上げる、指を下げる、指を右に向ける、指を左に向けるなどの各々の手の動きがHHC106をトリガして、ゲームをプレイするために用いてもよい入力が生成される。
いくつかの実施形態では、ゲームアクセスアプリケーションがゲームプログラム117にアクセスするためのユーザ名及び/またはパスワードをユーザ108に要求する。ユーザ名及び/またはパスワードが有効であるとの認証がゲームクラウド102から受信されると、ゲームアクセスアプリケーションによりユーザ108のゲームプログラム117へのアクセスが可能になる。いくつかの実施形態では、1つもしくは複数の手の動きを行い、かつ/または1つもしくは複数の頭部の動きを行うことにより、ユーザ108がユーザ名及び/またはパスワードを提供する。
様々な実施形態では、ゲームアクセスアプリケーションへのアクセスの代わりに、ユーザ108がネットワーク110へのアクセス時にウェブページへのアクセスを要求し、ウェブページがユーザ108のゲームプログラム117へのアクセスを可能にする。たとえばユーザ108は1つもしくは複数の頭部の動きを行うことによりユーザ入力回路を介して、または1つもしくは複数の手の動きを行うことによりHHC106を介してウェブブラウザアプリケーションを選択し、ウェブページにアクセスする。ユーザ108はウェブページにアクセスし、ウェブページに表示されるゲームをプレイする。ゲームプログラム117がゲームクラウド102上で実行されると、ゲームが表示される。
いくつかの実施形態では、ゲームクラウド102上でゲームプログラム117が実行されると表示されるゲームを行うためにウェブページにアクセスする前に、ユーザ108のユーザ名及び/またはパスワードが認証される。ユーザ108がゲームアクセスアプリケーションを介してゲームにアクセスする際に、上記と同様の方法でユーザ名及び/またはパスワードが認証される。
ゲームプログラム117がアクセスされると、コーデック112がメディアデータ116のデジタルデータストリームを圧縮するなどして符号化し、ネットワーク110を介して符号化されたメディアデータのストリームをHMD104へと送信する。いくつかの実施形態では、符号化されたメディアデータのデジタルデータストリームは、ネットワーク110を介して送信するためのパケットの形式を取る。
HMD104はネットワーク110を介してコーデック112から符号化されたメディアデータのデジタルデータストリームを受信し、デジタルデータストリームはたとえばデコードされる、パケット解除されるなどの処理を行われて、HMD104の表示画面上にゲームを表示するためにレンダリングされる。ゲームがHMD104の表示画面上に表示されると、1つまたは複数の入力がHMD104及び/またはHHC106から受信される。たとえば、ユーザ108はHMD104を装着して1つまたは複数の頭部の動きを行う。別の実施例としてユーザ108は、たとえばボタンの押圧、ジョイスティックの動き、手のジェスチャー、指のジェスチャー、それらの組み合わせなどの1つまたは複数の手の動きを行う。そして1つまたは複数の手の動きが行われると、HHC106が入力データを生成し、その入力データはHMD104の通信回路へ送信するために、HHC106の通信回路によって入力信号へと転換される。入力信号はHMD104の通信回路によってアナログ形式からデジタル形式に転換されて入力データが生成され、入力データはHMD104によってパケット化及び符号化されて、ネットワーク110を介してコーデック112へと送信される。
いくつかの実施形態では、ゲームプログラム117は1つまたは複数の頭部の動きに基づいて生成される入力データを、1つまたは複数の手の動きに基づいて生成される入力データとともにマッピングし、HMD104上に表示されるゲームの状態を変更するべきかどうかを決定する。たとえば頭部の傾きを示す入力がネットワーク110を介してHHC106上のボタンの押圧を示す入力とともに受信されると、ゲームプログラム117がゲームの状態の変更を決定する。そうでない場合、ゲームプログラム117はゲームのステージを変更しないことを決定する。
1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きに基づいて生成された入力の入力データは、HMD104によってパケット化及び符号化されて、符号化された入力データのストリームとしてネットワーク110を介してコーデック112へと送信される。たとえば入力データがルータを介して送信されない時、入力データはHMD104からネットワーク110を介してゲームクラウド102へと直接送信される。HMD104とネットワーク110との間のデータを宛先装置などへ導く、送信するなどしてルーティングするために、ルータをHMD104とネットワーク110との間においてもよい。
コーデック112は、ネットワーク110を介してHMD104から受信した符号化された入力データのストリームを解凍するなどしてデコードし、デコードされた入力データはパケット解除してゲームプログラム117へと送信するために、ストリームバッファ114内でバッファリングされる。ゲームクラウド102の1つまたは複数のサーバはデコードされた入力データのストリームをパケット解除し、入力データをゲームプログラム117へと送信する。いくつかの実施形態では、ゲームクラウド102がまずパケット解除を行い、その後デコードを行う。
入力データに基づいて、ゲームプログラム117は付加メディアデータを生成し、その付加メディアデータはゲームクラウド102の1つまたは複数のサーバによりパケット化されて、付加メディアデータのストリームが生成される。付加メディアデータのストリームはストリームバッファ114内に格納されてコーデック112によって符号化され、符号化された付加メディアデータのストリームとしてネットワーク110を介してHMD104へと送信される。いくつかの実施形態では、ネットワーク110を介して付加メディアデータをHMD104へと送信する前に、付加メディアデータがまず符号化され、その後パケット化される。HMD104は符号化された付加メディアデータのストリームを受信し、ストリームをパケット解除し、符号化された付加メディアデータをデコードして、付加メディアデータをHMD104のマイクロコントローラに提供する。
いくつかの実施形態では、ゲーム環境はメディアデータ116、付加メディアデータ、またはそれらの組み合わせを含む。
HMD104のマイクロコントローラはゲームプログラム117によって実行されるゲームの表示を、付加メディアデータに基づいて変更する。たとえばユーザ108がうなずくと、ユーザ108のアバターも、ゲームプログラム117の実行により生成されるゲームの仮想世界においてうなずく。別の実施例として、ユーザ108が否定の意で首を振る時、ユーザ108のアバターも、ゲームプログラム117の実行により生成されるゲームの仮想世界において首を振る。別の実施例として、ユーザ108がHMD104の表示画面上に表示された仮想ゲームキャラクタを見ると、仮想ゲームキャラクタがユーザ108に視線を返す。ユーザ108が仮想ゲームキャラクタから視線を外すと、仮想ゲームキャラクタがユーザ108から視線を外す。さらにこの実施例においては、HMD104の外部デジタルカメラがユーザ108の目または頭部の位置の画像をキャプチャする。目または頭部の位置による注視に基づき、ゲームプログラム117は仮想ゲームキャラクタの目の位置を変更する。1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きに基づいて生成される入力の入力データがゲームの状態を変更する点に留意されたい。いくつかの実施形態では、ゲームの表示は本明細書内でゲームプログラム117に関連する双方向部分と称される。
様々な実施形態では、1つまたは複数の手の動きに基づいて生成される入力データをHHC106からHMD104へと通信する代わりに、入力データがネットワーク110を介して直接HHC106からコーデック112へと通信される。たとえば入力データがHHC106とネットワーク110との間のルータ(図示せず)を介して通信されない場合、入力データはネットワーク110を介して直接HHC106からコーデック112へと通信される。1つまたは複数の手の動きに基づいて生成されるHMD104からの入力データは、入力データがHMD104により通信されるのと同様の方法で、HHC106により通信される。たとえば1つまたは複数の手の動きに基づいて生成されるHMD104からの入力データは、HHC106によって符号化及びパケット化され、ネットワーク110を介して符号化された入力データのストリームとしてコーデック112へと送信される。
HMD104とネットワーク110との間にルータ(図示せず)を置かないことで、ネットワーク110とHMD104との間のホップ数が削減される点に留意されたい。ルータのない実施形態において、たとえばメディアデータ116、付加メディアデータなどの双方向メディアは、ゲームクラウド102のコーデック112によってネットワーク110を介してHMD104のワイヤレスアクセスカード(WAC)に直接ストリーミングされる。さらにこれらの実施形態においては、たとえば入力データなどの双方向メディアはWACによってネットワーク110を介してゲームクラウド102のコーデック112に直接ストリーミングされる。
ホップ数の削減が、ルータに関連する時間の節約になる。たとえばルータは別のネットワーク機器からデータを受信し、データをバッファリングし、データを分析し、別のネットワーク機器にデータを再送する。HMD104とゲームクラウド102との間でネットワーク110を介してデータを転送する際に、ルータをバイパスすることでデータ受信、データのバッファリング、データ分析、データの再送の時間が節約される。また、HHC106とゲームクラウド102との間でネットワーク110を介してデータを転送する際に、ルータをバイパスすることでデータ受信、データのバッファリング、データ分析、データの再送の時間が節約される。
同様に、たとえばコンソール、モバイル機器などのコンピュータがHMD104またはHHC104とネットワーク110との間で用いられない場合は、データの受信、格納、分析、再送に関連する時間が節約される。
図1Bは、HMD104またはHHC106とゲームクラウド102との間のネットワーク110及びルータ152を介したデータ転送のためのシステム150の実施形態の図である。システム150については、システム150がHMD104とネットワーク110との間にルータ152を含む以外はシステム100(図1A)と同様である。ルータ152もまた、HHC106とネットワーク110との間に配置する。
HMD104は、たとえばBluetooth(登録商標)接続、Wi−Fi(登録商標)接続などの無線接続を介して、ルータ152に接続される。さらにHHC106は、たとえばBluetooth(登録商標)接続、Wi−Fi(登録商標)接続などの無線接続を介して、ルータ152に接続される。いくつかの実施形態では、ルータ152は有線接続を介してネットワーク110に接続される。
システム150については、符号化されたデータのストリームがHMD104またはHHC106からルータ152に送信される以外はシステム100(図1A)と同様に稼働する。ルータ152は符号化されたデータのストリームを導くなどしてネットワーク110上のパスへとルーティングし、ストリームのコーデック112への送信を容易にする。ルータ152はコーデック112のIPアドレス及び/またはメディアアクセス層(MAC)アドレスを用いて、符号化されたデータのストリームをコーデック112へとルーティングする。いくつかの実施形態では、ルータ152はネットワークパス上のパケットトラフィック、ネットワークパス上の輻輳などの1つまたは複数のネットワークトラフィック要因に基づいて、ネットワーク110のネットワークパスを決定する。
ルータ152は、ネットワーク110を介してゲームクラウド102から符号化されたデータのストリームを受信し、符号化されたデータのストリームをHMD104にルーティングする。たとえばルータ152は、ネットワーク110を介してゲームクラウド102から受信した符号化されたデータのストリームを、HMD104のIPアドレス及び/またはMACアドレスに基づいてHMD104へとルーティングする。
図1Cは、メディアデータの通信を行うためのコンピュータ172を用いる、また入力データ及び/またはメディアデータの通信を行うためにルータ152を用いる、あるいは用いないシステム170の実施形態の図である。
いくつかの実施形態では、ワイヤレスネットワークの一覧がHMD104上ではなく、コンピュータ172に接続された、またはコンピュータ172内に配置された表示画面上に提示される。たとえばコンピュータ172が携帯電話である場合、コンピュータ172はワイヤレスネットワークの一覧を表示するための表示画面を含む。別の実施例として、コンピュータ172がテレビ表示画面に接続される場合、ワイヤレスネットワークの一覧は表示画面上に表示される。これらの実施形態においては、コンピュータ172のプロセッサ176がコンピュータ172の記憶装置内に格納されたワイヤレスアクセスアプリケーションを実行すると、ワイヤレスネットワークの一覧がアクセスされる。ユーザ108が1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きを行うことにより、HMD104またはHHC106を介してワイヤレスアクセスアプリケーションにアクセスすると、プロセッサ176がワイヤレスアクセスアプリケーションを実行する。1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きに基づいて生成された入力データは、HMD104またはHHC106の通信回路からコンピュータ172へと送信される。コンピュータ172のプロセッサ176が入力データを受信すると、ワイヤレスネットワークの一覧を生成するためのワイヤレスアクセスアプリケーションが実行される。
コンピュータ172は、ゲームクラウド102からゲームプログラム117の一部を要求ネットワークインターフェイスコントローラ(NIC)174を含む。NICの例には、ネットワークインターフェイスカード及びネットワークアダプタが含まれる。ゲームプログラム117の一部がコーデック112によって符号化され、ネットワーク110を介してコンピュータ172のNIC174へとストリーミングされる。コンピュータ172のプロセッサ176はゲームプログラム117の一部を実行してメディアデータを生成し、そのメディアデータはたとえばトランシーバ、送信/受信回路、ネットワークインターフェイスコントローラなどの通信回路178からHMD104へと、HMD104の表示画面上に表示するために送信される。HMD104の通信回路はメディアデータをコンピュータ172から受信し、メディアデータをHMD104の表示画面上に表示するためHMD104のマイクロコントローラへと送信する。
さらにコンピュータ172の通信回路178は1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きに基づいて生成される入力データをHMD104及び/またはHHC106から受信し、入力データをプロセッサ176に送信する。入力データに応じて、プロセッサ176はコンピュータ172内に格納されたゲームプログラム117の一部を実行してメディアデータを生成し、そのメディアデータは、通信回路178からHMD104の通信回路に送信される。メディアデータはHMD104の通信回路に送信されて、ゲームプログラム117の実行により表示される仮想ゲームオブジェクト及び/またはゲームの仮想環境を変更する。仮想ゲームオブジェクト及び/または仮想環境が変更されると、ゲームプログラム117の実行によって表示されたゲームのゲーム状態が変更される。
いくつかの実施形態では、コンピュータ172のNIC174によって、ゲーム状態がルータ152及びネットワーク110を介してゲームクラウド102へと送信され、ゲームクラウド102の1つまたは複数のサーバにゲーム状態が通知される。
様々な実施形態では、たとえばメディアデータ116、付加メディアデータなどのメディアデータは、ゲームプログラム117の一部がゲームクラウド102からコンピュータ172にダウンロードされるまで、ネットワーク110及びルータ152を介してコーデック112からHMD104へと送信される。たとえば、ユーザ108は最初にゲームアクセスアプリケーションを用いてゲームプログラム117へとアクセスする。ゲームプログラム117の一部のアクセス中に、HMD104の表示画面上に表示するために、メディアデータ116がコーデック112からネットワーク110及びルータ152を介してHMD104へと送信される。HMD104上に表示するために、たとえばメディアデータ116、付加メディアデータなどのメディアデータにゲームクラウド102からアクセスしている間に、コンピュータ172のNIC174がゲームクラウド102からネットワーク110及びルータ152を介してゲームプログラム117の一部をダウンロードする。
いくつかの実施形態では、ゲームプログラム117の一部がコンソール172によりアクセスされると、HMD104の表示画面上に表示するために、たとえばメディアデータ116、付加メディアデータなどのメディアデータがコーデック112からネットワーク110を介してHMD104へと送信される。これらの実施形態では、ルータ152はホップ数を削減するためにバイパスされる。ルータ152のバイパス後にHMD104上に表示するために、たとえばメディアデータ116、付加メディアデータなどのメディアデータにゲームクラウド102からアクセスしている間に、コンピュータ172のNIC174がゲームクラウド102からネットワーク110及びルータ152を介してゲームプログラム117の一部をダウンロードする。
いくつかの実施形態において、1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きに基づいて生成された入力データの一部が、ルータ152及びネットワーク110を介してHMD104からゲームクラウド102のコーデック112へと送信され、入力データの残りの部分がHMD104の通信回路からコンピュータ172の通信回路178へと送信される。
様々な実施形態では、1つまたは複数の手の動きに基づいて生成された入力データの一部が、ルータ152及びネットワーク110を介してHHC106の通信回路からゲームクラウド102のコーデック112へと送信され、入力データの残りの部分がHHC106の通信回路からコンピュータ172の通信回路178へと送信される。
いくつかの実施形態では、1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きに基づいて生成された入力データの一部が、ネットワーク110を介してHMD104からゲームクラウド102のコーデック112へと送信され、入力データの残りの部分がHMD104の通信回路からコンピュータ172の通信回路178へと送信される。これらの実施形態では、ルータ152はバイパスされる。
いくつかの実施形態では、1つまたは複数の手の動きに基づいて生成された入力データの一部が、ネットワーク110を介してHHC106の通信回路からゲームクラウド102のコーデック112へと送信され、入力データの残りの部分がHHC106の通信回路からコンピュータ172の通信回路178へと送信される。これらの実施形態では、ルータ152はバイパスされる。
様々な実施形態では、メディアデータをレンダリングしてHMD104の表示画面上にゲームを表示するために、たとえばメディアデータ116、付加メディアデータなどのゲームプログラム117の実行により生成されるメディアデータが、ネットワーク110及びルータ152を介してゲームクラウド102のコーデック112からHMD104へと送信され、コンピュータ172のプロセッサ176によりゲームプログラム117の一部が実行されることで生成されるメディアデータが、表示画面上にゲームを表示するために、コンピュータ172の通信回路178からHMD104へと送信される。これらの実施形態では、ゲームクラウド102及びコンピュータ172のゲーム状態が同期される。たとえば、コーデック112がゲームプログラム117の実行によって生成されるゲーム状態をネットワーク110及びルータ152を介してコンピュータ172のNIC174へと送信し、ゲーム状態をコンピュータ172に通知する。別の実施例として、コンピュータ172のNIC174がコンピュータ172上でゲームプログラム117の一部を実行することにより生成されるゲーム状態をルータ152及びネットワーク110を介してゲームクラウド102のコーデック112へと送信し、ゲーム状態を1つまたは複数のゲームクラウドサーバに通知する。
いくつかの実施形態では、メディアデータをレンダリングしてHMD104の表示画面上にゲームを表示するために、たとえばメディアデータ116、付加メディアデータなどのゲームプログラム117の実行により生成されるメディアデータが、ネットワーク110を介してゲームクラウド102のコーデック112からHMD104へと送信され、コンピュータ172のプロセッサ176によりゲームプログラム117の一部が実行されることで生成されるメディアデータが、表示画面上にゲームを表示するために、コンピュータ172の通信回路178からHMD104へと送信される。これらの実施形態では、メディアデータがコーデック112からHMD104へと送信される際にルータ152はバイパスされる。これらの実施形態では、ゲームクラウド102及びコンピュータ172のゲーム状態が上記のように同期される。
いくつかの実施形態では、HMD104の表示画面上にメディアデータをレンダリングするために、たとえばメディアデータ116、付加メディアデータなどのゲームプログラム117の実行により生成され、ネットワーク110及びルータ152を介してゲームクラウド102のコーデック112からHMD104へと送信されるメディアデータについては、コンピュータ172のプロセッサ176によりゲームプログラム117の一部が実行されることで生成されるメディアデータよりもグラフィックス量が多い。
いくつかの実施形態では、HMD104の表示画面上にメディアデータをレンダリングするために、たとえばメディアデータ116、付加メディアデータなどのゲームプログラム117の実行により生成され、ネットワーク110を介してゲームクラウド102のコーデック112からHMD104へと送信されるメディアデータについては、コンピュータ172のプロセッサ176によりゲームプログラム117の一部が実行されることで生成されるメディアデータよりもグラフィックス量が多い。これらの実施形態では、メディアデータがネットワーク110を介してゲームクラウド102のコーデック112からHMD104へと送信される際にルータ152はバイパスされる。
様々な実施形態では、HMD104(図1A〜1C)を用いて二次元または三次元画像を表示する。
図2は、1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きに基づく入力データ生成を例示するシステム200の実施形態の図である。ユーザ108はHMD202を装着しており、HHC204を握っている。HMD202はHMD104(図1A〜1C)の実施例であり、HHC204はHHC106(図1A〜1C)の実施例である。
HMD202は、たとえばマーカM1、マーカM2及びマーカM3などの1つまたは複数のマーカを含む。同様に、HHC204はたとえばマーカM4、マーカM5及びマーカM6などの1つまたは複数のマーカを含む。各マーカは発光ダイオード、光源、色、反射材料などであってもよい。
ビデオカメラ206はHMD202の画像をキャプチャする。ユーザ108の頭部が傾いたり動いたりすると、マーカM1〜M3のポジション及び位置がXYZ座標系において変更される。ビデオカメラ206は、マーカM1〜M3の画像をキャプチャし、画像をコンピュータ172に送信する。マーカM1〜M3の画像は入力データの実施例である。三次元空間内(X、Y、Z)におけるHMD202のポジションは、画像内でのマーカM1〜M3のポジションに基づいてコンピュータ172のプロセッサ176(図1C)によって決定することができる。さらにHMD202のたとえば揺らす、傾ける、揺するなどの緩慢な動作はマーカM1〜M3の動きに基づいてコンピュータ172のプロセッサ176(図1C)によって決定される。
様々な実施形態では、ビデオカメラ206は移動式である。たとえば、ビデオカメラ206はマルチコプター、ロボットアーム、ロボット、ロボット車両、ロボットカー、クアッドコプターなどのなどのロボット装置に取り付けられる。たとえばビデオカメラ206は、HMD202及び/またはHHC204の画像をキャプチャするためにロボット装置に対して、その下、上、側面などに取り付けられる。HMD202はユーザ108の頭部の動きとともに移動する。いくつかの実施形態では、ビデオカメラ206の代わりにデジタルカメラが用いられる。
いくつかの実施形態では、ビデオカメラ206はHHC204の画像をキャプチャする。ユーザ108の手が動くと、マーカM4〜M6のポジション及び位置が座標系において変更される。ビデオカメラ206はマーカM4〜M6の画像をキャプチャし、画像をコンピュータ172に送信する。マーカM4〜M6の画像は入力データの実施例である。HHC204の三次元空間内(X、Y、Z)のポジションは画像内のマーカM4〜M6のポジションに基づいてコンピュータ172のプロセッサ176によって決定されてもよい。さらにHHC204のたとえば揺らす、傾ける、揺するなどの緩慢な動作はマーカM4〜M6の動きに基づいてコンピュータ172のプロセッサ176によって決定される。
いくつかの実施形態では、HHC204の代わりにユーザ108の手がマーカM4〜M6でマークされる。
図3はHMD104(図1A〜1C)の実施例であるHMD250の実施形態の図である。HMD250は、映像音声分離器254、ビデオデコーダ255、WAC258、ストリームバッファ259、1つまたは複数のスピーカ260、ユーザ入力回路262、表示画面266、マイクロコントローラ268、オーディオバッファ272、外部デジタルカメラ274、オーディオコーデック276、内部デジタルカメラ278、ビデオバッファ280、映像音声同期装置282、マイクロフォン284及びコントローラ/コンピュータ通信回路287を含む。外部デジタルカメラ274はユーザ108の現実世界環境に向けられ、内部デジタルカメラ278はたとえばユーザ108の目、頭部など、ユーザ108に向けられる。
いくつかの実施形態において、スピーカ260は音声回路である。様々な実施形態では、オーディオコーデック276、オーディオバッファ272及び/またはスピーカ260が音声回路である。いくつかの実施形態では、ビデオデコーダ255及びマイクロコントローラ268の組み合わせは本明細書内でゲーム処理回路と称される。様々な実施形態では、マイクロコントローラ268は表示回路である。表示画面の実施例にはLEDスクリーン、液晶表示(LCD)スクリーン、シリコンスクリーン上の液晶、有機発光(OLED)スクリーン、プラズマスクリーンなどが含まれる。外部デジタルカメラ274の例にはソニー・コンピュータエンターテインメントによって製造されているプレイステーションアイ(登録商標)が含まれる。
マイクロコントローラ268はレンダリングプログラム286及びオペレーティングシステム288を格納する。レンダリングプログラム286及びオペレーティングシステム288はマイクロコントローラ286の記憶装置内に格納され、マイクロコントローラ286のマイクロプロセッサにより実行される。マイクロコントローラ268の例には、表示画面266上にゲームを表示するために、表示画面266のLCDなどの要素を、それに提供する信号を生成する、それをアクティブにするための信号を生成するなどして駆動する、LCDドライバなどのドライバを含む低価格のマイクロコントローラが含まれる。マイクロコントローラ268の別の例には、グラフィック処理ユニット(GPU)及び記憶装置が含まれる。
いくつかの実施形態では、マイクロコントローラ268の記憶装置はフラッシュメモリまたはランダムアクセスメモリ(RAM)以外である。たとえばマイクロコントローラの記憶装置はバッファである。様々な実施形態では、マイクロコントローラ268の記憶装置はフラッシュメモリまたはRAMである。ユーザ入力回路262の例には、ジャイロスコープ、磁力計及び加速度センサが含まれる。WAC258の例にはNICが含まれる。いくつかの実施形態では、WAC258は本明細書内で通信回路と称される。
符号化されたメディアデータのストリームは、ネットワーク110またはルータ152(図1B〜1C、2)からストリームバッファ259内で受信される。ストリームバッファ259により受信される符号化されたメディアデータの実施例には、符号化されたメディアデータ116(図1A〜1C、2)及び符号化された付加メディアデータなどが含まれる。ルータ152がコンピュータ172(図2)に接続されると、コンピュータ172から受信されたメディアデータは、ストリームバッファ259に格納される代わりにHMD250のバッファ(図示せず)に格納されることに留意されたい。
WAC258はストリームバッファ259から符号化されたメディアデータのストリームにアクセスし、ストリームのパケット解除を行う。さらにWAC258はまた、符号化されたメディアデータをデコードするデコーダを含む。
符号化されたメディアデータのストリームがルータ152(図1C)を介してコンピュータ172(図1C)によって受信される実施形態においては、コンピュータ172のNIC174(図1C)が符号化されたメディアデータのストリームのパケット解除及びデコードを行い、デコードされたデータを生成し、そのデコードされたデータは格納のためにルータ152によってHMD250のバッファ(図示せず)へと送信される。
デコードされたデータは映像音声分離器254によってWAC258から、またはHMD250のバッファ(図示せず)からアクセスされる。映像音声分離器254はデコードされたデータ内の音声データをビデオデータから分離する。
映像音声分離器254は音声データをオーディオバッファ272に、ビデオデータをビデオバッファ280に送信する。映像音声同期装置282は、ビデオバッファ280に格納されたビデオデータをオーディオバッファ272に格納された音声データと同期させる。たとえば映像音声同期装置282は、ビデオデータ及び音声データの再生時間を利用して、ビデオデータを音声データと同期させる。
オーディオコーデック276は同期された音声データをデジタル形式からアナログ形式へと転換して音声信号を生成し、スピーカ260によって音声信号が再生されて音声が生成される。ビデオデコーダ255は、たとえばデジタル形式からアナログ形式に変更するなどして同期されたビデオデータをデコードし、アナログビデオ信号を生成する。マイクロコントローラ268はビデオデコーダ255により生成されたアナログビデオ信号に基づいてレンダリングプログラム286を実行し、表示画面266上にゲームを表示する。いくつかの実施形態では、表示画面266上に表示されたゲームは、音声信号の再生と同期させて表示される。
さらにユーザ108(図1A〜1C、2)はマイクロフォン284に話しかけ、マイクロフォン284はたとえば声などの音響信号を音声信号などの電気信号に転換する。オーディオコーデック276は音声信号をアナログ形式からデジタル形式に転換して音声データを生成し、音声データはオーディオバッファ276に格納される。オーディオバッファ276に格納された音声データは、ユーザ108の音響に基づいて生成される入力データの実施例である。音声データはWAC258によってオーディオバッファ276からアクセスされ、ネットワーク110(図1A〜1C、2)を介してゲームクラウド102(図1A〜1C、2)のコーデック112(図1A〜1C)に送信される。たとえばWAC258はオーディオバッファ276からアクセスされた音声データをパケット化し符号化して、ネットワーク110を介してコーデック112に送信する。
いくつかの実施形態では、音声データはルータ152(図1B〜1C、2)及びネットワーク110(図1A〜1C、2)を介してゲームクラウド102のコーデック112(図1A〜1C)へと送信するために、WAC258によってオーディオバッファ276からアクセスされる。たとえばWAC258はオーディオバッファ276からアクセスされた音声データをパケット化し符号化して、ルータ152及びネットワーク110を介してコーデック112へと送信する。
内部デジタルカメラ278はユーザ108(図1A〜1C、2)の1つまたは複数の頭部の動きの1つまたは複数の画像をキャプチャして、1つまたは複数の頭部の動きに基づいて生成される入力データの実施例である画像データを生成する。同様に外部デジタルカメラ278は、ユーザ108の手及び/またはHMD250もしくはユーザ108の手に配置されたマーカの1つまたは複数の画像をキャプチャし、画像データを生成する。ユーザ108の手に配置されたマーカに基づいてまたはユーザ108の手の動きに基づいて生成された画像データは、1つまたは複数の手の動きに基づいて生成される入力データの実施例である。デジタルカメラ274及び278によってキャプチャされた画像データはビデオバッファ280に格納される。
いくつかの実施形態では、デジタルカメラ274及び278によってキャプチャされた画像データはHMD250のバッファに格納されるが、このバッファはビデオバッファ280とは異なる。様々な実施形態では、デジタルカメラ274及び278によってキャプチャされた画像データは、表示画面266上に画像を表示するためにビデオデコーダ255によってデコードされてマイクロコントローラ268へと送信される。
デジタルカメラ274及び278によってキャプチャされた画像データはWAC258によってビデオバッファ280からアクセスされ、ネットワーク110(図1A〜1C、2)を介してゲームクラウド102(図1A〜1C、2)のコーデック112(図1A〜1C)へと送信される。たとえばWAC258はビデオバッファ280からアクセスされた画像データをパケット化し符号化して、ネットワーク110を介してコーデック112へと送信する。
いくつかの実施形態では、ビデオデータはWAC258によってビデオバッファ280からアクセスされ、ルータ152(図1B〜1C、2)及びネットワーク110(図1A〜1C、2)を介してゲームクラウド102のコーデック112(図1A〜1C)に送信される。たとえばWAC258はビデオバッファ280からアクセスされたビデオデータをパケット化し符号化して、ルータ152及びネットワーク110を介してコーデック112へと送信する。
コントローラ/コンピュータ通信回路287は、HMD250のバッファ(図示せず)に格納するためにメディアデータをコンピュータ172から受信する。さらにコントローラ/コンピュータ通信回路287はHHC106(図1A〜1C、2)から入力信号を受信し、入力信号をアナログ形式からデジタル形式に転換して入力データを生成し、その入力データはWAC258によってアクセスされてネットワーク110(図1A〜1C、2)を介してゲームクラウド102(図1A〜1C、2)のコーデック112(図1A〜1C)へと送信される。たとえばWAC258はコントローラ/コンピュータ通信回路287からアクセスされた入力データをパケット化し符号化して、ネットワーク110を介してコーデック112へと送信する。
いくつかの実施形態では、入力データはWAC258によってコントローラ/コンピュータ通信回路287からアクセスされ、ルータ152(図1B〜1C、2)及びネットワーク110(図1A〜1C、2)を介してゲームクラウド102のコーデック112(図1A〜1C)へと送信される。たとえばWAC258はコントローラ/コンピュータ通信回路287からアクセスされた入力データをパケット化し符号化して、ルータ152及びネットワーク110を介してコーデック112へと送信する。
コントローラ/コンピュータ通信回路287の代わりに、1つはデータを受信、送信するなどしてコンピュータ172(図1B)と通信させるため、もう1つはデータをHHC106(図1A〜1C、2)と通信させるために、2つの異なる通信回路を用いてもよい点に留意されたい。
いくつかの実施形態では、WAC258のデコーダがWAC258の外部に配置される。様々な実施形態では、ストリームバッファ259はすWAC258内に配置される。
いくつかの実施形態では、HMD250に外部デジタルカメラ274が含まれない。いくつかの実施形態では、HMD250には任意の個数のマイクロコントローラ、任意の個数のバッファ、及び/または任意の個数の記憶装置が含まれる。
様々な実施形態では、たとえば映像音声分離器254、ワイヤレスアクセスカード258、ストリームバッファ259、1つまたは複数のスピーカ260、ユーザ入力回路262、表示画面266マイクロコントローラ268、オーディオバッファ272、外部デジタルカメラ274、オーディオコーデック276、内部デジタルカメラ278、ビデオバッファ280、映像音声同期装置282、マイクロフォン284及びコントローラ/コンピュータ通信回路287などの構成要素に電力を提供する1つまたは複数のバッテリがHMD250に含まれる。1つまたは複数のバッテリは、交流コンセントに接続することのできる充電器(図示せず)を用いて充電される。
いくつかの実施形態において、入力データ及び/またはメディアデータは本明細書内で双方向メディアと称される。
いくつかの実施形態では、HMD250はペアリングを介したローカルユーザ間のピアツーピアマルチチャネル通信を容易にする通信回路(図示せず)を含む。たとえば、HMD250には、マイクロフォン284から受信された音響信号を変調し、チャネルを介して変調された信号を別のHMD(図示せず)のトランシーバに送信するトランシーバが含まれる。他のHMDのトランシーバは信号を復調して他のHMDのスピーカに提供し、ユーザ間の通信を容易にする。
様々な実施形態では、異なる他のHMDとの通信を行うためにHMD250のトランシーバによって異なるチャネルが用いられる。たとえば変調された信号を第1の他のHMDへと送信するチャネルは、変調された信号を第2の他のHMDへと送信するチャネルとは異なる。
いくつかの実施形態では、WAC258、ユーザ入力回路262、マイクロコントローラ268及びビデオデコーダ255は1つまたは複数の個別の回路チップに統合される。たとえば、WAC258、ビデオデコーダ255及びマイクロコントローラ268がある回路チップに統合され、ユーザ入力回路262は別の回路チップに統合される。別の実施例として、WAC258、ユーザ入力回路262、マイクロコントローラ268及びビデオデコーダ255のそれぞれが別の回路チップに統合される。
いくつかの実施形態では、ビデオカメラがデジタルカメラの代わりに用いられる。たとえばビデオカメラが外部デジタルカメラ274(図3)の代わりに用いられ、別のビデオカメラが内部デジタルカメラ278(図3)の代わりに用いられる。
いくつかの実施形態では、HMD250が外部デジタルカメラ274を有さず、かつ/または内部デジタルカメラ278を有しない。これらの実施形態では、HMD250のポジション及び動作がゲームクラウド102の1つまたは複数のサーバによって、かつ/またはユーザ入力回路262によって生成される入力データに基づくコンピュータ172(図1C)のプロセッサ176(図1C)によって決定され、ネットワーク110(図1A〜1C、2)を介して送信されるか、またはルータ152(図1B〜1C、2)及びネットワーク110を介して送信されるか、またはルータ152、コンピュータ172及びネットワーク110を介して送信される。
いくつかの実施形態では、内部デジタルカメラ278がユーザ108の目もしくは頭部を認識することができない場合及び/またはビデオカメラ206(図2)がユーザ108の頭部を認識することができない場合、ユーザ入力回路262が入力データを生成する。これらの実施形態では、HMD250のポジション及び動作が、ネットワーク110(図1A〜1C、2)を介してゲームクラウド102へと送信される入力データに基づいて、ゲームクラウド102の1つまたは複数のサーバによって、かつ/またはコンピュータ172(図1C)のプロセッサ176(図1C)によって決定されるか、または152(図1B〜1C、2)及びネットワーク110を介して送信されるか、またはルータ152、コンピュータ172及びネットワーク110を介して送信される。
いくつかの実施形態では、たとえばHMD250のWAC258などのHMD250が、2つ以上のモードの切り替えを行う。第1のモードには、ネットワーク110(図1A〜1C、2)を介したHMD250及びゲームクラウド102(図1A〜1C、2)間のデータ通信における、ルータ152(図1B〜1C、2)及びコンピュータ172(図1C及び2)の利用が含まれる。第2のモードには、HMD250及びゲームクラウド102間のデータ通信における、ネットワーク110を介したルータ152の利用が含まれる。第2のモードにおいて、データが通信される際にコンピュータ172はバイパスされる。第3のモードにはHMD250及びゲームクラウド102間のデータ通信における、ネットワーク110を介したネットワーク110の利用が含まれる。第3のモードにおいて、データが通信される際にルータ152及びコンピュータ172はバイパスされる。
いくつかの実施形態では、ユーザ108はHMD104をHHC106とともに用い、HMD104のポジション及び動作ならびにHHC106のポジション及び動作が単一の仮想ゲームシーンにおいて表現される。たとえばHHC106はゲームプログラム117の実行によって生成され、HMD104に表示される没入型環境ゲームなどのゲーム内で剣として表現される。この実施例においては、ゲームは仮想ゲームシーンを有する。ユーザ108が自身の頭部を左に向けると、ユーザ108はゲームシーンの左側部分を見せられ、ユーザ108が自身の頭部を右に向けると、ユーザ108はゲームシーンの右側部分を見せられる。ゲームシーンの部分的な表示は、HMD104のポジション及び動きに基づく。さらにユーザ108がHHC106を左に動かしてHMD104を左に動かすと、ユーザはゲームシーンの左側部分で左を指す剣を見せられる。ユーザ108がHHC106を左に動かしてHMD104を右に動かすと、ユーザはゲームシーンの右側部分を見せられ、剣は右側部分に表示されない。さらにユーザ108がHHC106を右に動かしてHMD104を右に動かすと、ユーザはゲームシーンの右側部分で右を指す剣を見せられる。ユーザ108がHHC106を右に動かしてHMD104を左に動かすと、ユーザ108はゲームシーンの右側部分を見せられ、剣はゲームシーンの右側部分に表示されない。ゲームシーンの一部における剣の表示の有無は、HHC106のポジション及び動作に基づく。
図4Aは、ワイヤレスネットワークにアクセスするためにHMD250(図3)の表示画面266に表示される画像300の実施形態の図である。ネットワークアクセスアプリケーションがマイクロコントローラ268(図3)によって実行される際に、画像300がマイクロコントローラ268(図3)によって生成される。画像300は、たとえばワイヤレスネットワークA、ワイヤレスネットワークB、ワイヤレスネットワークCなどの、ゲームクラウド102からのゲームプログラム117へのアクセスのためにHMD250が接続することのできるネットワークの一覧を含む。ユーザ108は1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きを行うことによってワイヤレスネットワークA、B及びCのうちの1つを選択し、HMD250をワイヤレスネットワークに接続する。
いくつかの実施形態では、画像300は一覧の任意の個数のワイヤレスネットワークを含む。
図4Bは、ワイヤレスネットワークにアクセスするためにコンピュータ172(図2)の画像312に表示される画像310の実施形態の図である。ネットワークアクセスアプリケーションがコンピュータ172のプロセッサ176(図2)によって実行される際に、画像310がコンピュータ172のGPUによって生成される。画像310は、たとえばワイヤレスネットワークA、ワイヤレスネットワークB、ワイヤレスネットワークCなどの、ルータ152及びコンピュータ172を介したゲームクラウド102からのゲームプログラム117へのアクセスのためにHMD250が接続することのできるネットワークの一覧を含む。ユーザ108は1つもしくは複数の頭部の動き及び/または1つもしくは複数の手の動きを行うことによってワイヤレスネットワークA、B及びCのうちの1つを選択し、ルータ152及びコンピュータ172を介してHMD250をワイヤレスネットワークに接続する。
いくつかの実施形態では、画像310は一覧の任意の個数のワイヤレスネットワークを含む。
図5Aは、表示画面266(図3)の実施例である表示画面321に表示されるゲームの画像320の実施形態の図である。画像320の周辺領域322はマイクロコントローラ268(図3)によって低解像度で表示され、中央領域324はマイクロコントローラ268によって高解像度で表示される。高解像度はより低い解像度よりも解像度が高い。周辺領域322は表示画面321の端部E1〜E4に隣接する。
いくつかの実施形態では、端部E1は端部E2及び端部E4に対して垂直である。端部E3は端部E2及びE4に対して垂直であり、端部E1に対して平行である。様々な実施形態では、端部E1はたとえば87度から93度ほどの角度で端部E2に対して、また端部E4に対して略垂直である。端部E3は端部E2及びE4に対して略垂直であり、端部E1に対して略平行である。
いくつかの実施形態では、表示画面321がたとえば長方形、正方形、円形、楕円形、多角形、曲線などの任意の形状である点に留意されたい。
内部デジタルカメラ278(図3)によりキャプチャされた注視画像に基づいて、マイクロコントローラ268(図3)が表示画面321を領域322及び324に分割する。たとえばユーザ108(図1A〜1C、2)が中央領域324を注視していると決定されると、マイクロコントローラ268が、中央領域324が高解像度を有することを決定し、周辺領域322が低解像度を有することを決定し、さらにレンダリングプログラム286を実行して中央領域324を高解像度で表示し、周辺領域322については低解像度で表示する。
図5Bは、表示画面321に表示される画像330の実施形態の図である。画像330は上部周辺領域332及び下部周辺領域334を有する。上部周辺領域332は端部E1に隣接し、下部周辺領域334は端部E3に隣接する。周辺領域332及び334は低解像度を有し、中間領域336は高解像度を有する。中間領域336は端部E2及びE4に隣接して配置され、領域332及び334の間に配置される。
内部デジタルカメラ278(図3)によりキャプチャされた注視画像に基づいて、マイクロコントローラ268(図3)が表示画面321を領域332、334及び336に分割する。たとえばユーザ108(図1A〜1C、2)が中間領域336を注視していると決定されると、マイクロコントローラ268が、中間領域336が高解像度を有することを決定し、周辺領域332及び334が低解像度を有することを決定し、さらにレンダリングプログラム286を実行して中間領域336を高解像度で表示し、周辺領域332及び334については低解像度で表示する。
いくつかの実施形態では、周辺領域332が周辺領域334の解像度とは異なる解像度を有する。たとえば、周辺領域332は低解像度と高解像度の間である中解像度を有し、周辺領域334が低解像度を有する。別の実施例として、周辺領域334が中解像度を有し、周辺領域332が低解像度を有する。
図5Cは、表示画面321に表示される画像340の実施形態の図である。画像340は右側周辺領域342及び左側周辺領域344を有する。右側周辺領域342は端部E2に隣接し、左側周辺領域344は端部E4に隣接する。周辺領域342及び344は低解像度を有し、中間領域346は高解像度を有する。中間領域346は端部E1及びE3に隣接して配置され、領域342と344との間に配置される。
内部デジタルカメラ278(図3)によりキャプチャされた注視画像に基づいて、マイクロコントローラ268(図3)が表示画面321を領域342、344、及び346に分割する。たとえばユーザ108(図1A〜1C、2)が中間領域346を注視していると決定されると、マイクロコントローラ268が、中間領域346が高解像度を有することを決定し、周辺領域342及び344が低解像度を有することを決定し、さらにレンダリングプログラム286を実行して中間領域346を高解像度で表示し、342及び344については低解像度で表示する。
いくつかの実施形態では、周辺領域342は周辺領域344とは異なる解像度を有する。たとえば周辺領域342は低解像度と高解像の間である度中解像度を有し、周辺領域344は低解像度を有する。別の実施例として、周辺領域344は中解像度を有し、周辺領域342は低解像度を有する。
様々な実施形態では、注視の代わりに任意の他の頭部の動きを用いて、表示画面321の1つまたは複数の領域が高解像度を有することを決定し、表示画面321の1つまたは複数の領域が低解像度または低及び中解像度を有することを決定する。
いくつかの実施形態では、表示画面の周辺領域はたとえば曲線、半円形、多角形などの任意の形状であり、表示画面の中央または中間領域はたとえば長方形、円形、多角形、長円、形、曲線などの任意の形状である。
図6は、様々な種類のHHC350、352、354、356、358及び360を例示する図である。HHC350、352、354、356、358及び360のそれぞれはHHC106(図1A〜1C、2)の実施例である。図示されるように、HHC350はブーメランの形状を有し、HHC352はマイクロフォンの形状を有し、HHC354はステアリングホイールの形状を有する。さらにHHC356はユーザ108が自身の手に装着する手袋であり、HHC358はユーザ108が自身の上半身に装着するジャケット、ボディスーツの上半身、またはシャツなどであり、HHC360はユーザ108が自身の下半身に装着するズボンである。
HHC350、352、354、356、358及び360のそれぞれは、たとえばセンサ、圧縮機構、増量機構、減量機構、減圧機構、振動機構、触覚フィードバック機構、加熱機、冷却機、電気刺激機などの、ゲームプログラム117(図1A〜1C、2)の実行によって表示されるゲームのプレイ時にユーザ108にフィードバックを提供するための1つまたは複数のフィードバック機構を含む。
様々な実施形態では、ゲームプログラム117の実行によって表示されるゲームのプレイ時に、ユーザ108はHMD104の装着に加えてHHC356を自身の手に装着し、仮想犬を撫でる。触覚フィードバック機構がユーザ108に触覚フィードバックを提供し、ユーザ108は現実の犬を撫でているかのように感じることができる。ユーザ108が仮想犬を持ち上げると、増量機能によりユーザ108は現実の犬を撫でているかのように感じることができる。
いくつかの実施形態では、ユーザ108はHMD104の装着に加えてHHC358を装着し、仮想海での仮想スキューバダイビングに赴く。増量機構がユーザ108に掛かる重量を増加させ、ユーザ108は現実の海でスキューバダイビングを行っているかのように、上記の水の重量を感じることができる。同様にユーザ108が海面に接近するにつれて、減量機構がユーザ108に掛かる重量を減少させる。
いくつかの実施形態では、HHC350、352、354、356、358及び360のそれぞれが、実施例が上記に提示される、HHCのポジション及び動作を決定するための1つまたは複数の固定参照オブジェクトを含む。
様々な実施形態では、HHC106は長方形、円形、楕円形、多角形、曲線、らせん状などの任意の形状を含む。
図7Aは、HMD370の実施形態の図である。HMD370はHMD250(図3)の実施例である。HMD370は、ユーザ108が装着した時にユーザ108(図1A〜1C、2)の後頭部に達するバンド372及び374を含む。さらにHMD370は、ゲームプログラム117(図1A〜1C)の実行によってプレイされるゲームに関連する音を発する、たとえばスピーカなどのイヤフォン376A及び376Bを含む。HMD370は、ゲームプログラム117(図1A〜1C)の実行によってプレイされ、表示画面266(図3)に表示されるゲームをユーザ108が視認することを可能にするレンズ378A及び378Bを含む。溝380がユーザ108の鼻の上に置かれ、鼻の上でHMD370を支持する。
いくつかの実施形態では、ユーザ108がサングラス、眼鏡または老眼鏡を装着するのと同様の方法で、ユーザ108はHMD370を装着する。
図7Bは、HMD250(図3)の実施例であるHMD400の実施形態の等軸測視図である。いくつかの実施形態では、HMD400はソニー・コンピュータエンターテインメントアメリカLLCの研究開発製品である。HMD400は、ヘッドサポート402を含む。HMD400はさらに、たとえばLED404A及び404B、赤外線発光器406A、406B、406C、406D、406E、406F、406G、及び406Hなどのマーカを含む。赤外線発光器の例には、LEDが含まれる。HMD400は、HMD400の電源を入れ、または電源を切ることができるオンオフスイッチ408を含む。
マーカはHMD400のポジション及び動作を決定するために用いられる。たとえばユーザ108(図1A〜1C、2)の頭部の動きによって、外部デジタルカメラ274(図3)によってキャプチャされたLED404A及び404Bの画像サイズが変更される。そのサイズに基づいて、コンピュータ172(図3)のプロセッサまたはゲームクラウド102の1つまたは複数のサーバ(図1A〜1C、2)が座標系におけるHMD400のポジション及び動作を決定する。
図8は、HHC106及びHMD104(図1A〜1C、2)のインターフェイス接続に適合するコンソール500の実施形態のブロック図である。コンソール500はゲームプログラム117の一部を実行し、レンダリングするために用いられてもよい。コンソール500は、HHC106及びHMD104(図1A〜1C、2)のゲームプログラム117とのインターフェイス接続に適合する。コンソール500は、コンソール500に接続可能な様々な周辺機器とともに提供される。コンソール500は、Cellプロセッサ528、ラムバス(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット526、専用ビデオランダムアクセスメモリ(VRAM)ユニット532をともなうリアリティシンセサイザーグラフィックスプロセッサユニット530及び入力/出力(I/O)ブリッジ534を有する。コンソール500はまた、I/Oブリッジ534を通じてアクセス可能なディスク540a及び取り外し可能スロットインハードディスクドライブ(HDD)536から読み取りを行うためのブルーレイ(登録商標)ディスク読み出し専用メモリ(BD−ROM)光学ディスク540を有する。コンソール500はまた、任意選択でコンパクトフラッシュ(登録商標)メモリーカード、メモリースティック(登録商標)メモリーカードなどの読み込みのための、同様にI/Oブリッジ534を通じてアクセス可能なメモリーカードリーダ538を含む。
I/Oブリッジ534はまた、ユニバーサルシリアルバス(USB)2.0ポート524、ギガビットイーサネットポート522、IEEE 802.11b/gワイヤレスネットワーク(Wi−Fi(登録商標))ポート520及びBluetooth(登録商標)接続を支援することが可能であるBluetooth(登録商標)ワイヤレスリンクポート518に接続する。
I/Oブリッジ534は稼働中すべての無線、ユニバーサルシリアルバス(USB)及びイーサネットデータを処理するが、それらデータは1つまたは複数のゲームコントローラ502及び503からの、またHMD250(図3)の実施例であるHMD505からのデータを含む。たとえば、ユーザ108(図1A〜1C、2)がゲームプログラム117の一部(図1A)の実行により生成されたゲームをプレイしている時、I/Oブリッジ534が入力データをゲームコントローラ502または503から、またはHMD505からBluetooth(登録商標)リンクを介して受信し、入力データをCellプロセッサ528へと導き、Cellプロセッサ528がそれに応じてゲームの現在の状態を更新する。ゲームコントローラ502及び503のそれぞれは、HHC106(図1A〜1C、2)の実施例である。
ワイヤレス、USB及びイーサネットポートはまた、ゲームコントローラ502及び503及びHMD505に加え、たとえばリモートコントロール504、キーボード506、マウス508、ソニープレイステーションポータブル(登録商標)エンターテインメント機器などの携帯型エンターテインメント機器510、アイトーイ(登録商標)ビデオカメラ512、マイクロフォンヘッドセット514及びマイクロフォン515などのビデオカメラなど、他の周辺機器に接続性を提供する。したがってこのような周辺機器は基本的にコンソール500に無線で接続されてもよく、たとえばマイクロフォンヘッドセット514がBluetooth(登録商標)リンクを介して通信してもよい一方で、携帯型エンターテインメント機器510はWi−Fi(登録商標)アドホック接続を介して通信を行ってもよい。
これらインターフェイスの提供は、コンソール500がまた、デジタルビデオレコーダ(DVR)、セットトップボックス、デジタルカメラ、携帯型メディアプレーヤ、ボイスオーバーIP電話、携帯電話、プリンタ及びスキャナなどの他の周辺機器と潜在的に適合することを意味する。
さらにレガシーメモリーカードリーダ516は、USBポート524を介してコンソール500に接続されて、コンソール500によって用いられる種類のメモリーカード548の読み取りを可能にしてもよい。
ゲームコントローラ502ならびに503及びHMD505はBluetooth(登録商標)リンクを介してコンソール500との無線での通信を行うよう、またはUSBポートに接続されるように作動可能であり、それによってまた電力が提供され、その電力によりゲームコントローラ502ならびに503及びHMD505のバッテリが充電される。いくつかの実施形態では、ゲームコントローラ502ならびに503及びHMD505のそれぞれが、またメモリ、プロセッサ、メモリーカードリーダ、フラッシュメモリなどの永続メモリ、照明付き球状部などの発光体、LED、または赤外線、超音波通信のためのマイクロフォンならびにスピーカ、音響室、デジタルカメラ、内部クロック、ゲームコンソールに面する球状部などの認識できる形状及びたとえばBluetooth(登録商標)、Wi−Fi(登録商標)などのプロトコルを用いる無線通信を含んでもよい。
ゲームコントローラ502はユーザ108の両手で用いるよう設計されたコントローラであり、ゲームコントローラ503はアタッチメントの付いた片手用コントローラである。HMD505はユーザ108の頭頂部及び/または目の前に取り付けられるよう設計されている。1つまたは複数のアナログジョイスティック及び従来のコントロールボタンに加えて、ゲームコントローラ502及び503のそれぞれは三次元位置決定の影響を受けやすい。同様に、HMD505は三次元位置決定の影響を受けやすい。結果的に従来のボタンまたはジョイスティックのコマンドに加えてまたはその代わりに、ゲームコントローラ502ならびに503及びHMD505のユーザ108によるジェスチャー及び動きが、ゲームへと入力として変換されてもよい。プレイステーション(商標)ポータブル機器などの、他の無線で使用可能な周辺機器が任意選択でコントローラとして用いられてもよい。プレイステーション(商標)ポータブル機器の場合は、さらなるゲームまたは制御情報(たとえば、制御命令またはライフの数)が、機器の表示画面上に提示されてもよい。ダンスマット(図示せず)、ライトガン(図示せず)、及びステアリングホイールならびにペダル(図示せず)または特注のコントローラ、早押しクイズゲーム(これも図示せず)用の1つまたは複数の大型ボタンなどの他の代替的または補完的制御装置がまた用いられてもよい。
リモートコントロール504はまた、Bluetooth(登録商標)リンクを介してコンソール500と無線で通信するように作動可能である。リモートコントロール504は、ブルーレイ(商標)ディスクBD−ROMリーダ540の作動に、またディスクの内容のナビゲーションに適したコントロールを備える。
ブルーレイ(商標)ディスクBD−ROMリーダ540は、従来の記録済みの、また記録可能なCD及びいわゆるスーパーオーディオCDに加えて、コンソール500に適合するCD−ROMを読み取るように作動可能である。リーダ540はまた、従来の記録済みの、また記録可能なDVDに加えてコンソール500に適合するデジタルビデオディスク−ROM(DVD−ROM)を読み取るように作動可能である。リーダ540はさらに、従来の記録済みの、また記録可能なブルーレイディスクと同様にコンソール500に適合するBD−ROMを読み取るように作動可能である。
コンソール500はリアリティシンセサイザーグラフィックスユニット530を介して生成されるあるいはデコードされる音声及び映像を、表示画面544及び1つまたは複数のラウドスピーカ546を有するモニタまたはテレビ受信機などの表示及び音声出力装置542へのオーディオコネクタ550及びビデオコネクタ552を通じて供給するように作動可能である。ビデオコネクタ552がコンポーネント映像信号、S映像、コンポジットビデオ及び1つまたは複数の高精細度マルチメディアインターフェイス(HDMI(登録商標))出力を様々に含んでもよい一方で、オーディオコネクタ550は従来のアナログ及びデジタル出力を含んでもよい。結果的に映像出力はPALまたはNTSCなどのフォーマット、または520p、1080iもしくは1080p高精細度などのフォーマットであってもよい。
音声処理(生成、デコードなど)は、Cellプロセッサ528によって行われる。コンソール500のオペレーティングシステムはドルビー(登録商標)5.1サラウンドサウンド、ドルビー(登録商標)シアターサラウンド(DTS)及びブルーレイ(登録商標)ディスクからの7.1サラウンドサウンドのデコードをサポートする。
いくつかの実施形態では、圧縮されたビデオデータが、コンソール500によるデコードのためのイントラ画像ベースのMPEG(モーションピクチャエキスパートグループ)規格などの適切なフォーマットで送信されてもよいように、ビデオカメラ512などのビデオカメラが単一の電荷結合素子(CCD)、LEDインジケータ及びハードウェアベースのリアルタイムデータ圧縮ならびに符号化装置を備える。ビデオカメラ512のLEDインジケータは、たとえば不利な照明条件を示すためにコンソール500からの適切な制御データに応じて発光するように構成される。ビデオカメラ512の実施形態は、USB、Bluetooth(登録商標)またはWi−Fi(登録商標)通信ポートを介したコンソール500への接続を様々に行ってもよい。ビデオカメラの実施形態は1つまたは複数の関連マイクロフォンを含んでもよく、また音声データの送信が可能であってもよい。ビデオカメラの実施形態においては、CCDが高精細度ビデオキャプチャに適した解像度を有してもよい。使用時には、ビデオカメラによりキャプチャされた画像はたとえばゲーム内に組み込まれるか、またはゲーム制御入力として解釈されてもよい。別の実施形態においては、ビデオカメラは赤外線の検知に適した赤外線カメラである。
様々な実施形態では、コンソール500の通信ポートの1つを介したビデオカメラまたはリモートコントロールなどの周辺機器を用いてのデータ通信を成功させるために、デバイスドライバなどの適切なソフトウェアが提供される。
いくつかの実施形態では、コンソール装置、ポータブルHHC及びポータブルHMDを含む上述のシステム装置が、HHC及びポータブルHMDをゲームプログラム117(図1A〜1C)の対話型セッションの映像を表示し、キャプチャすることを可能にする。コンソール装置はゲームプログラム117の対話型セッションを開始し、対話型セッションがユーザ108とゲームプログラム117との間のインタラクティブ性を定義する。システム装置は、ユーザ108(図1A〜1C、2)が操作するHHC及び/またはHMDの初期ポジション及び方向を決定する。コンソール装置は、ユーザ108とゲームプログラム117との間のインタラクティブ性に基づいてゲームプログラム117の現在の状態を決定する。システム装置はユーザ108のゲームプログラム117との対話型セッションの間に、HHC及び/またはHMDのポジション及び方向を追跡する。システム装置は、ゲームプログラム117の現在の状態及び追跡されたHHCならびに/またはHMDのポジション及び方向に基づいて、対話型セッションのギャラリービデオストリームを生成する。いくつかの実施形態では、HHCがHHCの表示画面上のギャラリービデオストリームのレンダリングを行う。様々な実施形態では、HMDがHMDの表示画面上のギャラリービデオストリームのレンダリングを行う。
図9は、本開示に記載の様々な実施形態に応じたゲームシステム600のブロック図である。いくつかの実施形態では、ゲームシステム600は、ハイパーバイザによってリソースとVMとの間で関係を確立した後で、サーバ、記憶装置などの1つまたは複数のリソースを用いてたとえばオペレーティングシステム、ソフトウェアアプリケーションなどのVMを実行するクラウドゲームシステムである。ゲームシステム600は、1つまたは複数のクライアント610にネットワーク110(図1A〜1C、2)の実施例であるネットワーク615を介してビデオストリームを提供するために用いられる。ゲームシステム600は、ビデオサーバーシステム620及び任意のゲームサーバ625を含む。ビデオサーバーシステム620は、1つまたは複数のクライアント610にサービス品質でビデオストリームを提供するために用いられる。たとえば、ビデオサーバーシステム620は、たとえばゲームプログラム116(図1A〜1C)などの実行によりプレイされるゲームなどのビデオゲームの状態またはそういったビデオゲーム内の視点を変更するゲームコマンドを受信してもよく、またこの状態の変化を反映する更新されたビデオストリームを、最短のラグタイムでクライアント610に提供してもよい。ビデオサーバーシステム620は、未定義のフォーマットを含む多種多様な代替的映像フォーマットでビデオストリームを提供するために用いられてもよい。さらにビデオストリームはユーザ108(図1A〜1C、2)に対して多種多様なフレームレートで提示するために用いられるビデオフレームを含んでもよい。典型的なフレームレートは、毎秒30フレーム、毎秒60フレーム及び毎秒620フレームである。しかし本開示に記載の様々な実施形態には、より高いまたは低いフレームレートが含まれる。
本明細書にてそれぞれ610A、610Bなどと称されるクライアント610は、HMD104(図1A〜1C、2)、HHC104(図1A〜1C、2)、端末、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、無線機器、デジタルパッド、独立型装置及び/またはそれに類するものを含んでもよい。クライアント610は符号化されたビデオストリームを受信し、ビデオストリームをデコードし、また得られた映像をたとえばゲームのプレーヤなどのユーザ108に提示するために用いられる。符号化されたビデオストリームの受信及び/またはビデオストリームのデコードの処理には、個別のビデオフレームのクライアントの受信バッファ内への格納が含まれる。ビデオストリームはクライアント610と一体となったディスプレイ上、またはモニタまたはテレビなどの別個の装置上でユーザ108に提示されてもよい。
クライアント610は2人以上のゲームプレーヤをサポートするために任意選択で用いられる。たとえば、ゲームコンソールは2人、3人、4人またはそれ以上の同時プレーヤをサポートするために用いられてもよい。これらプレーヤのそれぞれが別個のビデオストリームを受信してもよいか、または単一のビデオストリームにたとえば各プレーヤの視点に基づいて生成されたそれぞれのプレーヤ向けに生成されたフレームの領域が含まれてもよい。
クライアント610は、任意選択で地理的に分散される。ゲームシステム600に含まれるクライアント数は1つまたは2つから数千、数万またはそれ以上まで大幅に異なってもよい。本明細書内では、「ゲームプレーヤ」の用語はゲームをプレイする人物を指すために用いられ、「ゲームプレイ機器」の用語はたとえばゲームプログラム116(図1A〜1C)などの実行によってプレイされるゲームなどを行うために用いられる機器を指すために用いられる。いくつかの実施形態では、ゲームプレイ機器はゲーム体験をユーザ108に提供するために連携する複数のコンピュータ装置を指してもよい。たとえばゲームコンソール及びHMD104(図1A〜1C、2)は、HMD104を通じて視認されるゲームを提供するためにビデオサーバーシステム620と連携してもよい。ある実施形態においては、ゲームコンソールがビデオサーバーシステム620からビデオストリームを受信し、ゲームコンソールはレンダリングのためにHMD104へとビデオストリームを転送するか、またはビデオストリームを更新する。
クライアント610はネットワーク615を介してビデオストリームを受信するために用いられる。ネットワーク615は、電話ネットワーク、インターネット、ワイヤレスネットワーク、電力線ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、プライベートネットワーク及び/またはそれに類するものを含む任意の種類の通信ネットワークであってもよい。いくつかの実施形態では、ビデオストリームがTCP/IPまたはUDP/IPなどの標準プロトコルを介して通信される。いくつかの実施形態においては、ビデオストリームが専有標準を介して通信される。
クライアント610の1つの典型的な例は、プロセッサ、不揮発性メモリ、ディスプレイ、デコード論理、ネットワーク通信能力及び1つまたは複数の入力機器を含むパーソナルコンピュータである。デコード論理にはハードウェア、ファームウェア及び/または非一時的なコンピュータ可読媒体上に格納されるソフトウェアが含まれてもよい。
クライアント610は受信された映像の修正のために用いられるシステムをさらに含んでもよいが、それは必須ではない。たとえばクライアントはさらなるレンダリングを行うために、あるビデオ画像を別のビデオ画像に重ね、ビデオ画像をクロップし、かつ/またはそれに類することを行うよう用いられてもよい。別の実施例として、クライアント610はユーザ108のために、フレーム内符号化画像(Iフレーム)、予測フレーム(Pフレーム)及び双方向予測画像フレーム(Bフレーム)などの様々な種類のビデオフレームを受信するよう、またこれらフレームをたとえばゲームプログラム116(図1A〜1C)の実行によりプレイされるゲームなどで表示するための画像への処理を行うように用いられてもよい。いくつかの実施形態では、クライアント610の構成要素はさらなるレンダリング、シェーディング、3−Dへの変換、または同様の操作をビデオストリーム上で行うために用いられてもよい。クライアント610の構成要素は任意選択で用いられて、2つ以上のオーディオまたはビデオストリームを受信する。
クライアント610の入力機器には、たとえば片手用ゲームコントローラ、両手用ゲームコントローラ、ジェスチャー認識システム、注視認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、力覚呈示装置、動作及び/または位置検出器、マウス、タッチスクリーン、ニュートラルインターフェイス、カメラ、未開発の入力機器及び/またはそれに類するものが含まれてもよい。
クライアント610より受信されたビデオストリーム及び任意選択によるオーディオストリームは、ビデオサーバーシステム620によって生成され、提供される。このビデオストリームにはビデオフレームが含まれ、オーディオストリームにはオーディオフレームが含まれる。適切なデータ構造における画素情報を含むビデオフレームは、ユーザ108に表示される画像に有意義な寄与を行う。本明細書内では、「ビデオフレーム」の用語は、ゲームプログラム116(図1A〜1C)などの実行によってユーザ108がプレイするゲームの画像などに影響を与えるなどして寄与するのに用いられる情報を主に含むフレームを指すために用いられる。本明細書内の「ビデオフレーム」に関する教示のほとんどについては、「オーディオフレーム」にも適用可能である。
様々な実施形態では、クライアント610はユーザ108からの入力を受信するために用いられる。これら入力には、ゲームプログラム116(図1A〜1C)などの実行によってプレイされるゲームについては、ビデオゲームの状態を変更するため、またそれ以外の場合にはゲームプレイに影響を与えるために用いられるゲームコマンドが含まれてもよい。ゲームコマンドはたとえばユーザ入力回路262(図4)などの入力機器を用いて受信されてもよく、かつ/またはクライアント610上での演算命令の実行によって自動的に生成されてもよい。受信されたゲームコマンドは、クライアント610からネットワーク615を介してビデオサーバーシステム620及び/またはゲームサーバ625へと通信される。たとえばゲームコマンドはビデオサーバーシステム620を介してゲームサーバ625へと通信される。
いくつかの実施形態では、ゲームコマンドの別個のコピーがクライアント610からゲームサーバ625及びビデオサーバーシステム620へと通信される。
ゲームコマンドの通信は、任意選択でコマンドの識別に依存する。ゲームコマンドはクライアント610Aにオーディオまたはビデオストリームを提供するために用いられる異なるルートまたは通信チャネルを通じて、任意選択でクライアント610Aから通信される。
ゲームサーバ625は任意選択で、ビデオサーバーシステム620とは異なるエンティティによって操作される。たとえば、ゲームサーバ625はゲームの発行元によって操作されてもよい。この実施例においては、ビデオサーバーシステム620は任意選択でゲームサーバ625によってクライアントとして認識され、任意選択でゲームサーバ625の視点からはゲームエンジンを実行するクライアントとして見なされるように用いられる。ビデオサーバーシステム620とゲームサーバ625との通信は、ネットワーク615を介して任意選択で発生する。このように、ゲームサーバ625はゲーム状態の情報をその1つがゲームサーバーシステム620である複数のクライアントへと送信するマルチプレーヤーゲームサーバであってもよい。
ビデオサーバーシステム620はゲームサーバ625の複数のインスタンスとの通信を同時に行うために用いられてもよい。たとえばビデオサーバーシステム620は複数の異なるビデオゲームを異なるユーザに提供するために用いられてもよい。これら異なるビデオゲームのそれぞれは異なるゲームサーバ625によりサポートされ、かつ/または異なるエンティティにより発行されてもよい。
いくつかの実施形態では、いくつかの地理的に分布したビデオサーバーシステム620のインスタンスは複数の異なるユーザにゲームの映像を提供するために用いられる。ビデオサーバーシステム620のこれらインスタンスのそれぞれが、ゲームサーバ625の同じインスタンスとの通信を行ってもよい。
ビデオサーバーシステム620と1つまたは複数のゲームサーバ625との間の通信が、専用通信チャネルを介して任意選択で発生する。たとえばビデオサーバーシステム620は、これらシステム間の通信専用の高帯域チャネル幅を介してゲームサーバ625に接続されてもよい。
ビデオサーバーシステム620は、少なくとも映像ソース630、入出力装置645、プロセッサ650及びストレージ655を含む。ビデオサーバーシステム620は1つのコンピュータ装置を含むか、または複数のコンピュータ装置間に分布してもよい。これらコンピュータ装置はローカルエリアネットワークなどの通信システムを介して任意選択で接続される。
映像ソース630は、動画を形成するたとえばストリーミング映像または一連のビデオフレームなどのビデオストリーム提供するために用いられる。いくつかの実施形態では、映像ソース630がビデオゲームエンジン及びレンダリング論理を含む。
ビデオゲームエンジンはプレーヤからゲームコマンドを受信するため、また受信されたコマンドに基づいて、たとえばゲームプログラム116(図1A〜1C)などの実行によってプレイされるゲームなどのビデオゲームの状態のコピーを維持するために用いられる。このゲーム状態には、ゲーム環境におけるオブジェクトのポジションが視点と同様に含まれる。ゲーム状態にはまた、オブジェクトのプロパティ、画像、色及び/またはテクスチャを含んでもよい。ゲーム状態は、動き、回転、攻撃、フォーカスの設定、相互作用、利用及び/またはそれに類するゲームコマンドと同様に、ゲームルールに基づいて維持される。ゲームエンジンの一部は任意選択によりゲームサーバ625内に配置される。ゲームサーバ625は複数のプレーヤから受信されたゲームコマンドに基づき、クライアントの地理的分散を利用してゲームの状態のコピーを維持してもよい。これらの場合には、ゲーム状態がゲームサーバ625によって、ゲーム状態のコピーが格納され、レンダリングが行われる映像ソース630へと提供される。ゲームサーバ625はネットワーク615を介してゲームコマンドをクライアント610から直接受信してもよく、かつ/またはビデオサーバーシステム620を介してゲームコマンドを受信してもよい。
映像ソース630は、たとえばハードウェア、ファームウェア及び/またはストレージ655などの非一時的なコンピュータ可読媒体上に格納されたソフトウェアなどのレンダリング論理を含む。このレンダリング論理は、ゲーム状態に基づいてビデオストリームのビデオフレームを作成するために用いられる。レンダリング論理の全部または一部は任意選択でGPU内に配置される。レンダリング論理にはオブジェクトの三次元空間的関係の決定のための、かつ/または適切なテクスチャなどの適用のための、ゲーム状態及び視点に基づいたステージの処理が含まれる。レンダリング論理は、その後通常はクライアント610との通信の前に符号化される生ビデオを生成する。たとえば生ビデオは、アドビフラッシュ(登録商標)規格、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x.Xvid.FFmpeg、x264、VP6−8、リアルビデオ、mp3またはそれに類するものにしたがって符号化されてもよい。符号化処理によってビデオストリームが生成され、ビデオストリームはリモートデバイス上のデコーダへの送達のために任意選択でパッケージ化される。
ビデオストリームは、フレームサイズ及びフレームレートによって特徴づけられる。典型的なフレームサイズには、800x600、1280x720(たとえば720p)、1024x768が含まれるが、他の任意のフレームサイズが用いられてもよい。フレームレートは、毎秒のビデオフレーム数である。ビデオストリームには、異なる種類のビデオフレームが含まれてもよい。たとえばH.264規格には、「P」フレーム及び「I」フレームが含まれる。Iフレームは表示装置上のすべてのマクロブロック/ピクセルをリフレッシュするための情報を含み、Pフレームがそのサブセットをリフレッシュするための情報を含む。PフレームのデータサイズはIフレームよりも小さい。本明細書内では、「フレームサイズ」の用語はフレーム内の画素数への言及を意味する。「フレームデータサイズ」の用語は、フレームを格納するために必要なバイト数を指すために用いられる。
いくつかの実施形態では、映像ソース630にはカメラなどの録画装置が含まれる。このカメラは、コンピュータゲームのビデオストリームに含まれてもよい遅延映像またはライブ映像を生成するために用いられてもよい。得られたビデオストリームには、スチールまたはビデオカメラを用いてレンダリングされた画像及び録画された画像がいずれも、任意選択で含まれる。映像ソース630は、ビデオストリームに含まれるようあらかじめ録画された映像を格納するために用いられる記憶装置を含んでもよい。映像ソース630はまた、HMD104、HHC106、またはユーザ108(図1A〜1C、2)の動作またはポジションを検知するために用いられる動作または位置検出器及び、検知された動作ならびに/またはポジションに基づいてゲーム状態を決定するため、または映像を生成するために用いられるロジックを含んでもよい。
映像ソース630は、他の映像上に重ねるオーバーレイを提供するために任意選択で用いられる。たとえばこれらのオーバーレイには、コマンドインターフェイス、ログイン命令、ゲームプレーヤへのメッセージ、他のゲームプレーヤの画像、他のゲームプレーヤの配信動画(たとえばウェブカメラ映像)が含まれてもよい。タッチスクリーンインターフェイスまたは注視検出インターフェイスを含むクライアント610Aのいくつかの実施形態では、オーバーレイが仮想キーボード、ジョイスティック、タッチパッド及び/またはそれに類するものを含んでもよい。オーバーレイのある例においては、プレーヤの声がオーディオストリームに重ねられる。映像ソース630はさらに、任意選択で1つまたは複数の音源を含む。
2人以上のプレーヤからの入力に基づいてビデオサーバーシステム620がゲーム状態を維持するために用いられる実施形態においては、各プレーヤが視線の位置及び方向を含む異なる視点を有してもよい。映像ソース630は任意選択で用いられ、プレーヤごとに自身の視点に基づいた別個のビデオストリームを提供する。さらに映像ソース630は異なるフレームサイズ、フレームデータサイズ及び/または符号化をクライアント610のそれぞれに提供するために用いられてもよい。映像ソース630は任意選択で3−D映像を提供するために用いられる。
ビデオサーバーシステム620が映像、コマンド、情報要求、ゲーム状態、注視情報、機器の動作、機器の位置、ユーザの動作、クライアントアイデンティティ、プレーヤーアイデンティティ、ゲームコマンド、セキュリティ情報、音声及び/またはそれに類する情報を送信及び/または受信するために、入出力装置645が用いられる。入出力装置645には、ネットワークインターフェイスカードまたはモデムなどの通信ハードウェアが含まれる。入出力装置645はゲームサーバ625、ネットワーク615及び/またはクライアント610と通信するために用いられる。
プロセッサ650はたとえば本明細書にて論じるビデオサーバーシステム620の様々な構成要素内に含まれるソフトウェアなどの論理を実行するために用いられる。たとえばプロセッサ650は、映像ソース630、ゲームサーバ625及び/またはクライアント側修飾子660を機能させるためのソフトウェア命令でプログラムされてもよい。ビデオサーバーシステム620は、任意選択で2つ以上のプロセッサ650のインスタンスを含む。プロセッサ650はまた、ビデオサーバーシステム620によって受信されたコマンドを実行するための、または本明細書にて論じるゲームシステム600の様々な要素の操作を調整するためのソフトウェア命令でプログラムされてもよい。プロセッサ650には1つまたは複数のハードウェア装置が含まれてもよい。プロセッサ650は電子プロセッサである。
ストレージ655には、非一時的なアナログ及び/またはデジタル記憶装置が含まれる。たとえばストレージ655は、ビデオフレームを格納するために用いられるアナログ記憶装置を含んでもよい。ストレージ655は、ハードドライブ、光学ドライブ、または固体記憶装置などの非一時的なコンピュータ可読デジタルストレージを含んでもよい。ストレージ615は(たとえば適切なデータ構造またはファイルシステムによって)、ビデオフレーム、擬似的フレーム、ビデオフレーム及び擬似的フレームの両方を含むビデオストリーム、オーディオフレーム、オーディオストリーム及び/またはそれに類するものを格納するために用いられる。ストレージ655は複数の機器の間に任意選択で分布する。いくつかの実施形態では、ストレージ655が本明細書の他の場で論じられる映像ソース630のソフトウェア構成要素を格納するために用いられる。これら構成要素は、必要な場合に用意できるフォーマットで格納されてもよい。
ビデオサーバーシステム620は、クライアント側修飾子660を任意選択でさらに含む。クライアント側修飾子660は、クライアント610Aまたは610Bなどのクライアントの能力を遠隔決定するために用いられる。これら能力は、クライアント610Aとビデオサーバーシステム620との間の1つまたは複数の通信チャネルの能力とクライアント610A自体の能力の両方を含むことができる。たとえばクライアント側修飾子660は、ネットワーク615を通して通信チャネルをテストするために用いられてもよい。
クライアント側修飾子660は、クライアント610Aの能力を手動または自動で(たとえば発見するなどして)決定することができる。手動決定には、クライアント610Aのユーザ108との通信及びユーザ108への能力の提供の依頼が含まれる。たとえばいくつかの実施形態では、画像、テキスト及び/またはそれに類するものをクライアント610Aのウェブブラウザ内で表示するためにクライアント側修飾子660が用いられる。ある実施形態においては、クライアント610AがたとえばHMD104などの、ウェブブラウザを含むHMDである。別の実施形態においては、クライアント610Aは、HMD上に表示されてもよいウェブブラウザを有するゲームコンソールである。表示されたオブジェクトは、ユーザ108にクライアント610Aのオペレーティングシステム、プロセッサ、ビデオデコーダの種類、ネットワーク接続の種類、ディスプレイ解像度などの情報を入力するよう要求する。ユーザ108により入力された情報はクライアント側修飾子660へと通信される。
たとえばクライアント610A上のエージェントの実行によって、かつ/またはテスト映像のクライアント610Aへの送信により、自動決定が行われてもよい。エージェントにはジャバスクリプトなどの、ウェブページ上に埋め込まれた、またはアドオンとしてインストールされた演算命令が含まれてもよい。エージェントは任意選択でクライアント側修飾子660によって提供される。様々な実施形態では、クライアント610Aの処理能力、クライアント610Aのデコード及び表示能力、クライアント610Aとビデオサーバーシステム620との間のラグタイムの信頼性及び通信チャネルの帯域幅、クライアント610Aの表示方式、クライアント610A上に存在するファイアウォール、クライアント610Aのハードウェア、クライアント610A上で実行するソフトウェア、クライアント610A内のレジストリエントリ及び/またはそれに類するものをエージェントが発見することができる。
クライアント側修飾子660には、ハードウェア、ファームウェア及び/または非一時的なコンピュータ可読媒体上に格納されるソフトウェアが含まれる。クライアント側修飾子660は任意選択で、ビデオサーバーシステム620の1つまたは複数の他の要素とは別個のコンピュータ装置上に配置される。たとえばいくつかの実施形態では、クライアント610とビデオサーバーシステム620の2つ以上のインスタンスとの間の通信チャネルの特徴を決定するために、クライアント側修飾子660が用いられる。これらの実施形態においては、ビデオサーバーシステム620のどのインスタンスがクライアント610の1つのストリーミング映像の送達に最も適しているかを決定するために、クライアント側修飾子により発見された情報が用いられてもよい。
いくつかの実施形態では、メディアデータが現実世界環境のデータ、仮想世界環境のデータ、またはそれらの組み合わせを含む。現実世界環境のデータには、たとえば現実の車両、現実の人々、現実の地理的位置、現実の建築物、現実の家屋、現実の樹木、現実の物体、現実の生物、現実の無生物などの、1つまたは複数の世界環境の画像から生成されるデータが含まれる。現実世界環境のデータはたとえばビデオカメラ、オーディオカメラなどのカメラが現実世界環境の画像をキャプチャすることで生成される。仮想世界環境のデータは、たとえばゲームプログラム117などを実行するプロセッサなどのコンピュータによって生成される。
いくつかの実施形態では、たとえばユーザ108、別のユーザなどの1人または複数のユーザが、仮想世界と相互作用してもよい。本明細書において、仮想世界の用語はたとえば仮想の、コンピュータにより生成されるなどした、現実のユーザが1つまたは複数の表示画面を介して知覚してもよい、かつ/または1つまたは複数のユーザインターフェイス装置を介して相互作用してもよい架空の環境を表現するために用いられる。この架空の環境は1つまたは複数のプロセッサによってシミュレーションされる相互作用の規則を有する。本明細書において、ユーザインターフェイス装置の用語は、ユーザ108が仮想世界へと入力を送信し、または仮想世界からの出力を受信してもよい、たとえばHMD104、HHC106(図1A〜1C、2)などの現実の装置を指す。仮想世界は、たとえばゲームクラウド102の1つまたは複数のサーバ(図1A〜1C、2)、マイクロコントローラ268(図3)、プロセッサ176(図1C)などの1つまたは複数のプロセッサモジュールによって、シミュレーションされてもよい。1つまたは複数のプロセッサモジュールは、ネットワーク110(図1A〜1C、2)を介して結びつけられてもよい。ユーザ108は、ネットワーク110を介してプロセッサモジュール及び他のユーザインターフェイス装置と通信を行うことができるユーザインターフェイス装置を介して仮想世界と相互作用してもよい。仮想世界のある態様が、たとえばコンピューターモニタ、テレビモニタ、表示画面266、HHC106の表示画面または同様のディスプレイなどの図形表示画面上にグラフィックス形式で、ユーザ108に対して提示されてもよい。仮想世界のある他の態様が、図形表示に関連してもよい、たとえばスピーカ260(図3)などのスピーカ上で可聴的な形式でユーザに対して提示されてもよい。
仮想世界内では、ユーザはアバターによって表現されてもよい。仮想世界内の各アバターは異なるユーザに一意に関連してもよい。ユーザ108が別のユーザから容易に識別されるように、ユーザ108の氏名または仮名がアバターの隣に表示されてもよい。ユーザ108の仮想世界との相互作用は、アバターに対応する1つまたは複数の動きによって表現されてもよい。たとえばユーザ108が頭部の動きを行うと、アバターが同様の頭部の動きを行う。別の実施例として、ユーザ108が手の動きを行うと、アバターが同様の手の動きを仮想世界で行う。異なるユーザがたとえば仮想地域などの仮想パブリックスペースにおいて、自身のアバターを介して互いに相互作用してもよい。ユーザ108を表現するアバターは人物、動物または物体に似た外見を有する。人物の形式のアバターは、ユーザ108と同性または異性であってもよい。仮想世界の他のオブジェクトとともにアバターを視認できるように、たとえば表示画面266(図3)、表示画面544(図8)、HHC106(図1A〜1C)の表示画面、コンピュータ172(図1C)の表示画面などの表示画面上にアバターが表示されてもよい。
様々な実施形態では、たとえば表示画面266(図3)、表示画面544(図8)、HHC106(図1A〜1C)の表示画面、コンピュータ172(図1C)の表示画面などの表示画面上に、アバターを表示することなく、アバターの視点からの仮想世界が表示されてもよい。仮想世界上のアバターの視界は、仮想カメラの視点として見なされてもよい。本明細書内では、仮想カメラとは仮想世界内の視点を示し、仮想世界内の三次元のシーンの二次元画像をレンダリングするために用いられてもよい。ユーザは自身のアバターを通じて、各ロビーに関連するチャットチャネルによって互いに相互作用してもよい。ユーザは自身のユーザインターフェイスを介して他のユーザとチャットするために、テキスト入力を行ってもよい。テキストはその後、ユーザのアバターの上または隣に、たとえばチャットバブルと称される場合もある、漫画の会話の吹き出しの形式で表示されてもよい。クイックチャットと称される場合もある定型チャットシステムの利用によって、このようなチャットが円滑化されてもよい。クイックチャットでは、ユーザ108がメニューから1つまたは複数のチャットフレーズを選択してもよい。
いくつかの実施形態では、パブリックスペースがいかなる特定のユーザまたはユーザのグループにも一意に関連せず、いかなるユーザまたはユーザのグループもパブリックスペースから別のユーザを除外することができないという意味で、パブリックスペースはパブリックである。対照的に、プライベートスペースは、複数のユーザ間からの特定のユーザに関連する。プライベートスペースに関連する特定のユーザが他のユーザによるプライベートスペースへのアクセスを制限してもよいという意味で、プライベートスペースはプライベートである。プライベートスペースはありふれた私有不動産の外観の様相を呈してもよい。他の実施形態においてユーザは、たとえば表示画面266(図3)、表示画面544(図8)、HHC106(図1A〜1C)の表示画面、コンピュータ172(図1C)の表示画面などの表示画面に表示されたアバターを制御する必要はない。仮想空間上に表示されるアバターは、たとえばプロセッサなどの機械によって制御されるボットであってもよい。したがってアバターボットは、ユーザ108によって制御されるアバターが行うのと同様の方法で仮想空間を動き回ることができるが、どの現実世界のユーザも実際にアバターボットを制御しない。アバターボットは様々な方法で空間内を歩き回り、行動を起こし、メッセージを投稿し、あるメッセージに特権を割り当て、他のアバターボットまたは現実世界のユーザが制御するアバターと相互作用することができる。また、定義された方法で相互作用し、環境を修正し、広告を投稿し、メッセージを投稿し、仮想空間、仮想建造物を建築し、または仮想オブジェクト、オブジェクトの地理的表現を構築し、現実のまたは仮想通貨を両替することができるように、ボットを設定することができる。
本開示に記載の実施形態は、手持型装置、マイクロプロセッサシステム、マイクロプロセッサに基づくまたはプログラム可能な家庭用電気機械器具、小型コンピュータ、メインフレームコンピュータなどを含む様々なコンピュータシステム構成で実施されてもよい。本開示に記載のいくつかの実施形態はまた、有線ベースの、またはワイヤレスネットワークを通じて結びつけられる遠隔処理装置によってタスクが行われるような分布したコンピューティング環境において実施することができる。
上記の実施形態を念頭に置き、本開示に記載のいくつかの実施形態ではコンピュータシステムに格納されたデータをともなう様々なコンピュータ実装の操作を利用することができることを理解すべきである。これら操作は、物理量の物理的操作を必要とする。本開示に記載の様々な実施形態の一部である本明細書に記載の任意の操作は有用な機械操作である。本開示に記載のいくつかの実施形態はまた、これら操作を行うための機器または装置に関連する。装置は特に必要な目的のために構築することができ、または装置はコンピュータに格納されたコンピュータプログラムによって選択的にアクティブ化されるまたは構成されるコンピュータとすることができる。特に、様々な機械は本明細書の教示にしたがって書かれたコンピュータプログラムとともに使用することができ、または、必要な操作を行うためにより特化した装置を構築するほうがより利便性が高い場合もある。
本開示に記載の様々な実施形態はまた、非一時的なコンピュータ可読媒体上のコンピュータ可読コードとして実現することができる。非一時的なコンピュータ可読媒体は、たとえばRAM、ROM、フラッシュメモリ、ディスクなどの、データを格納することができ、コンピュータシステムがその後読み取ることができる任意のデータ記憶装置である。コンピュータ可読媒体の例にはハードドライブ、ネットワーク接続記憶装置(NAS)、ROM、RAM、コンパクトディスクROM(CD−ROM)、書き込み可能CD(CD-R)、CD−リライタブル(RW)、磁気テープ及び他の光学ならびに非光学データ記憶装置が含まれる。非一時的なコンピュータ可読媒体は、コンピュータ可読コードが分布して格納され実行されるように、ネットワーク接続されたコンピュータシステム上に分布したコンピュータ可読有形的媒体を含んでもよい。
方法の操作が特定の順序で記載されるが、オーバーレイ操作の処理が所望の方法で行われる限りにおいては、操作間に他のハウスキーピング操作が行われてもよく、または操作がわずかに異なる時間に発生するように調整されるか、もしくは処理に関連する様々な時間間隔での処理操作の発生を可能にするシステム上に分布されてもよく、または操作が異なる順序で行われてもよいことを理解すべきである。
前述の実施形態は理解を明確にする目的のためにある程度詳細に説明してきたが、特定の変更及び改変を、添付の特許請求の範囲内で実施できることが明らかであろう。したがって、本実施形態は例示的であって制限的なものではないと考えられるべきであり、本開示に記載の様々な実施形態は本明細書内の所与の詳細に限定されるものではなく、添付の特許請求の範囲及び均等物内で改変することができる。

Claims (21)

  1. ゲームクラウドシステムを介するゲームプレイのためのヘッドマウントディスプレイであって、
    ネットワークを介するゲームプログラムに関連する双方向メディアの送受信のための通信回路であって、前記双方向メディアが前記ゲームクラウドシステムによって処理され、前記ヘッドマウントディスプレイの通信回路へと直接ストリーミングされる前記通信回路と、
    入力を生成するためにユーザから動作を受信するためのユーザ入力回路であって、前記入力が前記ユーザ入力回路により検知されるポジション及び動きを含む前記ユーザ入力回路と、
    前記ネットワークから受信される前記双方向メディアのデコードのためのゲーム処理回路であって、前記ゲームプログラムに関連し、前記入力に基づいて生成される双方向部分を駆動する前記ゲーム処理回路と、
    を備えるヘッドマウントディスプレイ。
  2. 前記ゲーム処理回路が前記デコードされた双方向メディアからの画像のレンダリングのために用いられる、請求項1に記載のヘッドマウントディスプレイ。
  3. 前記デコードされた双方向メディアに基づいて、または前記入力に基づいて、音を生成するための音声回路をさらに備える、請求項1に記載のヘッドマウントディスプレイ。
  4. 前記ユーザ入力回路が前記ポジション及び動きを決定するための慣性センサ回路を含む、請求項1に記載のヘッドマウントディスプレイ。
  5. 前記慣性センサ回路がジャイロスコープ、磁力計、加速度センサまたはそれらの組み合わせを含む、請求項4に記載のヘッドマウントディスプレイ。
  6. ペアリングを介したローカルユーザ間のピアツーピアマルチチャネル通信を容易にする通信回路をさらに備える、請求項1に記載のヘッドマウントディスプレイ。
  7. 前記通信回路が前記ネットワークを介するユーザ間の遠隔双方向マルチユーザゲームプレイのために用いられる、請求項1に記載のヘッドマウントディスプレイ。
  8. 前記通信回路、前記ユーザ入力回路及び前記ゲーム処理回路が1つまたは複数の個別の回路チップに統合される、請求項1に記載のヘッドマウントディスプレイ。
  9. 前記ゲーム処理回路が前記デコードされた双方向メディアをレンダリングするためのマイクロプロセッサを含むヘッドマウントディスプレイであって、ストリームをバッファするためのバッファをさらに備える請求項1に記載のヘッドマウントディスプレイ。
  10. 手持型コントローラと通信するための通信回路をさらに備える、請求項1に記載のヘッドマウントディスプレイ。
  11. 前記入力がユーザの声、前記ユーザの注視、または手持型コントローラから受信される入力である、請求項1に記載のヘッドマウントディスプレイ。
  12. 前記入力が手持型コントローラの入力へとマッピングされる、請求項1に記載のヘッドマウントディスプレイ。
  13. 前記ゲームクラウドシステムと直接通信する手持型コントローラとともに用いられる、請求項1に記載のヘッドマウントディスプレイ。
  14. 手持型コントローラとともに用いられるヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイのポジション及び動きと前記手持型コントローラのポジション及び動きが単一の仮想シーンにおいて表現される、請求項1に記載のヘッドマウントディスプレイ。
  15. ゲームコンソールと通信する手持型コントローラとともに用いられる、請求項1に記載のヘッドマウントディスプレイ。
  16. 手持型コントローラ及びコンソールと通信する、請求項1に記載のヘッドマウントディスプレイ。
  17. 前記手持型コントローラが前記コンソールと通信する、請求項16に記載のヘッドマウントディスプレイ。
  18. 前記通信回路が前記入力を前記ゲームクラウドシステムへと直接通信する、請求項1に記載のヘッドマウントディスプレイ。
  19. 前記双方向メディアが前記ネットワークを介して前記ゲームクラウドシステムから直接受信される、請求項1に記載のヘッドマウントディスプレイ。
  20. ゲームクラウドシステムを介するゲームプレイ方法であって、
    ネットワークを介するゲームプログラムに関連し前記ゲームクラウドシステムによって処理される双方向メディアを直接ストリーミングするステップと、
    ヘッドマウントディスプレイによって検知されたポジション及び動きを含む、前記ヘッドマウントディスプレイからの入力を受信するステップと、
    前記ネットワークから受信された前記双方向メディアをデコードするステップと、
    前記ゲームプログラムに関連し、前記入力に基づいて生成された双方向部分を駆動するステップと、
    を含むゲームプレイ方法。
  21. ゲームクラウドシステムを介するゲームプレイのためのコンピュータ実行可能命令を格納するための非一時的なコンピュータ可読媒体であって、前記コンピュータ実行可能命令は、コンピュータのプロセッサによって実行された場合に、
    ネットワークを介するゲームプログラムに関連し前記ゲームクラウドシステムによって処理される双方向メディアを直接ストリーミングするステップと、
    ヘッドマウントディスプレイによって検知されたポジション及び動きを含む、前記ヘッドマウントディスプレイからの入力を受信するステップと、
    前記ネットワークから受信された前記双方向メディアをデコードするステップと、
    前記ゲームプログラムに関連し、前記入力に基づいて生成された双方向部分を駆動するステップと、
    を実行する非一時的なコンピュータ可読媒体。
JP2016518340A 2013-06-07 2014-05-23 ヘッドマウントシステムに関連するホップ数を削減するためのシステム及び方法 Pending JP2016533659A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361832773P 2013-06-07 2013-06-07
US61/832,773 2013-06-07
US14/144,185 US10905943B2 (en) 2013-06-07 2013-12-30 Systems and methods for reducing hops associated with a head mounted system
US14/144,185 2013-12-30
PCT/US2014/039405 WO2014197229A1 (en) 2013-06-07 2014-05-23 Systems and methods for reducing hops associated with a head mounted system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018026933A Division JP6550158B2 (ja) 2013-06-07 2018-02-19 ヘッドマウントシステムに関連するホップ数を削減するためのシステム及び方法

Publications (1)

Publication Number Publication Date
JP2016533659A true JP2016533659A (ja) 2016-10-27

Family

ID=52005902

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016518340A Pending JP2016533659A (ja) 2013-06-07 2014-05-23 ヘッドマウントシステムに関連するホップ数を削減するためのシステム及び方法
JP2018026933A Active JP6550158B2 (ja) 2013-06-07 2018-02-19 ヘッドマウントシステムに関連するホップ数を削減するためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018026933A Active JP6550158B2 (ja) 2013-06-07 2018-02-19 ヘッドマウントシステムに関連するホップ数を削減するためのシステム及び方法

Country Status (8)

Country Link
US (2) US10905943B2 (ja)
EP (3) EP3005073B1 (ja)
JP (2) JP2016533659A (ja)
KR (3) KR20180095741A (ja)
CN (2) CN104225915B (ja)
BR (1) BR112015030576B1 (ja)
RU (1) RU2628665C2 (ja)
WO (1) WO2014197229A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018049618A (ja) * 2016-09-22 2018-03-29 ナビティア・エルエルシー バーチャルリアリティアーキテクチャにおける改善されたデータ統合のためのシステムおよび方法
JP2019511781A (ja) * 2016-03-18 2019-04-25 株式会社ソニー・インタラクティブエンタテインメント 仮想現実(vr)環境におけるvrユーザの観客ビュー追跡
JP2021057769A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像表示システム、および画像圧縮方法
JP2021057768A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
JP2021057770A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10209771B2 (en) * 2016-09-30 2019-02-19 Sony Interactive Entertainment Inc. Predictive RF beamforming for head mounted display
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US9575319B2 (en) * 2014-03-10 2017-02-21 Ion Virtual Technology Corporation Method and system for reducing motion blur when experiencing virtual or augmented reality environments
WO2015139002A1 (en) 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing
US11983401B1 (en) * 2014-06-04 2024-05-14 ULTRAHAPTICS IP TWO LIMITED, , United Kingd Systems and methods of interacting with a virtual grid in a three-dimensional (3D) sensory space
US10034508B2 (en) * 2014-08-12 2018-07-31 Microsoft Technology Licensing, Llc Weight-distributing headband for head-worn assembly
GB201500545D0 (en) * 2015-01-14 2015-02-25 Mvr Global Ltd Controller for computer entertainment system
US9529416B2 (en) 2015-02-25 2016-12-27 Sony Interactive Entertainment America Llc Rack space power utilization
WO2016136794A1 (ja) 2015-02-27 2016-09-01 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP6693718B2 (ja) * 2015-02-27 2020-05-13 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
US20160259453A1 (en) 2015-03-06 2016-09-08 Sony Computer Entertainment America Llc Dynamic adjustment of cloud game data streams to output device and network quality
JP6691351B2 (ja) * 2015-03-31 2020-04-28 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
US10135892B2 (en) * 2015-07-28 2018-11-20 Google Llc Independent control of interactive streaming media
CN107533222B (zh) 2015-08-19 2020-05-05 深圳市柔宇科技有限公司 头戴式电子装置
WO2017028282A1 (zh) 2015-08-19 2017-02-23 深圳市柔宇科技有限公司 穿戴式显示设备
CN107209374A (zh) 2015-08-19 2017-09-26 深圳市柔宇科技有限公司 头戴式电子装置
EP3339934A4 (en) 2015-08-19 2019-04-10 Shenzhen Royole Technologies Co. Ltd. ELECTRONIC DEVICE INSTALLED ON THE HEAD
US9901816B2 (en) * 2015-08-24 2018-02-27 Htc Corporation Interactive game system with an HMD and a ground pad
US10101803B2 (en) * 2015-08-26 2018-10-16 Google Llc Dynamic switching and merging of head, gesture and touch input in virtual reality
CN105829949B (zh) * 2015-09-14 2018-06-12 深圳市柔宇科技有限公司 一种头戴式显示设备
KR102037161B1 (ko) * 2015-10-06 2019-10-29 주식회사 소니 인터랙티브 엔터테인먼트 통신 시스템, 송신 장치, 수신 장치, 통신 시스템의 제어 방법 및 프로그램을 기록한 컴퓨터 판독가능 기록 매체
CN108352867A (zh) * 2015-11-19 2018-07-31 索尼互动娱乐股份有限公司 天线控制装置、头戴式显示器、天线控制方法以及程序
CN109069924A (zh) * 2015-12-21 2018-12-21 格瑞拉伯克斯有限公司 用于播放云端中的应用程序的方法以及用于经由确定的远程通信系统来流处理和再现应用程序(app)的远程通信网络以及用于流处理和再现应用程序(app)的远程通信网络的应用
WO2017132082A1 (en) * 2016-01-27 2017-08-03 Dolby Laboratories Licensing Corporation Acoustic environment simulation
CN105771240A (zh) * 2016-02-22 2016-07-20 深圳市伴悦科技有限公司 一种仿真交互式游戏方法
US10317997B2 (en) * 2016-03-11 2019-06-11 Sony Interactive Entertainment Inc. Selection of optimally positioned sensors in a glove interface object
US11163358B2 (en) 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity
US10112111B2 (en) * 2016-03-18 2018-10-30 Sony Interactive Entertainment Inc. Spectator view perspectives in VR environments
CN105931272B (zh) * 2016-05-06 2019-04-05 上海乐相科技有限公司 一种运动对象追踪方法及系统
CN105915990B (zh) * 2016-05-25 2022-11-15 歌尔光学科技有限公司 一种虚拟现实头盔及其使用方法
WO2018002800A1 (en) * 2016-06-28 2018-01-04 Nokia Technologies Oy Method and apparatus for creating sub-content within a virtual reality content and sharing thereof
CN109478342B (zh) 2016-07-15 2020-03-10 纳维株式会社 图像显示装置及图像显示系统
KR102523377B1 (ko) * 2016-07-15 2023-04-20 삼성디스플레이 주식회사 유기 발광 표시 장치 및 이를 포함하는 두부 장착 표시 시스템
JP6779715B2 (ja) * 2016-09-02 2020-11-04 株式会社Living Anywhere Garage 情報処理システム
US10445925B2 (en) * 2016-09-30 2019-10-15 Sony Interactive Entertainment Inc. Using a portable device and a head-mounted display to view a shared virtual reality space
WO2018086399A1 (zh) * 2016-11-14 2018-05-17 华为技术有限公司 一种图像渲染的方法、装置及vr设备
KR102654621B1 (ko) 2016-12-08 2024-04-04 삼성전자주식회사 객체를 디스플레이하기 위한 방법 및 그 전자 장치
CN110337318B (zh) * 2017-02-28 2024-06-14 奇跃公司 混合现实装置中的虚拟和真实对象记录
US20180255285A1 (en) 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
CN106913449A (zh) * 2017-03-23 2017-07-04 郑州诚优成电子科技有限公司 互动式增强现实视力康复装置
BR112019016820B1 (pt) * 2017-04-11 2022-05-24 Dolby Laboratories Licensing Corporation Método para experiências de entretenimento aumentadas em camadas
US10278001B2 (en) * 2017-05-12 2019-04-30 Microsoft Technology Licensing, Llc Multiple listener cloud render with enhanced instant replay
US10279269B2 (en) 2017-06-22 2019-05-07 Centurion VR, LLC Accessory for virtual reality simulation
CN109511004B (zh) * 2017-09-14 2023-09-01 中兴通讯股份有限公司 一种视频处理方法及装置
CN112074705A (zh) * 2017-12-18 2020-12-11 Alt有限责任公司 光学惯性跟踪运动物体的方法和系统
US10534454B2 (en) * 2018-02-02 2020-01-14 Sony Interactive Entertainment Inc. Head-mounted display to controller clock synchronization over EM field
US11100713B2 (en) 2018-08-17 2021-08-24 Disney Enterprises, Inc. System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems
US10773156B2 (en) * 2018-11-05 2020-09-15 Sony Interactive Entertainment LLC Systems and methods for establishing direct communication between a server system and a video game controller
US11200656B2 (en) 2019-01-11 2021-12-14 Universal City Studios Llc Drop detection systems and methods
US11470017B2 (en) * 2019-07-30 2022-10-11 At&T Intellectual Property I, L.P. Immersive reality component management via a reduced competition core network component
US11184601B2 (en) * 2019-12-19 2021-11-23 Shenzhen Yunyinggu Technology Co., Ltd. Apparatus and method for display encoding
US20220070239A1 (en) * 2020-08-28 2022-03-03 Tmrw Foundation Ip S. À R.L. System and method to provision cloud computing-based virtual computing resources within a virtual environment
US12034785B2 (en) 2020-08-28 2024-07-09 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US12107907B2 (en) * 2020-08-28 2024-10-01 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
KR20220101485A (ko) * 2021-01-11 2022-07-19 삼성전자주식회사 디스플레이 장치 및 그 동작방법
KR20230169339A (ko) * 2021-04-14 2023-12-15 램 리써치 코포레이션 혼합 현실 (mixed reality) 환경들에서의 반도체 제작 장비의 제어
US11599338B2 (en) * 2021-06-18 2023-03-07 Qingdao Pico Technology Co., Ltd. Model loading method and apparatus for head-mounted display device, and head-mounted display device
WO2023009166A1 (en) * 2021-07-30 2023-02-02 Hewlett-Packard Development Company, L.P. Image-based adjustment of display content in a head-mounted user device
KR20230081402A (ko) * 2021-11-30 2023-06-07 삼성전자주식회사 서버와 전자 장치 사이의 영상 콘텐트를 스트리밍하는 방법, 영상 콘텐트를 스트리밍하는 서버 및 전자 장치
EP4395329A1 (en) 2021-11-30 2024-07-03 Samsung Electronics Co., Ltd. Method for allowing streaming of video content between server and electronic device, and server and electronic device for streaming video content
US12032737B2 (en) * 2022-08-22 2024-07-09 Meta Platforms Technologies, Llc Gaze adjusted avatars for immersive reality applications
US20240177196A1 (en) * 2022-11-30 2024-05-30 Oracle International Corporation Contextual targeting based on metaverse monitoring

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310130A (ja) * 2007-06-15 2008-12-25 Konica Minolta Holdings Inc 制御ユニットおよびヘッドマウントディスプレイ
WO2012177657A2 (en) * 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display

Family Cites Families (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3163786B2 (ja) 1992-10-09 2001-05-08 ソニー株式会社 眼鏡型映像表示装置
JPH06176131A (ja) 1992-12-03 1994-06-24 Namco Ltd 画像合成装置及びこれを用いた仮想体験装置
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6868091B1 (en) * 1997-10-31 2005-03-15 Stmicroelectronics Asia Pacific Pte. Ltd. Apparatus and method for depacketizing and aligning packetized input data
US6734838B1 (en) * 1998-05-18 2004-05-11 Dimension Technologies Inc. Enhanced resolution for image generation
US6490324B1 (en) 1998-12-08 2002-12-03 Stmicroelectronics, Inc. System, method and apparatus for a variable output video decoder
US6429867B1 (en) * 1999-03-15 2002-08-06 Sun Microsystems, Inc. System and method for generating and playback of three-dimensional movies
KR20020040676A (ko) * 2000-04-12 2002-05-30 이데이 노부유끼 데이터 전송 방법 및 데이터 전송 장치
US6876703B2 (en) * 2000-05-11 2005-04-05 Ub Video Inc. Method and apparatus for video coding
US7319720B2 (en) * 2002-01-28 2008-01-15 Microsoft Corporation Stereoscopic video
AU2003244901A1 (en) 2002-06-26 2004-01-19 Nokia Corporation Bluetooth rf based rf-tag read/write station
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US8387099B2 (en) * 2002-12-10 2013-02-26 Ol2, Inc. System for acceleration of web page delivery
US8893207B2 (en) * 2002-12-10 2014-11-18 Ol2, Inc. System and method for compressing streaming interactive video
US20040176143A1 (en) * 2003-02-07 2004-09-09 Willins Bruce A. System and method for wireless collection and presentation of data
KR20050025083A (ko) 2003-09-03 2005-03-11 휴먼센스 주식회사 영상저장매체 착탈 가능한 두부장착 디스플레이 장치
KR100586818B1 (ko) 2004-02-18 2006-06-08 한국과학기술원 증강현실 기술을 이용하는 두부장착 디스플레이 장치
DE102004062492A1 (de) * 2004-12-24 2006-07-13 Daimlerchrysler Ag Verfahren zum Betrieb einer Brennkraftmaschine mit einem Abgasturbolader und einer Nutzturbine
US20060250322A1 (en) * 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
US8275397B2 (en) * 2005-07-14 2012-09-25 Huston Charles D GPS based friend location and identification system and method
US8696113B2 (en) * 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) * 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US8355452B2 (en) * 2006-02-27 2013-01-15 Sharp Laboratories Of America, Inc. Selective frame dropping for initial buffer delay reduction
US7542210B2 (en) * 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
CA2667315A1 (en) * 2006-11-03 2008-05-15 University Of Georgia Research Foundation Interfacing with virtual reality
US20080139301A1 (en) * 2006-12-11 2008-06-12 Ole-Ivar Holthe System and method for sharing gaming experiences
JP2008209653A (ja) * 2007-02-26 2008-09-11 Brother Ind Ltd 光走査装置、網膜走査型表示装置及び光走査装置の製造方法
US8269822B2 (en) * 2007-04-03 2012-09-18 Sony Computer Entertainment America, LLC Display viewing system and methods for optimizing display view based on active tracking
US8825468B2 (en) * 2007-07-31 2014-09-02 Kopin Corporation Mobile wireless display providing speech to speech translation and avatar simulating human attributes
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
TW201018132A (en) * 2008-10-23 2010-05-01 Asustek Comp Inc Power saving control method for wireless LAN
JP2010217719A (ja) * 2009-03-18 2010-09-30 Ricoh Co Ltd 装着型表示装置、その制御方法及びプログラム
CN102460349A (zh) 2009-05-08 2012-05-16 寇平公司 使用运动和语音命令对主机应用进行远程控制
US8745494B2 (en) * 2009-05-27 2014-06-03 Zambala Lllp System and method for control of a simulated object that is associated with a physical location in the real world environment
TWI392485B (zh) * 2009-12-03 2013-04-11 Univ Nat Yang Ming 一種具立體視覺之頭盔式弱視輔具裝置及系統
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US9164577B2 (en) 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US9235492B2 (en) * 2010-03-05 2016-01-12 Nec Corporation Control policy adjusting apparatus, method of adjusting control policy, and program
CA2696925A1 (en) * 2010-03-19 2011-09-19 Bertrand Nepveu Integrated field-configurable headset and system
WO2011129907A1 (en) 2010-04-13 2011-10-20 Sony Computer Entertainment America Llc Calibration of portable devices in a shared virtual space
US8842170B2 (en) * 2010-06-01 2014-09-23 Intel Corporation Method and apparaus for making intelligent use of active space in frame packing format
JP2012048597A (ja) 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム
WO2012040386A1 (en) * 2010-09-21 2012-03-29 4Iiii Innovations Inc. Head-mounted peripheral vision display systems and methods
IL208600A (en) 2010-10-10 2016-07-31 Rafael Advanced Defense Systems Ltd Real-time network-based laminated reality for mobile devices
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
KR101482025B1 (ko) 2011-02-25 2015-01-13 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 증강 현실 프리젠테이션
US20120224070A1 (en) * 2011-03-04 2012-09-06 ZionEyez, LLC Eyeglasses with Integrated Camera for Video Streaming
US8872854B1 (en) * 2011-03-24 2014-10-28 David A. Levitt Methods for real-time navigation and display of virtual worlds
JP5960796B2 (ja) * 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
JP6316186B2 (ja) 2011-05-06 2018-04-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. 広範囲同時遠隔ディジタル提示世界
US8964008B2 (en) * 2011-06-17 2015-02-24 Microsoft Technology Licensing, Llc Volumetric video presentation
US8184069B1 (en) * 2011-06-20 2012-05-22 Google Inc. Systems and methods for adaptive transmission of data
US8581084B2 (en) * 2011-07-10 2013-11-12 Iman Pouyania Tempo counter device
US8629815B2 (en) * 2011-08-09 2014-01-14 Google Inc. Laser alignment of binocular head mounted display
JP2013044913A (ja) * 2011-08-24 2013-03-04 Sony Corp 表示装置及び表示制御方法
US9155964B2 (en) * 2011-09-14 2015-10-13 Steelseries Aps Apparatus for adapting virtual gaming with real world information
US8998414B2 (en) * 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
US9498720B2 (en) * 2011-09-30 2016-11-22 Microsoft Technology Licensing, Llc Sharing games using personal audio/visual apparatus
US20130083003A1 (en) 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
US20130083008A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Enriched experience using personal a/v system
CN103105926A (zh) * 2011-10-17 2013-05-15 微软公司 多传感器姿势识别
RU2017115669A (ru) * 2011-10-28 2019-01-28 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
US20130147686A1 (en) * 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
US9042266B2 (en) * 2011-12-21 2015-05-26 Kik Interactive, Inc. Methods and apparatus for initializing a network connection for an output device
US8970960B2 (en) * 2011-12-22 2015-03-03 Mattel, Inc. Augmented reality head gear
US9141194B1 (en) * 2012-01-04 2015-09-22 Google Inc. Magnetometer-based gesture sensing with a wearable device
US9230171B2 (en) 2012-01-06 2016-01-05 Google Inc. Object outlining to initiate a visual search
US20150170418A1 (en) 2012-01-18 2015-06-18 Google Inc. Method to Provide Entry Into a Virtual Map Space Using a Mobile Device's Camera
JP6021366B2 (ja) * 2012-03-12 2016-11-09 キヤノン株式会社 情報処理システム、情報処理システムの制御方法、情報処理装置、コンピュータプログラム。
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US9910488B2 (en) * 2012-04-23 2018-03-06 Japan Science And Technology Agency Motion guide presentation method and system therefor, and motion guide presentation device
US20130286053A1 (en) 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
US8854452B1 (en) * 2012-05-16 2014-10-07 Google Inc. Functionality of a multi-state button of a computing device
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
US20140002582A1 (en) * 2012-06-29 2014-01-02 Monkeymedia, Inc. Portable proprioceptive peripatetic polylinear video player
KR20140025930A (ko) * 2012-08-23 2014-03-05 삼성전자주식회사 헤드마운트형 디스플레이장치 및 그 제어방법
US8744418B2 (en) * 2012-08-31 2014-06-03 Analog Devices, Inc. Environment detection for mobile devices
US9237263B2 (en) * 2012-10-05 2016-01-12 Vidinoti Sa Annotation method and apparatus
US9019174B2 (en) * 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
US20140128161A1 (en) 2012-11-06 2014-05-08 Stephen Latta Cross-platform augmented reality experience
US20140152676A1 (en) * 2012-11-30 2014-06-05 Dave Rohn Low latency image display on multi-display device
US9977492B2 (en) * 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
US9317972B2 (en) * 2012-12-18 2016-04-19 Qualcomm Incorporated User interface for augmented reality enabled devices
US20140172640A1 (en) * 2012-12-19 2014-06-19 Wal-Mart Stores, Inc. Augmented reality shopping game
US9746926B2 (en) * 2012-12-26 2017-08-29 Intel Corporation Techniques for gesture-based initiation of inter-device wireless connections
US9374369B2 (en) * 2012-12-28 2016-06-21 Lookout, Inc. Multi-factor authentication and comprehensive login system for client-server networks
KR20140088354A (ko) * 2013-01-02 2014-07-10 삼성전자주식회사 무선 액세스 포인트 접속 운용 방법 및 이를 지원하는 단말기
US9202313B2 (en) * 2013-01-21 2015-12-01 Microsoft Technology Licensing, Llc Virtual interaction with image projection
US8976197B1 (en) * 2013-02-21 2015-03-10 Hurricane Electric LLC Solution generating devices and methods
US9041741B2 (en) * 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
US10242462B2 (en) * 2013-04-02 2019-03-26 Nvidia Corporation Rate control bit allocation for video streaming based on an attention area of a gamer
US9063330B2 (en) * 2013-05-30 2015-06-23 Oculus Vr, Llc Perception based predictive tracking for head mounted displays
EP2811460A3 (en) * 2013-06-04 2015-11-11 Technion Research & Development Foundation Limited Creating a synthetic model with organic veracity
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US9677840B2 (en) * 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
US10371944B2 (en) * 2014-07-22 2019-08-06 Sony Interactive Entertainment Inc. Virtual reality headset with see-through mode
CN105721517A (zh) * 2014-12-02 2016-06-29 速位互动系统有限公司 一种由智能手机来控制的照相机与其控制系统
US9898091B2 (en) * 2015-06-03 2018-02-20 Oculus Vr, Llc Virtual reality system with head-mounted display, camera and hand-held controllers
US10244211B2 (en) * 2016-02-29 2019-03-26 Microsoft Technology Licensing, Llc Immersive interactive telepresence
US11089280B2 (en) * 2016-06-30 2021-08-10 Sony Interactive Entertainment Inc. Apparatus and method for capturing and displaying segmented content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310130A (ja) * 2007-06-15 2008-12-25 Konica Minolta Holdings Inc 制御ユニットおよびヘッドマウントディスプレイ
WO2012177657A2 (en) * 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511781A (ja) * 2016-03-18 2019-04-25 株式会社ソニー・インタラクティブエンタテインメント 仮想現実(vr)環境におけるvrユーザの観客ビュー追跡
JP2018049618A (ja) * 2016-09-22 2018-03-29 ナビティア・エルエルシー バーチャルリアリティアーキテクチャにおける改善されたデータ統合のためのシステムおよび方法
JP2021057769A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像表示システム、および画像圧縮方法
JP2021057768A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
WO2021065631A1 (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
JP2021057770A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
WO2021065632A1 (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像表示システム、および画像圧縮方法
WO2021065633A1 (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
JP7491676B2 (ja) 2019-09-30 2024-05-28 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
JP7496677B2 (ja) 2019-09-30 2024-06-07 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像表示システム、および画像圧縮方法

Also Published As

Publication number Publication date
US20140364208A1 (en) 2014-12-11
EP3872618B1 (en) 2022-11-16
CN104225915B (zh) 2021-01-15
EP4142254A1 (en) 2023-03-01
EP3005073A1 (en) 2016-04-13
EP4142254B1 (en) 2024-04-24
US20210129012A1 (en) 2021-05-06
BR112015030576B1 (pt) 2022-08-23
JP2018129054A (ja) 2018-08-16
WO2014197229A1 (en) 2014-12-11
RU2628665C2 (ru) 2017-08-21
EP3872618A1 (en) 2021-09-01
EP3005073B1 (en) 2021-07-07
KR20190121407A (ko) 2019-10-25
BR112015030576A2 (pt) 2017-07-25
US10905943B2 (en) 2021-02-02
CN112742022A (zh) 2021-05-04
RU2015156224A (ru) 2017-07-18
KR20180095741A (ko) 2018-08-27
KR102158004B1 (ko) 2020-09-21
JP6550158B2 (ja) 2019-07-24
US11697061B2 (en) 2023-07-11
KR20160018690A (ko) 2016-02-17
CN104225915A (zh) 2014-12-24

Similar Documents

Publication Publication Date Title
JP7073444B2 (ja) より少ないホップにより拡張仮想現実シーンをヘッドマウントシステム内に生成するためのシステム及び方法
US11697061B2 (en) Systems and methods for reducing hops associated with a head mounted system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180227

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180413