JP6307627B2 - 空間感知を備えるゲーム機 - Google Patents

空間感知を備えるゲーム機 Download PDF

Info

Publication number
JP6307627B2
JP6307627B2 JP2016557241A JP2016557241A JP6307627B2 JP 6307627 B2 JP6307627 B2 JP 6307627B2 JP 2016557241 A JP2016557241 A JP 2016557241A JP 2016557241 A JP2016557241 A JP 2016557241A JP 6307627 B2 JP6307627 B2 JP 6307627B2
Authority
JP
Japan
Prior art keywords
hand
energy
pad device
hmd
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016557241A
Other languages
English (en)
Other versions
JP2017516186A (ja
Inventor
スタッフォード、ジェフリー、ロジャー
トクボ、トッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2017516186A publication Critical patent/JP2017516186A/ja
Application granted granted Critical
Publication of JP6307627B2 publication Critical patent/JP6307627B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/98Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/538Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for performing operations on behalf of the game client, e.g. rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ゲーム機を用いた空間感知(volmetric sensing)のための方法とシステムとに関する。
ゲームをするためにユーザの手を活用するゲームシステムは、通常、ユーザの手と指とを追跡する。ユーザは、手袋または他のデバイスを装着してゲームをする。しかしながら、ゲームをしたい時に毎回、手に手袋を付けたり、デバイスを付けたりしたくないユーザもいる。さらに、これらの手に付けるデバイスは、繰り返して使用された時、長期間に渡って使用された時、または異なるユーザ間で共有された時に、衛生の問題がある。
このような状況において、本開示で説明する実施形態が発生する。
本開示で説明する実施形態は、空間感知のためのシステムと方法とを、ゲーム機に提供する。
仮想現実(VR)または拡張現実(AR)では、いくつかのアプリケーションは、ユーザの身体部分、たとえば、手、足、指、親指、手と指の組み合わせ、手と親指の組み合わせ、などが追跡される場合、イマージョンを増加させ、または現実を綿密に再現することができる。
身体部分は、パッドデバイス、たとえば、タブレット、マット、センサを有するパッドデバイス、エネルギーセンサとエネルギーエミッタとを有するパッドデバイス、センサとエミッタとマーカーなどを有するパッドデバイスの表面の上にある空間(volume)と関わる。身体部分の位置及び向きは、身体部分によって乱されるエネルギー、たとえば、身体部分から反射するエネルギー、身体部分によって干渉されるエネルギー、などに基づいて判断される。身体部分の位置と向きとを使用して、頭部装着型ディスプレイに表示される画像内の仮想オブジェクトの位置と向きとを判断する。身体部分の位置と向きとを判断するために、手袋または他の手に付けるデバイスの代わりにパッドデバイスを使用することは、より便利で、より衛生的な体験を提供する。
さまざまな実施形態では、色、たとえば、緑、青、などを有するパッシブパッドデバイスを使用する。パッシブパッドデバイスは、あらゆる電子機器を排除しており、木製のブロック、1枚の布、または机の表面、またはマット、などであってよい。ユーザは、手を、パッシブパッドの上に置き、パッシブパッドに対する手の位置及び/または向きを判断するために、手が、頭部装着型ディスプレイ(HMD)のカメラによって映される。
いくつかの実施形態では、パッドデバイスは、深さ情報を生成するために手を映す複数のカメラを含み、深さ情報は、パッドデバイスの上面の上の基準点からの手の距離を含む。さまざまな実施形態では、HMDのカメラとパッドデバイスのカメラとを相互連携させて使用して、深さ情報を生成し、深さ情報は、パッドデバイスの上面の上の基準点からの手の距離と、HMDの外面の上の基準点からの手の距離とを含む。HMDの外面は、HMDの前の現実環境に面しており、HMDを装着しているユーザの顔に隣接していない。
いくつかの実施形態では、ユーザは、手を、パッドデバイスの上に置いて、HMDまたは表示デバイス、たとえば、テレビ、コンピュータ、などに表示される、仮想現実シーンまたは拡張現実シーン内の仮想オブジェクトを操作、たとえば、掴む、動かす、押す、引く、などを行う。たとえば、ゲーム内の仮想の手は、ユーザが自身の手をパッドデバイスの上で動かすと、動く。さらに、別の例として、ゲーム内の仮想の手の指は、ユーザが自身の指を動かすと、動く。
大まかに言うと、本開示で説明するいくつかの実施形態は、デバイスの上のある大きさの空間(space)を監視するセンサの配列を有するパッドデバイスに関する。パッドデバイスは、センサの配列を有する。深さ情報、たとえば、センサの配列上の基準点からのユーザの身体部分の深さ、などを使用して、身体部分のしぐさを判断するための位置及び/または向きを計算する。パッドデバイスは、支持体、たとえば、テーブル、などの上に置かれ、またはユーザの手に持たれ、またはユーザの足の下に置かれている。パッドデバイスは、HMD及び/またはゲーム機に接続されている。ユーザが自身の身体部分をパッドデバイスの上に置くと、パッドデバイスのセンサは、身体部分によって乱されたエネルギー信号、たとえば、身体部分から反射したエネルギー信号、身体部分によって干渉されたエネルギー信号、などを感知する。
一実施形態では、乱されたエネルギー及び変化したエネルギーは、本明細書では、交換可能に使用される。たとえば、エネルギーは、エネルギーがユーザの身体部分からの干渉によって変化した時に、乱れる。
さまざまな実施形態では、エネルギーセンサに加えて、パッドデバイスは、パッドデバイスの上の空間中に信号を発する、エネルギーエミッタの配列を含む。エネルギーエミッタとエネルギーセンサとの配列の例は、容量センサの配列、または超音波エミッタとマイクとの配列、または赤外線(IR)エミッタとIR光感知ダイオードとの配列、またはこれらの2つ以上の組み合わせ、などを含む。発せられた信号は、身体部分によって乱される。たとえば、電磁エネルギーが発せられると、電磁エネルギーが身体部分によって干渉され、乱された電磁エネルギーの一部が、パッドデバイスのセンサによって感知される。別の例として、光または音を使用すると、光または音の一部は、感知のためのパッドデバイスのセンサに向かって反射する。身体部分によって乱され、センサによって感知された信号に基づいて、基準点からの、空間内の身体部分の位置及び/または空間内の身体部分の向きが、プロセッサ、たとえば、ゲーム機のプロセッサ、HMDのプロセッサ、などによって判断される。たとえば、空間センサは、空間内の手を上手く追跡することと、手の各指の動きを上手く追跡することとを、それらがパッドデバイスの上にある時に可能にする。いくつかの実施形態では、位置及び/または向きに基づいて、ユーザによって行われるしぐさは、プロセッサによって判断される。
いくつかの実施形態では、しぐさをプロセッサによって使用して、VR画像またはAR画像を生成する。たとえば、しぐさを特定して、HMDまたはゲーム機に接続された表示デバイス、たとえば、テレビ、などで行われているゲームの、次のゲーム状態を生成する。VR画像またはAR画像は、ゲームのゲーム状態を表示する。
さまざまな実施形態では、HMDは、パッドデバイスの画像を取得するためのカメラを含む。カメラは、HMDの内部にあり、またはHMDの外部にある。たとえば、カメラは、HMD内に一体化されており、または外部でHMDの上に配置されており、または外部でHMDの下、たとえば、HMDのレンズの下に配置されている。カメラは、身体部分の画像を取得し、画像は、ユーザの頭部に対する身体部分の位置及び/または向きを特定するために、ゲーム機またはHMDのプロセッサによって解析される。HMDは、ユーザの頭部に装着される。頭部に対する身体部分のこの位置及び/または向きは、HMD内に表示されているVR画像またはAR画像内に描画された手の、拡大縮小、たとえば、距離の変化、向きの変化、などを提供する。
いくつかの実施形態では、HMDまたはゲーム機に関連付けられたカメラは、身体部分の影の画像を取得する。影は、身体部分がパッドデバイスの上の空間内に位置する時に、パッドデバイス上に形成される。画像をプロセッサによって解析して、身体部分の位置及び/または向きを判断する。
さまざまな実施形態では、HMDまたはゲーム機のカメラで取得した身体部分の画像または身体部分の影の画像を、空間内の身体部分の位置及び/または向きと併せて使用して、しぐさを判断または確認し、VR画像またはAR画像を生成する。VR画像またはAR画像は、HMDの画面上に、またはゲーム機に接続された表示デバイス、たとえば、テレビ、コンピュータモニタ、などの画面上に、表示される。
いくつかの実施形態では、パッドデバイスは、マーカー、たとえば、パターンコード、または反射体、または発光ダイオード、またはクイックレスポンス(QR)コード、またはこれらの2つ以上の組み合わせ、などの配列を含み、ユーザの身体部分によって塞がれているパッドデバイスの表面上のマーカーが、身体部分の輪郭を画定できるようにする。HMDのカメラは、パッドデバイスの表面上の、塞がれている領域と塞がれていない領域との間の差分を示す画像データを生成する。プロセッサ、たとえば、ゲーム機のゲームプロセッサ、などは、塞がれている領域の信号と塞がれていない領域の信号とを受信して、身体部分の輪郭を判断する。たとえば、身体部分の輪郭は、塞がれている領域と塞がれていない領域との間の境界である。
いくつかの実施形態では、HMDに関連付けられたカメラの代わりに、またはそれに加えて、ゲーム機の内部または外部、たとえば、ゲーム機の上部、側部、などに配置されたカメラ、またはゲーム機が置かれている現実世界環境内のカメラを使用して、身体部分の画像を取得する、ということに留意すべきである。
さまざまな実施形態では、HMDまたはゲーム機は、エミッタ、たとえば、赤外光エミッタ、可視光エミッタ、などを含む。エミッタは、光を、身体部分に向けて発する。HMDまたはゲーム機に関連付けられたカメラ、たとえば、赤外線カメラ、などを使用して、身体部分から反射した光から画像を生成し、プロセッサがユーザの身体部分の位置及び/または向きを判断することを可能にする。
いくつかの実施形態では、パッドデバイスは、緑の画面色などの色を含み、HMDまたはゲーム機のカメラがユーザの身体部分を容易に特定できるようにし、身体部分の画像をVR空間またはAR空間に溶け込ませるようにする。VR空間またはAR空間は、HMDを介して、または表示デバイスを介して表示され、表示デバイスの例を上記に提供している。
いくつかの実施形態では、パッドデバイスは、コンピューティングデバイス、たとえば、タブレットコンピュータ、携帯電話、またはタッチ型デスクトップモニタ及び中央処理装置(CPU)、などである。コンピューティングデバイスは、たとえば、ユーザに自身の手をコンピューティングデバイスの画面上で移動させることなどによって、身体部分の位置及び/または向きを追跡し、コンピューティングデバイスは、緑、青、赤、などの異なる色を表示して、身体部分の追跡と、身体部分の画像をVR空間またはAR空間に組み込むことと、を可能にする。
パッドデバイスは、HMD及び/またはゲーム機と通信する。たとえば、パッドデバイスは、ゲーム機と、媒体、たとえば、有線媒体または無線媒体を介して通信する。媒体の例は、Bluetooth(登録商標)と、Wi−Fiと、ユニバーサルシリアルバス(USB)と、シリアル転送と、パラレル転送と、イーサネット(登録商標)とを含む。センサによって感知される信号は、媒体を介してゲーム機に送信され、ゲームプロセッサが、身体部分の位置及び/または向き、及び/または身体部分によって行われるしぐさを判断することを可能にする。ゲーム機は、HMDまたは表示デバイスと通信して、HMDまたは表示デバイスでゲームを行うために使用されるゲーム信号を提供する。
パッドデバイス、たとえば、空間感知タッチパッド、などを活用することによって、ユーザの身体部分を追跡し、身体部分を、実行可能なVR制御方法として使用することを容易にする。
いくつかの実施形態では、パッドデバイスは、表示デバイスを排除しており、HMDを装着しているユーザの前にある支持体、たとえば、机、コーヒーテーブル、などの上に置かれている。
一実施形態では、パッドデバイスは、パッドデバイスの上面の上に停止している身体部分の深さ及び/または色を感知するセンサの配列を含む。身体部分の深さ及び/または色をゲームプロセッサによって使用して、身体部分の全体的な位置、及び/または身体部分の向き、及び/または身体部分のしぐさを判断する。
さまざまな実施形態では、パッドデバイスは、知られている色、たとえば、緑、青、などで覆われており、HMDに付けられたカメラは、知られている色を使用して、身体部分をカメラのビデオ入力から分割すること、たとえば、緑画面効果、などを補助する。これは、身体部分のビデオ入力が、HMD内でユーザに表示される画像を拡大することを可能にする。
いくつかの実施形態では、パッドデバイスは、HMDに対するパッドデバイスの三次元(3D)位置、たとえば、x位置、y位置、及びz位置、などを判断するために、HMDのカメラによって追跡されるパターン、たとえば、単純な印刷マーカー、発光ダイオード(LED)パターン、などを含む。また、いくつかの実施形態では、身体部分によってパッドデバイス上に投じられる妨害物及び/または影は、パッド上の身体部分のより正確な3D表現を取得するために、空間センサに加えてカメラ、たとえば、HMDに関連付けられたカメラまたはゲーム機に関連付けられたカメラ、などによって追跡される。
パッドデバイスのアプリケーションの例は、ホログラフィックディスプレイ、たとえば、チェスボードのホログラフィックディスプレイ、などの仮想表現と、VR内のさまざまなデスクトップ型またはボード型のゲームまたはアプリケーションと、を含む。
一実施形態では、HMDに対するユーザの手の検出を強化するための方法が説明される。方法は、エネルギー、たとえば、可視光線、赤外光、電磁場、などの乱された部分を、パッドデバイス内に一体化され、配列に配置されたセンサによって感知することを含む。エネルギーの乱れた部分は、ユーザの手によって、手がパッドデバイスの近くに置かれた時に乱される。エネルギーの乱れた部分を感知する複数のセンサは、手の現在の位置を映し出すエネルギー画像を生成する。方法は、感知することを継続的に繰り返して、エネルギー画像のストリーム、たとえば、電磁エネルギー場におけるユーザの身体部分による乱れを示す電気信号、可視光エネルギーまたは赤外光エネルギーにおける身体部分による干渉を示す電気信号、エネルギー画像フレーム、などを生成することを含む。エネルギー画像のストリームは、感知することを繰り返す間、手の位置の変化を表示する。たとえば、電磁エネルギー場または光エネルギーにおける手の動きによる乱れを使用して、手の位置の変化を判断する。方法は、エネルギー画像の各々を処理して、手のモデルと手のモデルの動きとを生成するために、エネルギー画像のストリームをゲーム機に通信することを含む。手のモデルは、HMD内に表示される仮想環境内の仮想の手として、少なくとも部分的に描画される。
一実施形態では、HMDに対するユーザの手の検出を強化するためのパッドデバイスが説明される。パッドデバイスは、エネルギーの乱れた部分を感知するための複数のセンサを含む。センサは、パッドデバイスの表面上に、配列に配置される。エネルギーの乱れた部分は、手がパッドデバイスの近くに置かれた時に、ユーザの手によって乱される。センサは、手の現在の位置を映し出すエネルギー画像を生成するために、エネルギーの乱れた部分を感知するように構成されている。センサは、さらに、感知することを継続的に繰り返して、エネルギー画像のストリームを生成するように構成されている。エネルギー画像のストリームは、感知することを繰り返す間、手の位置の変化を示す。パッドデバイスは、センサに連結された通信デバイスを含む。通信デバイスは、エネルギー画像の各々を処理して、手のモデルと手のモデルの動きとを生成するために、エネルギー画像のストリームをゲーム機に通信する。手のモデルは、HMD内に表示される仮想環境内の仮想の手として、少なくとも部分的に描画される。
一実施形態では、パッドデバイスを含むシステムが説明される。パッドデバイスは、身体部分が発せられたエネルギーと関わった時にセンサによって感知されるエネルギー部分を受信するための、パッドデバイスの表面上に置かれた複数のセンサを含む。センサは、身体部分が現在の位置にある時の乱れたエネルギー部分を感知することによって、エネルギー画像を乱れたエネルギー部分から生成するように構成されている。センサは、さらに、感知することを継続的に繰り返して、エネルギー画像のストリームを生成するように構成されている。エネルギー画像のストリームは、感知することを繰り返す間、手の位置の変化を示す。システムは、さらに、エネルギー画像のストリームを通信するための、センサに連結されたパッド通信デバイスを含む。システムは、また、パッドデバイスに連結されたゲーム機を含む。ゲーム機は、エネルギー画像のストリームをパッド通信デバイスから受信するための、パッド通信デバイスに連結されたゲーム通信デバイスを含む。ゲーム機は、さらに、身体部分の動きをエネルギー画像のストリームに基づいて判断するための、ゲーム通信デバイスに連結されたゲームプロセッサを含む。ゲームプロセッサは、仮想環境内の仮想オブジェクトの状態を、身体部分の動きに基づいて判断するように構成されている。ゲーム通信デバイスは、仮想オブジェクトの状態に関するデータを送信するように構成されている。システムは、さらに、ゲーム機に連結されたHMDを含む。HMDは、仮想画像の状態に関するデータをゲーム通信デバイスから受信するための、ゲーム通信デバイスに連結されたHMD通信デバイスを含む。HMDは、その状態を有する仮想オブジェクトを画像内に表示するための、HMD通信デバイスに連結されたプロセッサを含む。
上述の実施形態のいくつかの利点は、ユーザの身体部分の位置と向きとを判断するためにパッドデバイスを使用することを含む。パッドデバイスは、ゲームをしている間に使用される手袋よりも、使用がより衛生的である。たとえば、パッドデバイスは、着用されるのではなく、持たれて、パッドデバイスの周りにオープンな空間を形成する。手袋内に形成される閉鎖空間は、パッドデバイスの周りのオープンな空間と比較して、細菌が生まれ、増殖することを容易にする。また、細菌を除去するために、パッドデバイスを洗浄するほうが、手袋を洗浄するよりも容易である。さらに、パッドデバイスを使用して仮想環境とやり取りを行うほうが、手袋を使用して仮想環境とやり取りを行うよりも容易である。たとえば、ユーザにとっては、パッドデバイスを掴むよりも手袋を装着するほうがより時間がかかり、パッドデバイスを戻すよりも手袋を脱ぐほうがより時間がかかる。また、一実施形態では、パッドデバイスは、ユーザの身体部分の位置と向きとを判断するためのカメラを含む。そのようなカメラは、手袋内に一体化することが困難である。
本開示で説明する他の態様は、添付の図面と併せて、以下の発明を実施するための形態から明白になり、本開示で説明する原理を一例として示す。
本開示のさまざまな実施形態は、添付の図面と併せて、以下の説明を参照することによって最も良く理解される。
本開示の一実施形態による、空間内の手の位置を感知するために、ユーザの手の下に置かれたパッドデバイスの図である。
本開示の一実施形態による、別のパッドデバイスの図である。
本開示の一実施形態による、頭部装着型ディスプレイ(HMD)がパッドデバイスと併せて使用されるシステムの図である。
本開示の一実施形態による、ゲーム機のカメラが、HMDとパッドデバイスと共に使用されるシステムの図である。
本開示の一実施形態による、エミッタとセンサとを含むパッドデバイスの図である。
本開示の一実施形態による、ユーザによって自身の手に持たれているパッドデバイスの図である。
本開示の一実施形態による、エネルギー画像の生成と、エネルギー画像のストリームの生成を用いた手の動きとを示すために使用される図である。
本開示の一実施形態による、エネルギーセンサを含むHMDを示した図である。
本開示の一実施形態による、HMDのカメラと併せて使用されるパッドデバイスの一実施形態の図である。
本開示の一実施形態による、カメラを含むパッドデバイスの図である。
本開示の一実施形態による、ユーザの手の位置と向きとを判断するためにテレビを使用するシステムの図である。
本開示の一実施形態による、手及び/またはHMDを見るために、パッドデバイスが、支持体、たとえば、テーブル、椅子、台、机、などに対してある角度で置かれているシステムの側面図である。
本開示の一実施形態による、パッドデバイスに対するユーザの身体部分の位置と向きとに基づいて、HMDの表示画面上の画像内に表示される仮想オブジェクトの図である。
本開示の一実施形態による、マーカーが置かれているパッドデバイスの図である。
本開示の一実施形態による、2つのパッドデバイスを使用するシステムの図である。
本開示の一実施形態による、ユーザが自身の両足をパッドデバイスの上に置く、方法の一実施形態の図である。
本開示の一実施形態による、ユーザが、自身の右足をパッドデバイスの上に置き、自身の左足をパッドデバイスの上に置く、方法の一実施形態の図である。
本開示の一実施形態による、マーカーの配列と、センサの配列と、エミッタの配列とを含むパッドデバイスの図である。
本開示の一実施形態による、ユーザの両手を覆うある量の光信号または音信号または電磁信号を発する、細長いパッドデバイスの等角図である。
本開示の一実施形態による、エネルギーエミッタとエネルギーセンサとを含むHMDの図である。
本開示の一実施形態による、その中ではユーザの手の動きが検出される、空間の境界があることを示す図である。
本開示の一実施形態による、ユーザによって行われるしぐさに基づいた仮想オブジェクトの生成を示すために使用される図である。
本開示の一実施形態による、パッドデバイスのブロック図である。
本開示の一実施形態による、HMDの表示画面上に表示される画像内の仮想オブジェクトの位置及び/または向きの変化を、ユーザの身体部分の位置及び/または向きの変化と連携して示すシステムのブロック図である。
本開示の一実施形態による、HMDの等角図である。
本開示の一実施形態による、HMDとハンドヘルドコントローラとを使用することによって、ユーザが仮想環境とやり取りを行うことを示すシステムの図である。
本開示の一実施形態による、別のHMDの等角図である。
本開示の一実施形態による、コンピュータネットワークを介した仮想環境へのアクセスを示すために使用される図である。
本開示の一実施形態による、仮想環境にアクセスするためにHMDを装着したユーザを示した図である。
本開示の一実施形態による、HMDの例示的な構成要素を示した図である。
本開示の一実施形態による、情報サービスプロバイダアーキテクチャを示した図である。
ゲームデバイスを用いた空間感知のためのシステムと方法とを説明する。本開示で説明するさまざまな実施形態を、これらの具体的な詳細の一部または全部なしに実施することができる、ということに留意すべきである。他の例では、良く知られているプロセス動作は、本開示で説明するさまざまな実施形態を不必要に分かりにくくしないために、詳細には説明されていない。
一実施形態では、パッドデバイスは、ユーザの身体部分の位置と向きとを判断するために使用される。ユーザは、パッドデバイスを自身の手に持ち、手のしぐさをパッドデバイスの上で行う。手のしぐさは、1つまたは複数の機構、たとえば、カメラ、エミッタ及びセンサ、などを使用して追跡される。手のしぐさを特定するためのデータは、機構から、ゲーム機のゲームプロセッサに通信される。ゲームプロセッサは、手の位置と向きとをデータから特定して、しぐさを特定する。しぐさをゲームプロセッサによって使用して、頭部装着型ディスプレイ(HMD)の表示デバイス内に表示される仮想オブジェクトの位置と向きとを特定する。
図1は、ユーザの手の下に置かれたパッドデバイス102の一実施形態の図である。パッドデバイス102は、現実世界環境、たとえば、部屋、オープンな空間、などの中に置かれている。パッドデバイスは、センサ、たとえば、センサS1、センサS2、センサS3、などを含み、それらは、エネルギー、たとえば、手から反射した光エネルギー、手から反射した超音波エネルギー、手によって乱された電磁場エネルギー、手から反射した周辺光、などを、雲で示された、中に手が置かれている空間から感知する。センサの例は、超音波センサ、赤外光センサ、電荷結合素子(CCD)配列センサ、プレタッチセンサ、電磁エネルギーセンサ、などを含む。一実施形態では、周辺光は、ユーザを囲む現実世界環境内に置かれた発光体によって生成される。パッドデバイスは、プレタッチ信号を感知して、パッドデバイスと手との間の距離と、パッドと手の各指との間の距離と、を判断する能力を有する。パッドデバイスと手との間の距離は、パッドデバイスに対する手の位置を提供する。さらに、パッドデバイスと手の各指、たとえば、親指RHF1、人差し指RHF2、中指RHF3、薬指RHF4、小指RHF5、などとの間の距離を使用して、パッドデバイスに対する各指の位置を判断する。
手の位置は、ゲーム機のゲームプロセッサによって、図1に示す現実世界環境の基準座標システム、たとえば、xyz座標システム、などに対して定められる。たとえば、手の位置は、現実世界環境の基準座標システムの基準座標(0、0、0)に対して定められる。一実施形態では、現実世界環境の基準座標システムの基準座標(0、0、0)は、ゲーム機のゲームプロセッサによって、パッドデバイス102の頂点に定められる。一実施形態では、現実世界環境の基準座標システムの基準座標(0、0、0)は、ゲーム機のゲームプロセッサによって、パッドデバイス102の上面の任意の点に定められる。
一実施形態では、パッドデバイスは、プラスチック、またはゴム、または金属、または布、またはこれらの2つ以上の組み合わせから作られている。
一実施形態では、パッドデバイス102は、平らであり、たとえば、以下で説明するエネルギーセンサとエネルギーエミッタとを収容するための厚さを有する。たとえば、パッドデバイス102の厚さは、パッドデバイス102内に一体化されたエネルギーセンサの厚さ及び/エネルギーエミッタの厚さと同じであり、または実質的に同じである。別の例として、パッドデバイス102の厚さは、パッドデバイス102内に一体化されたセンサ及び/またはエネルギーエミッタの厚さの2倍以下である。
一実施形態では、パッドデバイス102は、任意の数のセンサを含む。
一実施形態では、センサは、パッドデバイス102の表面上で、パターン、たとえば、水平パターン、垂直パターン、斜線パターン、ジグザグパターン、曲線パターン、などに配置されている。
一実施形態では、パッドデバイス102は、5インチ×5インチ、3インチ×5インチ、5インチ×7インチ、10インチ×10インチ、12インチ×12インチ、12インチ×10インチ、14インチ×14インチ、3インチ×5インチ、などの、寸法、たとえば、長さ掛ける幅を有している。一実施形態では、パッドデバイス102は、ユーザ312の手の寸法よりも大きい寸法、たとえば、長さ掛ける幅、などを有している。一実施形態では、大人の代わりに、ユーザ312は子供である。
一実施形態では、パッドデバイス102のセンサは、ユーザ312の指の指関節からのエネルギー信号を取得することを容易にするために、間隔を開けられている。たとえば、パッドデバイス102の2つの連続したセンサは、x軸に沿ったx方向に、0.5インチの間隔を開けられている。別の例として、パッドデバイス102の2つの連続したセンサは、x方向に1インチの間隔を開けられている。さらに別の例として、パッドデバイス102の2つの連続したセンサは、x方向に1.5インチの間隔を開けられている。さらに別の例として、パッドデバイス102の2つの連続したセンサは、z軸に沿ったz方向に、0.5インチの間隔を開けられている。別の例として、パッドデバイス102の2つの連続したセンサは、z方向に1インチの間隔を開けられている。さらに別の例として、パッドデバイス102の2つの連続したセンサは、z方向に1.5インチの間隔を開けられている。
図2は、パッドデバイス102(図1)の一実施例である、パッドデバイス104の一実施形態の図である。パッドデバイス104は、センサアレイを含み、センサアレイは、ユーザの身体部分、たとえば、手、指関節、指、足、指の一部、手の一部、足の一部、などによって乱された、光信号または音信号または電磁信号を検出するために使用される。
図3は、HMD105がパッドデバイス102と併せて使用されるシステムの一実施形態の図である。HMD105は、ユーザ312の頭部に装着される。HMD105を装着している時、ユーザ312の目は覆われている。ユーザ312は、HMD105がユーザ312の頭部上で支えられるまで、HMD105を自身の頭部上で滑らせる。たとえば、HMD105の表示デバイスに付けられたストラップを、ユーザ312の頭部の後ろにかかるように締め、HMD105をユーザ312の頭部上で支えることを容易にする。
HMD105は、カメラ310を有し、カメラ310は、ユーザ312の手及び/または手の影の画像と、パッドデバイス102の少なくとも一部の画像とを生成するために使用される画像データを取得する。画像データは、パッドデバイス102に対するユーザ312の手及び/または手の影の位置と、パッドデバイス102に対する手及び/または手の影の向きと、を含む。画像データは、HMD105の通信デバイスから、ゲーム機の通信デバイスに通信される。画像データは、有線または無線の転送プロトコルを使用して通信され、それらの両方を以下に説明する。ゲーム機の通信デバイスは、画像データをゲーム機のゲームプロセッサに提供する。
ゲームプロセッサは、現実世界環境におけるユーザ312の手の位置と向きとを、画像データから判断する。たとえば、プロセッサ312は、画像データ内のユーザ312の手の位置、たとえば、(x、y、z)座標、などを、xyz座標システムの基準点、たとえば、原点(0、0、0)、などから特定する。
別の例として、ゲームプロセッサは、画像データ内のユーザ312の手の向き、たとえば、ユーザ312の手の軸によってx軸に対して形成される角度、その軸によってy軸に対して形成される角度、その軸によってz軸に対して形成される角度、これらの2つ以上の組み合わせ、などを使用して、現実世界環境におけるユーザ312の手の向きを特定する。xyz座標システムを以下にさらに説明する。
xyz座標システムの基準点に対するユーザ312の身体部分の位置は、xyz座標システムのx軸に沿ったx方向の距離と、xyz座標システムのy軸に沿ったy方向の距離と、xyz座標システムのz軸に沿ったz方向の距離と、を含む、ということに留意すべきである。さらに、xyz座標システムに対するユーザ312の身体部分の向きは、ユーザ312の身体部分によってx軸に対して形成される角度と、身体部分によってy軸に対して形成される角度と、身体部分によってz軸に対して形成される角度と、を含む。たとえば、ユーザ312の身体部分がxyz座標システムのある軸に対して回転すると、その軸に対する角度が変化する。
一実施形態では、ユーザの手の影のx位置は、ユーザの手のx位置と同じであり、影のz位置は、手のz位置と同じである、ということに留意すべきである。
本明細書で説明する実施形態のうちのいくつかを使用して、ユーザ312の手の位置と向きとを判断するが、その実施形態は、ユーザ312の別の身体部分または身体部分の影の位置と向きとを判断するために同様に適用される、ということにも留意すべきである。
一実施形態では、カメラ310を使用して手の画像とパッドデバイス102の画像とを取得する時、xyz座標システムの基準点は、カメラ310が固定されているHMD105上の一点、たとえば、カメラ310のレンズの位置、などに配置されている。
一実施形態では、カメラ、たとえば、ゲーム機のカメラ、HMDのカメラ、独立して置かれたカメラ、テレビのカメラ、テレビの上に置かれたカメラ、などを使用して取得した身体部分の位置及び向きは、パッドデバイスのセンサを使用して取得した身体部分の位置と向きとを確認または否定するために使用される。たとえば、ゲーム機108のゲームプロセッサは、カメラを使用して取得した画像データから判断した位置が、パッドデバイスのセンサによって生成された電気信号から判断した、所定の範囲内の位置にあるかどうかを判断する。例示するために、電気信号は、センサがエネルギー、たとえば、可視光、赤外光、電磁場、などの乱れを感知した時に、パッドデバイスのセンサによって生成される。乱れは、ユーザの身体部分の動きによって作られる。画像データから判断した位置が、センサによって生成された電気信号から判断した、所定の範囲内の位置にあると判断すると、ゲームプロセッサは、身体部分の位置が正確であると確認する。一方で、画像データから判断した位置が、センサによって生成された電気信号から判断した、所定の範囲内の位置にないと判断すると、ゲームプロセッサは、身体部分の位置が正しくないと判断する。同様に、ユーザ312の身体部分の向きは、カメラを使用して取得した画像データからゲームプロセッサによって判断された身体部分の向きと、パッドデバイスのセンサによって生成された電気信号からゲームプロセッサによって判断された身体部分の向きと、の比較から、正確であることが確認または否定される。
一実施形態では、パッドデバイス102は、パッシブパッドデバイスであり、HMD105のカメラ310がパッドデバイス102の表面の画像を取得する時、パッシブパッドデバイスは、ユーザ312の手に面しているその表面上に、パターン、または色、または表面質感、または印刷された色パターン、または色合い、またはそれらの2つ以上の組み合わせ、などを有する。たとえば、パッドデバイス102は、電気回路、たとえば、センサ、カメラ、エミッタ、プロセッサ、メモリデバイス、などを有さないパッシブデバイスである。別の例として、パッドデバイス102は、エネルギーセンサ及び/またはエネルギーエミッタを有し、ユーザ312の身体部分の位置と向きとを判断するためのカメラまたはプロセッサを有さない、パッシブデバイスである。
図4は、ゲーム機108のカメラ410が、HMD106とパッドデバイス102と共に使用されるシステムの一実施形態の図である。HMD105(図3)は、HMD106の一実施例である。ゲーム機108のカメラ410は、画像データを、現実世界環境内のxyz座標システムに対する手及び/または手の影の相対位置及び/または相対向きに基づいて、生成する。画像データは、xyz座標システムに対する、ユーザ312の手及び/または手の影の位置と向きとを含む。画像データ内のxyz座標システムに対するユーザ312の手及び/または手の影の位置と向きを、ゲーム機108のゲームプロセッサによって使用して、手のしぐさを判断し、しぐさをゲーム機のゲームプロセッサによって使用して、次の状態、たとえば、仮想環境の状態、ゲーム状態、などを判断する。たとえば、ユーザ312の手の複数の位置及び向きは、あるしぐさに対応する。しぐさデータと、身体部分の1つまたは複数の位置及び/または身体部分の1つまたは複数の向きと、の間の対応、たとえば、マップ、リンク、関連性、などは、ゲーム機108のゲームメモリデバイス内に格納されている。
身体部分のしぐさは、身体部分の、複数の位置及び/または複数の向きによって定められる。たとえば、仮想の銃をユーザ312が持っていることを示すしぐさは、ユーザ312の手の人差し指及び親指がまっすぐであり、手の残りの指が曲がっており、手が水平の向きを有している時に、形成される。別の例として、仮想の剣をユーザ312が持っていることを示すしぐさは、ユーザ312の手の人差し指及び親指がまっすぐであり、手の残りの指が曲がっており、手が垂直の向きを有している時に、形成される。
仮想環境画像データは、ゲームプロセッサによって、ゲームプロセッサによる次の状態に基づいて生成され、仮想環境画像データは、媒体、たとえば、有線媒体、無線媒体、などを介して、HMD106に送信される。仮想環境画像データは、仮想環境をHMD106の表示画面に表示するために、HMD106のプロセッサによって描画される。仮想環境を以下にさらに説明する。
いくつかの実施形態では、仮想環境画像データは、媒体、たとえば、有線媒体、無線媒体、などを介して、テレビの表示デバイスに送信される。仮想環境画像データは、仮想環境をテレビの表示画面に表示するために、テレビのプロセッサによって描画される。
一実施形態では、カメラ410を使用してパッドデバイス102上の手及び/または手の影の画像を取得する時、xyz座標システムの基準点は、カメラ410が固定されているゲーム機108上の一点、たとえば、カメラ410の位置、カメラ410のレンズの位置、などに配置されている。
図5は、配列に配置されたエミッタとセンサとを含む、パッドデバイス110の一実施形態の図である。たとえば、パッドデバイス110は、x軸のx方向に沿って水平に並んだ、エミッタEE1と、エミッタEE2と、エミッタEE3と、エミッタEE4と、を含む。別の例として、パッドデバイス110は、x軸のx方向に沿って水平に並んだ、センサS1と、センサS2と、センサS3と、を含む。パッドデバイス110は、パッドデバイス102(図1)の一実施例である。
センサには、パッドデバイス110のエミッタが交ざっている。たとえば、エミッタEE1、エミッタEE2、エミッタEE3、及びエミッタEE4は、センサS1と、センサS2と、センサS3と並んでいる。さらに、本実施例では、エミッタEE1にはセンサS1が続き、センサS1にはエミッタEE2が続き、エミッタEE2にはセンサS2が続き、センサS2にはエミッタEE3が続き、エミッタEE3にはセンサS3が続き、センサS3にはエミッタEE4が続いている。
エミッタ及び/またはセンサは、パッドデバイス110内に一体化、たとえば、結合され、組み合わされ、統合され、組み込まれ、均一にされる、などし、パッドデバイス110の表面503上で可視である。
エミッタの例は、発光ダイオード(LED)、電磁エネルギー送信機、超音波トランシーバ、などを含む。センサの例は、光ダイオード、フォトレジスタ、フォトトランジスタ、光感知器、電磁エネルギーレシーバ、超音波センサ、マイク、などを含む。
パッドデバイス110のエミッタは、たとえば、光の形態、音の形態、電磁信号の形態、これらの2つ以上の組み合わせ、などのエネルギー、を、パッドデバイス110の上部の空間に向けて発する。空間は、図5では、破線とパッドデバイス110とによって囲まれている。一例として、空間の境界は、エネルギーエミッタによって発せられたエネルギーが徐々になくなる地点にある。ユーザ312の身体部分が、表面503の上の空間と関わると、パッドデバイス110のエミッタによって発せられたエネルギーは、身体部分に入射し、身体部分は、エネルギーの一部を反射する。一例として、ユーザ312は、手のしぐさを行うことによって、または自身の手を空間内で動かすことによって、または自身の指を空間内で動かすことによって、などして空間と関わる。パッドデバイスのセンサは、身体部分によって乱された、たとえば、光の形態、音の形態、電磁信号の形態、などのエネルギーを、感知、たとえば、検出、などして、パッドデバイス110に対する空間内での身体部分の位置を判断する。
一実施形態では、身体部分の影は、身体部分が表面503の上の空間と関わった時に、表面503上に作られる、ということに留意すべきである。影は、パッドデバイス110のセンサのうちのいくつかを覆い、パッドデバイス110のセンサの残りは覆わない。影は、上に影が形成されるパッドデバイス110のセンサによって測定される光の強度を、減少させる。
身体部分が空間と関わる時、身体部分は表面503に触れない、ということにも留意すべきである。
空間の形は、図5に示すものに限定されない、ということもさらに留意すべきである。たとえば、空間は、他の形、たとえば、四角形、雲形、円形、楕円形、などを使用して例示される。
一実施形態では、空間は、形がない。
一実施形態では、パッドデバイス110は、任意の数のエミッタ、たとえば、1つのエネルギーエミッタ、複数のエネルギーエミッタ、などを含む。
一実施形態では、パッドデバイス110のエネルギーエミッタ、たとえば、赤外光エミッタ、可視光エミッタ、電磁場生成器、などは、パッドデバイス110の表面積を覆うパターンに配置されており、パッドデバイス110の表面上に密度を作るように配置されている。電磁場生成器の一例は、中を通って電流が移動する導体を含む。エミッタのパターンの例は、マトリックスパターン、斜線パターン、ジグザグパターン、ランダムパターン、星形パターン、垂直配向パターン、水平配向パターン、などを含む。別の例として、パッドデバイス110のエネルギーエミッタ、たとえば、赤外光エミッタ、可視光エミッタ、電磁場生成器、などは、パッドデバイス110の縁に沿って配置されている。
一実施形態では、パッドデバイス110は、任意の数のセンサを含む。
一実施形態では、パッドデバイス110のセンサは、パッドデバイス110の表面積を覆うパターンに配置されており、パッドデバイス110の表面上に密度を作るように配置されている。センサのパターンの例は、マトリックスパターン、斜線パターン、ジグザグパターン、ランダムパターン、星形パターン、垂直配向パターン、水平配向パターン、などを含む。
一実施形態では、パッドデバイス110のセンサは、パッドデバイス110のエミッタとは異なるパターンを形成する配列に配置されている。たとえば、パッドデバイス110のセンサは、パッドデバイス110の表面上で斜線パターンに配置されており、パッドデバイス110のエミッタは、表面上で、水平パターンまたは垂直パターンに配置されている。
一実施形態では、エミッタをパッドデバイス110に一体化する代わりに、エミッタは、表面503に、付けられ、たとえば、糊付け、接着、などされる。
一実施形態では、各エミッタまたは各センサの電極は、パッドデバイス110内に組み込まれており、電源、たとえば、バッテリ、などに接続されている。一実施形態では、電力をパッドデバイス110のエミッタ及び/またはセンサに提供するための電源は、パッドデバイス110内に一体化されている。
一実施形態では、パッドデバイス110の各エミッタ及び/または各センサは、電力を、交流(AC)電源から、たとえば、ワイヤ、たとえば、導体、などを介して電気コンセントに接続された、パッドデバイス110の電力ポートを介して、受信する。
一実施形態では、スイッチ、たとえば、トグルスイッチ、手動制御スイッチ、などは、電源と、パッドデバイス110のセンサとエミッタとのグループとの間に置かれている。スイッチをオンにして、電力が、電源からパッドデバイス110のエミッタとセンサとに提供されることを可能にする。
一実施形態では、パッドデバイス110のエミッタ及びセンサは、任意の他の様式で交ざっている。たとえば、1つのエミッタには2つのセンサが続き、または2つのエミッタには1つのセンサが続く。本実施例では、任意または全部のエミッタは、任意または全部のセンサに並んでいる。
一実施形態では、エミッタは、パッドデバイス110のセンサに並んでいない。たとえば、パッドデバイス110のエミッタ及びセンサは、パッドデバイス110の表面503で、ランダムパターンまたは疑似ランダムパターンに配置されている。
センサとエミッタとを使用してユーザ312の身体部分の位置と向きとを判断する一実施形態では、xyz座標システムの基準点は、パッドデバイス110上の一点、たとえば、センサの位置、エミッタの位置、などに配置されている。
図6Aは、ユーザ312によって自身の手に持たれているパッドデバイス110の一実施形態の図である。パッドデバイス110は、エミッタとセンサとを含む。センサは、電気信号を生成し、電気信号は、ユーザ312の手の位置と向きとを判断するために、HMD106のプロセッサまたはゲーム機108のゲームプロセッサに通信される。
ユーザ312の手がパッドデバイス110の上面の上の空間に入ると、ユーザ312の手を表す仮想の手602が、HMD106の表示画面に表示される仮想環境606に入る。ユーザ312は、自身の手を空間の中に入れて、仮想の手602を使用することによって、仮想環境606内の仮想の子犬604に触れる。ユーザ312は、自身の手をパッドデバイス110上で滑らせて、仮想の手602を使用することによって、仮想環境606内の仮想の子犬604をなでる。仮想の子犬604は、ユーザ312の接触に反応する。たとえば、仮想の子犬604は、仮想の手602が仮想の子犬604に触れ、またはなでると、その尾を振り、または起き上がり、または転がる、などする。
図6Bは、エネルギー画像610の生成と、ユーザ312の手の動きを用いた複数のエネルギー画像の生成と、を例示するために使用される図である。パッドデバイス110のセンサは、ユーザ312の左腕の一部によって乱されたエネルギー信号を感知して、エネルギー画像610を生成する。エネルギー画像610は、左腕の一部の輪郭を含む。輪郭は、パッドデバイス110の、ユーザ312の左腕の一部によって乱されたエネルギーを感知する、センサによって占められた領域を囲む。
ユーザ312が自身の左腕を期間tに渡って動かすと、左腕の一部の動きを追うために、複数のエネルギー画像がパッドデバイス110のセンサによって生成される。エネルギー画像610は、パッドデバイス110の通信デバイスから、有線媒体または無線媒体を介して、ゲーム機108の通信デバイスに提供される。エネルギー画像610は、パッドデバイス110のセンサによって生成された電気信号の強度を含む。エネルギー画像610内に提供される強度をゲーム機10のゲームプロセッサによって使用して、ユーザ312の左腕の一部の位置と向きとを判断する。
同様に、複数のエネルギー画像が、ユーザ312の左腕の一部の位置と向きとを判断するために、ゲーム機106のゲームプロセッサによって解析される。位置と向きとを使用して、ユーザ312により行われたしぐさを判断し、しぐさをゲームプロセッサによって使用して、仮想環境606内の1つまたは複数の仮想オブジェクトの1つまたは複数の状態、たとえば、仮想の手602の状態、仮想の子犬604の状態、これらの組み合わせ、などに関するデータを特定する。
1つまたは複数の状態に関するデータは、ゲーム機108の通信デバイスからHMD106の通信デバイスに提供される。HMD106のプロセッサは、1つまたは複数の状態に関するデータを描画して、対応する1つまたは複数の状態を有する1つまたは複数の仮想オブジェクトを、HMD106の表示画面に表示する。
図6Cは、エネルギーセンサSS1からエネルギーセンサSS3を含むHMD670を例示した図である。HMD670は、HMD106(図6A)の一実施例である。パッドデバイス110のエネルギーエミッタによって発せられたエネルギー、たとえば、光エネルギー、などは、電気信号を生成するために、エネルギーセンサSS1からエネルギーセンサSS3によって感知される。信号は、ゲーム機108のゲームプロセッサによって受信されるために、HMD670の通信デバイスからゲーム機108の通信デバイスに通信される。HMD670に配置された基準座標システムに対する、ユーザの手の位置及び/または向きは、ゲームプロセッサによって、パッドデバイス110のセンサによる手の位置及び/または向きの判断と同様の方法で、判断される。
一実施形態では、パッドデバイス110のエミッタは、第1の周波数の光を第1の期間に渡って発し、第2の周波数の光を、第1の期間に続く第2の期間に渡って発するように、予めプログラムされている。HMD670のセンサは、第1の周波数で発せられた光を感知するように予めプログラムされ、パッドデバイス110のセンサは、第2の周波数で発せられた光を感知する。たとえば、HMD670のセンサは、パッドデバイス110の発光タイミングと同期する、たとえば、有効になる、オンになる、作動する、などして、第1の期間に渡って発せられた光を感知する。
一実施形態では、パッドデバイス110のエミッタは、第1のパターン、たとえば、ジグザグパターン、行パターン、列パターン、などの光を、第1の期間に渡って発し、第2のパターンの光を、第1の期間に続く第2の期間に渡って発するように、予めプログラムされている。第2のパターンは、第1のパターンとは異なる。HMD670のセンサは、第1のパターンを使用して発せられた光を感知するように予めプログラムされており、パッドデバイス110のセンサは、第2のパターンを使用して発せられた光を感知するように予めプログラムされている。たとえば、HMD670のセンサは、パッドデバイス110の発光タイミングと同期して、第1のパターンを使用して発せられた光を感知する。
一実施形態では、パッドデバイス110のエミッタは、光を第1の期間に渡って発するように予めプログラムされており、エミッタのうちのいくつか、たとえば、1つまたは複数は、光を、第1の期間に続く第2の期間に渡って発する。HMD670のセンサは、エミッタのうちのいくつかによって発せられた光を感知するように予めプログラムされており、パッドデバイス110のセンサは、パッドデバイス110の全てのエミッタによって発せられた光を感知するように予めプログラムされている。たとえば、HMD670のセンサは、パッドデバイス110の発光タイミングに同期して、エミッタのうちのいくつかによって第2の期間に渡って発せられた光を感知する。
一実施形態では、パッドデバイス110のエミッタは、光を第1の期間に渡って発するように予めプログラムされており、エミッタのうちのいくつかは、光を、第1の期間に続く第2の期間に渡って発する。HMD670のセンサは、エミッタの全部によって第1の期間に渡って発せられた光を感知し、パッドデバイス110のセンサは、パッドデバイス110のいくつかのエミッタによって第2の期間に渡って発せられた光を感知する。たとえば、HMD670のセンサは、パッドデバイス110の発光タイミングに同期して、第1の期間に渡って発せられた光を感知する。
一実施形態では、HMD670は、任意の数のセンサを含む。
図7Aは、HMD105のカメラと併せて使用されるパッドデバイス110の一実施形態の図である。パッドデバイス110は、ユーザ312の手に持たれており、ユーザ312の他方の手は、パッドデバイス110の上の空間内にある。
図7Bは、カメラを含むパッドデバイス112の一実施形態の図である。一実施形態では、パッドデバイス112は、アクティブパッドデバイスの一実施例であり、パッドデバイス112は、パッシブパッドデバイスの一実施例である。パッドデバイス112は、パッドデバイス102(図1)の代わりに使用される。パッドデバイス112の例は、タブレットと、スマートフォンと、ファブレットと、スクリーンディスプレイとを含む。パッドデバイス112は、色付きの背景、たとえば、緑色の背景、青色の背景、などを生成する表示画面を有する。ユーザ312は、自身の他方の手をパッドデバイス112の上にある空間内に置いて、手によって乱された信号を感知することを可能にする。パッドデバイス112のカメラ710は、ユーザ312の手の画像データを生成し、画像データは、パッドデバイス112に対する手の相対位置、及び/またはパッドデバイス112に対する手の相対向きを判断するために、HMD106のプロセッサまたはゲーム機108(図4)のゲームプロセッサによって、本明細書で説明した方法と同様の方法で解析される。
一実施形態では、ユーザ312は、パッドデバイス112の表示画面に触れて、しぐさを形成し、しぐさデータは、パッドデバイス112に提供される。本実施形態では、パッドデバイス112は、ユーザ312によるパッドデバイス112の表示画面への接触の量を感知する、容量センサを含む。
一実施形態では、表示画面の例は、液晶ディスプレイ(LCD)画面、LEDディスプレイ画面、プラズマディスプレイ画面、などを含む。
カメラ710を使用してユーザ312の身体部分の位置と向きとを判断する一実施形態では、xyz座標システムの基準点は、パッドデバイス112上の一点、たとえば、カメラ710の位置、カメラ710のレンズの位置、などに配置されている、ということに留意すべきである。
一実施形態では、パッドデバイス112のカメラ710によって生成された画像データを、HMD105のカメラ310によって生成された画像データと併せて使用して、身体部分の位置及び/または向きの正確さを確認または否定する。たとえば、カメラ710を使用して取得した画像データを、ゲーム機108のゲームプロセッサによって使用して、ユーザ312の身体部分の第1の位置及び/または第1の向きを判断する。さらに、本実施例では、カメラ310によって取得した画像データを、ゲーム機108のゲームプロセッサによって使用して、ユーザ312の身体部分の第2の位置及び/または第2の向きを判断する。ゲームプロセッサは、第1の位置が第2の位置の所定の範囲内にあるかどうかと、第1の向きが第2の向きの所定の範囲内であるかどうかと、を判断する。第1の位置が第2の位置の所定の範囲内にあり、第1の向きが第2の向きの所定の範囲内であると判断すると、ゲームプロセッサは、第1の位置と第1の向きとの正確さを確認し、第1の位置と第1の向きとに対応する仮想オブジェクトの状態を特定する。一方で、第1の位置が第2の位置の所定の範囲内にないと判断すると、ゲームプロセッサは、第1の位置が正確でないと判断し、第1の向きが第2の向きの所定の範囲内でないと判断すると、ゲームプロセッサは、第1の向きが正確でないと判断する。ゲームプロセッサは、第1の不正確な位置と第1の不正確な向きとに対応する仮想オブジェクトの状態を特定せず、身体部分の位置と向きとが正確であると確認されるまで待機する。仮想オブジェクトの状態を、以下にさらに説明する。
一実施形態では、パッドデバイスは、色付きの光を発して、HMD105のカメラ310による、身体部分の画像データの取得を容易にする、ということに留意すべきである。
一実施形態では、パッドデバイス112は、タッチセンサ、たとえば、パッドデバイス112の表示画面内に組み込まれた、コンデンサ、抵抗、などを含む。ユーザが表示画面に触れると、コンデンサによって格納されている電荷の量、または抵抗を通過する電流の量が変化して、電気信号を生成する。電気信号は、パッドデバイス112の通信デバイスとゲーム機の通信デバイスとを介して、ゲーム機のプロセッサに通信される。ゲーム機のプロセッサは、電気信号を生成し、受信する、表示画面上のタッチセンサの位置から、ユーザの指の位置を特定する。たとえば、指の位置は、タッチセンサの位置と同じである。
図8は、テレビ114を使用してユーザ312の手の位置と向きを判断するシステムの一実施形態の図である。テレビ114のカメラは、画像データを生成するために、ユーザ312の手の画像を取得する。画像データは、本明細書で説明する媒体を介して、HMD106及び/またはゲーム機108に送信される。本明細書で説明する方法と同様の方法では、HMD106のプロセッサまたはゲーム機108のゲームプロセッサは、画像データに基づいて、現実世界環境におけるユーザ312の手の位置と向きとを判断する。
一実施形態では、カメラがテレビ114内に一体化されている代わりに、カメラは、ユーザ312がHMDの表示画面に表示された仮想環境とやり取りを行う、現実世界、たとえば、部屋、オープン空間、などの中に独立して置かれている。
一実施形態では、カメラ、たとえば、HMDのカメラ、ゲーム機のカメラ、テレビのカメラ、独立して置かれたカメラ、などは、ユーザの手の画像データを取得する。画像データは、カメラに接続された通信デバイスから、ゲーム機の通信デバイスに提供される。ゲーム機のプロセッサは、ユーザがパッドデバイスと関わったかどうか、たとえば、パッドデバイスの表面の上でしぐさをしたかどうか、表面に接したかどうか、表面を軽く叩いたかどうか、表面を複数回軽く叩いたかどうか、などを判断する。ユーザがパッドデバイスと関わったと判断すると、プロセッサは、制御信号を、ゲーム機の通信デバイスを介して、パッドデバイスの通信デバイスに送信する。パッドデバイスのプロセッサは、制御信号を、パッドデバイスの通信デバイスを介して受信し、オン信号をスイッチに送信し、スイッチは、パッドデバイスのセンサ及び/またはエミッタを、パッドデバイスの電源、たとえば、バッテリ、などに接続するために、オンになる。オン信号を受信すると、スイッチは、センサによるエネルギーの感知、及び/またはエネルギーエミッタによるエネルギーの放出を可能にするために、センサ及び/またはエミッタを電源に接続する。スイッチの例は、トランジスタ、またはトランジスタのグループを含む。
図9は、パッドデバイス112が、手及び/またはHMD106を見るために、支持体、たとえば、テーブル、椅子、台、机、などに対して角度σで置かれているシステムの一実施形態の側面図である。パッドデバイス112のカメラ710によって生成された画像データ、及び感知された信号は、媒体を介して、ゲーム機のゲームプロセッサに送信される。
一実施形態では、パッドデバイス112の後向きカメラ902は、現実世界環境、たとえば、パッドデバイス112の後ろの壁、パッドデバイス112の後ろの背景、パッドデバイス112の後ろの絵画、パッドデバイス112の後ろのライティングボード、などの画像データを取得する。後向きカメラ902は、カメラ710が配置されているパッドデバイス112の表面とは反対の、パッドデバイス112の表面902上に配置されている。後向きカメラによって取得された画像データは、パッドデバイス112上に表示する色を判断するために、パッドデバイスのプロセッサ112によって解析される。その色は、その色を、パッドデバイス112の後ろの現実世界環境の色と対比するために表示される。対比は、手がパッドデバイス112の表示画面の前、または上、または下に置かれた時に、ユーザ312によって装着されたHMDのカメラが、ユーザ312の手の位置と向きとを現実世界環境から区別することを容易にする。手が、パッドデバイス112の表示画面の前、または上、または下に置かれた時、手は、表示画面に向いている。
一実施形態では、パッドデバイス112の後ろの現実世界環境の色と対比する色を表示する代わりに、またはそれに加えて、パッドデバイス112は、パッドデバイス112の下の現実世界環境、たとえば、部屋の床、などの色、またはパッドデバイス112の上の現実世界環境、たとえば、部屋の天井、などの色、またはパッドデバイス112の前の現実世界環境の色、またはこれらの2つ以上の組み合わせ、と対比する色を表示する。
一実施形態では、現実世界環境の色と対比する色を表示する代わりに、またはそれに加えて、パッドデバイス112は、現実世界環境の陰影と対比する陰影を表示し、または現実世界環境の質感と対比する質感を表示し、または現実世界環境のパターンと対比するパターンを表示し、またはこれらの2つ以上の組み合わせを表示する。
図10は、パッドデバイス102に対するユーザ312の手の位置、及び/またはパッドデバイス102に対する手の1つまたは複数の指の位置、及び/またはパッドデバイス102に対するユーザ312の手の向き、及び/またはパッドデバイス102に対する手の1つまたは複数の指の向きに基づいて、HMD106の表示画面上の画像1012内に表示された仮想オブジェクト1010の一実施形態の図である。仮想オブジェクトは、フットボールのボールであり、HMD106のプロセッサによって生成される、ということに留意すべきである。仮想オブジェクトの他の例は、仮想の銃、仮想の車両、ユーザ312の仮想の手、仮想ユーザ、ユーザ312のアバター、仮想の木、仮想の静止物、仮想の兵士、仮想の爬虫類、仮想の恐竜、などを含む。
仮想オブジェクト1010の位置及び向きは、ゲームプロセッサによって、仮想世界にあるXYZ座標システムに対して判断される。たとえば、仮想オブジェクト101の位置は、XYZ座標システムのX軸に沿った、XYZ座標システムの基準点(0、0、0)からの距離と、XYZ座標システムのY軸に沿った、XYZ座標システムの基準点(0、0、0)からの距離と、XYZ座標システムのZ軸に沿った、XYZ座標システムの基準点(0、0、0)からの距離と、を含む。別の例として、仮想オブジェクト101の向きは、X軸に対して仮想オブジェクト101の軸によって形成される角度と、Y軸に対して仮想オブジェクト101の軸によって形成される角度と、Z軸に対して仮想オブジェクト101の軸によって形成される角度と、を含む。
いくつかの実施形態では、仮想オブジェクトは、テレビの表示画面上に、ゲーム機から受信した画像データに基づいて描画される。
xyz座標システムは、現実世界におけるユーザ312の身体部分の位置と向きとを測定するために使用され、XYZ座標システムは、仮想環境における仮想オブジェクトの位置と向きとを測定するために使用される、ということにさらに留意すべきである。たとえば、ユーザ312が、自身の手を、パッドデバイス102に近づくようにy方向に動かすと、仮想オブジェクト1010は、Y方向に下がる。別の例として、ユーザ312が、自身の手を、パッドデバイス102から離れるようにy方向に動かすと、仮想オブジェクト1010は、Y方向に上がる。さらに別の例として、ユーザ312が、y軸に対する角度を形成するために自身の手の向きを変えると、仮想オブジェクト101は、その向きを変えて、仮想オブジェクトの軸が、Y軸に対して同じ角度または別の比例する角度を形成するようにする。
図11は、マーカーM1、マーカーM2、及びマーカーM3が上に置かれている、パッドデバイス116の一実施形態の図である。マーカーの例は、反射テープ、発光ダイオード、発光体、赤外光発光体、再帰反射テープ、コード、記号、などを含む。マーカーは、パッドデバイス116の上面に、取り付けられ、たとえば、糊付けされ、内部に組み込まれている、などである。
マーカーは、ユーザ312の手によって、カメラ310から塞がれている。HMD105のカメラ310は、ユーザ312の手と、ユーザ312の手によって塞がれていないマーカーとの画像データを生成し、画像データを、ゲーム機106のゲームプロセッサによって使用して、パッドデバイス116に対する手の相対位置及び/またはパッドデバイス116に対する手の相対向きを判断する。一例として、カメラ310によって取得される画像データは、パッドデバイス116上のマーカーと、ユーザ312の手の指との間の距離を含む。別の例として、カメラ310によって取得される画像データは、パッドデバイス116の上面の上のマーカーを通過する軸に対する、ユーザ312の手の指の向きを含む。
一実施形態では、パッドデバイス116は、任意の数のマーカーを含む。
一実施形態では、マーカーは、パターン、たとえば、マーカーの平行な行及び垂直な列、マーカーの斜めの行及び斜めの列、ランダムパターン、湾曲パターン、楕円パターン、円形パターン、正方形パターン、多角形パターン、ジグザグパターン、などでパッドデバイス116に付けられる。
一実施形態では、マーカーは、任意の色、たとえば、緑、青、赤、などであって、ユーザの手によって塞がれているマーカーを、手によって塞がれていないマーカーから容易にする。
図12は、2つのパッドデバイス118Aと118Bとを使用するシステムの一実施形態の図である。各パッドデバイス118A及び118Bは、パッドデバイス102(図1)の一実施例である。ユーザ312は、自身の左手をパッドデバイス118Aの上に置き、自身の右手をパッドデバイス118Bの上に置く。各パッドデバイス118A及び118Bは、ユーザ312の対応する手によって乱された信号に関連するデータを、ゲーム機108のゲームプロセッサに通信する。ゲーム機108のゲームプロセッサは、対応するパッドデバイスに対する各手の位置及び/または向きを、パッドデバイス102に対して本明細書で説明したものと同様の方法で生成する。
さまざまな実施形態では、HMD105は、対応するパッドデバイス118Aとパッドデバイス118Bとに対する、ユーザ312の両手の画像データを生成する広角カメラを有する。
いくつかの実施形態では、ゲーム機108のカメラは、対応するパッドデバイス118Aとパッドデバイス118Bとに対する、ユーザ312の両手の画像データを生成する広角を有する。
図13は、ユーザ312が自身の両足をパッドデバイス120の上に置く、方法の一実施形態の図であり、パッドデバイス120は、本明細書で説明したパッドデバイス102とは異なる種類のうちの任意のものの一実施例である。パッドデバイス120は、媒体を介して、HMD104及び/またはゲーム機と通信する。パッドデバイス120の一例は、現実世界環境の床の上に置かれた、マット、たとえば、ヨガマット、滑り止め付きマット、滑り止め加工マット、粘着マット、などを含む。例示すると、ユーザ312は、HMD106に表示されるヨガポーズに従ってヨガを行うために、パッドデバイス120を使用する。
図14は、ユーザ312が、自身の右足をパッドデバイス122A上に置き、自身の左足をパッドデバイス122B上に置いている一実施形態の図である。各パッドデバイス122A及び122Bは、本明細書で説明したパッドデバイス102とは異なる種類のものうちの任意のものの一実施例である。各パッドデバイス122A及び122Bは、対応する媒体を介して、HMD104及び/またはゲーム機108と、本明細書で説明したものと同様の方法で通信する。ゲーム機108のゲームプロセッサは、パッドデバイス122Aのxyz座標システムに対するユーザ312の左足の位置及び/または向きを、ユーザ312の身体部分に対するパッドデバイス110の位置及び/または向きを判断した、本明細書で説明したものと同様の方法で判断する。同様に、ゲーム機108のゲームプロセッサは、パッドデバイス122Bのxyz座標システムに対するユーザ312の右足の位置及び/または向きを、ユーザ312の身体部分に対するパッドデバイス110の位置及び/または向きを判断した、本明細書で説明したものと同様の方法で判断する。
図15は、マーカー、たとえば、M1、M2、などの配列と、エネルギーセンサ、たとえば、S1、S2、などの配列と、エネルギーエミッタ、EE1、EE2、などの配列と、を含むパッドデバイス124の一実施形態の図である。パッドデバイス124は、パッドデバイス102(図1)の一実施例である。
マーカー、エネルギーセンサ、及び/またはエネルギーエミッタは、パッドデバイス124上であるパターンに配置されており、またはランダムに配置されている。たとえば、マーカー、エネルギーセンサ、及び/またはエネルギーエミッタは、縦に、たとえば、縦の列に並んでいる。別の例として、マーカー、エネルギーセンサ、及び/またはエネルギーエミッタは、パッドデバイス124に斜めに並んでいる。さらに別の例として、マーカー、エネルギーセンサ、及び/またはエネルギーエミッタは、パッドデバイス124上に、湾曲パターンに配置されている。別の例として、マーカー、エネルギーセンサ、及び/またはエネルギーエミッタは、パッドデバイス124上に、ジグザグパターンに配置されている。
一実施形態では、任意の数のマーカーが、パッドデバイス124上で、センサの前にある。たとえば、2つ以上のマーカーが、センサS1の前にある。
一実施形態では、任意の数のセンサが、パッドデバイス124上で、エネルギーエミッタの前にある。たとえば、2つ以上のセンサが、エネルギーエミッタEE1の前にある。
一実施形態では、任意の数のエネルギーエミッタが、パッドデバイス124上で、マーカーの前にある。たとえば、2つ以上のエネルギーエミッタが、マーカーM1の前にある。
一実施形態では、マーカーとセンサとエミッタとの順序は、図15に示したものと比較して、変更されている。たとえば、センサは、エネルギーエミッタが後に続き、エネルギーエミッタは、さらにマーカーが後に続く。別の例として、エネルギーエミッタは、マーカーが後に続き、マーカーは、さらにセンサが後に続く。
いくつかの実施形態では、パッドデバイス124は、マーカーの配列とセンサの配列とを含むが、エミッタの配列は含まない。
図16は、ユーザ312の両手を覆うある量の光または音または電磁信号を発する、細長いパッドデバイス126の一実施形態の等角図である。パッドデバイス126の一例は、マットを含み、マットは、ユーザ312によって、折り畳まれ、まっすぐ伸ばされることができる。パッドデバイス126は、パッドデバイス102(図1)の一実施例であり、ゲーム機108及び/またはHMD106に接続されている。
図17は、HMD128の一実施形態の図であり、HMD128は、HMD104の一実施例である。HMD128は、複数のエネルギーエミッタ、たとえば、EE1、EE2、などと、複数のエネルギーセンサ、たとえば、S1、S2、などと、を含む。たとえば、エネルギーエミッタ及びエネルギーセンサは、HMD128の下面に、取り付けられ、たとえば、糊付けされ、組み込まれ、はんだ付けされ、などされている。HMD128のエネルギーエミッタは、エネルギー、たとえば、電磁エネルギー、可視光、赤外光、などを、ユーザ312の手に向けて発する。ユーザ312の手によって乱されたエネルギーは、電気信号、たとえば、電磁エネルギー場の乱れを示す電気信号、光との干渉を示す電気信号、などを生成するために、HMD128のエネルギーセンサによって感知される。同様に、HMD128の他のエネルギーセンサは、他の電気信号を生成する。電気信号は、デジタル形式に変換され、HMD128のセンサから、HMD128の通信デバイスとゲーム機108の通信デバイスとを介して、ゲーム機108のゲームプロセッサに通信される。デジタル信号から、ゲーム機108のゲームプロセッサは、HMD128のxyz座標システムに対する、手の相対位置及び/または相対向きを判断する。
さまざまな実施形態では、HMD128のエミッタによって発せられたエネルギーは、パッドデバイス102のxyz座標システムに対するユーザ312の手の位置と向きとを判断するために、パッドデバイス102のセンサによって感知される。
HMD128のエネルギーエミッタとエネルギーセンサとを使用してユーザ312の身体部分の位置と向きとを判断する一実施形態では、xyz座標システムの基準点は、HMD128上の一点、たとえば、エネルギーエミッタの位置、エネルギーセンサの位置、などに配置されている、ということに留意すべきである。
図18は、そこよりも内側でユーザ312の手の動きが検出される、空間の境界1802がある、ということを例示するための図である。たとえば、手が境界1802の内部にある、たとえば、境界1802の下にある、などの時、パッドデバイス102のセンサは、手から反射した光または音を感知する。一方で、手が境界1802の外にある、たとえば、境界1802の上にある、などの時、パッドデバイス102のセンサが、手から反射した光または音を感知することは困難である。
一実施形態では、境界1802は、パッドデバイス102の向きに基づいて定められる。たとえば、パッドデバイス102が直立して置かれている時、境界1802は、パッドデバイス102の上面に対して、垂直、または実質的に垂直、または平行、または実質的に平行であり、パッドデバイス102の長さと幅とに沿って伸びる。たとえば、表面503(図5)は、パッドデバイス110(図5)の上面である。ユーザ312の手は、手がパッドデバイス102の上面と境界1802との間にある時、境界1802内にある。手は、手がパッドデバイス102の上面と境界1802との間にない時、境界の外にある。
一実施形態では、手がパッドデバイス102からの境界1802内にある時、手は、パッドデバイス102の近くに置かれている。たとえば、手がパッドデバイス102から、0.5インチから12インチ内に置かれている時、手は、パッドデバイス102の近くに置かれている。別の例として、手がパッドデバイス102から、0.25インチから18インチ内に置かれている時、手は、パッドデバイス102の近くに置かれている。さらに別の例として、手が、パッドデバイス102のエネルギーエミッタから発せられるエネルギーの空間V内に置かれている時、手は、パッドデバイス102の近くに置かれている。
図19は、ユーザ312によって行われたしぐさに基づいた、仮想オブジェクト1910、たとえば、仮想のキーボード、などの生成を例示するために使用される図である。ユーザ312は、自身の指で、パッドデバイス126を軽く叩く。パッドデバイス126は、パッドデバイス102に対して本明細書で説明した方法で、ゲーム機106のゲームプロセッサと通信する。ゲーム機106のゲームプロセッサは、仮想オブジェクトデータを生成し、仮想オブジェクトデータをHMD104に提供し、HMD104は、仮想オブジェクト1910を、HMD104の表示画面に表示する。仮想のキーボードは、パッドデバイス126を表している、ということに留意すべきである。たとえば、仮想のキーボードは、パッドデバイス126の形に類似の形を有している。ゲーム機106のゲームプロセッサは、パッドデバイス126の形に類似の形を有する仮想オブジェクト1910を表示するようにプログラムされている。
さまざまな実施形態では、軽く叩くことの代わりに、他のしぐさ、たとえば、ダブルタップ、フリック、ウェービング、スライド、などを使用して、仮想オブジェクトを生成する。
いくつかの実施形態では、複数のしぐさを使用して、仮想オブジェクトを生成する。
しぐさによって生成される仮想オブジェクトの他の例は、仮想のマウス、仮想の電話、仮想のペン、などを含む。
図20Aは、パッドデバイス130の一実施形態のブロック図であり、パッドデバイス130は、パッドデバイス102(図1)の一実施例である。パッドデバイス130は、1つまたは複数のエネルギーエミッタと、1つまたは複数のエネルギーセンサと、カメラと、通信デバイスとを含む。通信デバイスの例は、別の通信デバイスと通信するために、Wi−Fi通信プロトコルを使用する通信デバイス、またはイーサネット通信プロトコルを使用する通信デバイス、またはユニバーサルシリアルバス(USB)通信プロトコルを使用する通信デバイス、またはシリアル通信プロトコルまたはパラレル通信プロトコルを使用する通信デバイス、またはBluetooth通信プロトコルを使用する通信デバイスを含む。カメラの例は、画像を後で再生または処理するために、メモリデバイス内に格納するための画像、または別の場所に転送するための画像、を取得する光学機器を含む。例示すると、カメラは、デジタルカメラ、デプスカメラ、電荷結合素子(CCD)カメラ、相補型金属酸化膜半導体(CMOS)カメラ、などである。
パッドデバイス130のセンサは、ユーザ312の身体部分によって乱されたエネルギーを受信すると、電気信号を生成する。電気信号は、全体で、エネルギー画像を、パッドデバイス130の表面の上に形成する。エネルギー画像は、パッドデバイス130のセンサによって感知されるための、ユーザ312の身体部分の位置及び/または向きによって乱されたエネルギーの強度を含む。エネルギー画像は、ユーザ312の手の現在の位置と向きとを映し出す。たとえば、エネルギー画像は、手がパッドデバイス310の上面の上に置かれた時の、ユーザ312の手の位置と向きとの正反射である。
電気信号は、センサからパッドデバイス130の通信デバイスに送信される。パッドデバイス130の通信デバイスは、通信プロトコル、たとえば、無線通信プロトコル、有線通信プロトコル、などを、電気信号に適用して、電気信号を、ゲーム機108の通信デバイスに送信する。
一実施形態では、パッドデバイス130の通信デバイスは、電気信号が、アナログデジタル変換器(ADC)によって、アナログ形式からデジタル形式に変換されて、デジタル信号をさらに生成した後、電気信号を、パッドデバイス130のセンサから受信する。ADCは、パッドデバイス130のセンサとパッドデバイス130の通信デバイスとの間に接続されている。パッドデバイス130の通信デバイスは、無線通信プロトコルを、ADCから受信したデジタル信号に適用して無線信号を生成し、無線信号を、ゲーム機108の通信デバイスに送信する。たとえば、パッドデバイス130の通信デバイスは、それぞれがヘッダとペイロードとを含むパケットを生成し、パケットを、ゲーム機108の通信デバイスに送信する。
いくつかの実施形態では、パッドデバイス130は、カメラ及び/またはエミッタを排除している。
一実施形態では、手によって乱されたエネルギーは、エネルギーがパッドデバイス130のエネルギーエミッタによって常に、たとえば、継続的に発せられている時に、エネルギー画像のストリーム、たとえば、手による電磁エネルギーの乱れを示す電気信号、手による赤外光との干渉と手による赤外光の反射とを示す電気信号、手による可視光との干渉と手による可視光の反射とを示す電気信号、エネルギー画像フレーム、などをフレームレートで生成するために、継続的に、たとえば、感知周波数、などで、パッドデバイス130のセンサによって感知される。たとえば、手によってある位置と向きとにおいて乱されたエネルギーは、パッドデバイス130のセンサによって、感知周波数で感知され、センサは、エネルギー画像フレームを、感知周波数と同じであるフレームレートで生成する。各エネルギー画像フレームは、手によって乱されたエネルギーの強度を含む。エネルギーが感知されている期間中に生成されたエネルギー画像フレームは、エネルギー画像ストリームを提供し、エネルギー画像ストリームは、ユーザ312の手の位置と向きとの変化をさらに提供する。たとえば、第1のエネルギー画像フレームは、ユーザ312の手の第1の位置と向きとを含み、第2のエネルギー画像フレームは、ユーザ312の手の第2の位置と向きとを含む。第2の位置及び向きは、第1の位置と向きよりも後である。
一実施形態では、センサは、ある周波数でオン・オフされて、センサが感知周波数で感知することを可能にする。たとえば、プロセッサは、電源をセンサに接続するスイッチを制御する。プロセッサは、スイッチを、ある周波数でオン・オフするように制御する。スイッチが、スイッチを閉じるようにオンにされると、電源にスイッチを介して接続されたセンサは、エネルギーを感知する。スイッチが、スイッチを開くようにオフにされると、センサは、電源から切り離され、エネルギーの感知を無効にする。
図20Bは、ユーザ312の身体部分の位置及び/または向きの変化に伴う、HMD106の表示画面2012に表示される画像の仮想オブジェクトの位置及び/または向きの変化を例示する、システム2010の一実施形態のブロック図である。表示画面2012の例を上記に提供した。デジタル信号は、有線信号または無線信号を生成するために、パッドデバイス130の通信デバイスによって受信される。デジタル信号を組み込んだ有線信号または無線信号は、パッドデバイス130の通信デバイスから送信され、ゲーム機108の通信デバイス2022によって受信される。通信デバイス2022は、有線通信プロトコルを有線信号に適用して有線信号を解析し、または無線通信プロトコルをパッドデバイス130の通信デバイスから受信した無線信号に適用して無線信号を解析して、パッドデバイス130のADCによって生成されたデジタル信号をさらに抽出する。
ゲーム機108のゲームプロセッサ2020は、デジタル信号を通信デバイス2022から受信し、現実世界環境におけるユーザ312の身体部分の位置と向きとを判断する。たとえば、ゲームプロセッサ2020は、デジタル信号を受信し、基準点、たとえば、ユーザ312を囲む現実世界環境におけるxyz基準座標システムの座標(0、0、0)、などに対する、ユーザ312の手の指の、またはユーザ312の手の、またはユーザ312の足の、またはユーザ312の足の指の、位置と向きとを判断する。別の例として、ゲームプロセッサ2020は、センサによって生成された電気信号から生成されたデジタル信号の強度を受信し、ユーザ312の身体部分のy軸に沿った位置を特定する。ゲームプロセッサ2020は、y軸に沿った位置を、強度と位置との間の対応、たとえば、マップ、リンク、などから特定する。対応は、ゲーム機108のゲームメモリデバイス2024内に格納されている。強度は、パッドデバイスのセンサによって測定され、電気信号内で受信される。さらに別の例として、パッドデバイスの各センサのxy位置とセンサの識別との間の対応、たとえば、マップ、リンク、などは、ゲームメモリデバイス2024内に格納されている。ゲームプロセッサ2020は、センサによって生成された電気信号から生成されたデジタル信号を受信する。デジタル信号は、センサの識別を含む。識別は、パッドデバイス130の通信デバイスのプロセッサによって付けられる。通信デバイスの各ピンは、異なるセンサ、たとえば、固有の識別、などを有するセンサに連結されている。センサによって生成された電気信号から生成されたデジタル信号を受信すると、ゲームプロセッサ2020は、デジタル信号を解析して、センサの識別を判断し、ゲームメモリデバイス2024から、センサのxy位置を特定する。xy位置は、ユーザ312の身体部分のそれと同じである。別の例として、身体部分の2つ以上の指の複数の位置と身体部分の向きとの間の対応は、ゲームメモリデバイス2024内に格納されている。身体部分の2つ以上の指の位置を判断すると、ゲームプロセッサ2020は、2つ以上の指の複数の位置と身体部分の向きとの間の対応を使用して、ユーザ312の身体部分の向きを特定する。別の例として、ゲームプロセッサ2020は、xyz座標システムの基準点からのユーザ312の指の第1の指関節の位置と、基準点からの指の第2の指関節の位置と、を判断する。第1の指関節と第2の指関節との位置は、ゲームプロセッサ2020によって、指関節によって乱されたエネルギー信号の強度から特定される。ゲームプロセッサ2020は、xyz座標システムの基準点からの指の位置を、第1の指関節の位置と第2の指関節の位置とを接続する線の位置として判断する。
ゲームプロセッサ2020は、ユーザ312の身体部分の位置と向きとを使用して、仮想環境における仮想オブジェクトの位置と向きとを特定する。仮想オブジェクトの位置及び向きは、身体部分の位置と仮想オブジェクトの位置との間の対応、たとえば、関連性、リンク、などと、身体部分の向きと仮想オブジェクトの向きとの間の対応と、から特定される。身体部分の位置と仮想オブジェクトの位置との間の対応、及び身体部分の向きと仮想オブジェクトの向きとの間の対応は、ゲーム機108のゲームメモリデバイス2024内に格納されている。
ユーザ312の身体部分の位置と仮想環境における仮想オブジェクトの位置との間の対応の例は、現実世界環境におけるx軸に沿った身体部分の距離と、仮想環境におけるX軸に沿った仮想オブジェクトの距離との間の比例と、現実世界におけるy軸に沿った身体部分の距離と、仮想環境におけるY軸に沿った仮想オブジェクトの距離との間の比例と、現実世界におけるz軸に沿った身体部分の距離と、仮想環境におけるZ軸に沿った仮想オブジェクトの距離との間の比例と、を含む。
さらに、ユーザ312の身体部分の向きと仮想環境における仮想オブジェクトの向きとの間の対応の例は、現実世界環境におけるx軸に対する身体部分の軸の角度と、仮想環境におけるX軸に対する仮想オブジェクトの軸の角度との間の比例と、現実世界環境におけるy軸に対する身体部分の軸の角度と、仮想環境におけるX軸に対する仮想オブジェクトの軸の角度との間の比例と、現実世界環境におけるz軸に対する身体部分の軸の角度と、仮想環境におけるZ軸に対する仮想オブジェクトの軸の角度との間の比例と、を含む。
仮想オブジェクトの位置及び向きは、ゲームプロセッサ202によって、通信デバイス2022に提供される。通信デバイス2022は、有線プロトコルまたは無線プロトコルを適用して、画像、たとえば、仮想世界環境、などの中の仮想オブジェクトの位置と向きとを、HMD106の通信デバイス2026に通信する。通信デバイス2026は、有線プロトコルまたは無線プロトコルを適用して、仮想オブジェクトの位置と向きとを、通信デバイス2022によって通信された信号から取得し、位置と向きとを、HMD106のプロセッサ2028に提供する。プロセッサ2028は、通信デバイス2026から受信した位置と向きとを有する仮想オブジェクトを、HMD106の表示画面2012に描画する。
一実施形態では、仮想オブジェクトは、仮想環境内に境界を有するオブジェクトであり、境界は、線、曲線、またはこれらの組み合わせによって特定される。
一実施形態では、仮想オブジェクトは、オブジェクトモデルによって定められる。たとえば、仮想オブジェクトは、色、または質感、または陰影、または境界、またはパターン、またはそれらの2つ以上の組み合わせ、を有する。別の例として、仮想オブジェクトは、仮想の重力を有し、たとえば、仮想オブジェクトは、仮想環境内では浮かず、仮想オブジェクトは、テーブル、などの上に乗っている。さらに別の例として、仮想オブジェクトは、仮想環境内で、所定の動きを有し、及び/または所定の動作を実行する。例示すると、仮想の人物は、仮想の部屋の仮想の壁を通り抜けられない。別の例示として、仮想オブジェクトは、空気中に浮くことはできず、仮想の水の上に浮くことはできる。さらに別の例示として、仮想の遊泳者は、仮想の水に浮くことができ、または仮想の水の中に潜ることができる。別の例として、仮想環境内の仮想オブジェクトの動きは、仮想環境内の別の仮想オブジェクトの境界によって定められる。例示すると、ユーザのアバターは、仮想の部屋の壁を通り抜けられない。別の例示として、ユーザのアバターは、別のユーザの別のアバターを通り抜けることはできない。
一実施形態では、仮想オブジェクトは、仮想環境、たとえば、仮想オブジェクトを囲む仮想の背景を含む画像の一部である、漫画の人物である。仮想オブジェクトを囲む仮想の背景は、一実施形態では、他の仮想オブジェクト、仮想のシーン、などを含む。
仮想環境の例は、ゲームシーン、仮想現実シーン、拡張現実シーン、コンピュータネットワークを介してアクセスされるデータから生成された環境、ユーザ312の代理、たとえば、アバター、などが別のユーザの代理と通信している仮想のシーン、仮想ツアー環境、などを含む。
一実施形態では、仮想現実シーンは、プロセッサを使用して生成された、シミュレーションされた環境である。仮想現実シーンは、現実世界環境または想像上の場所におけるユーザ312の存在をシミュレーションする。一実施形態では、仮想現実シーンは、ユーザ312が、あたかも自身が本当にそのシーンの中にいるかのように感じるように、生成される。
一実施形態では、拡張現実シーンは、コンピュータで生成された感覚入力、たとえば、音、ビデオ、グラフィックス、などを用いて拡張された、現実世界環境の表現を含む。たとえば、拡張現実シーンを生成するために、カメラは、ユーザ312の手の画像を取得し、プロセッサは、仮想オブジェクトを手の上に表示する。現実世界環境では、そのような仮想オブジェクトは、ユーザ312の手の上にはない。
メモリデバイスの例は、ハードドライブ、ネットワーク接続ストレージ(NAS)、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、コンパクトディスク−ROM(CD−ROM)、記録可能CD(CD−R)、書き換え可能CD(CD−RW)、磁気テープ、他の光学データストレージデバイスまたは非光学データストレージデバイス、を含む。
本明細書で使用した通り、プロセッサは、特定用途向け集積回路(ASIC)、またはプログラム可能論理デバイス(PLD)、または中央処理装置(CPU)、またはコントローラ、またはマイクロプロセッサ、などである、ということに留意すべきである。
一実施形態では、パッドデバイス130は、任意の数のセンサ、及び/または任意の数のカメラ、及び/または任意の数のエネルギーエミッタを含む。
一実施形態では、信号をパッドデバイス130の通信デバイスからゲーム機108の通信デバイス2022に通信する代わりに、信号は、パッドデバイス130の通信デバイスから通信デバイス2026に通信される。通信デバイス2026は、通信デバイス2022によってゲーム機108上で実行される動作に類似の動作を実行して、デジタル信号を取得する。デジタル信号は、仮想環境データを生成するために、プロセッサ2028に提供される。仮想環境データは、仮想環境を表示画面2012に表示するために、プロセッサ2028によって描画される。
一実施形態では、HMD106は、任意の数の表示画面を含む。
一実施形態では、仮想オブジェクトの位置及び向きは、ゲーム状態を変える。たとえば、ゲームプロセッサ2020は、仮想オブジェクトの位置及び向きが、仮想環境の背景を緑から青に変えること、または別の仮想オブジェクトの位置と向きとを変えること、またはゲームプレイ中にユーザ312に提供されるように配分された仮想の報酬の追加という結果になること、などを判断する。変更されたゲーム状態、たとえば、変更された仮想環境、変更された仮想オブジェクト、変更された数の仮想の報酬、などに関するデータは、ゲームプロセッサ2020によって、通信デバイス2022と通信デバイス2026とを介して、HMD106のプロセッサ2028に提供される。変更されたゲーム状態に関するデータ、たとえば、色、質感、向き、位置、陰影、などは、プロセッサ2028によって、変更された仮想環境の表示を生成するために、表示画面2012上に描画される。
一実施形態では、ゲームプロセッサ2020は、画像内の、1つまたは複数の仮想オブジェクトと1つまたは複数の仮想の背景との状態に関するデータ、たとえば、色、質感、位置、向き、境界、形、これらの2つ以上の組み合わせ、などを生成する。一実施形態では、仮想オブジェクトの境界は、仮想オブジェクトの形を形成する画像データの画素の輪郭である。状態に関するデータは、ユーザ312の身体部分の位置と向きとに基づいて生成される。状態に関するデータは、ゲームプロセッサ2020から、通信デバイス2022と通信デバイス2026とを介して、HMD106のプロセッサ2028に通信される。状態に関するデータは、通信デバイス2022と通信デバイス2026との間で、有線通信プロトコルまたは無線通信プロトコルを使用して通信される、ということに留意すべきである。プロセッサ2028は、仮想環境をHMD106の表示画面2012に表示するために、状態に関するデータを描画する。
一実施形態では、身体部分の位置は、身体部分によって乱された、パッドデバイス130のセンサに向かうエネルギー信号に基づいて判断される。たとえば、ゲームプロセッサ2020は、センサによって生成された電気信号から生成されたデジタル信号を受信する。デジタル信号は、ゲームプロセッサ2020によって、電気信号の強度、たとえば、振幅、などが、xyz座標システムの基準点からの距離d1、たとえば、座標(x、y、z)に関連付けられている、ということをゲームメモリデバイス2024から特定するために、使用される。たとえば、電気信号の強度は、xyz座標システムの基準点からの指関節の距離が増加すると、減少する。電気信号は、指関節が空間と関わると、センサによって生成される。電気信号の強度と指関節の距離との間の関連性は、ゲームメモリデバイス2024内に格納されている。
一実施形態では、身体部分の所定の形、たとえば、所定の長さ、所定の幅、所定の厚さ、などは、空間と関わる身体部分の特定を容易にするために、ゲームメモリデバイス2024内に格納されている、ということに留意すべきである。たとえば、所定の長さの列内のセンサ及び所定の幅の行内のセンサが電気信号を生成すると、ゲームプロセッサ2020は、電気信号が指によって乱されたエネルギーから生成されたと判断する。一実施形態では、行は、縦の行、横の行、または斜めの行であり、列は、行に垂直である、ということに留意すべきである。別の例として、パッドデバイス130の上面、たとえば、表面503(図5)、などの実質的に正方形の部分内のセンサが電気信号を生成すると、ゲームプロセッサ202は、電気信号が、手のひらによって乱されたエネルギーから生成されたと判断する。さらに別の例として、パッドデバイス130の上面、たとえば、表面503(図5)、などの実質的に長方形または楕円形の部分内のセンサが電気信号を生成すると、ゲームプロセッサ202は、電気信号が、ユーザ312の足によって乱されたエネルギーから生成されたと判断する。
さらに、一実施形態では、他の身体部分に対する身体部分の位置、及び他の身体部分の所定の長さに対する身体の所定の長さは、空間と関わる身体部分の特定を容易にするために、ゲームメモリデバイス2024内に格納されている。たとえば、パッドデバイス130の上面を映す視点から、電気信号を生成するセンサの行が、電気信号を生成するセンサの全ての他の行の所定の長さのよりも短い所定の長さを有し、その行が他の行の左側に位置していると判断すると、ゲームプロセッサ2020は、ユーザ312が自身の右手を使用していると判断する。別の例として、パッドデバイス130の上面を映す視点から、電気信号を生成するセンサの行が、電気信号を生成するセンサの全ての他の行の所定の長さのよりも短い所定の長さを有し、その行が他の行の右側に位置していると判断すると、ゲームプロセッサ2020は、ユーザ312が自身の左手を使用していると判断する。
一実施形態では、いったんゲームプロセッサ2020が、ユーザ312が自身の左側の身体部分、たとえば、左手、左足、などを使用しているかどうか、または右側の身体部分、たとえば、右手、右足、などを使用しているかどうかを判断すると、ゲームプロセッサ2020は、身体部分の指を、身体部分の他の指の所定の位置と、身体部分の所定の長さとから特定する。たとえば、ユーザ312が左手を使用していると判断すると、ゲームプロセッサ2020は、電気信号が、左手の薬指または人差し指によって乱されたエネルギーから生成されたと、電気信号を生成する所定の長さの2つの行のセンサに基づいて、判断する。人差し指と薬指の両方は、同じまたは実質的に同じ所定の長さを有する。さらに、本実施例では、パッドデバイス130の上面を映す視点から、電気信号が、最も長い所定の長さを有する行のセンサの左側にある行のセンサから生成されたと判断すると、ゲームプロセッサ2020は、電気信号が、ユーザ312の左手の薬指によって乱されたエネルギーから生成されたと判断する。
一実施形態では、ユーザ312の身体部分の向きは、ゲームプロセッサ2020によって、ユーザ312の別の身体部分の位置から判断される。たとえば、パッドデバイス130の上面を映す視点から、電気信号を生成するパッドデバイスのセンサが実質的に正方形を形成し、人差し指が左手の親指の左側に位置していると判断すると、ゲームプロセッサ2020は、ユーザ312の左手の親指の腹側が、パッドデバイス130の上面に向いていると判断する。別の例として、パッドデバイス130の上面を映す視点から、電気信号を生成するパッドデバイスのセンサが実質的に正方形を形成し、人差し指が左手の親指の右側に位置していると判断すると、ゲームプロセッサ2020は、ユーザ312の左手の親指の背面が、パッドデバイス130の上面に向いていると判断する。
一実施形態では、ユーザ312の身体部分の位置と向きとをゲーム機108のゲームプロセッサ2020によって使用して、仮想オブジェクトの状態、たとえば、色、質感、形、陰影、位置、向き、視覚効果、音響効果、これらの2つ以上の組み合わせ、などに関するデータを特定する。たとえば、身体部分が現実世界環境内のある位置にあると判断すると、ゲームプロセッサ2020は、ゲームメモリデバイス2024から、身体部分に対応する仮想オブジェクトが、緑の代わりに青色を有し、画像内のXYZ座標システムに対するある位置を有している、と特定する。別の例として、身体部分が現実世界環境内のある向きにあると判断すると、ゲームプロセッサ2020は、ゲームメモリデバイス2024から、身体部分に対応する仮想オブジェクトが、火と共にアニメ化され、画像内である向きを有している、と特定する。さらに別の例として、身体部分が現実世界環境内のある位置とある向きとにあると判断すると、ゲームプロセッサ2020は、ゲームメモリデバイス2024から、身体部分に対応する仮想オブジェクトが、波のような質感と薄い陰影とを有して表示され、音が、仮想オブジェクトの表示と共に生成される、と特定する。仮想オブジェクトの状態に関するデータは、有線信号または無線信号の形式で、通信デバイス2022から、HMD106の通信デバイス2026に送信される。
本実施形態では、通信デバイス2026は、状態に関連するデータを、本明細書で説明する方法で、有線信号または無線信号から抽出し、データを、オーディオ/ビデオ(A/V)セパレータ、たとえば、オーディオエクストラクタ、などに提供する。オーディオデータと画像データの両方が状態に関連するデータ内に含まれており、A/Vセパレータは、オーディオデータを画像データから分離し、画像データをプロセッサ2028に送信し、オーディオデータを、図20Bでは「SYNC」と例示されている同期装置に送信する。同期装置は、音の再生を、仮想オブジェクトの表示の再生に同期する。たとえば、同期装置は、音を、仮想オブジェクトが、ある位置及び/または向きで表示される時、及び/またはある色を有している時、及び/またはある形を有している時、及び/またはある質感を有している時、と同時に再生する。同期装置は、同期オーディオデータを、オーディオデータをデジタル形式からアナログ形式に変換するデジタル・アナログ変換器(DAC)に送信する。アナログオーディオデータは、増幅器(A)によって増幅される。増幅されたアナログオーディオデータは、音に、1つまたは複数のスピーカ(S)によって変換される。
一実施形態では、仮想環境で表示するための身体部分の位置、仮想環境で表示するための身体部分の向き、仮想環境で表示するための身体部分の色、仮想環境で表示するための身体部分の形、仮想環境で表示するための身体部分の質感、及び仮想環境で表示するための身体部分の陰影は、身体部分のモデルデータの例である。身体部分がxyz座標システムに対して移動するにつれて、モデルデータは変化する。たとえば、手がxyz座標システムの原点からの位置(x1、y1、z1)にある時、手の位置は、XYZ座標システムの原点からの位置(X1、Y1、Z1)にあり、手がxyz座標システムの原点からの位置(x2、y2、z2)にある時、手の位置は、XYZ座標システムの原点からの位置(X2、Y2、Z2)にある。別の例として、手が、x軸に対する第1の角度と、y軸に対する第2の角度と、z軸に対する第3の角度と、の向きにある時、仮想環境における手の画像は、X軸に対する第1の角度と、Y軸に対する第2の角度と、Z軸に対する第3の角度と、にある。
一実施形態では、身体部分の複数の位置は、身体部分の動きを提供し、仮想環境における身体部分の対応する複数の位置は、仮想環境における身体部分の動きを提供する。たとえば身体部分が、現実世界環境で、位置(x1、y1、z1)から位置(x2、y2、z2)に移動すると、身体部分の画像、たとえば、モデル、などは、仮想環境で、対応する位置(X1、Y1、Z1)から対応する位置(X2、Y2、Z2)に移動する。
一実施形態では、身体部分の複数の向きは、身体部分の動きを提供し、仮想環境における身体部分の対応する複数の向きは、仮想環境における身体部分の動きを提供する。たとえば、身体部分が、現実世界環境で、向き(A1、A2、A3)から向き(A4、A5、A6)に移動すると、身体部分の画像は、仮想環境で、対応する位置(A7、A8、A9)から対応する位置(A10、A11、A12)に移動する。A1とA4との各々は、x軸に対して形成される角度であり、A2とA5との各々は、y軸に対して形成される角度であり、A3とA6との各々は、z軸に対して形成される角度である。さらに、A7とA10との各々は、X軸に対して形成される角度であり、A8とA11との各々は、Y軸に対して形成される角度であり、A9とA12との各々は、Z軸に対して形成される角度である。
一実施形態では、身体部分の画像は、HMDのプロセッサによって、HMDの表示画面に表示される仮想環境内に部分的に描画される。たとえば、ユーザが、自身の手を動かしてパッドデバイスの上の空間に入ると、空間内の手の一部の画像が、HMDの表示画面に表示される。手が空間の外にある時、その一部の画像も、また、仮想環境の外に移動する。
図21は、HMD2100の等角図であり、HMD2100は、HMD106の一実施例である。HMD2100は、ユーザ312が装着した時に、ユーザ312の頭部の後ろにいく、ベルト2102とベルト2104とを含む。さらに、HMD2100は、コンピュータプログラム、たとえば、ゲームプログラム、仮想環境生成プログラム、などの実行によって再生される、仮想環境、たとえば、ゲーム環境、仮想ツアー環境、などに関連付けられた音を発する、イヤホン2106A及びイヤホン2106B、たとえば、スピーカ、などを含む。HMD2100は、ユーザ312がHMD2100の表示画面に表示される仮想環境を見ることを可能にする、レンズ2108Aとレンズ2108Bとを含む。溝2180は、ユーザ312の鼻の上に乗り、HMD2100を鼻の上で支える。
いくつかの実施形態では、HMD2100は、ユーザ312によって、ユーザ312がサングラス、眼鏡、または読書用眼鏡をかける方法と同様の方法で、かけられる。
図22は、本開示で説明する実施形態による、ビデオゲームのインタラクティブゲームプレイのためのシステムを例示している。ユーザ312は、HMD106を装着して示されている。HMD106は、眼鏡、ゴーグル、またはヘルメットと同様の方法で装着され、ビデオゲームまたは他のコンテンツをユーザ312に表示するように構成されている。HMD106は、ユーザの目のごく近くの表示機構(たとえば、光学画面及び表示画面)と、HMD106に配信されるコンテンツの形式と、を提供することで、夢中になれる体験をユーザに提供する。一例では、HMD106は、ユーザ312の視野の大部分または全体さえも占める表示領域を、ユーザの目の各々に対して提供する。別の例として、ユーザは、あたかも自身がHMD106に表示される仮想環境の中にいるように、たとえば、その一部であるように、などと感じる。
一実施形態では、HMD106は、コンピュータ2202に接続されている。コンピュータ2202への接続は、有線または無線であってよい。コンピュータ2202は、一実施形態では、任意の汎用コンピュータまたは専用コンピュータであり、ゲーム機、パーソナルコンピュータ、ノートパソコン、タブレット、モバイルデバイス、スマートフォン、タブレット、シンクライアント、セットトップボックス、メディアストリーミングデバイス、スマートテレビ、などを含むが、これらに限定されない。いくつかの実施形態では、HMD106は、インターネットに直接接続することができ、これは、別のローカルコンピュータの必要なしに、クラウドゲームを可能にすることができる。一実施形態では、コンピュータ2202は、ビデオゲーム(と他のデジタルコンテンツと)を実行し、ビデオゲームからのビデオとオーディオとを、HMD106による描画のために出力するように構成されている。コンピュータ2202は、また、時折、本明細書では、クライアントシステムと呼ばれ、クライアントシステムは、一実施例では、ビデオゲーム機である。
コンピュータ2202は、いくつかの実施形態では、ローカルコンピュータまたはリモートコンピュータであって、コンピュータは、エミュレーションソフトウェアを実行する。クラウドゲーム実施形態では、コンピュータ2202は、リモートであり、データセンタ内で仮想化され得る複数のコンピューティングサービスによって表され得、そこでは、ゲームシステム/論理は、仮想化され、ユーザ312にコンピュータネットワークを介して配信される。
ユーザ312は、ハンドヘルドコントローラ2206を操作して、仮想環境のための入力を提供する。一実施例では、カメラ2204は、ユーザ312がいる現実世界環境の画像を取得するように構成されている。これらの取得された画像は、ユーザ312とHMD106とコントローラ2206との位置と動きとを判断するために解析される。一実施形態では、コントローラ2206は、その位置と向きとを判断するために追跡される光(または複数の光)を含む。加えて、以下でより詳細に説明する通り、一実施形態では、HMD106は、HMD106の位置と向きとを、仮想環境の表示中に実質的にリアルタイムに判断するためのマーカーとして追跡される、1つまたは複数の光を含む。
カメラ2204は、一実施形態では、音を現実世界環境から取得する、1つまたは複数のマイクを含む。マイクの配列によって取得された音は、音源の位置を特定するために処理される。特定された位置からの音は、特定された位置からではない他の音を排除するために、選択的に活用または処理される。さらに、一実施形態では、カメラ2204は、複数の画像取得デバイス(たとえば、立体写真カメラ)と、IRカメラと、デプスカメラと、これらの組み合わせと、を含むように構成されている。
いくつかの実施形態では、コンピュータ2202は、ゲームを、コンピュータ2202の処理ハードウェア上でローカルに実行する。ゲームまたはコンテンツは、物理媒体の形式(たとえば、デジタルディスク、テープ、カード、サムドライブ、半導体チップまたはカード、など)またはコンピュータネットワーク2210、たとえば、インターネット、イントラネット、ローカルエリアネットワーク、広域ネットワーク、などからのダウンロードという手段などの、任意の形式で取得される。一実施形態では、コンピュータ2202は、コンピュータネットワーク2210を介してクラウドゲームプロバイダ2212と通信している、クライアントとして機能する。クラウドゲームプロバイダ2212は、ユーザ312によって行われているビデオゲームを維持し、実行する。コンピュータ2202は、HMD106とコントローラ2206とカメラ2204とからの入力を、クラウドゲームプロバイダ2212に送信し、クラウドゲームプロバイダ2212は、実行されているビデオゲームのゲーム状態に影響を与えるために、入力を処理する。ビデオデータ、オーディオデータ、及び触覚フィードバックデータなどの実行しているビデオゲームからの出力は、コンピュータ2202に送信される。コンピュータ2202は、さらに、データを関連デバイスへの送信の前に処理し、またはデータを関連デバイスに直接送信する。たとえば、ビデオストリーム及びオーディオストリームは、HMD106に提供され、一方で、振動フィードバックコマンドは、コントローラ2206に提供される。
一実施形態では、HMD106、コントローラ2206、及びカメラ2204は、コンピュータネットワーク2210に接続してクラウドゲームプロバイダ2212と通信する、ネットワークデバイスである。たとえば、コンピュータ2202は、ビデオゲーム処理を実行しないがネットワークトラフィックの通過を容易にする、ルータなどのローカルネットワークデバイスであってよい。HMD106とコントローラ2206とカメラ2204とによるコンピュータネットワーク2210への接続は、有線または無線である。いくつかの実施形態では、HMD106上で実行されるコンテンツ、または表示デバイス2214上に表示可能なコンテンツは、コンテンツソース2216のうちの任意のものから取得される。例示的なコンテンツソースは、たとえば、ダウンロード可能なコンテンツ及び/またはストリーミングコンテンツを提供する、インターネットのウェブサイトを含むことができる。いくつかの実施例では、コンテンツは、映画、ゲーム、静的/動的コンテンツ、写真、ソーシャルメディアコンテンツ、ソーシャルメディアウェブサイト、仮想ツアーコンテンツ、漫画コンテンツ、などの、任意の種類のマルチメディアコンテンツを含むことができる。
一実施形態では、ユーザ312は、ゲームをHMD106で行っており、そのようなコンテンツは、没入型3Dインタラクティブコンテンツである。HMD106上のコンテンツは、プレーヤが遊んでいる間は、表示デバイス2214に共有される。一実施形態では、表示デバイス2214に共有されたコンテンツは、ユーザ312の近くまたはリモートの他のユーザが、ユーザ312のゲームプレイを共に見ることを可能にする。さらなる実施形態では、ユーザ312のゲームプレイを表示デバイス2214で見ている別のプレーヤは、ユーザ312と、インタラクティブに参加する。たとえば、ゲームプレイを表示デバイス2214で見ているユーザは、ゲームシーン内の人物を制御し、フィードバックを提供し、社会的交流を提供し、及び/またはHMD106を装着していないユーザが、ユーザ312と社会的に交流することを可能にするコメントを、(テキストを介して、声を介して、動作を介して、しぐさを介して、など)提供する。
図23は、本開示で説明する実施形態による、頭部装着型ディスプレイ(HMD)2300を例示している。HMD2300は、HMD105の一実施例である。示す通り、HMD2300は、複数の光2302A〜Hと、光2302Jと、光2302Kとを含む(たとえば、2302K及び2302Jは、HMDのヘッドバンドの後部または後側に向かって配置されている)。これらの光の各々は、具体的な形及び/または位置を有するように構成されており、同じ色または異なる色を有するように構成されている。光2302A、光2302B、光2302C、及び光2302Dは、HMD2300の前面に配置されている。光2302E及び光2302Fは、HMD2300の側面に配置されている。そして、光2302G及び光2302Hは、HMD2300の前面と側面とに及ぶように、HMD2300の角に配置されている。光は、ユーザがHMD2300を使用するインタラクティブ環境の取得された画像内で特定される、ということが理解される。
光の特定と追跡とに基づいて、インタラクティブ環境におけるHMD2300の位置及び向きが、判断される。光のうちのいくつかは、画像取得デバイス、たとえば、カメラ、などに対するHMD2300の特定の向きにより、可視であり、または可視でない、ということがさらに理解される。また、光の異なる部分(たとえば、光2302G及び光2302H)は、画像取得デバイスに対するHMD2300の向きにより、画像の取得のために露出される。いくつかの実施形態では、慣性センサがHMD2300内に置かれ、慣性センサは、位置決めに関するフィードバックを、光の必要なしに提供する。いくつかの実施形態では、光及び慣性センサは、共同して、位置/動きデータの混合と選択とを可能にする。
一実施形態では、光は、HMD2300の現在の状態を、現実世界環境内の他のユーザに示すように構成されている。たとえば、光のうちの一部または全部は、色構成、強度構成を有するように構成されており、点滅するように構成されており、ある特定のオン/オフ構成、またはHMD2300の現在の状態を示す他の構成を有するように構成されている。一例として、光は、ビデオゲームのアクティブなゲームプレイ(一般的に、アクティブなタイムライン中またはゲームのシーン内で発生しているゲームプレイ)中は、(その間、ゲームのタイムラインまたはシーンが動いていない、または停止している)メニューインターフェースを操作している、またはゲーム設定を行っているなどの、ビデオゲームの他の非アクティブなゲームプレイの状況に対して、異なる構成を表示するように構成されている。
一実施形態では、光は、また、ゲームプレイの相対強度レベルを示すように構成されている。たとえば、光の強度または点滅の速度は、ゲームプレイの強度が増加すると、増加する。
HMD2300は、一実施形態では、加えて、1つまたは複数のマイクを含む。例示の実施形態では、HMD2300は、HMD2300の前面に置かれた、マイク2304A及びマイク2304Bと、HMD2300の側面に置かれたマイクと、を含む。マイクの配列を活用することによって、マイクの各々からの音は、音源の位置を判断するために処理される。この情報は、不必要な音源の排除、音源の視覚識別との関連付け、などを含むさまざまな方法で活用される。
HMD2300は、1つまたは複数の画像取得デバイスを含む。例示の実施形態では、HMD2300は、画像取得デバイス2306Aと画像取得デバイス2306Bとを含むように示されている。一実施形態では、立体写真画像取得デバイスを活用することによって、現実世界環境の三次元(3D)画像及びビデオが、HMD2300の視点から取得される。そのようなビデオは、HMD2300を装着している間に、ユーザに「ビデオシースルー」能力を提供するために、ユーザ312に提示される。つまり、厳密に言うと、ユーザはHMD2300を通して見ることができないが、画像取得デバイス2306Aと画像取得デバイス2306Bとによって取得されたビデオは、それでもなお、あたかもHMD2300を通して見ているようにHMD2300の外部の現実世界環境を見ることができる、機能的同等物を提供する。
そのようなビデオは、一実施形態では、拡張現実体験を提供するために、仮想の要素を用いて拡張され、または他の方法で仮想の要素と組み合わされ、または混合される。例示の実施形態では、2つのカメラがHMD2300の前面にあると示されているが、任意の数の外向きのカメラがあり得、または1つのカメラがHMD2300に取り付けられ、任意の方向に向き得る、ということが理解される。たとえば、別の実施形態では、HMD2300の側面に取り付けられて、環境の追加的なパノラマ画像を取得するカメラがあり得る。
図24は、ビデオゲームコンテンツをユーザ312のHMD2300に描画することができるクライアントシステム2402を使用した、ゲームプレイの一実施例を例示している。本例示では、HMD2300に提供される仮想オブジェクト、たとえば、ゲームコンテンツ、などの状態は、リッチインタラクティブ3D空間内である。上記で考察した通り、仮想オブジェクトの状態は、クライアントシステム2402にダウンロードされ、または一実施形態では、クラウド処理システムによって実行される。クラウドゲームサービス2212は、ユーザ2404のデータベースを含み、ユーザ2404は、特定のゲーム2430にアクセスすること、体験を他の友達と共有すること、コメントを掲載すること、自身のアカウント情報を管理することを許可されている。
クラウドゲームサービス2212は、特定のユーザのためのゲームデータ2406を、格納し、ゲームデータ2406は、ゲームプレイ中、将来のゲームプレイ、ソーシャルメディアネットワークへの共有に使用可能であり得、またはトロフィー、賞、地位、ランク、などの格納のために使用され得る。ソーシャルデータ2408は、クラウドゲームサービス2212によって管理される。一実施形態では、ソーシャルデータ2408は、別のソーシャルメディアネットワークによって管理され、別のソーシャルメディアネットワークは、クラウドゲームサービス2212と、コンピュータネットワーク2210を介してインターフェース接続している。コンピュータネットワーク2210を介して、任意の数のクライアントシステム2410が、コンテンツへのアクセスと他のユーザとの交流とのために接続されている。
図24の実施例で継続すると、HMD2300内で見られている三次元インタラクティブシーンは、3Dビューまたは別の仮想環境内に描かれた人物などのゲームプレイを含む。1人の人物、たとえば、P1、などは、HMD2300を装着しているユーザ312によって制御される。本実施例は、2人のプレーヤ間のバスケットボールシーンを示しており、HMDユーザ312は、3Dビュー内で、別の人物の上でダンクシュートをしている。他方の人物は、ゲームのAI(人工知能)人物であってよく、または別のプレーヤまたは複数のプレーヤ(Pn)によって制御され得る。HMD2300を装着しているユーザ312は、使用空間内で動いていると示されており、HMD2300は、ユーザの頭部の動きと身体の位置とに基づいて、動き回る。カメラ2412は、室内の表示画面の上に置かれていると示されているが、HMDを使用するために、カメラ2412は、HMD2300の画像を取得することができる任意の場所に置かれ得る。したがって、HMD2300に描画されるコンテンツが、カメラ2412の視点からのHMD2300が置かれる向きに依存し得るため、ユーザ312は、カメラ2412と表示デバイス2212とから約90度回転していると示されている。もちろん、HMDの使用中、ユーザ312は、HMD2300によって描画される動的な仮想シーンを利用する必要に応じて、動き回り、自身の頭部を回転させ、さまざまな方向を見ている。
図25は、一実施形態による、HMD2300を装着し、使用中のユーザを例示している。本実施例では、HMD2300は、カメラ2412による取得ビデオフレームから取得した画像データを使用して、追跡される2502と示されている。加えて、ハンドヘルドコントローラ2206は、また、カメラ2412による取得ビデオフレームから取得された画像データを使用して、追跡される2504と示されている。また、図示されたものは、HMD2300が、コンピューティングシステム2202に、ケーブル2510を介して接続されている構成である。一実施形態では、HMD2300は、電力を同じケーブルから取得し、または別のケーブルに接続することができる。さらに別の実施形態では、HMD2300は、余分な電源コードを回避するために、再充電可能なバッテリを有している。
図26を参照すると、図は、本開示で説明する実施形態による、HMD2600の例示的な構成要素を例示して示されている。HMD2600は、HMD105の一実施例である。HMD2600がカメラを排除している時、HMD2600は、HMD106の一実施例である。使用可能な構成と機能とにより、より多くの、またはより少ない構成要素が、HMD2600に含まれ得、または排除され得る、ということを理解すべきである。HMD2600は、プログラム命令を実行するためのプロセッサ2602を含む。メモリ2604は、ストレージ目的のために提供され、一実施形態では、揮発性メモリと非揮発性メモリの両方を含む。ユーザ312が見る視覚インターフェースを提供するディスプレイ2606が、含まれる。
ディスプレイ2606は、1つのシングルディスプレイによって、または各目のための別々の表示画面という形態で、定められる。2つの表示画面が提供されると、左目のビデオコンテンツと右目のビデオコンテンツとを別々に提供することが可能である。ビデオコンテンツを各目に別々に提示することは、たとえば、三次元(3D)コンテンツのより良い没入型制御を提供することができる。本明細書で説明する通り、一実施形態では、第2の画面は、1つの目の出力を使用し、次いで、コンテンツを表示のための2D形式にフォーマットすることによって、HMD2600の第2の画面コンテンツを提供される。1つの目は、一実施形態では、左目のビデオフィードであり得るが、他の実施形態では、右目のビデオフィードであり得る。
バッテリ2608は、HMD2600の電源として提供される。他の実施形態では、電源は、電力へのコンセントを含む。他の実施形態では、電力へのコンセント及びバッテリ2608が、提供される。動き検出モジュール2610は、磁力計2612、加速度計2614、及びジャイロスコープ2616などの、さまざまな種類の動きに敏感なハードウェアのうちの任意のものを含む。
加速度計は、加速と、重力により誘発される反力とを測定するためのデバイスである。1軸モデル及び複数軸(たとえば、6軸)モデルは、加速の大きさと方向とを、異なる方向で検出することができる。加速度計を使用して、勾配と振動と衝撃とを感知する。一実施形態では、3つの加速度計を使用して、重力の方向を提供し、重力の方向は、2つの角度(ワールドスペースのピッチ及びワールドスペースのロール)に対する絶対基準を提供する。
磁力計は、HMDの近くの磁場の強さと方向とを測定する。一実施形態では、3つの磁力計をHMD内で使用して、ワールドスペースのヨーの角度の絶対基準を保証する。一実施形態では、磁力計は、±80マイクロテスラである地球の磁場を測るように設計されている。磁力計は、金属によって影響を受け、単調性であるヨー測定を、実際のヨーを用いて提供する。磁場は、環境内の金属によりゆがみ、それは、ヨー測定のゆがみを引き起こす。必要な場合、このゆがみは、ジャイロスコープなどの他のセンサまたはカメラからの情報を使用して較正される。一実施形態では、加速度計2614を磁力計2612と共に使用して、HMD2600の勾配と方位角とを取得する。
ジャイロスコープは、角運動量の原理に基づいて、向きを測定または維持するためのデバイスである。一実施形態では、3つのジャイロスコープは、各軸(x、y、及びz)での動きについての情報を、慣性感知に基づいて提供する。ジャイロスコープは、高速回転を検出することを補助する。しかしながら、ジャイロスコープは、絶対基準の存在がないと、時間と共にずれる。ずれを減少させるために、ジャイロスコープは、定期的にリセットされ、リセットは、オブジェクトの視覚追跡に基づいた位置/向き判断、加速度計、磁力計、などの他の利用可能な情報を使用して行われ得る。
カメラ2618は、現実世界環境の画像と画像ストリームとを取得するために提供される。一実施形態では、2つ以上のカメラ(任意)がHMD2600内に含まれ、それらには、後向きの(ユーザ312がHMD2600のディスプレイを見ている時、ユーザ312ではない方に向けられた)カメラと、前向きの(ユーザがHMD2600のディスプレイを見ている時、ユーザ312の方に向けられた)カメラと、が含まれる。加えて、一実施形態では、デプスカメラ2620が、現実世界環境内のオブジェクトの深さ情報を感知するために、HMD2600内に含まれている。
HMD2600は、オーディオ出力を提供するためのスピーカ2622を含む。また、一実施形態では、マイク2624が、音声を現実世界環境から取得するために含まれ、音声には、周囲環境からの音、ユーザ312によって行われた発言、などが含まれる。一実施形態では、HMD2600は、触感フィードバックをユーザ312に提供するための触感フィードバックモジュール2626を含む。一実施形態では、触感フィードバックモジュール2626は、触感フィードバックをユーザ312に提供するために、HMD2600の動き及び/または振動を起こすことができる。
LED2630は、HMD2600の状況の視覚インジケータとして提供される。たとえば、LEDは、バッテリレベル、電力オン、などを示す。カードリーダ2632は、HMD2600が情報を、メモリカードから読み、メモリカードに書き込むこと、を可能にするために提供される。USBインターフェース2634は、周辺デバイスの接続、または他のポータブルデバイス、コンピュータなどの他のデバイスへの接続を可能にするためのインターフェースの一実施例として含まれている。HMD2600のさまざまな実施形態では、さまざまな種類のインターフェースのうちの任意のものを、HMD2600のより良い接続性を可能にするために含むことができる。
一実施形態では、Wi−Fiモジュール2636は、コンピュータネットワークへの無線ネットワーキング技術を介した接続、を可能にするために含まれる。また、一実施形態では、HMD2600は、他のデバイスへの無線接続を可能にするためのBluetoothモジュール2638を含む。通信リンク2640は、他のデバイスへの接続のために含まれる。一実施形態では、通信リンク2640は、無線通信のために、赤外線送信を活用する。他の実施形態では、通信リンク2640は、他のデバイスとの通信のために、さまざまな無線送信プロトコルまたは有線送信プロトコルのうちの任意のものを活用する。
入力ボタン/センサ2642は、入力インターフェースをユーザ312に提供するために含まれる。ボタン、しぐさ、タッチパッド、ジョイスティック、トラックボール、などのさまざまな種類の入力インターフェースのうちの任意のものを含むことができる。一実施形態では、超音波通信モジュール2644は、他のデバイスとの超音波技術を介した通信を容易にするために、HMD2600内に含まれる。
一実施形態では、生物学的センサ2646は、ユーザ312からの生理学的データの検出を可能にするために含まれる。一実施形態では、生物学的センサ2646は、ユーザ312の生体電気信号を、ユーザ/プロフィールを特定するユーザの皮膚、声検出、目の網膜検出、などを通して検出するための、1つまたは複数のドライ電極を含む。
HMD2600の前述の構成要素を、HMD2600内に含まれ得る、単に例示的な構成要素として説明した。本開示で説明したさまざまな実施形態では、HMD2600は、さまざまな前述の構成要素のうちのいくつかを含むかもしれず、含まないかもしれない。HMD2600の実施形態は、加えて、現在説明していないが、当技術分野で良く知られた他の構成要素を、本明細書で説明する本発明の態様を容易にする目的のために含むことができる。
当業者は、本開示で説明したさまざまな実施形態では、前述のハンドヘルドデバイスが、さまざまなインタラクティブ機能を提供するためにディスプレイに表示される、インタラクティブアプリケーションと連動して活用される、ということを理解する。本明細書で説明した例示的な実施形態は、限定するものではなく、単に実施例として提供されている。
一実施形態では、クライアント及び/またはクライアントデバイスは、本明細書で参照される通り、頭部装着型ディスプレイ(HMD)、端末、パーソナルコンピュータ、ゲーム機、タブレットコンピュータ、電話、セットトップボックス、キオスク、無線デバイス、デジタルパッド、独立型デバイス、ハンドヘルドゲームプレイデバイス、及び/または同様なものを含むことができる。通常、クライアントは、符号化されたビデオストリームを受信し、ビデオストリームを復号し、結果として得られたビデオをユーザ、たとえば、ゲームのプレーヤに提示する。符号化されたビデオストリームを受信するプロセス及び/またはビデオストリームを復号するプロセスは、通常、個々のビデオフレームを、クライアントの受信バッファ内に格納することを含む。ビデオストリームは、クライアントと一体化されたディスプレイ、またはモニタまたはテレビなどの別のデバイス上で、ユーザに提示され得る。
クライアントは、任意で、2人以上のゲームプレーヤをサポートするように構成されている。たとえば、ゲーム機は、2人、3人、4人、またはそれ以上の同時プレーヤ(たとえば、P1、P2、…Pn)をサポートするように構成され得る。これらのプレーヤの各々は、ビデオストリームを受信または共有し、または1つのビデオストリームは、各プレーヤに対して特別に生成された、たとえば、各プレーヤの視点に基づいて生成された、フレームの領域を含むことができる。任意の数のクライアントは、ローカルであり(たとえば、同一場所におり)、または地理的に分散している。ゲームシステム内に含まれるクライアントの数は、1人または2人から、数千、数万、またはそれ以上まで、大幅に変化する。本明細書で使用する通り、「ゲームプレーヤ」という用語は、ゲームを行う人物を指すために使用され、「ゲームプレイデバイス」という用語は、ゲームを行うために使用されるデバイスを指すために使用される。いくつかの実施形態では、ゲームプレイデバイスは、協働してゲーム体験をユーザに配信する複数のコンピューティングデバイスを指すことができる。
たとえば、ゲーム機及びHMDは、ビデオサーバシステムと協力して、HMDを通して見るゲームを配信することができる。一実施形態では、ゲーム機は、ビデオストリームをビデオサーバシステムから受信し、ゲーム機は、描画のために、ビデオストリームをHMD及び/またはテレビに転送し、またはビデオストリームを更新する。
さらに、HMDは、ビデオゲームコンテンツ、映画コンテンツ、ビデオクリップコンテンツ、ウェブコンテンツ、広告コンテンツ、コンテストコンテンツ、飛び跳ねゲームコンテンツ、会議通話/ミーティングコンテンツ、ソーシャルメディアコンテンツ(たとえば、投稿、メッセージ、メディアストリーム、友達イベント、及び/またはゲームプレイ)、ビデオ部分及び/またはオーディオコンテンツ、インターネット上でブラウザとアプリケーションとを介した供給源から消費用に作成されたコンテンツ、及び任意の種類のストリーミングコンテンツなどの、生成または使用されるコンテンツのうちの任意の種類を見る及び/またはそれとやり取りを行うために使用される。もちろん、任意の種類のコンテンツは、それをHMDで見ることができる限り、またはそれを画面またはHMDの画面に描画することができる限り、描画され得るため、前述のリストのコンテンツは、限定をしていない。
クライアントは、さらに、受信したビデオを変更するために構成されたシステムを含むことができるが、必須ではない。たとえば、クライアントは、あるビデオ画像を別のビデオ画像に重ねるために、ビデオ画像を切り取るために、及び/または同様なことのために、さらなる描画を実行するように構成されている。別の例として、クライアントは、Iフレーム、Pフレーム、Bフレームなどのさまざまな種類のビデオフレームを受信し、これらのフレームを、ユーザに表示するための画像に処理するように構成されている。いくつかの実施形態では、クライアントのメンバーは、さらなる描画、陰影付け、3Dへの変換、2Dへの変換、ゆがみ除去、サイジング、または同様の操作を、ビデオストリームに対して実行するように構成されている。クライアントのメンバーは、任意で、2つ以上のオーディオストリームまたはビデオストリームを受信するように構成されている。
クライアントの入力デバイスは、たとえば、片手ゲームコントローラ、両手ゲームコントローラ、しぐさ認識システム、注視認識システム、声認識システム、キーボード、ジョイスティック、ポインティングデバイス、力フィードバックデバイス、動き及び/または位置感知デバイス、マウス、タッチ画面、神経インターフェース、カメラ、まだ開発されていない入力デバイス、及び/または同様なものを含む。
ビデオソースは、ストレージなどのコンピュータ可読媒体に格納された、描画論理、たとえば、ハードウェア、ファームウェア、及び/またはソフトウェアを含む。この描画論理は、ビデオストリームのビデオフレームを、ゲーム状態に基づいて作るように構成されている。描画論理の全部または一部は、任意で、1つまたは複数のグラフィックスプロセシングユニット(GPU)内に配置される。描画論理は、通常、ゲーム状態と視点とに基づいて、オブジェクト間の三次元空間関係を判断するために、及び/または適切な質感などを適用するために、構成された処理段階を含む。描画論理は、符号化された未加工のビデオを生成する。たとえば、未加工のビデオは、Adobe Flash(登録商標)規格、HTML−5、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x.Xvid.FFmpeg、x264、VP6−8、realvideo、mp3、などに従って符号化される。符号化処理は、デバイス上の復号器への配信のために任意でパッケージ化される、ビデオストリームを生成する。ビデオストリームは、フレームサイズとフレームレートとによって特徴付けられる。通常のフレームサイズは、800x600、1280x720(たとえば、720p)、1024x768、1080pを含むが、任意の他のフレームサイズを使用することができる。フレームレートは、1秒当たりのビデオフレームの数である。一実施形態では、ビデオストリームは、異なる種類のビデオフレームを含む。たとえば、H.264規格は、「P」フレームと「I」フレームとを含む。Iフレームは、表示デバイス上の全てのマクロブロック/画素をリフレッシュするための情報を含み、一方で、Pフレームは、それらのサブセットをリフレッシュするための情報を含む。Pフレームは、通常、Iフレームよりも、データサイズが小さい。本明細書で使用する「フレームサイズ」という用語は、フレーム内の画素の数を指すように意図されている。「フレームデータサイズ」という用語は、フレームを格納するのに必要なバイト数を指すために使用される。
いくつかの実施形態では、クライアントは、汎用コンピュータ、専用コンピュータ、ゲーム機、パーソナルコンピュータ、ノートパソコン、タブレットコンピュータ、モバイルコンピューティングデバイス、ポータブルゲームデバイス、携帯電話、セットトップボックス、ストリーミングメディアインターフェース/デバイス、スマートテレビまたはネットワークディスプレイ、または本明細書で定めるクライアントの機能を満たすように構成され得る任意の他のコンピューティングデバイスである。一実施形態では、クラウドゲームサーバは、ユーザによって活用されているクライアントデバイスの種類を検出し、ユーザのクライアントデバイスに適切なクラウドゲーム体験を提供するように構成されている。たとえば、画像設定、オーディオ設定、及び他の種類の設定は、ユーザのクライアントデバイスに対して最適化され得る。
図27は、情報サービスプロバイダアーキテクチャの一実施形態を例示している。情報サービスプロバイダ(ISP)2702は、多数の情報サービスを、地理的に分散し、コンピュータネットワーク2210を介して接続された、ユーザ2700−1、ユーザ2700−2、ユーザ2700−3、ユーザ2700−4、などに配信する。一実施形態では、ISPは、株価更新などの1つの種類のサービス、または放送メディア、ニュース、スポーツ、ゲーム、などのさまざまなサービスを配信する。加えて、各ISPによって提供されるサービスは、動的であり、つまり、サービスは、任意の時点において、追加または除去され得る。したがって、特定の種類のサービスを特定の個人に提供するISPは、時間と共に変化することができる。たとえば、ユーザは、ユーザが自身の地元にいる間は、ユーザのごく近くのISPによってサービスを受け、ユーザは、ユーザが別の市に旅行している時は、異なるISPによってサービスを受ける。地元のISPは、必要な情報とデータとを新しいISPに転送し、ユーザ情報が、新しい市までユーザの「後を追っていき」、データをユーザにより近づけ、アクセスし易いようにする。別の実施形態では、マスタ−サーバ関係が、ユーザのための情報を管理するマスタISPと、マスタISPの制御下のユーザに直接インターフェース接続するサーバISPとの間に確立される。別の実施形態では、これらのサービスを配信するISPがユーザにサービスを提供し易くするために、クライアントが世界中を移動するにつれて、データは、1つのISPから別のISPに転送される。
ISP2702は、コンピュータベースのサービスを顧客にコンピュータネットワーク2210を介して提供する、アプリケーションサービスプロバイダ(ASP)2706を含む。ASPモデルを使用して提供されるソフトウェアは、また、時折、オンデマンドソフトウェアまたはSoftware as a Service(SaaS)とも呼ばれる。(顧客関係管理などの)特定のアプリケーションプログラムへのアクセスを提供する簡単な形式は、HTTPなどの標準プロトコルを使用することによってである。アプリケーションソフトウェアは、ベンダーのシステム上にあり、ウェブブラウザを通してHTMLを使用したユーザによって、ベンダーによって提供される特殊目的クライアントソフトウェアによって、またはシンクライアントなどの他のリモートインターフェースによって、アクセスされる。
広域な地理的領域に渡って配信されるサービスは、クラウドコンピューティングを使用することが多い。クラウドコンピューティングは、コンピューティングのスタイルであり、クラウドコンピューティングでは、動的に拡大縮小可能で、しばしば仮想化されている資源が、サービスとして、コンピュータネットワーク2210を介して提供される。ユーザは、自身をサポートする「クラウド」内の技術インフラストラクチャの専門家である必要はない。一実施形態では、クラウドコンピューティングは、Infrastructure as a Service(IaaS)、Platform as a Service(PaaS)、Software as a Service(SaaS)などの異なるサービスに分かれている。クラウドコンピューティングサービスは、しばしば、ウェブブラウザからアクセスされる共通のビジネスアプリケーションをオンラインで提供するが、ソフトウェア及びデータは、サーバ上に格納されている。クラウドという用語は、インターネットがコンピュータネットワーク図内に描かれる方法に基づいて、(たとえば、サーバとストレージと論理とを使用する)インターネットの隠喩として使用され、それが隠している複雑なインフラストラクチャに対する抽象概念である。
さらに、ISP2702は、ゲームプロセシングサーバ(GPS)2708を含み、ゲームプロセシングサーバ(GPS)2708は、ゲームクライアントによって、シングルプレーヤビデオゲームとマルチプレーヤビデオゲームとを行うために使用される。インターネット上で行われるほとんどのビデオゲームは、ゲームサーバへの接続を介して動作する。通常、ゲームは、データをプレーヤから集め、それを他のプレーヤに配信する、専用のサーバアプリケーションを使用する。これは、ピアツーピア構成よりも、より効率的かつ効果的であるが、サーバアプリケーションをホストする別のサーバを必要とする。別の実施形態では、GPSは、通信をプレーヤ間で確立し、自身のそれぞれのゲームプレイデバイスは、集中型のGPSに依存することなしに、情報を交換する。
専用のGPSは、クライアントから独立して動作するサーバである。そのようなサーバは、通常、データセンタ内に置かれた専用ハードウェア上で動作し、より広い帯域幅と専用の処理能力とを提供する。専用サーバは、ほとんどのPCベースのマルチプレーヤゲームでは、ゲームサーバをホストする好適な方法である。多人数同時参加型オンラインゲームは、ゲームタイトルを所有するソフトウェア会社によって通常ホストされている専用サーバ上で動作し、コンテンツを制御し、更新することを可能にする。
放送プロセシングサーバ(BPS)2710は、オーディオ信号またはビデオ信号を、聴衆に配信する。非常に狭い範囲の聴衆への放送は、時折、ナローキャスティングと呼ばれる。放送配信の最後の工程は、信号がリスナーまたはビューアーにどのように届くかということであり、信号は、ラジオ局またはテレビ局が用いるように無線で、アンテナと受信機とまで到達することができ、またはケーブルテレビまたはケーブルラジオ(または「無線ケーブル」)を通して、局を介してまたはネットワークから直接、到達することができる。インターネットは、また、ラジオまたはテレビのいずれかを受信者に、特に、信号と帯域幅とを共有することを可能にする同報通信を用いて、届けることができる。歴史的に、全国放送または地域放送などの放送は、地理的領域によって範囲を定められてきた。しかしながら、高速なインターネットの拡散と共に、コンテンツは世界中のほとんどどの国にも到達することができるため、放送は、地理学によって定められない。
ストレージサービスプロバイダ(SSP)2712は、コンピュータストレージスペースサービスと関連管理サービスとを提供する。SSPは、また、定期的なバックアップとアーカイブとを提供する。ストレージをサービスとして提供することによって、ユーザは、必要に応じて、より多くのストレージを注文することができる。別の主要な利点は、SSPが、バックアップサービスを含み、ユーザは、自身のコンピュータのハードドライブが故障した場合でも、自身の全データを失わない、ということである。さらに、一実施形態では、複数のSSPは、ユーザデータの完全なまたは部分的なコピーを有し、ユーザが、ユーザがいる場所またはデータにアクセスするために使用されているデバイスの場所に依存しない効果的な方法で、ユーザがデータにアクセスすることを可能にする。たとえば、ユーザは、ホームコンピュータ内の個人ファイルと、ユーザが移動している間は携帯電話内の個人ファイルとにアクセスすることができる。
通信プロバイダ2714は、ユーザへの接続性を提供する。1つの種類の通信プロバイダは、インターネットへのアクセスを提供するインターネットサービスプロバイダ(ISP)である。ISPは、その顧客を、ダイヤルアップ、DSL、ケーブルモデム、ファイバ、無線高速相互接続または専用の高速相互接続などの、インターネットプロトコルデータグラムを配信するために適切なデータ送信技術を使用して、接続する。通信プロバイダは、また、Eメール、インスタントメッセージ、及びSMSテキストメッセージなどのメッセージサービスを提供することができる。別の種類の通信プロバイダは、ネットワークサービスプロバイダ(NSP)であり、ネットワークサービスプロバイダは、インターネットへの直接の基幹回線アクセスを提供することによって、帯域幅またはネットワークアクセスを販売する。ネットワークサービスプロバイダは、一実施形態では、電気通信会社、データキャリア、無線通信プロバイダ、インターネットサービスプロバイダ、高速インターネットアクセスを提供するケーブルテレビ運営会社、などを含む。
データ交換2704は、ISP2702内のいくつかのモジュールを相互接続し、これらのモジュールをユーザ2700に、コンピュータネットワーク2210を介して接続する。データ交換2704は、ISP2702の全てのモジュールがごく近くにある小さな領域を網羅し、または異なるモジュールが地理的に分散している時は、大きな地理的領域を網羅する。たとえば、データ交換2788は、データセンタのキャビネット内に高速のギガビットイーサネット(またはより高速なもの)、または大陸間仮想領域ネットワーク(VLAN)を含む。
ユーザ2700は、リモートサービスに、クライアントデバイス2720を用いてアクセスし、クライアントデバイス2720は、少なくともCPUと、ディスプレイと、I/Oと、を含む。クライアントデバイスは、PC、携帯電話、ネットブック、タブレット、ゲームシステム、PDA、などであってよい。一実施形態では、ISP2702は、クライアントによって使用されるデバイスの種類を認識し、用いられる通信方法を調整する。他の場合では、クライアントデバイスは、htmlなどの標準通信方法を使用して、ISP2702にアクセスする。
実施形態のうちのいくつかを、本明細書で、ユーザ312の手に関して説明したが、実施形態が、ユーザ312の別の身体部分にも同様に適用される、ということに留意すべきである。
一実施形態では、ゲーム機の代わりに、コンピューティングデバイス、たとえば、タブレット、コンピュータ、スマートテレビ、などを使用して、ゲーム機によって実行されていると本明細書で説明した動作を実行する。
上述の実施形態のうちのいくつかは、信号をパッドデバイスからHMDに送信することに関連するが、さまざまな実施形態では、信号は、パッドデバイスからゲーム機に送信される、ということに留意すべきである。ゲーム機のプロセッサは、信号を解析して、パッドデバイスに対する、ユーザの身体部分の位置及び/または向きを判断し、しぐさを特定する。プロセッサは、しぐさが、ゲームのゲームデータまたは別の環境、たとえば、ビデオ会議環境の環境データに、どのように影響を与えるかを判断する。しぐさは、ゲームデータまたは他の環境データと共に、HMDまたはテレビまたはコンピューティングデバイスに提供され、HMDまたはテレビまたはコンピューティングデバイスは、しぐさを組み込んだゲームまたは別の環境、たとえば、ビデオ会議環境、などを表示する。
本開示で説明した実施形態は、さまざまなコンピュータシステム構成を用いて実施され得、それらには、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースの家電またはプログラム可能な家電、ミニコンピュータ、メインフレームコンピュータ、などが含まれる。本開示で説明した実施形態は、また、分散コンピューティング環境で実施され得、分散コンピューティング環境では、タスクは、有線ベースのネットワークまたは無線ネットワークを通して繋がれたリモート処理デバイスによって実行される。
上記の実施形態を考慮すると、本開示で説明した実施形態は、コンピュータシステム内に格納されたデータを伴う、さまざまなコンピュータで実装される動作を用いることができる、ということを理解すべきである。これらの動作は、物理的な量の物理的な操作を必要とするものである。本開示で説明した実施形態の一部を形成する、本明細書で説明した動作のうちの任意のものは、有益なマシン動作である。本開示で説明したいくつかの実施形態は、また、これらの動作を実行するためのデバイスまたは装置に関連する。装置は、必要な目的のために特別に作成され得、または装置は、コンピュータ内に格納されたコンピュータプログラムによって選択的に作動または構成される、汎用コンピュータであってよい。具体的には、さまざまな汎用マシンを、本明細書の教示に従って記述されたコンピュータプログラムと共に使用することができ、または、必要な動作を実行するために、より特殊化した装置を作成することがより便利であり得る。
本開示で説明したいくつかの実施形態は、また、コンピュータ可読媒体上のコンピュータ可読コードとして具現化され得る。コンピュータ可読媒体は、データを格納することができる任意のデータストレージデバイスであり、コンピュータ可読媒体は、その後、コンピュータシステムによって読まれ得る。コンピュータ可読媒体の例は、ハードドライブ、NAS、ROM、RAM、CD−ROM、CD−R、CD−RW、磁気テープ、光学的データストレージデバイス、非光学的データストレージデバイス、などを含む。コンピュータ可読媒体は、コンピュータ可読コードが分散した方法で格納され、実行されるように、ネットワークに連結されたコンピュータシステム上で分散されるコンピュータ可読有形媒体を含むことができる。
いくつかの実施形態では、本明細書で説明した実施形態のうちの任意のものを、残りの実施形態のうちの任意のものと組み合わせることができる、ということに留意すべきである。
さらに、上述の実施形態をゲーム環境に関して説明したが、いくつかの実施形態では、ゲームの代わりに、他の環境、たとえば、ビデオ会議環境を使用する。
方法の動作を具体的な順序で説明したが、オーバーレイ動作の処理が所望の方法で実行される限り、他のハウスキーピング動作を、動作間で実行することができ、または動作がわずかに異なる時間で発生するように、動作を調整することができ、または動作を、処理動作が処理に関連するさまざまな間隔で発生することを可能にするシステム内に分散させることができる、ということを理解すべきである。
本開示で説明した前述の実施形態は、明確に理解するという目的のために、ある程度詳細に説明されたが、ある特定の変更と修正とを、添付の特許請求の範囲内で実施することができる、ということは明白である。したがって、本実施形態は、制限的ではなく、例示的としてみなされるものであり、実施形態は、本明細書で提供した詳細に限定されず、添付の特許請求の範囲で及びその同等物内で修正され得る。

Claims (21)

  1. 頭部装着型ディスプレイ(HMD)に対するユーザの手の検出を強化するための方法であって、
    エネルギーの乱れた部分を、乱された時に、パッドデバイス内に一体化され、配列に配置された複数のセンサによって、感知することであって、前記エネルギーの前記乱れた部分が、前記ユーザの前記手が前記パッドデバイスの近くに置かれた時に生成され、前記エネルギーの前記乱れた部分を感知する前記複数のセンサが、前記パッドデバイスの基準原点からの前記手の3次元空間の距離に基づいて前記手の位置及び向きを映し出すエネルギー画像を生成する、前記感知することと、
    前記感知することを、継続的に繰り返して、前記感知することが繰り返されている間の前記手の前記位置及び前記向きの変化を示すエネルギー画像のストリームを生成することと、
    エネルギー画像の前記ストリームを、プロセッサに、前記エネルギー画像の各々を処理して、前記手のモデルと前記手の前記モデルの動きとを生成するために、通信することであって、前記手の前記モデルの前記動きは前記手の前記位置及び前記向きの変化に基づいており、前記手の前記モデルが、前記HMD内に表示される仮想環境内の仮想の手として、少なくとも部分的に描画される、前記通信することと、
    を備え、
    前記仮想の手が、前記HMDの表示デバイスに表示され、前記パッドデバイスが、前記パッドデバイスの表面上に置かれたマーカーを含み、前記HMDが、前記ユーザの頭部に装着され、カメラを有し、
    前記カメラによって、前記ユーザの前記手の位置と向きとの判断を容易にするために、前記マーカーのうちの1つまたは複数の遮蔽を捉えることをさらに備える、方法。
  2. 前記エネルギーを、前記パッドデバイス内に一体化され、配列に配置された、複数のエネルギーエミッタを使用して発することをさらに備える、請求項1に記載の方法。
  3. エネルギー画像の前記ストリームを前記プロセッサに通信して前記手の前記モデルを生成することが、エネルギー画像の前記ストリームを、前記プロセッサに、前記手の前記位置と前記向きとの判断を容易にするために通信することを備え、前記手の前記位置が、前記エネルギー画像内の前記エネルギーの前記乱れた部分の強度に少なくとも部分的に基づいて判断される、請求項1に記載の方法。
  4. エネルギー画像の前記ストリームを前記プロセッサに通信して前記手の前記モデルを生成することが、エネルギー画像の前記ストリームを、前記プロセッサに、前記手の前記位置と前記向きとの判断を容易にするために通信することを備え、前記手の別の位置及び別の向きが、前記プロセッサに接続されたカメラを使用して、または前記HMD内のカメラを使用して、または前記パッドデバイス内のカメラを使用して、または前記パッドデバイスが置かれている環境内のカメラを使用して、判断される、請求項1に記載の方法。
  5. エネルギー画像の前記ストリームを前記プロセッサに通信して前記手の前記モデルを生成することが、電気信号を、前記プロセッサに、前記手の前記位置と前記向きとの判断のために通信することを備え、前記手の前記位置及び前記向きが、xyz座標システムに対して判断され、前記パッドデバイスの表面が、前記xyz座標システムに対する基準を定める、請求項1に記載の方法。
  6. 前記エネルギーが、光エネルギーを含み、前記方法は、前記光エネルギーを、複数の赤外光発光体を使用して発することをさらに備え、前記赤外光発光体が、前記パッドデバイス内に一体化され、前記パッドデバイス上で配列に配置されている、請求項1に記載の方法。
  7. 前記エネルギーの前記乱れた部分を感知することが、前記ユーザが、前記仮想環境と、前記HMDを介してやり取りを行っている時に実行される、請求項1に記載の方法。
  8. 前記エネルギーの前記乱れた部分を感知することが、前記ユーザが、前記仮想環境と、前記HMDを介してやり取りを行っている時に実行され、前記エネルギーが、光エネルギー、または超音波エネルギー、または電磁エネルギー、またはそれらの2つ以上の組み合わせを含む、請求項1に記載の方法。
  9. 前記パッドデバイスが、上に前記センサが置かれている表面を有し、前記表面が、前記手に向けた向きのためと、前記手が前記パッドデバイスの上のエネルギー空間と関わった時に、前記手の影を受信するためとのものであり、前記影が、前記ユーザの手によって乱された時の前記乱れた部分の強度を定める、請求項1に記載の方法。
  10. 前記エネルギーを、前記パッドデバイス内に一体化され、配列に配置された、複数のエネルギーエミッタを使用して発することをさらに備え、前記パッドデバイスが、前記手からの非接触の関わりを受信するために構成されており、発せられた前記エネルギーが、前記パッドデバイスの上のエネルギー境界まで広がり、前記エネルギーの前記乱れた部分が、前記手が前記エネルギー境界内に置かれた時に生成される、請求項1に記載の方法。
  11. 前記仮想の手の前記モデルが、前記仮想の手の位置、または前記仮想の手の向き、または前記仮想の手の形、または前記仮想の手の色、または前記仮想の手の境界、または前記仮想の手の質感、またはそれらの2つ以上の組み合わせによって定められ、前記仮想の手の前記境界が、前記仮想の手の輪郭を形成する画像の画素によって定められる、請求項1に記載の方法。
  12. 前記乱れた部分を感知することが、前記手の指の第1の指関節によって乱されたエネルギーを感知することと、前記指の第2の指関節によって乱されたエネルギーを感知することと、を、前記ユーザの前記指の位置の判断を容易にするために備え、前記指の前記位置の前記判断が、前記第1の指関節の位置を前記第2の指関節の位置に連結する線を使用して実行される、請求項1に記載の方法。
  13. 前記仮想の手が、前記HMD内で、前記ユーザの前記頭部に装着された時に表示するためのものであり、または前記ユーザがいる現実世界環境内に置かれたテレビで表示するためのものである、請求項1に記載の方法。
  14. エネルギー画像の前記ストリームが、前記センサのフレームレートで生成され、前記フレームレートが、前記エネルギー画像のフレームの生成速度であり、前記フレームレートが、前記エネルギーの前記乱れた部分が前記センサによって感知または取得される周波数である、請求項1に記載の方法。
  15. 前記エネルギーを、前記パッドデバイス内に一体化され、配列に配置された、複数のエネルギーエミッタを使用して発することをさらに備え、発せられた前記エネルギーが、エネルギー空間を前記パッドデバイスの上に作成するためのものであり、前記手が、前記エネルギー空間と関わり、前記エネルギー空間を乱すために、前記パッドデバイスの近くに置かれる、請求項1に記載の方法。
  16. 前記エネルギー空間が、電磁エネルギー場を含む、請求項15に記載の方法。
  17. 前記手の前記モデルの前記動きが、前記手の指の1つまたは複数の画像の動きを定め、前記仮想の手が、前記仮想環境内の仮想オブジェクトと関わることを可能にされ、前記関わりが、前記仮想オブジェクトのためのオブジェクトモデルによって定められ、前記オブジェクトモデルが、前記仮想環境内の所定の動きまたは動作に対して定められる、請求項1に記載の方法。
  18. 頭部装着型ディスプレイ(HMD)に対するユーザの手の検出を強化するためのパッドデバイスであって、
    エネルギーの乱れた部分を感知するための、前記パッドデバイスの表面上で配列に配置された複数のセンサであって、前記エネルギーの前記乱れた部分が、前記ユーザの前記手が前記パッドデバイスの近くに置かれた時に生成され、前記パッドデバイスの基準原点からの前記手の3次元空間の距離に基づいて前記手の位置及び向きを映し出すエネルギー画像を生成するために、前記エネルギーの前記乱れた部分を感知するように構成され、
    前記感知することを継続的に繰り返して、エネルギー画像のストリームを生成するようにさらに構成され、エネルギー画像の前記ストリームが、前記感知することが繰り返されている間の前記手の前記位置及び前記向きの変化を示す、前記センサと、
    前記センサに連結された通信デバイスであって、エネルギー画像の前記ストリームを、プロセッサに、前記エネルギー画像の各々を処理して、前記手のモデルと前記手の前記モデルの動きとを生成するために、通信し、前記手の前記モデルの前記動きは前記手の前記位置及び前記向きの変化に基づいており、前記手の前記モデルが、前記HMDで表示される仮想環境内の仮想の手として、少なくとも部分的に描画される、前記通信デバイスと、
    を備え、
    前記仮想の手が、前記HMDの表示デバイスに表示され、
    前記パッドデバイスの表面上に置かれたマーカーをさらに備え、前記HMDが、前記ユーザの頭部に装着され、カメラを有し、前記カメラが、前記ユーザの前記手の位置と向きとの判断を容易にするために、前記マーカーのうちの1つまたは複数の遮蔽を捉えるためのものである、パッドデバイス。
  19. 前記エネルギーを発するための複数のエネルギーエミッタをさらに備え、前記エネルギーエミッタが、前記パッドデバイス内に一体化され、前記パッドデバイスの前記表面上で配列に配置されている、請求項18に記載のパッドデバイス。
  20. パッドデバイスであって、
    前記パッドデバイスの表面上に配置された、身体部分が発せられたエネルギーと関わった時にエネルギーの部分を受信するための複数のセンサであって、
    前記身体部分が或る位置及び向きにある時に前記エネルギーの部分を感知することによって、前記パッドデバイスの基準原点からの前記身体部分の3次元空間の距離に基づいてエネルギー画像を、前記エネルギーの部分から生成するように構成され、前記感知することを継続的に繰り返して、エネルギー画像のストリームを生成するようにさらに構成され、エネルギー画像の前記ストリームが、前記感知することが繰り返されている間の前記身体部分の前記位置及び前記向きの変化を示す、前記センサと、
    前記センサに連結され、エネルギー画像の前記ストリームを通信するためのパッド通信デバイスと、
    を含む前記パッドデバイスと、
    前記パッドデバイスに連結されたゲーム機であって、
    前記パッド通信デバイスに連結され、前記エネルギー画像の前記ストリームを前記パッド通信デバイスから受信するためのゲーム通信デバイスと、
    前記ゲーム通信デバイスに連結され、前記身体部分の動きをエネルギー画像の前記ストリームに基づいて判断するためのゲームプロセッサと、
    を含み、
    前記ゲームプロセッサが、仮想環境内の前記身体部分を表す仮想オブジェクトの状態を、前記身体部分の前記動きに基づいて判断するためのものであり、前記仮想オブジェクトの前記状態は前記仮想オブジェクトの位置及び向きを含み、前記仮想オブジェクトの前記位置及び前記向きは前記身体部分の前記位置及び前記向きの変化に基づいており、
    前記ゲーム通信デバイスが、前記仮想オブジェクトの前記状態に関するデータを送信するためのものである、
    前記ゲーム機と、
    前記ゲーム機に連結された頭部装着型ディスプレイ(HMD)であって、
    前記ゲーム通信デバイスに連結され、前記仮想オブジェクトの前記状態に関する前記データを、前記ゲーム通信デバイスから受信するためのHMD通信デバイスと、
    前記HMD通信デバイスに連結され、前記状態を有する前記仮想オブジェクトを画像内に表示するためのプロセッサと、
    を備える、前記頭部装着型ディスプレイ(HMD)と、
    を備え、
    前記パッドデバイスが、光を前記HMDに向けて発するための複数の発光体を含み、前記HMDが、ユーザの前記身体部分の位置の判断を容易にするために、前記発光体によって発せられた前記光を感知するための複数のセンサを含む、システム。
  21. 前記ゲームプロセッサが、前記画像内に定められた基準点に対する前記仮想オブジェクトの位置を、前記パッドデバイスの前記表面によって定められた前記基準原点に対する前記身体部分の前記位置に比例する、と判断するためのものであり、
    前記ゲームプロセッサが、前記画像に定められた前記基準点に対する前記仮想オブジェクトの向きを、前記パッドデバイスの前記表面によって定められた前記基準原点に対する前記身体部分の前記向きに比例すると、判断するためのものである、請求項20に記載のシステム。
JP2016557241A 2014-03-14 2015-03-13 空間感知を備えるゲーム機 Active JP6307627B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461953714P 2014-03-14 2014-03-14
US61/953,714 2014-03-14
PCT/US2015/020612 WO2015139002A1 (en) 2014-03-14 2015-03-13 Gaming device with volumetric sensing

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018015363A Division JP6538897B2 (ja) 2014-03-14 2018-01-31 空間感知を備えるゲーム機

Publications (2)

Publication Number Publication Date
JP2017516186A JP2017516186A (ja) 2017-06-15
JP6307627B2 true JP6307627B2 (ja) 2018-04-04

Family

ID=52774601

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016557241A Active JP6307627B2 (ja) 2014-03-14 2015-03-13 空間感知を備えるゲーム機
JP2018015363A Active JP6538897B2 (ja) 2014-03-14 2018-01-31 空間感知を備えるゲーム機

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018015363A Active JP6538897B2 (ja) 2014-03-14 2018-01-31 空間感知を備えるゲーム機

Country Status (5)

Country Link
US (1) US9987554B2 (ja)
EP (1) EP3116616B1 (ja)
JP (2) JP6307627B2 (ja)
CN (1) CN106233227B (ja)
WO (1) WO2015139002A1 (ja)

Families Citing this family (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9948885B2 (en) * 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US9370704B2 (en) * 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9626764B2 (en) * 2014-07-01 2017-04-18 Castar, Inc. System and method for synchronizing fiducial markers
KR20160014418A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 유저 인터페이스 장치 및 유저 인터페이스 방법
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
CN104407786A (zh) * 2014-09-30 2015-03-11 深圳市亿思达科技集团有限公司 实现全息图像显示的交互式显示方法、控制方法及系统
US10353532B1 (en) 2014-12-18 2019-07-16 Leap Motion, Inc. User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10429923B1 (en) 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10627908B2 (en) * 2015-03-27 2020-04-21 Lucasfilm Entertainment Company Ltd. Facilitate user manipulation of a virtual reality environment view using a computing device with touch sensitive surface
US20160344984A1 (en) * 2015-05-19 2016-11-24 Robert E. Fitzgerald Athlete camera
US9898091B2 (en) 2015-06-03 2018-02-20 Oculus Vr, Llc Virtual reality system with head-mounted display, camera and hand-held controllers
US9678566B2 (en) 2015-06-03 2017-06-13 Oculus Vr, Llc Hand-held controllers for virtual reality system
US9999833B2 (en) * 2015-06-11 2018-06-19 Oculus Vr, Llc Hand-held controllers with capacitive touch sensors for virtual-reality systems
US9833700B2 (en) * 2015-06-11 2017-12-05 Oculus Vr, Llc Connectable hand-held controllers for virtual-reality systems
USD772986S1 (en) 2015-06-11 2016-11-29 Oculus Vr, Llc Wireless game controller
US9870052B2 (en) * 2015-06-11 2018-01-16 Oculus Vr, Llc Hand-held controller with pressure-sensing switch for virtual-reality systems
US9995823B2 (en) 2015-07-31 2018-06-12 Elwha Llc Systems and methods for utilizing compressed sensing in an entertainment system
EP3332314B1 (en) * 2015-08-04 2024-04-10 Google LLC Input via context sensitive collisions of hands with objects in virtual reality
WO2017024181A1 (en) * 2015-08-06 2017-02-09 Pcms Holdings, Inc. Methods and systems for providing haptic feedback for virtual 3d objects
US9959082B2 (en) * 2015-08-19 2018-05-01 Shakai Dominique Environ system
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US10338673B2 (en) * 2015-09-16 2019-07-02 Google Llc Touchscreen hover detection in an augmented and/or virtual reality environment
US9839840B2 (en) * 2015-11-05 2017-12-12 Oculus Vr, Llc Interconnectable handheld controllers
US10007339B2 (en) 2015-11-05 2018-06-26 Oculus Vr, Llc Controllers with asymmetric tracking patterns
US10130875B2 (en) 2015-11-12 2018-11-20 Oculus Vr, Llc Handheld controller with finger grip detection
US9990045B2 (en) 2015-11-12 2018-06-05 Oculus Vr, Llc Method and apparatus for detecting hand gestures with a handheld controller
JP6017008B1 (ja) * 2015-12-01 2016-10-26 株式会社コロプラ アバター表示システム、ユーザ端末、及びプログラム
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10037085B2 (en) * 2015-12-21 2018-07-31 Intel Corporation Techniques for real object and hand representation in virtual reality content
US9977494B2 (en) 2015-12-30 2018-05-22 Oculus Vr, Llc Tracking constellation assembly for use in a virtual reality system
US10441880B2 (en) 2015-12-30 2019-10-15 Facebook Technologies, Llc Handheld controller with spring-biased third finger button assembly
CN107250950A (zh) * 2015-12-30 2017-10-13 深圳市柔宇科技有限公司 头戴式显示设备、头戴式显示系统及输入方法
US10386922B2 (en) 2015-12-30 2019-08-20 Facebook Technologies, Llc Handheld controller with trigger button and sensor retainer assembly
US10343059B2 (en) 2015-12-30 2019-07-09 Facebook Technologies, Llc Handheld controller with thumbstick guard
US11857869B2 (en) 2015-12-31 2024-01-02 Meta Platforms Technologies, Llc Handheld controller with hand detection sensors
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10963157B2 (en) * 2016-05-12 2021-03-30 Lsi Industries, Inc. Outdoor ordering system with interactive menu elements
KR101822471B1 (ko) * 2016-05-26 2018-01-29 경북대학교 산학협력단 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
DE102016006767A1 (de) * 2016-06-02 2017-12-07 Audi Ag Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem
KR20180002208A (ko) * 2016-06-29 2018-01-08 엘지전자 주식회사 단말기 및 그 제어 방법
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
CN106055113B (zh) * 2016-07-06 2019-06-21 北京华如科技股份有限公司 一种混合现实的头盔显示系统及控制方法
US10877210B2 (en) 2016-07-15 2020-12-29 Light Field Lab, Inc. Energy propagation and transverse anderson localization with two-dimensional, light field and holographic relays
JP6499384B2 (ja) * 2016-08-24 2019-04-10 ナーブ株式会社 画像表示装置、画像表示方法、及び画像表示プログラム
KR20180026919A (ko) * 2016-09-05 2018-03-14 (주)알비케이이엠디 증강현실 또는 가상현실 시스템
JP6298130B2 (ja) * 2016-09-14 2018-03-20 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP6373920B2 (ja) 2016-09-14 2018-08-15 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
USD835104S1 (en) 2016-09-27 2018-12-04 Oculus Vr, Llc Wireless game controller
CN107885316A (zh) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置
US10536691B2 (en) * 2016-10-04 2020-01-14 Facebook, Inc. Controls and interfaces for user interactions in virtual spaces
CN106528087A (zh) * 2016-10-12 2017-03-22 大连文森特软件科技有限公司 基于模块化编辑的vr游戏制作与体验系统
CN106528020B (zh) * 2016-10-26 2019-05-31 腾讯科技(深圳)有限公司 一种视角模式切换方法及终端
US10088902B2 (en) 2016-11-01 2018-10-02 Oculus Vr, Llc Fiducial rings in virtual reality
CN110023884B (zh) 2016-11-25 2022-10-25 森索里克斯股份公司 可穿戴运动跟踪系统
CN106504441A (zh) * 2016-12-20 2017-03-15 抉择(北京)科技有限公司 Vr礼品机及其运行方法
JP6242473B1 (ja) * 2016-12-22 2017-12-06 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6212667B1 (ja) * 2016-12-26 2017-10-11 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
TWI655447B (zh) * 2016-12-26 2019-04-01 宏達國際電子股份有限公司 追蹤系統及追蹤方法
US11086393B2 (en) * 2016-12-27 2021-08-10 Sony Corporation Information processing device, information processing method, and computer program
TWI659221B (zh) * 2016-12-29 2019-05-11 宏達國際電子股份有限公司 追蹤系統、追蹤裝置及追蹤方法
KR20180089208A (ko) * 2017-01-31 2018-08-08 삼성전자주식회사 스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법
CN108415654A (zh) * 2017-02-10 2018-08-17 上海真曦通信技术有限公司 虚拟输入系统和相关方法
US10628950B2 (en) * 2017-03-01 2020-04-21 Microsoft Technology Licensing, Llc Multi-spectrum illumination-and-sensor module for head tracking, gesture recognition and spatial mapping
JP2018152042A (ja) * 2017-03-13 2018-09-27 ウィキパッド,インコーポレーテッド タッチスクリーンを支持する可撓性のブリッジを備えるゲームコントローラ
JP2018152041A (ja) * 2017-03-13 2018-09-27 ウィキパッド,インコーポレーテッド タッチスクリーン入力を備えるコンピューティングデバイスおよびゲームコントローラの組み合わせ体
JP6651479B2 (ja) * 2017-03-16 2020-02-19 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP7175281B2 (ja) * 2017-03-28 2022-11-18 マジック リープ, インコーポレイテッド ユーザ走査仮想オブジェクトに関係している空間化されたオーディオを用いる拡張現実システム
US10223821B2 (en) * 2017-04-25 2019-03-05 Beyond Imagination Inc. Multi-user and multi-surrogate virtual encounters
CN106955106B (zh) * 2017-05-03 2020-12-01 广州锐士伯医疗科技有限公司 一种用于检测气道可逆性的装置
JP2018198025A (ja) * 2017-05-25 2018-12-13 株式会社Five for 画像処理装置、画像処理装置の制御方法及びプログラム
JP6957218B2 (ja) * 2017-06-12 2021-11-02 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
US10514801B2 (en) * 2017-06-15 2019-12-24 Microsoft Technology Licensing, Llc Hover-based user-interactions with virtual objects within immersive environments
US10481736B2 (en) * 2017-06-21 2019-11-19 Samsung Electronics Company, Ltd. Object detection and motion identification using electromagnetic radiation
JP6352574B1 (ja) * 2017-06-27 2018-07-04 サン電子株式会社 ゲームプログラム
US10474417B2 (en) 2017-07-20 2019-11-12 Apple Inc. Electronic device with sensors and display devices
US10423241B1 (en) * 2017-07-31 2019-09-24 Amazon Technologies, Inc. Defining operating areas for virtual reality systems using sensor-equipped operating surfaces
US10782793B2 (en) 2017-08-10 2020-09-22 Google Llc Context-sensitive hand interaction
WO2019067096A1 (en) 2017-09-29 2019-04-04 Apple Inc. VEIN SCANNING DEVICE FOR AUTOMATIC RECOGNITION OF GESTURES AND FINGERS
CN107670272A (zh) * 2017-09-29 2018-02-09 广州云友网络科技有限公司 基于vr技术的智能体感、触感互动场景模拟方法
JP7420383B2 (ja) 2018-01-14 2024-01-23 ライト フィールド ラボ、インコーポレイテッド 秩序化構造体を使用したエネルギー・リレー内の横方向エネルギー局在化ためのシステムおよび方法
JP6353994B1 (ja) * 2018-01-17 2018-07-04 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理方法、および情報処理装置
CN108279859B (zh) * 2018-01-29 2021-06-22 深圳市洲明科技股份有限公司 一种大屏幕显示墙的控制系统及其控制方法
US10981067B2 (en) * 2018-02-06 2021-04-20 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
JP6908573B2 (ja) * 2018-02-06 2021-07-28 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム
CN110115842B (zh) 2018-02-06 2023-01-13 日本聚逸株式会社 应用处理系统、应用处理方法以及应用处理程序
EP3520868A1 (en) * 2018-02-06 2019-08-07 Gree, Inc. Game processing system, method of processing game, and program for processing game
US10497179B2 (en) 2018-02-23 2019-12-03 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method for performing real object detection and control using a virtual reality head mounted display system
EP3593198B1 (en) 2018-03-07 2023-03-08 Magic Leap, Inc. Visual tracking of peripheral devices
CN108509035B (zh) * 2018-03-20 2021-06-18 瑞芯微电子股份有限公司 一种vr人机交互方法和设备
US10353579B1 (en) * 2018-03-28 2019-07-16 Disney Enterprises, Inc. Interpreting user touch gestures to generate explicit instructions
CN109753144A (zh) * 2018-05-08 2019-05-14 北京字节跳动网络技术有限公司 一种实现信息交互的方法、设备及系统
US10942564B2 (en) 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
US11262839B2 (en) 2018-05-17 2022-03-01 Sony Interactive Entertainment Inc. Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment
JP2019005564A (ja) * 2018-06-06 2019-01-17 サン電子株式会社 仮想現実プログラム
US11394949B2 (en) * 2018-06-12 2022-07-19 Disney Enterprises, Inc. See-through operator awareness tool using synthesized viewpoints
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
JP7058198B2 (ja) * 2018-08-21 2022-04-21 グリー株式会社 画像表示システム、画像表示方法及び画像表示プログラム
CN110942518B (zh) 2018-09-24 2024-03-29 苹果公司 上下文计算机生成现实(cgr)数字助理
US11354787B2 (en) 2018-11-05 2022-06-07 Ultrahaptics IP Two Limited Method and apparatus for correcting geometric and optical aberrations in augmented reality
CN110147196A (zh) 2018-12-04 2019-08-20 腾讯科技(深圳)有限公司 交互控制方法和装置、存储介质及电子装置
TW202022569A (zh) 2018-12-11 2020-06-16 宏碁股份有限公司 應用於虛擬實境之操作平台
CN111318008A (zh) * 2018-12-14 2020-06-23 宏碁股份有限公司 应用于虚拟现实的操作平台
CN109613983A (zh) * 2018-12-26 2019-04-12 青岛小鸟看看科技有限公司 头戴显示系统中手柄的定位方法、装置和头戴显示系统
EP3677997B1 (en) * 2019-01-03 2021-10-13 HTC Corporation Electronic system and controller
CN110308787A (zh) * 2019-01-16 2019-10-08 上海触派科技有限公司 一种多维交互识别与棋牌游戏结合的ar互动系统及方法
TWI739069B (zh) * 2019-03-04 2021-09-11 仁寶電腦工業股份有限公司 遊戲裝置與辨識遊戲裝置的方法
US20200286298A1 (en) * 2019-03-06 2020-09-10 Immersion Corporation Systems and methods for a user interaction proxy
CN110110647A (zh) * 2019-04-30 2019-08-09 北京小米移动软件有限公司 基于ar设备进行信息显示的方法、装置及存储介质
US11486961B2 (en) * 2019-06-14 2022-11-01 Chirp Microsystems Object-localization and tracking using ultrasonic pulses with reflection rejection
US11023036B1 (en) * 2019-07-09 2021-06-01 Facebook Technologies, Llc Virtual drawing surface interaction using a peripheral device in artificial reality environments
US11023035B1 (en) 2019-07-09 2021-06-01 Facebook Technologies, Llc Virtual pinboard interaction using a peripheral device in artificial reality environments
US10976804B1 (en) 2019-07-09 2021-04-13 Facebook Technologies, Llc Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments
US10949671B2 (en) * 2019-08-03 2021-03-16 VIRNECT inc. Augmented reality system capable of manipulating an augmented reality object and an augmented reality method using the same
CN110543239A (zh) * 2019-09-05 2019-12-06 重庆瑞信展览有限公司 数字化互动展览综合应用系统
DE102019215860A1 (de) * 2019-10-15 2021-04-15 Continental Automotive Gmbh Anzeigegerät zur Erfassung der Annäherung eines Körpers, wobei Infrarotelemente auf einer Anzeigeschicht angeordnet sind
EP3825816A1 (en) * 2019-11-22 2021-05-26 Koninklijke Philips N.V. Rendering a virtual object on a virtual user interface
WO2021236170A1 (en) * 2020-05-18 2021-11-25 Google Llc Low-power semi-passive relative six-degree-of-freedom tracking
CN112704876B (zh) * 2020-12-30 2022-10-04 腾讯科技(深圳)有限公司 虚拟对象互动模式的选择方法、装置、设备及存储介质
CN114693890A (zh) * 2020-12-31 2022-07-01 华为技术有限公司 一种增强现实交互方法及电子设备
US20220264079A1 (en) * 2021-02-11 2022-08-18 Kenneth Perlin Multi-Person Mixed Reality Experience, Method and Apparatus
US11747919B1 (en) * 2021-05-14 2023-09-05 Apple Inc. Multi-input for rotating and translating crown modules
US11693479B2 (en) 2021-09-28 2023-07-04 Htc Corporation Virtual image display device and object selection method for virtual image thereof
WO2023175162A1 (fr) * 2022-03-18 2023-09-21 Embodme Dispositif et procede de detection d'un objet au-dessus d'une surface de detection
FR3133688A1 (fr) * 2022-03-18 2023-09-22 Embodme Dispositif et procede de generation d’un nuage de points d’un objet au-dessus d’une surface de detection
FR3133687B1 (fr) * 2022-03-18 2024-03-15 Embodme Dispositif et procede de detection d’un objet au-dessus d’une surface de detection
US11797100B1 (en) * 2022-09-23 2023-10-24 Huawei Technologies Co., Ltd. Systems and methods for classifying touch events based on relative orientation

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5003300A (en) 1987-07-27 1991-03-26 Reflection Technology, Inc. Head mounted display for miniature video display system
JP3163786B2 (ja) 1992-10-09 2001-05-08 ソニー株式会社 眼鏡型映像表示装置
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
US5562572A (en) 1995-03-10 1996-10-08 Carmein; David E. E. Omni-directional treadmill
EP0908754A3 (en) 1994-04-21 2000-04-12 Sega Enterprises, Ltd. Head mounted display
US5581271A (en) 1994-12-05 1996-12-03 Hughes Aircraft Company Head mounted visual display
TW275590B (en) 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
US6369952B1 (en) 1995-07-14 2002-04-09 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
JP3869876B2 (ja) * 1995-12-19 2007-01-17 キヤノン株式会社 画像計測方法及び画像計測装置
JP3450704B2 (ja) * 1997-09-01 2003-09-29 キヤノン株式会社 位置姿勢検出装置及び情報処理方法
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP3486536B2 (ja) * 1997-09-01 2004-01-13 キヤノン株式会社 複合現実感提示装置および方法
JPH113437A (ja) * 1998-04-13 1999-01-06 Namco Ltd 画像合成装置及び画像合成方法
WO2000017848A1 (en) 1998-09-22 2000-03-30 Vega Vista, Inc. Intuitive control of portable data displays
CA2328953A1 (en) 1999-02-16 2000-08-24 Yugen Kaisha Gm&M Speech converting device and method
US6695770B1 (en) 1999-04-01 2004-02-24 Dominic Kin Leung Choy Simulated human interaction systems
WO2001056007A1 (en) 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
JP3517639B2 (ja) 2000-09-27 2004-04-12 キヤノン株式会社 複合現実感提示装置及びその方法並びに記憶媒体
JP2002157607A (ja) 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
US20020133264A1 (en) 2001-01-26 2002-09-19 New Jersey Institute Of Technology Virtual reality system for creation of design models and generation of numerically controlled machining trajectories
JP3584230B2 (ja) * 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システム、情報処理方法およびプログラム
JP4054585B2 (ja) 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US7009100B2 (en) 2002-08-20 2006-03-07 Casio Computer Co., Ltd. Performance instruction apparatus and performance instruction program used in the performance instruction apparatus
JP3779308B2 (ja) * 2004-07-21 2006-05-24 独立行政法人科学技術振興機構 カメラ校正システム及び三次元計測システム
JP2006343888A (ja) * 2005-06-08 2006-12-21 Nec Corp 携帯端末装置及びその表示制御方法並びにプログラム
US9344612B2 (en) 2006-02-15 2016-05-17 Kenneth Ira Ritchey Non-interference field-of-view support apparatus for a panoramic facial sensor
US8354997B2 (en) * 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
EP2078229A2 (en) 2006-11-02 2009-07-15 Sensics, Inc. Systems and methods for a head-mounted display
US8605008B1 (en) 2007-05-04 2013-12-10 Apple Inc. Head-mounted display
JP4933406B2 (ja) 2007-11-15 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法
EP2281231B1 (en) * 2008-03-18 2013-10-30 Elliptic Laboratories AS Object and movement detection
US7856883B2 (en) * 2008-03-24 2010-12-28 Industrial Technology Research Institute Capacitive ultrasonic sensors and display devices using the same
GB0816222D0 (en) * 2008-09-05 2008-10-15 Elliptic Laboratories As Machine interfaces
US8957835B2 (en) 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
EP2389152A4 (en) 2009-01-20 2016-05-11 Univ Northeastern MULTI-USER SMARTGLOVE FOR REHABILITATION BASED ON VIRTUAL ENVIRONMENTS
JP2012515966A (ja) * 2009-01-26 2012-07-12 ズッロ・テクノロジーズ・(2009)・リミテッド 物体の挙動を監視するためのデバイスおよび方法
US20110043537A1 (en) 2009-08-20 2011-02-24 University Of Washington Visual distortion in a virtual environment to alter or guide path movement
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
EP2619749A4 (en) 2010-09-21 2017-11-15 4IIII Innovations Inc. Head-mounted peripheral vision display systems and methods
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US8678282B1 (en) 2010-11-29 2014-03-25 Lockheed Martin Corporation Aim assist head-mounted display apparatus
EP3654147A1 (en) * 2011-03-29 2020-05-20 QUALCOMM Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
CN103380625A (zh) 2011-06-16 2013-10-30 松下电器产业株式会社 头戴式显示器及其位置偏差调整方法
WO2012177237A1 (en) * 2011-06-21 2012-12-27 Empire Technology Development Llc Gesture based user interface for augmented reality
JP6144681B2 (ja) 2011-08-30 2017-06-07 マイクロソフト テクノロジー ライセンシング,エルエルシー 虹彩スキャン・プロファイリング機能を有する頭部装着ディスプレイ
US8223024B1 (en) 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
US20130147686A1 (en) 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
JP5957875B2 (ja) * 2011-12-26 2016-07-27 ソニー株式会社 ヘッドマウントディスプレイ
US8894484B2 (en) 2012-01-30 2014-11-25 Microsoft Corporation Multiplayer game invitation system
US9389690B2 (en) * 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
TWI464640B (zh) * 2012-04-03 2014-12-11 Wistron Corp 手勢感測裝置及具有手勢輸入功能的電子系統
US9141197B2 (en) 2012-04-16 2015-09-22 Qualcomm Incorporated Interacting with a device using gestures
US9001427B2 (en) 2012-05-30 2015-04-07 Microsoft Technology Licensing, Llc Customized head-mounted display device
US9146397B2 (en) 2012-05-30 2015-09-29 Microsoft Technology Licensing, Llc Customized see-through, electronic display device
US20130322683A1 (en) 2012-05-30 2013-12-05 Joel Jacobs Customized head-mounted display device
US20130328925A1 (en) 2012-06-12 2013-12-12 Stephen G. Latta Object focus in a mixed reality environment
JP6113014B2 (ja) 2012-07-31 2017-04-12 キヤノン株式会社 電子写真用部材、電子写真用部材の製造方法および電子写真装置
JP6186689B2 (ja) 2012-09-26 2017-08-30 セイコーエプソン株式会社 映像表示システム
US9851787B2 (en) 2012-11-29 2017-12-26 Microsoft Technology Licensing, Llc Display resource management
US20140168261A1 (en) 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
US20140176591A1 (en) 2012-12-26 2014-06-26 Georg Klein Low-latency fusing of color image data
US9041741B2 (en) 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
US9335547B2 (en) 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
CN103399628A (zh) * 2013-05-13 2013-11-20 重庆大学 一种人机交互游戏系统
US9878235B2 (en) 2013-06-07 2018-01-30 Sony Interactive Entertainment Inc. Transitioning gameplay on a head-mounted display
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10905943B2 (en) 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US10173129B2 (en) 2013-06-09 2019-01-08 Sony Interactive Entertainment Inc. Methods for rendering interactive content to a head mounted display
WO2014204330A1 (en) 2013-06-17 2014-12-24 3Divi Company Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
JP6398157B2 (ja) 2013-08-19 2018-10-03 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US10585478B2 (en) 2013-09-13 2020-03-10 Nod, Inc. Methods and systems for integrating one or more gestural controllers into a head mounted wearable display or other wearable devices
KR20150041249A (ko) 2013-10-07 2015-04-16 한국전자통신연구원 가상 체험북 시스템과 그 동작 방법
US9274340B2 (en) 2014-02-18 2016-03-01 Merge Labs, Inc. Soft head mounted display goggles for use with mobile computing devices

Also Published As

Publication number Publication date
EP3116616A1 (en) 2017-01-18
JP6538897B2 (ja) 2019-07-03
JP2018129043A (ja) 2018-08-16
JP2017516186A (ja) 2017-06-15
WO2015139002A1 (en) 2015-09-17
US9987554B2 (en) 2018-06-05
CN106233227B (zh) 2020-04-28
US20150258432A1 (en) 2015-09-17
CN106233227A (zh) 2016-12-14
EP3116616B1 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
JP6538897B2 (ja) 空間感知を備えるゲーム機
US11813517B2 (en) Gaming device with rotatably placed cameras
US11724177B2 (en) Controller having lights disposed along a loop of the controller
US10503269B2 (en) Pinch and hold gesture navigation on a head-mounted display
TWI594174B (zh) 頭戴顯示器之追蹤系統、方法及裝置
WO2018063896A1 (en) Object holder for virtual reality interaction
US20220253132A1 (en) Systems and methods for determining movement of a controller with respect to an hmd
JP2017516187A (ja) ヘッドマウントディスプレイ(hmd)の追跡及びhmdのヘッドバンドの調整のための校正方法及びシステム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180131

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180312

R150 Certificate of patent or registration of utility model

Ref document number: 6307627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250