JP6880081B2 - 方向インタフェースオブジェクト - Google Patents

方向インタフェースオブジェクト Download PDF

Info

Publication number
JP6880081B2
JP6880081B2 JP2018564897A JP2018564897A JP6880081B2 JP 6880081 B2 JP6880081 B2 JP 6880081B2 JP 2018564897 A JP2018564897 A JP 2018564897A JP 2018564897 A JP2018564897 A JP 2018564897A JP 6880081 B2 JP6880081 B2 JP 6880081B2
Authority
JP
Japan
Prior art keywords
tubular portion
interface object
axis
directional interface
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018564897A
Other languages
English (en)
Other versions
JP2019522849A (ja
Inventor
ロジャース、マーク
チャン、ダナ
ブルックボック、トム
スミイ、テツ
ノクオ、タイチ
ルイージ、セス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2019522849A publication Critical patent/JP2019522849A/ja
Application granted granted Critical
Publication of JP6880081B2 publication Critical patent/JP6880081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • A63F13/245Constructional details thereof, e.g. game controllers with detachable joystick handles specially adapted to a particular type of game, e.g. steering wheels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本開示は、ビデオゲームのゲームプレイ用のインタフェースオブジェクトに関し、より具体的には、ビデオゲームが、ヘッドマウントディスプレイ(HMD)に提示される仮想現実(VR)環境コンテンツを規定することと、関連する方法及びシステムに関する。
ビデオゲーム業界は、年を追って多くの変化が起こっている。演算能力が拡大したので、ビデオゲームの開発者は、演算能力のこの向上を利用するゲームソフトウェアを同様に製作するようになった。このために、ビデオゲーム開発者は、高度な操作や数学を組み込んで、非常に詳細で魅力のあるゲーム体験を生み出すゲームをプログラムするようになった。
ゲームプラットフォームの例には、Sony Playstation(登録商標)、Sony Playstation2(登録商標)(PS2)、Sony Playstation3(登録商標)(PS3)、Sony Playstation4(登録商標)(PS4)が含まれ、それぞれ、ゲームコンソールの形で販売されている。周知のように、ゲームコンソールは、ディスプレイ(典型的に、テレビ)に接続して、ハンドヘルドコントローラを用いたユーザインタラクションを可能にするように設計される。ゲームコンソールは、CPU、集約的なグラフィックス処理を行うグラフィックスシンセサイザ、ジオメトリ変換を行うベクトルユニットを含む専用処理ハードウェアと、他のグルーハードウェア、ファームウェア、及び、ソフトウェアとを用いて設計される。ゲームコンソールは、ゲームコンソールを用いたローカルプレイのためにゲームディスクを受け容れる光ディスクリーダを備えて設計される。ユーザが、インターネットを介して他のユーザとインタラクティブにプレイできるオンラインゲームも可能である。ゲームの複雑さがプレイヤの興味を引き続けるため、ゲーム及びハードウェアのメーカは追加のインタラクティブ性とコンピュータプログラムを可能にするために革新を続けてきた。
コンピュータゲーム業界において増加傾向にあるのは、ユーザとゲームシステムのインタラクションを増やすゲームの開発である。より豊かなインタラクティブ体験を達成する1つの方法は、プレイヤの動きを追跡し、その動きをゲームへの入力として用いるために、無線ゲームコントローラを使用して、その動きをゲームシステムが追跡することである。一般的に言うと、ジェスチャ入力は、プレイヤが行い、電子デバイスが捕捉したジェスチャに、コンピュータシステム、ビデオゲームコンソール、スマート装置等の電子デバイスを反応させることを指す。
より没入型のインタラクティブ体験を達成する別の方法は、ヘッドマウンテッドディスプレイの使用である。ヘッドマウンテッドディスプレイは、ユーザによって装着され、仮想空間のビュー等の様々なグラフィックスを提示するように構成することができる。ヘッドマウンテッドディスプレイに提示されたグラフィックスは、ユーザの視界の大部分または全てをカバーすることができる。よって、ヘッドマウンテッドディスプレイは、視覚的に没入型の体験をユーザに提供することができる。
この文脈で開示の実施形態は生じる。
本開示の実施態様は、ビデオゲームのゲームプレイ中等、仮想現実(VR)環境におけるインタラクションに使用される方向インタフェースオブジェクトに関連するデバイス、方法、及び、システムを含む。VR環境は、ヘッドマウントディスプレイ(HMD)を介して提示でき、インタフェースオブジェクトは、どちらの手が方向インタフェースオブジェクトの異なる部分を把持しているかを検出する機能を含んでよい。従って、ユーザの手に対応するVR環境の仮想の手は、VR環境の対応するアイテム(例えば、武器または銃)のどの部分をどちらの手が持っているかを適切に示すように構成し得る。さらに、方向インタフェースオブジェクトを持っている時の手の姿勢の変化を、VR環境のユーザの対応するビューに反映できる。
ある実施態様において、上部管状部分と、前部管状部分であって、その上端が上部管状部分の第1の端部に結合されている前部管状部分と、下部管状部分であって、その第1の端部が前部管状部分の下端に結合されている下部管状部分と、後部管状部分であって、その上端が、上部管状部分の第1の端部の反対側の上部管状部分の第2の端部に結合され、その下端が下部管状部分の第1の端部の反対側の下部管状部分の第2の端部に結合されている後部管状部分と、上部管状部分の第1の端部に配置される追跡可能なオブジェクトと、を含む方向インタフェースオブジェクトが提供される。
ある実施態様において、前部管状部分は、第1の軸に沿っており、後部管状部分は、第1の軸と実質的に平行でない第2の軸に沿っている。
ある実施態様において、下部管状部分は、第3の軸に沿っており、前部管状部分は、第3の軸に垂直な方向に対して第1の角度をなして第1の軸に沿って下部管状部分から離れるように延び、後部管状部分は、第3の軸に垂直な方向に対して第2の角度をなして第2の軸に沿って下部管状部分から離れるように延び、第2の角度は、第1の角度より小さい。
ある実施態様において、上部管状部分は、第1の軸に沿っており、下部管状部分は、第1の軸とは実質的に平行でない第2の軸に沿っている。
ある実施態様において、上部管状部分は、第1の軸に沿って第1の方向に後部管状部分から離れるように延び、下部管状部分は、第1の方向から分かれる第2の方向に第2の軸に沿って後部管状部分から離れるように延びる。
ある実施態様において、追跡可能なオブジェクトは、実質的に球形である。
ある実施態様において、追跡可能なオブジェクトは、半透明な材料からなり、半透明な材料を照らすライトをさらに含む。
ある実施態様において、方向インタフェースオブジェクトは、前部管状部分に沿って配置された第1のジョイスティックと、上部管状部分の第2の端部に配置された第2のジョイスティックとをさらに含む。
ある実施態様において、方向インタフェースオブジェクトは、方向インタフェースオブジェクトの動きを感知する少なくとも1つの慣性センサをさらに含む。
ある実施態様において、方向インタフェースオブジェクトは、前部管状部分または後部管状部分とユーザの手との接触をそれぞれ検出するために前部管状部分または後部管状部分に沿って配置された少なくとも1つの接触センサをさらに含む。
ある実施態様において、方向インタフェースオブジェクトであって、上部管状部分と、前部管状部分であって、その上端が上部管状部分の第1の端部に結合される前部管状部分と、下部管状部分であって、その第1の端部が前部管状部分の下端に結合される下部管状部分と、後部管状部分であって、その上端が前部管状部分の第1の端部の反対側にある前部管状部分の第2の端部に結合され、その下端が下部管状部分の第1の端部の反対側にある下部管状部分の第2の端部に結合される後部管状部分と、上部管状部分の第1の端部に配置される追跡可能なオブジェクトと、方向インタフェースオブジェクトの動きを示す慣性データを生成するように構成された少なくとも1つの慣性センサとを含む方向インタフェースオブジェクトと、方向インタフェースオブジェクトが配置されたインタラクティブ環境の画像を撮影するように構成された撮像装置と、インタラクティブアプリケーションを実行して、仮想環境のビューをヘッドマウントディスプレイ(HMD)にレンダリングするように構成されたコンピュータデバイスであって、撮影した画像と慣性データとを処理して、仮想環境のビューにレンダリングされる仮想オブジェクトの位置を決定するように構成されるコンピュータデバイスとを含むシステムを提供する。
開示の他の態様及び長所は、例を挙げて開示の原理を示す以下の詳細な記載を添付の図面と共に読むと明らかとなろう。
本開示は、添付図面と共に以下の記載を参照することでより良く理解されよう。
開示の実施形態による、ビデオゲームのインタラクティブなゲームプレイのためのシステムを示す図である。
開示の実施形態による、ヘッドマウントディスプレイ(HMD)を示す図である。 開示の実施形態による、ヘッドマウントディスプレイ(HMD)を示す図である。
一実施形態による、HMDユーザがクライアントシステムとインタフェースし、クライアントシステムが第2画面と呼ばれる第2画面ディスプレイにコンテンツを提供する一例を示す図である。
開示の実施形態による、実行中のビデオゲームと共にHMDの機能を概念的に示す図である。
開示の実施態様による、方向インタフェースオブジェクト104の側面図である。
開示の実施態様による、方向インタフェースオブジェクト104の追加の斜視図である。 開示の実施態様による、方向インタフェースオブジェクト104の追加の斜視図である。
開示の実施態様による、複数のタッチセンサを有する方向インタフェースオブジェクトの図である。
開示の実施態様による、方向インタフェースオブジェクトの前部管状部分と後部管状部分の側面にある上記タッチセンサによって測定された接触量を示す複数のグラフである。
開示の実施態様による、ユーザの現実の手に対応する適切な仮想の手をVR環境にレンダリングする方法を示す図である。
開示の実施態様による、タッチセンサに触れるユーザの手の指の変化と、仮想の手のレンダリングの対応する変化とを示す図である。
開示の実施態様による、方向インタフェースオブジェクトの追跡を容易にする複数のライトを有する方向インタフェースオブジェクトの図である。
開示の実施態様による、可動重りを有する方向インタフェースオブジェクトの図である。
開示の実施態様による、HMD102を用いてVR環境を見るユーザ100の図である。
開示の実施態様による、HMD102を用いてVR環境を見るユーザ100の図である。
開示の実施態様による、HMDを用いてVR環境を見るユーザの図である。
発明の実施形態による、方向インタフェースオブジェクト104のコンポーネントを示す図である。
開示の実施形態による、ヘッドマウントディスプレイのコンポーネントの図である。
開示の様々な実施形態による、ゲームシステム1400のブロック図である。
本開示の以下の実施態様は、ビデオゲーム等のインタラクティブアプリケーションに入力を行うための方向インタフェースオブジェクトに関連するデバイス、方法、及び、システムを提供する。
様々な実施態様において、方法、システム、撮像オブジェクト、センサ、及び、関連するインタフェースオブジェクト(例えば、手袋、コントローラ、周辺デバイス等)は、ディスプレイ画面にほぼリアルタイムでレンダリングされるように設定されたデータを処理するように構成される。ディスプレイは、ヘッドマウントディスプレイ(HMD)のディスプレイ、第2画面のディスプレイ、ポータブルデバイスのディスプレイ、コンピュータディスプレイ、ディスプレイパネル、(例えば、インタラクティブ体験でコンテンツを視聴または共有していてよい)一人または複数の遠隔に接続されたユーザのディスプレイ等であってよい。
しかしながら、これらの特定の詳細の一部または全てが無くても本開示を実践し得ることが当業者には明らかであろう。他の例においては、本開示を不必要に分かりにくくしないように、周知のプロセスの動作は詳細には記載していない。
図1は、開示の実施形態による、ビデオゲームのインタラクティブなゲームプレイのためのシステムを示す。ヘッドマウンテッドディスプレイ(HMD)102を装着しているユーザ100が示されている。HMD102は、眼鏡、ゴーグル、または、ヘルメットと同じように装着され、ビデオゲームまたは他のコンテンツをユーザ100に表示するように構成される。HMD102は、ユーザの目のすぐ近くにディスプレイ機構を設けることによって、非常に没入型の体験をユーザに提供する。従って、HMD102は、ユーザの各目に、ユーザの視界の大部分または全体を占める表示領域を提供することができる。
一実施形態においては、HMD102は、コンピュータ106に接続することができる。コンピュータ106への接続は、有線でも無線でもよい。コンピュータ106は、ゲームコンソール、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、モバイルデバイス、携帯電話、タブレット、シンクライアント、セットトップボックス、メディアストリーミングデバイス等を含むが、これらに限らない当分野で既知の任意の汎用または専用コンピュータであってよい。一実施形態においては、コンピュータ106は、ビデオゲームを実行し、HMD102でレンダリングするためにビデオゲームからビデオ及びオーディオを出力するように構成することができる。
ユーザ100は、方向インタフェースオブジェクト104を操作して、ビデオゲームに入力を行ってよい。さらに、カメラ108は、ユーザ100がいるインタラクティブ環境の画像を撮影するように構成することができる。これらの撮影した画像を分析して、ユーザ100、HMD102、及び、方向インタフェースオブジェクト104の位置と動きを決定することができる。様々な実施態様において、方向インタフェースオブジェクト104は、追跡可能なライト及び/または慣性センサ(複数可)を備えて、方向インタフェースオブジェクト104の位置と向きを決定することができる。
ユーザがHMD102に表示される仮想現実シーンとインタラクトする方法は様々であり、方向インタフェースオブジェクト104に加えて他のインタフェースデバイスを用いることができる。たとえば、片手コントローラも使用でき、両手コントローラも使用できる。ある実施形態においては、コントローラは、コントローラに関連付けられたライトを追跡することによって、または、コントローラに関連付けられた形、センサ、及び、慣性データを追跡することによって、自身で追跡できる。これらの様々な種類のコントローラを用いて、または、行われる手のジェスチャを1つまたは複数のカメラによって単に撮影することによって、HMD102に提示される仮想現実環境とインタフェース、仮想現実環境を制御、操作、仮想現実環境とインタラクト、仮想現実環境に参加することが可能である。
さらに、HMD102は、1つまたは複数のライトを備えてよく、そのライトを追跡してHMD102の位置と向きを決定することができる。カメラ108は、1つまたは複数のマイクロフォンを備えて、インタラクティブ環境からの音を捕捉することができる。マイクロフォンアレイが捕捉した音を処理して、音源の位置を識別してよい。識別された位置からの音を選択的に利用または処理して、識別した位置以外の他の音を除くことができる。さらに、カメラ108は、複数の撮像装置(例えば、ステレオペアカメラ)、IRカメラ、デプスカメラ、及び、これらの組み合わせを含むように規定することができる。
別の実施形態においては、コンピュータ106は、クラウドゲームプロバイダ112とネットワークを介して通信するシンクライアントとして機能する。クラウドゲームプロバイダ112は、ユーザ102がプレイしているビデオゲームを維持、実行する。コンピュータ106は、HMD102、方向インタフェースオブジェクト104、及び、カメラ108からの入力を、クラウドゲームプロバイダに送信し、クラウドゲームプロバイダは、その入力を処理して、実行中のビデオゲームのゲーム状態に反映する。ビデオデータ、オーディオデータ、及び、触覚フィードバックデータ等の実行中のビデオゲームからの出力は、コンピュータ106に送信される。コンピュータ106は、送信前にデータをさらに処理してもよく、または、データを関連デバイスに直接送信してもよい。例えば、ビデオストリーム及びオーディオストリームは、HMD102に提供され、振動フィードバックコマンドは、方向インタフェースオブジェクト104に提供される。
一実施形態においては、HMD102、方向インタフェースオブジェクト104、及び、カメラ108は、それ自体、ネットワーク110に接続して、クラウドゲームプロバイダ112と通信するネットワーク化されたデバイスであってよい。例えば、コンピュータ106は、そうでなければ、ビデオゲーム処理を行わず、ネットワークトラフィックの通過を促進するルータ等のローカルネットワーク装置であってよい。HMD102、方向インタフェースオブジェクト104、及び、カメラ108によるネットワークへの接続は、有線であっても無線であってもよい。
さらに、本開示の実施形態は、ヘッドマウントディスプレイを参照して記載し得るが、他の実施形態においては、ヘッドマウントでないディスプレイで置き換えられてよいことは理解されよう。ヘッドマウントでないディスプレイには、テレビ、プロジェクタ、LCDディスプレイ画面、ポータブルデバイス画面(例えば、タブレット、スマートフォン、ラップトップ等)、または、本実施形態による、ビデオをレンダリングするように、及び/または、インタラクティブなシーンもしくは仮想環境を表示するように構成できる任意の他の種類のディスプレイを含むが、これらに限らない。
開示の実施形態の態様は、図1に示すような方向インタフェースオブジェクト104に関する。図に示すように、ユーザ100は、左手でトリガを持ち、右手で方向インタフェースオブジェクト104の最も前のセクションを持つ楽な姿勢で方向インタフェースオブジェクト104を持つことができる。一実施形態においては、仮想現実空間とインタフェースする時、仮想の武器またはポインティングデバイスを選択及び/または発射するように、左手がトリガを握るように設定される。右手は、方向インタフェースオブジェクト104の本体に置かれて、ユーザの親指が制御入力装置にアクセスする方法を提供する。制御入力装置は、例えば、ジョイスティックを含み、ジョイスティックを使用して、ユーザ100のHMD102によって見られている仮想ユーザを制御してよい。例えば、ジョイスティックは、前に押すと、仮想ユーザが、仮想環境内で前に進むことができ、仮想ユーザが、左、右、及び、異なる方向にナビゲートするのを可能にしてよい。
右手、例えば、親指で制御できる他の選択ボタンは、共有ボタンであってよい。方向パッドの方向ボタン等、他のボタンも、右手の親指で簡単にアクセスできるように配置されてよい。ユーザの左手に関しては、ユーザの親指は、後部入力ジョイスティックにアクセスできる。後部入力ジョイスティックは、左手の親指より上にあり、左手は、トリガを握っている。以下に記載するように、左手の親指エリアの近く、または、方向インタフェースオブジェクト104の後部に配置されたボタンは、ジョイスティックと、典型的にコントローラに配置される他のボタンとを含み得る。例えば、ボタンは、三角形のボタン、四角形のボタン、円形のボタン、及び、Xボタンを含むことができ、それらは、ジョイスティックの周りに配置される。他の実施形態においては、様々な他のゲームコンソールコントローラ、及び、ゲームコンソールでないコントローラに共通のボタンが、方向インタフェースオブジェクト104に組み込まれてよい。ボタンの位置は、移動されてもよく、また、より多いボタンまたはより少ないボタンが備えられてよいことは理解されたい。
入力装置は、タッチスクリーン、ビデオ画面、及び、他の種類のセンサ及び入力装置を含み得ることは理解されたい。特定の1つの例においては、左手の親指は、トリガを握っている間、これらの他のボタンともインタフェースできる。方向インタフェースオブジェクト104は、組み込みの慣性センサを備え、それによって、慣性追跡に関する情報をコンピュータ106に通信することが可能になる。一実施形態においては、HMD102で全ての処理を行うことが可能で、方向インタフェースオブジェクト104の慣性追跡は、HMD102の回路によって処理できる。他の実施形態においては、慣性データは、ネットワーク110を介してクラウドゲームシステム112に転送できる。例えば、HMD102でレンダリングされるゲームは、クラウドゲームシステム112で実行でき、HMD102のディスプレイに返信できる。一構成においては、ユーザ100と向かい合っているカメラ108は、HMD102を追跡してよく、方向インタフェースオブジェクト104も追跡してよい。
以下に記載のように、追跡は、ユーザ100がプレイしているシーンを撮影した画像フレームをモニタすることによって行われる。追跡により、HMD102及び方向インタフェースオブジェクト104の位置を検出できる。一実施形態は、方向インタフェースオブジェクト104の前部の近くに照らされたオブジェクトを含む。照明オブジェクトは、例えば、輝くように光るボールであってよい。一構成においては、ボールの色は、ユーザに応じて変わってよい。例えば、複数のユーザが特定の位置でゲームをプレイしている場合、照らされたボールは、異なるプレイヤを区別するように異なる色の光を発する。
一実施形態においては、方向インタフェースオブジェクト104は、トリガがあるハンドル部分とトリガの反対側の遠位ハンドル位置とを取り巻く一体化された本体から規定される。ある実施形態においては、センサが、方向インタフェースオブジェクト104の表面に備えられて、ユーザの手が本体の表面に接触している時を検出してよい。センサは、一実施形態においては、ユーザが左手をトリガにおいて、または、右手をトリガにおいて方向インタフェースオブジェクト104を持っている時を検出できる。典型的には、ユーザが右利きであるか左利きであるかに応じて、ユーザは、最も持ちやすいように方向インタフェースオブジェクト104を持つ。一実施形態においては、センサは、どちらの手がトリガを握っているかを決定してよい。
以下に記載のように、トリガエリアと前部ハンドルとを握っている表面積の量を比較することも可能であってよい。ユーザの手が特定の側で把持位置にある時、より多くの表面積がユーザの手によって覆われている場合、それは、ユーザの方向インタフェースオブジェクト104の持ち方を示してよい。図1の例においては、左手はトリガを握り、右手は前部/ハンドルを持っている。トリガエリアの左側のセンサが、ユーザの手との接触がより多いことを検出する場合、これは、左手がトリガを握っていることを示してよい。トリガエリアの右側のセンサが、ユーザの手との接触がより多いことを検出する場合、これは、右手がトリガを握っていることを示してよい。ユーザの方向インタフェースオブジェクト104の持ち方を検出することによって、HMD102を介して見られる仮想現実シーンの仮想オブジェクトの対応する持っている向きを提供する。例えば、ユーザがファーストパーソンシューターゲームをプレイしている場合、HMD102を通して見られる銃は、シーンのユーザ100の仮想現実を描いて、仮想の武器を持っている対応する右手または左手を示す。従って、方向インタフェースオブジェクト104の持ち方に応じて、対応する仮想現実ビューの武器も同じように持たれ、これは、よりリアルな対応するビューをユーザに提供する。
ある実施形態においては、較正動作を行ってユーザが保持する向きを決定することが可能である。較正動作は、例えば、ユーザに方向インタフェースオブジェクト104を把持するように求めることができる。把持されると、較正動作は、どちら向きに方向インタフェースオブジェクト104が把持されているかを検出し、その情報を使用して仮想オブジェクトの仮想現実画像(例えば、仮想の銃)にマッピングする。ある実施形態においては、センサは、方向インタフェースオブジェクト104の表面のユーザ100の指の近くに配置されてよい。センサを使用して、ユーザ100がオブジェクト104の表面から指を離す時を決定してよい。例えば、ユーザが指を表面から定期的に離している場合、これに対応する動きを、仮想表示シーンに示される仮想の手で示すことができる。すなわち、ユーザ100がトリガの下で指を小刻みに動かす場合、HMD102を通して見られる仮想現実シーンの仮想の手も、トリガを握る手に対応する手の指が小刻みに動く。ある実施形態においては、仮想現実シーンで小刻みに動くまたは移動する指は、方向インタフェースオブジェクト104上で動かされる同じ指に直接、対応しない場合があり、ユーザ100に対応し、仮想現実シーンの指のある動きは、ユーザが物理的方向インタフェースオブジェクト104上で自分の指を動かしているとユーザが分かっていることに対応する。
これは、仮想現実シーンに生成された仮想現実の銃をHMD102を通して見る時、よりリアルな感情と感覚を与える。他の実施形態においては、ユーザが右手をトリガにおいて、または、左手をトリガにおいて方向インタフェースオブジェクトを持っているかの決定は、入力設定によって行うことができる。入力設定は、初期化状態中、較正中、または、ユーザが、ゲームプレイ中に方向インタフェースオブジェクト104を持つ向きを変更すると決定する場合に、設定できる。更なる実施形態において、検出は動的であってよく、ゲームプレイ中、自動で設定できる。例えば、検出が自動の場合、ユーザが方向インタフェースオブジェクト104を一時的に下に置き、その後、反対の手で持ち上げると、システムは、それを自動的に検出して、HMD102でユーザに正確な向きを表示する。更なる実施形態において、方向インタフェースオブジェクト104の本体のあらゆる箇所に追加のセンサを備えることが可能であってよい。他のセンサは、本体の異なるセクタまたはセグメントに配置されて、ユーザがアクティブなトリガエリアも前部の制御エリアも握っていないことを決定し得る。例えば、ユーザが本体の下部から方向インタフェースオブジェクト104を持っている場合、システムは、ユーザが方向インタフェースオブジェクト104を持っている場所が分かる。
例として、ユーザが方向インタフェースオブジェクト104のどの位置を持っているかを検出することによって、シューティングもしくはポインティングゲームまたはナビゲーション機能ではないゲームプレイの様々な他の構成において、方向インタフェースオブジェクト104を使用することが可能である。ある実施形態においては、方向インタフェースオブジェクト104の本体を使用して、同じ共有空間で他のユーザとインタフェースすることができる。例えば、HMDユーザ100は、観客が方向インタフェースオブジェクト104の一部を持つまたは引き寄せることを可能にすることができ、これは、他のインタフェースまたはコントロールを提供できる。よって、本体のあらゆる箇所にセンサの配置を可能にして、触れること、把持、タップ、こすること、対接触(pairing contact)、または、任意の他の種類の物理的または近接入力を検出することによって、使用またはゲームプレイ機能またはインタフェース機能の検出を決定できる。ある実施形態においては、方向インタフェースオブジェクト104は、HMD102等、他の入力装置と対にできる。一構成においては、デバイスを一緒にタップすることによってそのデバイスを対にすることが可能である。対にすることが必要であると決定されると、トリガを引くことによってデバイスを対にすることも可能であってよい。
デバイスが互いに近くにある時、それらのデバイスを対にすることも可能である。例えば、ユーザがHMD102から2または3フィート内で方向インタフェースオブジェクト104を持っている場合、両デバイスは対にすべきであると考えられる。一実施形態においては、デバイス同士を対にすることは、バックグラウンドで自動で行われるアルゴリズムによって処理できる。他の実施形態においては、対にすることは、HMD102に提示された画面またはメニューまたはユーザインタフェースをナビゲートすることを含み得る。ある実施形態においては、ユーザは、方向インタフェースオブジェクト104をアイコン、コンテンツ、または、シーンに向け、その後、ボタン、トリガ、複数のボタンを押すこと、または、何らかのジェスチャ入力を行うことによって、HMD102でインタフェース、ボタン、ナビゲーション、または他の入力を選択できる。
図2A−1及び図2A−2は、開示の実施形態による、ヘッドマウントディスプレイ(HMD)を示す。図2A−1は、詳細には、開示の実施態様による、HMDの一例であるPlaystation(登録商標)VRヘッドセットを示す。図に示すように、HMD102は、複数のライト200A〜200Hを備える。これらのライトはそれぞれ、特定の形を有するように構成されてよく、また、同じまたは異なる色を有するように構成することができる。ライト200A、200B、200C、200Dは、HMD102の前面に配置される。ライト200E、200Fは、HMD102の側面に配置される。ライト200G、200Hは、HMD102の前面と側面に及ぶように、HMD102のコーナーに配置される。ライトは、ユーザがHMD102を使用するインタラクティブ環境を撮影した画像で識別できることは、理解されよう。ライトの識別及び追跡に基づいて、インタラクティブ環境におけるHMD102の位置と向きを決定することができる。さらに、ライトの一部は、撮像装置に対するHMD102の特定の向きに応じて、見える場合もあり、見えない場合もあることも理解されよう。また、異なる部分のライト(例えば、ライト200G、200H)が、撮像装置に対するHMD102の向きに応じて、撮像のために露出され得る。
一実施形態においては、ライトは、近くにいる他者に対してHMDの現在の状態を示すように構成することができる。例えば、ライトの一部または全ては、一定の配色、強度の組み合わせを有するように構成されてよく、点滅、一定のオン/オフ構成、または、HMD102の現在の状況を示す他の構成を有するように構成されてよい。例として、ライトは、ビデオゲームのゲームプレイがアクティブな間(一般的に、ゲームプレイがアクティブタイムライン中またはゲームシーン内で行われている)と、メニューインタフェースのナビゲートまたはゲーム設定の構成等のビデオゲームの他の非アクティブなゲームプレイ態様(この間、ゲームのタイムラインまたはシーンは非アクティブまたは一時停止してよい)とは、異なる構成を表示するように構成することができる。ライトは、ゲームプレイの相対強度レベルを示すように構成されてもよい。例えば、ゲームプレイの強度が増加すると、ライトの強度、または、点滅速度が増加してよい。こうすると、ユーザの外部の人は、HMD102のライトを見て、ユーザが、積極的にゲームプレイに没頭しており、今は邪魔されたくないであろうことを理解し得る。
HMD102は、さらに、1つまたは複数のマイクロフォンを備えてよい。図示の実施形態においては、HMD102は、HMD102の前面に規定されたマイクロフォン204A、204Bと、HMD102の側面に規定されたマイクロフォン204Cとを備える。マイクロフォンアレイを利用することによって、各マイクロフォンからの音を処理して、音源の位置を決定することができる。この情報は、不要な音源を除くこと、音源を視覚的識別と関連付けること等を含む、様々な方法で利用することができる。
HMD102は、また、1つまたは複数の撮像装置も含んでよい。図示の実施形態においては、撮像装置202A、202Bを備えるHMD102が示されている。ステレオペアの撮像装置を利用することによって、環境の三次元(3D)の画像及びビデオをHMD102の視点から撮影することができる。HMD102を装着したユーザにこのようなビデオを提示して、ユーザに「ビデオシースルー」能力を提供することができる。すなわち、ユーザは、厳密な意味では、HMD102を通して見ることはできないが、撮像装置202A、202B(例えば、または、以下の図3に示すようにHMD102の本体外側に配置された1つまたは複数の正面を向いたカメラ108’)が撮影したビデオは、HMD102を通して見るようにHMD102の外部の環境を見ることができる機能的に同等のものを提供することができる。このようなビデオは、仮想要素を用いて拡張されて、拡張現実体験を提供することができる、または、他の方法で、仮想要素と結合または融合させてもよい。図示の実施形態においては、2つのカメラは、HMD102の前面に示されているが、任意の数の外向きのカメラをHMD102上に任意の向きで設置してよいことは理解されよう。例えば、別の実施形態においては、環境の追加のパノラマ画像を撮影するためにHMD102の側面に搭載されたカメラがあってよい。
図2Bは、クライアントシステム106とインタフェースしているHMD102のユーザ100と、第2画面107と呼ばれる第2画面ディスプレイにコンテンツを提供しているクライアントシステム106との一例を示す。クライアントシステム106は、HMD102から第2画面107へのコンテンツの共有を処理する集積電子機器を含んでよい。他の実施形態は、クライアントシステムとHMD102及び第2画面107のそれぞれとの間をインタフェースする別個のデバイス、モジュール、コネクタを含んでよい。この一般的な例においては、ユーザ100は、HMD102を装着しており、コントローラを用いてビデオゲームをプレイしている。コントローラは、方向インタフェースオブジェクト104であってもよい。ユーザ100によるインタラクティブなプレイによって、ビデオゲームコンテンツ(VGC)が生成され、ビデオゲームコンテンツ(VGC)は、HMD102にインタラクティブに表示される。
一実施形態においては、HMD102に表示されているコンテンツは、第2画面107に共有される。一例においては、第2画面107を見ている人は、ユーザ100がHMD102でインタラクティブにプレイしているコンテンツを見ることができる。別の実施形態においては、別のユーザ(例えば、プレイヤ2)が、クライアントシステム106とインタラクトして、第2画面コンテンツ(SSC)を生成できる。コントローラ104(または、任意の種類のユーザインタフェース、ジェスチャ、オーディオ、もしくは、入力)と同様にインタラクトしているプレイヤが生成した第2画面コンテンツが、クライアントシステム106へのSSCとして生成されてよく、HMD102から受信したVGCと共に第2画面107に表示できる。
従って、HMDユーザと同じ場所にいる、または、遠隔の他のユーザによるインタラクティブ性は、HMDユーザと、HMDユーザがプレイするコンテンツを第2画面107で見ているユーザとの両方にとって、ソーシャル、インタラクティブ、また、より没入型であり得る。図に示すように、クライアントシステム106は、インターネット110に接続できる。インターネットも、様々なコンテンツソース120からのコンテンツへのアクセスをクライアントシステム106に提供できる。コンテンツソース120は、インターネットを介してアクセス可能な任意の種類のコンテンツを含み得る。
このようなコンテンツは、ビデオコンテンツ、映画コンテンツ、ストリーミングコンテンツ、ソーシャルメディアコンテンツ、ニュースコンテンツ、友達コンテンツ、広告コンテンツ等を含み得るが、これらに限らない。一実施形態においては、クライアントシステム106を使用して、HMDユーザのためのコンテンツを同時に処理でき、それによって、HMDは、ゲームプレイ中にインタラクティブ性と関連付けられたマルチメディアコンテンツを提供される。そして、クライアントシステム106は、他のコンテンツも提供でき、そのコンテンツは、第2画面へのビデオゲームコンテンツに関係がなくてもよい。クライアントシステム106は、一実施形態においては、コンテンツソース120の1つから、または、ローカルユーザもしくは遠隔ユーザから、第2画面コンテンツを受信できる。
図3は、開示の実施形態による、実行中のビデオゲームに関連してHMD102の機能を概念的に示す。実行中のビデオゲームは、入力を受信してビデオゲームのゲーム状態を更新するゲームエンジン320によって規定される。ビデオゲームのゲーム状態は、オブジェクトの存在及び位置、仮想環境の条件、イベントのトリガ、ユーザプロフィール、ビューの視点等の、現在のゲームプレイの様々な側面を規定するビデオゲームの様々なパラメータの値によって少なくとも部分的に規定することができる。
図示の実施形態においては、ゲームエンジンは、例として、コントローラ入力314、オーディオ入力316、及び、動作入力318を受信する。コントローラ入力314は、ハンドヘルドゲームコントローラ(例えば、Sony DUALSHOCK(登録商標)4ワイヤレスコントローラ、Sony PlayStation(登録商標)Move動作コントローラ)または方向インタフェースオブジェクト104等の、HMD102とは別個のゲームコントローラの操作から規定されてよい。例として、コントローラ入力314は、方向入力、ボタンの押し下げ、トリガ起動、動き、ジェスチャ、または、ゲームコントローラの操作から処理される他の種類の入力を含んでよい。オーディオ入力316は、HMD102のマイクロフォン302から、または、撮像装置108もしくはローカル環境の他の箇所に含まれるマイクロフォンから処理できる。動作入力318は、HMD102に含まれる動作センサ300、または、撮像装置108がHMD102の画像を撮影する場合、撮像装置108から処理できる。ゲームエンジン320は、入力を受信し、入力は、ゲームエンジンの設定に従って処理されて、ビデオゲームのゲーム状態を更新する。ゲームエンジン320は、ゲーム状態データを様々なレンダリングモジュールに出力し、レンダリングモジュールは、ゲーム状態データを処理して、ユーザに提示するコンテンツを規定する。
図示の実施形態においては、ビデオレンダリングモジュール322は、HMD102に提示するためのビデオストリームをレンダリングするように規定される。ビデオストリームは、ディスプレイ/プロジェクタ機構310によって提示されてよく、また、ユーザの目306によって光学素子308を通して見られてよい。オーディオレンダリングモジュール304は、ユーザが聞くために、オーディオストリームをレンダリングするように構成される。一実施形態においては、オーディオストリームは、HMD102に関連付けられたスピーカ304を通して出力される。スピーカ304は、オープンエアスピーカ、ヘッドフォン、または、オーディオを出すことができる任意の他の種類のスピーカの形をとってよいことは、理解されたい。
一実施形態においては、視線追跡カメラ312が、ユーザの視線を追跡できるようにHMD102に備えられている。視線追跡カメラは、ユーザの目の画像を撮影し、その画像が分析されて、ユーザの視線方向が決定される。一実施形態においては、ユーザの視線方向に関する情報を利用して、ビデオレンダリングに反映することができる。例えば、ユーザの目が特定の方向を見ていると決定されると、ユーザが見ている領域をより詳細に提供またはより速く更新する等によって、その方向のビデオレンダリングを優先または強調することができる。ユーザの視線方向は、ヘッドマウントディスプレイに対して、ユーザがいる現実環境に対して、及び/または、ヘッドマウントディスプレイにレンダリングされている仮想環境に対して規定できることは、理解されたい。
大まかに言って、視線追跡カメラ312が撮影した画像の分析は、単独で考慮される時、HMD102に対するユーザの視線方向を提供する。しかしながら、HMD102の追跡された位置と向きと一緒に考慮される時、HMD102の位置と向きはユーザの頭部の位置及び向きと一致するので、ユーザの現実世界の視線方向が決定できる。すなわち、ユーザの現実世界の視線方向は、ユーザの目の位置の動きの追跡と、HMD102の位置及び向きの追跡とから決定できる。仮想環境のビューがHMD102でレンダリングされる時、ユーザの現実世界の視線方向を適用して、仮想環境におけるユーザの仮想世界の視線方向を決定できる。
さらに、触覚フィードバックモジュール326は、HMD102、または、方向インタフェースオブジェクト104等、ユーザが操作する他のデバイスに備えられた触覚フィードバックハードウェアに信号を供給するように構成される。触覚フィードバックは、振動フィードバック、温度フィードバック、圧力フィードバック等、様々な種類の触感の形態をとってよい。方向インタフェースオブジェクト104は、このような形態の触覚フィードバックをレンダリングする対応するハードウェアを備えてよい。
現在、ゲームプレイを共有するためのストリーミングサービスは非常に人気がある。DualShock(登録商標)4ワイヤレスコントローラは、このような共有を可能にする「共有ボタン」をコントローラに直に備える。上記のように、(HMD102を装着していてよい)ユーザが体験しているインタラクティブアクティビティを観戦、例えば、見る能力をユーザに提供する必要がある。例えば、一人のHMD仮想現実プレイヤが、HMDに提示されるアクティビティに没頭しており、(プレイヤと同じ場所または遠隔にいてよい)他の人/観客が、HMDプレイヤが体験しているインタラクティブ性または見ている仮想現実シーンを見ることに楽しみを見出している場合がある。本明細書においては、HMDプレイヤは、HMDに提示されるコンテンツを見ている人であり、もしくは、HMDに提示されるコンテンツとインタラクトしている人であってよく、または、HMDに提示されるゲームをプレイし得る人である。観客は、HMDを装着してよく、よって、プレイヤと同じ仮想環境にいる没入効果を体験して、観客の体験を高めてよい。
さらに別の実施形態においては、プレイヤが自分のアクティビティを行う間に見て観戦するように、遠隔プレイヤがプレイしている異なる種類のコンテンツまたはメディアを検索する能力、及び/または、異なるプレイヤから選択する能力をユーザに提示するウェブサイトが提供されてよい。遠隔プレイヤは、ある実施形態においては、HMD102を用いてゲームをプレイしてよい。他の実施形態においては、遠隔プレイヤは、デバイスのディスプレイ画面またはテレビのディスプレイ画面を用いて、ゲームをプレイしてよく、または、コンテンツを見てよい。大まかに言って、遠隔で、例えば、ウェブサイトを介して他のプレイヤのアクティビティを見たいユーザは、特定のプレイヤもしくはゲームの種類、または、ゲームのサムネイル、または、コンテンツのサムネイルを選択して、プレイヤが指示しているアクティビティを見ることができる。従って、遠隔プレイヤがアクティブにプレイし得る特定のインタラクティブなコンテンツをユーザが見て、選択するのを可能にするウェブサイトを提供できる。プレイヤのアクティビティを見たい観客は、そのコンテンツをクリックして、視聴を開始するだけでよい。プレイヤと観客の一方または両方が、HMDを使用して仮想環境を見てよいことは理解されよう。
HMDプレイヤのアクションを見ている、視聴している人は、一般的に観客と呼ばれる。観客は、アクティビティ、インタラクティブ性、アクション、動き等を見るためのアクセスを与えられるが、必ずしもゲームアクションを制御していない人である。このために、この視聴者達は、観客と呼ばれる。HMDプレイヤの文脈において、HMDディスプレイに提示されているコンテンツは、動的で、HMDプレイヤの動きによって制御される。例えば、HMDプレイヤが、頭を動かすと、人の周囲の現実世界のビューで生じ得るのと同様に、視聴可能な異なるコンテンツがHMDプレイヤに提示される。
ここでも、観客は、HMDプレイヤにとってローカルであっても遠隔であってもよい、また、図2Bを参照して記載したように、観客は、第2画面のHMDコンテンツを見てよいことに注意されたい。あるいは、観客もHMDを装着でき、HMDは、観客に、HMDプレイヤコンテンツのビューを提供する。ある実施形態においては、観客は、HMDプレイヤによるライブまたはほぼライブのコンテンツを見てよい。他の実施形態においては、観客は、HMDプレイヤが見ていたコンテンツの録画バージョンを見てよい。さらに、複数または多数の観客がHMDプレイヤの同じコンテンツをライブまたは録画で見ることを可能にするウェブサイトが提供されてよい。
図4Aは、開示の実施態様による、方向インタフェースオブジェクト104の側面図を示す。図に示すように、方向インタフェースオブジェクト104は、単一管状構造を有し、上部管状部分400、前部管状部分402、後部管状部分404、及び、下部管状部分406を含む。上部管状部分400の前端は、前部管状部分402の上端に結合される。上部管状部分400の後端は、後部管状部分404の上端に結合される。下部管状部分406の前端は、前部管状部分402の下端に結合され、下部管状部分406の後端は、後部管状部分404の下端に結合される。
下部管状部分406は、図に示すように、軸408に沿って延びる。前部管状部分402は、軸408に垂直な方向に対して角φだけ前方に角度をなした軸410に沿って延びる。後部管状部分404は、軸408に垂直な方向に対して角θだけ前方に角度をなした軸412に沿って延びる。ある実施態様においては、角φは、角θより大きい。ある実施態様においては、角φは、角θとほぼ同じである。
上部管状部分400は、軸414に沿って延び、実施態様においては、軸414は、下部管状部分406の軸408とほぼ平行である。ある実施態様においては、軸414は、軸408と平行ではない。ある実施態様においては、軸414は、軸408に対して前方に広がるように角度をなす。
方向インタフェースオブジェクト104は、ユーザがインタラクティブアプリケーションに入力を行うのを可能にする幾つかの機能と入力装置を備える。例えば、追跡可能なオブジェクト416が備えられ、そのオブジェクトは、方向インタフェースオブジェクト104が置かれたインタラクティブ環境で撮影された画像において認識に基づいて追跡できる。追跡可能なオブジェクト416は、追跡可能なオブジェクトに含まれるライト/LEDによって照らすことができ、さらに、オブジェクトの追跡を容易にするように、ローカル環境の他のオブジェクトのライトと区別し得る特定の色で照らされてよい。追跡可能なオブジェクト416は、ある実施態様においては、球形に構成できる。一方、他の実施態様においては、追跡可能なオブジェクト416は、任意の幾何形状または他の認識可能な形状を有してよい。
図示の実施態様において、追跡可能なオブジェクト416は、上部管状部分400の前端に接続される。ある実施態様においては、上部管状部分は、前方に向かって先が細くなるように構成される。すなわち、上部管状部分の直径は、後ろから前に向かって小さくなるように構成できる。上部管状部分をこのように先細にすることによって、例えば、方向インタフェースオブジェクト104が撮像装置に対してある角度で向きを変える時、追跡可能なオブジェクトをより見やすくすることができる。
方向インタフェースオブジェクトは、前部管状部分402の後ろを向いている側に沿って配置された前部ジョイスティック418及び方向パッド420と、前部管状部分402の前を向いている側に沿って配置された前部トリガ422とを含む、前部管状部分402に沿って配置された様々な入力装置をさらに備える。
後部トリガ424は、上部管状部分400と後部管状部分404との間の結合部の内側に配置される。ある実施態様においては、後部トリガ424は、一段式トリガであり、他の実施態様においては、後部トリガ424は、例えば、低い抵抗の最初の引きと、高い抵抗のリリース(break)を組み合わせた二段式トリガである。後部ジョイスティック426は、上部管状部分400の後端に配置されて、後部管状部分404を把持する手の親指を用いてアクセス可能なように、上部管状部分の後端から後方に延びる。後部管状部分404を把持する手の同じ引き金を引く指(人差し指)を用いてアクセス可能なように、後部ジョイスティック426を囲むボタンと、後部トリガ424の近くの上部管状部分400に沿って配置されるボタンとを含む後部ボタン428が、入力のために追加で備えられる。
方向インタフェースオブジェクト104は、通信ポート430をさらに備え、通信ポート430は、ある実施態様においては、USBポートである。通信ポート430は、通信及び/または充電/電力のために、方向インタフェースオブジェクト104への有線接続を可能にする。
方向インタフェースオブジェクトの構成は、剛体を両手で使用できるようにして、VRにおける武器の狙いの正確さを向上させ、没入型シミュレーションを可能にする。前部管状部分と後部管状部分の(例えば、角φとθによって示される)角度を異ならせることによって、プレイヤが、方向インタフェースオブジェクトを水平方向で静止して持ち、また、狙う時は、方向インタフェースオブジェクトが両方の位置から楽に「発射」できるようにする。
図4B及び4Cは、開示の実施態様による、方向インタフェースオブジェクト104の追加の斜視図を示す。
ある実施態様において、方向インタフェースオブジェクト104のユーザが把持する部分は、ユーザの手でしっかりと把持できるように、ざらざらした表面を有してよい、及び/または、柔軟な材料を含んでよい。例えば、ある実施態様においては、後ろを向いている部分432等、後部管状部分404の一部は、ざらざらしてよい、または、柔軟な材料の表面を含んでよい。ある実施態様においては、前を向いている部分434等、前部管状部分402の一部は、ざらざらしてよい、または、柔軟な材料の表面を含んでよい。
図5Aは、開示の実施態様による、複数のタッチセンサを有する方向インタフェースオブジェクトを示す。図示の実施態様において、方向インタフェースオブジェクト104は、前部管状部分402の両側と後部管状部分404の両側に配置されるタッチセンサを備える。前部管状部分402は、前部管状部分の右側に配置される右前部タッチセンサ500と、前部管状部分の左側に配置される左前部タッチセンサ502とを備える。後部管状部分404は、後部管状部分の右側に配置される右後部タッチセンサ504と、後部管状部分の左側に配置される左後部タッチセンサ506とを備える。
タッチセンサは、ユーザの手による接触を検出できる任意の種類のセンサであってよいことは理解されよう。ある実施態様においては、タッチセンサは、容量タッチセンサであってよい。さらに、様々な実施態様において、タッチセンサによって与えられる接触の位置特定(localization)の量は、タッチセンサの種類及び構成によって異なり得る。ある実施態様においては、タッチセンサは、接触量を検出できてよいが、接触をタッチセンサの特定の部分に限定することはできない。他の実施態様においては、タッチセンサは、さらに、接触をタッチセンサの特定の部分に限定できる。
タッチセンサの特定の構成を示すが、他の実施態様においては、タッチセンサの数、及び、タッチセンサの特定の配置は異なってよいことは理解されたい。ある実施態様においては、タッチセンサは、方向インタフェースオブジェクトの前部管状部分または後部管状部分の前を向いている部分に配置される。さらに、追加のタッチセンサが、ユーザの手と方向インタフェースオブジェクト104との間の接触をさらに区別できるように備えられてよい。
例として、タッチセンサを使用して、ユーザが方向インタフェースオブジェクトの一部から手を離す時を検出できる。例えば、ユーザが前の部分から手を離す場合、これを検出して仮想環境において、片手銃に使用できる、または、オブジェクト/コーナーのあたりでのシューティングを容易にする。
図5Bは、開示の実施態様による、方向インタフェースオブジェクトの前部管状部分の両側と後部管状部分の両側の上記タッチセンサによって測定される接触量を示す複数のグラフを示す。グラフ510において、左後部タッチセンサ(LRTS)、右後部タッチセンサ(RRTS)、左前部タッチセンサ(LFTS)、及び、右前部タッチセンサ(RFTS)のそれぞれに対する接触量を時間の経過と共に示している。接触量は、ユーザの手が接触しているタッチセンサの表面の検出量を示すセンサの読み取り値から取得する。グラフ510に示すように、最初、接触量は最低レベルで、タッチセンサと接触してないことを示している、これは、ユーザが方向インタフェースオブジェクトを持っていないことを示す。
その後、図に示すように、接触量は、様々な程度に増加する。グラフ510に示す実施態様において、LRTSが検出する接触量は、RRTSが検出する接触量よりも高いレベルまで増加する。これは、左手の掌が、左側に接触し、右側に接触していると推測される指よりも多く接触していると推測されるので、ユーザの左手が方向インタフェースオブジェクトの後部管状部分を持っていることを示し得る。また、LFTSが接触する接触量は、RFTSの接触量よりも低いレベルまで増加する。同様に、これは、ユーザの右手が前部管状部分を持っていることを示し得る。従って、タッチセンサによって検出される接触量の上記パターンは、ユーザが左手で方向インタフェースオブジェクト104の後部を持っており、右手で方向インタフェースオブジェクト104の前部を持っていることを示す。
グラフ512に示される接触量のパターンは、反対のシナリオを示し、ユーザが右手で方向インタフェースオブジェクト104の後部を持っており、左手で方向インタフェースオブジェクト104の前部を持っていることを示す。
どちらの手で方向インタフェースオブジェクトのどの部分を持っているかを検出することによって、VR環境の対応する仮想の手を適切にレンダリングすることが可能である。例えば、ユーザのアバターが、仮想の武器または他の仮想オブジェクトを仮想の手で持っていてよく、上記決定に基づいて、VR環境の仮想の右手及び仮想の左手が、ユーザの実際の右手及び左手の前部/後部における位置に一致するように、仮想の武器/オブジェクトを持つ。
図5Cは、開示の実施態様による、ユーザの現実の手に対応する適切な仮想の手をVR環境にレンダリングする方法を示す。方法の動作520において、ユーザの手が持つように構成されたインタフェースオブジェクトのハンドルまたは部分の左側及び右側(両側)に位置する接触/タッチセンサによって接触量が検出される。方法の動作522において、左と右のタッチセンサによって検出された接触量を比較する。比較に基づいて、方法の動作524において、どちらの手がインタフェースオブジェクトのその部分を持っているかに関する決定が行われる。次に、方法の動作526において、ユーザの現実の手に対応するように仮想オブジェクトを持っている適切な仮想の手が、VR環境にレンダリングされる。本明細書に記載するように、ここに記載した方法は、両手に適用して、どちらの手がインタフェースオブジェクトの前部を持っており、どちらの手がインタフェースオブジェクトの後部を持っているかを決定できる。
図6は、開示の実施態様による、タッチセンサに触れるユーザの手の指の変化と、仮想の手のレンダリングの対応する変化とを示す。図に示すように、ユーザの左手が、方向インタフェースオブジェクト104の後部管状部分を持っており、ユーザの左手の指がタッチセンサ504に触れている。タッチセンサ504の接触エリアも時間の経過と共に図に示されている。時刻T0において、ユーザの3本指がタッチセンサ504に触れていることを示す3つの接触エリア602がある。時刻T1において、1本の指がタッチセンサから離れたことを示す2つの接触エリア604がある。時刻T2において、再び、3つの接触エリアが存在し、時刻T3において、1つの接触エリアがあり、時刻T4において、2つの接触エリアがある。
グラフ610は、タッチセンサによって検出される接触量を時間の経過と共に示す。図に示すように、接触量は、接触エリアの量、及び/または、タッチセンサに触れている指の数に応じて変わる。
ある実施態様においては、タッチセンサ504は、センサに触れている指の数を決定できないが、接触量を検出する。しかしながら、接触量に基づいて、タッチセンサに接触している指の数を推定することは可能であり、このような推定に基づいて、VR環境に対応する仮想の手をレンダリングして、指の動きを示すことができ、それによって、ユーザの指の動きの効果を模倣する。動かされる仮想の手の特定の指は、ユーザの手の動いた実際の指とは一致しない場合があるが、それでも、HMDを通してVR環境を見ているユーザに指の動きを示す視覚フィードバックを提供することは理解されよう。
(現在記載の実施態様では親指またはトリガを引く指を含まない)ユーザの使用できる指3本全ての時、タッチセンサが検出する接触量は、較正動作で較正できる、または、最大接触量を検出することによって時間の経過と共に動的に決定できる。最大量からの減少は、検出できて、仮想の手の特定の種類の動きにマッピングされてよい。例えば、接触量の所定の量の減少は、1本の指が動いたことを示すとして推定でき、よって、仮想の手の(例えば、所定のまたはランダムに選んだ)1本の指が、インタフェースオブジェクトに対応する仮想オブジェクトに触れている/持っている状態から離れる。決定の正確さに役立つように、接触量は、経時的に追跡されて、ユーザの指の一定の向きに対応し得る最大値、最小値、及び、中間値を決定できる。また、特定の接触量は、特定の指に対応してよく、この分析に基づいて、接触量の変化によって、どの指をユーザが動かしているかを推定することも可能であってよい。
612を参照して、VR環境で仮想の手のレンダリングに対応するアクションを示す、これらは、タッチセンサによって検出された接触量に基づいている。図に示すように、様々な時点で、仮想の手の指を、タッチセンサ504に対するユーザの指の動きに相関する動きを示すように動かす/調節することができる。
図7は、開示の実施態様による、方向インタフェースオブジェクトの追跡を容易にするために複数のライトを有する方向インタフェースオブジェクトを示す。図に示すように、複数のライト700、702、704、706は、それぞれ、方向インタフェースオブジェクト104の上部管状部分、前部管状部分、後部管状部分、及び、下部管状部分の両側に沿って配置される。対応するライトが、図示の実施態様において示される側の反対側に配置されてよい。さらに、ある実施態様においては、ライトは、方向インタフェースオブジェクト104の様々な管状部分/セクションの上部表面、下部表面、前部表面、または、後部表面に配置されてよい。様々なライトは、方向インタフェースオブジェクトの追跡または区別を助けるために様々な色を表示するように構成できる。方向インタフェースオブジェクト104の複数の追跡ライトの使用は、(方向インタフェースオブジェクトの撮像装置に対する距離及び向きの両方の点で)追跡の精度及び範囲の両方を向上させ得ることは理解されよう。ある実施態様においては、ライトの1つまたは複数の色及び/または強度は、設定可能であり、例えば、背景環境に対するコントラストを増すために、または、他のインタフェースオブジェクトもしくは(異なる色を呈するようにライトを制御し得る)コントローラから方向インタフェースオブジェクトを区別するために、設定または調節されてよい。
さらに、近接センサ708を方向インタフェースオブジェクトの上部管状部分の後端に配置できる。近接センサ708は、ユーザの親指が後部ジョイスティック426及び/または後部ボタン428に近い時を検出でき、このような検出に基づいて、仮想オブジェクトの対応する部分の上に親指が表示される(例えば、近くの手によって武器または他のオブジェクトの後部を持つ)ように、VR環境に対応する仮想の手がレンダリングされてよい。
図8は、開示の実施態様による、可動重りを有する方向インタフェースオブジェクトを示す。図示の実施態様において、可動重り800は、方向インタフェースオブジェクト104の上部管状部分の内側に配置され、トラック802に沿って移動するように構成される。しかしながら、他の実施態様においては、可動重り800は、方向インタフェースオブジェクト104の他の部分に配置されてよい。可動重り800は、コンピュータまたはHMDから受信された触覚フィードバックデータに応答して移動させることができる。可動重り800は、所望の触覚効果に応じて、様々な加速度レベル、様々な速度で、様々な距離を移動するように制御できる。可動重り800を利用して、VR環境で生じるイベントに基づいたはずみの感覚を提供してよい。例えば、可動重りは、方向インタフェースオブジェクトによって制御される仮想の武器をユーザが発射する時、移動されて、実際の武器と同じような反動の感覚を提供してよい。別の例においては、ユーザが、対応する仮想の武器を、例えば、方向インタフェースオブジェクト104を上に向けることによって、再装填する時、可動重り800は、仮想の武器の再装填の感覚を模倣するように移動されてよい。
図9は、開示の実施態様による、HMD102を用いてVR環境を見るユーザ100を示す。ユーザ100は、VR環境のビュー900を提供され、さらに、方向インタフェースオブジェクト104を持って、仮想シーンとインタラクトしている。方向インタフェースオブジェクト104を利用して、VR環境で武器を向け、ビュー900に示す威嚇的な熊等のオブジェクトを撃つ。方向インタフェースオブジェクトの追跡可能なオブジェクトの視覚追跡と慣性センサからのデータとの組み合わせを入力として利用して、VR環境の仮想の武器を向ける方向を決定できる。
図10は、開示の実施態様による、HMD102を用いてVR環境を見るユーザ100を示す。ユーザ100は、VR環境のビュー1000を提供され、さらに、方向インタフェースオブジェクト104を持って、仮想シーンとインタラクトしている。ビュー1000において、ユーザは、方向インタフェースオブジェクト104に対応する仮想の武器を持っている対応する仮想の手を見ることができる。仮想の手は、方向インタフェースオブジェクトを持っているユーザの左手と右手の実際の配置に一致するように配置されて、ユーザの現実の左手/右手が方向インタフェースオブジェクト104の前部/後部を持っているように、同じ仮想の左手/右手が仮想の武器の前部/後部を持っている。これは、ユーザの手とVR環境の仮想の手との間の一致の感覚をユーザに与える。
仮想の武器は方向インタフェースオブジェクト104のVR表現の一例であることを理解されよう。他の実施態様においては、他の種類の仮想オブジェクトが、方向インタフェースオブジェクトのVR表現として表示できる。さらに、方向インタフェースオブジェクトのVR表現は、物理的デバイスには存在しない特徴を表示できることは理解されよう。例には、バッテリレベルインジケータ、1つまたは複数のモードインジケータ、どのボタンを押すべきかを示す動く強調表示(animated highlights)等が含まれる。
図11は、開示の実施態様による、HMDを使用してVR環境を見ているユーザを示す。ユーザ100は、方向インタフェースオブジェクト104の近位のハンドルを左手で持ち、方向インタフェースオブジェクト104の遠位のハンドルを右手で持って、方向インタフェースオブジェクト104を持っている。それに対応して、HMD102に表示されるVR環境のビュー1100においては、対応する仮想の左手は、仮想の武器の近位のハンドルを持っており、仮想の右手は、仮想の武器の遠位のハンドルを持っている。さらに、仮想の手の指は、上記のように、方向インタフェースオブジェクト104と手との接触の検出された変化に応答して、動かされてよい。
さらに、ユーザの左の親指は、方向インタフェースオブジェクトの上部の後端の上に示されていることに注意する。同様に、仮想の左手の親指は、仮想の武器の上部の後端の上の同様の位置にレンダリングされて示される。これは、方向インタフェースオブジェクトの上部の後端に組み込まれた近接センサによる検出に基づいて提供できる。
図12を参照すると、発明の実施形態による、方向インタフェースオブジェクト104のコンポーネントの図が示されている。方向インタフェースオブジェクト104は、プログラム命令を実行するプロセッサ1200を備える。メモリ1202が記憶のために備えられ、メモリ1202は、揮発性及び不揮発性の両方のメモリを含んでよい。バッテリ1206が、方向インタフェースオブジェクト104の電源として備えられる。動作検出モジュール1208は、磁力計1210、加速度計1212、及び、ジャイロスコープ1214等の様々な種類の動作検知ハードウェアのいずれかを備えてよい。
方向インタフェースオブジェクト104は、オーディオを出力するスピーカ1220を備える。また、周囲環境の音、ユーザの発話等を含む、オーディオを実環境から捕捉するためにマイクロフォン1222を備えてよい。方向インタフェースオブジェクト104は、ユーザに触覚フィードバックを提供する触覚フィードバックモジュール1224を備える。一実施形態においては、触覚フィードバックモジュール1224は、触覚フィードバックをユーザに提供するように、方向インタフェースオブジェクト104に動き及び/または振動を生じさせることができる。
LED/ライト1226を、方向インタフェースオブジェクト104の状態の視覚的インジケータとして備えることができる。例えば、LEDは、バッテリレベル、電源オン等を示してよい。さらに、LED/ライトを利用して、球形のオブジェクト等の追跡可能なオブジェクトを照らして、方向インタフェースオブジェクトの視覚追跡を容易にできる。ある実施態様においては、LED/ライトは、方向インタフェースオブジェクトの両側面に規定されて、画像認識に基づいた方向インタフェースオブジェクトの追跡を容易にする。USBインタフェース1230は、周辺デバイスの接続、または、他のポータブルデバイス、コンピュータ等の他のデバイスへの接続を可能にするインタフェースの一例として備えられている。方向インタフェースオブジェクト104の様々な実施形態において、様々な種類のインタフェースのうちのいずれかを方向インタフェースオブジェクト104の接続性を向上させるために備えてよい。
WiFi(登録商標)モジュール1232は、無線ネットワーク技術を介してインターネットへの接続を可能にするために備えられる。また、方向インタフェースオブジェクト104は、他のデバイスへの無線接続を可能にするブルートゥース(登録商標)モジュール1234を備える。通信リンク1236も、他のデバイスへの接続のために備えられてよい。一実施形態においては、通信リンク1236は、無線通信のために赤外線伝送を利用する。他の実施形態においては、通信リンク1236は、他のデバイスと通信するために、様々な無線または有線の送信プロトコルのうちのいずれかを利用してよい。
入力ボタン/センサ1238は、入力インタフェースをユーザに提供するために備えられている。ボタン、タッチパッド、ジョイスティック、トラックボール等の様々な種類の入力インタフェースのいずれかを備えてよい。超音波技術を介して他のデバイスとの通信を容易にするために、超音波通信モジュール1240を方向インタフェースオブジェクト104に備えてよい。
バイオセンサ1242が、ユーザから生理学的データの検出を可能にするために備えられる。一実施形態においては、バイオセンサ1242は、ユーザの皮膚を通してユーザの生体電気信号を検出するために1つまたは複数のドライ電極を備える。
方向インタフェースオブジェクト104の上記コンポーネントは、方向インタフェースオブジェクト104に備えられてよい単に例示のコンポーネントとして記載した。本発明の様々な実施形態において、方向インタフェースオブジェクト104は、様々な上記コンポーネントの一部を備えてもよく、備えなくてもよい。方向インタフェースオブジェクト104の実施形態は、本明細書に記載の本発明の態様を容易にするために、ここに記載していないが当分野では既知の他のコンポーネントをさらに備えてよい。
発明の様々な実施形態において、上記ハンドヘルドデバイスは、様々なインタラクティブ機能を提供するためにディスプレイに表示されたインタラクティブアプリケーションと共に利用されてよいことを、当業者は理解されよう。本明細書に記載の例示の実施形態は、例として記載しており、制限のために記載しているのではない。
図13を参照すると、開示の実施形態による、ヘッドマウントディスプレイ102のコンポーネントの図が示されている。ヘッドマウントディスプレイ102は、プログラム命令を実行するプロセッサ1300を備える。メモリ1302が、記憶のために備えられ、メモリ1302は、揮発性、不揮発性の両方のメモリを含んでよい。ユーザが視聴し得る視覚インタフェースを提供するディスプレイ1304が備えられる。バッテリ1306が、ヘッドマウントディスプレイ102の電源として備えられる。動作検出モジュール1308は、磁力計1310、加速度計1312、及び、ジャイロスコープ1314等、様々な種類の動作検知ハードウェアのいずれかを備えてよい。
加速度計は、加速と重力によって引き起こされる反力とを測定するデバイスである。単軸及び多軸のモデルが、異なる方向の加速の大きさと方向の検出に利用できる。加速度計を使用して、傾き、振動、及び、衝撃を検知する。一実施形態においては、3つの加速度計1312を使用して、2つの角度(世界空間ピッチと世界空間ロール)に絶対参照を与える重力の方向を求める。
磁力計は、ヘッドマウントディスプレイの近くの磁場の強さと方向を測定する。一実施形態においては、3つの磁力計1310が、ヘッドマウントディスプレイ内で使用されて、世界空間ヨー角の絶対参照を確保する。一実施形態においては、磁力計は、±80マイクロテスラである地球の磁場にわたるように設計される。磁力計は、金属の影響を受け、実際のヨーに対して単調であるヨー測定値を提供する。磁場は、環境中の金属が原因で歪む場合があり、これは、ヨー測定値の歪みを起こす。必要に応じて、この歪みは、ジャイロスコープまたはカメラ等、他のセンサからの情報を用いて較正できる。一実施形態においては、加速度計1312は、磁力計1310と共に使用されて、ヘッドマウントディスプレイ102の傾きと方位角を取得する。
ある実施態様においては、ヘッドマウントディスプレイの磁力計は、他の近くのデバイスの電磁石が非アクティブな間中、読み取られるように構成される。
ジャイロスコープは、角運動量の原理に基づいて、向きを測定または維持するデバイスである。一実施形態においては、3つのジャイロスコープ1314が、各軸(x、y、z)に対する動きの情報を慣性感知に基づいて提供する。ジャイロスコープは、高速回転の検出を支援する。しかしながら、ジャイロスコープは、絶対参照の存在が無いと、時間が経つとドリフトする場合がある。これは、ジャイロスコープの周期的なリセットを必要とし、リセットは、オブジェクトの視覚追跡、加速度計、磁力計等に基づいた、位置/向きの決定等、他の入手可能な情報を用いて行うことができる。
カメラ1316が、現実環境の画像及び画像ストリームを撮影するために備えられる。後ろ(ユーザがヘッドマウントディスプレイ102のディスプレイを見ている時、ユーザから離れる方向)を向いているカメラと、前(ユーザがヘッドマウントディスプレイ102のディスプレイを見ている時、ユーザに向かう方向)を向いているカメラとを含む複数のカメラがヘッドマウントディスプレイ102に備えられてよい。さらに、デプスカメラ1318が、現実環境のオブジェクトの奥行情報を感知するために、ヘッドマウントディスプレイ102に備えられてよい。
ヘッドマウントディスプレイ102は、オーディオを出力するスピーカ1320を備える。また、マイクロフォン1322が、周辺環境の音、ユーザによる会話等を含む、現実環境からのオーディオを捕捉するために備えられてよい。ヘッドマウントディスプレイ102は、触覚フィードバックをユーザに提供する触覚フィードバックモジュール1324を備える。一実施形態においては、触覚フィードバックモジュール1324は、触覚フィードバックをユーザに提供するように、ヘッドマウントディスプレイ102に動き及び/または振動を起こすことができる。
LED1326は、ヘッドマウントディスプレイ102の状態の視覚的インジケータとして備えられる。例えば、LEDは、バッテリレベル、電源オン等を示してよい。カードリーダ1328が備えられて、ヘッドマウントディスプレイ102が、メモリカードから情報を読み取り、メモリカードに情報を書き込むのを可能にする。USBインタフェース1330が、周辺デバイスの接続、または、他のポータブルデバイス、コンピュータ等、他のデバイスへの接続を可能にするためのインタフェースの一例として備えられる。ヘッドマウントディスプレイ102の様々な実施形態において、様々な種類のインタフェースのいずれかが、ヘッドマウントディスプレイ102の接続性を向上させるために備えられてよい。
WiFiモジュール1332が、無線ネットワーク技術を介してインターネットまたはローカルエリアネットワークへの接続を可能にするために備えられる。また、ヘッドマウントディスプレイ102は、他のデバイスへの無線接続を可能にするブルートゥースモジュール1334を備える。通信リンク1336も、他のデバイスへの接続のために備えられてよい。一実施形態においては、通信リンク1336は、無線接続に赤外線伝送を利用する。他の実施形態においては、通信リンク1336は、他のデバイスとの通信のために、様々な無線または有線の送信プロトコルのいずれかを利用してよい。
入力ボタン/センサ1338が、入力インタフェースをユーザに提供するために備えられる。ボタン、タッチパッド、ジョイスティック、トラックボール等、様々な種類の入力インタフェースのいずれかが、備えられてよい。超音波通信モジュール1340が、超音波技術を介して他のデバイスとの通信を容易にするためにヘッドマウントディスプレイ102に備えられてよい。
バイオセンサ1342が、ユーザから生理学的データを検出できるように備えられる。一実施形態においては、バイオセンサ1342は、ユーザの皮膚を通してユーザの生体電気信号を検出するための1つまたは複数のドライ電極を備える。
ビデオ入力装置1344が、HMDをレンダリングするために、一次処理コンピュータ(例えば、メインゲームコンソール)からビデオ信号を受信するように構成される。ある実施態様においては、ビデオ入力装置は、HDMI(登録商標)入力装置である。
ヘッドマウントディスプレイ102の上記コンポーネントは、ヘッドマウントディスプレイ102に備えられてよい例示のコンポーネントとして単に記載した。開示の様々な実施形態において、ヘッドマウントディスプレイ102は、様々な上記コンポーネントの一部を含んでもよく、含まなくてもよい。ヘッドマウントディスプレイ102の実施形態は、ここには記載しないが、当分野で既知の他のコンポーネントを、本明細書に記載の本開示の態様を容易にするために、さらに備えてよい。
図14は、開示の様々な実施形態による、ゲームシステム1400のブロック図である。ゲームシステム1400は、1つまたは複数のクライアント1410にネットワーク1415を介してビデオストリームを提供するように構成される。ゲームシステム1400は、典型的に、ビデオサーバシステム1420と、オプションのゲームサーバ1425とを含む。ビデオサーバシステム1420は、ビデオストリームを1つまたは複数のクライアント1410に最低限のサービス品質で提供するように構成される。例えば、ビデオサーバシステム1420は、ビデオゲームの状態とビデオゲーム内の視点とを変更するゲームコマンドを受信してよく、状態のこの変化を反映する更新されたビデオストリームを最小の遅延時間でクライアント1410に提供してよい。ビデオサーバシステム1420は、今後、規定されるフォーマットも含む多種多様な代替ビデオフォーマットで、ビデオストリームを提供するように構成されてよい。さらに、ビデオストリームは、多種多様なフレームレートで、ユーザに提示されるように構成されたビデオフレームを含んでよい。典型的なフレームレートは、毎秒30フレーム、毎秒60フレーム、及び、毎秒120フレームであるが、より高いまたはより低いフレームレートが、開示の代替実施形態に含まれる。
本明細書では、個々に、1410A、1410B等と呼ばれるクライアント1410は、ヘッドマウントディスプレイ、端末、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、無線装置、デジタルパッド、スタンドアロンデバイス、ハンドヘルドゲームプレイデバイス等を含んでよい。典型的に、クライアント1410は、符号化ビデオストリームを受信するように、ビデオストリームを復号するように、且つ、結果として生じるビデオをユーザ、例えば、ゲームのプレイヤに提示するように構成される。符号化ビデオストリームを受信するプロセス、及び/または、ビデオストリームを復号するプロセスは、典型的に、個々のビデオフレームをクライアントの受信バッファに記憶することを含む。ビデオストリームは、クライアント1410に一体化されたディスプレイ、または、モニタもしくはテレビ等の別個のデバイスで、ユーザに提示されてよい。クライアント1410は、任意選択で、複数のゲームプレイヤをサポートするように構成される。例えば、ゲームコンソールは、2人、3人、4人、または、5人以上の同時プレイヤをサポートするように構成されてよい。これらの各プレイヤは、別個のビデオストリームを受信してよく、または、一つのビデオストリームが、特に各プレイヤに対して生成された、例えば、各プレイヤの視点に基づいて生成されたフレームの領域を含んでよい。クライアント1410は、任意選択で地理的に分散している。ゲームシステム1400に含まれるクライアントの数は、1人もしくは2人から、何千、何万、または、それ以上と様々であってよい。本明細書においては、「ゲームプレイヤ」という語は、ゲームをプレイする人を指して使用され、「ゲームプレイデバイス」という語は、ゲームのプレイに使用されるデバイスを指して用いられる。ある実施形態においては、ゲームプレイデバイスは、協働してゲーム体験をユーザに伝える複数のコンピュータデバイスを指してよい。例えば、ゲームコンソール及びHMDは、ビデオサーバシステム1420と協働して、HMDを通して視聴されるゲームを配信してよい。一実施形態においては、ゲームコンソールは、ビデオサーバシステム1420からビデオストリームを受信し、ゲームコンソールは、ビデオストリームまたはビデオストリームへの更新をレンダリングのためにHMDに転送する。
クライアント1410は、ネットワーク1415を介してビデオストリームを受信するように構成される。ネットワーク1415は、電話ネットワーク、インターネット、無線ネットワーク、送電線網、ローカルエリアネットワーク、広域ネットワーク、プライベートネットワーク等を含む、任意の種類の通信ネットワークであってよい。典型的な実施形態においては、ビデオストリームは、TCP/IPまたはUDP/IP等の標準的プロトコルを介して通信される。あるいは、ビデオストリームは、プロプライエタリ規格を介して通信される。
クライアント1410の典型的な例は、プロセッサ、不揮発メモリ、ディスプレイ、復号論理回路、ネットワーク通信機能、及び、入力装置を備えるパーソナルコンピュータである。復号論理回路は、ハードウェア、ファームウェア、及び/または、コンピュータ可読媒体に記憶されたソフトウェアを含んでよい。ビデオストリームを復号(及び符号化する)システムは、当分野で周知であり、使用される特定の符号化スキームに応じて変わる。
クライアント1410は、受信したビデオを修正するように構成されたシステムをさらに含んでよいが、含まなくてもない。例えば、クライアントは、1つのビデオ画像を他のビデオ画像にオーバーレイする、ビデオ画像をクロップする等のために、さらにレンダリングを行うように構成されてよい。例えば、クライアント1410は、Iフレーム、Pフレーム、及び、Bフレーム等の様々な種類のビデオフレームを受信するように構成されてよく、また、これらのフレームを処理して、ユーザに表示する画像にするように構成されてよい。ある実施形態においては、クライアント1410のメンバーは、さらに、レンダリング、シェーディング、3Dへの変換、または、同様の操作をビデオストリームに対して行うように構成される。クライアント1410のメンバーは、任意選択で、複数のオーディオストリームまたはビデオストリームを受信するように構成される。クライアント1410の入力装置は、例えば、片手ゲームコントローラ、両手ゲームコントローラ、ジェスチャ認識システム、視線認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、力フィードバックデバイス、動作及び/または位置検知装置、マウス、タッチスクリーン、神経インタフェース、カメラ、今後開発される入力装置等を含んでよい。
クライアント1410が受信したビデオストリーム(及び、任意選択で、オーディオストリーム)は、ビデオサーバシステム1420によって生成、提供される。さらに、本明細書の他の箇所に記載のように、このビデオストリームは、ビデオフレームを含み(且つ、オーディオストリームは、オーディオフレームを含む)。ビデオフレームは、ユーザに表示される画像に有意の寄与をするように構成される(例えば、ビデオフレームは、適切なデータ構造の画素情報を含む)。本明細書においては、「ビデオフレーム」という語は、ユーザに示す画像に寄与するように構成された、例えば、影響を与えるように構成された情報を主に含むフレームを指して使用される。「ビデオフレーム」に関する本明細書の教示の大半は、「オーディオフレーム」にも適用できる。
クライアント1410は、典型的に、ユーザからの入力を受信するように構成される。これらの入力は、ビデオゲームの状態を変更するように、または、他の形でゲームプレイに影響を与えるように構成されたゲームコマンドを含んでよい。ゲームコマンドは、入力装置を用いて受信できる、及び/または、クライアント1410で実行する演算命令によって自動的に生成されてよい。受信されたゲームコマンドは、クライアント1410からネットワーク1415を介してビデオサーバシステム1420及び/またはゲームサーバ1425に通信される。例えば、ある実施形態においては、ゲームコマンドは、ビデオサーバシステム1420を介してゲームサーバ1425に通信される。ある実施形態においては、ゲームコマンドの別々のコピーが、クライアント1410からゲームサーバ1425及びビデオサーバシステム1420に通信される。ゲームコマンドの通信は、任意選択で、コマンドのアイデンティティに依存する。ゲームコマンドは、任意選択で、オーディオストリームまたはビデオストリームをクライアント1410Aに提供するのに使用される異なるルートまたは通信チャネルを通して、クライアント1410Aから通信される。
ゲームサーバ1425は、任意選択で、ビデオサーバシステム1420とは異なるエンティティによって操作される。例えば、ゲームサーバ1425は、マルチプレイヤゲームの発行者によって操作されてよい。この例において、ビデオサーバシステム1420は、任意選択で、ゲームサーバ1425によってクライアントとして見られ、任意選択で、ゲームサーバ1425の視点からは、先行技術のゲームエンジンを実行する先行技術のクライアントに見えるように構成される。ビデオサーバシステム1420とゲームサーバ1425との間の通信は、任意選択で、ネットワーク1415を介して行われる。よって、ゲームサーバ1425は、ゲーム状態情報を複数のクライアントに送る先行技術のマルチプレイヤゲームサーバであってよく、そのクライアントの1つが、ビデオサーバシステム1420である。ビデオサーバシステム1420は、ゲームサーバ1425の複数のインスタンスと同時に通信するように構成されてよい。例えば、ビデオサーバシステム1420は、複数の異なるビデオゲームを異なるユーザに提供するように構成できる。これらの異なるビデオゲームは、それぞれ、異なるゲームサーバ1425によってサポートされてよい、及び/または、異なるエンティティによって発行されてよい。ある実施形態においては、ビデオサーバシステム1420の幾つかの地理的に分散したインスタンスは、ゲームビデオを複数の異なるユーザに提供するように構成される。ビデオサーバシステム1420のこれらのインスタンスは、それぞれ、ゲームサーバ1425の同じインスタンスと通信してよい。ビデオサーバシステム1420と1つまたは複数のゲームサーバ1425との間の通信は、任意選択で専用通信チャネルを介して行われ得る。例えば、ビデオサーバシステム1420は、これら2つのシステム間の通信専用の広帯域チャネルを介してゲームサーバ1425に接続されてよい。
ビデオサーバシステム1420は、少なくともビデオソース1430、入出力装置1445、プロセッサ1450、及び、非一時的ストレージ1455を備える。ビデオサーバシステム1420は、1つのコンピュータデバイスを含んでよく、または、複数のコンピュータデバイス間に分散されてよい。これらのコンピュータデバイスは、任意選択で、ローカルエリアネットワーク等の通信システムを介して接続される。
ビデオソース1430は、ビデオストリーム、例えば、動画を形成するストリーミングビデオもしくは一連のビデオフレームを提供するように構成される。ある実施形態においては、ビデオソース1430は、ビデオゲームエンジンとレンダリング論理回路とを備える。ビデオゲームエンジンは、プレイヤからゲームコマンドを受信するように構成され、受信したコマンドに基づいて、ビデオゲームの状態のコピーを維持するように構成される。このゲーム状態は、ゲーム環境におけるオブジェクトの位置と、典型的には、視点とを含む。ゲーム状態は、オブジェクトのプロパティ、画像、色、及び/または、テクスチャも含んでよい。ゲーム状態は、典型的に、ゲーム規則と、移動、回転、攻撃、焦点を合わせる、インタラクト、使用等のゲームコマンドに基づいて維持される。ゲームエンジンの一部は、任意選択でゲームサーバ1425内に配置される。ゲームサーバ1425は、地理的に分散したクライアントを用いて複数のプレイヤから受信したゲームコマンドに基づいて、ゲーム状態のコピーを維持してよい。この場合、ゲーム状態は、ゲームサーバ1425によってビデオソース1430に提供され、ゲーム状態のコピーが記憶されて、レンダリングが行われる。ゲームサーバ1425は、クライアント1410からネットワーク1415を介して直接、ゲームコマンドを受信してよい、及び/または、ビデオサーバシステム1420を介してゲームコマンドを受信してよい。
ビデオソース1430は、典型的に、レンダリング論理回路、例えば、ハードウェア、ファームウェア、及び/または、ストレージ1455等のコンピュータ可読媒体に記憶されたソフトウェアを含む。このレンダリング論理回路は、ゲーム状態に基づいて、ビデオストリームのビデオフレームを作成するように構成される。レンダリング論理回路の全てまたは一部は、任意選択で、グラフィックス処理ユニット(GPU)内に配置される。レンダリング論理回路は、典型的に、ゲーム状態と視点とに基づいて、オブジェクト間の三次元空間関係を決定するように、及び/または、適切なテクスチャ等を適用するように構成された処理段階を含む。レンダリング論理回路は、未加工ビデオを生成し、次に、通常は、クライアント1410に通信される前に符号化される。例えば、未加工ビデオは、Adobe Flash(登録商標)規格、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG‐x.、Xvid.、FFmpeg、x264、VP6−8、realvideo、mp3等に従って符号化されてよい。符号化プロセスによって、ビデオストリームが生成され、ビデオストリームは、リモートデバイス上のデコーダに送るために、任意選択でパッケージ化される。ビデオストリームは、フレームサイズとフレームレートによって特徴づけられる。典型的なフレームサイズは、800x600、1280x720(例えば、720p)、1024x768を含むが、任意の他のフレームサイズを用いてよい。フレームレートは、毎秒あたりのビデオフレームの数である。ビデオストリームは、異なる種類のビデオフレームを含んでよい。例えば、H.264規格は、「P」フレームと「I」フレームを含む。Iフレームは、ディスプレイ装置上のマクロブロック/画素の全てをリフレッシュする情報を含み、Pフレームは、そのサブセットをリフレッシュする情報を含む。Pフレームは、典型的に、Iフレームよりデータサイズが小さい。本明細書においては、「フレームサイズ」という語は、フレーム内の画素数を指す。「フレームデータサイズ」という語は、フレームの記憶に必要なバイト数を指して用いられる。
代替実施形態においては、ビデオソース1430は、カメラ等のビデオ記録装置を含む。このカメラを使用して、コンピュータゲームのビデオストリームに含み得る遅延ビデオまたはライブビデオを生成してよい。結果として生じるビデオストリームは、任意選択で、レンダリングされた画像と、スチルカメラまたはビデオカメラを用いて記録された画像との両方を含む。ビデオソース1430は、ビデオストリームに含める以前記録されたビデオを記憶するように構成された記憶装置も含んでよい。ビデオソース1430は、また、オブジェクト、例えば、人の動作または位置を検出するように構成された動作または位置検知装置と、検出された動作及び/または位置に基づいて、ゲーム状態を決定またはビデオを生成するように構成された論理回路とを含んでよい。
ビデオソース1430は、他のビデオ上に配置されるように構成されたオーバーレイを提供するように任意選択で構成される。例えば、これらのオーバーレイは、コマンドインタフェース、ログイン命令、ゲームプレイヤへのメッセージ、他のゲームプレイヤの画像、他のゲームプレイヤのビデオフィード(例えば、webcamビデオ)を含んでよい。タッチスクリーンインタフェースまたは視線検出インタフェースを含むクライアント1410Aの実施形態においては、オーバーレイは、仮想のキーボード、ジョイスティック、タッチパッド等を含んでよい。オーバーレイの一例においては、プレイヤの音声が、オーディオストリームにオーバーレイされる。ビデオソース1430は、任意選択で1つまたは複数のオーディオソースをさらに含む。
ビデオサーバシステム1420が複数のプレイヤからの入力に基づいてゲーム状態を維持するように構成された実施形態においては、各プレイヤは、ビューの位置と方向を含む異なる視点を有してよい。ビデオソース1430は、任意選択で、各プレイヤの視点に基づいて、各プレイヤに別々のビデオストリームを提供するように構成される。さらに、ビデオソース1430は、異なるフレームサイズ、フレームデータサイズ、及び/または、符号化を各クライアント1410に提供するように構成されてよい。ビデオソース1430は、任意選択で3Dビデオを提供するように構成される。
入出力装置1445は、ビデオサーバシステム1420が、ビデオ、コマンド、情報の要求、ゲーム状態、視線情報、デバイスの動き、デバイスの位置、ユーザの動作、クライアントのアイデンティティ、プレイヤのアイデンティティ、ゲームコマンド、セキュリティ情報、オーディオ等の情報を送信及び/または受信するように構成される。入出力装置1445は、典型的に、ネットワークカードまたはモデム等の通信ハードウェアを含む。入出力装置1445は、ゲームサーバ1425、ネットワーク1415、及び/または、クライアント1410と通信するように構成される。
プロセッサ1450は、本明細書で述べたビデオサーバシステム1420の様々なコンポーネント内に含まれる論理回路、例えば、ソフトウェアを実行するように構成される。例えば、プロセッサ1450は、ビデオソース1430、ゲームサーバ1425、及び/または、クライアントクオリファイア1460の機能を行うために、ソフトウェア命令を用いてプログラムされてよい。ビデオサーバシステム1420は、任意選択で、プロセッサ1450の複数のインスタンスを含む。プロセッサ1450も、ビデオサーバシステム1420が受信したコマンドを実行するために、または、本明細書で述べたゲームシステム1400の様々な要素の操作を連係させるために、ソフトウェア命令を用いてプログラムされてよい。プロセッサ1450は、1つまたは複数のハードウェアデバイスを含んでよい。プロセッサ1450は、電子プロセッサである。
ストレージ1455は、非一時的アナログ及び/またはデジタル記憶装置を含む。例えば、ストレージ1455は、ビデオフレームを記憶するように構成されたアナログ記憶装置を含んでよい。ストレージ1455は、例えば、ハードドライブ、光学ドライブ、または、ソリッドステートストレージ等、コンピュータ可読デジタルストレージを含んでよい。ストレージ1415は、ビデオフレーム、擬似フレーム、ビデオフレーム及び擬似フレームの両方を含むビデオストリーム、オーディオフレーム、オーディオストリーム等を記憶するように(例えば、適切なデータ構造またはファイルシステムによって)構成される。ストレージ1455は、任意選択で複数のデバイスに分散される。ある実施形態においては、ストレージ1455は、本明細書の他の箇所で述べるビデオソース1430のソフトウェアコンポーネントを記憶するよう構成される。これらのコンポーネントは、必要に応じてプロビジョニング可能なフォーマットで記憶されてよい。
ビデオサーバシステム1420は、任意選択で、クライアントクオリファイア1460をさらに含む。クライアントクオリファイア1460は、クライアント1410Aまたは1410B等のクライアントの能力を遠隔で判断するように構成される。この能力は、クライアント1410A自体の能力と、クライアント1410Aとビデオサーバシステム1420との間の1つまたは複数の通信チャネルの能力と両方を含み得る。例えば、クライアントクオリファイア1460は、ネットワーク1415を通して通信チャネルをテストするよう構成されてよい。
クライアントクオリファイア1460は、クライアント1410Aの能力を手動または自動で判定(例えば、発見)できる。手動による判定は、クライアント1410Aのユーザと通信し、ユーザに能力を提供するように求める。例えば、ある実施形態においては、クライアントクオリファイア1460は、クライアント1410Aのブラウザ内に画像、テキスト等を表示するよう構成される。一実施形態においては、クライアント1410Aはブラウザを含むHMDである。別の実施形態においては、クライアント1410Aはブラウザを有するゲームコンソールであり、HMDに表示されてよい。表示されたオブジェクトは、クライアント1410Aのオペレーティングシステム、プロセッサ、ビデオデコーダの種類、ネットワーク接続の種類、ディスプレイ解像度等の情報を入力するようユーザに求める。ユーザにより入力された情報は、クライアントクオリファイア1460に返信される。
自動判定は、例えば、クライアント1410Aでのエージェントの実行によって、及び/または、クライアント1410Aへのテストビデオの送信によって行われてよい。エージェントは、ウェブページに埋め込まれるか、アドオンとしてインストールされた、Java(登録商標)スクリプト等の演算命令を含んでよい。エージェントは、任意選択でクライアントクオリファイア1460によって提供される。様々な実施形態において、エージェントは、クライアント1410Aの処理能力、クライアント1410Aの復号能力及び表示能力、クライアント1410Aとビデオサーバシステム1420との間の通信チャネルの遅延時間信頼性及び帯域幅、クライアント1410Aのディスプレイの種類、クライアント1410Aのファイアウォール、クライアント1410Aのハードウェア、クライアント1410Aで実行されるソフトウェア、クライアント1410A内のレジストリエントリ等を知ることができる。
クライアントクオリファイア1460は、ハードウェア、ファームウェア、及び/または、コンピュータ可読媒体に記憶されたソフトウェアを含む。クライアントクオリファイア1460は、ビデオサーバシステム1420の1つまたは複数の他の要素とは別個のコンピュータデバイス上に任意選択で配置される。例えば、ある実施形態においては、クライアントクオリファイア1460は、クライアント1410とビデオサーバシステム1420の複数のインスタンスとの間の通信チャネルの特性を判断するよう構成される。これらの実施形態においては、クライアントクオリファイアが発見した情報を使用して、ビデオサーバシステム1420のどのインスタンスがクライアント1410の1つにストリーミングビデオを配信するのに最適かを判断できる。
本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラマブルな家電製品、ミニコンピュータ、メインフレームコンピュータ等を含む様々なコンピュータシステム構成で実践されてよい。開示は、有線または無線ネットワークを通してリンクされる遠隔処理デバイスによりタスクが行われる分散コンピュータ環境においても実践できる。
上記の実施形態を念頭において、開示は、コンピュータシステムに記憶されたデータを伴う様々なコンピュータ実施操作を採用できることを理解されたい。これらの操作は、物理量を伴う物理的操作を要する操作である。開示の一部を成す本明細書に記載の操作はいずれも、有用な機械操作である。開示は、これらの操作を行うデバイスまたは装置にも関する。装置は、必要とされる目的に合わせて特別に構築できる、または、装置は、コンピュータに記憶されたコンピュータプログラムによって選択的に起動または構成される汎用コンピュータであってよい。詳細には、様々な汎用機械を本明細書の教示に従って書かれたコンピュータプログラムと共に使用できる、または、必要な操作を行なうより専門的な装置を構築するとより便利な場合がある。
本開示は、コンピュータ可読媒体上のコンピュータ可読コードとして実現することもできる。コンピュータ可読媒体は、データの記憶ができる任意のデータ記憶装置であり、データは、後にコンピュータシステムにより読み取ることができる。コンピュータ可読媒体の例は、ハードドライブ、ネットワーク接続ストレージ(NAS)、リードオンリメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、並びに、他の光学的及び非光学的データ記憶装置を含む。コンピュータ可読媒体は、コンピュータ可読コードが分散して記憶、実行されるように、ネットワーク接続コンピュータシステムを介して分散されたコンピュータ可読有形媒体を含み得る。
方法の動作を特定の順序で記載したが、オーバーレイ操作処理が所望の方法で実施される限り、操作と操作の間で他のハウスキーピング操作が行われてもよく、操作は、わずかに異なる時間に実施されるように調整されてもよく、または、処理に関連付けられた様々な間隔で、処理操作が行われるのを可能にするシステムに分散されてもよいことは理解されたい。
上記開示は、明確に理解されるように詳述したが、添付の請求項の範囲内で一定の変更及び修正を実践してよいことは明らかであろう。従って、本実施形態は、例示的なものであって限定的なものではなく、開示は本明細書の詳細に限定されず、本開示の範囲及び均等物の範囲内で修正されてよい。

Claims (16)

  1. 上部管状部分と、
    前部管状部分であって、前記前部管状部分の上端が前記上部管状部分の第1の端部に結合される前記前部管状部分と、
    下部管状部分であって、前記下部管状部分の第1の端部が前記前部管状部分の下端に結合される前記下部管状部分と、
    後部管状部分であって、前記後部管状部分の上端が前記上部管状部分の前記第1の端部の反対側にある前記上部管状部分の第2の端部に結合され、前記後部管状部分の下端が、前記下部管状部分の前記第1の端部の反対側にある前記下部管状部分の第2の端部に結合される前記後部管状部分と、
    前記上部管状部分の前記第1の端部に配置される追跡可能なオブジェクトと、
    前記前部管状部分または前記後部管状部分とユーザの手とのそれぞれの接触を検出するために前記前部管状部分または前記後部管状部分の右側および左側に配置された少なくとも2つの接触センサであって、前記前部管状部分または前記後部管状部分の右側および左側に配置された接触センサは、ユーザのどちらの手が前記前部管状部分または前記後部管状部分を持っているかを決定することを可能にするように構成されており前記接触センサは、接触量に基づいて、前記接触センサに接触している指の数を推定することを可能にするように構成され、特定の接触量と特定の指の間の対応関係と前記接触量の変化とに基づいて、どの指を動かしているかを推定することを可能にするように構成されている、少なくとも2つの接触センサと、
    を含む、方向インタフェースオブジェクト。
  2. 前記前部管状部分は、第1の軸に沿っており、
    前記後部管状部分は、前記第1の軸と実質的に平行でない第2の軸に沿っている、
    請求項1に記載の方向インタフェースオブジェクト。
  3. 前記下部管状部分は、第3の軸に沿っており、
    前記前部管状部分は、前記第3の軸に対して垂直な方向に対して第1の角度をなした前記第1の軸に沿って前記下部管状部分から離れるように延び、
    前記後部管状部分は、前記第3の軸に垂直な方向に対して第2の角度をなした前記第2の軸に沿って前記下部管状部分から離れるように延び、前記第2の角度は、前記第1の角度より小さい、
    請求項2に記載の方向インタフェースオブジェクト。
  4. 前記上部管状部分は、第1の軸に沿っており、
    前記下部管状部分は、前記第1の軸と実質的に平行でない第2の軸に沿っている、
    請求項1に記載の方向インタフェースオブジェクト。
  5. 前記上部管状部分は、前記第1の軸に沿って第1の方向に前記後部管状部分から離れるように延び、
    前記下部管状部分は、前記第2の軸に沿って、前記第1の方向から分かれる第2の方向に前記後部管状部分から離れるように延びる、
    請求項4に記載の方向インタフェースオブジェクト。
  6. 前記追跡可能なオブジェクトは、実質的に球形である請求項1に記載の方向インタフェースオブジェクト。
  7. 前記追跡可能なオブジェクトは、半透明な材料からなり、前記半透明な材料を照らすライトをさらに含む、請求項1に記載の方向インタフェースオブジェクト。
  8. 前記前部管状部分に沿って配置される第1のジョイスティックと、
    前記上部管状部分の前記第2の端部に配置される第2のジョイスティックと
    をさらに含む、請求項1に記載の方向インタフェースオブジェクト。
  9. 前記方向インタフェースオブジェクトの動きを感知する少なくとも1つの慣性センサをさらに含む、請求項1に記載の方向インタフェースオブジェクト。
  10. 上部管状部分と、
    前部管状部分であって、前記前部管状部分の上端が前記上部管状部分の第1の端部に結合される前記前部管状部分と、
    下部管状部分であって、前記下部管状部分の第1の端部が前記前部管状部分の下端に結合される前記下部管状部分と、
    後部管状部分であって、前記後部管状部分の上端が前記上部管状部分の前記第1の端部の反対側にある前記上部管状部分の第2の端部に結合され、前記後部管状部分の下端が前記下部管状部分の前記第1の端部の反対側にある前記下部管状部分の第2の端部に結合される、前記後部管状部分と、
    前記上部管状部分の前記第1の端部に配置された追跡可能なオブジェクトと、
    前記前部管状部分または前記後部管状部分とユーザの手とのそれぞれの接触を検出するために前記前部管状部分または前記後部管状部分の右側および左側に配置された少なくとも2つの接触センサであって、前記前部管状部分または前記後部管状部分の右側および左側に配置された接触センサは、ユーザのどちらの手が前記前部管状部分または前記後部管状部分を持っているかを決定することを可能にするように構成されており前記接触センサは、接触量に基づいて、前記接触センサに接触している指の数を推定することを可能にするように構成され、特定の接触量と特定の指の間の対応関係と前記接触量の変化とに基づいて、どの指を動かしているかを推定することを可能にするように構成されている、少なくとも2つの接触センサと、
    を含む方向インタフェースオブジェクトであって、
    前記前部管状部分は、第1の軸に沿っており、
    前記後部管状部分は、前記第1の軸と実質的に平行でない第2の軸に沿っており、
    前記下部管状部分は、第3の軸に沿っており、
    前記前部管状部分は、前記第3の軸に対して垂直な方向に対して第1の角度をなして前記第1の軸に沿って前記下部管状部分から離れるように延び、
    前記後部管状部分は、前記第3の軸に垂直な方向に対して第2の角度をなして前記第2の軸に沿って前記下部管状部分から離れるように延び、前記第2の角度は前記第1の角度より小さく、
    前記上部管状部分は、第1の軸に沿っており、
    前記下部管状部分は、前記第1の軸と実質的に平行でない第2の軸に沿っており、
    前記上部管状部分は、前記第1の軸に沿って第1の方向に前記後部管状部分から離れる方向に延び、
    前記下部管状部分は、前記第1の方向から分かれる第2の方向に前記第2の軸に沿って前記後部管状部分から離れるように延びる、
    方向インタフェースオブジェクト。
  11. 前記追跡可能なオブジェクトは、実質的に球形である、請求項10に記載の方向インタフェースオブジェクト。
  12. 前記追跡可能なオブジェクトは、半透明な材料からなり、前記半透明な材料を照らすライトをさらに含む、請求項10に記載の方向インタフェースオブジェクト。
  13. 前記前部管状部分に沿って配置された第1のジョイスティックと、
    前記上部管状部分の前記第2の端部に配置された第2のジョイスティックと、
    をさらに含む、請求項10に記載の方向インタフェースオブジェクト。
  14. 前記方向インタフェースオブジェクトの動きを感知する少なくとも1つの慣性センサをさらに含む、請求項10に記載の方向インタフェースオブジェクト。
  15. 方向インタフェースオブジェクトであって、
    上部管状部分と、
    前部管状部分であって、前記前部管状部分の上端が前記上部管状部分の第1の端部に結合される前記前部管状部分と、
    下部管状部分であって、前記下部管状部分の第1の端部が前記前部管状部分の下端に結合される前記下部管状部分と、
    後部管状部分であって、前記後部管状部分の上端が前記上部管状部分の前記第1の端部の反対側にある前記上部管状部分の第2の端部に結合され、前記後部管状部分の下端が前記下部管状部分の前記第1の端部の反対側にある前記下部管状部分の第2の端部に結合される、前記後部管状部分と、
    前記上部管状部分の前記第1の端部に配置される追跡可能なオブジェクトと、
    前記前部管状部分または前記後部管状部分とユーザの手とのそれぞれの接触を検出するために前記前部管状部分または前記後部管状部分の右側および左側に配置された少なくとも2つの接触センサであって、前記前部管状部分または前記後部管状部分の右側および左側に配置された接触センサは、ユーザのどちらの手が前記前部管状部分または前記後部管状部分を持っているかを決定することを可能にするように構成されており前記接触センサは、接触量に基づいて、前記接触センサに接触している指の数を推定することを可能にするように構成され、特定の接触量と特定の指の間の対応関係と前記接触量の変化とに基づいて、どの指を動かしているかを推定することを可能にするように構成されている、少なくとも2つの接触センサと、
    前記方向インタフェースオブジェクトの動きを示す慣性データを生成するように構成された少なくとも1つの慣性センサと、
    を含む前記方向インタフェースオブジェクトと、
    前記方向インタフェースオブジェクトが配置されるインタラクティブ環境の画像を撮影するように構成される撮像装置と、
    インタラクティブアプリケーションを実行して仮想環境のビューをヘッドマウントディスプレイ(HMD)にレンダリングするように構成されたコンピュータデバイスであって、前記撮影された画像と前記慣性データとを処理して、前記仮想環境の前記ビューにレンダリングされた仮想オブジェクトの位置を決定するように構成された前記コンピュータデバイスと、
    を含む、システム。
  16. 前記前部管状部分は、第1の軸に沿っており、
    前記後部管状部分は、前記第1の軸に実質的に平行でない第2の軸に沿っており、
    前記下部管状部分は、第3の軸に沿っており、
    前記前部管状部分は、前記第3の軸に垂直な方向に対して第1の角度をなして前記第1の軸に沿って前記下部管状部分から離れるように延び、
    前記後部管状部分は、前記第3の軸に垂直な方向に対して第2の角度をなして前記第2の軸に沿って前記下部管状部分から離れるように延び、前記第2の角度は前記第1の角度より小さい、
    請求項15に記載のシステム。
JP2018564897A 2016-06-11 2017-05-18 方向インタフェースオブジェクト Active JP6880081B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662348859P 2016-06-11 2016-06-11
US62/348,859 2016-06-11
US15/283,110 US20170354864A1 (en) 2016-06-11 2016-09-30 Directional Interface Object
US15/283,110 2016-09-30
PCT/US2017/033358 WO2017213818A1 (en) 2016-06-11 2017-05-18 Directional interface object

Publications (2)

Publication Number Publication Date
JP2019522849A JP2019522849A (ja) 2019-08-15
JP6880081B2 true JP6880081B2 (ja) 2021-06-02

Family

ID=60572343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018564897A Active JP6880081B2 (ja) 2016-06-11 2017-05-18 方向インタフェースオブジェクト

Country Status (4)

Country Link
US (1) US20170354864A1 (ja)
EP (1) EP3469466B1 (ja)
JP (1) JP6880081B2 (ja)
WO (1) WO2017213818A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US11157131B2 (en) * 2017-02-24 2021-10-26 Vrad Inc. Virtual reality-based radiology practice apparatus and method
US10747301B2 (en) * 2017-03-28 2020-08-18 Magic Leap, Inc. Augmented reality system with spatialized audio tied to user manipulated virtual object
US10912990B2 (en) * 2017-12-29 2021-02-09 Facebook Technologies, Llc Hand-held controller using sensors for hand disambiguation
CN108452521A (zh) * 2018-01-18 2018-08-28 安徽三弟电子科技有限责任公司 一种基于vr虚拟现实的游戏系统
CN110193189B (zh) * 2018-02-27 2022-09-13 宏达国际电子股份有限公司 可追踪光学装置
KR102656447B1 (ko) * 2018-02-27 2024-04-12 삼성전자주식회사 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치
CA3139648A1 (en) 2018-03-07 2019-09-12 Magic Leap, Inc. Visual tracking of peripheral devices
MX2020011983A (es) * 2018-05-09 2021-03-25 Dreamscape Immersive Inc Herramienta seleccionable por el usuario para un sistema de realidad virtual de seguimiento optico.
CN109045695B (zh) * 2018-08-08 2020-09-29 腾讯科技(深圳)有限公司 虚拟环境中的配件选择方法、设备及存储介质
US10675536B2 (en) * 2018-10-03 2020-06-09 Song Chen Gaming system that alters target images produced by an LED array
US11347303B2 (en) * 2018-11-30 2022-05-31 Sony Interactive Entertainment Inc. Systems and methods for determining movement of a controller with respect to an HMD
US20220155848A1 (en) * 2019-03-18 2022-05-19 Sony Interactive Entertainment Inc. Input Device
JP7353773B2 (ja) 2019-03-18 2023-10-02 株式会社ソニー・インタラクティブエンタテインメント 複数のマーカを備えたデバイス
US10946272B2 (en) * 2019-07-26 2021-03-16 Arkade, Inc. PC blaster game console
US10893127B1 (en) 2019-07-26 2021-01-12 Arkade, Inc. System and method for communicating interactive data between heterogeneous devices
US10773157B1 (en) * 2019-07-26 2020-09-15 Arkade, Inc. Interactive computing devices and accessories
CN115066668A (zh) * 2020-02-17 2022-09-16 索尼集团公司 显示控制装置、显示控制方法和记录介质
EP4158451A1 (en) * 2020-05-29 2023-04-05 VRmedia S.r.l. A system for remote assistance of a field operator
CN215769661U (zh) * 2021-02-10 2022-02-08 斯特赖克虚拟现实技术有限公司 包括提供触觉反馈的外围设备的仿真系统
US20230041294A1 (en) * 2021-08-03 2023-02-09 Sony Interactive Entertainment Inc. Augmented reality (ar) pen/hand tracking
US11691072B2 (en) * 2021-08-24 2023-07-04 Sony Interactive Entertainment LLC Aiming display automation for head mounted display applications
GB2615093A (en) * 2022-01-27 2023-08-02 Sony Interactive Entertainment Inc Control device, system and method

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5351969A (en) * 1992-05-26 1994-10-04 Smith Engineering Remote control system for raster scanned video display
US6302796B1 (en) * 1997-02-05 2001-10-16 Toymax Inc. Player programmable, interactive toy for a shooting game
US5741185A (en) * 1997-02-05 1998-04-21 Toymax Inc. Interactive light-operated toy shooting game
ES2257859T3 (es) * 1998-05-13 2006-08-01 Sega Corporation Mando con forma de arma de fuego.
JP3662435B2 (ja) * 1998-12-17 2005-06-22 コナミ株式会社 射的ビデオゲーム装置
US6811491B1 (en) * 1999-10-08 2004-11-02 Gary Levenberg Interactive video game controller adapter
US6648726B2 (en) * 2000-09-13 2003-11-18 All Seasons Toys, Inc Toy gun and glow in the dark projectile
US6544124B2 (en) * 2001-08-29 2003-04-08 Radica China Ltd. Handheld steering wheel game controller
US6902483B2 (en) * 2002-04-01 2005-06-07 Xiao Lin Handheld electronic game device having the shape of a gun
US7510477B2 (en) * 2003-12-11 2009-03-31 Argentar Eric J Control apparatus for use with a computer or video game system
US8469824B1 (en) * 2004-09-27 2013-06-25 Hasbro, Inc. Device and method for an electronic tag game
US7632187B1 (en) * 2004-09-27 2009-12-15 Hasbro, Inc. Device and method for an electronic tag game
US8888593B2 (en) * 2005-10-26 2014-11-18 Sony Computer Entertainment Inc. Directional input for a video game
US7833097B1 (en) * 2005-12-19 2010-11-16 Kyocera Corporation Game pad controller and system for portable communication device
JP4989105B2 (ja) * 2006-05-09 2012-08-01 任天堂株式会社 ゲームコントローラ
JP5134224B2 (ja) * 2006-09-13 2013-01-30 株式会社バンダイナムコゲームス ゲームコントローラ及びゲーム装置
US8721460B2 (en) * 2007-01-04 2014-05-13 Jakks Pacific, Inc. Toy laser gun and laser target system
US8988359B2 (en) * 2007-06-19 2015-03-24 Nokia Corporation Moving buttons
US8366525B2 (en) * 2008-10-15 2013-02-05 Rick Jensen Combat simulation gaming system
US8221229B2 (en) * 2008-10-27 2012-07-17 Sony Computer Entertainment Inc. Spherical ended controller with configurable modes
WO2010080766A2 (en) * 2009-01-06 2010-07-15 Immersion Corporation Programmable game-based haptic enabled gun controller
US8568233B2 (en) * 2009-04-23 2013-10-29 Performance Designed Products Llc Video game controller attachment apparatus
US20100304873A1 (en) * 2009-05-28 2010-12-02 Lipa Markowitz Bowling Ball and Football Game Controller
US8913009B2 (en) * 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8339364B2 (en) * 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
JP2011188345A (ja) * 2010-03-10 2011-09-22 Olympus Corp 携帯電子機器
JP5147900B2 (ja) * 2010-06-14 2013-02-20 株式会社ソニー・コンピュータエンタテインメント ゲームコントローラに取り付けられるアタッチメント、及び、コントローラアッセンブリ
KR101364826B1 (ko) * 2010-11-01 2014-02-20 닌텐도가부시키가이샤 조작 장치 및 조작 시스템
JP5936315B2 (ja) * 2010-11-01 2016-06-22 任天堂株式会社 情報処理システムおよび情報処理装置
US8419541B2 (en) * 2010-11-17 2013-04-16 Sony Computer Entertainment Inc. Smart shell to a game controller
US20120270663A1 (en) * 2011-04-05 2012-10-25 Leo Markowitz Inflatable Vehicles for Simulating Driving for use with Handheld Video Games
US8740708B2 (en) * 2011-05-27 2014-06-03 Performance Designed Products Llc Gun handle attachment for game controller
JP2015156154A (ja) * 2014-02-20 2015-08-27 シャープ株式会社 入力装置およびそれを備えた携帯端末装置
US10055018B2 (en) * 2014-08-22 2018-08-21 Sony Interactive Entertainment Inc. Glove interface object with thumb-index controller
WO2016140924A1 (en) * 2015-03-01 2016-09-09 Tactical Haptics Embedded grasp sensing devices, systems, and methods

Also Published As

Publication number Publication date
EP3469466B1 (en) 2021-10-20
WO2017213818A1 (en) 2017-12-14
EP3469466A1 (en) 2019-04-17
JP2019522849A (ja) 2019-08-15
US20170354864A1 (en) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6880081B2 (ja) 方向インタフェースオブジェクト
JP6982215B2 (ja) 検出された手入力に基づく仮想手ポーズのレンダリング
US11662813B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
JP6770178B2 (ja) Hmdユーザを現実世界空間内で安全に案内するために、仮想現実シーンにおいて対話型コンテンツを提供する方法
US10857455B2 (en) Spectator management at view locations in virtual reality environments
EP3615154B1 (en) Second screen virtual window into vr environment
JP6663505B2 (ja) Vr環境における観客ビュー視点
US10445925B2 (en) Using a portable device and a head-mounted display to view a shared virtual reality space
JP6408634B2 (ja) 頭部装着ディスプレイ
EP3429714B1 (en) Spectator view tracking of virtual reality (vr) user in vr environments
US10388071B2 (en) Virtual reality (VR) cadence profile adjustments for navigating VR users in VR environments
WO2018005331A1 (en) Display screen front panel of hmd for viewing by users viewing the hmd player
JP7249975B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210127

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210203

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210430

R150 Certificate of patent or registration of utility model

Ref document number: 6880081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250