JP2019531550A - 仮想現実環境内の特定のコンテンツに焦点を合わせるためのhmd遷移 - Google Patents

仮想現実環境内の特定のコンテンツに焦点を合わせるためのhmd遷移 Download PDF

Info

Publication number
JP2019531550A
JP2019531550A JP2019517193A JP2019517193A JP2019531550A JP 2019531550 A JP2019531550 A JP 2019531550A JP 2019517193 A JP2019517193 A JP 2019517193A JP 2019517193 A JP2019517193 A JP 2019517193A JP 2019531550 A JP2019531550 A JP 2019531550A
Authority
JP
Japan
Prior art keywords
hmd
user
image
game
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019517193A
Other languages
English (en)
Other versions
JP6771101B2 (ja
Inventor
ロジャー スタッフォード ジェフリー
ロジャー スタッフォード ジェフリー
テイラー マイケル
テイラー マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2019531550A publication Critical patent/JP2019531550A/ja
Application granted granted Critical
Publication of JP6771101B2 publication Critical patent/JP6771101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

ヘッドマウントディスプレイ(HMD)のスクリーン上でオブジェクトを提示する方法及びシステムは、HMDを身に着けているユーザに近接した実世界環境の画像を受信することを含む。画像は、HMDの1つ以上の前向きカメラから受信され、HMD内のプロセッサによってHMDのスクリーン上でレンダリングするために処理される。HMDを身に着けているユーザの注視方向は、ユーザの片目又は各々の目に向けられたHMDの1つ以上の注視検出カメラを使用して検出される。前向きカメラによってキャプチャされた画像は、ユーザの注視方向と合致する実世界環境内でキャプチャされたオブジェクトを識別するように分析され、オブジェクトの画像は、ユーザに提示されるときに、オブジェクトが焦点から外れたように見えるようにする第1の仮想距離においてレンダリングされる。オブジェクトに焦点を合わせるように1つ以上の前向きカメラのレンズに対するズーム比を調節するための信号が生成される。ズーム比の調節は、ユーザによってオブジェクトを識別可能にする第2の仮想距離において、オブジェクトの画像をHMDのスクリーン上で提示させる。【選択図】図3

Description

本開示は、ヘッドマウントディスプレイ上で拡張現実を使用してオブジェクトを提示するシステム及び方法に関する。
コンピューティング及びビデオゲーミング産業が数年にわたって多くの変更を経験してきた。計算能力が拡大するにつれて、ビデオゲームアプリケーションなどの様々なインタラクティブアプリケーションの開発者は、計算能力におけるそれらの増大を利用したアプリケーションソフトウェアを作り出してきた。この目的のために、ビデオゲーム開発者などのアプリケーション開発者は、非常に現実的なゲームプレイ経験を生じさせるように、ユーザとゲーミングシステムとの間のインタラクションあるいは対話を増大させるために洗練された操作を組み込んだゲームを開発してきた。
一般的に言えば、ジェスチャ入力は、コンピューティングシステム、ビデオゲームコンソール、スマート機器などの電子デバイスに、プレイヤによって行われ、電子デバイスによってキャプチャされた何らかのジェスチャに応答させることを指す。よりリッチなインタラクティブ体験を達成する1つの方法は、ジェスチャ入力を提供するために無線ゲームコントローラを使用することである。プレイヤの移動を追跡し、プレイヤによって提供されたジェスチャ入力を判定し、ゲームの状態に影響を与えるための入力としてそれらの移動及びジェスチャ入力を使用するために、無線ゲームコントローラの移動は、ゲーミングシステムによって追跡される。
より没入できるインタラクティブ体験を達成するための別の方法は、ヘッドマウントディスプレイを使用することである。ヘッドマウントディスプレイ(HMD)は、プレイヤによって身に着けられ、HMDのディスプレイスクリーン上で、仮想シーンのビューなどの様々なグラフィックを提示するように構成されることがある。ヘッドマウントディスプレイのスクリーン上で提示されたグラフィックは、プレイヤの視界の大部分又は全てさえもカバーすることができる。ヘッドマウントディスプレイは、実世界シーンのビューを遮断することによって、プレイヤに、視覚的に没入できる経験を提供することができる。
いつでもプレイヤに対する没入できる経験を更に高めるために、HMDは、例えば、コンピュータ/コンピューティングデバイスによって生成された仮想ゲームのゲームシーン、又は実世界環境、若しくは実世界環境及び仮想ゲームシーンの両方の組み合わせからのライブ映像をまさにレンダリングするように構成されることがある。しかしながら、HMDのディスプレイスクリーンにおいてレンダリングされた実世界環境の画像内で提供された全てのオブジェクト又は詳細は、プレイヤによって完全に識別可能でないことがある。
それは、本発明の実施形態が生まれるこのコンテキスト内にある。
本発明の実施形態は、ユーザが見るためのヘッドマウントディスプレイ(HMD)のスクリーン上でオブジェクトに焦点を合わせることによって、実世界環境からのオブジェクトを提示するために使用される方法、システム、及びコンピュータ可読媒体を開示する。一部の実装態様では、HMDは、実世界環境又は仮想現実(VR)シーンからの画像を受信し、HMDのスクリーン上で画像をレンダリングするように構成される。画像をレンダリングする間、HMD内の1つ以上のセンサによって提供された情報は、HMDを身に着けているユーザの注視方向(gaze direction: GD)を検出するために使用される。注視方向を検出したことに応答して、ユーザの注視方向と合致する実世界環境の画像からのオブジェクトが識別され、HMDに配置された1つ以上の前向きカメラのレンズに対するズーム比を調節するための信号が生成される。ズーム比の調節は、HMDのスクリーン上でレンダリングされるとき、オブジェクトを含む実世界環境の画像に焦点を合わせさせる。一部の実装態様では、HMDは、HMDのレンズに対するズーム比を判定するときに、ユーザの目の視覚特性を考慮してもよい。一部の実装態様では、センサは、HMDのレンズに対するズーム比を調節するための信号を生成する前に、少なくとも所定の閾値期間の間にユーザがオブジェクトを注視しているかどうかを判定する。一部の実装態様では、画像のズーム比を調節するための命令を含む信号は、オブジェクトの画像の光学ズームを可能にするようにレンズの光学設定を調節するための情報を含んでもよい。他の実装態様では、ズーム比を調節するための命令を含む信号は、画像のデジタルズームを実行するための命令を含んでもよい。よって、レンダリングされている画像のタイプに応じて、ズーム比は、光学ズーム又はデジタルズームのいずれかを可能にするための命令又は情報を含んでもよい。
実装態様は、実世界環境の画像内でキャプチャされた特定のポイント又はオブジェクトの特定の1つが操作され、ユーザに提示されることを可能にし、それによって、ユーザが特定のポイント又はオブジェクトを明確に区別することができるようにすることによって、実世界環境の拡張現実を提示する方法を提供する。実施形態は、VRシーンの特定のオブジェクトに焦点を合わせることによって、HMDのスクリーン上でレンダリングされたVRシーンの拡張されたビューを提示するように拡大されてもよい。一部の実施形態では、生成された信号は、ズーム比を調節するときにユーザの目の視覚特性を考慮してもよい。実世界環境を拡張し、又はVRシーンを拡張することは、HMDを身に着けているユーザが、満足する没入できる経験を有するようにHMDのスクリーン上でレンダリングされている様々なオブジェクト又はシーンの一部を区別することを可能にする。
VRシーンからの画像は通常、予め記録された画像/ビデオである。一部の実施形態では、VRシーンからの画像がHMDにおいてレンダリングされているとき、VRシーンの画像を見ていた他のユーザからの履歴的な入力は、ズーム比を調節するための信号を生成するときに考慮されてもよい。例えば、一部の実施形態では、他のユーザからの履歴的な入力は、他のユーザに目眩、乗り物酔いなどを経験させた特定のズーム比設定を判定するために、VRシーンからのコンテンツと相関付けられてもよい。この情報は、そのようなコンテンツをレンダリングするときに、1つ以上の前向きカメラのレンズに対するズーム比調節を改善し、それによって、ユーザは、VRシーンからの画像がHMDを身に着けているユーザに提示されるときに、乗り物酔い、目眩などを経験しないようにするために使用されてもよい。一部の実施形態では、特定のズーム比設定によりコンテンツを見ることを可能にするために、そのような改善を無効にするオプションがユーザ(例えばスリル感を好む人)に提供されてもよい
本発明の実施形態は、画像キャプチャデバイスのレンズのズーム比を調節することによりズームインされる、VRシーン又は実世界環境の画像の特定の部分をHMDが提示することを可能にすることによって、HMDが仮想双眼鏡としての役割を果たすことを可能にする。HMDの様々なコントローラ及びセンサからの入力は、ユーザがコンテンツを十分に明確に見ることを可能にするように1つ以上の前向きカメラのレンズの特定の設定を動的に活性化又は非活性化するために使用されてもよい。代替的な実装態様では、画像の特定の特徴又は部分は、特定の特徴を含むオブジェクト又は特定の部分内のオブジェクトに焦点を合わせることを可能にするように調節されてもよい。一部の実装態様では、HMDは、ユーザをVRシーン又は実世界環境内の1つの位置から別の位置に仮想的にテレポートする役割を果たし、そのようなテレポートは、VRシーン又は拡張現実(AR)世界のユーザの経験を拡張するために行われる。例えば、VRシーンの特定の領域又は部分は、ユーザが特定の領域又は部分に近接した位置にテレポートされると見せるように焦点が合わせられてもよい。
1つの実施形態では、ヘッドマウントディスプレイ(HMD)のスクリーン上の実世界環境からのオブジェクトを提示する方法が提供される。方法は、HMDを身に着けているユーザに近接した実世界環境の画像を受信することを含む。画像は、HMDの1つ以上の前向きカメラから受信され、HMDのスクリーン上でレンダリングするためにHMD内のプロセッサによって処理される。HMDを身に着けているユーザの注視方向は、ユーザの片目又は各々の目に向けられたHMDの1つ以上の注視検出カメラを使用して検出される。前向きカメラによってキャプチャされた画像は、ユーザの注視方向と相関付ける実世界環境内でキャプチャされたオブジェクトを識別するように分析される。オブジェクトの画像は、ユーザに提示されるときにオブジェクトが焦点から外れたように見えるようにする第1の仮想距離においてレンダリングされる。オブジェクトに焦点を合わせるように1つ以上の前向きカメラのレンズに対するズーム比を調節するための信号が生成される。ズーム比の調節は、ユーザによってオブジェクトを識別可能にする第2の仮想距離において、オブジェクトの画像をHMDのスクリーン上で提示させる。
一部の実装態様では、信号は、ユーザの注視方向が所定の時間長の間にオブジェクトに向けられていると判定した後に生成される。
一部の実装態様では、所定の期間の間にオブジェクトに焦点が合わされる。所定の期間が満了すると、実世界環境からの画像がレンダリングされる。
一部の実装態様では、ズーム比は、HMDを身に着けているユーザの目の視覚特性を考慮するように調節される。
一部の実装態様では、ズーム比を調節するための信号は、オブジェクトの画像がHMDの1つ以上の前向きカメラによってキャプチャされる深さへの調節を生じさせるように、1つ以上の前向きカメラにおけるレンズの開口設定を調節するための信号を含む。
一部の実装態様では、ズーム比を調節するための信号は、実世界環境内のオブジェクトの画像をキャプチャするときに、1つ以上の前向きカメラのレンズの焦点長さを調節するための信号を含む。レンズの焦点長さへの調節は、オブジェクトのズームインを生じさせる。
一部の実装態様では、ズーム比を調節するための信号は、ズームの速度を制御するための信号を含み、ズームの速度は、キャプチャされる実世界環境の画像のタイプ、又はユーザに基づいて制御される。
一部の実装態様では、ズーム比を調節するための信号は更に、HMDのスクリーンの輝度レベルを調節するための信号を含む。
一部の実装態様では、実世界環境の3次元デジタルモデルは、HMDの前向きカメラによってキャプチャされた画像を使用して構築される。3次元デジタルモデルは、1つよりも多いカメラを使用して画像の複数のフレーム内でキャプチャされた異なるポイントを追跡し、カメラによってキャプチャされた異なるポイントを3次元空間に相関付けることによって構築される。
一部の実装態様では、オブジェクトを識別することは、注視方向に一致する画像内でキャプチャされたオブジェクトの輪郭を描くことと、HMDを身に着けているユーザからオブジェクトの確認を受信することとを含む。
一部の実装態様では、ヘッドマウントディスプレイ(HMD)のスクリーン上でオブジェクトをレンダリングする方法が開示される。方法は、HMDのスクリーン上でレンダリングするために仮想現実(VR)シーンからの画像を受信することを含む。HMDのスクリーン上でレンダリングされたVRシーンの画像からのオブジェクトの選択が検出される。選択されたオブジェクトは、HMDを身に着けているユーザに対してオブジェクトが焦点から外れたように見えるようにする第1の仮想距離においてレンダリングされると判定される。オブジェクトに近接したVRシーン内の領域が識別される。識別された領域は、オブジェクトを見るときにオブジェクトに関連するユーザについての移動の自由を定義する。選択されたオブジェクトに近接した領域にユーザを仮想的にテレポートするための信号が生成される。ユーザを仮想的にテレポートすることは、ユーザによってオブジェクトを識別可能にする第2の仮想距離において、オブジェクトをHMDのスクリーン上で提示させる。
本発明の他の態様及び利点は、本発明の原理を例として例示する添付図面を併用して、以下の詳細な説明から明らかになるであろう。
添付図面と併用される以下の説明を参照することによって、本発明と共にそれらの更なる利点を最良に理解することができる。
本発明の一実施形態に従った、実世界又は仮想世界からキャプチャされたオブジェクトに焦点を合わせる際に使用されるヘッドマウントディスプレイの通信アーキテクチャの簡易ブロック図を例示する。 本発明の一実施形態に従った、HMDの1つ以上の前向きカメラのズーム比を調節するための信号を生成する際に使用されるHMDのモジュールの特定の1つを例示する。 本発明の一実施形態に従った、HMDを身に着けているユーザに識別可能にするように実世界環境からのオブジェクトの画像を調節するために使用されるシステムの例示的なアーキテクチャを例示する。 本発明の一部の実施形態における、ユーザの注視方向を検出したことに応答して、オブジェクトに焦点を合わせることを含む様々な段階を例示する。 本発明の一部の実施形態における、ユーザの注視方向を検出したことに応答して、オブジェクトに焦点を合わせることを含む様々な段階を例示する。 本発明の一部の実施形態における、ユーザの注視方向を検出したことに応答して、オブジェクトに焦点を合わせることを含む様々な段階を例示する。 本発明の一部の実施形態における、HMDのスクリーン上で提示されており、ユーザの検出された注視方向に基づいて、HMDによってキャプチャされた実世界環境内の異なる位置にユーザをテレポートしている実世界環境の画像を例示する。 本発明の一部の実施形態における、HMDのスクリーン上で提示されており、ユーザの検出された注視方向に基づいて、HMDによってキャプチャされた実世界環境内の異なる位置にユーザをテレポートしている実世界環境の画像を例示する。 本発明の一部の実施形態における、実世界環境又は仮想世界シーンの拡張したビューの提示の間のスクリーンの遷移のグラフィカル表現を例示する。 本発明の一実施形態に従った、実世界環境内のオブジェクト又は仮想シーンからのオブジェクトの画像を提供するために使用される方法の動作フローを例示する。 本発明の一実施形態に従った、地理的に分散され、ネットワークを介して接続されたユーザに情報コンテンツ及びサービスを配信するための例示的な情報サービスプロバイダアーキテクチャを例示する。 本発明の様々な実施形態に従った、例示的なゲームシステムの簡易ブロック図を例示する。
以下の説明では、本発明の完全な理解を提供するために、多数の特定の詳細が示される。しかしながら、本発明がそれらの特定の詳細の一部又は全てなしに実施されてもよいことが当業者にとって明らかであろう。他の例では、本発明を曖昧にしないために、公知の処理ステップは詳細に説明されない。
様々な実装態様に従って、ヘッドマウントディスプレイ(HMD)を身に着けているユーザは、HMDのスクリーン上で実世界環境又は仮想現実(VR)シーンの画像が提供されてもよい。実世界環境の画像は、HMDの1つ以上の前向きカメラによってキャプチャされてもよい。代わりに、VRシーンからの画像は、ビデオゲームの一部であってもよく、又はHMDに通信可能に接続されたコンピューティングデバイスから伝送された予め記録されたビデオであってもよい。HMD内の様々な構成要素(例えば、センサ、カメラなど)は、HMDを身に着けているユーザの視線方向あるいは注視方向を検出するために使用される。ユーザの注視方向は、ユーザに関心のある画像内のオブジェクトであり、又はユーザの注意を捉えた画像内のオブジェクトを識別するために使用される。オブジェクト内のユーザの連続した関心を検出すると、HMDの光学素子を調節して光学ズームを実行し、又はデジタルズームを介して画像を調節し、それによって、ユーザに関心があり、又はユーザの注意を捉えたオブジェクトに焦点が合わされるようにするための信号がHMDのプロセッサによって生成される。
一部の実装態様では、HMDは、ユーザの関心を捉えたオブジェクト、又は領域若しくはシーンにより近い領域にHMDを身に着けているユーザが動的にテレポートされたと見せるようにするように、画像がスクリーン上でどのようにレンダリングされるかを調節することによって仮想テレポータとしての役割を果たす。ユーザのテレポート又は遷移の速度は、レンダリングされているコンテンツのタイプに依存することがあり、また、そのような遷移がユーザにいずれの苦痛を生じさせないことを保証するように調節されてもよい。ユーザがオブジェクト又はシーンにより近い領域に仮想的に遷移すると、ユーザは、コントローラを使用して、又はジェスチャを通じて入力を提供してもよく、物理又は仮想世界内で提供されたそのような入力は、HMDのスクリーン上でレンダリングされているコンテンツを調節するために解釈及び使用される。一部の実装態様では、オブジェクトにより近い領域は、物理環境と相関付けられ、物理環境内で、ユーザはHMDを操作する。そのような実施形態では、ユーザがそれにテレポートされたオブジェクトにより近い領域の境界は、ユーザの物理世界環境の範囲と相関付けられる。ユーザがHMD上でレンダリングされた画像とインタラクションを行うにつれて、そのようなインタラクションは、HMDシステムによって実世界環境と関連して解釈され、適切なフィードバックがユーザに提供される。例えば、テレポートすることがシーンの縁(例えば、仮想崖、仮想ビルディング、物理壁、実世界の障害物の縁)にあるようにユーザをさせ、又は潜在的にユーザに悪影響を与えることがあり、若しくはユーザに混乱を感じさせることがある状況にユーザをさせる場合、フィードバックは、適切な警告を提供してもよい。フィードバックは、視覚形式、音声形式、触覚形式、テキスト形式、光学形式、又はそれらのいずれかの組み合わせにおいて提供されてもよい。
本発明の全体的な理解と共に、様々な図面を参照して特定の実施形態が説明される。本開示において説明される様々な実施形態は、本明細書で説明される特定の詳細の一部又は全てなしに実施されてもよいことに留意されるべきである。他の例では、本開示において説明される様々な実施形態を不必要に曖昧にしないために、公知の処理動作は詳細に説明されない。
図1は、様々な実施形態を実装するために使用されるシステム100の例示的な構成の実施形態である。システムは、ユーザの頭部上で身に着けられたヘッドマウントディスプレイ(HMD)104、及びコンピュータ172を含む。一部の実装態様では、システムはまた、ユーザがHMD104のディスプレイスクリーン上でレンダリングするために提供されたコンテンツとインタラクションを行い、ユーザ入力を生成することを可能にするためのハンドヘルドコントローラ(HHC)106を含んでもよい。様々な実装態様では、コンピュータ172は、汎用コンピュータ、特殊目的コンピュータ、ゲームコンソール、携帯電話、タブレットデバイス、又はHMD104のディスプレイスクリーン上でレンダリングするためのコンテンツを提供する、ビデオゲームなどのインタラクティブアプリケーションの1つ以上の部分を実行するように構成された他のそのようなデバイスであってもよい。インタラクティブアプリケーションは、複数のユーザによってプレイされるマルチユーザゲームアプリケーション117、又はユーザによってプレイされるシングルユーザゲームアプリケーションであってもよい。一部の実施形態では、ゲームアプリケーションの少なくとも部分117bは、コンピュータ上で実行している。そのような実施形態では、インタラクティブゲームアプリケーションのいずれかの残りの部分117aは、ゲームクラウドシステム102などのクラウドシステム、例えば、1つ以上の仮想マシン(VM)上で実行されてもよく、そこでは、ゲームコンテンツ及びユーザインタラクションがインターネットなどのネットワーク110を通じて交換される。一部の実施形態では、コンピュータ172は、ゲームクラウドシステム102の一部であってもよく、HMD及びハンドヘルドコントローラ(HHC)は、ネットワーク110を介してゲームクラウドシステム102に配置されたコンピュータと直接通信する。そのような実施形態では、インタラクティブアプリケーションの一部は、ゲームクラウドシステム上でコンピュータによって実行され、インタラクティブアプリケーションの残りの部分は、HMD104上で実行される。
HMD104は、ユーザの頭部上で直接身に着けられ、又はヘルメットの一部として身に着けられたデバイスである。HMD104は、ユーザの片目又は各々の目の前にある小型ディスプレイ光学、例えば、レンズ、眼鏡、導波管を有する。一部の実施形態では、シーン、例えば、仮想シーン、拡張仮想現実シーン、拡張実世界環境などは、HMDのディスプレイスクリーン上で表示され、ユーザの片目又は各々の目の前で提供されたディスプレイ光学を通じて見られる。ディスプレイ光学がユーザの各々の目の前にある例では、両目が1つのシーンを見る。
一部の実施形態では、HMD104は、コンピュータ及び/又はゲームクラウドシステムなどのクラウドシステム上で実行するアプリケーションからのビデオ出力を受信及びレンダリングすることが可能である。様々な実施形態では、HHC及び/又はHMDは、これが有線接続よりも大きなHHC及び/又はHMDの移動の自由を提供するので、コンピュータと無線で通信する。代替的な実施形態では、HHC及び/又はHMDは、有線接続を通じてコンピュータと通信する。
HHC106は、ボタン、慣性センサ、追跡可能LEDライト、タッチスクリーン、入力制御を有するジョイスティック、方向性パッド、トリガ、タッチパッド、タッチスクリーンなどの様々な特徴のいずれかを含んでもよく、ハンドジェスチャ、発声入力、又はインタラクティブアプリケーションに入力を提供するための他のタイプの入力機構を検出及び解釈するための回路/ロジックを有してもよい。更に、HHCは、コントローラを移動させることによって、ユーザとインタラクティブプログラムとのインタフェースとなって、インタラクティブプログラムへの入力を可能にするモーションコントローラであってもよい。
同じように、HMD104は、HMDを移動させることによって、ユーザがインタラクティブアプリケーションとインタフェースし、インタラクティブアプリケーションに入力を提供することを可能にするユーザ入力回路を含んでもよい。HMD及び/又はHMDに通信可能に結合されたモーションコントローラの位置及び移動を検出するため様々な技術が採用されてもよい。例えば、HMDのモーションコントローラ及び/又はユーザ入力回路は、加速度計、ジャイロスコープ、及び磁気計などの様々なタイプの慣性センサ回路を含んでもよい。一部の実施形態では、モーションコントローラは、グローバルポジショニングシステム(GPS)、コンパスなどを含んでもよい。一部の実施形態では、加速度計は、6軸低待ち時間加速度計である。一部の実施形態では、モーションコントローラ及び/又はユーザ入力回路は、画像キャプチャデバイスを使用して追跡することができる、1つ以上の固定された参照オブジェクト(他に、「指標素子」と称される)、例えば、発光ダイオード(LED)、色付きポイント、光反射器などを含むことができる。例えば、固定された参照オブジェクトの画像は、HMDを身に着けているユーザに対向し、ユーザ、HMD、及び/又はHHCの位置を追跡するように配置されたシステムの1つ以上のデジタルカメラ(図示せず)によってキャプチャされる。ユーザのジェスチャアクション及び移動、HMD及び/又はHHCはまた、デジタルカメラによってキャプチャされる。一部の実施形態では、デジタルカメラは、単一の電荷結合素子(CCD)、LEDインジケータ、及びハードウェアに基づくリアルタイムデータ圧縮及び符号化装置を更に含むビデオカメラを含み、それによって、圧縮されたビデオデータを、画像内を基礎にしたMotion Picture Expert Group(MPEG)標準フォーマットなどの適切なフォーマットにおいて伝送することができる。ユーザの位置及び移動、モーションコントローラ及び/又はHMDは、1つ以上のデジタルカメラによってキャプチャされた画像の分析を通じて判定されてもよい。
1つの実施形態では、HMD104は、インターネット110と通信するためのルータ152を含む。代替的な実施形態では、HMD104は、HMD104の外部にあるルータ152を使用して、インターネット110を通じてクラウドシステムと通信してもよい。一部の実施形態では、ゲームクラウド102は、本明細書でゲームクラウドシステムと称される。HMD104は、ヘルメット上にユーザが置いているのと同様の方式でユーザによって頭部に置かれ、それによって、HMD104のレンズは、ユーザの片目又は両目の前に位置付けられる。一部の実施形態では、HMD104は、眼鏡のように身に着けられる(例えば、度付き眼鏡、ゴーグルなど)。HHC106は、ユーザ108によってユーザの手に保持される。
様々な実施形態では、HHC106の代わりに、ユーザ108の手は、HMD104内のインタラクティブアプリケーション及び/又はロジックによって解釈することができるジェスチャ、例えば、手のジェスチャ、指のジェスチャなどを提供するために使用されてもよい。一部の実施形態では、ユーザは、触覚フィードバックを提供するために、センサとのインタラクティブグローブを身に着けてもよい。インタラクティブグローブは、ユーザによって身に着けられるときにHHCとしての役割を果たし、インタラクティブプログラム及び/又はHMDにインタラクティブジェスチャ/アクションの形式で入力を提供する。HHCと同様に、インタラクティブグローブは、例えば、様々な移動の検出を可能にするためのLED、光反射器などの指標素子を含んでもよい。インタラクティブグローブは、HMD及び/又はインタラクティブプログラムに入力を提供するために使用され、他の形式のウェアラブルクロージング/デバイスも従事することができるウェアラブルデバイスの1つの形式である。HMD104のデジタルカメラ101は、ユーザによって提供されたジェスチャの画像をキャプチャし、HMD104内のプロセッサは、HMD104内で表示されたゲームがジェスチャによって影響を受けるかどうかを判定するようにジェスチャを分析する。
1つの実施形態では、デジタルカメラ101は、ユーザによって提供されたジェスチャを含む実世界画像をキャプチャするために、前を向いたHMD104の面板上に位置付けられる。一部の実施形態では、1つよりも多いデジタルカメラは、実世界画像の異なる角度を捉えるために、HMD104の面板上に設けられてもよい。一部の実施形態では、デジタルカメラは、ステレオカメラ、IRカメラ、単一のレンズカメラなどであってもよい。本明細書で使用されるように、HMDのプロセッサは、マイクロプロセッサ、プログラマブル論理回路、特定用途向け集積回路(ASIC)、又はそれらの組み合わせであってもよい。
システム100は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、又はそれらの組み合わせとすることができる、ネットワーク110を含む。ネットワーク110の例は、インターネット、イントラネット、又はそれらの組み合わせを含む。一部の実施形態では、ネットワーク110は、ゲームクラウド102とHMD104又はHHC106との間でネットワーク110を介してメディアデータを通信するために、伝送制御プロトコル(TCP)/インターネットプロトコル(IP)又はユーザデータグラムプロトコル/IP(UDP/IP)を使用する。実施形態は、TCP/IP又はUDP/IPプロトコルに限定されないが、ネットワークを介してメディアデータを通信するための他の形式の通信プロトコル(いずれかのプロプライエタリ又は非プロプライエタリプロトコルを含む)を従事させることもできる。様々な実施形態では、ネットワークは、ゲームクラウド102とHMD104又はHHC106との間でネットワーク110を介してメディアデータを通信するために、イーサネット(登録商標)及びTCP/IPプロトコルの組み合わせを使用する。
ゲームクラウド102は、コーダ/デコーダ(コーデック)112及びストリームバッファ114を含む。ストリームバッファ114は、ゲームプログラム117が実行されると生成される、メディアデータ116のストリームを記憶する。メディアデータ116は、仮想環境データ、仮想ゲームオブジェクトデータ、それらの組み合わせなどを含む。仮想環境データは、ゲームの仮想環境を生成するために使用され、仮想ゲームオブジェクトデータは、1つ以上の仮想ゲームオブジェクト、例えば、仮想ゲームキャラクタ、仮想ゲームオブジェクト、仮想ポイント、仮想プライズ、ゲームインタフェースなどを生成するために使用される。仮想環境の例は、仮想地理的領域、例えば、仮想都市、仮想道路、仮想湖、仮想海などを含む。ゲームプログラム117は、ゲームクラウド102の1つ以上のサーバによって実行されるインタラクティブアプリケーションの例である。コーデック112は、不可逆圧縮、可逆圧縮などを使用してメディアデータを符号化/復号するために、圧縮器/圧縮解除器を使用する。
HMD104は、HMD104のプロセッサによって実行されるオペレーティングシステム(OS)にアクセスするために使用される。例えば、HMD104内のボタンの選択及び活性化は、HMD104のプロセッサがOSを実行することを可能にする。同様に、HHC106は、HHC106のプロセッサによって実行されるOSにアクセスするために使用されてもよい。HHC106上のボタンは、HHC106のプロセッサにOSを実行させるために使用されてもよい。
一部の実施形態では、OSは、HMD104がネットワーク110に直接アクセスすることを可能にする。例えば、ユーザは、ネットワークアクセスアイコン、ネットワークアクセスシンボルなどを使用して、OSのトップでHMD104のプロセッサによって実行されるネットワークアクセスアプリケーションを選択してもよい。ネットワークアクセスアプリケーションは、ネットワークのリストを提供し、ネットワークのリストから、ネットワーク110にアクセスするためのネットワークを選択する。ユーザ認証は、ネットワークアクセスプロトコルに従って、ネットワーク110にアクセスするために要求されることがある。ネットワーク110へのアクセスは、ユーザが選択し、ユーザ認証が成功すると(必要な場合)有効にされる。HMD104内の内蔵ルータ(図示せず)は、ゲームクラウドとのインタラクションを行ってゲームデータを交換するためにネットワーク110を使用する。それらの実施形態では、ネットワーク110とHMD104との間の通信は、無線通信プロトコルに従う。同じように、HHC106は、ネットワークアクセスアプリケーションを使用してネットワークを選択することによって、ネットワーク110へのアクセスを取得し、HHC106とネットワークとの間の通信は、無線通信プロトコルに従う。
ネットワーク110がアクセスされると、OSは、ネットワークの選択と同様の方式で、HMD104がゲームプログラム117にアクセスすることを可能にする。例えば、ユーザがゲームアクセスアイコン、ゲームアクセスシンボルなどを通じてOSのトップでHMD104のプロセッサによって実行されるゲームアクセスアプリケーションを選択するとき、ゲームアクセスアプリケーションは、ユーザに表示するために、ネットワーク及びHMD104のプロセッサを介してゲームプログラム117へのアクセスを要求する。
ゲームプログラム117へのアクセスを取得すると、HMD104のマイクロコントローラは、HMD104のディスプレイスクリーン上でゲームのゲームシーンを表示する。一部の実施形態では、HMD104のディスプレイスクリーンは、HMD104が高速で移動するときに不鮮明さを削減するための高性能ミニチュアスクリーンである。1つの実施形態では、ディスプレイスクリーンは、液晶ディスプレイ(LCD)スクリーン、リキッドクリスタルオンシリコン(LCoS)、若しくは有機発光ダイオード(OLED)、又は陰極線管などである。画像は、ディスプレイスクリーン上でHMDのディスプレイ光学のレンズによって投影される。ディスプレイ光学のレンズ又はディスプレイスクリーンに対して調節が行われてもよく、そのような調節は、HMDのディスプレイスクリーン上でレンダリングされた画像に影響を与える。ユーザは、1つ以上の頭部及び/又は目の動き、例えば、頭を傾けること、瞬きすること、注視すること、移動して注視すること、じろじろ見ることなどを行い、各々の頭部又は目の動きは、ゲームをプレイするために使用することができる入力を生成するようにユーザ入力回路をトリガする。それらの実施形態では、ゲームプログラム117は、ゲームクラウド102上で実行し、ゲームプログラム117とHMD104との間の通信は、内蔵ルータ及びネットワーク110を通る。HMD104のディスプレイスクリーン上でレンダリングされた画像は、目の短焦点を提供するディスプレイ光学を通じて見られる。
一部の実施形態では、ゲームアクセスアプリケーションは、ゲームプログラム117にアクセスするためにユーザから、ユーザ名及び/又はパスワードなどのユーザ認証情報を要求する。ゲームクラウド102から成功した認証を受信すると、ゲームアクセスアプリケーションは、ユーザにゲームプログラム117のアクセスを許可する。
様々な実施形態では、ゲームアプリケーション/プログラムにアクセスする代わりに、ユーザは、ネットワーク110にアクセスすると、ウェブページへのアクセスを要求し、ウェブページは、ユーザがゲームプログラム117にアクセスすることを可能にする。例えば、ユーザは、ウェブページにアクセスするために、ユーザ入力回路又はHHC106を介してウェブブラウザアプリケーションを選択する。ウェブページにアクセスすると、ユーザは、ウェブページ上で表示されたゲームをプレイし、又はその中で提供されたリンクを使用してゲームにアクセスする。ゲームは、ゲームプログラム117がゲームクラウド102上で実行されるときにレンダリングされる。一部の実施形態では、ユーザ認証は、ゲームプログラム117がゲームクラウド102上で実行されるときに表示されたゲームをプレイするために、ウェブページへのアクセスを提供する前に要求されてもよい。ユーザ名及び/又はパスワードは、ユーザがゲームアクセスアプリケーションを介してゲームにアクセスするとき、上記説明された方式と同様の方式で認証される。
ゲームプログラム117がアクセスされるとき、コーデック112は、ネットワーク110を介してHMD104に符号化されたメディアデータのストリームを送信するために、メディアデータ116のデジタルデータストリームを符号化する、例えば、圧縮などをする。一部の実施形態では、符号化されたメディアデータのデジタルデータストリームは、ネットワーク110を介して送信するためのパケットの形式にある。
HMD104は、ネットワーク110を介してコーデック112から、選択されたゲームプログラムについての符号化されたメディアデータのデジタルデータストリームを受信し、デジタルデータストリームは、処理され、例えば、パケット解除され、復号されるなどであり、処理されたストリームは、HMD104のディスプレイスクリーン上でゲームシーンを表示するために使用される。ゲームシーンがHMD104のディスプレイスクリーン上で表示されているので、HMD104の外部カメラ101は、ユーザの視点から、ユーザに直に近接した実世界環境の1つ以上の画像をキャプチャする。一部の実施形態では、外部カメラ101は、ビデオカメラである。実世界環境の例は、ユーザがそこからゲームにアクセスしている部屋、ユーザが位置する地理的領域、ユーザの周囲の実世界オブジェクトなどを含む。地理的領域の例は、公園、道路、通り、湖、都市、ランドマークなどを含む。実世界オブジェクトの例は、バス停留所、コーヒーショップ、店舗、オフィス、車両、部屋、デスク、テーブル、椅子、ボールなどを含む。実世界環境の1つ以上の画像を含む実世界環境データは、1つの実施形態では、HMDにローカルに処理及び記憶され、HMDのスクリーン上で後にレンダリングするために使用される。ユーザ入力は、HMD104によって処理、パケット化、及び符号化されてもよく、内蔵ルータ及びネットワーク110を通じてゲームクラウド102内のコーデック112に送信されてもよい。一部の実施形態では、ユーザ入力に加えて、実世界環境データはまた、HMD104によってパケット化及び符号化されてもよく、HMD104の内蔵ルータ、ネットワーク110を介してゲームクラウド102内のコーデック112に、符号化された環境データのストリームとして送信されてもよい。
ユーザ入力は、HMD104及び/又はHHC106を通じて提供されてもよい。例えば、ユーザは、HMD104内で提供された入力インタフェース/機構を使用して入力を提供してもよい。代わりに、ユーザは、HHCを使用して、手の動き、例えば、ボタンの押下、ジョイスティックの移動、手のジェスチャ、指のジェスチャ、それらの組み合わせなどを行ってもよく、HHC106において提供されたそのようなユーザ入力は、HMD104の通信回路に送信するためにHHC106の通信回路によって入力信号に変換される入力データを生成する。当然に、HHCは、ハンドヘルドコントローラ、ジョイスティック、モーションコントローラ、ウェアラブル衣料品、ウェアラブルデバイスなどを含む。HHC106及びHMD104から発する入力信号は、HMD104の通信回路によってアナログ形式からデジタル形式に変換され、HMD104によってパケット化、符号化され、ネットワーク110を介してコーデック112に送信される。HMDの通信回路の例は、送受信機、送信/受信回路、ネットワークインタフェースコントローラなどを含む。
一部の実施形態では、ゲームプログラム117は、HMD104上で表示されたゲームの状態を変更するかどうかを判定するために、HMDによって生成された入力データをHHCにおいて生成された入力データ(例えば、手の動きに基づいた)とマッピングする。例えば、HMDからの入力が、HHC106上のボタンの押下など、HHC106において生成された入力と共にネットワーク110を介して受信されるとき、ゲームプログラム117は、ゲームの状態を変更すると判定する。そうでない場合、ゲームプログラム117は、ゲームの状態を変更しないと判定する。
手の動き及び/又はハンドヘルドコントローラの動きに基づいて生成された入力の入力データは、HHC106の通信回路、例えば、送受信機、送信/受信回路などによって、HMD104の通信回路、例えば、送受信機、送信/受信回路などに通信される。HMDに通信される入力データ及び/又はHMDによって生成された入力データは、HMD104によってパケット化及び符号化され、ネットワーク110を介してコーデック112に、符号化された入力データのストリームとして送信される。例えば、入力データは、ネットワーク110を介して内蔵ルータを使用して、HMD104からゲームクラウド102に直接送信されてもよい。いくつかの実施形態では、ユーザは、HMDにおいてレンダリングされた仮想オブジェクトの位置及び/又は方位を変更するために、手の動きを行い、HMDからのユーザ入力を提供する。
コーデック112は、ネットワーク110を介してHMD104から受信された、符号化された入力データのストリームを復号、例えば、圧縮解除し、復号された入力データは、パケット解除し、ゲームプログラム117に送信するためにストリームバッファ114にバッファされる。ゲームクラウド102の1つ以上のサーバは、復号された入力データのストリームをパケット解除し、ゲームプログラム117に入力データを送信する。入力データを受信すると、ゲームプログラム117は、次のメディアデータのストリームを生成するために、ゲームクラウド102の1つ以上のサーバによってパケット化された次のメディアデータを生成する。追加のメディアデータは、例えば、HMD上でレンダリングされた仮想ゲーム環境を更新するために使用される、仮想ゲームオブジェクト、例えば、コンピュータ生成オブジェクトなどへの修正を含む、ゲームプレイへの修正を含んでもよい。次のメディアデータのストリームは、ストリームバッファ114に記憶され、コーデック112によって符号化され、ネットワーク110を介してHMD104に、符号化された次のメディアデータのストリームとして送信される。HMD104は、HMD104のマイクロコントローラに次のメディアデータを提供するために、符号化された次のメディアデータのストリームを受信し、ストリームをパケット解除し、符号化された次のメディアデータを復号する。HMD104のマイクロコントローラは、次のメディアデータに基づいて、HMDのスクリーン上でレンダリングされたゲームシーンの表示を変更する。例えば、マイクロコントローラは、実世界環境の1つ以上の画像上でオーバレイされ、又はHMD104のスクリーン上で単純にレンダリングされたかのいずれかである仮想ゲームオブジェクトの外見、位置、及び/又は方位を変更する。HHC及び/又はHMDにおいて生成された入力データは、ゲームの状態を変更することに留意されるべきである。一部の実施形態では、ゲームシーンの表示は、本明細書でゲームプログラム117と関連付けられた対話性あるいはインタラクティビティの一部と称される。
様々な実施形態では、手の動きに基づいて生成された入力データをHHC106からHMD104に通信する代わりに、入力データは、ネットワーク110を介してHHC106からコーデック112に直接通信される。HHC106において生成された入力データは、HMD104による通信と同様の方式でHHC106によって通信される。例えば、HHC106からの手の動きに基づいて生成された入力データは、HHC106によって符号化及びパケット化され、ネットワーク110を介してコーデック112に、符号化された入力データのストリームとして送信される。
図1に例示される実施形態では、HMD及びHHCは個々に、ゲームコンソール又は外部ルータを通ることなく、ネットワーク110と直接通信することに留意されるべきである。代替的な実施形態では、HHCは、HHCにおいて生成された入力データを伝送するためにHMDと通信してもよく、HMDは、HHC及び/又はHMDから発するデータをネットワーク110と直接通信してもよい。それらの実施形態の両方では、メディアデータ116、追加のメディアデータ、次のデータなどは、ネットワーク110及び内蔵ルータを介してゲームクラウド102のコーデック112によって、HMD104の無線アクセスカード(WAC)に直接ストリーム化される。更に、それらの実施形態では、データ、例えば、入力データ、実世界環境データなどは、内蔵ルータ及びネットワーク110を介してHMD104のWACによって、ゲームクラウド102のコーデック112に直接ストリーミングされる。HMDの内蔵ルータと共にWACは、HMDから及びHMDに、ストリーミングメディアデータ及び入力データを伝送することが可能である。
一部の実施形態では、別個のルータ152は、HMD104とネットワーク110との間に設けられる。ルータ152はまた、HHC106とネットワーク110との間のインタフェースとしての役割を果たす。この実施形態では、HMD104のWACは、ネットワーク110と通信するためにルータ152と相互作用する。一部の実施形態では、HMD104は、無線接続、例えば、Bluetooth(登録商標)接続又はWi−Fi接続などを介してルータ152に結合される。更に、HHC106は、無線接続を介してルータ152に結合される。一部の実施形態では、ルータ152は、有線接続を介してネットワーク110に結合される。ルータが設けられるとき、符号化されたデータのストリームは、HMD104又はHHC106からルータ152に送信される。ルータ152は、ゲームクラウド上でコーデック112にストリームを送信することを促進するために、ネットワーク110内の経路に符号化されたデータのストリームをルーティング、例えば、経路指定などする。ルータ152は、コーデック112に符号化されたデータのストリームをルーティングするために、コーデック112のIPアドレスを使用する。一部の実施形態では、ルータ152は、ネットワークトラフィック因子、例えば、ネットワーク経路上のパケットトラフィック、ネットワーク経路上の混雑度などに基づいてネットワーク110のネットワーク経路を判定する。
ルータ152は、ネットワーク110を介してゲームクラウド102から符号化されたデータのストリームを受信し、HMD104に符号化されたデータのストリームをルーティングする。例えば、ルータ152は、HMD104のIPアドレスに基づいて、ネットワーク110を介してHMD104に、ゲームクラウド102から受信された符号化されたデータのストリームをルーティングする。システム100を使用する一部の実施形態では、ゲームの実行は、ゲームクラウド102上でほとんど行われる。一部の実施形態では、ゲームの一部は、HMD104上で実行してもよく、残りの部分は、ゲームクラウド102上で実行してもよい。
一部の実施形態では、無線ネットワークのリストは、ユーザ選択のためにHMD104のスクリーン上でレンダリングされる。代わりに、一部の他の実施形態では、無線ネットワークのリストは、コンピュータ172と関連付けられたディスプレイスクリーン上で提示される。例えば、コンピュータ172が携帯電話であるとき、携帯電話は、無線ネットワークのリストを表示するためのディスプレイスクリーンを含む。別の例として、コンピュータ172がテレビディスプレイスクリーンに結合されるとき、無線ネットワークのリストは、テレビディスプレイスクリーン上で表示される。それらの実施形態では、無線ネットワークのリストは、コンピュータ172のプロセッサがネットワーク110にアクセスするためにコンピュータ172のメモリデバイスに記憶された無線アクセスアプリケーションを実行するときにアクセスされる。プロセッサ176は、ユーザが頭部の動き及び/又は手の動きを行うことによってHMD104又はHHC106を介して入力データを生成するときに、無線アクセスアプリケーションを実行する。頭部の動き及び/又は手の動きに基づいて生成された入力データは、HMD104又はHHC106の通信回路からコンピュータ172に送信される。コンピュータ172のプロセッサが入力データを受信するとき、無線アクセスアプリケーションは、ネットワーク110にアクセスするユーザ選択のための無線ネットワークのリストを生成するように実行される。
一部の実施形態では、コンピュータ172は、ゲームクラウド102からゲームプログラム117の一部を要求するネットワークインタフェースコントローラ(NIC)174を含む。NICの例は、ネットワークインタフェースカード及びネットワークアダプタを含む。ゲームプログラム117の一部は、コーデック112によって符号化され、ネットワーク110を介してコンピュータ172のNIC174にストリーミングされる。コンピュータ172のプロセッサ176は、メディアデータを生成するようにゲームプログラム117の一部を実行し、メディアデータは、HMD104のディスプレイスクリーン上で表示するために、コンピュータ172の通信回路178、例えば、送受信機、送信/受信回路、ネットワークインタフェースコントローラからHMD104に送信される。HMD104の通信回路は、ゲームシーンを含むメディアデータを処理し、HMD104のディスプレイスクリーン上で表示するために、コンピュータ172からメディアデータを受信し、HMD104のマイクロコントローラにメディアデータを送信する。
更に、コンピュータ172の通信回路178は、HMD104からの頭部の動き及び/若しくはHHC106からの手の動き、又はHMD104において行われたアクションに基づいて生成された入力データを受信し、プロセッサ176に入力データを送信する。1つの実施形態では、入力データは、HMD104の外部面に配置された外部カメラ101によってキャプチャされ、HMD104の通信回路に伝送される実世界環境データであってもよい。プロセッサ176は、追加のメディアデータを生成するように、コンピュータ172に記憶されたゲームプログラム117bの一部を実行し、追加のメディアデータは、通信回路178からHMD104の通信回路に送信される。追加のメディアデータを受信する前又は後、頭部の動き及び/又は手の動きを使用したゲームプレイの一部として生成されたHMD104及び/又はHHC106からの入力データは、通信回路178を介してHMD104の通信回路によってプロセッサ176に送信される。入力データに応答して、プロセッサ176は、次のメディアデータを生成するように、コンピュータ172に記憶されたゲームプログラム117bの一部を実行し、次のメディアデータは、通信回路178からHMD104の通信回路に送信される。次のメディアデータは、ゲームプログラム117の実行によって表示されたゲームの仮想ゲームオブジェクト及び/又は仮想環境を変更/更新することを含む、ゲームプレイを変更するためにHMD104の通信回路に送信される。ゲームオブジェクト、例えば、実世界オブジェクト、仮想ゲームオブジェクトなど、及び/又は仮想環境が変化するとき、ゲームプログラム117の実行によって表示されたゲームのゲーム状態は変化する。
一部の実施形態では、ゲーム状態は、ゲームクラウドの1つ以上のサーバに現在のゲーム状態を通知して、ゲームクラウド102上のゲームのゲーム状態をコンピュータ172上のゲーム状態と同期させるために、ルータ152及びネットワーク110を介してコンピュータ172のNIC174によってゲームクラウド102に送信される。そのような実施形態では、ゲームの実行のほとんどは、コンピュータ172上で行われる。
様々な実施形態では、メディアデータ116、追加のメディアデータ、次のメディアデータなどは、ゲームプログラム117の一部がゲームクラウド102からコンピュータ172にダウンロードされるまで、ネットワーク110及びルータ152を介してコーデック112からHMD104に最初に送信される。例えば、最初に、ユーザは、ゲームプログラム117にアクセスするためにゲームアクセスアプリケーションを使用する。ゲームプログラム117がアクセスされるとき、メディアデータ116、追加のメディアデータ、次のメディアデータなどは、HMD104のディスプレイスクリーン上で表示するために、ネットワーク110及びルータ152を介してコーデック112からHMD104に送信される。HMD104上で表示するためにゲームクラウド102からのメディアデータのアクセスの時間の間、コンピュータ172のNIC174は、ネットワーク110及びルータ152を介してゲームクラウド102からゲームプログラム117の一部をダウンロードする。
一部の実施形態では、ゲームプログラム117がコンピュータ172によってアクセスされるとき、メディアデータ、例えば、メディアデータ116、追加のメディアデータ、次のメディアデータなどは、コンピュータがダウンロードのためにゲームクラウド上のゲームプログラムにアクセスする間、コンピュータ172をバイパスすることによって、HMD104のディスプレイスクリーン上で表示するためにネットワーク110を介してコーデック112からHMD104に直接送信される。受信されたメディアデータは、HMD104のディスプレイ上でレンダリングされる。一方で、コンピュータ172のNIC174は、ネットワーク110及びルータ152を介してゲームクラウド102からゲームプログラム117の一部をダウンロードする。
いくつかの実施形態では、頭部の動き及び/若しくは手の動きに基づいて生成された入力データの一部、並びに/又は実世界環境データの一部は、ルータ152及びネットワーク110を介して、HMD104からゲームクラウド102のコーデック112に送信され、入力データの残りの部分及び/又は実世界環境データの残りの部分は、HMD104の通信回路からコンピュータ172の通信回路178に送信される。
様々な実施形態では、手の動きに基づいて生成された入力データの一部は、ルータ152及びネットワーク110を介して、HHC106の通信回路からゲームクラウド102のコーデック112に送信され、入力データの残りの部分は、HMDを通じて、又は直接のいずれかで、HHC106の通信回路からコンピュータ172の通信回路178に送信される。
様々な実施形態では、コンピュータ/HMD/HHCから受信されたユーザ入力を使用してゲームプログラム117を実行することによって生成されたメディアデータ、例えば、メディアデータ116、追加のメディアデータ、次のメディアデータは、HMD104のディスプレイスクリーン上でゲームプレイの一部としてレンダリングするために、ネットワーク110及びルータ152を介して、ゲームクラウド102のコーデック112からHMD104に送信され、コンピュータ172のプロセッサ176によってゲームプログラム117の一部の実行によって生成されたメディアデータは、ディスプレイスクリーン上で表示するために、コンピュータ172の通信回路178からHMD104に送信される。それらの実施形態では、ゲームクラウド102及びコンピュータ172は、ゲーム状態を同期させている。例えば、コーデック112は、コンピュータ172にゲーム状態を通知するために、ネットワーク110及びルータ152を介してコンピュータ172のNIC174に、ゲームプログラム117の実行によって生成されたゲーム状態を送信する。別の例として、コンピュータ172のNIC174は、1つ以上のゲームクラウドサーバにゲーム状態を通知するために、ルータ152及びネットワーク110を介してゲームクラウド102のコーデック112に、コンピュータ172上のゲームプログラム117の一部の実行によって生成されたゲーム状態を送信する。ゲームクラウド102のコーデック112とコンピュータのNICとの間の通信は、両側で同期されたゲーム状態を維持するように定期的に行われる。
いくつかの実施形態では、ゲームプログラム117を実行することによって生成され、ゲームクラウド102のコーデック112からHMD104に送信されるメディアデータ、例えば、メディアデータ116、追加のメディアデータ、次のメディアデータなどは、コンピュータ172のプロセッサ176によって生成されたメディアデータよりも多くの量のグラフィックを有する。明らかなように、実施形態の一部では、コンピュータ172は、メディアデータがネットワーク110を介してゲームクラウド102のコーデック112からHMD104に送信されるときにバイパスされる。
一部の実施形態では、コンピュータ172は、NIC174を介してゲームクラウド102からゲームプログラム117の一部を要求し、それに応答して、コーデック112によって符号化されたゲームプログラム117の部分117bは、ネットワーク110を介してコンピュータ172のNIC174にストリーミングされる。一部の実施形態では、ゲームクラウドは、ゲームデータベース131を含み、ゲームデータベース131からゲームプログラム117が取り出され、コンピュータ172にダウンロードされる。一部の実施形態では、ゲームプログラム117の部分117aは、ゲームデータベース131からゲームサーバ102にダウンロードされ、ゲームプログラム117の残りの部分117bは、コンピュータ172にダウンロードされる。一部の実施形態では、コンピュータ172にダウンロードされた部分117bは、ゲーム全体である。コンピュータ172のプロセッサ176は、HMD104のディスプレイスクリーン上で表示するためにコンピュータ172の通信回路178、ネットワークインタフェースコントローラなどからHMD104に送信されるメディアデータ、追加のメディアデータ、及び次のメディアデータ(総称して「メディアデータ」)を生成するように、ゲームプログラム117の部分117bを実行する。
先に言及されたように、追加のメディアデータ及び次のメディアデータは、HMD104から受信された頭部の動き/他のユーザ入力、手の動きなどを含む入力データに応答して提供されてもよい。頭部の動き及び/又は手の動きに加えて、1つの実施形態では、入力データはまた、HMD104の外部面に配置された外部カメラ101によってキャプチャされ、HMD104の通信回路によって伝送される実世界環境データを含んでもよい。
一部の実施形態では、外部カメラ101によってキャプチャされた実世界環境データは、HMDにローカルに記憶され、HMDスクリーン上でレンダリングする際に使用される。追加のメディアデータは、HMD上で仮想ゲームシーンをレンダリングするために仮想現実関連データをもたらし、次のメディアデータは、ゲームプレイの間に仮想ゲームシーン内で表示された仮想ゲームオブジェクト及び/又は仮想現実データへの変更をもたらす。HMD104の通信回路は、コンピュータ172からメディアデータをメディアストリームとして受信し、HMD104のディスプレイスクリーン上で解釈及び表示するためにHMD104のマイクロコントローラにメディアデータを送信する。ゲームオブジェクト、例えば、実ゲームオブジェクト、仮想ゲームオブジェクトなど、及び/又は仮想環境が変化するとき、ゲームプログラム117の実行によって表示されたゲームのゲーム状態は変化する。
一部の実施形態では、ゲームプログラム117の部分117−aは、ゲームプログラム117がコンピュータ172にダウンロードされている間にゲームクラウド102上で実行される。したがって、ゲームクラウド102上のゲームプログラム117の部分117−aの実行と関連付けられたメディアデータは、ゲームプログラム117の部分117−bがゲームクラウド102からコンピュータ172にダウンロードされるまで、HMD上でレンダリングするために、ネットワーク110及びルータ152を介して、コーデック112からHMD104に直接送信される。1つの実施形態では、ゲームプログラム117の部分117−bは、コンピュータ172のローカル記憶装置113にダウンロード及び記憶され、プロセッサ176によって実行される。部分117−bがダウンロードされ、コンピュータ172のプロセッサ176がゲームの部分117−bを実行することを開始すると、ゲームプログラム117の部分117−bについてのメディアデータは、コンピュータ172からHMD104に伝送される。一部の実施形態では、ゲームプログラムについての全てのメディアデータは、レンダリングするためにコンピュータ172からHMD104に直接伝送される。コンピュータ172はまた、ゲームクラウド102上のゲームプログラムのゲーム状態をコンピュータ172上のゲーム状態と同期させるために、ゲームクラウド102にメディアデータを定期的に伝送してもよい。
いくつかの実施形態では、頭部の動き及び/又は手の動きに基づいた入力データの一部は、コンピュータ172に接続された観察カメラ(図示せず)によってキャプチャされる。一部の実施形態では、観察カメラとコンピュータ172との間の接続は、有線接続であってもよい。他の実施形態では、観察カメラとコンピュータ172との間の接続は、無線接続であってもよい。一部の実施形態では、観察カメラは、ステレオカメラ、IRカメラ、又はモノラルカメラのうちのいずれか1つ又は組み合わせである。一部の実施形態では、観察カメラは、ビデオカメラ又は静止−動きカメラのうちの1つである。観察カメラによってキャプチャされた画像は、HMD及びHHCの位置及び動きを判定するために使用されてもよい。例えば、観察カメラの画像は、HMDの位置の座標及びHHCの位置の座標を識別するために使用されてもよい。座標面の座標に加えて、観察カメラの画像は、ピッチ、ヨー、及びロールを判定してHMD及びHHCについての6軸データを生成するために使用されてもよい。一部の実施形態では、HMD及びHHCにおいて生成された頭部及び/又は手の動きは、観察カメラによってキャプチャされ、HMD104のマイクロコントローラに6軸データとして伝送される。HMD104及び/又はHHC106からの6軸データは、入力データを生成するように解釈される。解釈された入力データは、ゲームプログラムの結果に影響を与えるために、HMD104からコンピュータ172に伝送される。一部の実施形態では、観察カメラによってキャプチャされた頭部及び/又は手の動きは、プロセッサ176に直接伝送され、そこでは、それは、6軸データを生成するように解釈される。観察カメラは、ユーザの動き(頭部及び/又は手)を観察し、この情報は、ゲーム状態の変化に影響を与えるためにゲームプログラムにフィードバックを提供する際に使用される。この実施形態では、ゲームプログラム117に関連するいずれかの他の入力データは、HMD104によってプロセッサに伝送され、プロセッサ176は、ゲームのゲーム状態が変更される必要があるかどうかを判定するために、6軸データと共に他の入力データを解釈する。解釈に基づいて、ゲームのゲーム状態が変更される。一部の実施形態では、HMD104からの入力データは、外部カメラ101によってキャプチャされ、HMD104の通信回路からコンピュータ172の通信回路178に送信される実世界環境データを含む。実世界環境データは、HMD104のスクリーンの特定の部分においてレンダリングされた仮想ゲームシーンに影響を与えるために使用されてもよい。様々な実施形態では、HMD104は、2次元又は3次元画像を表示するために使用される。
一部の実施形態では、観察カメラは、HMD及びHHCにおいて提供された動きを追跡するビデオカメラであってもよい。観察カメラは、HMD及びHHCの面板に配置された様々な指標素子の画像をキャプチャし、HMD及びHHCの指標素子の位置を3次元空間に相関付ける。各々の指標素子は、発光ダイオード、赤外線光、色、反射材料、画像分析を介して容易に認識される特殊な特徴又は特性を有するオブジェクトなどであってもよい。加えて、HMD104はまた、特定の幾何学的形状の反射領域、特定の色を有する領域(例えば、青い長方形など)、又はマーキング(例えば、HMDの表面上の3つの平行線)などの特殊な視覚的指標(図示せず)を含んでもよい。一部の実施形態では、HMDはまた、それぞれの光又は視覚的指標を検出することによってHMDの位置を更に視覚的に追跡するための、HMDの側面及び/又は背面(すなわち、頭部の背面に接触するHMDの一部)上の追加の指標素子を含む。
様々な実施形態では、観察カメラは、モバイルビデオカメラであってもよい。例えば、ビデオカメラ(図示せず)は、ロボティックデバイス、例えば、マルチコプタ、ロボティックアーム、ロボット、ロボティック車両、ロボティック車、クアッドコプタなどに取り付けられてもよい。例えば、ビデオカメラは、HMD及び/又はHHCの画像をキャプチャするためにロボティックデバイスの下、上部、側面に取り付けられてもよい。HMDは、ユーザ108の頭部の移動と共に移動する。いくつかの実施形態では、ビデオカメラの代わりに、デジタルカメラが使用されてもよい。
一部の実施形態では、観察カメラは、レンズごとに別個の画像センサを有する2つ以上のレンズを含むカメラである、ステレオカメラであってもよい。別個の画像センサは、ステレオカメラが、深さの錯覚をもたらすオブジェクトの3次元画像をキャプチャすることを可能にする。
別の実施形態では、観察カメラは、HMD上で提供された赤外線光を分析するために使用される赤外線(IR)カメラであってもよい。赤外線光は、人間の目には見えないが、赤外線カメラによって容易に検出することができる。HMDは、HMDの外観において散乱を回避するための赤外線ライトを含んでもよい。一部の環境では(例えば、微光又は鮮明光)、HMDにおける位置、形状、及び/又は特徴を検出するために他のタイプの光よりも赤外線光を追跡することが容易である。赤外線(IR)カメラは、HMDなどのオブジェクトを追跡する拡張した撮像及び熱撮像をもたらす。IRカメラはまた、ユーザの注視方向を検出するために注視検出カメラとして使用されてもよい。
更なる別の実施形態では、観察カメラは、標準カメラであってもよい。一部の実施形態では、観察カメラは、モノラルカメラであってもよく、そこでは、レンズ(すなわち、単一のレンズ)は、視覚的追跡のために構成されたHMD内の光又は他の指標素子を追跡するために使用される。標準カメラによりプレイの視野内のHMDの深さを判定するために、HMD上の特徴の一部のサイズが分析される。特徴が小さいと、特徴がHMDのカメラから更に遠いと仮定される。一部の実施形態では、プレイの視野内のHMDの深さは、1つよりも多い観察カメラを使用することによって判定されてもよい。加えて、視覚的追跡はまた、慣性動き追跡、デッドレコニング、HMDとコンピューティングデバイスとの間の超音波通信など、他のタイプの追跡と組み合わされてもよい。
観察カメラは、HMDの1つ以上の指標素子を追跡することによって、HMD104の画像をキャプチャする。ユーザ108の頭部が傾き又は移動するとき、HMDの指標素子の位置及び配置が座標系内で変化する。デジタルカメラは、指標素子の画像をキャプチャし、コンピュータ172に画像を送信する。指標素子の画像は、入力データの例である。3次元空間(X,Y,Z)内のHMD104の位置は、画像内の指標素子の位置に基づいてコンピュータ172のプロセッサ176によって判定されてもよい。更に、HMD104の慣性動き、例えば、ヨー、ピッチ、及びロールなどは、指標素子の移動に基づいてコンピュータ172のプロセッサ176によって判定される。コンピュータ172が利用可能でないケースでは、観察カメラからの指標素子の画像は、HMD104のプロセッサに送信され、HMDのプロセッサは、指標素子の座標を使用してHMDの位置を判定する。
一部の実施形態では、観察カメラは、HHC106の画像をキャプチャする。ユーザ108の手が傾き又は移動するとき、HHC上の指標素子の位置及び配置は、座標系内で変化する。観察カメラは、HHC上の指標素子の画像をキャプチャし、コンピュータ172又はHMD104のプロセッサに画像を送信する。HHC上の指標素子の画像は、入力データの例である。3次元空間(X,Y,Z)内のHHC106の位置は、コンピュータ172のプロセッサ176又はHMD104のプロセッサによって、画像内のHHC上の指標素子の位置を分析することによって判定されてもよい。更に、HMD104の慣性動き、例えば、ヨー、ピッチ、及びロールなどは、HHCの指標素子の移動に基づいてコンピュータ172のプロセッサ176又はHMD104のプロセッサによって判定される。
一部の実施形態では、HMD104が有線接続を使用してコンピュータ172に通信可能に接続されるとき、HMDは、有線接続における切断を検出して、HMD104のスクリーン上でレンダリングされた仮想ゲームシーンを中断するように構成される。HMDは、通信接続における切断を検出し、それに従って信号を生成し、コンピュータ172にゲームプログラムの実行を中断させ、ゲームについてのセッションのためにゲーム状態及びゲームシーンを記憶させるための信号をコンピュータ172に中継する。HMDのバッテリからの電力は、通信接続における切断の間に、コンピュータ172と接続の状態を通信するための電力を提供するために使用されてもよい。ゲームプログラムの実行は、コンピュータ172がHMD104から有線接続が再確立されたことの信号を取得するとすぐに再開してもよい。一部の実施形態では、HMDとコンピュータ172との間の接続が再開すると、コンピュータ172は、途絶のポイントからゲームシーンをストリーミングすることを開始してもよい。別の実施形態では、コンピュータ172は、接続の途絶によって生じた中断の前のポイント(例えば、中断の前の数百フレーム)からゲームシーンをストリーミングすることを開始してもよく、それによって、ユーザは、ゲームに没入する何らかの時間を得ることができる。この実施形態では、コンピュータ172は、ユーザがゲームに入り込むことを可能にするゲームの一部をユーザが再実行することを可能にすることができる。HHCとHMDとの間の通信及びHHCとコンピュータ172との間の通信は、無線通信プロトコルに従ってもよい。
一部の実施形態では、HMD104は、ユーザの目の移動、注視方向、注視パターンなどにおける変化を検出するための1つ以上の内部カメラ(例えば、注視検出カメラ)103を含んでもよい。内部カメラ103はまた、ゲームへのアクセスを提供する前にユーザを識別/認証するために使用されてもよい。
ゲーミング環境に関する詳細な説明が提供されるが、コンピュータシステムとのインタラクティブ通信の間に相互作用も行われてもよいことが想定される。コンピュータシステムは、ユーザが空間内で、アイコン、入力、選択、テキスト、及び他のコマンドを制御するジェスチャを提供し、ジェスチャを行うことを可能にするグラフィカルユーザインタフェースを有する汎用コンピュータであってもよい。
以下の指標付けされたオブジェクトについての方法に関する更なる情報について、2011年8月15日に出願され、2012年3月22日に公開された米国特許出願公開第2012−0072119号、及び2008年10月27に出願され、2010年4月29日に公開された米国特許出願公開第2010−0105475号についての参照がなされてもよく、その両方が全体を参照することによって本明細書に組み込まれる。
一部の実施形態では、ステレオカメラの1つ以上のペア、1つ以上の赤外線カメラ、及び/若しくは1つ以上の標準カメラ、又はそれらの組み合わせは、ユーザの頭部の動きと共に、入力データを提供するために使用されるウェアラブル品/デバイスを身に着けているユーザの手を含むコントローラによって提供された、HMDの相対位置及びHMDの動きを判定するために使用されてもよい。
1つ以上の内部カメラ(例えば、注視検出カメラなど)は、ユーザに関連する画像をキャプチャし、通信モジュールに画像を供給してHMDにユーザ特有及び環境特有データを提供するために、HMD上に及びユーザの内部に面して据え付けられてもよい。内部カメラ(複数可)は、HMDを身に着けているユーザを識別するために使用されてもよく、HMDは、ユーザのユーザプロファイルを取得するために使用されてもよい。したがって、内部カメラは、ユーザの網膜又は虹彩をスキャンするための網膜スキャニング技術及び/又は虹彩スキャニング技術を従事させ、ユーザの少なくとも1つの生体IDを生成するために、スキャニングからのデータを使用するように構成されてもよい。ユーザの生体IDは、ユーザのプロファイルの一部であってもよい。内部カメラはまた、ユーザの注視の方向を検出し、検出に基づいてHMDのスクリーン上でレンダリングされた画像データを調節するための注視検出器アルゴリズムを備えた注視検出カメラを含んでもよい。一部の実施形態では、内部カメラは、IRカメラである。注視検出技術はまた、ユーザを認証するために使用されてもよい。例えば、ユーザは、スクリーン上でレンダリングされたオブジェクトを辿り、又はスクリーン上でレンダリングされた、ランダムに生成された文字、オブジェクト、若しくはパターン(例えば、円形、三角形、長方形など)を追跡することを依頼されてもよい。一部の実施形態では、口頭又はテキストコマンドは、ユーザがスクリーン上の文字、オブジェクト、又はパターン、及び注視検出技術を使用することによって認証されたユーザを追跡するために提供されてもよい。ユーザの認証は、ユーザアカウント、ゲーム、ゲームの特定の部分又はレベルにアクセスすることを許可するために使用されてもよい。
HMDの内部カメラ及び外部カメラは、ユーザの注視を判定し、ユーザの注視の視線内のオブジェクトに注視を関連付けるために手を携えて作用する。HMDのゲーム処理モジュールは、ユーザの注視の方向を計算し、計算された方向の視野内のオブジェクトにそれを相関付けるためのソフトウェアを含む。
例えば、内部カメラ109は、ユーザの目の移動及び注視を検出及び追跡する。内部カメラ109は、或る期間の間にユーザの注視方向を判定し(例えば、ユーザが、何らかの期間の間に、ディスプレイスクリーン上でレンダリングされた画像内の特定のオブジェクト若しくはポイントを見ているとき)、或る期間にわたって注視パターンを検出し(例えば、ユーザがオブジェクトを辿り、パターンを追跡するなど)、並びに/又は注視方向における変化を検出する(例えば、特に、高度な集中力のゲームにおいてユーザが目眩若しくは疲労を経験している兆候となることがある、目の後方及び前方移動、目の揺れなど)ために使用されてもよい。HMDの内部カメラは、検出された目の移動若しくは注視に応答して、又はゲーム若しくはHMDを身に着けているユーザに直に近接した環境内で発生したトリガイベントに基づいて、HMDのスクリーン上でレンダリングするために提供されたデータが調節される必要があるかどうかを判定するために、HMDの外部に据え付けられたカメラ及び観察カメラと通信する。
図2は、HMD104の通信アーキテクチャのブロック図である。HMD104は、ビデオ音声セパレータ254、ビデオデコーダ255、メモリデバイス256、WAC258、ストリームバッファ259、1つ以上のスピーカ260、バッテリ261、ユーザ入力回路262、ディスプレイスクリーン266、マイクロコントローラ268、音声バッファ272、観察デジタルカメラ274、外部デジタルカメラ274、音声コーデック276、内部デジタルカメラ278、ビデオバッファ280、ビデオ音声シンクロナイザ282、マイクロフォン284、LED285及びIRライト287、コントローラ/コンピュータ通信回路289など、一部の例示的な制御モジュール又はセンサを含む。LED285及びIRライト287は、HMDの位置を追跡するために使用される指標素子を表す。
いくつかの実施形態では、スピーカ260は、音声回路を形成する。様々な実施形態では、音声コーデック276、音声バッファ272、及び/又はスピーカ260は、音声回路を形成する。様々な実施形態では、マイクロコントローラ268は、ディスプレイスクリーン上でレンダリングされた画像を制御するディスプレイ回路の一部である。ディスプレイスクリーン266の例は、LEDスクリーン、液晶ディスプレイ(LCD)スクリーン、リキッドクリスタルオンシリコン(LCoS)スクリーン、有機LED(OLED)スクリーン、プラズマスクリーンなどを含む。外部デジタルカメラの例は、Sony Computer Entertainment,Inc.によって製造されたPlaystation Eye(登録商標)などのアイカメラを含む。
マイクロコントローラ268は、レンダリングプログラム286及びオペレーティングシステム288を記憶する。レンダリングプログラム286及びオペレーティングシステム288は、マイクロコントローラ268のメモリデバイスに記憶され、マイクロコントローラ268のマイクロプロセッサによって実行される。マイクロコントローラ268の例は、要素(例えば、LCDなど)を検出して、ディスプレイスクリーン266上で表示するためのメディアデータを提供するための信号を生成するドライバ、例えば、LCDドライバを含む、低コストマイクロコントローラを含む。マイクロコントローラの別の例は、GPU及びメモリデバイスを含む。
一部の実施形態では、マイクロコントローラのメモリデバイスは、フラッシュメモリ又はランダムアクセスメモリ(RAM)以外である。例えば、マイクロコントローラのメモリデバイスは、バッファである。様々な実施形態では、マイクロコントローラのメモリデバイスは、フラッシュメモリ又はRAMである。ユーザ入力回路262の例は、ジャイロスコープ、磁気計、及び加速度計を含む。一部の実施形態では、ユーザ入力回路262はまた、グローバルポジショニングシステム(GPS)、コンパス、又はいずれかの位置追跡デバイスを含む。WAC258の例は、NICを含む。一部の実施形態では、WAC258は、本明細書で通信回路と称される。
符号化されたメディアデータのストリームは、ネットワーク110又はルータ152からストリームバッファ259に受信される。ルータ152がコンピュータ172に結合されるとき、コンピュータ172から受信されたデータは、ストリームバッファ259に記憶されずに、HMD250のバッファ(図示せず)又はメモリデバイス256に記憶されることに留意されるべきである。
WAC258は、コンピュータ又はコーデック112から受信されたストリームバッファ259からの符号化されたメディアデータのストリームにアクセスし、ストリームをパケット解除する。WAC258はまた、符号化されたメディアデータを復号するためのデコーダを含む。
符号化されたメディアデータのストリームがルータ152を介してコンピュータ172によって受信される実施形態では、コンピュータ172のNIC174は、復号されたデータを生成するために符号化されたメディアデータのストリームをパケット解除及び復号し、復号されたデータは、HMD250のバッファ(図示せず)に記憶される。
復号されたデータは、WAC258又はバッファ(図示せず)からビデオ音声セパレータ254によってアクセスされる。ビデオ音声セパレータ254は、ビデオデータからの復号されたデータ内の音声データを分離する。
ビデオ音声セパレータ254は、音声バッファ272に音声データを送信し、ビデオバッファ280にビデオデータを送信する。ビデオデコーダ255は、アナログビデオ信号を生成するために、例えば、ビデオデータを復号し、及び/又はビデオデータをデジタル形式からアナログ形式に変更する。ビデオ音声シンクロナイザ282は、ビデオバッファ280に記憶されたビデオデータを音声バッファ272に記憶された音声データと同期させる。例えば、ビデオ音声シンクロナイザ282は、ビデオデータを音声データと同期させるために、ビデオデータ及び音声データの再生の時間を使用する。
音声コーデック276は、音声信号を生成するために、同期された音声データをデジタル形式からアナログ形式に変換し、音声信号は、サウンドを生成するためにスピーカ260によって再生される。マイクロコントローラ268は、ビデオデコーダ255によって生成されたアナログビデオ信号に基づいて、ディスプレイスクリーン266上でゲームを表示するようにレンダリングプログラム286を実行する。一部の実施形態では、ディスプレイスクリーン266上で表示されたゲームは、音声信号の再生と同期して表示される。
更に、ユーザは、サウンド信号を電気信号、例えば、音声信号に変換するマイクロフォン284に話しかける。音声コーデック276は、音声バッファ272に記憶される音声信号を生成するために、音声信号をアナログ形式からデジタル形式に変換する。音声バッファ272に記憶された音声データは、ユーザのサウンドに基づいて生成された入力データの例である。音声データはまた、HMDにおいて生成され、又はHMD内のスピーカによって検出された他の音声信号を含んでもよい。音声データは、ネットワーク110を介してゲームクラウド102のコーデック112に送信するために、音声バッファ272からWAC258によってアクセスされる。例えば、WAC258は、ネットワーク110を介してコーデック112に送信するために、音声バッファ272からアクセスされた音声データをパケット化及び符号化する。
一部の実施形態では、音声データは、ルータ152及びネットワーク110を介してゲームクラウド102のコーデック112に送信するために、音声バッファ272からWAC258によってアクセスされる。例えば、WAC258は、ルータ152及びネットワーク110を介してコーデック112に送信するために、音声バッファ272からアクセスされた音声データをパケット化及び符号化する。
内部デジタルカメラ278は、画像データを生成するために、HMDを身に着けているユーザの目の動きの1つ以上の画像をキャプチャし、画像データは、頭部のアクション及び/又は目の移動に基づいて、HMDにおいて生成された入力データの例である。同様に、HMD上で据え付けられた観察デジタルカメラ274及び/又は外部デジタルカメラ274は、画像データを生成するために、ユーザ108の手、並びに/又はHMD250及び/若しくはユーザ108のHHC/グローブ/手の上に位置する指標、HMDを身に着けているユーザの頭部の動き、の1つ以上の画像をキャプチャし、画像データは、手/頭部の動きに基づいて生成された入力データの例である。デジタルカメラ274、275、及び278によってキャプチャされた画像データは、ビデオバッファ280に記憶される。
一部の実施形態では、デジタルカメラ274、275、及び278によってキャプチャされた画像データは、HMD250のバッファに記憶され、バッファは、ビデオバッファ280以外である。様々な実施形態では、デジタルカメラ274、275、及び278によってキャプチャされた画像データは、ディスプレイスクリーン266上で画像を表示するために、ビデオデコーダ255によって復号され、マイクロコントローラ268に送信される。
デジタルカメラ274、275、及び278によってキャプチャされた画像データは、ネットワーク110を介してゲームクラウド102のコーデック112に送信するために、ビデオバッファ280からWAC(無線アクセスカード)258によってアクセスされる。例えば、WAC258は、ネットワーク110を介してコーデック112に送信するために、ビデオバッファ280からアクセスされた画像データをパケット化及び符号化する。
一部の実施形態では、ビデオデータは、ルータ152及びネットワーク110を介してゲームクラウド102のコーデック112に送信するために、ビデオバッファ280からWAC258によってアクセスされる。例えば、WAC258は、ルータ152及び/又はネットワーク110を介してコーデック112に送信するために、ビデオバッファ280からアクセスされたビデオデータをパケット化及び符号化する。
コントローラ/コンソール通信回路289は、バッファ(図示せず)に記憶するために、コンピュータ172からメディアデータを受信する。更に、コントローラ/コンソール通信回路289は、HHC106から入力信号を受信し、入力データを生成するために入力信号をアナログ形式からデジタル形式に変換し、入力データは、ネットワーク110を介してゲームクラウド102のコーデック112に送信するためにWAC258によってアクセスされる。例えば、WAC258は、ネットワーク110を介してコーデック112に送信するために、コントローラ/コンソール通信回路289からアクセスされた入力データをパケット化及び符号化する。
一部の実施形態では、入力データは、ルータ152及びネットワーク110を介してゲームクラウド102のコーデック112に送信するために、コントローラ/コンソール通信回路289からWAC258によってアクセスされる。例えば、WAC258は、ルータ152及びネットワーク110を介してコーデック112に送信するために、ビデオバッファ280からアクセスされたビデオデータをパケット化及び符号化する。
コントローラ/コンソール通信回路289の代わりに、2つの別個の通信回路が使用されてもよく、1つがコンピュータ172とデータを通信する、例えば、受信、送信するためのものであり、もう1つがHHC106データと通信するためのものであることに留意されるべきである。
いくつかの実施形態では、デコーダは、WAC258の外部に位置付けられる。様々な実施形態では、ストリームバッファ259は、WAC258内に位置付けられる。
一部の実施形態では、HMD104は、観察デジタルカメラ274を含まない。いくつかの実施形態では、HMD104は、いずれかの数のマイクロコントローラ、いずれかの数のバッファ、及び/又はいずれかの数のメモリデバイスを含む。
様々な実施形態では、HMD104は、構成要素、例えば、ビデオ音声セパレータ254、メモリデバイス256、無線アクセスカード258、ストリームバッファ259、1つ以上のスピーカ260、ユーザ入力回路262、ディスプレイスクリーン266、マイクロコントローラ268、音声バッファ272、外部デジタルカメラ274、音声コーデック276、内部デジタルカメラ278、ビデオバッファ280、ビデオ音声シンクロナイザ282、マイクロフォン284、及びコントローラ/コンピュータ通信回路289に電力を提供する1つ以上のバッテリ261を含む。1つ以上のバッテリ261は、交流電流コンセントにプラグインすることができる充電器(図示せず)により充電される。
いくつかの実施形態では、入力データ及び/又はメディアデータは、本明細書で対話型メディアあるいはインタラクティブメディアと称される。
一部の実施形態では、HMD104は、ペアリングを介してローカルユーザの間のピアツーピアマルチチャネル通信を促進するための通信回路を含む。例えば、HMD104は、マイクロフォン284から受信されたサウンド信号を変調し、チャネルを介して別のHMD(図示せず)の送受信機に変調された信号を送信する送受信機を含む。他のHMDの送受信機は、ユーザの間の通信を促進するために他のHMDのスピーカに提供する信号を復調する。
様々な実施形態では、異なる他のHMDと通信するために、異なるチャネルがHMD104の送受信機によって使用される。例えば、それを通じて変調された信号が第1の他のHMDに送信されるチャネルは、それを通じて変調された信号が第2の他のHMDに送信されるチャネルとは異なる。
一部の実施形態では、WAC258、ユーザ入力回路262、マイクロコントローラ268、及びビデオデコーダ255は、1つ以上の個々の回路チップに統合される。例えば、WAC258、ビデオデコーダ255、及びマイクロコントローラ268は、1つの回路チップに統合され、ユーザ入力回路262は、別の回路チップに統合される。別の例として、WAC258、ユーザ入力回路262、マイクロコントローラ268、及びビデオデコーダ255の各々は、別個の回路チップに統合される。
HMDにおいてユーザの注視方向及び/又はアクションを検出し、検出された注視方向及び/又はアクションに一致するようにHMDのディスプレイスクリーン上で提示された画像を調節するために、HMDの様々なモジュールが使用される。
図3は、一部の実施形態において、ユーザによって提供された注視方向及び/又はアクションを検出し、HMDのディスプレイスクリーンにおいて提示された画像を調節するために、HMD及びコンピュータに含まれる様々な通信モジュールの概観を例示する。モジュールのいくつかのみがHMDのディスプレイスクリーンにおいて提示されている画像を調節する際に関与するとして示されるが、実際には、HMD内の他のモジュールがHMD上で提示された画像を調節する処理に関与してもよいことに留意されるべきである。実施形態は、HMD上で据え付けられた1つ以上の前向きカメラによってキャプチャされた実世界環境の画像の一部を拡張することによって、実世界環境の拡張現実を提供するために使用されてもよい。代わりに、実施形態は、HMDにおいて提示された仮想現実(VR)シーンを調節するために使用されてもよい。VRシーンは、ユーザのゲームプレイの予め記録されたビデオ、場所又はイベントの予め記録されたビデオ、ビデオゲームのゲームシーンなどからであってもよい。
1つの実施形態では、実世界環境を拡張するためにHMDが使用される。この実施形態では、HMD104の様々な構成要素は、ユーザの注視方向を検出し、ユーザの検出された注視方向と合致するHMDのスクリーン上でレンダリングされた画像の特定の部分(複数可)を拡張するために、コンピュータ172の構成要素と共に作用する。
この実施形態では、HMD104のコントローラ/コンソール通信回路(又は、単純に本明細書で「CC通信回路」と称される)289は、1つ以上の前向きカメラ274によって、HMD104を身に着けているユーザの近辺からキャプチャされた実世界環境の画像を画像フレームとして受信する。画像フレームは、CC通信回路289によって処理される。処理の一部として、画像フレームは、HMDとコンピュータ172との間の通信接続のために確立された通信プロトコルに従って暗号化されてもよく、コンピュータ172にストリーミングされてもよい。
コンピュータ172の通信デバイス178は、ストリーミング画像フレームを受信し、データを復号し、プロセッサに復号された画像データを転送する。プロセッサは、画像分析モジュール(図示せず)を含み、画像分析モジュールは、本産業において公知である異なるモデリングツールを使用して(例えば、複数の立体カメラを使用して)画像内でキャプチャされた実世界環境の3次元モデルを構築することによって、画像データを分析するように構成される。3次元モデルは、メモリ内で維持され、新たなデータがHMDから受信されるにつれて、及び新たなデータがHMDから受信されるときに更新される。一部の実施形態では、プロセッサは、HMDのディスプレイスクリーン上でレンダリングするために、2次元形式の画像を生成してもよく、HMDにそれを転送してもよい。画像データを3次元形式から2次元形式に変換することに関する更なる情報について、2014年3月20日に出願された、「Sharing Three−Dimensional Gameplay」と題する特許出願第14/220,420号への参照がなされてもよく、それは、その全体を参照することによって本明細書に組み込まれる。実世界環境を見る間、注視検出カメラからの画像は、CC通信回路によって同時に受信、処理されてもよく、コンピュータに注視画像フレームとして転送されてもよい。画像分析モジュールは、ユーザの注視方向を識別するために注視画像フレームを分析する。ユーザの注視がHMDのディスプレイスクリーンの特定の部分に向けられると判定されるとき、画像分析モジュールは、ユーザの注意を捉えたオブジェクト又はポイントを識別するために、ユーザの検出された注視方向を実世界環境の生成されたモデル内のオブジェクト又はポイントと相関付ける。
画像分析モジュールは、実世界環境を見る期間にわたってユーザの注視方向を追跡することを続ける。ユーザの注視が所定の期間の間にオブジェクト又はポイントに向けられたと判定されるとき、画像分析モジュールは、1つ以上の前向きカメラのレンズに対するズーム比を調節し、それによって、ユーザに関心のあるオブジェクト又はポイントをズームインすることをHMDに指示する信号を生成してもよい。一部の実施形態では、ズーム比を調節するための信号は、カメラにオブジェクト上でズームインさせるように前向きカメラのレンズの焦点長さを調節するための信号を含んでもよい。一部の実施形態では、焦点長さを調節するための信号は、焦点長さを調節する速度を制御するための信号を含んでもよい。焦点長さの調節の速度は、実世界環境内でキャプチャされているタイプのコンテンツによって駆動されてもよく、又はユーザに依存してもよい。例えば、ユーザがより高速なズームインを扱うことが可能である場合、焦点長さを調節する速度は、より高速なズームインを扱うことができないユーザとは反対に高く設定されてもよい。一部の実施形態では、ズーム比を調節するための信号はまた、オブジェクトの画像がキャプチャされる深さに影響を与えるように、1つ以上の前向きカメラのレンズの開口設定を調節するための信号を含んでもよい。焦点長さ及び速度を調節するための信号を提供することに加えて、信号はまた、スクリーン(すなわち、HMDのスクリーン又は外部ディスプレイ面)の輝度レベルを調節し、それによって、スクリーン上でレンダリングされたオブジェクトが明確且つ焦点が合っているように見えるようにするための信号を含んでもよい。
一部の実施形態では、実世界環境の画像フレーム内でキャプチャされた音声成分を拡張するための信号が生成されてもよい。そのような実施形態では、音声成分のみを調節するための信号が生成されてもよい。例えば、音声成分を調節するための信号は、HMDを身に着けているユーザがVRシーンの縁若しくは物理環境内のユーザに対して定義されたインタラクティブ領域の境界に近づいており、又は物理環境内でオブジェクト若しくは人に近接して到着していると判定されるときに生成されてもよい。
代替的な実施形態では、ビデオ成分のみが拡張されてもよい。一部の実施形態では、画像フレームの、音声成分、ビデオ成分、又は音声成分及びビデオ成分の両方を拡張するためのコマンドは、ユーザによって提供されてもよい。そのような実施形態では、CC通信回路は、ユーザからコマンドを受信してもよく、コンピュータにコマンドを転送してもよく、それによって、コンピュータ内の画像分析モジュールは、拡張される必要がある適切な成分又は実世界画像の一部を識別することができる。一部の実施形態では、コマンドは、音声コマンドを通じて提供されてもよく、そのような音声コマンドは、マイクロフォンコントローラ284を通じて受信されてもよく、CC通信回路289によって処理されてもよく、更なる処理のためにコンピュータに転送されてもよい。コンピュータは、拡張されたコンテンツを提供するように関連するコンテンツレンダリング成分を調節することができるように、コマンドを処理し、HMDへの適切な信号を生成する。
図4A〜4Cは、1つの実施形態において、ユーザの注視方向を検出したことに応答して、HMDにおいてレンダリングされた実世界環境の画像を調節する例を例示する。図4Aは、時間t0に、HMDの前向きカメラによってキャプチャされ、HMDのディスプレイスクリーン上でレンダリングされた実世界の湖のシーンを見ているユーザを例示する。湖のシーンをレンダリングする間、注視検出カメラは、ユーザの注視がディスプレイスクリーン上でレンダリングされたポイント又はオブジェクト上で固定されるかどうかを判定するために、ユーザの注視方向を記録する。1つの実施形態では、注視検出カメラ(複数可)によってキャプチャされた画像は、ユーザの注視方向が実際にディスプレイスクリーンの特定の部分又はポイントに向けられていると特定するために分析される。次いで、ディスプレイスクリーンの特定の部分又はポイントへのユーザの注視方向が少なくとも所定の期間の間に続くかどうかが判定される。ユーザの注視がシフトしたと判定される場合、トリガイベントがHMDによって開始されず、HMDは、湖のシーンからの画像をレンダリングすることを続ける。しかしながら、ユーザの注視が少なくとも所定の期間の間に(例えば、4秒、6秒など)ディスプレイスクリーンの特定の部分又はポイントに向けられることが続くと判定される場合、トリガイベントがHMDにおいて開始される。トリガイベントを開始することの一部として、注視検出カメラからの画像は、1つの実施形態では、処理のために、コンピュータに注視検出画像フレームとして転送される。別の実施形態では、ディスプレイスクリーンの特定の部分又はポイントの座標は、HMDにおいて計算され、更なる処理のためにコンピュータにユーザ注視データとして転送される。
注視検出画像フレームが提供される実施形態では、コンピュータにおいて利用可能な画像分析モジュールは、注視検出画像フレームを分析し、画像分析モジュールによって生成された湖のシーンの3次元モデルに注視方向をマッピングすることによって、ユーザの注視方向を湖のシーン内の特定のオブジェクト又はポイントに相関付けるために使用される。図4Bに示されるように、分析に基づいて、ユーザの注視方向が湖のシーン内の桟橋の端にあるメッセージボードに対応すると判定される。更に、分析は、オブジェクト(すなわち、メッセージボード)が、ディスプレイスクリーン上の仮想距離D1においてレンダリングされ、メッセージをユーザが読むのを困難にすると特定する。
座標を識別するユーザ注視データがディスプレイスクリーンの特定の部分又はポイントを識別するために提供される実施形態では、コンピュータにおいて利用可能な画像分析モジュールは、ユーザ注視データ内で提供された座標を湖のシーン内の特定のオブジェクト又はポイントに相関付ける。一部の実施形態では、座標が3次元形式において提供され、画像分析モジュールは、座標を湖のシーンに対して生成された3次元モデルに相関付けてもよい。一部の実施形態では、座標が2次元形式において提供され、画像分析モジュールは、座標を湖のシーンに対して生成された2次元モデルに相関付けてもよい。
関心の特定のポイント又はオブジェクトを識別すると、コンピュータは、HMDに、前向きカメラのレンズのズーム比を調節するための信号を転送し、それによって、図4C例示されるように、湖のシーン内でキャプチャされたオブジェクトがズームインされる。信号に応答してオブジェクトはここで、仮想距離D2において提示され、D2は、D1未満であり、それによって、ユーザが警告メッセージを読むことができるようにメッセージボードを大きくする。ズームの速度は、ズームインすることがユーザにいずれの不快感又は認識不能を生じさせないことを保証するように調節される。様々な実施形態が前向きカメラによってキャプチャされた実世界シーンの画像成分の一部を拡張することを議論するが、実施形態は、実世界環境内でキャプチャされた音声部分又はビデオ部分をも拡張するように拡大されてもよい。一部の実施形態では、ズーム比を調節するための信号は、前向きカメラのレンズの焦点長さを調節するための信号を含んでもよい。他の実施形態では、焦点長さを調節するための信号に加え又はそれに代えて、拡張されたオブジェクト又はポイントが鮮明に見えるようにレンズの開口を調節するための信号が含まれてもよい。これには、十分な光が画像センサを通ってユーザの関心を捉えたオブジェクトの明確且つ拡張されたビューを提供することを保証するために、レンズ開口を調節することが伴ってもよい。信号はまた、ユーザにいずれかの不快感を与えることなく、又は認識不能、目眩、若しくは乗り物酔いを生じさせることなく、ユーザにオブジェクトの拡張された画像を提供するように、そのような調節の速度を指定することができる。
一部の実施形態では、HMD及びコンピュータは、HMDのディスプレイスクリーン上で現在レンダリングしている、ビデオゲームのゲームシーンなどの仮想現実シーンの一部を拡張するために使用されてもよい。そのような実施形態では、HMD104のコントローラ/コンソール通信回路(又は、単純に本明細書で「CC通信回路」と称される)289は、コンピュータ172からメディアストリームにおいてゲームデータを受信し、画像処理モジュール290にメディアストリームを転送し、メディアストリームは、ゲームデータを生成するために暗号化される。画像処理モジュール290は、ゲームデータの異なる成分を処理するようにHMDの他の構成要素を従事させる。処理されたゲームデータは、HMDの対応する構成要素に転送される。例えば、画像処理モジュール290は、ゲームデータの別個のビデオ及び音声成分にビデオ/音声セパレータ254を従事させてもよい。画像処理モジュール290は次いで、ゲームデータのビデオ成分を復号してビデオフレームを識別し、ディスプレイスクリーン上でレンダリングするためにディスプレイコントローラにビデオフレームを転送するように、ビデオデコーダ255(図2)を従事させる。ビデオデコーダ255は、レンダリングのためにディスプレイコントローラ(すなわち、ディスプレイスクリーン266)に転送される前に、ゲームデータのビデオ成分のバッファリングを提供するためにビデオバッファ280を使用してもよい。ビデオのバッファリングは、ディスプレイスクリーン266上で提示されたゲームデータについての待ち時間を最小化するためのものである。同様に、画像処理モジュール290は、HMDの1つ以上のスピーカ上で音声データをレンダリングする前に、ゲームデータの音声成分を復号するように音声デコーダ276(図2)を従事させてもよい。音声デコーダ276は、HMDのスピーカに音声部分を転送する前に、ゲームデータの音声成分に対するバッファリングを提供するために音声バッファ272を使用してもよい。当然に、音声成分及びビデオ成分は、HMDのそれぞれの構成要素において提示されるときに同期される。
一部の実施形態では、ゲームデータの提示の間、ユーザの動き及びアクションは、トリガイベントが開始される必要があるかどうかを判定するためにHMDにおいて追跡される。例えば、トリガイベントは、ユーザの注視が少なくとも所定の期間の間に(例えば、2秒、5秒など)ディスプレイスクリーン上の特定のオブジェクト又はポイントに向けられると判定されるときにHMDにおいて開始されてもよい。1つ以上の注視検出カメラ278は、ユーザの注視方向を判定するために、ユーザの注視を監視するように従事する。注視検出カメラは、ユーザの注視を追跡し、ユーザの注視を、HMDのディスプレイスクリーン上でレンダリングされたコンテンツの対応する部分にマッピングすることによって注視方向を判定する。ユーザの注視が所定の期間の間にスクリーン上でレンダリングされたコンテンツの特定のポイント、部分、又はオブジェクトに向けられていたと判定されるとき、注視検出カメラは、ユーザの目の画像をキャプチャし、処理のためにCC通信回路289に画像フレーム内の画像を転送する。CC通信回路289は、ユーザの注視方向を検出するために入力を分析し、ユーザの注視が少なくとも所定の期間の間にコンテンツの特定のポイント又はオブジェクト上で固定されると判定されるときにトリガイベントを開始し、コンピュータ172の通信デバイス178に、ユーザの注視に関連するデータ(例えば、座標、画像など)を転送する。コンピュータ172は、ユーザの関心を捉えたゲームデータの特定のポイント又はオブジェクトを識別するために、注視方向データを使用し、データを、HMDのスクリーン上でレンダリングするために現在提供されているビデオ画像にマッピングする。
一部の実施形態では、ユーザの注視方向は、ゲームデータ若しくは実世界環境により又はゲームデータ若しくは実世界環境内で提供された視覚的刺激によって影響されることがある。例えば、視覚的刺激は、関心のオブジェクト若しくはポイントにおける、又は関心のオブジェクト若しくはポイントの近くの、ビーコン、標識、ハイライト、又はカラーフラッシュなどの形式にあることがある。視覚的刺激は、仮想距離においてレンダリングされたオブジェクトに向かったユーザの注視方向におけるシフトにつながるユーザの注意を捉えることができる。代わりに、ユーザの注視方向は、HMD104のディスプレイスクリーンでレンダリングされるとき、仮想距離にあるように見える特定のオブジェクトに焦点を合わせることを試みるユーザの目を細めることなど、ユーザの注視特性における変化によって影響されることがある。関心のオブジェクト又はポイントは、例えば、ユーザが明確に見ることが困難であることがある。一部の実施形態では、開始されたトリガイベントに応答して、コンピュータ172は、オブジェクトに焦点を合わせるようにゲームデータを調節することをゲームロジックに指示する信号を生成してもよい。代替的な実施形態では、信号は、VRシーン内の関心のオブジェクト又はポイント上でデジタル的にズームインするように画像のレンダリングを調節するための命令をHMDに提供することができる。
一部の他の実施形態では、注視検出によって生じるトリガイベントの発生に応答して、コンピュータによって生成された信号は、HMDのレンズの光学設定を調節するための命令を含んでもよい。例えば、信号は、HMDのレンズに対するズーム比を調節し、それによって、スクリーン上でレンダリングされたオブジェクトをズームインし、スクリーン上でレンダリングされたオブジェクトに焦点を合わせることができるための命令を含んでもよい。ズーム比への調節は、仮想距離における変化を生じさせ、仮想距離において、オブジェクトは、第1の仮想距離から第2の仮想距離にHMDのディスプレイスクリーン上でレンダリングされ、第2の仮想距離は、第1の仮想距離よりも短い。仮想距離における調節は、オブジェクトがVRシーン内でユーザの相対位置に対してより近くに持って行かれると見せる。
一部の実施形態では、VRシーンは、ユーザに関心のあるポイント又はオブジェクトとすることができる1つ以上のポイント又はオブジェクトを含んでもよい。先に言及されたように、VRシーンは、ユーザ又はコンテンツプロバイダによって提供された予め記録されたビデオ、ユーザのビデオゲームプレイの記録などであってもよい。予め記録されたビデオは、他のユーザ又はコンテンツプロバイダによって関心があるとして識別されていたことがある関心の1つ以上のオブジェクト又はポイントを含んでもよい。オブジェクトは、タグ、ビーコン、ハイライト、カラーフラッシュ、又は視覚的若しくは音声的刺激を使用して識別されてもよい。VRシーン内のそれらの視覚的刺激は、特定の方向においてユーザが注視するのに影響を与えることがある。コンピュータ内の画像分析モジュールは、ユーザの注視方向を判定し、前に識別され、注視方向と合致するVRシーン内のオブジェクト又はポイントの1つを識別する。
一部の実施形態では、関心のオブジェクト又はポイントが識別されると、ユーザは、関心のオブジェクト又はポイントのIDを確認するオプションが提供されてもよい。例えば、オプションは、ユーザ選択のためにHMDに通信可能に結合されたHMD又はHHC上のボタン、HHC又はHMD内で提供された制御を使用して選択することができるHMDのディスプレイスクリーンにおいてユーザインタフェース上で提示されたオプション、音声オプション、ジェスチャオプション(例えば、外部画像キャプチャデバイスによってキャプチャされた頷き又は手の振り、ユーザによって提供され、HMDの画像キャプチャデバイスによって検出されたウインク又は瞬き、HHC又はHMDの入力パッド上のタップ、HHC又はHMDの入力パッド上のスワイプアクションなど)として提供されてもよい。オプションにおいて提供されたユーザ選択及び/又はアクションは、ユーザ入力回路262を使用してキャプチャされ、CC通信回路289によって処理される。ユーザ選択に基づいて、HMDのレンズのズーム比を調節し、又はVRシーンの画像を調節し、それによって、オブジェクトが明確、鮮明、及びユーザの目の近くに見えるようにしてそれを識別可能にする仮想距離において、選択されたオブジェクトに焦点を当てるようにすることができるようにするための信号は、HMDへのコンピュータによって生成されてもよい。
一部の実施形態では、コンピュータにおいて利用可能な画像処理アルゴリズムは、様々なユーザによってVRシーン内で識別された関心のポイントを使用し、ユーザをテレポートすることができる関心のポイントに近接した領域を定義する。領域は、関心のポイントの近く又は周囲の地形属性を考慮するように予め定義される。例えば、山のシーンがHMDのディスプレイスクリーン上で提示されている場合、関心の様々なポイントは、山の異なる高度において潜在的な景色のポイントとして識別されてもよい。関心のそれらのポイントは、一部の実施形態では、ユーザをテレポートするための仮想領域を定義するために使用される。関心のオブジェクト又はポイントの周囲又は近接した仮想領域が定義されるとき、画像処理アルゴリズムは、VRシーンの地形又は他の特徴を考慮する。一部の実施形態では、VRシーン内の関心のオブジェクト又はポイントの近く又は周囲の所定の仮想領域は、ユーザを「テレポート」するために使用されてもよい。それらの仮想領域は、HMDを身に着けているユーザが操作している物理空間にマッピングされ、VRシーンを見る間にユーザとのインタラクションが行われる物理空間内の移動の区域を定義する。
ユーザをテレポートすることは、1つの実施形態では、HMDのディスプレイスクリーン上で提示されたVRシーンの画像を調節することを含んでもよい。VRシーンの画像の調節は、例えば、注視方向によって定義されたように、ユーザの関心又は注意をキャプチャしたVRシーン内のオブジェクト又はポイントと関連付けられた所定の仮想領域によって定義された新たな位置にユーザが移動したように見せるような方式で行われる。一部の実施形態では、ユーザをテレポートすることの一部として、VRシーンの画像は、HMDにおいてレンダリングされたVRシーンが所定の仮想領域からのビューを反映するように調節される。例えば、山のシーン内で、ユーザが景色のポイントに近い所定の領域にテレポートされるので、HMDのディスプレイスクリーン上でレンダリングされたコンテンツは、景色ポイントから見えるような山のシーンのビューである。調節されたコンテンツをレンダリングした後、物理空間内のユーザによるいずれかの移動は、景色のポイントにおいてテレポートされた所定の仮想領域内のユーザの移動に転換され、仮想シーンのコンテンツは、検出されたユーザの移動に従って調節される。例えば、ユーザが頭部を右に移動させる場合、仮想シーンの右側からのシーンがレンダリングされ、ユーザが頭部を左に移動させる場合、ユーザの注視方向と合致する谷のシーンがレンダリングされる。一部の実施形態では、VRシーンへの調節は、所定の期間の間に実行され、所定の期間の満了の後、調節の前のVRシーンの画像がレンダリングされる。
図5A及び5Bは、1つの実施形態において、様々な景色のポイント、又は他のユーザ若しくはそれにユーザをテレポートすることができるコンピュータによって識別された関心のオブジェクト/ポイントを識別するVRシーンの1つのそのような例を特定する。図5Aは、1つの実施形態において、シーンの画像を分析することによって、ユーザのHMDのディスプレイスクリーン上でレンダリングされた観光ルートに沿った休憩所のシーンと共に、他のユーザ又はコンピュータのいずれかによって識別された休憩所における関心の異なるオブジェクト又はポイントを例示する。この実施形態では、シーンは、ユーザ又はシステムによってキャプチャされ、他のユーザに利用可能とされた予め記録された実世界シーンである。一部の実施形態では、シーンは、例えば、ゲームアプリケーションなどのインタラクティブアプリケーションによって提供された仮想シーンであってもよい。一部の実施形態では、関心の識別されたオブジェクト又はポイントは、タグと関連付けられ、又は視覚的若しくは聴覚的刺激を使用して識別される。例えば、観光ドライブに沿って休憩所のシーン内で識別された関心のポイントの一部は、鴨池、ピクニック場、ガスステーション、山道上の1つ以上の景色のポイント、遊び場、小川の上の橋、及び休憩室を含んでもよい。関心のそれらのポイントの各々は、HMDにおいて提示されるとき、ハイライト、ビーコン、輪郭、矢印、フラッシングライトなどを使用して、又はサウンド若しくは他の聴覚的刺激によって識別されてもよい。簡易化を目的として、関心のポイントは、図5Aにおいて参照符号1〜9を使用して識別される。一部の実施形態では、シーン内の(VR又は実世界シーンのいずれか)関心のオブジェクト又はポイントは、HMDにおけるVRシーンの表現の間に自動的に識別される(例えば、視覚的に又は聴覚的に)。他の実施形態では、VRシーン内の関心のオブジェクト又はポイントが視覚的に又は聴覚的に識別されるように、VRシーンの表現の間にHMDにおけるユーザインタラクションが必要とされることがある。例えば、現在のVRシーンと関連付けられた関心のポイントが強調されるように、HMD上でボタン押下が必要とされることがある。HMD上でレンダリングされたシーンはまた、シーン内で識別された関心の異なるポイントにおける所定の仮想領域、又は関心の異なるポイントの近くの所定の仮想領域を識別することができる。図5Aに例示されるシーンでは、HMDを身に着けているユーザは、鴨が存在する池の近くで識別されたポイント1の近くの所定の仮想領域からVRシーンを見ている。
図5Bは、1つの実施形態において、関心のポイント又はオブジェクトの周囲又は近くで識別された他の所定の仮想領域を例示する。仮想領域は、仮想領域がそれと関連付けられた関心のオブジェクト又はポイントの地形及び性質又はタイプに基づいて識別されてもよい。図5Bでは、参照符号によって識別される関心のポイント(1〜9)の各々は、それと関連付けられた対応する所定の仮想領域(1’〜9’)を有する。池の近くの所定の仮想領域(参照符号1によって表される)は、ユーザにとってアクセス可能な池を囲む通路1’であってもよく、それは、仮想空間内でユーザの移動を阻止することがある障害物(木、潅木、構造など)が存在しないことを意味する。同様に、ガスステーションについての仮想領域(参照符号3によって表される)は、ガスポンプを含むガスステーションの前にあり、ガスステーションの側に向かう領域(参照符号3’によって表される)であると識別されてもよい。更に、関心の様々なポイントの近くで利用可能な所定の仮想領域は、一部の実施形態では、ユーザが操作する物理空間にマッピングされ、それによって、物理空間内のいずれかの移動を仮想空間内のユーザの移動と相関付けることができる。
物理空間内のユーザの移動は、VRシーン内のユーザのアクションに相関付けられてもよく、それは、HMD上でレンダリングされたシーンにおける変化を生じさせる役割を果たす。例えば、ユーザは、ポイント1の近くで定義された所定の領域1’から、図5Aに例示される観光ルートに沿った、休憩所を含むVRシーンを見ることに最初に(すなわち、時間t)取りかかってもよい。VRシーンを見る間、ユーザの注視が監視されてもよい。ユーザの注視方向が時間t〜tから(例えば、少なくとも4秒の所定の期間)ポイント2に向けられているとシステムが検出するとき、ユーザは、所定の期間の満了の後にポイント2の周囲で定義された所定の領域2’に「テレポート」される(すなわち、ユーザは、時間t〜tにテレポートされる)。テレポートは、突然であってもよく、又は徐々に行われてもよく、テレポートの速度は、ユーザの好み、レンダリングされているコンテンツのタイプなどに依存する。テレポートは、HMDのディスプレイスクリーンにおいてレンダリングされた画像を、所定の領域2’によって定義された新たな位置におけるユーザの視点からレンダリングされた新たなビューに、HMDにおいてレンダリングされたVRシーンのビューを変化させるように調節する。テレポートの一部として、ポイント2の周囲のVRシーンの特定の部分は、より大きく又はより近くに見え、ポイント2の近辺内のその他は、或る距離において提示される。VRシーンの方向は、ユーザの注視方向に基づいており、VRシーンは、ユーザの視点から提示される。新たな位置2’にユーザをテレポートした後、システムは、ユーザのアクション、動き、及び注視方向を監視することを続ける。ユーザの注視方向がポイント7にシフトしたと検出されるとき、システムは、ユーザの注視方向が少なくとも所定の期間(例えば、4秒の)の間にポイント7の上にあるかどうかを判定する。ユーザの注視が少なくとも所定の期間の間にポイント7の上にあったと判定されるとき、システムは、ポイント7と関連付けられた所定の領域7’にユーザをテレポートし、ユーザの新たな位置の視点からVRシーンの画像をレンダリングする。新たな位置(所定の領域7’)にユーザをテレポートした後、ユーザが或る期間の間に注視方向を変化させなかったと判定されるとき、1つの実装態様では、ユーザは、変化が検出されるまで新たな位置に残ってもよい。代替的な実装態様では、ユーザは、或る期間の後にポイント1の近くの所定の領域にユーザをテレポートすることによって、元のビューに戻ってもよく、ユーザは、ポイント1の近くの所定の領域からのVRシーンを提示される。
図6は、1つの実施形態において、ユーザの注視方向に基づいて、ユーザのHMDのディスプレイスクリーン上でレンダリングされた画像を調節するための遷移ポイントを識別するグラフィカル表現を例示する。時間tに、ユーザは、他のオブジェクトの中のオブジェクトA及び関心のポイント(グラフ内のポイント1)を含むVRシーンを現在見ていることがある。時間tに、システムは、ユーザの注視方向がVRシーン内のオブジェクトA(グラフ内のポイント2)に焦点を合わせていると検出してもよい。システムは、ユーザの注視方向を監視することを続け、時間tに、システムは、ユーザの注視方向が所定の期間の間にオブジェクトAの上にあるままであり、所定の期間の間にオブジェクトAを選択、強調する(グラフ内のポイント3)と判定してもよい。一部の実施形態では、強調することの一部として、関心のオブジェクト又は関心のポイントは、ユーザの注意を捉えた関心のオブジェクト又はポイントを識別するために輪郭が描かれてもよい。
関心のオブジェクト又はポイントの輪郭を描き又は強調することに加え、関心の選択されたオブジェクト又はポイントが実際にユーザの関心を掴んだ関心のオブジェクト又はポイントであることの確認を取得する要求がシステムによって生成されてもよく、ユーザに提示されてもよい。確認は、所定の期間の間に提示されてもよい。ユーザは、要求に応答して、HMDにおけるアクションを通じて(例えば、ボタン押下、HMDにおいて設けられたタッチインタフェース上のスワイプなど)、又はコントローラを使用して(例えば、コントローラを使用して若しくは音声コマンドを介してのボタン押下若しくはスワイプジェスチャ)確認を提供してもよい。ユーザアクションは、ユーザアクションを関心のオブジェクト又はポイントのタグと関連付けることによって、関心のオブジェクト又はポイントと関連付けられる。所定の期間の満了の後、又はユーザから確認を取得した後、ユーザの注視方向がオブジェクトAの上にあるままである場合、システムは、オブジェクトAがズームインされるようにオブジェクトAの画像を調節するための信号を生成する。ディスプレイスクリーンにおいてオブジェクトAの画像を調節する速度は、レンダリングされているコンテンツのタイプ(例えば、高度な集中力のビデオゲームシーン、低い集中力の仮想ツアーなど)、オブジェクト(静止又は移動)のタイプ、属性によって、及びユーザの快適性レベルによって駆動されてもよい。例えば、オブジェクトAが、図4A〜4Cに例示されるメッセージボードなどの静止オブジェクトであり、及び/又は(HMD上でレンダリングされた様々なコンテンツ(移動オブジェクトを含む)に対するユーザの反応に基づいて)ユーザが高速なズームインを扱うことが可能である場合、オブジェクトAは次いで、グラフ内のポイント4によって例示されるように、高速でズームインされてもよい。しかしながら、ユーザが低速な調節を好む場合、オブジェクトAは、ポイント4’によって例示されるように、適度な速度でズームインされてもよく、又はポイント4”によって例示されるように、より低速でズームインされてもよい。
一部の実施形態では、HMDによって提示されたビューは、VRシーンからの画像が背景内でレンダリングされ、ズームインされたオブジェクトの画像がVRシーンの上部でオーバレイとして提供されるように調節される。一部の実施形態では、ズームインされたオブジェクトAを有するVRシーンは、或る期間の間に(例えば、3秒、4秒など)レンダリングされ、HMDのディスプレイスクリーンは、ポイント5によって例示されるように、オブジェクトAのズームインの前にユーザに示されていたVRシーンからの画像を見るために再度戻される。一方で、オブジェクトAが所定の期間未満の期間の間に強調されている間、ユーザの注視方向がオブジェクトAからシフトした場合、システムは、オブジェクトAの点線上のポイント3’によって例示されるように、VRシーンの現在のビューを保持してもよい。
ズームインされているオブジェクトの画像を有するHMDのディスプレイスクリーン上でレンダリングされているVRシーン又は実世界環境の画像に関して詳細に説明された様々な実施形態はまた、VRシーン又は実世界環境の画像がHMDの外部にある表示面上でHMDによって投影される実施形態に拡大されてもよい。このケースでは、ズームインされたオブジェクトの画像はまた、VRシーン又は実世界環境の画像がHMDによって投影されている表示面上で提示される。代替的な実施形態では、オブジェクトがズームインされるとき、ズームインされたオブジェクトは、VRシーンが表示面上で投影されている間にHMDのディスプレイスクリーン上で提示されてもよく、又は逆もそうである。
別の実施形態では、ユーザの注意を捉えたオブジェクト(ユーザの注視方向に基づいて)は、移動オブジェクト、オブジェクトBであってもよい。そのような実施形態では、移動オブジェクトBへの調節は、オブジェクトBが移動している速度を考慮した方式で実行されてもよい。図6に示されるように、ユーザの注視方向が移動オブジェクトB上にある(ポイント10において)と検出されるとき、オブジェクトBは、ポイント11によって例示されるように、選択及び強調される。ユーザの注視方向が少なくとも所定の期間の間にオブジェクトBの上に残り続けると判定されるとき、ポイント12によって例示されるように、ユーザの注視方向は監視され続け、オブジェクトBはズームインされる。オブジェクトB上でのズームインの速度は、オブジェクトBを十分に明確且つ焦点を合わせて提示することを続ける間、ユーザにいずれの不快感を生じさせることなく、オブジェクトBの拡張された画像を提示するようにオブジェクトBが移動している速度を考慮してもよい。一部の実施形態では、HMDのディスプレイスクリーンと関連付けられた、見る深さは、ユーザに対してオブジェクトBの拡張された画像をレンダリングするとき、オブジェクトの移動及び/又はHMDを身に着けているユーザの頭部の移動の速度に基づいて動的に調節されてもよい。ディスプレイスクリーンの見る深さの動的な調節は、乗り物酔いを減少させ、及び/又はユーザを慣れさせることを支援するようにユーザに提示された視野を調節するためのものである。調節されたオブジェクトBは、オブジェクトBが存在するVRシーンの現在のビューを再開する前に、ポイント13によって例示されるように、或る期間の間にレンダリングされる。
一部の実施形態では、オブジェクトがズームインされる速度、ズームの量などは、HMDを身に着けているユーザの目の視覚特性を考慮してもよい。視覚特性は、ユーザによって変わり、ユーザの視覚の明確さに影響を与えるユーザの目における変則性を検出するために使用される光学因子を識別する。一部のケースでは、視覚特性は、矯正眼鏡又はレンズを使用して矯正することができる、一般に生じる目の屈折異常を判定するために使用される。ユーザと関連付けられたそれらの視覚特性の詳細は、オブジェクトのズームインの速度又は量を判定するときに考慮されてもよい。
一部の実施形態では、オブジェクトの画像を調節するための信号は、実世界環境からのオブジェクトの画像をキャプチャするときの、前向きカメラのレンズの焦点長さを調節するための信号、オブジェクトの深さへの調節を生じさせるようにレンズの開口設定を調節するための信号、又はユーザがオブジェクトを明確に見ることができるようにオブジェクトの輝度レベルを調節するための信号などを含んでもよい。一部の実施形態では、オブジェクトの画像がレンダリングされているスクリーンの輝度レベルはまた、スクリーン上でレンダリングされるときにオブジェクトを見ることを可能にするように調節されてもよい(輝度レベルを高くし、及び低くすることのいずれかによって)。
一部の実施形態では、HMDのディスプレイスクリーンは、第1の部分及び第2の部分に分割されてもよい。ユーザの関心を捉えたオブジェクトは、第1の部分内でレンダリングされてもよく、残りのコンテンツ(実世界環境又はVRシーン)は、第2の部分内でレンダリングされてもよい。ディスプレイスクリーンは、ユーザが中断することなくVRシーンを見ることを可能にするのと同時に、ズーム比によって調節された関心のオブジェクト又はポイントがレンダリングされることを可能にするように、水平に、垂直に、対角線上に、放射状になど、又はいずれかの他の方向に分割されてもよい。例えば、スクリーンは、ユーザの注意を生じさせたオブジェクトが移動している(例えば、投げたボール又は跳ねたボールなど)方向に従って分割されてもよい。
一部の実施形態では、HMDによって提供された実世界環境/VRシーン及びオブジェクトの画像のビューは、信号に応答して分割されてもよく、それによって、実世界環境又はVRシーンの画像は、第1のスクリーン上でレンダリングされ、オブジェクトの画像は、第2のスクリーン上でレンダリングされる。例えば、VRシーンは、オブジェクトの拡張された画像がHMDのディスプレイスクリーン(すなわち、第2のスクリーン)上でレンダリングされる間、HMD内で利用可能なプロジェクタ機構を使用して、HMDの外部にある表示面(すなわち、第1のスクリーン)上で投影されてもよい。一部の実施形態では、プロジェクタ機構は、HMDの外部にあってもよいが、HMD、又はHMDに通信可能に結合されたコントローラにおいて提供された入力を使用して制御されてもよい。別の例では、HMDの外部にある表示面は、VRシーンからの画像がHMDのディスプレイスクリーン上でレンダリングされる間、オブジェクトの拡張された画像を投影するために使用されてもよい。
一部の実施形態では、物理空間内のユーザ移動は、HMD上でレンダリングされたVRシーン内の画像を調節するために使用される。物理空間内のユーザの移動は、VRシーン内の所定の領域(複数可)内で利用可能な空間の量によって制御されてもよい。一部の実施形態では、HMDにおいて提示されたVRシーンは、検出された移動に基づいてユーザの相対的位置を識別し、検出された移動と相関付けるようにVRシーン内の画像を調節する。ユーザが物理世界内の利用可能な空間を判定することを支援するために、システムは、また線識別子として、又は他の識別技術を使用して強調又は提示されたVRシーン内のユーザの初期位置と共に、物理世界内のオブジェクトの輪郭をVRシーン上のオーバレイとして提供してもよい。ユーザが周囲を移動するにつれて、ユーザの移動は、VRシーン内のオブジェクト(複数可)の近くの所定の仮想領域内で反映される。ユーザが所定の仮想領域の境界の近くに移動するとき、ユーザは、視覚的又は聴覚的警告が提供される。一部の実施形態では、山の崖のシーンについての視覚的警告は、ユーザが境界の近くに移動していることをユーザに示す。同様に、物理世界内のユーザの移動は、物理世界内のユーザの移動に対して利用可能な空間にマッピングされてもよい。物理世界内で利用可能な空間は、物理オブジェクト、他のユーザなどによって境界が定められてもよい。ユーザが物理オブジェクト又は他のユーザのいずれかに近づくにつれて、VRシーン内の画像は、ユーザに警告を提供するように調節されてもよい。一部の実施形態では、警告は、ユーザについての移動の境界及び境界へのユーザの近接性を識別する視線として提示されてもよい。一部の実施形態では、視線の強度は、ユーザが境界に近づくにつれて増大する。一部の実施形態では、視覚的刺激に代えて又は加えて、ユーザは、ユーザが物理オブジェクト又はVRシーン内で定義された境界に近づくにつれて増大するそのような警告の強度を有する触覚的又は聴覚的警告が提示されてもよい。安全条件に基づいてユーザに警告を提供することに関する更なる情報について、2014年4月16日に出願された、「Systems and Methods for Transitioning Between Transparent Mode and Non−Transparent Mode in a Head Mounted Display」と題する特許出願第14/254,881号への参照がなされてもよく、それは、その全体を参照することによって本明細書に組み込まれる。
本明細書で議論される様々な実施形態は、HMDが、ユーザの注視方向に基づいて画像が調節されることを可能にする仮想双眼鏡としての役割を果たすことを可能にする。画像は、ユーザがユーザに関心があるオブジェクトにより近い新たな位置にテレポートされていると見せるようにする方式で調節される。
図7は、本発明の実施形態に従った、ヘッドマウントディスプレイ(HMD)のスクリーン上で実世界環境からの関心のオブジェクトを提示する方法の動作を例示する。方法は、動作710において開始し、そこでは、HMDを身に着けているユーザに近接した実世界環境の画像がHMDにおいて受信される。画像は、例えば、HMDの面に配置された1つ以上の前向きカメラから受信される。画像は、画像内でキャプチャされた様々なオブジェクト及びシーンを判定するために、HMDのプロセッサによって処理される。
HMDは次いで、動作720に例示されるように、HMDを身に着けているユーザの注視方向を判定する。注視方向は、HMDの内面に設けられ、ユーザの両目のうちの1つ以上に向けられた注視検出カメラ又は他の内向き画像キャプチャデバイスなどの1つ以上のカメラを使用して、ユーザの注視を追跡することによって判定される。注視方向は、座標のセットによって識別されてもよい。キャプチャされた画像は、分析のためにHMDのプロセッサにカメラ(複数可)によって転送される。
HMDのプロセッサは、動作730に例示されるように、カメラから受信された画像を分析し、ユーザの関心を捉えた実世界環境内のオブジェクト又はポイントを判定する。関心のオブジェクト又はポイントは、注視方向から識別された座標のセットをディスプレイスクリーンの特定の領域と一致させ、その特定の領域内でレンダリングされたオブジェクト又はポイントを識別することによって判定される。これは、関心のオブジェクト又はポイントを識別する1つの方法であり、関心のオブジェクト又はポイントを識別する他の方法も使用されてもよい。例えば、実世界環境の画像は、環境内で発見された様々なポイント、オブジェクトの座標を取得し、注視方向の座標を環境内の対応するポイント、オブジェクトにマッピングするために分析されてもよい。マッピングは、実世界環境の画像の2次元又は3次元表現を使用して実行されてもよい。画像分析はまた、関心のオブジェクト又はポイントがレンダリングされている仮想距離を判定する。
HMDのプロセッサは次いで、動作740に例示されるように、実世界環境の画像をキャプチャするように従事した1つ以上の前向きカメラのレンズに対するズーム比を調節し、それによって、関心のオブジェクト又はポイントの画像がズームインされ、関心のオブジェクト又はポイントに焦点が合わされるようにするための信号を生成する。ズームインは、オブジェクトの画像が、元の画像よりもユーザに対して近くに見える第2の仮想距離においてレンダリングされるようにする。更に、ズームインは、オブジェクトの画像に焦点を合わせると共に画像を鮮明且つ明確に維持するような方式で行われる。
図8は、異なるゲームにアクセスを提供する際に使用することができる情報サービスプロバイダアーキテクチャの実施形態を例示する。情報サービスプロバイダ(ISP)1070は、地理的に分散され、ネットワーク1050を介して接続されたユーザ1082に多数の情報サービスを配信する。様々な実施形態がゲームに高速なアクセスを提供することに関連して議論されてきたが、実施形態は、1つ以上のタイプの他のサービスを提供するように拡大されてもよい。例えば、ISPは、ゲームなどのちょうど1つのタイプのサービスを配信することができ、又はゲーム、株価更新、放送メディア、ニュース、スポーツ、ゲーミングなどの様々なサービスを配信することができる。加えて、各々のISPによって供給されるサービスは、動的であってもよく、すなわち、サービスは、いずれかの時点で追加されてもよく、又は取り除かれてもよい。よって、特定の個人に特定のタイプのサービスを提供するISPは、時間と共に変化することができる。例えば、ユーザは、ユーザが故郷にいる間にユーザに近接した近くのISPによってサービスされてもよく、ユーザは、ユーザが異なる都市に旅行に行くときに異なるISPによってサービスされてもよい。故郷のISPは、必要とされる情報及びデータを、接続モジュールを通じてユーザのゲーミング又はアクセスプロファイルから新たなISPに転送し、それによって、ユーザ情報は新たな都市へのユーザに「従い」、データをユーザにより近くにし、アクセスすることを容易にする。別の実施形態では、ユーザについての情報を管理するマスタISPと、マスタISPからの制御の下にユーザと直接相互作用するサーバISPとの間で、マスタ−サーバ関係が確立されてもよい。別の実施形態では、データは、クライアントが世界の周囲を移動するにつれて、1つのISPから別のISPに転送され(すなわち、ユーザに割り当てられたデータセンタの切り替えの間)、そのような転送は、ユーザにサービスするためにより良好な位置にあるISPを、それらのサービスを配信する1つにするために、それぞれのISPによって提供されたサービスの適合性に基づいてもよい。
ISP1070は、ネットワークを通じて顧客に、コンピュータに基づくサービスを提供するアプリケーションサービスプロバイダ(ASP)1072を含む。ASPモデルを使用して供給されるソフトウェアはまた、オンデマンドソフトウェア又はソフトウェアアズアサービス(SaaS)と称されることがある。特定のアプリケーションプログラム(顧客関係管理など)へのアクセスを提供する単純な形式は、HTTPなどの標準プロトコルを使用することによってである。アプリケーションソフトウェアは、例えば、ベンダのシステムに存在し、HTMLを使用してウェブブラウザを通じて、ベンダによって提供された特殊目的クライアントソフトウェアによって、又はシンクライアントなどの他のリモートインタフェースを介してユーザによってアクセスされる。
広範囲の地理的領域にわたって配信されるサービスは、クラウドコンピューティングを使用することが多い。クラウドコンピューティングは、動的に拡張可能であり、仮想化されたリソースがインターネットを通じてサービスとして提供されることが多いコンピューティングのスタイルである。ユーザは、それらをサポートする「クラウド」内の技術インフラストラクチャにおいて専門家である必要はない。クラウドコンピューティングは、インフラストラクチャアズアサービス(IaaS)、プラットフォームアズアサービス(PaaS)、及びソフトウェアアズアサービス(SaaS)などの異なるサービスに分割されてもよい。クラウドコンピューティングサービスは、ウェブブラウザからアクセスされる共通ビジネスアプリケーションオンラインを提供することが多く、ソフトウェア及びデータは、サーバに記憶される。クラウドという用語は、インターネット(例えば、サーバ、記憶装置、及びロジックを使用した)がコンピュータネットワーク図においてどのように記述されるかに基づいて、インターネットについてのメタファとして使用され、それが隠蔽する複合インフラストラクチャについての抽象概念である。
更に、ISP1070は、シングルプレイヤ及びマルチプレイヤビデオゲームをプレイするためにゲームクライアントによって使用されるゲーム処理サーバ(GaPS)1074を含む。インターネットを通じてプレイされるほとんどのビデオゲームは、ゲームサーバへの接続を介して動作する。典型的には、ゲームは、プレイヤからデータを収集し、他のプレイヤにそれを分散する専用サーバアプリケーションを使用する。これは、ピアツーピアの配置よりも効率的且つ効果的であるが、別個のサーバがサーバアプリケーションをホストすることを必要とする。別の実施形態では、GaPSは、プレイヤの間の通信を確立し、それぞれのゲームプレイングデバイスは、集中化GaPSに依存することなく情報を交換する。
専用GaPSは、クライアントとは独立して稼働するサーバである。そのようなサーバは通常、データセンタに位置付けられた専用ハードウェア上で稼働し、より多くの帯域幅及び専用処理力をもたらす。専用サーバは、ほとんどのPCに基づくマルチプレイゲームに対してゲームサーバをホストする好ましい方法である。大規模マルチプレイヤオンラインゲームは、ゲームタイトルを保有するソフトウェア会社によって通常ホストされる専用サーバ上で稼働し、それらがコンテンツを制御及び更新することを可能にする。
ブロードキャスト処理サーバ(BPS)1076は、観衆に音声又はビデオ信号を分散する。観衆の非常に狭い範囲へのブロードキャスティングは、ナローキャスティングと称されることがある。ブロードキャスト分散の最終区間は、信号をどのようにリスナ又はビューワに到達させるかであり、それは、無線基地局若しくはTV基地局のように無線でアンテナ及び受信機に届くことができ、又は基地局を介して、若しくはネットワークから直接、ケーブルTV若しくはケーブル無線(つまり、「無線ケーブル」)を通じて届くことができる。インターネットはまた、特に、信号及び帯域幅が共有されることを可能にするマルチキャスティングにより、受信者に無線又はTVのいずれかを搬送することができる。歴史的に、ブロードキャストは、国内放送又は地域放送など、地理的領域によって区分けされてきた。しかしながら、高速なインターネットの拡散に伴い、ブロードキャストは、コンテンツが世界のほとんどのいずれの国に到達することができるので、地形によって定義されない。
記憶サービスプロバイダ(SSP)1078は、コンピュータ記憶空間及び関連する管理サービスを提供する。SSPはまた、定期的なバックアップ及びアーカイビングを供給する。記憶をサービスとして供給することによって、ユーザは、必要に応じて更なる記憶を注文することができる。別の主要な利点は、SSPがバックアップサービスを含み、コンピュータのハードドライブが機能しない場合にユーザが全てのデータを失わないことである。更に、複数のSSPは、ユーザデータの完全な複製又は部分的な複製を有することができ、ユーザがどこに位置しているか、又はデータにアクセスするためにデバイスが使用されているかとは独立した効率的な方法でユーザがデータにアクセスすることを可能にする。例えば、ユーザは、ホームコンピュータ内の個人ファイルにアクセスすることができると共に、ユーザが移動中は携帯電話内の個人ファイルにアクセスすることができる。
通信プロバイダ1080は、ユーザに接続性を提供する。1つの種類の通信プロバイダは、インターネットへのアクセスを供給するインターネットサービスプロバイダ(ISP)である。ISPは、ダイヤルアップ、DSL、ケーブルモデム、ファイバ、無線、又は専用高速相互接続など、インターネットプロトコルデータグラムを配信するために適切なデータ伝送技術を使用してその顧客を接続する。通信プロバイダはまた、電子メール、インスタントメッセージング、及びSMSテキスティングなどのメッセージングサービスを提供することができる。別のタイプの通信プロバイダは、インターネットへの直接バックボーンアクセスを提供することによって、帯域幅又はネットワークアクセスを販売するネットワークサービスプロバイダ(NSP)である。ネットワークサービスプロバイダは、電気通信会社、データキャリア、無線通信プロバイダ、インターネットサービスプロバイダ、高速インターネットアクセスを供給するケーブルテレビオペレータなどから構成されることがある。
データ交換1088は、ISP1070の内部でいくつかのモジュールを相互接続し、ネットワーク1086を介してユーザ1082にそれらのモジュールを接続する。データ交換1088は、ISP1070の全てのモジュールが近接する小さな領域をカバーすることができ、又は異なるモジュールが地理的に分散された大きな地理的領域をカバーすることができる。例えば、データ交換1088は、データセンタのキャビネット内の高速ギガビットイーサネット(若しくは、より高速な)、又は大陸間仮想領域ネットワーク(VLAN)を含むことができる。
ユーザ1082は、クライアントデバイス1084によりリモートサービスにアクセスし、クライアントデバイス1084は、少なくともCPU、メモリ、ディスプレイ、及びI/Oを含む。クライアントデバイスは、PC、携帯電話、ネットブック、タブレット、ゲーミングシステム、PDAなどであってもよい。1つの実施形態では、ISP1070は、クライアントによって使用されるデバイスのタイプを認識し、採用される通信方法を調節する。他のケースでは、クライアントデバイスは、ISP1070にアクセスするために、HTMLなどの標準通信方法を使用する。
図9は、本発明の様々な実施形態に従った、ゲームシステム1400のブロック図である。ゲームシステム1400は、ネットワーク1415を介して1つ以上のクライアント1410にビデオストリームを提供するように構成される。ネットワークは、図1に例示されたネットワーク200と同様である。ゲームシステム1400は典型的には、ビデオサーバシステム1420及び任意選択のゲームサーバ1425を含む。ビデオサーバシステム1420は、最小の品質のサービスにより1つ以上のクライアント1410にビデオストリームを提供するように構成される。例えば、ビデオサーバシステム1420は、ビデオゲーム内のビューの状態又はビューのポイントを変更するゲームコマンドを受信してもよく、クライアント1410に、最小の時間差によりこの変更を瞬時に反映する更新されたビデオストリームを提供してもよい。ビデオサーバシステム1420は、まだ定義されていないフォーマットを含む、広範囲の代替的なビデオフォーマットにおいてビデオストリームを提供するように構成されてもよい。更に、ビデオストリームは、広範囲のフレームレートでユーザに提示するために構成されたビデオフレームを含んでもよい。典型的なフレームレートは、30フレーム/秒、60フレーム/秒、及び1420フレーム/秒である。しかしながら、より高いフレームレート又はより低いフレームレートが本発明の代替的な実施形態に含まれる。
本明細書で個々に1410A、1410Bなどと称されるクライアント1410は、ヘッドマウントディスプレイ、端末、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、無線デバイス、デジタルパッド、スタンドアロンデバイス、及び/又はハンドヘルドゲームプレイングデバイスなどを含んでもよい。典型的には、クライアント1410は、符号化されたビデオストリームを受信し、ビデオストリームを復号し、ユーザ、例えば、ゲームのプレイヤに結果として生じるビデオを提示するように構成される。符号化されたビデオストリームを受信し、及び/又はビデオストリームを復号する処理は典型的には、クライアントの受信バッファに個々のビデオフレームを記憶することを含む。ビデオストリームは、クライアント1410に不可欠なディスプレイ、又はモニタ若しくはテレビなどの別個のデバイス上でユーザに提示されてもよい。クライアント1410は任意選択で、1人よりも多いゲームプレイヤをサポートするように構成される。例えば、ゲームコンソールは、2人、3人、4人、又はそれよりも多い同時プレイヤをサポートするように構成されてもよい。それらのプレイヤの各々は、別個のビデオストリームを受信してもよく、又は単一のビデオストリームは、特にプレイヤごとに生成された、例えば、各々のプレイヤのビューのポイントに基づいて生成された、フレームの領域を含んでもよい。クライアント1410は任意選択で、地理的に分散される。ゲームシステム1400に含まれるクライアントの数は、1人又は2人から数千人、数万人、又はそれ以上に広く変化してもよい。本明細書で使用されるように、用語「ゲームプレイヤ」は、ゲームをプレイする人間を指すために使用され、用語「ゲームプレイングデバイス」は、ゲームをプレイするために使用されるデバイスを指すために使用される。一部の実施形態では、ゲームプレイングデバイスは、ユーザにゲーム経験を配信するように協働する複数のコンピューティングデバイスを指してもよい。例えば、ゲームコンソール及びHMDは、HMDを通じて見られるゲームを配信するためにビデオサーバシステム1420と協働してもよい。1つの実施形態では、ゲームコンソールは、ビデオサーバシステム1420からビデオストリームを受信し、ゲームコンソールは、レンダリングするためにHMDにビデオストリームを転送し、又はビデオストリームを更新する。
クライアント1410は、ネットワーク1415を介してビデオストリームを受信するように構成される。ネットワーク1415は、電話ネットワーク、インターネット、無線ネットワーク、パワーラインネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、及び/又はプライベートネットワークなどを含むいずれかのタイプの通信ネットワークであってもよい。典型的な実施形態では、ビデオストリームは、TCP/IP又はUDP/IPなどの標準プロトコルを介して通信される。代わりに、ビデオストリームは、プロプライエタリ標準を介して通信される。
クライアント1410の典型的な例は、プロセッサ、不揮発性メモリ、ディスプレイ、復号ロジック、ネットワーク通信能力、及び入力デバイスを含むパーソナルコンピュータである。復号ロジックは、ハードウェア、ファームウェア、及び/又はコンピュータ可読媒体に記憶されたソフトウェアを含んでもよい。ビデオストリームを復号する(及び、符号化する)システムは、本分野において公知であり、使用される特定の符号化スキームに応じて変わる。
クライアント1410は更に、受信されたビデオを修正するために構成されたシステムを含んでもよいが、それが必要となるわけではない。例えば、クライアントは、別のビデオ画像上の1つのビデオ画像をオーバレイし、及び/又はビデオ画像を切り取るなどのために更なるレンダリングを実行するように構成されてもよい。例えば、クライアント1410は、Iフレーム、Pフレーム、及びBフレームなどの様々なタイプのビデオフレームを受信し、ユーザに表示するためにそれらのフレームを処理して画像にするように構成されてもよい。一部の実施形態では、クライアント1410のメンバは、ビデオストリーム上で、更なるレンダリング、シェーディング、3Dへの変換、又は同様の動作を実行するように構成される。クライアント1410のメンバは任意選択で、1つよりも多い音声又はビデオストリームを受信するように構成される。クライアント1410の入力デバイスは、例えば、片手のゲームコントローラ、両手のゲームコントローラ、ジェスチャ認識システム、注視認識システム、発声認識システム、キーボード、ジョイスティック、ポインティングデバイス、力フィードバックデバイス、動き及び/若しくは位置感知デバイス、マウス、タッチスクリーン、ニューラルインタフェース、カメラ、並びに/又はまだ開発されていない入力デバイスなどを含んでもよい。
クライアント1410によって受信されたビデオストリーム(及び、任意選択で音声ストリーム)は、ビデオサーバシステム1420によって生成及び提供される。本明細書で他に更に説明されるように、このビデオストリームは、ビデオフレーム(及び、音声フレームを含む音声ストリーム)を含む。ビデオフレームは、ユーザに表示された画像に有意義に貢献するように構成される(例えば、それらは、適切なデータ構造にある画素情報を含む)。本明細書で使用されるように、用語「ビデオフレーム」は、ユーザに示された画像に貢献する、例えば、影響を与えるように構成された情報を主に含むフレームを指すために使用される。「ビデオフレーム」に関する本明細書における教示のほとんどはまた、「音声フレーム」に適用されてもよい。
クライアント1410は典型的には、ユーザから入力を受信するように構成される。それらの入力は、ビデオゲームの状態を変更し、又はそうでない場合、ゲームプレイに影響を与えるように構成されたゲームコマンドを含んでもよい。ゲームコマンドは、入力デバイスを使用して受信されてもよく、及び/又はクライアント1410上で実行するコンピューティング命令によって自動的に生成されてもよい。受信されたゲームコマンドは、ネットワーク1415を介して、クライアント1410からビデオサーバシステム1420及び/又はゲームサーバ1425に通信される。例えば、一部の実施形態では、ゲームコマンドは、ビデオサーバシステム1420を介してゲームサーバ1425に通信される。一部の実施形態では、ゲームコマンドの別個の複製は、クライアント1410からゲームサーバ1425及びビデオサーバシステム1420に通信される。ゲームコマンドの通信は任意選択で、コマンドの同一性に依存する。ゲームコマンドは任意選択で、クライアント1410Aに音声又はビデオストリームを提供するために使用される異なるルート又は通信チャネルを通じてクライアント1410Aから通信される。
ゲームサーバ1425は任意選択で、ビデオサーバシステム1420とは異なるエンティティによって操作される。例えば、ゲームサーバ1425は、マルチプレイヤゲームのパブリッシャによって操作されてもよい。この例では、ビデオサーバシステム1420は任意選択で、ゲームサーバ1425によってクライアントとして見られ、任意選択で、ゲームサーバ1425のビューのポイントから、従来技術のゲームエンジンを実行する従来技術のクライアントであるように見えるように構成される。ビデオサーバシステム1420とゲームサーバ1425との間の通信は任意選択で、ネットワーク1415を介して行われる。そのようにして、ゲームサーバ1425は、その1つがゲームサーバシステム1420である、複数のクライアントにゲーム状態情報を送信する従来技術のマルチプレイヤゲームサーバであってもよい。ビデオサーバシステム1420は、ゲームサーバ1425の複数のインスタンスと同時に通信するように構成されてもよい。例えば、ビデオサーバシステム1420は、異なるユーザに複数の異なるビデオゲームを提供するように構成されてもよい。それらの異なるビデオゲームの各々は、異なるゲームサーバ1425によってサポートされてもよく、及び/又は異なるエンティティによって発行されてもよい。一部の実施形態では、ビデオサーバシステム1420のいくつかの地理的に分散されたインスタンスは、複数の異なるユーザにゲームビデオを提供するように構成される。ビデオサーバシステム1420のそれらのインスタンスの各々は、ゲームサーバ1425の同一のインスタンスと通信してもよい。ビデオサーバシステム1420と1つ以上のゲームサーバ1425との間の通信は任意選択で、専用通信チャネルを介して行われる。例えば、ビデオサーバシステム1420は、それらの2つのシステムの間の通信に専用となる高帯域幅チャネルを介してゲームサーバ1425に接続されてもよい。
ビデオサーバシステム1420は、少なくともビデオソース1430、I/Oデバイス1445、プロセッサ1450、及び非一時的記憶装置1455を含む。ビデオサーバシステム1420は、1つのコンピューティングデバイスを含んでもよく、又は複数のコンピューティングデバイスの間で分散されてもよい。それらのコンピューティングデバイスは任意選択で、ローカルエリアネットワークなどの通信システムを介して接続される。
ビデオソース1430は、ビデオストリーム、例えば、動画を形成するストリーミングビデオ又は一連のビデオフレームを提供するように構成される。一部の実施形態では、ビデオソース1430は、ビデオゲームエンジン及びレンダリングロジックを含む。ビデオゲームエンジンは、プレイヤからゲームコマンドを受信し、受信されたコマンドに基づいてビデオゲームの状態の複製を維持するように構成される。このゲーム状態は、ゲーム環境内のオブジェクトの位置と共に、典型的にはビューのポイントを含む。ゲーム状態はまた、オブジェクトの所有物、画像、色、及び/又は特性を含んでもよい。
ゲーム状態は典型的には、ゲームルールと共に、移動する、回転する、攻撃する、焦点を定める、インタラクションを行う、及び/又は使用するなどのゲームコマンドに基づいて維持される。ゲームエンジンの一部は任意選択で、ゲームサーバ1425内に配置される。ゲームサーバ1425は、地理的に分散されたクライアントを使用して、複数のプレイヤから受信されたゲームコマンドに基づいてゲームの状態の複製を維持してもよい。それらのケースでは、ゲーム状態は、ビデオソース1430にゲームサーバ1425によって提供され、ビデオソース1430では、ゲーム状態の複製が記憶され、レンダリングが実行される。ゲームサーバ1425は、ネットワーク1415を介してクライアント1410からゲームコマンドを直接受信してもよく、及び/又はビデオサーバシステム1420を介してゲームコマンドを受信してもよい。
ビデオソース1430は典型的には、レンダリングロジック、例えば、ハードウェア、ファームウェア、及び/又は記憶装置1455などのコンピュータ可読媒体に記憶されたソフトウェアを含む。このレンダリングロジックは、ゲーム状態に基づいてビデオストリームのビデオフレームを作成するように構成される。レンダリングロジックの全て又は一部は任意選択で、グラフィックプロセシングユニット(GPU)内に配置される。レンダリングロジックは典型的には、オブジェクトの間の3次元空間関係を判定し、並びに/又はゲーム状態及びビューポイントに基づいて適切な特性を適用するなどのために構成された処理段階を含む。レンダリングロジックは、生のビデオを作成し、生のビデオは次いで、クライアント1410への通信の前に通常符号化される。例えば、生のビデオは、Adobe Flash(登録商標)標準、wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x.Xvid.FFmpeg、x264、VP6−8、realvideo、又はmp3などに従って符号化されてもよい。符号化処理は、リモートデバイス上のデコーダに配信するために任意選択でパッケージ化されるビデオストリームを作成する。ビデオストリームは、フレームサイズ及びフレームレートによって特徴付けられる。典型的なフレームサイズは、800×600、1280×720(例えば、720p)、1024×768を含むが、いずれかの他のフレームサイズが使用されてもよい。フレームレートは、毎秒のビデオフレームの数である。ビデオストリームは、異なるタイプのビデオフレームを含んでもよい。例えば、H.264標準は、「P」フレーム及び「I」フレームを含む。Iフレームは、ディスプレイデバイス上で全てのマクロブロック/画素をリフレッシュするための情報を含み、Pフレームは、それらのサブセットをリフレッシュするための情報を含む。Pフレームは典型的には、Iフレームよりもデータサイズにおいて小さい。本明細書で使用されるように、用語「フレームサイズ」は、フレーム内の画素の数を指すことが意味される。用語「フレームデータサイズ」は、フレームを記憶するために必要とされるバイトの数を指すために使用される。
代替的な実施形態では、ビデオソース1430は、カメラなどのビデオ記録デバイスを含む。このカメラは、コンピュータゲームのビデオストリームに含めることができる遅延したビデオ又はライブビデオを生成するために使用されてもよい。結果として生じるビデオストリームは任意選択で、レンダリングされた画像、及び静止カメラ又はビデオカメラを使用して記録された画像の両方を含む。ビデオソース1430はまた、ビデオストリームに含まれる、前に記録されたビデオを記憶するように構成された記憶装置を含んでもよい。ビデオソース1430はまた、オブジェクト、例えば、人間の動き又は位置を検出するように構成された動き又は位置検知デバイスと、検出された動き及び/又は位置に基づいて、ゲーム状態を判定し又はビデオを作成するように構成されたロジックとを含んでもよい。
ビデオソース1430は任意選択で、他のビデオ上に配置されるように構成されたオーバレイを提供するように構成される。例えば、それらのオーバレイは、コマンドインタフェース、ログイン命令、ゲームプレイヤへのメッセージ、他のゲームプレイヤの画像、他のゲームプレイヤのビデオフィード(例えば、ウェブ画像ビデオ)を含んでもよい。タッチスクリーンインタフェース又は注視検出インタフェースを含むクライアント1410Aの実施形態では、オーバレイは、仮想キーボード、ジョイスティック、及び/又はタッチパッドなどを含んでもよい。オーバレイの1つの例では、プレイヤの発声は、音声ストリーム上でオーバレイされる。ビデオソース1430は任意選択で、1つ以上の音声ソースを更に含む。
ビデオサーバシステム1420が1人よりも多いプレイヤからの入力に基づいてゲーム状態を維持するように構成される実施形態では、各々のプレイヤは、ビューの位置及び方向を含むビューの異なるポイントを有してもよい。ビデオソース1430は任意選択で、ビューのそれらのポイントに基づいてプレイヤごとに別個のビデオストリームを提供するように構成される。更に、ビデオソース1430は、クライアント1410の各々に、異なるフレームサイズ、フレームデータサイズ、及び/又は符号化を提供するように構成されてもよい。ビデオソース1430は任意選択で、3Dビデオを提供するように構成される。
I/Oデバイス1445は、ビデオサーバシステム1420がビデオ、コマンド、情報についての要求、ゲーム状態、注視情報、デバイスの動き、デバイスの位置、ユーザの動き、クライアントID、プレイヤID、ゲームコマンド、セキュリティ情報、及び/又は音声などの情報を送信及び/又は受信するように構成される。I/Oデバイス1445は典型的には、ネットワークカード又はモデムなどの通信ハードウェアを含む。I/Oデバイス1445は、ゲームサーバ1425、ネットワーク1415、及び/又はクライアント1410と通信するように構成される。
プロセッサ1450は、本明細書で議論されるビデオサーバシステム1420の様々な構成要素に含まれるロジック、例えば、ソフトウェアを実行するように構成される。例えば、プロセッサ1450は、ビデオソース1430、ゲームサーバ1425、及び/又はクライアントクォリファイア1460の機能を実行するために、ソフトウェア命令によりプログラムされてもよい。ビデオサーバシステム1420は任意選択で、プロセッサ1450の1つよりも多いインスタンスを含む。プロセッサ1450はまた、ビデオサーバシステム1420によって受信されたコマンドを実行し、又は本明細書で議論されるゲームシステム1400の様々な要素の動作を調整するために、ソフトウェア命令によりプログラムされてもよい。プロセッサ1450は、1つ以上のハードウェアデバイスを含んでもよい。プロセッサ1450は、電子プロセッサである。
記憶装置1455は、非一時的アナログ及び/又はデジタル記憶装置を含む。例えば、記憶装置1455は、ビデオフレームを記憶するように構成されたアナログ記憶装置を含んでもよい。記憶装置1455は、コンピュータ可読デジタル記憶装置、例えば、ハードドライブ、光学ドライブ、又はソリッドステート記憶装置を含んでもよい。記憶装置1455は、ビデオフレーム、人工フレーム、ビデオフレーム及び人工フレームの両方を含むビデオストリーム、音声フレーム、並びに/又は音声ストリームなどを記憶するように構成される(例えば、適切なデータ構造又はファイルシステムによって)。記憶装置1455は任意選択で、複数のデバイスの間で分散される。一部の実施形態では、記憶装置1455は、本明細書で他に議論されるビデオソース1430のソフトウェア構成要素を記憶するように構成される。それらの構成要素は、必要なときにプロビジョニングされる準備ができているフォーマットにおいて記憶されてもよい。
ビデオサーバシステム1420は任意選択で、クライアントクォリファイア1460を更に含む。クライアントクォリファイア1460は、クライアント1410A又は1410Bなどのクライアントの能力をリモートに判定するために構成される。それらの能力は、クライアント1410A自体の能力と共に、クライアント1410Aとビデオサーバシステム1420との間の1つ以上の通信チャネルの能力の両方を含むことができる。例えば、クライアントクォリファイア1460は、ネットワーク1415を通じて通信チャネルを検査するように構成されてもよい。
クライアントクォリファイア1460は、クライアント1410Aの能力を手動又は自動で判定することができる(例えば、発見する)。手動判定は、クライアント1410Aのユーザと通信すること、及び能力を提供するようにユーザに依頼することを含む。例えば、一部の実施形態では、クライアントクォリファイア1460は、クライアント1410Aのブラウザ内で画像及び/又はテキストなどを表示するように構成される。1つの実施形態では、クライアント1410Aは、ブラウザを含むHMDである。別の実施形態では、クライアント1410Aは、HMD上で表示することができるブラウザを有するゲームコンソールである。表示されたオブジェクトは、クライアント1410Aのオペレーティングシステム、プロセッサ、ビデオデコーダタイプ、ネットワーク接続のタイプ、表示解像度などの情報をユーザが入力することを要求する。ユーザによって入力された情報は、クライアントクォリファイア1460に再度通信される。
自動判定は、クライアント1410A上のエージェントの実行によって、及び/又はクライアント1410Aにテストビデオを送信することによって行われてもよい。エージェントは、ウェブページに組み込まれ、又はアドオンとしてインストールされた、javaスクリプトなどのコンピューティング命令を含んでもよい。エージェントは任意選択で、クライアントクォリファイア1460によって提供される。様々な実施形態では、エージェントは、クライアント1410Aの処理能力、クライアント1410Aの復号及び表示能力、クライアント1410Aとビデオサーバシステム1420との間の通信チャネルの遅延時間の信頼性及び帯域幅、クライアント1410Aのディスプレイタイプ、クライアント1410A上に存在するファイアウォール、クライアント1410Aのハードウェア、クライアント1410A上で実行するソフトウェア、並びに/又はクライアント1410A内のレジストリのエントリを調査することができる。
クライアントクォリファイア1460は、ハードウェア、ファームウェア、及び/又はコンピュータ可読媒体に記憶されたソフトウェアを含む。クライアントクォリファイア1460は任意選択で、ビデオサーバシステム1420の1つ以上の他の要素とは別個のコンピューティングデバイスに配置される。例えば、一部の実施形態では、クライアントクォリファイア1460は、クライアント1410とビデオサーバシステム1420の1つよりも多いインスタンスとの間の通信チャネルの特性を判定するように構成される。それらの実施形態では、クライアントクォリファイアによって発見された情報は、ビデオサーバシステム1420のどのインスタンスがクライアント1410の1つへのストリーミングビデオの配信に最も適切であるかを判定するために使用されてもよい。
上記実施形態を考慮して、本発明は、コンピュータシステムに記憶されたデータを伴う様々なコンピュータにより実施される動作を採用することができることを理解されるべきである。それらの動作は、物理量の物理的な操作を必要とする動作を含む。本発明の一部を形成する本明細書で説明される動作のいずれかは、有用な機械的動作である。本発明はまた、それらの動作を実行するためのデバイス又は装置に関する。装置は、必要とされる目的のために特に構築されてもよく、又は装置は、選択的に活性化され、若しくはコンピュータに記憶されたコンピュータプログラムによって構成された汎用コンピュータであってもよい。特に、様々な汎用機械は、本明細書における教示に従って記述されたコンピュータプログラムと共に使用されてもよく、又は必要とされる動作を実行するために更なる専用装置を構築することが更に利便性が高いことがある。
上記説明された発明は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベース又はプログラム可能家庭用電化製品、ミニコンピュータ、及びメインフレームコンピュータなどを含む他のコンピュータシステム構成により実施されてもよい。本発明はまた、通信ネットワークを通じてリンクされたリモート処理デバイスによってタスクが実行される分散コンピューティング環境において実施されてもよい。
本発明はまた、コンピュータ可読媒体上でコンピュータ可読コードとして具体化されてもよい。代わりに、コンピュータ可読コードは、上記説明されたデータ交換相互接続を使用してサーバからダウンロードされてもよい。コンピュータ可読媒体は、データを記憶することができるいずれかのデータ記憶装置であり、データはその後、電磁気波キャリアを含む、コンピュータシステムによって読み込まれてもよい。コンピュータ可読媒体の例は、ハードドライブ、ネットワークアッタチドストレージ(NAS)、リードオンリメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、並びに他の光学及び非光学データ記憶装置を含む。コンピュータ可読媒体はまた、ネットワーク結合されたコンピュータシステムを通じて分散されてもよく、それによって、コンピュータ可読コードは、分散形式で記憶及び実行される。
先述の発明は理解を明確にする目的で或る程度詳細に説明されてきたが、添付の特許請求の範囲内で特定の変更及び修正が実施されてもよいことが明らかである。したがって、本実施形態は、例示的であり、限定的ではないと見なされ、本発明は、本明細書で与えられた詳細に限定されないが、添付の特許請求の範囲の範囲及びその同等物の範囲内で修正されてもよい。

Claims (31)

  1. ヘッドマウントディスプレイ(HMD)によって、スクリーン上の実世界環境からのオブジェクトを提示する方法であって、
    前記HMDを身に着けているユーザに近接した前記実世界環境の画像を受信し、前記画像は、前記HMDの1つ以上の前向きカメラから受信され、前記スクリーン上でレンダリングするために前記HMDのプロセッサによって処理され、
    前記ユーザの片目又は各々の目に向けられた前記HMDの1つ以上の注視検出カメラを使用して、前記HMDを身に着けている前記ユーザの注視方向を検出し、
    前記ユーザの前記注視方向と相関付ける前記実世界環境の前記画像内でキャプチャされたオブジェクトを識別するように前記画像を分析し、前記識別された画像は、前記ユーザに対して前記オブジェクトが焦点から外れたように見えるようにする第1の仮想距離において現在レンダリングされており、
    前記オブジェクトの画像に焦点を合わせるように前記1つ以上の前向きカメラのレンズに対するズーム比を調節するための信号を生成し、ズーム比の調節では、前記ユーザによって前記オブジェクトを識別可能にする第2の仮想距離において、前記HMDによって前記オブジェクトの前記画像を前記スクリーン上で提示させる、方法。
  2. 前記信号は、前記ユーザの注視が少なくとも所定の時間長の間に前記オブジェクトに向けられていたと判定した後に生成される、請求項1に記載の方法。
  3. 所定の期間の間に前記オブジェクトに焦点が合わされ、前記所定の期間が満了すると、前記実世界環境からの画像をレンダリングすることを再開する、請求項1に記載の方法。
  4. 前記ズーム比は、前記第2の仮想距離においてレンダリングされるとき、前記オブジェクトの前記画像が前記ユーザに対して識別可能となるように、前記HMDを身に着けている前記ユーザの視覚特性を考慮して調節される、請求項1に記載の方法。
  5. 前記ズーム比を調節するための前記信号は、前記オブジェクトの前記画像が前記HMDの前記1つ以上の前向きカメラによってキャプチャされる深さへの調節を生じさせるように、前記1つ以上の前向きカメラにおけるレンズの開口設定を調節するための信号を含む、請求項1に記載の方法。
  6. 前記ズーム比を調節するための前記信号は、前記実世界環境内の前記オブジェクトの前記画像をキャプチャするときに前記1つ以上の前向きカメラのレンズの焦点長さを調節するための信号を含み、前記レンズの前記焦点長さへの前記調節は、前記オブジェクトのズームインを生じさせる、請求項1に記載の方法。
  7. 前記ズーム比を調節するための前記信号は更に、ズームの速度を制御するための信号を含み、ズームの前記速度は、キャプチャされた前記実世界環境の前記画像のタイプ、前記オブジェクトの属性、又は前記ユーザに基づいて制御される、請求項1に記載の方法。
  8. 前記信号は更に、前記スクリーン上でレンダリングされるときに前記オブジェクトの前記画像の輝度レベルを調節するための信号を含む、請求項1に記載の方法。
  9. 前記HMDの前記前向きカメラによってキャプチャされた前記画像を使用して、前記実世界環境の3次元デジタルモデルを構築することを更に含み、前記3次元デジタルモデルは、前記画像の複数のフレーム内でキャプチャされた異なるポイントを追跡し、前記異なるポイントを3次元空間に相関付けることによって構築される、請求項1に記載の方法。
  10. 前記オブジェクトを識別することは更に、前記注視方向に一致する前記画像内でキャプチャされた前記オブジェクトの輪郭を描くことと、前記HMDを身に着けている前記ユーザから前記オブジェクトの識別に関する確認を受信することとを含む、請求項1に記載の方法。
  11. 前記確認は、前記HMD上のボタン押下、前記HMDに通信可能に接続されたコントローラ上のボタン押下、前記HMDの前記スクリーン上でレンダリングされたユーザインタフェース内で提供されたオプションの選択、音声コマンド、ジェスチャ確認、又はそれらの2つ以上の組み合わせのうちのいずれか1つを通じて取得される、請求項10に記載の方法。
  12. 前記オブジェクトの前記確認は、前記オブジェクトと関連付けられたタグに基づいている、請求項10に記載の方法。
  13. 前記HMDによって提示されたビューを第1の部分及び第2の部分に分割することを更に含み、前記オブジェクトの前記画像は、前記第1の部分内で提示されたズーム比に調節され、前記実世界環境の前記画像は、前記第2の部分内でレンダリングされる、請求項1に記載の方法。
  14. 前記第1の部分は、第1の表示面上で定義され、前記第2の部分は、第2の表示面上で定義される、請求項13に記載の方法。
  15. 前記第1の表示面は、前記実世界環境の前記画像が前記HMDによって投影される外部表示面であり、前記第2の表示面は、前記HMDのディスプレイスクリーンである、請求項13に記載の方法。
  16. ヘッドマウントディスプレイ(HMD)のスクリーン上でレンダリングされた実世界環境からのオブジェクトを提示する方法であって、
    前記HMDを身に着けているユーザに近接した実世界環境の画像を受信し、前記画像は、前記HMDの1つ以上の前向きカメラから受信され、前記HMDの前記スクリーン上でレンダリングするために前記HMD内のプロセッサによって処理され、
    第1の仮想距離においてレンダリングされた前記実世界環境の前記画像内でキャプチャされたオブジェクトを識別し、前記第1の仮想距離は、前記ユーザに対して前記オブジェクトが焦点から外れたように見えるようにし、
    前記オブジェクトが前記ユーザによって識別可能であるように、前記オブジェクトに焦点を合わせるように前記1つ以上の前向きカメラのズーム比を調節するための信号を生成する、方法。
  17. 前記オブジェクトは、前記HMDにおいて提供された視覚的又は聴覚的通知、前記HMDの前記スクリーン上で提供された視覚的刺激、又は所定のイベントの発生に基づいて識別される、請求項16に記載の方法。
  18. ヘッドマウントディスプレイ(HMD)のスクリーン上でオブジェクトをレンダリングする方法であって、
    前記HMDの前記スクリーン上でレンダリングするために仮想現実(VR)シーンからの画像を受信し、
    前記HMDの前記スクリーン上でレンダリングされた前記画像からのオブジェクトの選択を検出し、前記オブジェクトは、前記HMDを身に着けているユーザに対して前記オブジェクトが焦点から外れたように見えるようにする第1の仮想距離において現在レンダリングされ、
    前記オブジェクトに近接した前記VRシーン内の新たな所定の領域を識別し、前記新たな所定の領域は、前記VRシーンを見る間、前記オブジェクトに関連して前記ユーザについての移動の区域を定義するように識別され、
    前記ユーザを前記VRシーン内で第1の所定の領域から前記新たな所定の領域に仮想的テレポートするための信号を生成し、前記ユーザの前記仮想的テレポートでは、前記ユーザによって前記オブジェクトを識別可能にする第2の仮想距離において、前記オブジェクトを前記HMDの前記スクリーン上で提示させる、方法。
  19. 前記オブジェクトは、前記仮想的テレポートのために前記VRシーンの前記画像内で識別された複数のオブジェクトのうちの1つであり、前記オブジェクトは、前記HMD上で提供されたオプションを使用して、又は前記HMDに通信可能に接続されたコントローラ上のボタンを使用して選択される、請求項18に記載の方法。
  20. 前記オブジェクトは、前記HMDの1つ以上の注視検出カメラを使用して前記ユーザの注視方向を検出することによって選択される、請求項18に記載の方法。
  21. 前記オブジェクトは、前記ユーザの注視方向が少なくとも所定の期間の間、前記オブジェクト上にあったと判定した後に選択される、請求項20に記載の方法。
  22. 前記信号は、前記画像の画像特性を調節するためのコマンドを含み、前記画像特性は、前記オブジェクト上でデジタル的にズームインするために使用される、請求項18に記載の方法。
  23. 前記仮想現実(VR)シーンの前記画像は、前記HMDに通信可能に接続されたコンピュータによって提供される、請求項18に記載の方法。
  24. 前記第1の所定の領域及び前記新たな所定の領域は、前記画像内で提示された前記VRシーンの地形属性に基づいて定義される、請求項18に記載の方法。
  25. 前記第1の所定の領域及び前記新たな所定の領域は、前記HMDを身に着けている前記ユーザが操作している利用可能な物理空間にマッピングされる、請求項18に記載の方法。
  26. 前記利用可能な物理空間内の前記ユーザの移動を、前記第1の所定の領域及び前記新たな所定の領域内での移動に相関付けることを更に含む、請求項25に記載の方法。
  27. 前記ユーザが操作している前記物理世界内の異なるオブジェクトの輪郭を更に提供し、前記輪郭は、前記VRシーンの前記画像上のオーバレイとして提供され、前記オーバレイは、前記VRシーン内の前記第1の所定の領域及び前記新たな所定の領域に関連していて前記物理世界内のユーザの位置の視覚的インジケーションを提供し、前記物理世界内のユーザの移動は、前記VRシーンのビューにおける対応する変化を生じさせる、請求項25に記載の方法。
  28. 前記ユーザ、前記HMD、又は前記ユーザによって操作されるコントローラが前記オブジェクトに近接した前記領域の予め設定された境界に近づくにつれて、前記ユーザに警告するための信号を提供することを更に含む、請求項27に記載の方法。
  29. 前記信号は、視覚的信号であり、前記視覚的信号には、前記物理世界内の前記異なるオブジェクトの前記輪郭の強度の増大、及び前記VRシーンの前記画像の強度の減少が含まれ、前記強度の増大は、前記ユーザが前記予め設定された境界に近づいていることを警告する視覚的インジケータとして提供される、請求項28に記載の方法。
  30. 前記信号は、音声信号であり、前記音声信号は、前記ユーザが前記物理世界内の前記領域の前記予め設定された境界に近づくにつれて強度が増大するように設計される、請求項28に記載の方法。
  31. 前記ユーザが前記VRシーン内の前記オブジェクトに近接した前記領域内の周囲を移動するにつれて、前記VRシーン内の前記オブジェクト及び前記オブジェクトを囲む領域のビューを調節することを更に含む、請求項18に記載の方法。
JP2019517193A 2016-06-13 2017-06-12 仮想現実環境内の特定のコンテンツに焦点を合わせるためのhmd遷移 Active JP6771101B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662349652P 2016-06-13 2016-06-13
US62/349,652 2016-06-13
US15/619,395 2017-06-09
US15/619,395 US10395428B2 (en) 2016-06-13 2017-06-09 HMD transitions for focusing on specific content in virtual-reality environments
PCT/US2017/037078 WO2017218436A1 (en) 2016-06-13 2017-06-12 Hmd transitions for focusing on specific content in virtual-reality environments

Publications (2)

Publication Number Publication Date
JP2019531550A true JP2019531550A (ja) 2019-10-31
JP6771101B2 JP6771101B2 (ja) 2020-10-21

Family

ID=60573954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019517193A Active JP6771101B2 (ja) 2016-06-13 2017-06-12 仮想現実環境内の特定のコンテンツに焦点を合わせるためのhmd遷移

Country Status (5)

Country Link
US (2) US10395428B2 (ja)
EP (1) EP3469461B1 (ja)
JP (1) JP6771101B2 (ja)
CN (1) CN109478095A (ja)
WO (1) WO2017218436A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102216312B1 (ko) * 2019-11-14 2021-02-17 빠 왼 아웅 빠 Vr을 이용한 가상 시나리오 제공 방법 및 장치
WO2022202056A1 (ja) * 2021-03-22 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
KR20220148027A (ko) * 2021-04-28 2022-11-04 (주)이머시브캐스트 Hmd 기반의 pc 게임 확장 시스템
JP2023099961A (ja) * 2022-01-04 2023-07-14 株式会社Cygames プログラム、情報処理装置および情報処理方法

Families Citing this family (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10514755B2 (en) * 2015-05-08 2019-12-24 Lg Electronics Inc. Glasses-type terminal and control method therefor
US11287653B2 (en) * 2015-09-09 2022-03-29 Vantrix Corporation Method and system for selective content processing based on a panoramic camera and a virtual-reality headset
US10551993B1 (en) * 2016-05-15 2020-02-04 Google Llc Virtual reality content development environment
US9870064B2 (en) * 2016-06-13 2018-01-16 Rouslan Lyubomirov DIMITROV System and method for blended reality user interface and gesture control system
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
WO2018017990A1 (en) * 2016-07-21 2018-01-25 Google Llc Editing cuts in virtual reality
DE112016007015T5 (de) * 2016-07-29 2019-03-21 Mitsubishi Electric Corporation Anzeigevorrichtung, anzeigesteuervorrichtung und anzeigesteuerverfahren
US10572101B2 (en) * 2016-11-14 2020-02-25 Taqtile, Inc. Cross-platform multi-modal virtual collaboration and holographic maps
US10869026B2 (en) * 2016-11-18 2020-12-15 Amitabha Gupta Apparatus for augmenting vision
CN107066079A (zh) * 2016-11-29 2017-08-18 阿里巴巴集团控股有限公司 基于虚拟现实场景的业务实现方法及装置
US10591731B2 (en) * 2016-12-06 2020-03-17 Google Llc Ocular video stabilization
KR20180074180A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 가상현실 영상에 대한 정보를 제공하는 장치 및 방법
US10691220B2 (en) * 2017-02-14 2020-06-23 Samsung Electronics Co., Ltd. Method for display of information from real world environment on a virtual reality (VR) device and VR device thereof
US10169973B2 (en) * 2017-03-08 2019-01-01 International Business Machines Corporation Discontinuing display of virtual content and providing alerts based on hazardous physical obstructions
CN107016728A (zh) * 2017-03-08 2017-08-04 惠州Tcl移动通信有限公司 一种在虚拟现实场景中模拟摄影的方法及系统
CN107122642A (zh) 2017-03-15 2017-09-01 阿里巴巴集团控股有限公司 基于虚拟现实环境的身份认证方法及装置
JP2018163461A (ja) * 2017-03-24 2018-10-18 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US10401954B2 (en) * 2017-04-17 2019-09-03 Intel Corporation Sensory enhanced augmented reality and virtual reality device
US10386923B2 (en) 2017-05-08 2019-08-20 International Business Machines Corporation Authenticating users and improving virtual reality experiences via ocular scans and pupillometry
US20180356885A1 (en) * 2017-06-10 2018-12-13 Tsunami VR, Inc. Systems and methods for directing attention of a user to virtual content that is displayable on a user device operated by the user
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
US10191566B1 (en) * 2017-07-05 2019-01-29 Sony Interactive Entertainment Inc. Interactive input controls in a simulated three-dimensional (3D) environment
US10691945B2 (en) 2017-07-14 2020-06-23 International Business Machines Corporation Altering virtual content based on the presence of hazardous physical obstructions
JP2019017800A (ja) * 2017-07-19 2019-02-07 富士通株式会社 コンピュータプログラム、情報処理装置及び情報処理方法
US10803663B2 (en) * 2017-08-02 2020-10-13 Google Llc Depth sensor aided estimation of virtual reality environment boundaries
GB2565302B (en) * 2017-08-08 2022-04-13 Sony Interactive Entertainment Inc Head-mountable apparatus and methods
US10491824B2 (en) 2017-09-26 2019-11-26 Gopro, Inc. Combined mechanical and electronic image stabilization
KR102572675B1 (ko) * 2017-11-22 2023-08-30 삼성전자주식회사 사용자 인터페이스를 적응적으로 구성하기 위한 장치 및 방법
EP3489800A1 (de) * 2017-11-27 2019-05-29 EUCHNER GmbH + Co. KG Sicherheitssystem
KR102233099B1 (ko) * 2017-12-05 2021-03-29 한국전자통신연구원 기계학습에 기반한 가상 현실 콘텐츠의 사이버 멀미도 예측 모델 생성 및 정량화 조절 장치 및 방법
US11496684B2 (en) 2017-12-11 2022-11-08 Gopro, Inc. Combined mechanical and electronic image stabilization
US10827123B1 (en) * 2018-01-05 2020-11-03 Gopro, Inc. Modular image capture systems
CN109068050A (zh) * 2018-01-11 2018-12-21 王富云 自由观察仪
EP3594794A4 (en) * 2018-01-12 2020-04-08 SONY Corporation INFORMATION PROCESSING DEVICE AND METHOD
US10859830B2 (en) * 2018-01-31 2020-12-08 Sony Interactive Entertainment LLC Image adjustment for an eye tracking system
EP3750032A4 (en) * 2018-02-06 2021-11-17 Wal-Mart Apollo, LLC PERSONALIZED AUGMENTED REALITY ITEM FILTERING SYSTEM
US10565797B2 (en) 2018-02-17 2020-02-18 Varjo Technologies Oy System and method of enhancing user's immersion in mixed reality mode of display apparatus
US10665034B2 (en) 2018-02-17 2020-05-26 Varjo Technologies Oy Imaging system, display apparatus and method of producing mixed-reality images
US11417296B2 (en) * 2018-03-13 2022-08-16 Sony Corporation Information processing device, information processing method, and recording medium
US10841533B2 (en) 2018-03-23 2020-11-17 Raja Singh Tuli Telepresence system with virtual reality
CN111868667A (zh) * 2018-03-26 2020-10-30 索尼公司 信息处理装置、信息处理方法和程序
US10841534B2 (en) 2018-04-12 2020-11-17 Microsoft Technology Licensing, Llc Real-world awareness for virtual reality
US10726521B2 (en) * 2018-04-17 2020-07-28 Google Llc Dynamic adaptation of device interfaces in a voice-based system
US10853911B2 (en) * 2018-04-17 2020-12-01 Google Llc Dynamic adaptation of images for projection, and/or of projection parameters, based on user(s) in environment
CN110384921B (zh) * 2018-04-23 2023-03-28 北京五一视界数字孪生科技股份有限公司 一种基于自适应边缘视野遮挡的vr应用防眩晕技术
US10528132B1 (en) * 2018-07-09 2020-01-07 Ford Global Technologies, Llc Gaze detection of occupants for vehicle displays
CN110163977B (zh) * 2018-07-13 2024-04-12 腾讯数码(天津)有限公司 多世界虚拟场景中的虚拟通道渲染方法及装置
WO2020018064A1 (en) * 2018-07-16 2020-01-23 Hewlett-Packard Development Company, L.P. Physical controls for mixing views
US11057614B1 (en) 2018-09-05 2021-07-06 Apple Inc. Motion blur compensation through display actuation
GB2576910B (en) * 2018-09-06 2021-10-20 Sony Interactive Entertainment Inc User profile generating system and method
US11051058B2 (en) * 2018-09-24 2021-06-29 Hewlett Packard Enterprise Development Lp Real-time wireless video delivery system using a multi-channel communications link
US11494051B1 (en) * 2018-11-01 2022-11-08 Intuit, Inc. Image template-based AR form experiences
US20220004250A1 (en) * 2018-11-19 2022-01-06 Sony Group Corporation Information processing apparatus, information processing method, and program
US10789952B2 (en) * 2018-12-20 2020-09-29 Microsoft Technology Licensing, Llc Voice command execution from auxiliary input
GB201900652D0 (en) * 2019-01-17 2019-03-06 Wave Optics Ltd Augmented reality system
US11182972B2 (en) * 2019-02-12 2021-11-23 Qualcomm Incorporated Virtual teleportation in fixed environments
US11137874B2 (en) * 2019-02-22 2021-10-05 Microsoft Technology Licensing, Llc Ergonomic mixed reality information delivery system for dynamic workflows
EP4235381A3 (en) 2019-03-18 2023-11-01 Apple Inc. Virtual paper
SE1950580A1 (en) * 2019-05-15 2020-10-13 Tobii Ab Method and system for dwell-less, hands-free interaction with a selectable object
CN110300266B (zh) * 2019-07-04 2021-04-02 珠海西山居移动游戏科技有限公司 一种镜头移动方法及系统、一种计算设备及存储介质
US11470017B2 (en) * 2019-07-30 2022-10-11 At&T Intellectual Property I, L.P. Immersive reality component management via a reduced competition core network component
JP7346135B2 (ja) * 2019-07-30 2023-09-19 キヤノン株式会社 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
US11537351B2 (en) * 2019-08-12 2022-12-27 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11322113B2 (en) * 2019-09-12 2022-05-03 Logitech Europe S.A. Techniques for eye fatigue mitigation
US11409671B2 (en) 2019-09-19 2022-08-09 Facebook Technologies, Llc Artificial reality system having multi-bank, multi-port distributed shared memory
US11159713B2 (en) * 2019-10-11 2021-10-26 Varjo Technologies Oy Imaging system and method of producing images
US11861674B1 (en) 2019-10-18 2024-01-02 Meta Platforms Technologies, Llc Method, one or more computer-readable non-transitory storage media, and a system for generating comprehensive information for products of interest by assistant systems
US11567788B1 (en) 2019-10-18 2023-01-31 Meta Platforms, Inc. Generating proactive reminders for assistant systems
US11520707B2 (en) 2019-11-15 2022-12-06 Meta Platforms Technologies, Llc System on a chip (SoC) communications to prevent direct memory access (DMA) attacks
US11601532B2 (en) 2019-11-15 2023-03-07 Meta Platforms Technologies, Llc Wireless communication with code separation
US11190892B2 (en) 2019-11-20 2021-11-30 Facebook Technologies, Llc Audio sample phase alignment in an artificial reality system
US11493766B2 (en) * 2019-12-17 2022-11-08 Tobii Ab Method and system for controlling transparency of a displaying device
US11217024B2 (en) * 2019-12-26 2022-01-04 Facebook Technologies, Llc Artificial reality system with varifocal display of artificial reality content
US11164390B2 (en) * 2019-12-30 2021-11-02 Korea Institute Of Science And Technology Method and apparatus for displaying virtual reality image
WO2021183736A1 (en) * 2020-03-13 2021-09-16 Harmonix Music Systems, Inc. Techniques for virtual reality boundaries and related systems and methods
US11126850B1 (en) 2020-04-09 2021-09-21 Facebook Technologies, Llc Systems and methods for detecting objects within the boundary of a defined space while in artificial reality
US20210349308A1 (en) * 2020-05-05 2021-11-11 Szu Wen FAN System and method for video processing using a virtual reality device
CN113709410A (zh) * 2020-05-21 2021-11-26 幻蝎科技(武汉)有限公司 基于mr眼镜的人眼视觉能力增强的方法、系统及设备
US11410270B2 (en) * 2020-06-03 2022-08-09 University Of Central Florida Research Foundation, Inc. Intelligent object magnification for augmented reality displays
US11765460B2 (en) 2020-06-23 2023-09-19 Realwear, Inc. Digital zoom based on remote user instructions of live video
GB2596541B (en) * 2020-06-30 2023-09-13 Sony Interactive Entertainment Inc Video processing
GB2596588B (en) * 2020-07-03 2022-10-26 Sony Interactive Entertainment Inc Data processing apparatus and method
CN111773683A (zh) * 2020-07-03 2020-10-16 珠海金山网络游戏科技有限公司 一种基于移动终端的文字显示方法及装置
CN116134437A (zh) * 2020-09-24 2023-05-16 Jvc建伍株式会社 存储装置、存储方法和程序
US11848015B2 (en) 2020-10-01 2023-12-19 Realwear, Inc. Voice command scrubbing
US11630509B2 (en) * 2020-12-11 2023-04-18 Microsoft Technology Licensing, Llc Determining user intent based on attention values
JP7116200B2 (ja) * 2021-01-06 2022-08-09 株式会社三井住友銀行 Arプラットフォームシステム、方法およびプログラム
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
US20220295139A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model
US11657578B2 (en) 2021-03-11 2023-05-23 Quintar, Inc. Registration for augmented reality system for viewing an event
US20220295040A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system with remote presentation including 3d graphics extending beyond frame
US11645819B2 (en) 2021-03-11 2023-05-09 Quintar, Inc. Augmented reality system for viewing an event with mode based on crowd sourced images
US11527047B2 (en) 2021-03-11 2022-12-13 Quintar, Inc. Augmented reality system for viewing an event with distributed computing
US11927756B2 (en) 2021-04-01 2024-03-12 Samsung Electronics Co., Ltd. Method for providing augmented reality image and head mounted display device supporting the same
GB2606182B (en) * 2021-04-28 2023-08-23 Sony Interactive Entertainment Inc System and method of error logging
US20220398302A1 (en) * 2021-06-10 2022-12-15 Trivver, Inc. Secure wearable lens apparatus
WO2023009806A1 (en) * 2021-07-29 2023-02-02 Meta Platforms Technologies, Llc User interface to select field of view of a camera in smart glasses
CN115793841A (zh) * 2021-09-09 2023-03-14 华为技术有限公司 一种显示方法与电子设备
US20230092874A1 (en) * 2021-09-22 2023-03-23 Apple Inc. Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US11436810B1 (en) * 2021-09-23 2022-09-06 International Business Machines Corporation Selectively pausing physical movement in a virtual environment
AU2022352933A1 (en) * 2021-09-25 2024-04-11 Apple Inc. Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments
CN113827965B (zh) * 2021-09-28 2022-09-13 完美世界(北京)软件科技发展有限公司 游戏场景中样条线的渲染方法、装置及设备
US11425283B1 (en) * 2021-12-09 2022-08-23 Unity Technologies Sf Blending real and virtual focus in a virtual display environment
CN114779940A (zh) * 2022-05-07 2022-07-22 大连理工大学 一种适用于三维vr场景中的用户视场角调整方法及系统
US11822736B1 (en) * 2022-05-18 2023-11-21 Google Llc Passive-accessory mediated gesture interaction with a head-mounted device
US20230410441A1 (en) * 2022-06-21 2023-12-21 Snap Inc. Generating user interfaces displaying augmented reality graphics
US11852812B1 (en) * 2022-08-12 2023-12-26 Sony Interactive Entertainment Inc. Incorporating camera through or augmented reality vision into a headset

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250699A (ja) * 1999-03-04 2000-09-14 Shimadzu Corp 視線入力装置
JP2001281520A (ja) * 2000-03-30 2001-10-10 Minolta Co Ltd 光学装置
JP2004192653A (ja) * 1997-02-28 2004-07-08 Toshiba Corp マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
US20130050258A1 (en) * 2011-08-25 2013-02-28 James Chia-Ming Liu Portals: Registered Objects As Virtualized, Personalized Displays
US20140362110A1 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US9197864B1 (en) * 2012-01-06 2015-11-24 Google Inc. Zoom and image capture based on features of interest
JP2015536514A (ja) * 2012-11-30 2015-12-21 マイクロソフト テクノロジー ライセンシング,エルエルシー Imuを用いた直接ホログラム操作
JP2016024751A (ja) * 2014-07-24 2016-02-08 シャープ株式会社 画像表示装置
JP2016506562A (ja) * 2012-11-29 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー ウェアラブル食品栄養素フィードバックシステム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60233485D1 (de) 2001-05-25 2009-10-08 Imaging Therapeutics Inc Verfahren zur diagnose, behandlung und prävention von knochenverlust
JP2004297417A (ja) * 2003-03-27 2004-10-21 Sanyo Electric Co Ltd 携帯型無線端末機
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US20070238981A1 (en) * 2006-03-13 2007-10-11 Bracco Imaging Spa Methods and apparatuses for recording and reviewing surgical navigation processes
US20070097151A1 (en) * 2006-04-07 2007-05-03 Outland Research, Llc Behind-screen zoom for handheld computing devices
JP2008067219A (ja) * 2006-09-08 2008-03-21 Sony Corp 撮像装置、撮像方法
CN101821795B (zh) * 2007-10-05 2014-07-30 夏普株式会社 图像显示器
JP5381486B2 (ja) * 2009-08-13 2014-01-08 ソニー株式会社 撮像装置および方法
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9170425B1 (en) * 2011-08-17 2015-10-27 Lockheed Martin Corporation Multi-focal augmented reality lenses
JP2014098835A (ja) * 2012-11-15 2014-05-29 Canon Inc 顕微鏡用照明光学系およびこれを用いた顕微鏡
US9851803B2 (en) 2013-03-15 2017-12-26 Eyecam, LLC Autonomous computing and telecommunications head-up displays glasses
KR101627290B1 (ko) * 2013-04-16 2016-06-21 구태언 보안강화 머리착용형 디스플레이 장치 및 그 장치를 통해 암호화된 정보에 액세스 하는 방법
JP6296801B2 (ja) * 2013-07-24 2018-03-20 キヤノン株式会社 撮像装置、撮像装置の制御方法、および撮像装置の制御プログラム
US9870060B2 (en) 2013-12-31 2018-01-16 Google Llc Systems and methods for gaze-based media selection and editing
US9552060B2 (en) * 2014-01-28 2017-01-24 Microsoft Technology Licensing, Llc Radial selection by vestibulo-ocular reflex fixation
US10593113B2 (en) * 2014-07-08 2020-03-17 Samsung Electronics Co., Ltd. Device and method to display object with visual effect
KR20160032611A (ko) * 2014-09-16 2016-03-24 삼성전자주식회사 터치 입력을 이용하여 전자 장치를 제어하는 방법 및 장치
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20170011362A (ko) * 2015-07-22 2017-02-02 삼성전자주식회사 영상 처리 장치 및 그 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004192653A (ja) * 1997-02-28 2004-07-08 Toshiba Corp マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
JP2000250699A (ja) * 1999-03-04 2000-09-14 Shimadzu Corp 視線入力装置
JP2001281520A (ja) * 2000-03-30 2001-10-10 Minolta Co Ltd 光学装置
US20130050258A1 (en) * 2011-08-25 2013-02-28 James Chia-Ming Liu Portals: Registered Objects As Virtualized, Personalized Displays
US9197864B1 (en) * 2012-01-06 2015-11-24 Google Inc. Zoom and image capture based on features of interest
JP2016506562A (ja) * 2012-11-29 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー ウェアラブル食品栄養素フィードバックシステム
JP2015536514A (ja) * 2012-11-30 2015-12-21 マイクロソフト テクノロジー ライセンシング,エルエルシー Imuを用いた直接ホログラム操作
US20140362110A1 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
JP2016024751A (ja) * 2014-07-24 2016-02-08 シャープ株式会社 画像表示装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102216312B1 (ko) * 2019-11-14 2021-02-17 빠 왼 아웅 빠 Vr을 이용한 가상 시나리오 제공 방법 및 장치
WO2022202056A1 (ja) * 2021-03-22 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
KR20220148027A (ko) * 2021-04-28 2022-11-04 (주)이머시브캐스트 Hmd 기반의 pc 게임 확장 시스템
KR102568415B1 (ko) * 2021-04-28 2023-08-21 (주)이머시브캐스트 Hmd 기반의 pc 게임 확장 시스템
JP2023099961A (ja) * 2022-01-04 2023-07-14 株式会社Cygames プログラム、情報処理装置および情報処理方法

Also Published As

Publication number Publication date
WO2017218436A1 (en) 2017-12-21
US20190371075A1 (en) 2019-12-05
CN109478095A (zh) 2019-03-15
US11568604B2 (en) 2023-01-31
EP3469461A1 (en) 2019-04-17
US20170358141A1 (en) 2017-12-14
US10395428B2 (en) 2019-08-27
EP3469461B1 (en) 2023-12-06
JP6771101B2 (ja) 2020-10-21

Similar Documents

Publication Publication Date Title
US11568604B2 (en) HMD transitions for focusing on specific content in virtual-reality environments
US11571620B2 (en) Using HMD camera touch button to render images of a user captured during game play
US11654358B2 (en) Head mounted displays (HMDs) with front facing cameras for transitioning between non-transparent modes and transparent modes
US10210666B2 (en) Filtering and parental control methods for restricting visual activity on a head mounted display
CN107683449B (zh) 控制经由头戴式显示器呈现的个人空间内容
JP6575974B2 (ja) ヘッドマウントディスプレイの追跡システム
JP6759451B2 (ja) 人による追跡装置のオクルージョンの影響を低減するシステム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200928

R150 Certificate of patent or registration of utility model

Ref document number: 6771101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250