JP6770178B2 - Hmdユーザを現実世界空間内で安全に案内するために、仮想現実シーンにおいて対話型コンテンツを提供する方法 - Google Patents

Hmdユーザを現実世界空間内で安全に案内するために、仮想現実シーンにおいて対話型コンテンツを提供する方法 Download PDF

Info

Publication number
JP6770178B2
JP6770178B2 JP2019512637A JP2019512637A JP6770178B2 JP 6770178 B2 JP6770178 B2 JP 6770178B2 JP 2019512637 A JP2019512637 A JP 2019512637A JP 2019512637 A JP2019512637 A JP 2019512637A JP 6770178 B2 JP6770178 B2 JP 6770178B2
Authority
JP
Japan
Prior art keywords
hmd
user
space
safe zone
real world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019512637A
Other languages
English (en)
Other versions
JP2019537087A (ja
Inventor
ブラック、グレン、ティー.
テイラー、マイケル、ジー.
トクボ、トッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2019537087A publication Critical patent/JP2019537087A/ja
Application granted granted Critical
Publication of JP6770178B2 publication Critical patent/JP6770178B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Description

本開示は、ヘッドマウントディスプレイ装着中に、対話機能のセーフゾーン内に残るようにユーザを案内するために、仮想現実シーンに対話型コンテンツを提供することに関する。
ビデオゲーム産業は、年月を経て多くの変化を経験している。計算能力が拡大するにつれて、ビデオゲームの開発者は、これらの計算能力の増大を利用するゲームソフトウェアを同様に作成している。このために、ビデオゲーム開発者は、極めて詳細で魅力のあるゲームエクスペリエンスを生み出すために、高度な演算及び数学を組み込むゲームをコーディングしている。
例としてのゲームプラットフォームは、SonyPlayStation(登録商標)、SonyPlayStation2(登録商標)(PS2)、SonyPlayStation3(登録商標)(PS3)、及びSonyPlayStation4(登録商標)(PS4)を含み、そのそれぞれが、ゲームコンソールの形態で販売される。周知のように、ゲームコンソールは、ディスプレイ(典型的には、テレビ)に接続され、手持ち型コントローラを通してユーザ対話を可能にするように設計される。ゲームコンソールは、専用処理ハードウェアで設計され、CPU、集中型グラフィック動作を処理するためのグラフィックシンセサイザ、ジオメトリ変換を実行するためのベクタユニット、ならびに他のグルーハードウェア、ファームウェア、及びソフトウェアを含む。ゲームコンソールは、ゲームコンソールを通してローカルプレイ用のゲームディスクを受け入れるための光学ディスクリーダを伴ってさらに設計されてもよい。オンラインゲームも可能であり、その場合、ユーザは、インターネットを介して他のユーザと対戦または一緒に対話型でプレイすることができる。ゲームの複雑性は、プレーヤの興味をそそり続けるため、ゲーム及びハードウェア製造業者は、さらなる対話機能及びコンピュータプログラムを可能にするように革新し続けている。
コンピュータゲーム産業における成長トレンドは、ユーザとゲームシステムとの間の対話を増加させたゲームを開発することである。より豊かな対話型エクスペリエンスを達成する1つの方法は、プレーヤの動きをトラッキングし、これらの動きをゲームのための入力として使用するために、その人の動きがゲームシステムによってトラッキングされる、ワイヤレスゲームコントローラを使用することである。概して言うと、ジェスチャ入力は、コンピューティングシステム、ビデオゲームコンソール、スマート家電などの電子デバイスに、プレーヤによって行われ、電子デバイスによってキャプチャされる、何らかのジェスチャに反応させることを指す。
より没入型の対話型エクスペリエンスを達成する別の方法は、ヘッドマウントディスプレイを使用することである。ヘッドマウントディスプレイは、ユーザによって装着され、仮想現実(VR)空間のビューなどの、様々なグラフィックを提示するように構成され得る。ヘッドマウントディスプレイ上に提示されるグラフィックは、ユーザの視野の大部分、または全てでさえもカバーし得る。したがって、ヘッドマウントディスプレイは、ユーザに視覚的に没入型のエクスペリエンスを提供し得る。
このような状況において、本開示の実施形態が生じる。
本開示の実施態様は、HMDユーザのトラッキングデータを処理するため、及びHMDユーザに安全な対話ゾーンに向けた案内情報を提供するために使用される方法及びシステムを含む。本明細書で説明される実施形態は、ユーザが現実世界空間においてセーフゾーンの外にそれているときに、ユーザに指標及び案内を提供するために、仮想現実コンテンツを既存の仮想現実コンテンツに直接統合するための技術を示す。いくつかの実施形態では、ユーザは、ユーザが対話機能についてのセーフゾーンに接近しているか、またはセーフゾーンから出て行ったことを示すグラフィカルコンテンツを、仮想現実空間において直接提供され得る。グラフィカルコンテンツは、メッセージ、グラフィカルメッセージ、テキストメッセージ、音声メッセージなどの形式であってもよい。
1つの実施形態では、ヘッドマウントディスプレイを装着しているユーザに案内を提供する方法である。方法は、HMDを装着しているユーザを現実世界空間においてトラッキングすることを含む。方法は、また、現実世界空間、及びHMDを介して仮想現実空間と対話するための現実世界空間内のセーフゾーンを識別することを含む。次いで、現実世界空間においてユーザの動きを検出する。方法は、現実世界空間のセーフゾーン内にとどまるようにユーザに案内するために、コンテンツを仮想現実空間内に統合することを含む。
本開示の他の態様及び利点は、例として本開示の原理を示す添付図面と併せて掲げる、以下の詳細な説明から明らかとなる。
本開示は、添付図面と併せて掲げる以下の説明を参照することによって、よりよく理解され得る。
本開示の実施形態による、ビデオゲームの対話型ゲームプレイのためのシステムを示す。
1つの実施形態による、HMDの使用中に安全に戻るようにユーザに案内することに関連する全般的特徴を説明する、フローチャート図を示す。
1つの実施形態による、図2Aで説明される動作の別の実施例を示す。
HMDを装着し、仮想現実ビューと対話するユーザの実施例を示す。
1つの実施形態による、現実世界空間の外側境界に接近しているユーザ、及びセーフゾーンに戻る案内の提供の実施例を示す。 1つの実施形態による、現実世界空間の外側境界に接近しているユーザ、及びセーフゾーンに戻る案内の提供の実施例を示す。
1つの実施形態による、セーフゾーンに戻る案内を提供するために、ユーザに仮想現実空間においてより多くのアニメキャラクタが提供される実施例を示す。 1つの実施形態による、セーフゾーンに戻る案内を提供するために、ユーザに仮想現実空間においてより多くのアニメキャラクタが提供される実施例を示す。
1つの実施形態による、仮想現実空間と対話するそのユーザの実施例を示す。
本開示の実施形態による、ヘッドマウントディスプレイ(HMD)を示す。
クライアントシステムと対話するHMDユーザ、及び第2のスクリーンと呼ばれる第2のスクリーンディスプレイにコンテンツを提供するクライアントシステムの1つの実施例を示す。
本開示の実施形態による、実行中のビデオゲームと併せたHMDの機能を概念的に示す。
本開示の実施形態による、ヘッドマウントディスプレイのコンポーネントを示す。
本開示の様々な実施形態による、ゲームシステムのブロック図である。
本開示の以下の実施態様は、HMDユーザのトラッキングデータを処理するため、及びHMDユーザに安全な対話ゾーンに向けた案内情報を提供するための方法、システム、コンピュータ可読媒体、及びクラウドシステムを提供する。本明細書で説明される実施形態は、ユーザが現実世界空間においてセーフゾーンの外にそれているときに、ユーザに指標及び案内を提供するために、仮想現実コンテンツを既存の仮想現実コンテンツに直接統合するための技術を示す。いくつかの実施形態では、ユーザは、ユーザが対話機能についてのセーフゾーンに接近しているか、またはセーフゾーンから出て行ったことを示すグラフィカルコンテンツを、仮想現実空間において直接提供され得る。グラフィカルコンテンツは、メッセージ、グラフィカルメッセージ、テキストメッセージ、音声メッセージなどの形式であってもよい。
いくつかの実施形態では、ユーザには、セーフゾーンに再び入るためにどこに移動すべきかをユーザに伝える案内メッセージが提供され得る。いくつかの実施形態では、ユーザがセーフゾーンに再び入ろうとする間、コンテンツは休止される。さらなる実施形態では、グラフィカルコンテンツが、アプリケーションまたは現在のコンテンツにネイティブに見えるように、グラフィカルコンテンツは、ユーザによって対話されている仮想現実コンテンツ内に直接統合され得る。このやり方では、警告、案内命令などは、HMDエクスペリエンスにあまり混乱を引き起こさないように見える。概して言うと、本明細書で説明される実施形態は、HMDによって提示されている豊富な没入型コンテンツに干渉もしない、またはコンテンツから注意もそらさせないやり方で、ユーザに安全な対話ゾーンを提供するために、ユーザ及び現実世界空間の対話型トラッキングを提供する。
1つの実施形態では、方法、システム、画像キャプチャオブジェクト、センサ、及び関連するインタフェースオブジェクト(例えば、グローブ、コントローラ、手など)は、ディスプレイスクリーン上に実質的にリアルタイムでレンダリングされるように構成されるデータを処理するように構成される。ディスプレイは、ヘッドマウントディスプレイ(HMD)のディスプレイ、第2のスクリーンのディスプレイ、ポータブルデバイスのディスプレイ、コンピュータディスプレイ、ディスプレイパネル、1つまたは複数のリモート接続されたユーザ(コンテンツを見ていてもよく、対話型エクスペリエンスにおいて共有していてもよい)のディスプレイなどであってもよい。
しかしながら、本開示は、これらの具体的詳細のいくつかまたは全てがなくとも実施され得ることは、当業者であれば明らかである。他の例では、本開示を不必要に不明確にしないために、周知のプロセス動作は詳細には説明されていない。
図1は、本開示の実施形態による、ビデオゲームの対話型ゲームプレイのためのシステムを示す。ユーザ100は、ヘッドマウントディスプレイ(HMD)102を装着して示されている。HMD102は、眼鏡、ゴーグル、またはヘルメットと同様のやり方で装着され、ビデオゲームまたは他のコンテンツをユーザ100に対して表示するように構成される。HMD102は、ユーザの目に近接したディスプレイ構造のその提供のおかげで、極めて没入型のエクスペリエンスをユーザに提供する。したがって、HMD102は、ユーザの視野の大部分または全体でさえも占める、ユーザの目それぞれに対する表示領域を提供し得る。
1つの実施形態では、HMD102は、コンピュータ106に接続され得る。コンピュータ106への接続は、有線または無線であってもよい。コンピュータ106は、ゲームコンソール、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、モバイルデバイス、携帯電話、タブレット、シンクライアント、セットトップボックス、メディアストリーミングデバイスなどを含むがこれらに限定されない、当技術分野において既知の任意の汎用コンピュータまたは専用コンピュータであり得る。1つの実施形態では、コンピュータ106は、ビデオゲームを実行し、HMD102によるレンダリングのためにビデオゲームからビデオ及び音声を出力するように構成され得る。
ユーザ100は、グローブインタフェースオブジェクト104aを操作して、ビデオゲームに入力を提供してもよい。追加的に、カメラ108は、ユーザ100が位置する対話型環境の画像をキャプチャするように構成され得る。これらのキャプチャされた画像は、ユーザ100、HMD102、及びグローブインタフェースオブジェクト104aの位置及び動きを判断するために解析され得る。1つの実施形態では、グローブインタフェースオブジェクト104aは、その位置及び向きを判断するためにトラッキングされ得るライトを含む。
以下で説明されるように、ユーザがHMD102に表示される仮想現実シーンとインタフェース接続する方法は、変化してもよく、グローブインタフェースオブジェクト104aに追加して他のインタフェースデバイスが、使用されてもよい。例えば、両手コントローラと同様に、片手コントローラもまた、使用されてもよい。いくつかの実施形態では、コントローラは、コントローラに関連付けられたライトをトラッキングすること、または形状、センサ、及びコントローラに関連付けられる内部データをトラッキングすることによって、コントローラ自体がトラッキングされてもよい。これらの様々な種類のコントローラ、または、1つもしくは複数のカメラによって行われキャプチャされる簡単なハンドジェスチャさえも使用して、HMD102上に提示される仮想現実環境をインタフェース接続し、制御し、操縦し、対話し、参加することが可能である。
追加的に、HMD102は、HMD102の位置及び向きを判断するためにトラッキングされ得る1つまたは複数のライトを含んでもよい。カメラ108は、対話型環境から音をキャプチャする1つまたは複数のマイクロフォンを含み得る。マイクロフォンアレイによってキャプチャされる音は、音源の位置を識別するために処理されてもよい。識別された位置からの音は、選択的に利用され、または識別された位置からではない他の音を除外するように処理され得る。さらに、カメラ108は、複数の画像キャプチャデバイス(例えば、カメラの立体対)、IRカメラ、深度カメラ、及びこれらの組み合わせを含むように定義され得る。
別の実施形態では、コンピュータ106は、クラウドゲームプロバイダ112とネットワーク上で通信するシンクライアントとして機能する。クラウドゲームプロバイダ112は、ユーザ102によってプレイされているビデオゲームを維持し実行する。コンピュータ106は、HMD102、グローブインタフェースオブジェクト104a、及びカメラ108からの入力をクラウドゲームプロバイダに送信する。クラウドゲームプロバイダは、入力を処理して、実行中のビデオゲームのゲーム状態に影響を与える。ビデオデータ、音声データ、及び触覚フィードバックデータなどの実行中のビデオゲームからの出力は、コンピュータ106に送信される。コンピュータ106は、送信前にデータをさらに処理してもよく、または、関連するデバイスにデータを直接送信してもよい。例えば、ビデオ及び音声ストリームは、HMD102に提供され、一方、振動フィードバックコマンドは、グローブインタフェースオブジェクト104aに提供される。
1つの実施形態では、HMD102、グローブインタフェースオブジェクト104a、及びカメラ108は、それ自体が、ネットワーク110に接続されてクラウドゲームプロバイダ112と通信するネットワーク化デバイスであってもよい。例えば、コンピュータ106は、ビデオゲーム処理を別段実行しないがネットワークトラフィックの通過を容易にする、ルータなどのローカルネットワークデバイスであってもよい。HMD102、グローブインタフェースオブジェクト104a、及びカメラ108によるネットワークへの接続は、有線または無線であってもよい。
追加的に、本開示における実施形態は、ヘッドマウントディスプレイに関連して説明され得るが、他の実施形態において、テレビ、プロジェクタ、LCDディスプレイスクリーン、ポータブルデバイススクリーン(例えば、タブレット、スマートフォン、ラップトップなど)、または本開示による対話型シーンもしくは仮想環境の表示のためにビデオをレンダリングし、及び/または提供するように構成され得る任意の他の種類のディスプレイを限定ではなく含む、非ヘッドマウントディスプレイが代用されてもよいことが理解される。
図2Aは、1つの実施形態による、HMDの使用中に安全に戻るようにユーザに案内することに関連する全般的特徴を説明する、フローチャート図を示す。この実施例では、方法は、現実世界空間においてHMDユーザを識別するための動作202を含む。HMDユーザは、様々な方法でトラッキングされ得る。1つの実施形態では、HMDユーザは、HMD自体をトラッキングすることによって、またはHMDを装着しているユーザの画像をトラッキングすることによって、またはHMDユーザが持っている、もしくは着用しているコントローラもしくはトラッキング可能な物体をトラッキングすることによって、トラッキングされ得る。概して、HMDユーザは、ユーザが動き回ることが可能な現実世界空間内で、HMDと対話していることとなる。
動き回ることは、典型的には少なくとも小部屋の大きさの空間、ユーザのリビングルーム内の場所、専用部屋、ゲーム部屋、研究部屋、または概して、ユーザが異なる方向に数歩歩くことによって動き回ることができる現実世界における空間を動き回ることを含み得る。一方、ユーザは、現実世界における対話空間内で動き回っているため、ユーザは、HMDが装着されていることから、現実世界の中のあるものが見えないことがある。その結果、方法は、HMDユーザが、仮想現実空間に提示される仮想現実コンテンツと対話する間、動き回るのに安全な現実世界空間を識別することをさらに含む。現実世界空間は、いくつかの技術を使用して識別され得る。
例として、カメラは、ユーザがHMDを使用しようとする場所に本来物理的であるどんなものが存在するかを識別するために使用されてもよい。近接センサ、光センサ、超音波センサ、物理センサ、有線センサ、深度カメラセンサなどの、他の種類のセンサもまた、使用されてもよい。1つの実施形態では、識別される現実空間は、ユーザがHMDと対話しようとしている空間であってもよい。空間は、例えば、ある人のリビングルームを含んでもよい。その人のリビングルームは、ソファ、椅子、コーヒーテーブル、及び他の家具、または壁を含み得る。ユーザが対話している現実世界空間の識別は、部屋の中に存在するそれらの他の物体を考慮に入れてもよい。したがって、ユーザが対話することとなる空間は、必ずしも完全に丸いか、または円形、または楕円形である必要はないが、部屋内の物体の外形を描く、または物体に含まれている異なる空間になってもよい。
動作206では、HMDユーザの動きが、現実世界空間において検出される。上述のように、ユーザは、動き回ることによって、現実世界空間において対話していることができる。動き回ることは、HMDがユーザによって着用されている間、異なる方向に進むことを含んでもよい。仮想現実空間において、ユーザは、彼らがその空間で動き回っていると感じ、彼らが現実世界空間にいるという事実を見失うことがあり、現実世界空間に存在する何かにぶつかりそうになることがある。この理由から、動作206において、HMDユーザの動きに関する情報がトラッキングされ、検出される。動作208において、HMDユーザが、セーフゾーン外にいることが検出される。例として、ユーザは、物体に近づき過ぎている、階段に接近している、ソファに接近している、コーヒーテーブルに接近している、別の人に接近している、壊れやすい物体に接近している、危険な物体に接近している、現実世界における概して別の物または物体に接近している場合がある。
ユーザがセーフゾーン外にある特定の物体に衝突する場合、彼らはぶつかったり、壊したり、または怪我をすることがあるため、ユーザがセーフゾーンに戻るよう案内され得るように、ユーザは、210において仮想現実空間内でコンテンツを用いて提示される。本明細書で用いられる、セーフゾーンは、ユーザがHMD使用中に、自由に歩き回ることができ、物理的物体にぶつかりそうにない、または怪我を負いそうにない空間と考えられる。コンテンツを仮想現実空間内に統合することは、セーフゾーンに戻るようにユーザに案内することを支援し得る、仮想現実空間内に配置されるグラフィックを生成することを含んでもよい。
グラフィックは、仮想現実空間内に提示されているものと類似のグラフィックを含み得る。例えば、仮想現実空間が、ユーザがスポーツをプレイするゲームである場合、そのスポーツの審判が、その人にセーフゾーンに戻るように案内してもよい。ユーザが、仮想モールを歩き回っている場合、モールの係員または警察官が、ユーザにセーフゾーンに戻るように案内してもよい。提示されるコンテンツは、したがって、本来グラフィカルである点から対話型であってもよく、またはテキスト及び音声も含んでもよい。概して言うと、仮想現実空間内に提示されるコンテンツは、HMDユーザのために仮想現実空間における対話機能を実質的に妨害しないやり方で提示される。いくつかの実施形態では、ユーザが、物体の近くに来ているか、またはセーフゾーンの完全に外側にいる場合に、仮想現実空間内で提示される対話型コンテンツは、休止され得る。
コンテンツの位置決め中に、対話型コンテンツは、セーフゾーンに戻るようにユーザに案内するために、これに投入または拡張され得る。ユーザがセーフゾーンに戻った時点で、仮想現実コンテンツは、仮想現実空間において再開される。コンテンツを再開することは、例えば、ユーザにコンテンツを提供するために、休止ポイントからわずかに遡って巻き戻すことを含み得る。
図2Bは、1つの実施形態による、図2Aに説明される動作202、204、及び206の実施例を示す。この実施例では、動作212は、HMDユーザが、HMDユーザが移動するのに安全な現実世界空間の外側境界付近にいるときに検出することを含む。この動作は、ユーザの動きをトラッキングすること、及びユーザがあまりに遠くに移動しているか、または対話するのに安全である現実世界空間から出て行っている可能性があると予測することを含み得る。動作214において、仮想現実空間は、外側境界が接近していることをユーザに警告するように、HMDユーザによって視聴可能なコンテンツで拡張され得る。
いくつかの実施形態では、ユーザに外側境界方向への移動に関する情報を提供するために、仮想現実キャラクタが、仮想現実コンテンツ内に現れてもよい。動作216において、HMDユーザに提供される視聴可能なコンテンツが、HMDユーザが移動するのに安全な現実世界空間に戻るようにユーザに案内するための情報を含み得る。
図3は、HMD102を装着し、仮想現実ビュー320と対話するユーザ100の実施例を示す。この実施例では、ユーザは、コントローラ109と対話しており、仮想現実ビューにおいて射的をプレイしている。ユーザが現実世界空間300を動き回るとき、ユーザは、椅子302、コーヒーテーブル304、及びランプ306、ならびにその他の物体などの、現実世界の中の物体にぶつかることがある。これらの物体は、ユーザが歩き回るのに安全であるべき現実世界空間300の中、及び周りに位置し得る、物理的な現実世界の物体の実施例として、単に図3に提示される。
図3において強調されている破線領域は、1つの実施例では、ユーザが歩き回るのに安全な領域を意味する。ユーザが、その破線の外側境界へと歩く場合、ユーザには、上述したようにセーフゾーンに戻る案内が提示され得る。
図4Aは、現実世界空間300の外側境界に接近しているユーザ100の実施例を示す。1つの実施形態では、仮想現実ビュー320'は、仮想現実キャラクタ410及びメッセージ412を含むことによって拡張される。仮想現実キャラクタ410は、1つの実施形態では、ユーザ100に警告するために仮想現実ビュー内のある空間に提示される。メッセージ412は、1つの実施形態では、ユーザに3歩後退するように伝え得る。図示するように、ユーザ100は、別のユーザ400にも接近しており、仮想現実ビュー内に提示されるコンテンツはまた、ユーザに、接触を避けるために彼の近くに別のユーザがいることを警告してもよい。
図4Bは、ユーザ100が仮想現実ビュー320'において対話しており、別の仮想現実キャラクタ410及びメッセージ414を受信する実施例を示す。この実施例では、ユーザは、左に2フィート移動するように案内されている。図示するように、ユーザが、現実世界空間300内のセーフゾーン内に残ることができるように、ユーザ100に提供される情報は、警告だけでなく、案内情報も含み得る。この情報を提供することは、仮想現実空間内で没入する可能性があるユーザ100が現実世界の物体にぶつかることを回避するのに効率的なやり方である。
追加的な利点は、ユーザが何かにぶつかるときに、ユーザ100が、彼のHMD102を取り外す必要がないということである。いくつかの実施形態では、仮想現実空間内で提供されるメッセージは、物体が何であるかを識別し得る。例として、ユーザ100には、椅子がユーザの近くにあること、例えば、1フィート右にあることを示すメッセージが提供され得る。メッセージは、また、人が彼の右隣に立っていることを識別し得る。メッセージは、また、「あなたの兄弟があなたの隣に立っています」というように、彼の隣に立っている人を識別し得る。他のメッセージは、また、別のユーザが、HMDユーザに話しかけたいかどうか、または話しかけたいという合図をしているかどうかを識別し得る。これらの実施例のうちのいずれか1つにおいて、メッセージ、コンテンツ、及び案内が、仮想現実空間内で直接ユーザ100に提供されてもよい。
図5Aは、1つの実施形態による、セーフゾーンに戻る案内を提供するために、ユーザ100に仮想現実空間においてより多くのアニメキャラクタ504が提供される実施例を示す。図示するように、ユーザ100は、セーフゾーンの右にそれており、コーヒーテーブル304及びランプ306に接近している。壊れることがあるか、またはユーザ100に怪我をさせることがある物理的物体に、ユーザが接近しているため、ユーザ100には、仮想現実空間320'においてより重要な警告が提供される。
この実施例では、メッセージ502が、ユーザに提供されて、ユーザが後退することを要求する。画像キャラクタ504は、彼の両手を挙げて示され、ユーザ100に止まるように指示する。アニメキャラクタ504は、仮想現実コンテンツを依然として示している間に、仮想現実シーン内に統合され得るキャラクタの種類の単なる実施例である。依然として示されている仮想現実コンテンツは、仮想現実シーン内で使用されている仮想現実武器である。
図5Bは、1つの実施形態による、メッセージ540が仮想現実シーン320'内でユーザに提供される別の実施例を示す。この実施例では、ユーザには、「前進して再開してください」と指示するメッセージが提供される。このメッセージは、仮想現実空間における対話機能が、停止され、または休止されていることをユーザ100に示している。ユーザは、対話及び移動が安全である仮想現実空間300から外に出るとき、コンテンツの停止及び休止は自動的である。ユーザが、対話するのに安全な仮想現実空間300内に前進する時点で、仮想現実空間内のコンテンツが、再開され得る。
このようにして、仮想現実空間におけるコンテンツの休止及び再開は、ユーザが、セーフゾーン内にいるか、またはセーフゾーン外にいるかに基づき、自動的であり得る。いくつかの実施形態では、ユーザが、接近している、対話しようとしている、ぶつかりそうである、危険なゾーンに入ろうとしている、または起こり得る危険について注意されるべきである場合に、HMD102の前方監視カメラは、また、ユーザ100に現実世界空間のビューを提供するためにオンにされ得る。このようにして、セーフゾーン内に戻るようにユーザに案内するために仮想現実コンテンツ内にメッセージ及びグラフィックを提供することに加えて、ユーザには、また、現実世界のパススルーまたはシースルービューが提供され得る。1つの実施形態では、ユーザが、現実世界空間内に戻るための案内に従わない場合に、現実世界空間外にとどまるかどうか、または負傷を避けるためのアクションをとるかどうかをユーザが判断することを可能にするために、現実世界のパススルーまたはシースルービューがオンにされる。
図6は、1つの実施形態による、仮想現実空間と対話する、そのユーザ100の実施例を示す。この実施例では、ユーザ100は、コンテンツが休止されていることをメッセージ606によって示す、仮想現実コンテンツ320'を示される。さらに、ユーザには、ユーザが対話している空間の鳥瞰図または俯瞰図602が提供される。俯瞰図602は、現実世界空間320にマッピングされ、または平行しており、また、現実世界空間300に対してユーザ100がいる場所に関する情報も提供する。このようにして、指標604が、現実世界空間300に対するユーザ100の位置を示すために、仮想世界空間に配置されてもよい。メッセージ608は、また、1つの実施形態において、俯瞰図602の中に含まれる安全な移動ゾーンに対してユーザがいる場所を彼に示すために、提供されてもよい。これは、ユーザに、ある種の個人レーダを提供し、ユーザがセーフゾーンに戻るために移動し得る場所をユーザに示す。1つの実施形態では、ユーザがセーフゾーンの中央に向けて移動するとき、指標604もまた移動し、彼または彼女が正しい方向に移動していることをユーザ100に保証する。セーフゾーンにおいて一度、コンテンツが、自動的に再始動もしくは再開するかのいずれかであってもよく、またはユーザ100のコマンドによって再開されてもよい。
図7Aは、本開示の実施形態による、ヘッドマウントディスプレイ(HMD)を示す。図示するように、HMD102は、複数のライト200A〜Hを含む。これらのライトのそれぞれは、特定の形状を有するように構成されてもよく、同一または異なる色を有するように構成されてもよい。ライト200A、200B、200C、及び200Dは、HMD102の前面に配置される。ライト200E及び200Fは、HMD102の側面に配置される。ライト200G及び200Hは、HMD102の前面及び側面に及ぶように、HMD102の角に配置される。ライトが、ユーザがHMD102を使用する対話型環境のキャプチャされた画像において識別され得ることは言うまでもない。ライトの識別及びトラッキングに基づいて、対話型環境におけるHMD102の位置及び向きが、判断され得る。ライトのうちのいくつかが、画像キャプチャデバイスに対するHMD102の特定の向きに依存して見えても見えなくともよいことは、さらに言うまでもない。また、ライトの異なる部分(例えば、ライト200G及び200H)は、画像キャプチャデバイスに対するHMD102の向きに依存して画像キャプチャのために露出されてもよい。
1つの実施形態では、ライトは、HMDの現在の状態を周辺の他者に示すように構成され得る。例えば、ライトのうちのいくつかまたは全てが、ある色彩配列、輝度配列を有するように構成され、明滅するように構成され、あるオン/オフ構成、またはHMD102の現在の状態を示す他の配列を有するように構成されてもよい。例として、ライトは、ビデオゲームのアクティブなゲームプレイ(概して、ゲームのアクティブタイムライン中、またはシーン内で発生するゲームプレイ)中に、メニューインタフェースをナビゲートする、またはゲーム設定を構成するなどのビデオゲームの他の非アクティブなゲームプレイ態様(その間、ゲームタイムラインまたはシーンは非アクティブであるか、または休止され得る)と対比して、異なる構成を表示するように構成され得る。ライトは、また、ゲームプレイの相対的強度レベルを示すように構成されてもよい。例えば、ゲームプレイの強度が上昇するときに、光の強度、または点滅速度が上昇してもよい。このようにして、ユーザ以外の人が、HMD102上のライトを見て、ユーザが激しいゲームプレイに能動的に没頭しており、その時点では妨害されることを望まない可能性があることを理解してもよい。
HMD102は、追加的に、1つまたは複数のマイクロフォンを含んでもよい。図示される実施形態では、HMD102は、HMD102の前面上に定義されるマイクロフォン204A及び204Bと、HMD102の側面上に定義されるマイクロフォン204Cと、を含む。マイクロフォンのアレイを利用することによって、各マイクロフォンからの音が、音源の位置を判断するために処理され得る。この情報は、騒音源の排除、音源の視覚識別との関連付けなどを含む、様々なやり方で利用され得る。
HMD102は、また、1つまたは複数の画像キャプチャデバイスを含んでもよい。図示される実施形態では、HMD102は、画像キャプチャデバイス202A及び202Bを含むように示される。画像キャプチャデバイスの立体対を利用することによって、環境の3次元(3D)画像及びビデオが、HMD102の視点からキャプチャされ得る。そのようなビデオは、HMD102装着中にユーザに「ビデオシースルー」能力を提供するために、ユーザに提示され得る。即ち、ユーザは、厳密な意味においてHMD102を見通すことができないが、画像キャプチャデバイス202A及び202B(例えば、または以下の図3に示されるような、HMD102本体の外側に配置される、1つまたは複数の前向きカメラ108')によってキャプチャされるビデオが、HMD102を通して見ているかのようにHMD102外部の環境を見ることが可能であることの機能的均等物をやはり提供し得る。そのようなビデオは、拡張現実エクスペリエンスを提供するように仮想要素で拡張されてもよく、または他のやり方で仮想要素と結合または融合されてもよい。図示される実施形態では、2つのカメラがHMD102の前面に示されているが、HMD102に取り付けられ、任意の方向に向けられた任意の数の外向きカメラが存在し得ることは言うまでもない。例えば、別の実施形態では、追加の環境のパノラマ画像キャプチャを提供するために、HMD102の側面に搭載されたカメラがあってもよい。
図7Bは、クライアントシステム706と対話するHMD102ユーザ、及び第2のスクリーン707と呼ばれる、第2のスクリーンディスプレイにコンテンツを提供するクライアントシステム706の1つの実施例を示す。以下で説明するように、クライアントシステム706は、HMD102から第2のスクリーン707へのコンテンツの共有を処理するための統合電子機器を含んでもよい。他の実施形態は、クライアントシステムとHMD102及び第2のスクリーン707のそれぞれとの間でインタフェース接続する別個のデバイス、モジュール、コネクタを含んでもよい。この全体的な実施例では、ユーザ100は、HMD102を装着しており、コントローラ704を使用してビデオゲームをプレイしている。ユーザ100による対話型プレイは、HMD102に対話型で表示されるビデオゲームコンテンツ(VGC)を生成する。
1つの実施形態では、HMD102に表示されているコンテンツは、第2のスクリーン707に共有される。1つの実施例では、第2のスクリーン707を見ている人は、HMD102においてユーザ100により対話型でプレイされているコンテンツを見ることができる。別の実施形態では、別のユーザ(例えば、プレーヤ2)が、クライアントシステム706と対話して第2のスクリーンコンテンツ(SSC)を生成し得る。コントローラ704(または、任意の種類のユーザインタフェース、ジェスチャ、音声、もしくは入力)とも対話しているプレーヤによって生成される第2のスクリーンコンテンツは、クライアントシステム706へのSSCとして生成されてもよい。それは、HMD102から受信されるVGCとともに第2のスクリーン707上に表示され得る。
したがって、同じ場所に位置してもよく、またはHMDユーザから離れていてもよい他のユーザによる対話機能は、HMDユーザ及びHMDユーザによってプレイされるコンテンツを第2のスクリーン707上で見ている可能性があるユーザの両方に対して、ソーシャル型、対話型、及びさらに没入型であり得る。図示するように、クライアントシステム706は、インターネット710に接続され得る。インターネットは、また、様々なコンテンツソース720からのコンテンツに対し、アクセスをクライアントシステム706に提供し得る。コンテンツソース720は、インターネットを介してアクセス可能な任意の種類のコンテンツを含み得る。
このようなコンテンツは、ビデオコンテンツ、映画コンテンツ、ストリーミングコンテンツ、ソーシャルメディアコンテンツ、ニュースコンテンツ、フレンドコンテンツ、広告コンテンツなどを、限定ではなく含み得る。1つの実施形態では、クライアントシステム706は、HMDにゲームプレイ中の対話機能に関連するマルチメディアコンテンツが提供されるように、HMDユーザのためのコンテンツを同時に処理するために使用され得る。クライアントシステム706は、次いで、他のコンテンツも提供してもよく、それは、第2のスクリーンへのビデオゲームコンテンツとは無関係であってもよい。クライアントシステム706は、1つの実施形態において、コンテンツソース720のうちの1つから、またはローカルユーザもしくはリモートユーザから第2のスクリーンコンテンツを受信し得る。
図8は、本開示の実施形態による、実行中のビデオゲームと併せたHMD102の機能を概念的に示す。実行中のビデオゲームは、ビデオゲームのゲーム状態を更新するための入力を受信する、ゲームエンジン820によって定義される。ビデオゲームのゲーム状態は、オブジェクトの存在及び位置、仮想環境の条件、イベントのトリガ、ユーザプロファイル、ビュー視点などの、現在のゲームプレイの様々な態様を定義するビデオゲームの様々なパラメータの値によって、少なくとも一部定義され得る。
図示される実施形態では、ゲームエンジンは、例として、コントローラ入力814、音声入力816、及び運動入力818を受信する。コントローラ入力814は、手持ち型ゲームコントローラ(例えば、SonyDUALSHOCK(登録商標)4 ワイヤレスコントローラ、SonyPlayStation(登録商標)ムーブモーションコントローラ)、またはグローブインタフェースオブジェクト104aなどの、HMD102とは別個のゲームコントローラの動作から定義されてもよい。例として、コントローラ入力814は、方向入力、ボタンプレス、トリガアクティブ化、移動、ジェスチャ、またはゲームコントローラの動作から処理される他の種類の入力を含んでもよい。音声入力816は、HMD102のマイクロフォン802から、または画像キャプチャデバイス108もしくはローカル環境内のどこかに含まれるマイクロフォンから処理され得る。運動入力818は、HMD102に含まれる運動センサ800から、または画像キャプチャデバイス108がHMD102の画像をキャプチャするときに画像キャプチャデバイス108から、処理され得る。ゲームエンジン820は、ビデオゲームのゲーム状態を更新するために、ゲームエンジンの構成に従って処理される入力を受信する。ゲームエンジン820は、ユーザに提示されることとなるコンテンツを定義するためのゲーム状態データを処理する様々なレンダリングモジュールにゲーム状態データを出力する。
図示される実施形態では、ビデオレンダリングモジュール822は、HMD102上での提示のためにビデオストリームをレンダリングするように定義される。ビデオストリームは、ディスプレイ/プロジェクタ構造810によって提示されてもよく、ユーザの目806によって光学素子808を通して見られてもよい。音声レンダリングモジュール804は、ユーザによって聞くための音声ストリームをレンダリングするように構成される。1つの実施形態では、音声ストリームは、HMD102に関連付けられるスピーカ804を通して出力される。スピーカ804は、オープンエアスピーカ、ヘッドフォン、または音声を提示することが可能な任意の他の種類のスピーカの形態をとってもよい。
1つの実施形態では、注視トラッキングカメラ812は、ユーザの注視をトラッキングすることを可能にするために、HMD102に含まれている。注視トラッキングカメラは、ユーザの目の画像をキャプチャし、それが、ユーザの注視方向を判断するように解析される。1つの実施形態では、ユーザの注視方向についての情報は、ビデオレンダリングに影響を及ぼすために利用され得る。例えば、ユーザの目が、特定方向を見ていると判断される場合、その方向についてのビデオレンダリングは、ユーザが見ている領域内でより詳細に、またはより高速に更新を提供することなどによって、優先または強調され得る。ユーザの注視方向は、ヘッドマウントディスプレイに対して、ユーザが位置する実環境に対して、及び/またはヘッドマウントディスプレイ上にレンダリングされている仮想環境に対して、定義され得ると理解されるべきである。
大まかに言うと、注視トラッキングカメラ812によってキャプチャされる画像の解析は、単独で考慮されるとき、HMD102に対するユーザの注視方向について提供する。しかしながら、トラッキングされたHMD102の位置及び向きと組み合わせて考慮されるときは、HMD102の位置及び向きが、ユーザの頭の位置及び向きと同義であるように、ユーザの現実世界の注視方向が、判断され得る。即ち、ユーザの現実世界の注視方向は、ユーザの目の位置の動きをトラッキングすること、ならびにHMD102の位置及び向きをトラッキングすることから判断され得る。仮想環境のビューが、HMD102上にレンダリングされるとき、ユーザの現実世界の注視方向は、仮想環境におけるユーザの仮想世界の注視方向を判断するために適用され得る。
追加的に、触覚フィードバックモジュール826は、HMD102、またはコントローラ104などのユーザによって操作される別のデバイスのいずれかに含まれる、触覚フィードバックハードウェアに信号を提供するように構成される。触覚フィードバックは、振動フィードバック、温度フィードバック、圧力フィードバックなどの、様々な種類の触感の形態をとってもよい。
現在、ゲームリプレイを共有するためのストリーミングサービスが、非常に人気である。DualShock(登録商標)4 ワイヤレスコントローラは、そのような共有を可能にするために、コントローラ上に直接「共有ボタン」を含む。本開示の実施態様は、HMD/VRヘッドセットを使用してリプレイを探索したい人々のためにリプレイの共有を改善する。本開示の実施態様は、観客が、HMDを使用して自分の頭を自由に動かし、新たな視点からリプレイを見ることを可能にするために、非常に広い視野を有するゲームリプレイのレンダリングのために提供する。従来のストリーミング手法は、リプレイを元のプレーヤが見たもののみに限定しており、したがって、ビュー方向が、観客の頭の位置及び向きとは関係なく、HMDを使用している観客が頭を動かしても何も変わらなかった。
本開示の実施態様は、HMDにおいて新たな視点をサポートするのに十分広い視野でのビデオのレンダリングのために提供される。クラウドサーバ上で(例えば、コンソールゲームハードウェア、例えば、クラウドにおけるPlayStation(登録商標)4ハードウェア上で)動作し、元のプレーヤのゲームエンジンからストリーミングされる入力ゲーム状態として受け取り、それを用いて極度に広い視野(例えば、プラス150度)でゲームのビューをレンダリングし、そのゲームセッションのリアルタイムストリーミング及び/または事前記録されたプレイバックのために使用され得る、ゲームエンジンのカスタムビルドである。極度に広い視野は、HMDの視野を超えて、HMDを装着している観客がリプレイ内を見回すことを可能にすることは、言うまでもない。実際のゲームは、エンジンのネットワーク化バーションにその状態をストリーミングするように構成される。
上述したように、観戦する能力、例えば、HMD102を装着しているユーザによって体験されている対話型アクティビティを視聴する能力をユーザに提供する必要がある。例えば、1人のHMD仮想現実プレーヤは、HMDに提示されているアクティビティに没入し得る一方、他の人は、プレーヤと同じ場所に位置してもよい。これらの他の同じ場所に位置するユーザは、HMDプレーヤによって体験されている対話機能、または見られている仮想現実シーンを視聴することに楽しみを見出し得る。本明細書で使用される、HMDプレーヤは、HMD上に提示されるコンテンツを見ている人であり、または、HMD上に提示される、あるコンテンツと対話している人であってもよく、またはHMD上に提示されるゲームをプレイしていてもよい。このように、プレーヤへの参照は、HMD上に提示されているコンテンツの種類に関わりなく、HMDを装着しているユーザに関連してのみ行われる。
さらに他の実施形態では、HMDプレーヤと同じ場所に位置していない他の人が、HMDプレーヤのHMDに提示されているコンテンツ、対話機能、またはメディアを見たい場合がある。例えば、ウェブサイトは、HMDプレーヤが彼または彼女のアクティビティを実行する間視聴及び観戦するように、異なるHMDプレーヤから選択する能力をユーザに提示するために提供されてもよい。この実施例は、標準的なTwitch型エクスペリエンスに類似しており、それは、インターネットに接続されたユーザが、ウェブサイトにアクセスし、リモートプレーヤによってプレイされている、異なる種類のコンテンツまたはメディアを検索することを可能にする。リモートプレーヤは、いくつかの実施形態では、HMD102を使用してゲームをプレイしていてもよい。
他の実施形態では、リモートプレーヤは、デバイスのディスプレイスクリーンまたはテレビディスプレイスクリーンを使用してゲームをプレイしていてもよく、またはコンテンツを視聴していてもよい。大まかに言うと、例えば、ウェブサイトを介して、離れた別のプレーヤのアクティビティを視聴したいユーザは、HMDプレーヤによって行われているアクティビティを見るために、特定のプレーヤまたはゲームの種類、またはゲームのサムネイル、またはコンテンツのサムネイルを選択することができる。したがって、リモートHMDプレーヤによって能動的にプレイされ得る特定の対話型コンテンツを、ユーザが見ること及び選択することを可能にするウェブサイトが提供され得る。HMDプレーヤによるアクティビティを見たいリモート視聴者は、そのコンテンツ上を単にクリックして、視聴を開始することができる。
図9を参照すると、本開示の実施形態による、ヘッドマウントディスプレイ102のコンポーネントを示す図が示されている。ヘッドマウントディスプレイ102は、プログラム命令を実行するためのプロセッサ900を含む。メモリ902は、記憶のために提供され、揮発性及び不揮発性メモリの両方を含んでもよい。ユーザが視聴し得る視覚的インタフェースを提供するディスプレイ904が含まれる。電池906は、ヘッドマウントディスプレイ102のための電源として提供される。運動検出モジュール908は、磁力計910、加速度計912、及びジャイロスコープ914などの、様々な種類の運動感知ハードウェアのいずれかを含んでもよい。
加速度計は、加速度及び重力誘発性反力を測定するためのデバイスである。単一及び複数の軸モデルが、異なる方向の加速度の大きさ及び方向を検出するために利用可能である。加速度計は、傾斜、振動、及び衝撃を感知するために使用される。1つの実施形態では、重力方向を提供するために3つの加速度計912が使用され、重力方向が、2つの角度(ワールド空間ピッチ及びワールド空間ロール)のための絶対基準を与える。
磁力計は、ヘッドマウントディスプレイ周辺の磁界の強度及び方向を測定する。1つの実施形態では、3つの磁力計910が、ヘッドマウントディスプレイ内で使用され、ワールド空間のヨー角度のための絶対基準を保証する。1つの実施形態では、磁力計は、地球の磁界に及ぶように設計され、それは±80マイクロテスラである。磁力計は、金属によって影響を受け、実際のヨーとは単調であるヨー測定をもたらす。磁界は、環境内の金属に起因して歪むことがあり、それがヨー測定の歪みの原因となる。必要であれば、この歪みは、ジャイロスコープまたはカメラなどの他のセンサからの情報を用いて較正され得る。1つの実施形態では、加速度計912は、ヘッドマウントディスプレイ102の傾斜及び方位角を取得するために、磁力計910とともに使用される。
いくつかの実施態様では、ヘッドマウントディスプレイの磁力計は、その他の付近のデバイスの電磁石が非アクティブである間に、読み出されるように構成される。
ジャイロスコープは、角運動量の原理に基づいて、向きを測定または維持するためのデバイスである。1つの実施形態では、3つのジャイロスコープ914は、慣性感知に基づいてそれぞれの軸(x、y、及びz)にわたる動きについての情報を提供する。ジャイロスコープは、高速回転の検出を支援する。しかしながら、ジャイロスコープは、絶対基準が存在しなければ経時的にドリフトし得る。このため、ジャイロスコープを周期的に再設定する必要があり、再設定は、物体、加速度計、磁力計などを視覚的にトラッキングすることに基づく配置/向き判断などの他の利用可能な情報を用いて行われ得る。
カメラ916は、実環境の画像及び画像ストリームをキャプチャするために提供される。1つより多くのカメラが、ヘッドマウントディスプレイ102に含まれてもよく、(ユーザがヘッドマウントディスプレイ102のディスプレイを見ているときにユーザから離れる方向に向けられる)後ろ向きのカメラ、及び(ユーザがヘッドマウントディスプレイ102のディスプレイを見ているときにユーザの方に向かう方向に向けられる)前向きのカメラを含む。追加的に、実環境における物体の深度情報を感知するために、深度カメラ918が、ヘッドマウントディスプレイ102に含まれてもよい。
ヘッドマウントディスプレイ102は、音声出力を提供するためのスピーカ920を含む。また、周囲の環境、ユーザにより行われる会話などからの音を含む、実環境からの音声をキャプチャするために、マイクロフォン922が含まれてもよい。ヘッドマウントディスプレイ102は、触覚フィードバックをユーザに提供するための触覚フィードバックモジュール924を含む。1つの実施形態では、触覚フィードバックモジュール924は、触覚フィードバックをユーザに提供するために、ヘッドマウントディスプレイ102の移動及び/または振動を引き起こすことが可能である。
LED926は、ヘッドマウントディスプレイ102の状態の視覚的指標として提供される。例えば、LEDは、電池レベル、電源オンなどを示してもよい。カードリーダ928は、ヘッドマウントディスプレイ102が、メモリカードからの情報の読み出し及びメモリカードへの情報の書き込みを可能にするために提供される。USBインタフェース930は、周辺デバイスの接続、または他のポータブルデバイス、コンピュータなどの他のデバイスへの接続を可能にするためのインタフェースの1つの実施例として含まれる。ヘッドマウントディスプレイ102の様々な実施形態では、様々な種類のインタフェースのうちのいずれかが、ヘッドマウントディスプレイ102の接続性をより高めるために含まれてもよい。
WiFi(登録商標)モジュール932は、無線ネットワーキング技術によってインターネットまたはローカルエリアネットワークへの接続を可能にするために含まれる。また、ヘッドマウントディスプレイ102は、他のデバイスへのワイヤレス接続を可能にするためにBluetooth(登録商標)モジュール934を含む。1つの実施形態では、HMD102は、鼻センサ935も含み得る。鼻センサは、1つまたは複数の近接センサによって定義されてもよく、それは、光センサ、カメラ、カメラセンサ、赤外線(IR)センサ、超音波センサ、深度センサ、3次元撮像センサ、点距離キャプチャセンサ、RGBカメラ、複数点カメラ、色感知カメラ、またはこれらのうち2つ以上の組み合わせを含んでもよい。顔センサ936は、例えば、撮像カメラ、運動検出カメラ、画像感知カメラ、超音波センサ、深度センサ、3次元撮像センサ、赤外線センサ、超音波撮像器、もしくはそれらの組み合わせ、または鼻センサ935と併せてさらに利用もしくは使用され得る類似もしくは追加のカメラを含んでもよい。いくつかの実施形態では、顔センサ936は、また、ユーザの口、顎、顎の輪郭などに面していてもよいカメラなどの、HMD102の外部にあるカメラを含み得る。
通信リンク937は、また、他のデバイスへの接続のために含まれてもよい。1つの実施形態では、通信リンク937は、ワイヤレス通信のために赤外線伝送を利用する。他の実施形態では、通信リンク937は、他のデバイスとの通信のための様々な無線または有線伝送プロトコルのうちのいずれかを利用してもよい。
入力ボタン/センサ938は、ユーザのための入力インタフェースを提供するために含まれる。ボタン、タッチパッド、ジョイスティック、トラックボールなどの、様々な種類の入力インタフェースのうちのいずれかが含まれてもよい。超音波通信モジュール940は、超音波技術により他のデバイスとの通信を容易にするために、ヘッドマウントディスプレイ102に含まれてもよい。
バイオセンサ942は、ユーザからの生理学的データの検出を可能にするために含まれる。1つの実施形態では、バイオセンサ942は、ユーザの皮膚を通したユーザの生体電気信号検出のための1つまたは複数のドライ電極を含む。
ビデオ入力944は、HMD上にレンダリングするために、プライマリ処理コンピュータ(例えば、メインゲームコンソール)からビデオ信号を受信するように構成される。いくつかの実施態様では、ビデオ入力は、HDMI(登録商標)入力である。
前述のヘッドマウントディスプレイ102のコンポーネントは、ヘッドマウントディスプレイ102に含まれ得る単なる例示的なコンポーネントとして説明されている。本開示の様々な実施形態では、ヘッドマウントディスプレイ102は、様々な前述したコンポーネントのうちのいくつかを含んでもよく、または含まなくてもよい。本明細書で説明される本開示の態様を容易にする目的で、ヘッドマウントディスプレイ102の実施形態は、ここでは説明されないが当技術分野において既知の、他のコンポーネントを追加的に含んでもよい。
図10は、本開示の様々な実施形態による、ゲームシステム1000のブロック図である。ゲームシステム1000は、ネットワーク1015を介して1つまたは複数のクライアント1010にビデオストリームを提供するように構成される。ゲームシステム1000は、典型的には、ビデオサーバシステム1020及び任意選択のゲームサーバ1025を含む。ビデオサーバシステム1020は、最小限のサービス品質で、ビデオストリームを1つまたは複数のクライアント1010に提供するように構成される。例えば、ビデオサーバシステム1020は、ビデオゲーム内のビューの状態または視点を変更するゲームコマンドを受信し、この変更を最小ラグタイムで状態に反映する更新されたビデオストリームを、クライアント1010に提供してもよい。ビデオサーバシステム1020は、まだ定義されていないフォーマットを含む、多岐にわたる代替的なビデオフォーマットでビデオストリームを提供するように構成されてもよい。さらに、ビデオストリームは、多種多様なフォーマットレートでユーザへの提示のために構成されるビデオフレームを含んでもよい。典型的なフレームレートは、毎秒30フレーム、毎秒60フレーム、及び毎秒120フレームである。とはいえ、より高い、またはより低いフレームレートが、本開示の代替的実施形態に含まれる。
本明細書で個々に1010A、1010Bなどと呼ばれるクライアント1010は、ヘッドマウントディスプレイ、端末、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、ワイヤレスデバイス、デジタルパッド、スタンドアロンデバイス、手持ち型ゲームプレイデバイスなどを含んでもよい。典型的には、クライアント1010は、符号化ビデオストリームを受信し、ビデオストリームを復号し、結果として得られるビデオをユーザ、例えばゲームのプレーヤに提示するように構成される。符号化ビデオストリームの受信及び/またはビデオストリームの復号のプロセスは、典型的には、クライアントの受信バッファに個々のビデオフレームを記憶することを含む。ビデオストリームは、クライアント1010と一体化したディスプレイ上、またはモニタもしくはテレビなどの別個のデバイス上で、ユーザに提示されてもよい。クライアント1010は、任意選択で、1人よりも多くのゲームプレーヤをサポートするように構成される。例えば、ゲームコンソールは、2人、3人、4人、またはそれ以上の同時プレーヤをサポートするように構成されてもよい。これらのプレーヤのそれぞれが、個別のビデオストリームを受信してもよく、または単一のビデオストリームが、各プレーヤに対して具体的に生成される、例えば、各プレーヤの視点に基づいて生成されるフレームの領域を含んでもよい。クライアント1010は、任意選択で、地理的に分散される。ゲームシステム1000に含まれるクライアントの数は、1もしくは2から数千、数万またはそれ以上にまで、幅広く変化してもよい。本明細書で使用される、「ゲームプレーヤ」という用語は、ゲームをプレイする人を指すために使用され、「ゲームプレイデバイス」という用語は、ゲームをプレイするのに使用されるデバイスを指すために使用される。いくつかの実施形態では、ゲームプレイデバイスは、協調してゲームエクスペリエンスをユーザに配信する複数のコンピューティングデバイスを指してもよい。例えば、ゲームコンソール及びHMDが、ビデオサーバシステム1020と協調して、HMDを通して見られるゲームを配信してもよい。1つの実施形態では、ゲームコンソールは、ビデオサーバシステム1020からビデオストリームを受信し、ゲームコンソールは、レンダリングのためにHMDにビデオストリームを転送し、またはビデオストリームを更新する。
クライアント1010は、ネットワーク1415を介してビデオストリームを受信するように構成される。ネットワーク1015は、電話ネットワーク、インターネット、ワイヤレスネットワーク、送電線ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、プライベートネットワークなどを含む、任意の種類の通信ネットワークであってもよい。典型的な実施形態では、ビデオストリームは、TCP/IPまたはUDP/IPなどの標準プロトコルによって通信される。代替的には、ビデオストリームは、独自仕様の標準によって通信される。
クライアント1010の典型的な実施例は、プロセッサ、不揮発性メモリ、ディスプレイ、復号ロジック、ネットワーク通信ケイパビリティ、及び入力デバイスを含むパーソナルコンピュータである。復号ロジックは、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体上に記憶されたソフトウェアを含んでもよい。ビデオストリームを復号(及び符号化)するためのシステムは、当技術分野において周知であり、使用される特定の符号化方式に依存して変化する。
クライアント1010は、受信したビデオを修正するように構成されるシステムをさらに含んでもよいが、必須ではない。例えば、クライアントは、あるビデオ画像を別のビデオ画像上にオーバレイするため、ビデオ画像をトリミングするため、などのために、さらなるレンダリングを実行するように構成されてもよい。例えば、クライアント1010は、Iフレーム、Pフレーム、及びBフレームなどの様々な種類のビデオフレームを受信し、これらのフレームを処理してユーザに表示するための画像にするように構成されてもよい。いくつかの実施形態では、クライアント1010のメンバは、さらなるレンダリング、シェーディング、3Dへの変換、またはビデオストリームに対する同様の操作を実行するように構成される。クライアント1010のメンバは、任意選択で、1つよりも多くの音声またはビデオストリームを受信するように構成される。クライアント1010の入力デバイスは、例えば、片手用ゲームコントローラ、両手用ゲームコントローラ、ジェスチャ認識システム、注視認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、力フィードバックデバイス、運動及び/または位置感知デバイス、マウス、タッチスクリーン、ニューラルインタフェース、カメラ、まだ開発されていない入力デバイスなどを含んでもよい。
クライアント1010によって受信されるビデオストリーム(及び、任意選択で、音声ストリーム)は、ビデオサーバシステム1020によって生成され提供される。本明細書の他の箇所でさらに説明されるように、このビデオストリームは、ビデオフレームを含む(及び、音声ストリームは音声フレームを含む)。ビデオフレームは、ユーザに表示される画像に有意に寄与するように構成される(例えば、それらは、適当なデータ構造の画素情報を含む)。本明細書で使用される、「ビデオフレーム」という用語は、ユーザに示される画像に寄与する、例えば、効果を与えるように構成される情報を主に含むフレームを指すために使用される。「ビデオフレーム」に関する本明細書での教示のほとんどは、「音声フレーム」にも適用され得る。
クライアント1010は、典型的には、ユーザからの入力を受信するように構成される。これらの入力は、ビデオゲームの状態を変更し、またはゲームプレイに影響を与えるように構成されるゲームコマンドを含んでもよい。ゲームコマンドは、入力デバイスを用いて受信されてもよく、及び/またはクライアント1010上で実行中の命令を計算することによって自動的に生成されてもよい。受信されるゲームコマンドは、クライアント1010からネットワーク1015を介してビデオサーバシステム1020及び/またはゲームサーバ1025に通信される。例えば、いくつかの実施形態では、ゲームコマンドは、ビデオサーバシステム1020を介してゲームサーバ1025に通信される。いくつかの実施形態では、ゲームコマンドの個別のコピーが、クライアント1010からゲームサーバ1025及びビデオサーバシステム1020に通信される。ゲームコマンドの通信は、任意選択で、コマンドの識別に依存する。ゲームコマンドは、任意選択で、クライアント1010Aに音声またはビデオストリームを提供するために使用される、異なるルートまたは通信チャネルを通って、クライアント1010Aから通信される。
ゲームサーバ1025は、任意選択で、ビデオサーバシステム1020とは異なる主体によって運用される。例えば、ゲームサーバ1025は、マルチプレーヤゲームの発行元によって運用されてもよい。この実施例では、ビデオサーバシステム1020は、任意選択で、ゲームサーバ1025によってクライアントとして見られ、任意選択で、ゲームサーバ1025の視点からは、先行技術のゲームエンジンを実行する先行技術のクライアントであると見えるように構成される。ビデオサーバシステム1020とゲームサーバ1025との間の通信は、任意選択で、ネットワーク1015を介して発生する。したがって、ゲームサーバ1025は、その1つがゲームサーバシステム1020である複数クライアントにゲーム状態情報を送信する、先行技術のマルチプレーヤゲームサーバであってもよい。ビデオサーバシステム1020は、ゲームサーバ1025の複数インスタンスと同時に通信するように構成されてもよい。例えば、ビデオサーバシステム1020は、複数の異なるビデオゲームを異なるユーザに提供するように構成されてもよい。これらの異なるビデオゲームのそれぞれが、異なるゲームサーバ1025によってサポートされ、及び/または異なる主体によって発行されてもよい。いくつかの実施形態では、ビデオサーバシステム1020の複数の地理的に分散されたインスタンスは、複数の異なるユーザにゲームビデオを提供するように構成される。ビデオサーバシステム1020のこれらのインスタンスのそれぞれが、ゲームサーバ1025の同一インスタンスと通信していてもよい。ビデオサーバシステム1020と1つまたは複数のゲームサーバ1025との間の通信は、任意選択で、専用通信チャネルを介して発生する。例えば、ビデオサーバシステム1020は、これら2つのシステム間の通信専用の高帯域幅チャネルを介して、ゲームサーバ1025と接続されてもよい。
ビデオサーバシステム1020は、ビデオソース1030、I/Oデバイス1045、プロセッサ1050、及び非一時的記憶装置1055を少なくとも含む。ビデオサーバシステム1020は、1つのコンピューティングデバイスを含んでもよく、または複数のコンピューティングデバイス間に分散されてもよい。これらのコンピューティングデバイスは、任意選択で、ローカルエリアネットワークなどの通信システムを介して接続される。
ビデオソース1030は、ビデオストリーム、例えば、ストリーミングビデオ、または動画を形成する一連のビデオフレームを提供するように構成される。いくつかの実施形態では、ビデオソース1030は、ビデオゲームエンジン及びレンダリングロジックを含む。ビデオゲームエンジンは、プレーヤからゲームコマンドを受信し、受信されたコマンドに基づいてビデオゲームの状態のコピーを維持するように構成される。このゲーム状態は、ゲーム環境内のオブジェクトの位置、及び典型的には、視点を含む。ゲーム状態は、オブジェクトのプロパティ、画像、色、及び/またはテクスチャも含んでもよい。ゲーム状態は、典型的には、ゲームルール、及び移動、回転、攻撃、フォーカス設定、対話、使用などのゲームコマンドに基づいて、維持される。ゲームエンジンの一部は、任意選択で、ゲームサーバ1025内に配置される。ゲームサーバ1025は、地理的に分散したクライアントを使用して、複数プレーヤから受信されるゲームコマンドに基づくゲーム状態のコピーを維持してもよい。これらの場合、ゲーム状態は、ゲームサーバ1025によってビデオソース1030に提供され、その場合に、ゲーム状態のコピーが記憶され、レンダリングが実行される。ゲームサーバ1025は、ネットワーク1015を介してクライアント1010から直接ゲームコマンドを受信してもよく、及び/またはビデオサーバシステム1020を介してゲームコマンドを受信してもよい。
ビデオソース1030は、典型的には、レンダリングロジック、例えば、ハードウェア、ファームウェア、及び/または記憶装置1055などのコンピュータ可読媒体上に記憶されるソフトウェアを含む。このレンダリングロジックは、ゲーム状態に基づいてビデオストリームのビデオフレームを作成するように構成される。レンダリングロジックの全てまたは一部は、任意選択で、グラフィック処理ユニット(GPU)内に配置される。レンダリングロジックは、典型的には、オブジェクト間の3次元空間関係性を判断するため、及び/またはゲーム状態及び視点に基づいて適当なテクスチャなどを適用するために構成される処理段階を含む。レンダリングロジックは、その際、クライアント1010との通信の前に通常符号化される生ビデオを制作する。例えば、生ビデオは、AdobeFlash(登録商標)規格、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x.Xvid.FFmpeg、x264、VP6−8、realvideo、mp3などに従って符号化されてもよい。符号化プロセスは、リモートデバイス上の復号器に配信するために任意選択でパッケージ化されるビデオストリームを制作する。ビデオストリームは、フレームサイズ及びフレームレートによって特徴付けられる。典型的なフレームサイズは、800×600、1280×720(例えば、720p)、1024×768を含むが、任意の他のフレームサイズが使用されてもよい。フレームレートは、1秒当たりのビデオフレーム数である。ビデオストリームは、異なる種類のビデオフレームを含んでもよい。例えば、H.264規格は、「P」フレーム及び「I」フレームを含む。Iフレームは、ディスプレイデバイス上で全てのマクロブロック/画素をリフレッシュするための情報を含み、Pフレームは、そのサブセットをリフレッシュするための情報を含む。Pフレームは、典型的には、Iフレームよりデータサイズが小さい。本明細書で使用される「フレームサイズ」という用語は、フレーム内の画素数を指すように意味される。「フレームデータサイズ」という用語は、フレームを記憶するのに必要なバイト数を指すために使用される。
代替的な実施形態では、ビデオソース1030は、カメラなどのビデオ記録デバイスを含む。このカメラは、コンピュータゲームのビデオストリームに含まれ得る、遅延された、またはライブのビデオを生成するために使用されてもよい。結果として得られるビデオストリームは、任意選択で、レンダリングされた画像、及びスチルカメラまたはビデオカメラを用いて記録された画像の両方を含む。ビデオソース1030は、また、ビデオストリームに含まれるように、以前記録されたビデオを記憶するように構成される記憶デバイスを含んでもよい。ビデオソース1030は、また、オブジェクト、例えば、人の運動または位置を検出するように構成される運動または位置感知デバイス、ならびに検出された運動及び/または位置に基づいて、ゲーム状態を判断し、またはビデオを製作するように構成されるロジックを含んでもよい。
ビデオソース1030は、任意選択で、他のビデオ上に置かれるように構成されるオーバレイを提供するように構成される。例えば、これらのオーバレイは、コマンドインタフェース、ログイン命令、ゲームプレーヤへのメッセージ、他のゲームプレーヤの画像、他のゲームプレーヤのビデオフィード(例えば、ウェブカメラビデオ)を含んでもよい。タッチスクリーンインタフェースまたは注視検出インタフェースを含むクライアント1010Aの実施形態では、オーバレイは、仮想キーボード、ジョイスティック、タッチパッドなどを含んでもよい。オーバレイの1つの実施例では、プレーヤの声が、音声ストリーム上にオーバレイされる。ビデオソース1030は、任意選択で、1つまたは複数の音声ソースをさらに含む。
ビデオサーバシステム1020が、1人より多くのプレーヤからの入力に基づいてゲーム状態を維持するように構成される実施形態では、各プレーヤが、ビューの位置及び方向を含む異なる視点を有してもよい。ビデオソース1030は、任意選択で、プレーヤ毎にその視点に基づいて個別のビデオストリームを提供するように構成される。さらに、ビデオソース1030は、異なるフレームサイズ、フレームデータサイズ、及び/または符号化をクライアント1010のそれぞれに提供するように構成されてもよい。ビデオソース1030は、任意選択で、3Dビデオを提供するように構成される。
I/Oデバイス1045は、ビデオサーバシステム1020が、ビデオ、コマンド、情報要求、ゲーム状態、注視情報、デバイス運動、デバイス位置、ユーザ運動、クライアント識別、プレーヤ識別、ゲームコマンド、セキュリティ情報、音声などの情報を、送信及び/または受信するように構成される。I/Oデバイス1045は、典型的には、ネットワークカードまたはモデムなどの通信ハードウェアを含む。I/Oデバイス1045は、ゲームサーバ1025、ネットワーク1015、及び/またはクライアント1010と通信するように構成される。
プロセッサ1050は、本明細書で述べたビデオサーバシステム1020の様々なコンポーネント内に含まれるロジック、例えば、ソフトウェアを実行するように構成される。例えば、プロセッサ1050は、ビデオソース1030、ゲームサーバ1025、及び/またはクライアントクォリファイア1060の機能を実行するために、ソフトウェア命令でプログラムされてもよい。ビデオサーバシステム1020は、任意選択で、プロセッサ1050の1つより多くのインスタンスを含む。プロセッサ1050は、また、ビデオサーバシステム1020によって受信されるコマンドを実行するために、または本明細書で述べたゲームシステム1000の様々な要素の動作を協調させるために、ソフトウェア命令でプログラムされてもよい。プロセッサ1050は、1つまたは複数のハードウェアデバイスを含んでもよい。プロセッサ1050は、電子プロセッサである。
記憶装置1055は、非一時的アナログ及び/またはデジタル記憶デバイスを含む。例えば、記憶装置1055は、ビデオフレームを記憶するように構成されるアナログ記憶デバイスを含んでもよい。記憶装置1055は、コンピュータ可読デジタル記憶装置、例えば、ハードドライブ、光ドライブ、またはソリッドステート記憶装置を含んでもよい。記憶装置1015は、ビデオフレーム、人工フレーム、ビデオフレーム及び人工フレーム両方を含むビデオストリーム、音声フレーム、音声ストリームなどを記憶するように(例えば、適当なデータ構造またはファイルシステムを経由して)構成される。記憶装置1055は、任意選択で、複数のデバイス間に分散される。いくつかの実施形態では、記憶装置1055は、本明細書の他の箇所で述べたビデオソース1030のソフトウェアコンポーネントを記憶するように構成される。これらのコンポーネントは、必要な時にいつでも供給できるフォーマットに記憶されてもよい。
ビデオサーバシステム1020は、任意選択で、クライアントクォリファイア1060をさらに含む。クライアントクォリファイア1060は、クライアント1010Aまたは1010Bなどのクライアントのケイパビリティをリモートで判断するために構成される。これらのケイパビリティは、クライアント1010A自体のケイパビリティ、及びクライアント1010Aとビデオサーバシステム1020との間の1つまたは複数の通信チャネルのケイパビリティの両方を含み得る。例えば、クライアントクォリファイア1060は、ネットワーク1015を通して通信チャネルをテストするように構成されてもよい。
クライアントクォリファイア1060は、クライアント1010Aのケイパビリティを手動または自動で判断(例えば、発見)し得る。手動判断は、クライアント1010Aのユーザと通信すること、及びケイパビリティを提供するようにユーザに依頼することを含む。例えば、いくつかの実施形態では、クライアントクォリファイア1060は、画像、テキストなどをクライアント1010Aのブラウザ内に表示するように構成される。1つの実施形態では、クライアント1010Aは、ブラウザを含むHMDである。別の実施形態では、クライアント1010Aは、HMD上に表示され得るブラウザを有するゲームコンソールである。表示されるオブジェクトは、クライアント1010Aのオペレーティングシステム、プロセッサ、ビデオ復号器の種類、ネットワーク接続の種類、ディスプレイ解像度などの情報を、ユーザが入力することを要求する。ユーザにより入力される情報は、クライアントクォリファイア1060に通信して返される。
例えば、クライアント1010A上のエージェントの実行によって、及び/またはクライアント1010Aへのテストビデオの送信によって、自動判断が発生してもよい。エージェントは、java(登録商標)スクリプトなどの、ウェブページに組み込まれ、またはアドオンとしてインストールされるコンピュータ命令を含んでもよい。エージェントは、任意選択で、クライアントクォリファイア1060によって提供される。様々な実施形態では、エージェントは、クライアント1010Aの処理能力、クライアント1010Aの復号及び表示ケイパビリティ、クライアント1010Aとビデオサーバシステム1020との間の通信チャネルのラグタイム信頼性及び帯域幅、クライアント1010Aのディスプレイの種類、クライアント1010A上のファイアウォールの存在、クライアント1010Aのハードウェア、クライアント1010A上で実行するソフトウェア、クライアント1010A内のレジストリエントリなどを発見し得る。
クライアントクォリファイア1060は、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体上に記憶されたソフトウェアを含む。クライアントクォリファイア1060は、任意選択で、ビデオサーバシステム1020の1つまたは複数の他の要素とは別個のコンピューティングデバイス上に配置される。例えば、いくつかの実施形態では、クライアントクォリファイア1060は、クライアント1010とビデオサーバシステム1020の1つ以上のインスタンスとの間の通信チャネルの特性を判断するように構成される。これらの実施形態では、クライアントクォリファイアにより発見される情報は、ビデオサーバシステム1020のどのインスタンスが、クライアント1010のうちの1つに対するストリーミングビデオの配信に最も適しているかを判断するために使用され得る。
本開示の実施形態は、手持ち式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースの、またはプログラム可能な家庭用電化製品、ミニコンピュータ、メインフレームコンピュータなどを含む、様々なコンピュータシステム構成で実施されてもよい。本開示は、また、有線ベースの、または無線ネットワークを通してリンクされるリモート処理デバイスによってタスクが実行される、分散型コンピューティング環境においても実施され得る。
上記実施形態を考慮して、本開示は、コンピュータシステムに記憶されたデータを伴う様々なコンピュータ実装された動作を採用し得ると理解すべきである。これらの動作は、物理量の物理的操作を必要とするものである。本開示の一部を形成する、本明細書で説明される動作のいずれかは、有用な機械動作である。本開示は、また、これらの動作を実行するためのデバイスまたは装置にも関する。装置は、必要な目的のために特別に構築されてもよく、または、装置は、コンピュータに記憶されるコンピュータプログラムによって選択的にアクティブ化もしくは構成される汎用コンピュータであってもよい。特に、様々な汎用機械が、本明細書における教示に従って書かれたコンピュータプログラムとともに使用されてもよく、または、必要な動作を実行するためにより専用化した装置を構築することがさらに便利であり得る。
本開示は、コンピュータ可読媒体上のコンピュータ可読コードとしても具現化され得る。コンピュータ可読媒体は、データを記憶し得る任意のデータ記憶デバイスであり、データは、コンピュータシステムによってその後読み出され得る。コンピュータ可読媒体の実施例は、ハードドライブ、ネットワーク接続ストレージ(NAS)、読み取り専用メモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、ならびに他の光学式及び非光学式データ記憶デバイスを含む。コンピュータ可読媒体は、コンピュータ可読コードが分散型で記憶及び実行されるように、ネットワーク連結コンピュータシステムにわたって分散されるコンピュータ可読有形媒体を含み得る。
方法の動作について、特定の順序で説明してきたが、オーバレイ動作の処理が所望のやり方で行われる限り、動作の合間に他のハウスキーピング動作が実行されてもよく、または、動作が、わずかに異なる時間で発生するように調整されてもよく、もしくは処理に関連する様々な間隔で処理動作の発生を可能にするシステムに分散されてもよいと、理解されるべきである。
前述した開示は、理解を明確にするために、多少詳細に説明されているが、添付の特許請求の範囲内において、ある変更及び修正が実施され得ることは明らかである。したがって、本実施形態は例示的なものであって限定的なものでないと考えられるべきであり、本開示は、本明細書で与えられる詳細に限定されるべきではなく、本開示の範囲及び均等物の範囲内において修正されてもよい。

Claims (16)

  1. ヘッドマウントディスプレイ(HMD)を装着しているユーザに案内を提供する方法であって、
    前記HMDを装着している前記ユーザを現実世界空間においてトラッキングすることと、
    前記現実世界空間、及び前記HMDを介して仮想現実空間と対話するための前記現実世界空間内のセーフゾーンを識別することと、
    前記現実世界空間において前記ユーザの動きを検出することと、
    前記現実世界空間の前記セーフゾーン内にとどまるように前記ユーザに案内するために、コンテンツを前記仮想現実空間内に統合することと、
    前記HMDユーザが前記セーフゾーン外にいると判断される間、前記HMDにおいて前記仮想現実空間の提示を休止することと、
    前記現実世界空間の前記セーフゾーン内に戻るために、前記HMDを介して前記HMDユーザにマップ及び命令を提供することと、
    を含む、方法。
  2. カメラを使用して前記現実世界空間の画像データをキャプチャすることであって、前記カメラが、前記現実世界空間に位置し、前記ユーザが前記HMDを使用するように構成される対話ゾーンに向けられたビューで構成され、前記画像データが、前記HMDを装着している前記ユーザを少なくとも部分的にトラッキングするために使用されている、前記キャプチャすることと、
    前記画像データを使用して前記対話ゾーン内の現実世界オブジェクトを識別することであって、前記現実世界オブジェクトが、前記セーフゾーンについての境界を定義する障害物として識別されている、前記識別することと、
    をさらに含む、請求項1に記載の方法。
  3. 前記HMDを装着している前記ユーザが、前記セーフゾーンについての境界を定義する前記障害物のうちの少なくとも1つに接近していると判断されるとき、前記HMDに提示されている前記仮想現実空間内に前記コンテンツを前記統合することをトリガすることをさらに含む、請求項2に記載の方法。
  4. 前記仮想現実空間内に統合される前記コンテンツが、オーバレイ画像であり、前記オーバレイ画像が、前記HMDを装着している前記ユーザが前記セーフゾーン外の方向への移動を回避すべきであるという指示を提供する、請求項3に記載の方法。
  5. 前記オーバレイ画像が、前記指示のためのテキスト及び/または音声を提供するアニメ画像である、請求項4に記載の方法。
  6. 前記指示のための前記テキスト及び/または音声が、前記HMDユーザを前記セーフゾーンへ案内するための方向としての出力であり、前記方向が、前記HMDユーザが前記セーフゾーンへ案内されるまで1歩または複数歩進むように移動するためのプロンプトを含む、請求項5に記載の方法。
  7. 前記HMDのカメラを使用して前記現実世界空間の画像データをキャプチャすることであって、前記カメラが、前記ユーザが前記HMDを使用するように構成される対話ゾーンへのビューで構成される、前記キャプチャすることと、
    前記画像データを使用して前記対話ゾーン内の現実世界オブジェクトを識別することであって、前記現実世界オブジェクトが、前記セーフゾーンについての境界を定義する障害物として識別されている、前記識別することと、
    をさらに含む、請求項1に記載の方法。
  8. 前記HMDを装着している前記ユーザが、前記セーフゾーンについての境界を定義する前記障害物のうちの少なくとも1つに接近していると判断されるとき、前記HMDに提示されている前記仮想現実空間内に前記コンテンツを前記統合することをトリガすることをさらに含む、請求項に記載の方法。
  9. 前記仮想現実空間内に統合される前記コンテンツが、オーバレイ画像であり、前記オーバレイ画像が、前記HMDを装着している前記ユーザが前記セーフゾーン外の方向への移動を回避すべきであるという指示を提供する、請求項に記載の方法。
  10. 前記オーバレイ画像が、前記指示のためのテキスト及び/または音声を提供するアニメ画像である、請求項に記載の方法。
  11. 前記指示のための前記テキスト及び/または音声が、前記HMDユーザを前記セーフゾーンへ案内するための方向としての出力であり、前記方向が、前記HMDユーザが前記セーフゾーンへ案内されるまで1歩または複数歩進むように移動するためのプロンプトを含む、請求項1に記載の方法。
  12. 前記現実世界空間の前記セーフゾーン内にとどまるように前記ユーザに案内するために、コンテンツを前記仮想現実空間内に統合することの後で、前記HMDにおいて前記仮想現実空間の提示を休止することをさらに含む、請求項に記載の方法。
  13. 前記HMDユーザが前記セーフゾーン外にいると判断される間、前記HMDにおいて前記仮想現実空間の提示を休止することと、
    前記現実世界空間の前記セーフゾーン内に戻るために、前記HMDを介して前記HMDユーザに案内命令を提供することと、
    をさらに含む、請求項に記載の方法。
  14. 前記HMDユーザが前記セーフゾーン外にいると判断される間、前記HMDにおいて前記仮想現実空間の提示を休止することと、
    前記現実世界空間の前記セーフゾーン内に戻るために、前記HMDを介して前記HMDユーザにマップ及び命令を提供することと、
    をさらに含む、請求項に記載の方法。
  15. ヘッドマウントディスプレイ(HMD)を装着しているユーザに案内を提供するための、非一時的なコンピュータ可読媒体であって、
    前記HMDを装着している前記ユーザを現実世界空間においてトラッキングするためのプログラム命令と、
    前記現実世界空間、及び前記HMDを介して仮想現実空間と対話するための前記現実世界空間内のセーフゾーンを識別するためのプログラム命令と、
    前記現実世界空間において前記ユーザの動きを検出するためのプログラム命令と、
    前記現実世界空間の前記セーフゾーン内にとどまるように前記ユーザに案内するために、コンテンツを前記仮想現実空間内に統合するためのプログラム命令と、
    前記HMDユーザが前記セーフゾーン外にいると判断される間、前記HMDにおいて前記仮想現実空間の提示を休止するためのプログラム命令と、
    前記現実世界空間の前記セーフゾーン内に戻るために、前記HMDを介して前記HMDユーザにマップ及び命令を提供するためのプログラム命令と、
    を含む、コンピュータ可読媒体。
  16. カメラを使用して前記現実世界空間の画像データをキャプチャするためのプログラム命令であって、前記カメラが、前記現実世界空間に位置し、前記ユーザが前記HMDを使用するように構成される対話ゾーンに向けられたビューで構成され、前記画像データが、前記HMDを装着している前記ユーザを少なくとも部分的にトラッキングするために使用されている、前記キャプチャするためのプログラム命令と、
    前記画像データを使用して前記対話ゾーン内の現実世界オブジェクトを識別するためのプログラム命令であって、前記現実世界オブジェクトが、前記セーフゾーンについての境界を定義する障害物として識別されている、前記識別するためのプログラム命令と、
    をさらに含む、請求項1に記載のコンピュータ可読媒体。
JP2019512637A 2016-09-30 2017-09-26 Hmdユーザを現実世界空間内で安全に案内するために、仮想現実シーンにおいて対話型コンテンツを提供する方法 Active JP6770178B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662403053P 2016-09-30 2016-09-30
US62/403,053 2016-09-30
US15/715,114 2017-09-25
US15/715,114 US10617956B2 (en) 2016-09-30 2017-09-25 Methods for providing interactive content in a virtual reality scene to guide an HMD user to safety within a real world space
PCT/US2017/053564 WO2018064081A1 (en) 2016-09-30 2017-09-26 Methods for providing interactive content in a virtual reality scene to guide an hmd user to safety within a real world space

Publications (2)

Publication Number Publication Date
JP2019537087A JP2019537087A (ja) 2019-12-19
JP6770178B2 true JP6770178B2 (ja) 2020-10-14

Family

ID=61757618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019512637A Active JP6770178B2 (ja) 2016-09-30 2017-09-26 Hmdユーザを現実世界空間内で安全に案内するために、仮想現実シーンにおいて対話型コンテンツを提供する方法

Country Status (4)

Country Link
US (1) US10617956B2 (ja)
EP (1) EP3519067A1 (ja)
JP (1) JP6770178B2 (ja)
WO (1) WO2018064081A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180192031A1 (en) * 2017-01-03 2018-07-05 Leslie C. Hardison Virtual Reality Viewing System
JP2018143369A (ja) * 2017-03-02 2018-09-20 株式会社フジ医療器 マッサージシステム
US10423241B1 (en) 2017-07-31 2019-09-24 Amazon Technologies, Inc. Defining operating areas for virtual reality systems using sensor-equipped operating surfaces
US20190033989A1 (en) * 2017-07-31 2019-01-31 Google Inc. Virtual reality environment boundaries using depth sensors
US10803663B2 (en) * 2017-08-02 2020-10-13 Google Llc Depth sensor aided estimation of virtual reality environment boundaries
JP7027753B2 (ja) * 2017-09-20 2022-03-02 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP6340464B1 (ja) * 2017-09-27 2018-06-06 株式会社Cygames プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
US10726765B2 (en) 2018-02-15 2020-07-28 Valve Corporation Using tracking of display device to control image display
CN111868667A (zh) * 2018-03-26 2020-10-30 索尼公司 信息处理装置、信息处理方法和程序
WO2019193251A1 (en) * 2018-04-06 2019-10-10 Nokia Technologies Oy Method and apparatus for signaling of viewing extents and viewing space for omnidirectional content
US10859831B1 (en) * 2018-05-16 2020-12-08 Facebook Technologies, Llc Systems and methods for safely operating a mobile virtual reality system
US11850514B2 (en) * 2018-09-07 2023-12-26 Vulcan Inc. Physical games enhanced by augmented reality
US10901081B2 (en) * 2018-10-02 2021-01-26 International Business Machines Corporation Virtual reality safety
CN109358754B (zh) * 2018-11-02 2023-03-24 北京盈迪曼德科技有限公司 一种混合现实头戴显示系统
US11670080B2 (en) 2018-11-26 2023-06-06 Vulcan, Inc. Techniques for enhancing awareness of personnel
US10942617B2 (en) * 2019-01-08 2021-03-09 International Business Machines Corporation Runtime adaptation of augmented reality gaming content based on context of surrounding physical environment
US11950577B2 (en) 2019-02-08 2024-04-09 Vale Group Llc Devices to assist ecosystem development and preservation
US11908055B2 (en) 2019-03-13 2024-02-20 Sony Group Corporation Information processing device, information processing method, and recording medium
US10885710B2 (en) 2019-03-14 2021-01-05 Microsoft Technology Licensing, Llc Reality-guided roaming in virtual reality
WO2020198070A1 (en) 2019-03-22 2020-10-01 Vulcan Inc. Underwater positioning system
US20200327867A1 (en) * 2019-04-15 2020-10-15 XRSpace CO., LTD. Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
US11435845B2 (en) 2019-04-23 2022-09-06 Amazon Technologies, Inc. Gesture recognition based on skeletal model vectors
JP7382620B2 (ja) * 2019-05-08 2023-11-17 サン電子株式会社 仮想体験システム及びコンピュータプログラム
US20200402294A1 (en) * 2019-06-18 2020-12-24 Tmrw Foundation Ip & Holding S. À R.L. 3d structure engine-based computation platform
US11546721B2 (en) * 2019-06-18 2023-01-03 The Calany Holding S.À.R.L. Location-based application activation
US11210856B2 (en) * 2019-08-20 2021-12-28 The Calany Holding S. À R.L. System and method for interaction-level based telemetry and tracking within digital realities
WO2021102845A1 (zh) * 2019-11-28 2021-06-03 电子科技大学 一种基于自然交互的远程家庭感知与虚拟呈现方法
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11195320B2 (en) * 2019-12-12 2021-12-07 Facebook Technologies, Llc Feed-forward collision avoidance for artificial reality environments
US11527043B2 (en) * 2020-02-10 2022-12-13 Charter Communications Operating, Llc Providing selectable virtual reality (VR) viewpoints within a VR experience
US11262588B2 (en) 2020-03-10 2022-03-01 Magic Leap, Inc. Spectator view of virtual and physical objects
EP4118629A4 (en) * 2020-03-13 2024-04-10 Harmonix Music Systems Inc VIRTUAL REALITY BOUNDARIES TECHNIQUES, AND RELATED SYSTEMS AND METHODS
US11126850B1 (en) * 2020-04-09 2021-09-21 Facebook Technologies, Llc Systems and methods for detecting objects within the boundary of a defined space while in artificial reality
US11120639B1 (en) 2020-04-24 2021-09-14 Microsoft Technology Licensing, Llc Projecting telemetry data to visualization models
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US20230214911A1 (en) * 2020-05-30 2023-07-06 Knot Standard LLC Systems and/or methods for presenting dynamic content for surveilled individuals
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11328573B1 (en) 2020-10-30 2022-05-10 Honda Research Institute Europe Gmbh Method and system for assisting a person in assessing an environment
US20220188545A1 (en) * 2020-12-10 2022-06-16 International Business Machines Corporation Augmented reality enhanced situational awareness
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11580734B1 (en) * 2021-07-26 2023-02-14 At&T Intellectual Property I, L.P. Distinguishing real from virtual objects in immersive reality
JP2023099961A (ja) * 2022-01-04 2023-07-14 株式会社Cygames プログラム、情報処理装置および情報処理方法
US20230259194A1 (en) * 2022-02-16 2023-08-17 Meta Platforms Technologies, Llc Spatial Anchor Sharing for Multiple Virtual Reality Systems in Shared Real-World Environments
JP2023157275A (ja) * 2022-04-14 2023-10-26 キヤノン株式会社 情報処理装置、情報処理システム、表示装置、情報処理方法、プログラム
WO2023233488A1 (ja) * 2022-05-30 2023-12-07 マクセル株式会社 情報処理装置および情報処理方法
WO2024043527A1 (ko) * 2022-08-25 2024-02-29 삼성전자 주식회사 가상 현실 장치를 제어하는 방법 및 이를 이용하는 가상 현실 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7398481B2 (en) * 2002-12-10 2008-07-08 Science Applications International Corporation (Saic) Virtual environment capture
US20140022283A1 (en) * 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus
US20140152558A1 (en) * 2012-11-30 2014-06-05 Tom Salter Direct hologram manipulation using imu
US20150024368A1 (en) * 2013-07-18 2015-01-22 Intelligent Decisions, Inc. Systems and methods for virtual environment conflict nullification
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
US9690367B2 (en) 2014-12-10 2017-06-27 Sixense Entertainment, Inc. System and method for assisting a user in locating physical objects while the user is in a virtual reality environment
JP2017091433A (ja) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
KR20160098788A (ko) * 2015-02-11 2016-08-19 주식회사 퓨처플레이 외부 대상과 인터렉션 하는 사용자 착용형 헤드 마운트 디스플레이
US9690374B2 (en) * 2015-04-27 2017-06-27 Google Inc. Virtual/augmented reality transition system and method
US9898864B2 (en) * 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality

Also Published As

Publication number Publication date
EP3519067A1 (en) 2019-08-07
JP2019537087A (ja) 2019-12-19
WO2018064081A1 (en) 2018-04-05
US10617956B2 (en) 2020-04-14
US20180093186A1 (en) 2018-04-05

Similar Documents

Publication Publication Date Title
JP6770178B2 (ja) Hmdユーザを現実世界空間内で安全に案内するために、仮想現実シーンにおいて対話型コンテンツを提供する方法
US11662813B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
US11389726B2 (en) Second screen virtual window into VR environment
JP7132280B2 (ja) Vr観戦のための拡大された視野再レンダリング
US10857455B2 (en) Spectator management at view locations in virtual reality environments
US11079999B2 (en) Display screen front panel of HMD for viewing by users viewing the HMD player
US10463962B2 (en) Spectator view perspectives in VR environments
EP3429714B1 (en) Spectator view tracking of virtual reality (vr) user in vr environments
US10388071B2 (en) Virtual reality (VR) cadence profile adjustments for navigating VR users in VR environments
US11826651B2 (en) Methods for providing interactive content in a virtual reality scene to guide an HMD user to safety within a real world space

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200924

R150 Certificate of patent or registration of utility model

Ref document number: 6770178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250