JP6575974B2 - ヘッドマウントディスプレイの追跡システム - Google Patents

ヘッドマウントディスプレイの追跡システム Download PDF

Info

Publication number
JP6575974B2
JP6575974B2 JP2017546784A JP2017546784A JP6575974B2 JP 6575974 B2 JP6575974 B2 JP 6575974B2 JP 2017546784 A JP2017546784 A JP 2017546784A JP 2017546784 A JP2017546784 A JP 2017546784A JP 6575974 B2 JP6575974 B2 JP 6575974B2
Authority
JP
Japan
Prior art keywords
hmd
orientation
real space
virtual reality
reality scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017546784A
Other languages
English (en)
Other versions
JP2018514017A (ja
Inventor
スタッフォード ジェフ
スタッフォード ジェフ
マリンソン ドミニク
マリンソン ドミニク
オスマン スティーブン
オスマン スティーブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2018514017A publication Critical patent/JP2018514017A/ja
Application granted granted Critical
Publication of JP6575974B2 publication Critical patent/JP6575974B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Description

本発明は、概して仮想環境に関し、より詳細には、ヘッドマウントディスプレイ(HMD)を装着及び使用する状況において仮想オブジェクトと連動する方法及びシステムに関する。
関連技術の説明
人間とコンピュータのインタラクションの分野において急速に成長する技術の1つは、様々なヘッドマウントディスプレイ(HMD)であり、ユーザの頭に装着され得ると共に、1つまたは2つのユーザの目の前に1つまたは2つのディスプレイを有する。この形式のディスプレイは、ビデオゲーム、医薬、スポーツトレーニング、及びエンターテイメント用途等を含んだ仮想現実のシミュレーションを含む複数の商用用途を有する。ゲーム分野において、これらのディスプレイは、たとえば、3次元(3D)仮想ゲーム世界をレンダリングするために使用されて良い。
HMD分野において多くの進展が生じているが、HMDにおいて提供される仮想環境においてレンダリングされた仮想オブジェクトとの現実のユーザインタラクションに対する物理的現実性を生じさせるため、技術は未だ進展を必要としている。
この点に関して以下の実施形態が提案される。
概して、ユーザが仮想環境とインタラクトする間にユーザの周りの実環境において動的にHMDを配置するシステム及び方法を提供することによってこれらの必要を本発明が満たすことが、本明細書において説明される。当然のことながら、本発明は処理として、装置、システム、コンピュータ可読媒体、またはデバイスを含む多くの方法で実現され得ることが理解される。本発明に係る複数の発明的実施形態が以下に説明される。
一実施形態は、HMDにレンダリングされて表示される複数の仮想現実シーンを含む仮想現実環境を生成可能な、コンピューティングデバイスに結合されるヘッドマウントディスプレイを含む仮想現実システムを提供する。コンピューティングデバイスは、ユーザ入力デバイスまたはHMDから入力を受信する入力デバイスインタフェースを含むことができる。入力デバイスインタフェースは、HMDにおける表示に供されるコンテンツを選択する指令を処理する。コンピューティングデバイスは、仮想現実シーンの形式でのHMDにおいて選択されたコンテンツをレンダリングする仮想現実空間生成モジュールと、HMD動作モジュールとをさらに含むことができる。実空間におけるHMDの動作を追跡し、実空間におけるHMDの第1の位置及び姿勢を識別するHMD動作モジュール、HMD動作モジュールは、実空間におけるHMDの第2の位置及び姿勢に対応する仮想現実シーンの付加的なコンテンツをレンダリングする仮想現実空間生成モジュールにHMD位置及び姿勢の変化データを提供する。
仮想現実システムは、コンピューティングデバイスに結合された実空間マッピングシステムをさらに含むことができる。実空間マッピングシステムは、実空間の少なくとも一部に亘り複数の光の点を投影する光源と、光の点の画像をキャプチャするカメラと、を含む。カメラは、HMDと統合され、またはユーザまたはコントローラのようなユーザ入力デバイスに固定され得る。HMDの第2の位置及び姿勢は、カメラによってキャプチャされた画像からの固定点を使用してHMD動作モジュールによって特定され得る。HMD動作モジュールは、カメラによってキャプチャされた画像を分析して実空間における複数の固定点を識別することが可能である。固定点は、一実施態様において光の点の少なくとも一部を含むことができる。別の実施態様において、それは実空間に存在する1つまたは複数の固定オブジェクトに配置された複数の識別点の少なくとも一部を含むことができる。
HMD位置及び姿勢の変化データの提供は、第1の位置及び姿勢におけるHMDの識別と、固定点の少なくとも2つの選択と、第1の位置及び姿勢におけるHMDによる選択された固定点の間の第1の相対距離の特定と、第2の位置及び姿勢におけるHMDの識別と、第2の位置及び姿勢におけるHMDによる選択された固定点の間の第2の相対距離の特定と、第1の相対距離及び第2の相対距離の比較による、第1の位置及び姿勢と第2の位置及び姿勢との間の差に等しいHMD位置及び姿勢の変化データの特定と、を含むことができる。
仮想現実空間生成モジュールは、仮想現実シーンのレンダリングの間にHMDが動かされる少なくとも1つの位置及び姿勢によってHMDに対する付加的なコンテンツを連続的に生成することができる。カメラによってキャプチャされる画像または複数の画像の分析を使用して実空間におけるHMDの位置を検出し、実空間におけるHMDの位置は、仮想現実シーンにおけるHMDの位置へと変換され、HMDを使用して、ユーザ入力デバイスと仮想現実シーンにおける仮想オブジェクトとの間のインタラクションを識別する。
光源は、実空間における不動の、固定位置であり得るものであり、あるいは、光源は、HMDまたはユーザ入力デバイスに取り付けられたように可動であり得るものであり、または、その他、ユーザがHMDに表示された仮想シーンとインタラクトするときにユーザによって可動であり得る。光源は、人間に可視である光のスペクトルの、または紫外線もしくは赤外線のような人間以外に可視である光のスペクトルの光の点を投影できる。
別の実施形態は、仮想現実シーンのレンダリングに使用されるヘッドマウントディスプレイ(HMD)を追跡する方法であってHMDが仮想現実シーンをレンダリングする表示スクリーンを含む方法を提供する。方法は、HMDの外部表面において統合された少なくとも1つのデバイスを使用して、HMDが配置された実空間をキャプチャする画像データをキャプチャすることを含む。画像データは、実空間において表面上に投影された少なくとも2つの光の点を識別するように処理される。キャプチャされた画像データにおける少なくとも2つの光の点の位置の変化を識別するように収集すること及び処理することを継続する。位置の変化が実空間におけるHMDによる位置及び姿勢の変化を識別する。位置及び姿勢の変化は、HMDの表示スクリーンにおいてレンダリングされる仮想現実シーンに対するレンダリング調整を自動的に制御するように構成され、調整は、仮想現実シーンの視点の変化及び仮想現実シーンに対する付加的なコンテンツのレンダリングの一方または両方を含む。画像データのキャプチャを継続することは、HMDの追跡が生じている間に継続するフレームレートで実行される。
画像データをキャプチャする、HMDの外部表面において統合される少なくとも1つのデバイスは、光の3原色(RGB)カメラ、赤外線(IR)カメラ、ビデオカメラ、または位置検知デバイス(PSD)の1つであり得る。少なくとも1つのデバイスは、カメラであり得るものであり、外部表面は、HMDのハウジングの部分またはHMDのストラップであり得る。HMDにおける慣性センサからの慣性データを実空間における位置及び姿勢の変化の間に使用することもでき、レンダリング調整を自動的に制御するときに使用可能な付加的な追跡変数を提供するように慣性データがHMDにおいて生成される。
別の実施態様は、ヘッドマウントディスプレイ(HMD)を含む。HMDは、仮想現実シーンと関連付けられた画像を表示するスクリーンを含むハウジングを含む。検知デバイスは、ハウジングの外部表面に統合される。検知デバイスによってキャプチャされた画像データのキャプチャを制御するプロセッサも含まれる。画像データは、実空間の表面において放出器によって投影されることが検出された少なくとも2つの光の点または実空間における少なくとも2つの固定点と共にHMDが配置された実空間をキャプチャする。プロセッサは、実空間におけるHMDの位置追跡の間に画像データをコンピューティングデバイスに連続的に送るように構成されている。プロセッサは、画像データにおける少なくとも2つの固定点の少なくとも2つの光の点の位置の変化に基づいてHMDの位置及び姿勢の変化を識別するように構成されている。プロセッサは、識別された位置及び姿勢の変化に基づいてスクリーンにおいてレンダリングされる仮想現実シーンに対するコンテンツを受信することもできる。位置及び姿勢の変化は、仮想現実シーンの視点及び仮想現実シーンに対する付加的なコンテンツのレンダリングの一方または両方に自動調整を生じさせる。
本発明に係る他の態様及び利点は、例示により本発明に係る原理を示す添付の図面と共に以下の詳細な説明から明らかとなる。
本発明は、添付の図面と共に以下の詳細な説明によって容易に理解される。
開示された実施形態によるビデオゲームのインタラクティブなゲームプレイのためのシステムを示す。 開示された実施形態によるHMDを示す。 ユーザのHMDに対してビデオゲームコンテンツをレンダリング可能なクライアントシステムを使用するゲームプレイの一例を示す。 開示された実施形態による、使用中にHMDを装着するユーザを示す。 開示された実施形態による、インサイドアウト追跡処理における使用中にHMDを装着するユーザを示す。 開示された実施形態による、ユーザがHMDを使用する実空間の部屋を示す。 開示された実施形態による、ユーザがHMDを使用する実空間の部屋を示す。 開示された実施形態による、HMDの位置を特定するために使用される2つの異なる位置及びベクトルにおけるHMDの概略図である。 開示された実施形態による、HMDの動作及び位置及び姿勢を追跡するためのシステムの簡易化された概略図である。 開示された実施形態による、コンテンツソースの簡易化された概略図である。 開示された実施形態による、HMDの追跡動作において実行される方法動作を示すフローチャート図である。 開示された実施形態による、HMDの追跡動作において実行される方法動作を示すより詳細なフローチャート図である。 開示された実施形態による、ヘッドマウントディスプレイの例示的構成要素を示す概略図である。 情報サービスプロバイダアーキテクチャの実施形態を示す。
ユーザが仮想環境とインタラクトする間にHMDをユーザの周りの実環境において動的に配置するためのいくつかの例示的実施形態がここで説明される。本発明は本明細書において説明されるいくつかのまたは全ての特定な詳細を省いて実施されて良いことが当業者に明らかとなる。
ユーザが仮想環境とインタラクトする間にユーザの周りの実環境において複数のオブジェクトを配置するための1つの方法は、ユーザの周りの様々なオブジェクトに複数のスポット光を投影することである。複数のスポット光は、ユーザの周りの実環境の1つまたは複数の写真及び/またはビデオ視野と結合され得る。コンピュータは、オブジェクト及び実環境におけるユーザを追跡するための基準点として、ユーザの周りの実環境の写真及び/またはビデオ視野との組み合わせにおいて光スポットを使用することができる。光スポットは、1つまたは複数の光源から投影され得る。光源(複数可)は、ヘッドマウントディスプレイ(HMD)、コンピュータ、またはカメラまたは専用の光源のようなコンピュータに結合された別の周辺機器において配置され得る。光スポットは、手動でまたは自動で実環境におけるオブジェクトを追跡するために選択され得る。選択される光スポットの数は、手動でまたは自動で決定され得る。選択される光スポットの数の増加は、実環境におけるオブジェクトの配置の精度を向上させることができる。光源は、1つまたは複数のレーザーを含むことができる。レーザーの使用の1つの利点は、投影される表面に対する焦点距離の決定またはその他取得が、必要とされ得ないことである。
図1は、開示された実施形態による、ビデオゲームのインタラクティブなゲームプレイのためのシステムを示す。ユーザ100は、ヘッドマウントディスプレイ(HMD)102を装着して示される。HMD102は、眼鏡、ゴーグル、またはヘルメットと類似した方法で装着され、ビデオゲームまたは他のコンテンツをユーザ100に表示するように構成される。HMD102は、ユーザの目の近傍の表示メカニズム(たとえば、光学機器及び表示スクリーン)及びHMDに伝達されるコンテンツの形式のその構成によって没入体験をユーザに提供するように構成される。一実例において、HMD102は、ユーザのそれぞれの目に、ユーザの視野の大部分または全体さえ占める表示領域を提供して良い。HMD表示スクリーンは、毎秒およそ30からおよそ500フレーム(Hz)のリフレッシュレートを有することができる。一実施態様において、HMD表示スクリーンは、およそ60またはおよそ120Hzの選択可能なリフレッシュレートを有することができる。
一実施形態において、HMD102はコンピュータ106に接続されて良い。コンピュータ106への接続122は、有線または無線であって良い。コンピュータ106は、限定されるものではないが、ゲームコンソール、パーソナルコンピュータ、ノートパソコン、タブレットコンピュータ、モバイルデバイス、携帯電話、タブレット、シンクライアント、セットトップボックス、メディアストリーム配信デバイス等を含む任意の汎用または特定用途のコンピュータであって良い。実施形態によっては、HMD102は、インターネットのようなネットワーク110に直接接続して良く、分離したローカルコンピュータを要さずにクラウドゲームを可能として良い。一実施形態において、コンピュータ106は、ゲーム(及び他のデジタルコンテンツ)を実行し、HMD102によるレンダリングのためにビデオゲームから映像及び音声を出力するように構成されて良い。コンピュータ106は、本明細書においてクライアントシステム106とも称され、これは1つの実例においてビデオゲームコンソールである。
コンピュータ106は、実施形態によってはローカルのまたは遠隔のコンピュータであって良く、コンピュータは、エミュレーションソフトウェアを実行しても良い。クラウドゲームの実施形態において、コンピュータ106は遠隔にあり、データセンタにおいて仮想化され得る複数のコンピューティングサービスによって提供されて良く、ゲームシステム/ロジックは、ネットワーク110上のユーザに仮想化及び分散されて良い。
ユーザ100は、ビデオゲームのための入力を提供するためにコントローラ104を操作して良い。1つの実例において、カメラ108は、ユーザ100が配置されたインタラクティブな環境の画像をキャプチャするように構成されて良い。これらのキャプチャされた画像は、ユーザ100、HMD102、及びコントローラ104の位置及び動作を決定するために分析されて良い。一実施形態において、コントローラ104は、光であってその位置/配置及び姿勢を特定するために追跡され得る光(または複数の光)を含む。さらに、以下により詳細に説明されるように、HMD102は、ゲームプレイの間実質的にリアルタイムにHMD102の位置及び姿勢を特定するために、マーカーとして追跡され得る1つまたは複数の光200A〜Kを含んで良い。
カメラ108は、インタラクティブな環境から音声をキャプチャするために1つまたは複数のマイクを含んで良い。マイク配列によってキャプチャされる音声は、音源の配置を識別するために処理されて良い。識別された位置からの音声は、識別された位置からではない他の音声を除外するために選択的に使用されまたは処理されて良い。さらに、カメラ108は、複数の画像キャプチャデバイス(たとえば、カメラの立体ペア)、IRカメラ、デプスカメラ、及びそれらの組み合わせを含むように定義されて良い。
実施形態によっては、コンピュータ106は、コンピュータ106の処理ハードウェアにおいてローカルでゲームを実行して良い。ゲームまたはコンテンツは、物理的媒体形式(たとえば、デジタルディスク、テープ、カード、サムドライブ、ソリッドステートチップまたはカード等)のような任意の形式で、またはネットワーク110を介したインターネットからのダウンロードによって得られて良い。別の実施形態において、コンピュータ106は、クラウドゲームプロバイダ112とのネットワーク上の通信におけるクライアントとして機能する。クラウドゲームプロバイダ112は、ユーザ100によってプレイされるビデオゲームを管理し、実行して良い。コンピュータ106は、HMD102、コントローラ104及びカメラ108からクラウドゲームプロバイダ112へと入力を送信し、当該クラウドゲームプロバイダは、実行するビデオゲームのゲーム状態に影響を与えるように入力を処理する。映像データ、音声データ、及び触覚フィードバックデータのような実行するビデオゲームからの出力は、コンピュータ106へと送信される。コンピュータ106は、送信前にデータをさらに処理して良く、または関連するデバイスにデータを直接送信しても良い。たとえば、映像及び音声ストリームは、HMD102に提供されるが、振動フィードバック命令はコントローラ104または、例えば手袋、服、HMD102といった他の入力デバイス、またはそれらの2つまたはそれ以上の組み合わせに提供される。
一実施形態において、HMD102、コントローラ104、及びカメラ108は、それら自体クラウドゲームプロバイダ112と通信するためにネットワーク110に接続するネットワーク化されたデバイスである。たとえば、コンピュータ106は、ビデオゲーム処理を実行し得ないがネットワークトラフィックの通路を容易にするルーターのようなローカルネットワークデバイスであって良い。HMD102、コントローラ104、及びカメラ108によるネットワークへの接続124は、有線または無線であって良い。実施形態によっては、HMD102において実行されるまたはディスプレイ107において表示可能なコンテンツは、任意のコンテンツソース120から得られて良い。例示的なコンテンツソースは、たとえば、ダウンロード可能なコンテンツ及び/またはストリーム配信コンテンツを提供するインターネットウェブサイトを含んで良い。実施形態によっては、コンテンツは、映画、ゲーム、静的/動的コンテンツ、写真、ソーシャルメディアコンテンツ、ソーシャルメディアウェブサイト等のような任意の形式のマルチメディアコンテンツを含んで良い。
以下により詳細に説明されるように、ユーザ100は、HMD102においてゲームをプレイして良く、こうしたコンテンツは、没入型3Dインタラクティブコンテンツである。HMD102におけるコンテンツは、プレイヤがプレイする間、ディスプレイ107に共有されて良い。一実施形態において、ディスプレイ107に共有されるコンテンツは、ユーザ100近傍のまたは遠隔の他のユーザがユーザのプレイと共に見るのを可能として良い。さらに別の実施形態において、ディスプレイ107においてユーザ100のゲームプレイを見ている別のユーザは、プレイヤ100とインタラクティブに参加して良い。たとえば、ディスプレイ107においてゲームプレイを見ているユーザは、ゲームシーンにおいてキャラクタを制御して良く、フィードバックを提供して良く、ソーシャルインタラクションを提供して良く、及び/またはコメント(テキストにより、音声により、動作により、ジェスチャにより、等)を提供して良く、これは、HMD102を装着していないユーザが、ユーザ100、ゲームプレイ、または、HMD102においてレンダリングされたコンテンツと、ソーシャルインタラクションを行うことを可能とする。
図2は、開示された実施形態による、HMD102を示す。示されるように、HMD102は、複数の光200A〜Kを含む(たとえば、200K及び200JはHMDヘッドバンド210の後部または後方側に向かって配置される)。これらの光のそれぞれは、特定の形状及び/または位置を有するように構成されて良く、同じまたは異なる色を有するように構成されても良い。光200A、200B、200C及び200Dは、HMD102の前面において配置される。光200E及び200FはHMD102の側面に配置される。さらに光200G及び200HはHMD102の前面及び側面を広げるためにHMD102の角部に配置される。光は、ユーザがHMD102を使用するインタラクティブな環境のキャプチャされた画像において識別されて良いことに留意されたい。
光の識別及び追跡に基づき、インタラクティブな環境におけるHMD102の位置及び姿勢が特定されて良い。さらに画像キャプチャデバイスに対するHMD102の特定の位置及び姿勢によって光200A〜Kの中に可視または不可視のものがあって良いことに留意されたい。さらに、光の異なる部分(たとえば、光200G及び200H)は、画像キャプチャデバイスに対するHMD102の位置及び姿勢によって画像キャプチャのために露出されて良い。実施形態によっては、慣性センサがHMD102内に配置されて良く、当該慣性センサは光200A〜Kを必要とせずに方向に関するフィードバックを提供する。実施形態によっては、光及び慣性センサは、位置/運動データの合成及び選択を可能とするように協働する。
一実施形態において、光は、HMD102の現在の状態を近傍の他のものに対して示すように構成されて良い。たとえば、光200A〜Kの一部または全ては、特定の配色、輝度配分を有するように構成されて良く、点滅し、特定のオン/オフ構成、またはHMD102の現在の状態を示す他の構成を有するように構成されて良い。例示により、光200A〜Kは、ビデオゲームのアクティブなゲームプレイの間(概してゲームのアクティブタイムラインの間またはシーン内においてゲームプレイが生じる)、案内メニューインタフェースまたはゲーム設定の調整(この間、ゲームタイムラインまたはシーンは非アクティブになり、または静止され得る)のようなビデオゲームの他の非アクティブゲームプレイの態様に対し、異なる構成を表示するように構成されて良い。光200A〜Kは、ゲームプレイの相対的輝度レベルを示すように構成されても良い。たとえば、光200A〜Kの輝度または点滅速度は、ゲームプレイの白熱度が増加するときに増加して良い。
HMD102は、付加的に1つまたは複数のマイクを含んで良い。図示された実施形態において、HMD102は、HMD102の前面において画定されるマイク204A及び204B、及びHMD102の側面において画定されるマイク204Cを含む。マイク204A〜Cの配列を利用することによって、それぞれのマイクからの音声が音声源の配置を特定するように処理されて良い。この情報は、望まない音声源の除去、視覚的な識別との音声源の関連付け等を含む様々な方法で利用されて良い。
HMD102は、1つまたは複数の画像キャプチャデバイスを含んでも良い。図示された実施形態において、HMD102は画像キャプチャデバイス202A及び202Bを含むように示される。画像キャプチャデバイスの立体ペアを利用することによって、環境の3次元(3D)画像及び映像がHMD102の視点からキャプチャされて良い。こうした映像は、HMD102を装着している間ユーザに「映像透視」機能を提供するためにユーザに示されて良い。すなわち、ユーザは厳密な意味においてHMD102を透視することはできないが、それでも画像キャプチャデバイス202A及び202Bによってキャプチャされた映像が、HMD102を透視しているかのようにHMD102の外部の環境を見ることができるのと同等の機能を提供して良い。
こうした映像は、拡張現実体験を提供する仮想的要素を用いて拡張されて良く、または他の方法で仮想的要素と結合または融合されて良い。図示された実施形態において、HMD102の前面における2つのカメラが示されたが、任意の数の外部に面するカメラまたは単一のカメラがHMD102に搭載され、任意の方向に向けられても良いことに留意されたい。たとえば、別の実施形態において、環境の付加的なパノラマ画像キャプチャを提供するために、HMD102の側部に取り付けられたカメラが存在して良い。一実施形態において、前部に面するカメラ(RCG、及び/またはデプスカメラ)が、ユーザの手または手袋の位置及び姿勢及び運動を追跡するために使用されて良い。以下により詳細に説明されるように、前部に面するカメラによってキャプチャされた画像データからの情報は、仮想オブジェクトとインタラクトするときに、より精細な解像度、あるいは改良された触覚フィードバックをユーザに提供するために使用され得る。
図3は、ビデオゲームコンテンツをユーザ100のHMD102にレンダリングすることのできるクライアントシステム106を使用するゲームプレイの1つの実例を示す。この図において、HMD102に提供されるゲームコンテンツは、高度のインタラクティブな3D空間である。上述のように、ゲームコンテンツは、クライアントシステム106にダウンロードされて良く、または一実施形態においてクラウド処理システムによって実行されて良い。クラウドゲームサービス112は、ユーザ140のデータベースを含んで良く、当該ユーザは特定のゲームにアクセスし、他の友人と体験を共有し、コメントを投稿し、ユーザのアカウント情報を管理することを可能とする。
クラウドゲームサービス112は、特定のユーザのためにゲームデータ150を保存しても良く、これはゲームプレイの間、将来のゲーム、ソーシャルメディアネットワークへの共有、または賞品、賞、ステータス、ランキング等を保存するために使用可能であって良い。ソーシャルデータ160は、クラウドゲームサービス112によって管理されても良い。ソーシャルデータ160は、分離したソーシャルメディアネットワークによって管理されて良く、これはインターネット110上のクラウドゲームサービス112とインタフェース接続されて良い。インターネット110上で、任意の数のクライアントシステム106がコンテンツ及び他のユーザとのインタラクションのためのアクセスのために接続されて良い。
引き続き図3の実例において、HMD102において視認される3次元のインタラクティブなシーンは、3D視界で示されたキャラクタのようなゲームプレイを含んで良い。1つのキャラクタ、たとえばP1は、HMD102を装着しているユーザ100によって制御されて良い。この実例は、2人のプレイヤ間のバスケットボールのシーンを示し、HMDユーザ100は、3D視界の別のキャラクタ上でボールをダンクしている。当該別のキャラクタは、ゲームのAI(人工知能)のキャラクタであって良く、別の1人または複数人のユーザ(Pn)によって制御されて良い。HMD102を装着しているユーザ100は、使用空間において動きまわって示され、HMDは、ユーザの頭の動き及び体の位置に基づいて動きまわり得る。カメラ108は、部屋の表示スクリーン上に配置されて示されるが、HMD102の使用において、カメラ108はHMD102の画像をキャプチャし得る任意の位置に配置されても良い。このように、ユーザ100は、カメラ108及びディスプレイ107からおよそ90度回転されて示され、HMD102においてレンダリングされるコンテンツは、カメラ108の視点からHMD102が配置された方向に依存して良い。当然のことながら、HMD102の使用中、ユーザ100は、HMDによってレンダリングされた動的な仮想シーンを利用するのに必要とされ得るとおりに動きまわり、彼の頭を回転させ、様々な方向を見る。
図4は、開示された実施形態による、使用中にHMD102を装着すユーザを示す。この実例において、カメラ108がHMD102配置を追跡する追跡処理における外側を使用してHMD102が追跡される402ことが示される。カメラ108は、カメラ108によってキャプチャされた映像フレームから得られる画像データを使用してHMD102の配置を追跡する。他の実施形態において、追跡は、さらに、または代替的に、HMD自体からの慣性データを利用できる。様々な実施形態において、ユーザの頭/HMDの追跡は画像追跡及び慣性追跡から得られる融合されたデータを含むことができる。さらに、カメラ108によってキャプチャされた映像フレームから得られる画像データを使用してコントローラが追跡されて良い404ことが示される。さらに示されるのは、HMD102がケーブル406を介してコンピューティングシステム106に接続される構成である。一実施形態において、HMD102は、同じケーブルから電力を得、または別のケーブルに接続しても良い。さらに別の実施形態において、HMD102は、余分な電力コードを不要とするように、再充電可能なバッテリーを有して良い。さらに別の実施形態において、ユーザの手は、グローブにより、またはグローブなしで追跡され得る。
図5は、開示された実施形態による、インサイドアウト追跡処理における使用中にHMD102を装着するユーザを示す。インサイドアウト追跡処理において、HMD102の配置は、HMD102の1つまたは複数のカメラ202A、202Bによってキャプチャされた映像フレームから得られた画像データを使用して追跡される。
HMD102の正確な追跡動作は、ユーザが仮想環境とインタラクトしながらユーザが動き、回転しまたはHMDを一方向または別の方向に傾けるときにユーザが実質的にシームレスな方法で、仮想環境における仮想シーンの間の移行を体験するように、コンピュータ106がHMDに対する好適な付加的仮想環境を予測し、レンダリングするのを可能とする。HMD102の動作が正確に検出されず、または十分に速い場合、レンダリングされた仮想環境は、ユーザにとって遅延して、不明確に、ぎこちなく、またはその他一貫性なく感じられ得る。
一実施形態において、コンピュータ106は、ユーザの周りの全ての方向における全ての仮想環境をレンダリングし得る。しかしながら、全ての方向における仮想環境全体のレンダリングは、相当なコンピューティングパワー及びメモリ資源を要求する。実施形態によっては、全ての方向における完全な空間360度があらかじめレンダリングされる。しかしながら、全ての方向における動的なコンテンツ、またはシーンに出入りする付加的なコンテンツは、リアルタイムの計算を必要とし得る。実施形態によっては、ユーザが全ての方向における仮想環境を視認できるように、仮想環境があらかじめレンダリングされる。しかしながら、コンテンツによっては、他の動くキャラクタ、オブジェクト、動くアイコン、テキストまたは、場所から場所へと、または部屋から部屋へとユーザが動くときのような仮想環境の拡張部のように、動的に付加されることを必要とし得る。他の実施形態において、仮想環境を可能な限り少なくしつつも、ユーザが仮想環境を通して回転し、動くときにユーザに対してシームレスな体験を呈するようにレンダリングされなければならない十分な仮想環境をコンピュータ106がレンダリングすることがより効率的且つ迅速であり得る。このレンダリングは、ユーザが視認する場所に基づくリアルタイムレンダリングであり得る。HMD102の動作の正確な検出は、コンピュータ106に、付加的な仮想環境を決定し、付加的な仮想環境をレンダリングし、ユーザが動き、または回転するときにHMDにおいてユーザの手の動作に対応する仮想環境を見ることができるように、付加的な環境を提供することを可能とする。
上述のように、HMD102の配置及び動作は、固定されたカメラ108からの画像データ、HMDにおけるカメラ202A、202Bからの画像データ、及びHMDに含まれる1つまたは複数の慣性センサ224及びこれらの組み合わせを使用してコンピュータ106によって追跡され得る。HMD102の動作、位置及び姿勢の正確な特定は、コンピュータ106が、仮想環境のそれらの付加的な部分を見るユーザの動作及び回転に対応し、必要に応じて付加的な仮想環境を正確に予測し、レンダリングするのを可能とする。実施形態によっては、付加的なコンテンツは、ユーザが予測された方向に彼の頭を回転させる予測された見通しによりレンダリングされ、バッファされ得る。
図6は、開示された実施形態による、ユーザがHMD102を使用する実空間の部屋を示す。1つまたは複数の固定された放出器608は、実空間の部屋の壁602、604、床606、天井(図示せず)及び家具504〜510及び窓512、514、ドア516、テレビ502等のような他の特徴部に複数の固定点を投影できる光源であり得る。固定点は、投影されたグリッド609の選択された交差部であり得る。放出器は、可視及び不可視な(たとえば、赤外線、紫外線)スペクトルレーザーを放出可能なレーザー放出器であり得る。実施形態によっては、放出器は人の目を傷つけるのを避けるためにフィルタを有することができる。これに代えて、固定点は、投影された点、形状、象徴、バーコード及びクイックリアクションコードのようなコードであり得る。複数の放出器が複数の光出力を生成するように同期され得る。複数の光出力のそれぞれは、変調され、あるいは独自に符号化され得る。例として、複数の光出力のそれぞれは、時間及び周波数領域において変調され得るものであり、これは、それぞれの投影された点が独自に符号化されるのを可能とし得る。一実施形態において、放出器は、2つまたはそれ以上の放出器を含むことができ、HMDが動く実空間を覆うようにレーザー光を放出可能である。HMD及びまたはストラップにおけるセンサは、実空間の部屋における1つまたは複数の表面から反射された放出器からの光をキャプチャし、反射された光を受信するように起動されまたは検出されるセンサが実空間におけるHMDの位置、姿勢及び動作を計算するために使用される。
カメラ108は、グリッドパターンにおける固定点を認識し、交差点またはグリッドパターン内の他の特定の点を識別することができる。当然のことながら、光源608が人間に可視なスペクトルまたはマイクロ波、紫外線、赤外線または電磁スペクトルの他の部分のような人間に不可視な部分で、グリッドパターン609を投影できることに留意されたい。
グリッドパターンは、HMD102の使用中連続的に投影され得る。なお、グリッドパターン609は、HMD102の使用の開始において及び/またはHMDの使用中間欠的に生じ得る位置及び姿勢または較正処理の間等にコンピュータ106が実空間の部屋をマッピングするのを可能とするように、一時的または周期的に投影され得る。
別の実施態様において、複数の点のそれぞれが一期間に投影され得る、複数の時系列の光投影。例として、複数の点の第1のものは、第1の期間に投影され得るものであり、次いで複数の点の第2のものは、第2の期間に投影され得るものであり、同様に複数の点の次のものは、対応する時間に投影される。同様に、複数の点の第1のサブセットは、第1の期間に投影され得るものであり、次いで複数の点の第2のサブセットは、第2の期間に投影され得る。サブセットは、分離し、個別であり得るものであり、あるいは1つまたは複数のサブセットにおいて共有される投影された点と重なっても良い。さらに別の実施態様において、複数の点のそれぞれの投影は、時間多重されたオン/オフシーケンスで符号化され得る。オン/オフ照明のこれらの変化は、投影された点から反射された光をキャプチャするのに使用されるセンサの形式に応じた高周波(kHzまたはそれ以上)で生じ得る。
当然のことながら、グリッドパターン609は、それぞれのグリッド線の間の選択された距離を有する矩形グリットとして示される。矩形グリッドパターンは、単に例示的なものであり、三角形、または多角形、または台形、または他の形状または球状パターン及びこれらの組み合わせのような任意の適したパターンがグリッド609に使用され得る。実空間の部屋における投影された点は、定期的に、周期的に離間されることを要求されず、知られたまたはコンピュータ106によって決定され得る不規則な間隔で不規則に離間され得るものである。
グリッドパターン609は、コンピュータ106が、HMDが動かされるとき、及びHMDの位置及び姿勢が変化するときにグリッドパターンにおいて選択された固定点A〜Hから反射された対応する角度の光を比較することによって、HMDの正確なまたはおよその位置及び姿勢または動作を決定するように、固定されたカメラ108、HMD102における、カメラ202A、202B、及び/またはPSDのような他のセンサからの画像データを分析するのを可能とする。
一実施形態において、コンピュータ106は、実空間の部屋における、1つまたは複数の窓512、514の角部A’〜E’、または一組の家具504〜510の線の交差部または固定オブジェクト502、516における他の選択された物理的線のような実空間の部屋の物理的オブジェクトにおける選択された物理的点A’〜H’の相対位置を決定するために、固定されたカメラ108、及びカメラ202A、202B及びHMD102及び/またはHMDのストラップ210に取り付けられ得るフォトダイオード及びフォトセンサのような他のセンサからの画像データを使用することができる。計算された点A’〜H’は、HMD102の正確な位置及び姿勢または動作を決定するために使用され得る。
図7Aは、開示された実施形態による、ユーザがHMD102を使用する実空間の部屋を示す。図7Bは、開示された実施形態による、2つの異なる位置におけるHMD102の概略図であり、HMDの配置を特定するためにベクトルが使用される。HMD102に取り付けられた1つまたは複数のカメラ202A、202bは、ステレオカメラであり得るが、類似する技術が複数のPSDセンサに使用され得る。ステレオカメラ202A、202Bは、中心視野ベクトルCVが通過する光学的中心を含み得る。中心視野ベクトルCVは、較正及びピクセル及び角偏向の間の関係によって決定され得る。
ステレオカメラ202A、202Bは、立体視を用いる点Kのような選択された光スポットまでの距離(たとえば、長さAK)を決定し得る。中心ベクトルCVに対するピクセル位置は、立体視によって計測される、長さAK及びAFのような、カメラと選択された点との間の距離を付加し、基準フレームに対する点位置を提供する。
時刻t1において、HMD102は第1の配置/方向Aにある。点K及びFのような少なくとも2つのラベル付与された光の点は、ステレオカメラ202A、202Bの視界にある。2つの点K及びFの間の中心視野ベクトルCVt1は、時刻t1においてカメラの基準フレームにおいて決定され得る。
時刻t2において、HMD102は新たな配置/方向Bに動かされる。同じ2つの選択された光の点K及びFは、配置/方向Bからのステレオカメラ202A、202Bの視界にある。光の点K及びFの間の中心視野ベクトルCVt2は、時刻t2においてカメラの基準フレームにおいて決定され得る。
時刻t1において、HMD102は、配置/方向Aであり、主軸としてのカメラの中心視野ベクトルCVt1である。選択された点Kの位置は、距離AK×(ピクセル角度θ1のsin/cos)によって与えられる。
配置/方向Aは、配置/方向Aに対して配置/方向Bを特定するための原点として指定され得る。
中心視野ベクトルCVt1及びCVt2は、点Qにおいて交差する。中心視野ベクトルCVt1とCVt2との間のHMD102の角度方向変化αが決定され得る。角度方向変化αは、角度θ1、θ2、ω1、ω2及びαを使用して点K及びFの以下の三角法の関係を用いて決定され得る。
Bx=(AKsinθ1)/BK(sinα*cosω1+cosα*sinω1)
By=(AKcosθ1)/BK(cosα*cosω1-sinα*sinω1)
ここでAKは時刻t1及び点Kの位置/方向AにおけるHMD102の間の長さである。BKは時間t2及び点Kの位置/方向BにおけるHMD102の間の長さである。BxはX座標であり、ByはY座標であり、それぞれ時間t1の位置/方向Aに対する時間t2の位置/方向BにおけるHMD102のX座標、Y座標である。
上述の計算は、配置/方向Bに対する位置/方向AにおけるHMDの配置/方向を決定するためにさらに適用され得る。両方の計算は、HMDのより正確な配置/方向を提供し得る。
別の実施態様において、2より多い点が選択され得る。例として、点K、F及びLは、位置/方向A及びB並びにそれぞれの時間t1及びt2から分析され得る。3より多い点も選択され得る。選択される点の数は、選択可能な点の数及び対応する計算を実行するのに要する処理時間によってのみ制限される。2より多い点の使用は、HMDの配置/方向の決定の精度を向上することもできる。HMDの配置/方向は、計算にさらなる精度を付加するために加速度計データを使用することもできる。
一実施態様において、点を独自に識別するために時系列の符号化が使用され得る。上述の技術は、順次的に選択される点の時間差を支持するように変更され得る。上述の処理を使用すると、光の点のような特徴のモデルが経時的に形成され、次いでセンサ202A、Bが検出可能なそれぞれのフレームに対して、アルゴリズムは、以前の計測及び計算からのもっともらしい変化に基づいてモデルに対する最適マッチングを試行する。
図8は、開示された実施形態による、HMD102の動作、位置及び姿勢を追跡するシステム850の簡易化された概略図である。システム850は、クラウドネットワーク110及びクラウドゲームプロバイダ112及びコンテンツソース120に結合されたゲームコンソール106を含む。さらにゲームコンソール106は、ヘッドマウントディスプレイ102、ユーザ入力デバイス812(たとえば、手袋、コントローラ、動作コントローラ、慣性センサ、光コントローラ、磁性コントローラ等)のような他の周辺機器に結合される。
ゲームコンソール106は、コンテンツ選択モジュール816、入力デバイスインタフェース814、VR空間生成モジュール818及びHMD動作モジュール820を含む。コンテンツ選択モジュール816は、コンテンツインタフェース817及び仮想現実コンテンツ選択モジュール810を含む。
動作中、コンテンツインタフェース817は、仮想現実コンテンツを様々なコンテンツソース120から受信する。コンテンツ選択モジュール810は、入力デバイスインタフェース814及びHMD動作モジュール820を通して様々な入力デバイスから受信された入力によって、仮想現実コンテンツの適した部分をコンテンツインタフェース817から選択する。例として、ユーザがHMDを左の方向に回転させるとき、HMD動作モジュール820はHMDにおける1つまたは複数のセンサから、及び/またはHMDの外部にHMDに向かって取り付けられた、左を向くHMDの動作を検出するカメラから入力を受信し、VRコンテンツ選択モジュール810に左回転データを提供する。VRコンテンツ選択モジュール810は、コンテンツインタフェース817において対応するVRコンテンツを選択する。コンテンツインタフェース817は、選択されたVRコンテンツをVR空間生成モジュール818に出力する。VR空間生成モジュール818は、上の図8Aで示されるようなHMD102に示される仮想環境または空間を生成する。
図9は、開示された実施形態による、コンテンツソース120の簡易化された概略図である。コンテンツソース120は、VRコンテンツライブラリ920を含む複数のモジュールを含む。複数のコンテンツ空間922A〜nは、VRコンテンツライブラリ920内に含まれる。VRコンテンツ926は、HMD102において表示される仮想空間を画定するためにVRコンテンツ選択モジュール810によって必要とされるデータを提供する。オブジェクト空間マッピングモジュール828は、仮想空間に表示される様々な仮想オブジェクトの配置を画定する。
オブジェクト3D空間構成モジュール930は、表示されたオブジェクトの3D特徴を提供する。これらの3D特徴は、表示されるオブジェクトの重さ、形状、テクスチャ及び色含むことができる。
オブジェクト音声プロフィール932は、表示される仮想オブジェクト及び仮想空間に対応する音声を提供する。たとえば、風が木の葉を擦れさせる音声、遠隔の雷、及び動物の音声がHMDに表示される仮想空間において存在する。オブジェクト物理プロフィール934は、仮想空間において表示される様々なオブジェクトの物理的動作及びテクスチャ特性を提供する。オブジェクトの動作、テクスチャ、音声、位置及び姿勢及び配置のそれぞれは、仮想空間内で再生され、HMD102において表示されるVR空間におけるオブジェクトを生成するためにVRコンテンツ選択モジュール810及びVR空間生成モジュールによって使用される。
図10は、開示された実施形態による、HMD102の追跡動作において実行される方法動作1000を示すフローチャート図である。動作1005において、HMD102を通して仮想空間をユーザに提供する。仮想空間内に存在する様々な仮想オブジェクトも、ユーザに表示される。動作1010において、HMDを実空間において動かす。例として、ユーザは、左または右にHMDを回転させることができる。
動作1015において、ゲームコンソール106は、HMDの動作に対応する付加的な仮想環境を提供する。これは、ユーザが仮想環境内で回転及び動くときにユーザに対して仮想環境が提供されたときにユーザに滑らかなスキャン感覚を提供する。一実施形態において、ユーザにとっての知覚は、まるで彼の周りの仮想空間が完全にレンダリングされたかのようである。
図11は、開示された実施形態による、HMD102の追跡動作において実行される方法動作1100を示すより詳細なフローチャート図である。動作1105において、実空間をマッピングする。実空間は、部屋、またはHMD102が使用される他の空間である。実空間は、図6A及び6Bにおいて説明されるような実空間の表面における複数の固定点を識別することによってマッピングされる。
動作1110において、HMDの最初の位置及び姿勢を特定する。HMDの最初の位置及び姿勢は、実空間において選択された固定点に対して決定される。HMDの最初の位置及び姿勢は、動作1115においてゲームコンソール106に提供される。HMDの最初の位置及び姿勢は、取り付けられたカメラまたは慣性センサ、またはHMDに取り付けられた光検出器及びフォトダイオードのような他のセンサによってキャプチャされた1つまたは複数の画像を含む。
動作1120において、仮想環境をユーザに提供する。仮想環境は、HMD102を通して示されて良い。HMD102を通して示される仮想環境は、HMDの最初の位置及び姿勢に対応する。
動作1125において、HMD102を、実空間においてユーザの回転または傾きまたは前方ステップもしくは後方ステップのように実空間に対して動かす。動作1130において、HMDの動作を検出する。HMDの動作は、HMDが動かされるときの1つまたは複数の画像のキャプチャを含むインサイドアウト処理を含む1つまたは複数の処理によって検出され得る。画像は、HMDに統合されたカメラによってキャプチャされ得る。
動作1135において、HMDの検出された動作を、HMD動作モジュールへと送信する。HMD動作モジュール820は、動作1140においてVR空間生成モジュール818に出力されるHMD動作変化データを決定するために、先にキャプチャされた画像と少なくとも1つのあらかじめキャプチャされた画像との間の差を決定する。
動作1145において、VR空間生成モジュールは、HMDにおいてレンダリングされて提供される付加的な仮想環境を識別し、識別された付加的な仮想環境をコンテンツ選択モジュール816においてコンテンツインタフェース817に出力する。動作1150において、コンテンツ選択モジュール816は、付加的な仮想環境をレンダリングし、動作1155において、レンダリングされた付加的な仮想環境をHMDに提供する。例として、HMDが回転されまたは動かされるとき、実空間におけるHMDの動作が仮想環境におけるHMDの動作に滑らかに対応するように、付加的な仮想環境がHMDディスプレイに提供される。
HMDの動作の連続的な動作は、上述した動作1125〜1155で継続する。方法動作は、HMDが実空間において動作しなくなると終了し得る。
図12を参照すると、開示された実施形態による、ヘッドマウントディスプレイ102の例示的構成要素を示す概略図が示される。当然のことながら、程度の差はあるが、構成要素は可能とされる構成及び機能によってHMD102から含まれまたは省かれて良いことが理解される。ヘッドマウントディスプレイ102は、プログラム指令を実行するためのプロセッサ2000を含んで良い。メモリ2002は、記憶装置の目的のために提供され、揮発性及び不揮発性メモリの両方を含んで良い。ディスプレイ2004が含まれ、これはユーザが視認し得る視覚的なインタフェースを提供する。
ディスプレイ2004は、単一のディスプレイまたはそれぞれの目のための分離した形式の表示スクリーンによって定義されて良い。2つの表示スクリーンが提供されるとき、左目映像コンテンツと右目映像コンテンツとを別々に提供することが可能となる。それぞれの目に対する映像コンテンツの分離した提示は、たとえば、3次元(3D)コンテンツのより好適な没入制御を提供して良い。上述のように、一実施形態において、第2のスクリーン107は一方の目のための出力を使用することによってHMD102の第2のスクリーンコンテンツを有し、次いで2D形式の表示のためにコンテンツをフォーマットする。一方の目は、一実施形態において、左目映像供給であって良いが、他の実施形態において、右目映像供給であって良い。
バッテリー2006は、ヘッドマウントディスプレイ102の電源として提供されて良い。他の実施形態において、電源は、電源供給する出力接続部を含んで良い。他の実施形態において、電源供給する出力接続部及びバッテリー2006が提供されて良い。動作検出モジュール2008は、磁力計2010、加速度計2012、及びジャイロスコープ2014のような、任意の様々な種類の動作を検知するハードウェアを含んで良い。
加速度計2012は、誘発される反作用の力の加速度及び重力を計測するためのデバイスである。単一及び複数の軸(たとえば、6軸)モデルは異なる方向における加速度の力及び方向を検出可能である。加速度は、傾き、振動、及び衝撃を検知するために使用される。一実施形態において、重力の方向を提供するために3つの加速度計2012が使用され、2つの角度のための絶対的基準を付与する(世界空間ピッチ及びワールド空間ロール)。
磁力計2010は、ヘッドマウントディスプレイ近傍における磁場の強さ及び方向を計測する。一実施形態において、ヘッドマウントディスプレイ内の3つの磁力計2010が使用され、世界空間ヨー角の絶対的基準を確保する。一実施形態において、磁力計は、地磁場を広げるように設計され、これは±80マイクロテスラである。磁力計は、金属によって影響され、実際のヨーに対して単調なヨー計測を提供する。磁場は、環境における金属によって歪み得るものであり、ヨー計測において歪みを生じさせる。必要な場合、この歪みは、ジャイロスコープまたはカメラのような他のセンサからの情報を用いて較正されて良い。一実施形態において、加速度計2012は、ヘッドマウントディスプレイ102の傾き及び方位角を得るために磁力計2010と共に使用される。
ジャイロスコープ2014は、角運動量の原理に基づいて位置及び姿勢を計測または維持するためのデバイスである。一実施形態において、3つのジャイロスコープ2014が慣性検知に基づいてそれぞれの軸線(x、y及びz)に亘る動作についての情報を提供する。ジャイロスコープは、高速回転の検出を支援する。しかしながら、ジャイロスコープは、絶対的基準がないと経時的にドリフトする。これは、周期的にジャイロスコープのリセットを必要とし、オブジェクト、加速度計、磁力計等の視覚的な追跡に基づいた位置及び姿勢の特定のような他の入手可能な情報を用いてなされて良い。
カメラ2016は、実環境の画像及び画像ストリームのキャプチャのために提供される。後方に面する(ユーザがHMD102のディスプレイを見るときにユーザから離れる方に方向付けられた)カメラ、及び前部に面する(ユーザがHMD102のディスプレイを見るときにユーザに向かって方向付けられた)カメラを含む、1つより多いカメラ(付加的に)がHMD102に含まれて良い。さらに、実環境におけるオブジェクトのデプス情報を検知するためにデプスカメラ2018がHMD102に含まれて良い。
HMD102は音声出力を提供するためのスピーカー2020を含む。さらに、周囲環境からの音、ユーザによってなされるスピーチ等を含む音声を実環境からキャプチャするためのマイク2022が含まれて良い。HMD102は、触覚フィードバックをユーザに提供するための触覚フィードバックモジュール2024を含む。一実施形態において、触覚フィードバックモジュール2024は、触覚フィードバックをユーザに提供するようにHMD102の動作及び/または振動を生じさせることができる。
LED2026は、ヘッドマウントディスプレイ102の状態の視覚的な指示として提供される。たとえば、LEDは、バッテリーレベル、電力オン等を示して良い。カードリーダー2028は、ヘッドマウントディスプレイ102が情報をメモリカードに、及びメモリカードから読み書きするのを可能とするように提供される。USBインタフェース2030は、ハンドヘルド周辺機器の接続または他の携帯可能なデバイス、コンピュータ等のような他のデバイスとの接続を可能とするための、インタフェースの1つの例示として、含まれる。HMD102の様々な実施形態において、HMD102のより好適な接続性を可能とするように任意の様々な種類のインタフェースが含まれて良い。
WiFiモジュール2032は、無線ネットワーク技術を介してインターネットへの接続を可能とするように含まれて良い。さらに、HMD102は他のデバイスとの無線接続を可能とするためにBluetooth(登録商標)モジュール2034を含んで良い。他のデバイスとの接続のための通信リンク2036が含まれてもよい。一実施形態において、通信リンク2036は、無線通信のための赤外線送信を利用する。他の実施形態において、通信リンク2036は、他のデバイスとの通信のため、任意の様々な無線または有線伝送プロトコルを利用して良い。
入力ボタン/センサ2038は、ユーザのための入力インタフェースを提供するために含まれる。ボタン、ジェスチャ、タッチパッド、ジョイスティック、トラックボール等のような、任意の様々な種類の入力インタフェースが含まれて良い。超音波技術を介して他のデバイスとの通信を容易とするために、超音波通信モジュール2040がHMD102において含まれて良い。
バイオセンサ2042は、ユーザからの生理学的データの検出を可能とするために含まれる。一実施形態において、バイオセンサ2042は、ユーザ/プロフィール等を識別するため、ユーザの肌、音声検出、目の網膜検出を通してユーザのバイオ電気信号を検出するために1つまたは複数の乾式電極を含んで良い。
HMD102の前述の構成要素は、HMD102に含まれ得る単なる例示的構成要素として説明されてきた。本発明に係る様々な実施形態において、HMD102は、様々な前述の構成要素のいくつかを含み、または含まなくても良い。本明細書に記載の本発明に係る態様を容易化する目的のため、HMD102の実施形態は、本明細書において説明していないが技術的に知られた他の構成要素を付加的に含んで良い。
本発明に係る様々な実施形態において、前述のハンドヘルドデバイスは、様々なインタラクティブな機能を提供するためにディスプレイにおいて表示されたインタラクティブな用途と共に使用されて良いことが当業者によって理解される。本明細書に記載の例示的実施形態は、例示的にのみ提供され、限定的なものではない。
一実施形態において、本明細書において説明されたようなクライアント及び/またはクライアントデバイスは、ヘッドマウントディスプレイ(HMD)、端末、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、無線デバイス、デジタルパッド、スタンドアロンデバイス、及び/またはハンドヘルドゲームプレイデバイス等を含んで良い。概して、クライアントは、符号化された映像ストリーム、ビデオストリームを復号し、結果の映像をユーザ、たとえば、ゲームのプレイヤに提供するように構成される。映像ストリームを符号化する処理及び/または映像ストリームを復号化する処理は、概してクライアントの受信バッファにおける個々の映像フレームの保存を含む。映像ストリームは、モニタまたはテレビのようなクライアントと一体のまたは分離したデバイスにおけるディスプレイにおいてユーザに提供されて良い。
クライアントは、任意に、1より多いゲームプレイヤをサポートするように構成される。たとえば、ゲームコンソールは、2、3、4またはそれ以上の同時ユーザ(たとえば、P1、P2、、、Pn)をサポートするように構成されて良い。これらのユーザのそれぞれは、映像ストリームを受信しまたは共有して良く、または1つの映像ストリームが特に各プレイヤのために生成される、たとえばそれぞれのユーザの視点に基づいて生成されるフレームの領域を含んでも良い。任意の数のクライアントが近位に(たとえば、共に配置され)、または地理的に分散されても良い。ゲームシステムに含まれるクライアントの数は、1または2から数千、数万、またはそれ以上まで大幅に変化して良い。本明細書において使用されるように、「ゲームプレイヤ(game player)」または「ユーザ(user)」という語は、ゲームをプレイする人を称するように使用され、「ゲームプレイングデバイス(game playing device)」という語は、ゲームをプレイするために使用されるデバイスを称するように使用される。実施形態によっては、ゲームプレイングデバイスは、ユーザにゲーム体験を伝えるために協働する複数のコンピューティングデバイスを称して良い。
たとえばゲームコンソール及びHMDは、HMDを通して見られるゲームを伝えるために映像サーバシステムと協働して良い。一実施形態において、ゲームコンソールは、映像サーバシステムから映像ストリームを受信し、ゲームコンソールは、映像ストリームを進め、またはレンダリングのためにHMD及び/またはテレビに対する映像ストリームへと更新する。
さらに、HMDは、ビデオゲームコンテンツ、映画コンテンツ、映像クリップコンテンツ、ウェブコンテンツ、広告コンテンツ、コンテストコンテンツ、ギャンボルゲームコンテンツ、会議電話/ミーティングコンテンツ、ソーシャルメディアコンテンツ(たとえば、投稿、メッセージ配信、メディアストリーム配信、友人イベント及び/またはゲームプレイ)、映像部分及び/または音声コンテンツ、及びブラウザ及びアプリを介したインターネット上のソースからの消費のために作られたコンテンツ、及び任意の形式のストリーム配信コンテンツといった生成されまたは使用される任意の形式のコンテンツを視認し、及び/またはインタラクトするために使用されて良い。当然のことながら、前述のコンテンツは、HMDにおいて見られ、またはスクリーンまたはHMDのスクリーンにレンダリングされ得る限り、レンダリングされ得るいかなる形式のコンテンツとしても限定するものではない。
クライアントは、必須ではないが、さらに受信された映像を変更するように構成されたシステムを含んで良い。たとえば、クライアントは、映像イメージを切り取る等するために、1つの映像イメージを別の映像イメージに重ねるためにさらなるレンダリングを実行するように構成されて良い。たとえば、クライアントは、Iフレーム、Pフレーム、及びBフレームのような様々な形式の映像フレームを受信し、これらのフレームをユーザに対する表示のための画像へと処理するように構成されて良い。実施形態によっては、クライアントのメンバーは、さらに映像ストリームにおいてレンダリング、共有、3Dへの変更、2Dへの変更、歪み除去、サイジングまたは同等の操作を実行するように構成される。クライアントのメンバーは、任意に1より多い音声または映像ストリームを受信するように構成される。
クライアントの入力デバイスは、片手用ゲームコントローラ、両手用ゲームコントローラ、ジェスチャ認識システム、注視認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、力フィードバックデバイス、動作及び/または配置検知デバイス、マウス、タッチスクリーン、神経インタフェース、カメラ、及び/または今後開発される入力デバイス等を含んで良い。
映像ソースは、たとえば、ハードウェア、ファームウェア、及び/または記憶装置のようなコンピュータ可読媒体に保存されたソフトウェアといったレンダリングロジックを含んで良い。このレンダリングロジックは、ゲーム状態に基づいて映像ストリームの映像フレームを形成するように構成される。レンダリングロジックの全てまたは部分は、任意に1つまたは複数のグラフィックプロセッシングユニット(GPU)内に配置される。レンダリングロジックは、ゲーム状態及び視点に基づいてオブジェクト間の3次元空間関係を決定し、及び/または適したテクスチャ等を適用するように構成された処理段階を概して含む。レンダリングロジックは、符号化される生の映像を生成して良い。たとえば、生の映像は、Adobe Flash(登録商標)standard、HTML−5、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x.Xvid.FFmpeg、x264、VP6−8、realvideo、またはmp3等によって符号化されて良い。符号化処理は、デバイスにおいてデコーダへの送信のため任意にパッケージ化される映像ストリームを生成する。映像ストリームは、フレームサイズ及びフレームレートによって特徴付けられる。通常のフレームサイズは、800×600、1280×720(たとえば、720p)、1024×768、1080pを含むが、任意の他のフレームサイズが使用されても良い。フレームレートは毎秒のビデオフレームの数である。映像ストリームは、異なる形式の映像フレームを含んで良い。たとえば、H.264標準は、「P」フレーム及び「I」フレームを含む。Pフレームがそのサブセットをリフレッシュするための情報を含む一方で、Iフレームは、ディスプレイデバイスにおける全てのマクロブロック/ピクセルをリフレッシュするための情報を含む。Pフレームは、概してIフレームのデータサイズより小さい。本明細書において使用されるように、「フレームサイズ(frame size)」という語は、フレーム内のピクセルの数を意味する。「フレームデータサイズ(frame data size)」とうい語は、フレームを保存するのに要求されるバイト数を称するように使用される。
実施形態によっては、クライアントは、汎用コンピュータ、特定用途コンピュータ、ゲームコンソール、パーソナルコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、モバイルコンピューティングデバイス、携帯可能なゲームデバイス、携帯電話、セットトップボックス、ストリーム配信メディアインタフェース/デバイス、スマートテレビまたはネットワーク化されたディスプレイまたは上述したようなクライアントの機能を満たすように構成可能な任意の他のコンピューティングデバイスであって良い。一実施形態において、クラウドゲームサーバは、ユーザによって利用されるクライアントデバイスの形式を検出し、ユーザのクライアントデバイスに適したクラウドゲーム体験を提供するように構成される。たとえば、画像設定、音声設定及び他の形式の設定がユーザのクライアントデバイスのために最適化されて良い。
図13は、情報サービスプロバイダアーキテクチャの実施形態を示す。情報サービスプロバイダ(ISP)2170は、複数の情報サービスを地理的に分散されてネットワーク2150を介して接続されたユーザ2182に送信する。ISPは、ストック価格更新といった単一の形式のサービス、またはブロードキャストメディア、ニュース、スポーツ、ゲーム等といった様々なサービスを送信して良い。付加的に、それぞれのISPによって提供されるサービスは、動的であり、すなわち、サービスは、任意の時点で付加されまたは取り除かれて良い。したがって、特定の個人に対して特定の形式のサービスを提供するISPは、経時的に変化し得る。たとえば、ユーザは、ユーザが彼の地元にいる間、ユーザの近傍のISPによってサービスを受けて良く、ユーザが異なる街に旅行するとき、ユーザは、異なるISPによってサービスを受けても良い。地元のISPは、ユーザ情報がデータをユーザに近づけてアクセスをより容易として、新しい街へユーザを「フォローする」ように、要求された情報及びデータを新しいISPに送る。別の実施形態において、マスタサーバ関係がユーザのための情報を管理するマスタISPとマスタISPからの制御によりユーザと直接やりとりするサーバISPとの間で確立されて良い。別の実施形態において、ユーザにサービスを提供するのにより良い位置にあるISPをこれらのサービスを運ぶ者とするため、世界中をクライアントが移動するときに、データは、1つのISPから別のISPへと送信される。
ISP2170は、ネットワーク上の顧客にコンピュータベースのサービスを提供するアプリケーションサービスプロバイダ(ASP)2106を含む。ASPモデルを使用して提供されるソフトウェアは、オンデマンドソフトウェアまたはソフトウェアアズアサービス(SaaS)と称されることもある。特定のアプリケーションプログラム(顧客関係管理のような)へのアクセスの提供の簡易な形式は、HTTPのような標準プロトコルによるものである。アプリケーションソフトウェアは、ベンダーのシステムに常駐し、ベンダーによって提供される特定用途のクライアントソフトウェア、またはシンクライアントのような他のリモートインタフェースによって、HTMLを用いてウェブブラウザを通してユーザによってアクセスされる。
広域の地理領域に亘って配信されるサービスは、クラウドコンピューティングを用いることが多い。クラウドコンピューティングは、動的にスケール調整可能で仮想化されることの多いリソースがインターネット上のサービスとして提供されるコンピューティングの形態である。ユーザは、彼らをサポートする「クラウド」におけるインフラの技術における専門家になる必要がない。クラウドコンピューティングは、インフラアズアサービス(IaaS)、プラットフォームアズアサービス(PaaS)、及びソフトウェアアズアサービス(SaaS)のような異なるサービスにおいて配信されて良い。クラウドコンピューティングサービスは、ソフトウェア及びデータがサーバ上に保存されながら、ウェブブラウザからアクセスされる共通のビジネスアプリケーションをオンラインで提供することが多い。クラウドという語は、インターネットがどのようにコンピュータネットワーク図において示されるかに基づいて(たとえば、サーバ記憶装置及びロジックを使用する)インターネットのためのたとえとして使用され、それが包含する複雑なインフラのための抽象的概念である。
さらに、ISP2170は、単一及び複数プレイのビデオゲームをプレイするためのゲームクライアントによって使用されるゲーム処理サーバ(GPS)2108を含む。インターネット上でプレイされる多くのビデオゲームは、ゲームサーバへの接続を介して動作する。概して、ゲームは、プレイヤからデータをキャプチャして他のプレイヤへとそれを配信する専用のサーバアプリケーションを使用する。これはピアツーピア構成より効率的且つ効果的であるが、サーバアプリケーションを管理するための分散したサーバを必要とする。別の実施形態において、GPSは、プレイヤ間の通信を確立し、それらのゲームプレイングデバイスのそれぞれは、中央GPSに頼ることなく情報を交換する。
専用GPSは、クライアントから独立して動作するサーバである。こうしたサーバは、通常データセンタに配置されてより広い帯域幅と専用の処理パワーを提供する専用のハードウェアにおいて動作する。専用サーバは、多くのPCベースの複数プレイヤのゲームのための管理ゲームサーバの好適な方法である。大きな複数プレイヤのオンラインゲームは、ゲームタイトルを所有するソフトウェア会社によって通常管理される専用サーバにおいて動作し、それらがコンテンツを制御及び更新するのを可能とする。
ブロードキャストプロセッシングサーバ(BPS)2110は、音声または映像信号を視聴者に配信する。かなり狭い範囲の視聴者へのブロードキャスティングは、ナローキャスティングと称されることがある。ブロードキャスト配信の最終処理は、いかに信号が視聴者を獲得するかであり、ラジオ局またはTV局によるようなアンテナ及び受信器への無線で配信されて良く、局を介してまたはネットワークから直接ケーブルTVまたはケーブルラジオ(または「無線ケーブル」)で配信されても良い。インターネットは、ラジオまたはTVのいずれかを受信者に、特に共有される信号及び帯域幅を可能とするマルチキャストによって配信しても良い。歴史的に、ブロードキャストは、全国放送または地域放送のように地理的領域によって区切られてきた。しかしながら、インターネットの普及により、コンテンツが世界中のほとんどいかなる国にも到達し得るため、ブロードキャストは地理によって定義されない。
ストレージサービスプロバイダ(SSP)2112は、コンピュータストレージ空間と、関連した管理サービスを提供する。SSPは、定期的なバックアップ及びアーカイヴも提供する。ストレージをサービスとして提供することによって、ユーザは、必要に応じてさらなるストレージをオーダーして良い。別の主要な利点は、SSPがバックアップサービスを含むことであり、ユーザは、彼らのコンピュータハードドライブが故障しても彼らの全てのデータを失うことがない。さらに、複数のSSPは、ユーザデータの全体または部分的なコピーを有して良く、ユーザが位置する場所によらずに、またはデータにアクセスするためのデバイスが使用される場所によらずにユーザがデータにアクセスするのを可能とする。たとえば、ユーザは、家のコンピュータ内と同様に、ユーザが移動している間に携帯電話内の個人ファイルにアクセスして良い。
通信プロバイダ2114は、ユーザへの接続性を提供する。一種の通信プロバイダは、インターネットへのアクセスを提供するインターネットサービスプロバイダ(ISP)である。ISPは、ダイアルアップ、DSL、ケーブルモデム、ファイバー、無線、または専用の高速相互接続のような、インターネットプロトコルデータグラムの配信に適したデータ伝達技術を用いてその顧客に接続する。通信プロバイダは、eメール、インスタントメッセージ、及びSMSテキスト送信のようなメッセージサービスを提供して良い。別の形式の通信プロバイダは、ダイレクトバックボーンアクセスを提供することによって帯域幅またはネットワークアクセスを売買するネットワークサービスプロバイダ(NSP)である。ネットワークサービスプロバイダは、テレコミュニケーション会社、データキャリア、ワイヤレス通信プロバイダ、インターネットサービスプロバイダ、高速インターネットアクセスを提供するケーブルテレビオペレータ等により構成されて良い。
データ交換2104は、ISP2170内の複数のモジュールを相互に接続し、これらのモジュールをネットワーク2150を介してユーザ2182に接続する。データ交換2104は、ISPの2170の全てのモジュールが近くにある小さなエリアをカバーして良く、または、異なるモジュールが地理的に分散されるときに大きな地理的エリアをカバーしても良い。たとえば、データ交換2104は、データセンタのキャビネット内で高速ギガビットイーサネット(登録商標)(またはそれより高速の)、または大陸間の仮想エリアネットワーク(VLAN)を含んで良い。
ユーザ2182は、クライアントデバイス2120によって遠隔サービスにアクセスし、少なくともCPU、ディスプレイ及びI/Oを含む。クライアントデバイスは、PC、携帯電話、ネットブック、タブレット、ゲーミングシステム、PDA等であって良い。一実施形態において、ISP2170は、クライアントによって使用されるデバイスの形式を認識し、使用される通信方法を調整する。他の場合において、クライアントデバイスは、ISP2170にアクセスするために、htmlのような標準通信方法を使用する。
本発明に係る実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースのまたはプログラム可能な消費者向け電子機器、マイクロコンピュータ、及びメインフレームコンピュータ等含む、様々なコンピューティングシステム構成によって実現され得る。本発明は、有線ベースまたは無線ネットワークを通してリンクされる遠隔処理デバイスによってタスクが実行される分散コンピューティングにおいて実現されても良い。
上述の実施形態を考慮し、本発明がコンピュータシステムに保存されたデータを含む様々なコンピュータにより実施される動作を使用して良いことが理解される。これらの動作は、物理的量の物理的操作を要する。本発明の部分を形成する本発明に記載のいかなる動作もマシン操作は有用である。本発明は、これらの動作を実行するためのデバイスまたは装置にも関する。装置は、特に要求された目的のために構成されて良く、または装置は、選択的に起動されまたはコンピュータ内に保存されたコンピュータプログラムによって構成される汎用コンピュータであっても良い。特に、様々な汎用マシンが本明細書における教示によるコンピュータプログラムによって使用されて良く、または要求された動作を実行するのにより特化した装置を構成するのにより便利であって良い。
本発明は、コンピュータ可読媒体においてコンピュータ可読コードとして組み込まれても良い。コンピュータ可読媒体は、データを記憶し得る任意のデータ記憶デバイスであって良く、したがってコンピュータシステムによって読まれて良い。コンピュータ可読媒体の実例は、ハードドライブ、ネットワークアタッチドストレージ(NAS)、読み出し専用メモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、及び他の光学的及び非光学的データ記憶デバイスを含む。コンピュータ可読媒体は、コンピュータ可読コードが保存されて分散された仕方で実行されるように、コンピュータシステムに結合されたネットワーク上で分散されたコンピュータ可読な実体的媒体を含んで良い。
特定の順序で方法動作が説明されたが、動作の間で他の維持動作が実行されて良く、または、それらがわずかに時間をずらして生じるように動作が調整されて良く、または重複する動作の処理が所望の方法で実行される限り、処理に関連付けられた様々な間隔における処理動作の事象を可能とするシステムにおいて分散されても良いことを理解されたい。
理解の明確化の目的のため、前述の発明がいくつかの詳細において説明されてきたが、添付の特許請求の範囲の範囲内で特定の変化及び変更が実行されて良いことが明らかである。したがって、本実施形態は、例示であり、非限定的なものとみなされるべきものであり、本発明は、本明細書において提示された詳細に限定されず、説明された実施形態の範囲及び均等の範囲内で変更されて良い。

Claims (19)

  1. ヘッドマウントディスプレイ(HMD)に供される位置コンテンツを処理するシステムであって、
    ユーザ入力デバイス及び前記HMDとインタフェース接続されたコンピューティングデバイスを有し、前記コンピューティングデバイスは、
    ユーザ入力デバイスまたは前記HMDから入力を受信する入力デバイスインタフェースであって前記HMDにおいて表示されるコンテンツを選択する指令を処理する前記入力デバイスインタフェース、
    仮想現実シーンの形式での前記HMDにおいて前記選択されたコンテンツをレンダリングする仮想現実空間生成モジュール、および、
    実空間における前記HMDの動作を追跡し、前記実空間における前記HMDの第1の位置及び姿勢を識別するHMD動作モジュールであって、前記実空間における前記HMDの第2の位置及び姿勢に対応する前記仮想現実シーンの付加的なコンテンツをレンダリングするように前記仮想現実空間生成モジュールにHMD位置及び姿勢の変化データを提供する前記HMD動作モジュールを有するものであり、
    前記コンピューティングデバイスに結合された実空間マッピングシステムを有し、実空間マッピングシステムは、
    前記実空間の少なくとも一部に亘り複数の光の点を投影する光源と、
    前記複数の光の点の画像をキャプチャするように前記HMDと統合されたカメラと、
    を含むものであり、
    前記第2の位置及び姿勢が、前記カメラによってキャプチャされた前記画像からの前記複数の光の点と、較正動作の間の前記複数の光の点の前記画像の前記キャプチャによって生成された前記実空間のマッピングとを使用して前記HMD動作モジュールによって特定され、
    前記仮想現実シーンの前記付加的なコンテンツは、前記マッピングと前記HMD動作モジュールによる分析とに基づいて、視点の変化に対して前記仮想現実シーンへとレンダリングされる、システム。
  2. 前記HMD動作モジュールが、前記カメラによってキャプチャされた前記画像を分析して前記実空間における複数の固定点を識別することが可能である、請求項1に記載のシステム。
  3. HMD位置及び姿勢の変化データの提供には、
    前記第1の位置及び姿勢に対する前記HMDの識別と、
    前記複数の固定点の少なくとも2つの選択と、
    前記第1の位置及び姿勢における前記HMDによる前記選択された固定点の間の第1の相対距離の特定と、
    前記第2の位置及び姿勢に対する前記HMDの識別と、
    前記第2の位置及び姿勢における前記HMDによる前記選択された固定点の間の第2の相対距離の特定と、
    前記第1の相対距離と前記第2の相対距離との比較による、前記第1の位置及び姿勢と前記第2の位置及び姿勢との間の差に等しい前記HMD位置及び姿勢の変化データの特定と、
    が含まれる、請求項2に記載のシステム。
  4. 前記仮想現実空間生成モジュールは、前記仮想現実シーンのレンダリングの間に前記HMDが動かされる少なくとも1つの位置及び姿勢によって前記HMDに対する前記付加的なコンテンツを連続的に生成するように構成された、請求項2に記載のシステム。
  5. 前記カメラによってキャプチャされた前記画像または複数の画像の分析を使用して実空間における前記HMDの位置を検出し、実空間における前記HMDの前記位置は、前記仮想現実シーンにおける前記HMDの位置へと変換され、前記HMDを使用して前記ユーザ入力デバイスと前記仮想現実シーンにおける仮想オブジェクトとの間のインタラクションを識別する、請求項2に記載のシステム。
  6. 前記複数の固定点が、前記複数の光の点の少なくとも一部を含む、請求項2に記載のシステム。
  7. 前記複数の固定点が、前記実空間内に存在する1つまたは複数の固定オブジェクトに配置された複数の識別点の少なくとも一部を含む、請求項2に記載のシステム。
  8. 前記HMDにおける表示に選択された前記コンテンツが、前記コンピューティングデバイスのローカル記憶装置またはネットワーク上の一方または両方からアクセスされる、請求項1に記載のシステム。
  9. 前記光源が、較正動作の部分として前記実空間の少なくとも前記部分に亘り前記複数の光の点を投影し、前記複数の光の点の少なくとも1つの画像が参照画像として保存される、請求項1に記載のシステム。
  10. 前記HMD内に配置された少なくとも1つの慣性センサをさらに備え、前記慣性センサが、前記仮想現実シーンの視認に使用される運動データであって、前記コンピューティングデバイスによって前記HMDの対応する位置及び姿勢を決定するのに使用可能な前記運動データを生成し、
    前記対応する位置及び姿勢が、前記実空間マッピングシステムを使用してHMD位置及び姿勢の変化データによって決定された位置及び姿勢を補完するのに使用される、請求項1に記載のシステム。
  11. 仮想現実シーンのレンダリングに使用されるヘッドマウントディスプレイ(HMD)を追跡する方法であって、前記HMDは前記仮想現実シーンのレンダリングに供される表示スクリーンを含むものであり、
    前記HMDの外部表面において統合された少なくとも1つのデバイスを使用して、前記HMDが配置された実空間をキャプチャする画像データをキャプチャし、
    前記実空間において表面上に投影される少なくとも2つの光の点を識別するように前記画像データを処理して較正動作の間に前記実空間のマッピングを生成し、
    前記実空間の前記キャプチャを継続し、かつ、前記マッピングを用いて前記実空間における前記HMDによる位置及び姿勢の変化を識別し、
    前記位置及び姿勢の変化は、前記HMDの前記表示スクリーンにおいてレンダリングされる前記仮想現実シーンに対するレンダリング調整を自動的に制御するように用いられ、前記調整には、前記仮想現実シーンの視点の変化及び前記仮想現実シーンに対する付加的なコンテンツのレンダリングの一方または両方が含まれ、
    前記仮想現実シーンに対する前記付加的なコンテンツは、視点の変化に対して前記仮想現実シーンへとレンダリングされる、方法。
  12. 前記実空間において前記表面に投影された前記少なくとも2つの光の点が、光放出部によって投影される、請求項11に記載の方法。
  13. 前記位置及び姿勢の変化は、前記HMDの慣性センサからの慣性データを用いて付加的に識別される、請求項11に記載の方法。
  14. 前記位置及び姿勢の変化が、前記HMDに接続されたコンピューティングデバイスによって特定され、前記コンピューティングデバイスが、前記HMDの前記表示スクリーンにおいてレンダリングされる前記仮想現実シーンに対する調整の前記レンダリングを制御するように構成される、請求項11に記載の方法。
  15. 前記実空間における前記位置及び姿勢の変化の間、前記HMDの慣性データを検査し、レンダリング調整を自動的に制御するときに使用可能な前記マッピングに対する付加的な追跡変数を提供するように前記慣性データが前記HMDにおいて生成される、請求項11に記載の方法。
  16. ヘッドマウントディスプレイ(HMD)であって、
    仮想現実シーンと関連付けられた画像を表示するスクリーンを含むハウジングを有し、
    前記ハウジングの外部表面において統合された検知デバイスを有し、
    前記検知デバイスによって画像データのキャプチャを制御するプロセッサを有し、前記画像データは、実空間の表面に放出器によって投影されることが検出された少なくとも2つの光の点と共に前記HMDが配置された前記実空間をキャプチャし、前記プロセッサが、前記実空間における前記HMDの位置追跡の間に前記画像データをコンピューティングデバイスに連続的に送るように構成されており、前記プロセッサが、前記画像データにおける前記少なくとも2つの光の点の位置の変化に基づいて前記HMDの位置の変化並びに位置及び姿勢を識別して較正動作の間に前記実空間のマッピングを生成するように構成されており、前記プロセッサが、識別された前記位置の変化並びに位置及び姿勢に基づいて前記スクリーンにおいてレンダリングされる前記仮想現実シーンに対するコンテンツを受信するようにさらに構成されており、
    前記位置の変化並びに位置及び姿勢が、前記仮想現実シーンの視点及び前記仮想現実シーンに対する付加的なコンテンツのレンダリングの一方または両方に自動調整を生じさせ、
    前記仮想現実シーンの前記付加的なコンテンツは、前記実空間の前記マッピングに基づいて、視点の変化について前記仮想現実シーンへとレンダリングされる、HMD。
  17. 前記ハウジングと統合された慣性センサをさらに備え、前記慣性センサが、位置、位置及び姿勢、または加速度の1つまたは複数に関する追加情報を特定する前記プロセッサに運動データを提供する、請求項16に記載のHMD。
  18. 前記検知デバイスが、カメラ、または光の3原色(RGB)カメラ、または赤外線(IR)カメラ、またはビデオカメラ、またはデプスカメラ、または位置検知デバイス(PSD)の1つである、請求項16に記載のHMD。
  19. 前記放出器が光放出器、またはレーザー光放出器、または赤外線放出器、または可視スペクトルエネルギ放出器の少なくとも1つであり
    、前記放出器が、前記HMDから分離し、前記表面に向かって方向付けられ、固定位置において前記実空間内に配置された、請求項16に記載のHMD。
JP2017546784A 2015-03-06 2016-02-04 ヘッドマウントディスプレイの追跡システム Active JP6575974B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562129733P 2015-03-06 2015-03-06
US62/129,733 2015-03-06
US14/726,341 2015-05-29
US14/726,341 US10684485B2 (en) 2015-03-06 2015-05-29 Tracking system for head mounted display
PCT/US2016/016653 WO2016144452A1 (en) 2015-03-06 2016-02-04 Tracking system for head mounted display

Publications (2)

Publication Number Publication Date
JP2018514017A JP2018514017A (ja) 2018-05-31
JP6575974B2 true JP6575974B2 (ja) 2019-09-18

Family

ID=56850727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017546784A Active JP6575974B2 (ja) 2015-03-06 2016-02-04 ヘッドマウントディスプレイの追跡システム

Country Status (6)

Country Link
US (1) US10684485B2 (ja)
EP (1) EP3265864B1 (ja)
JP (1) JP6575974B2 (ja)
CN (1) CN107533230B (ja)
TW (1) TWI594174B (ja)
WO (1) WO2016144452A1 (ja)

Families Citing this family (149)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170004608A (ko) * 2015-07-03 2017-01-11 엘지전자 주식회사 스마트 디바이스 및 이의 제어방법
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
WO2017061488A1 (ja) * 2015-10-08 2017-04-13 株式会社ソニー・インタラクティブエンタテインメント 制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラム
KR102402048B1 (ko) * 2015-10-14 2022-05-26 삼성전자주식회사 전자 장치 및 그 제어 방법
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
US9763342B2 (en) * 2015-12-09 2017-09-12 Oculus Vr, Llc Cable retention assembly for a head mounted display
US10037085B2 (en) * 2015-12-21 2018-07-31 Intel Corporation Techniques for real object and hand representation in virtual reality content
US10078218B2 (en) 2016-01-01 2018-09-18 Oculus Vr, Llc Non-overlapped stereo imaging for virtual reality headset tracking
US9952429B2 (en) * 2016-01-07 2018-04-24 International Business Machines Corporation Plurality of wearable devices sharing partially obstructing view at different angles to overcome visual obstructions
US9767606B2 (en) * 2016-01-12 2017-09-19 Lenovo (Singapore) Pte. Ltd. Automatic modification of augmented reality objects
JP6709633B2 (ja) * 2016-02-17 2020-06-17 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びゲームシステム
US10317989B2 (en) 2016-03-13 2019-06-11 Logitech Europe S.A. Transition between virtual and augmented reality
US10551993B1 (en) * 2016-05-15 2020-02-04 Google Llc Virtual reality content development environment
US10788888B2 (en) * 2016-06-07 2020-09-29 Koninklijke Kpn N.V. Capturing and rendering information involving a virtual environment
GB201611431D0 (en) 2016-06-30 2016-08-17 Nokia Technologies Oy User tracking for use in virtual reality
US11172005B2 (en) * 2016-09-09 2021-11-09 Nokia Technologies Oy Method and apparatus for controlled observation point and orientation selection audiovisual content
US10678397B2 (en) * 2016-09-26 2020-06-09 Htc Corporation Method for providing demonstration information in simulation environment, and associated simulation system
US10708569B2 (en) 2016-09-29 2020-07-07 Eric Wilson Turbine-Powered Pool Scrubber
WO2018064627A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US10712835B2 (en) 2016-10-06 2020-07-14 Htc Corporation System and method for detecting hand gesture
EP3472756B1 (en) * 2016-10-07 2024-07-24 Mediatek Inc. Video encoding method and apparatus with syntax element signaling of employed projection layout and associated video decoding method and apparatus
US10643370B2 (en) 2016-10-07 2020-05-05 Mediatek Inc. Method and apparatus for generating projection-based frame with 360-degree image content represented by triangular projection faces assembled in octahedron projection layout
ES2812851T3 (es) * 2016-11-01 2021-03-18 Previble AB Dispositivo de previsualización
US12020667B2 (en) 2016-12-05 2024-06-25 Case Western Reserve University Systems, methods, and media for displaying interactive augmented reality presentations
US10937391B2 (en) * 2016-12-05 2021-03-02 Case Western Reserve University Systems, methods, and media for displaying interactive augmented reality presentations
US10380715B2 (en) 2016-12-07 2019-08-13 Mediatek Inc. Method and apparatus for generating and encoding projection-based frame with 360-degree content represented by triangular projection faces packed in octahedron projection layout
TWI659221B (zh) * 2016-12-29 2019-05-11 宏達國際電子股份有限公司 追蹤系統、追蹤裝置及追蹤方法
KR20180082658A (ko) 2017-01-09 2018-07-19 삼성디스플레이 주식회사 헤드 마운트 디스플레이 장치 및 헤드 마운트 표시 장치의 영상 보정 방법
US10843068B2 (en) 2017-01-18 2020-11-24 Xvisio Technology Corp. 6DoF inside-out tracking game controller
CN108320332B (zh) * 2017-01-18 2020-02-07 腾讯科技(深圳)有限公司 虚拟角色的方位确定方法和装置
CN106648116B (zh) * 2017-01-22 2023-06-20 隋文涛 一种基于动作捕捉的虚拟现实综合系统
US10146300B2 (en) 2017-01-25 2018-12-04 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Emitting a visual indicator from the position of an object in a simulated reality emulation
EP3577618A4 (en) * 2017-02-03 2021-01-06 Benjamin Moore & Co. AUTONOMOUS SYSTEM TO SUPPORT CONSUMERS WITH THE CHOICE OF COLOR
CN106873158A (zh) * 2017-02-27 2017-06-20 阿里巴巴集团控股有限公司 虚拟现实头戴设备
CN108540517A (zh) * 2017-03-06 2018-09-14 中国移动通信有限公司研究院 一种信息获取方法、用户设备及系统
US20180260022A1 (en) * 2017-03-07 2018-09-13 Htc Corporation Method suitable for a head mounted device and virtual reality system
US10366540B2 (en) 2017-03-23 2019-07-30 Htc Corporation Electronic apparatus and method for virtual reality or augmented reality system
US10698068B2 (en) 2017-03-24 2020-06-30 Samsung Electronics Co., Ltd. System and method for synchronizing tracking points
JP6648061B2 (ja) * 2017-03-28 2020-02-14 Kddi株式会社 クライアント状態に応じた映像を配信する映像配信装置、システム、プログラム及び方法
EP3586315B1 (en) * 2017-03-28 2024-06-26 Samsung Electronics Co., Ltd. Method and apparatus for displaying image based on user motion information
US10467456B2 (en) 2017-04-17 2019-11-05 Htc Corporation Tracking system for tracking an object based on silhouette
CN106959762B (zh) * 2017-04-24 2019-12-31 英华达(上海)科技有限公司 虚拟现实系统及方法
DE102017208365A1 (de) * 2017-05-18 2018-11-22 Robert Bosch Gmbh Verfahren zur Orientierungsschätzung eines tragbaren Gerätes
WO2018216355A1 (ja) * 2017-05-24 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10394315B2 (en) * 2017-05-25 2019-08-27 Acer Incorporated Content-aware virtual reality systems and related methods
TWI653546B (zh) 2017-06-07 2019-03-11 宏碁股份有限公司 具有外置追蹤及內置追蹤之虛擬實境系統及其控制方法
EP3639114B1 (en) * 2017-06-15 2024-03-06 Tencent Technology (Shenzhen) Company Limited System and method of instantly previewing immersive content
WO2018227504A1 (en) * 2017-06-15 2018-12-20 Tencent Technology (Shenzhen) Company Limited System and method of customizing a user interface panel based on user's physical sizes
EP3422151A1 (en) * 2017-06-30 2019-01-02 Nokia Technologies Oy Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality
US10304239B2 (en) * 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
US10628958B2 (en) * 2017-09-05 2020-04-21 Htc Corporation Frame rendering apparatus, method and non-transitory computer readable storage medium
CN109509206A (zh) * 2017-09-11 2019-03-22 苏宁云商集团股份有限公司 一种增强现实技术中叠加数据的定位方法及系统
EP3454300A1 (en) * 2017-09-12 2019-03-13 HTC Corporation Three dimensional reconstruction method, apparatus and non-transitory computer readable storage medium thereof
EP3457299B1 (en) * 2017-09-15 2021-06-09 Neopost Technologies Method for augmented reality assisted document archival
US10569172B2 (en) * 2017-09-19 2020-02-25 Canon Kabushiki Kaisha System and method of configuring a virtual camera
US10755383B2 (en) 2017-09-29 2020-08-25 Apple Inc. Multi-space rendering with configurable transformation parameters
TWI633338B (zh) * 2017-10-06 2018-08-21 宏碁股份有限公司 頭戴式顯示裝置、電子系統以及相關控制方法
US10506217B2 (en) * 2017-10-09 2019-12-10 Facebook Technologies, Llc Head-mounted display tracking system
US10653957B2 (en) * 2017-12-06 2020-05-19 Universal City Studios Llc Interactive video game system
DE102017222534B3 (de) * 2017-12-12 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, computerlesbares Speichermedium mit Instruktionen, Vorrichtung und System zum Einmessen einer Augmented-Reality-Brille in einem Fahrzeug, für das Verfahren geeignetes Fahrzeug und für das Verfahren geeignete Augmented-Reality-Brille
US10623725B2 (en) * 2018-01-03 2020-04-14 Votanic Ltd. 3D glasses incorporating real-time tracking
JP7091073B2 (ja) * 2018-01-05 2022-06-27 キヤノン株式会社 電子機器及びその制御方法
US10600205B2 (en) 2018-01-08 2020-03-24 Htc Corporation Anchor recognition in reality system
CN108572723B (zh) * 2018-02-02 2021-01-29 陈尚语 一种防晕车方法及设备
CN108379780B (zh) * 2018-03-13 2020-06-02 北京小米移动软件有限公司 虚拟跑步场景控制方法和装置、跑步机
US10695665B2 (en) * 2018-03-16 2020-06-30 Sony Interactive Entertainment America Llc Asynchronous virtual reality interactions
US11182962B2 (en) * 2018-03-20 2021-11-23 Logitech Europe S.A. Method and system for object segmentation in a mixed reality environment
US10728518B2 (en) 2018-03-22 2020-07-28 Microsoft Technology Licensing, Llc Movement detection in low light environments
US10643341B2 (en) 2018-03-22 2020-05-05 Microsoft Technology Licensing, Llc Replicated dot maps for simplified depth computation using machine learning
US10944957B2 (en) * 2018-03-22 2021-03-09 Microsoft Technology Licensing, Llc Active stereo matching for depth applications
JP6623481B2 (ja) * 2018-03-23 2019-12-25 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
WO2019188229A1 (ja) * 2018-03-26 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10565720B2 (en) 2018-03-27 2020-02-18 Microsoft Technology Licensing, Llc External IR illuminator enabling improved head tracking and surface reconstruction for virtual reality
US11042226B2 (en) * 2018-04-02 2021-06-22 Microsoft Technology Licensing, Llc Constellation-based augmentation of mouse form-factor for virtual reality applications
CN110415329B (zh) 2018-04-26 2023-10-13 财团法人工业技术研究院 三维建模装置及应用于其的校准方法
TWI669682B (zh) * 2018-05-25 2019-08-21 光寶電子(廣州)有限公司 影像處理系統及影像處理方法
JP7136931B2 (ja) * 2018-06-05 2022-09-13 マジック リープ, インコーポレイテッド 空間3d環境へのコンテンツのマッチング
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
CN108983636B (zh) * 2018-06-20 2020-07-17 浙江大学 人机智能共生平台系统
JP7182920B2 (ja) * 2018-07-02 2022-12-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2020010008A1 (en) * 2018-07-03 2020-01-09 Tarseer, Inc. Methods and systems for vision monitoring
CN108874150B (zh) 2018-07-27 2024-08-20 华南理工大学 一种虚拟现实触觉反馈交互系统
EP3677995B1 (en) * 2018-08-01 2021-10-06 Rakuten Group, Inc. Display device, display method, program, and non-temporary computer-readable information storage medium
CN109257584B (zh) * 2018-08-06 2020-03-10 上海交通大学 360度视频传输的用户观看视点序列预测方法
WO2020044137A1 (en) * 2018-08-28 2020-03-05 Gaurav Dubey System and method for stabilizing a virtual reality display system to a user
TWI719343B (zh) 2018-08-28 2021-02-21 財團法人工業技術研究院 資訊顯示方法及其顯示系統
EP3629290B1 (en) * 2018-09-26 2023-01-04 Apple Inc. Localization for mobile devices
CN109445596B (zh) * 2018-11-02 2023-09-08 北京盈迪曼德科技有限公司 一种一体式混合现实头戴显示系统
CN109671118B (zh) * 2018-11-02 2021-05-28 北京盈迪曼德科技有限公司 一种虚拟现实多人交互方法、装置及系统
TWI697811B (zh) * 2018-11-28 2020-07-01 宏碁股份有限公司 追蹤定位系統及其掃描裝置、頭戴式顯示器、運算裝置的定位與校正方法
US11347303B2 (en) * 2018-11-30 2022-05-31 Sony Interactive Entertainment Inc. Systems and methods for determining movement of a controller with respect to an HMD
TWI715903B (zh) 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
WO2020153946A1 (en) 2019-01-22 2020-07-30 Hewlett-Packard Development Company, L.P. Mixed reality presentation
DE102019201134B4 (de) 2019-01-29 2021-07-22 Volkswagen Aktiengesellschaft Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug
US10853991B1 (en) * 2019-05-20 2020-12-01 Facebook Technologies, Llc Multi-layered artificial reality controller pose tracking architecture having prioritized motion models
US11398047B2 (en) 2019-05-30 2022-07-26 Nvidia Corporation Virtual reality simulations using surface tracking
US11372474B2 (en) * 2019-07-03 2022-06-28 Saec/Kinetic Vision, Inc. Systems and methods for virtual artificial intelligence development and testing
CN110225363B (zh) * 2019-07-10 2021-08-06 央视国际网络无锡有限公司 一种不同直播源切换并叠加不同滤镜的方法
CN112423190A (zh) 2019-08-20 2021-02-26 苹果公司 用于头戴式设备的基于音频的反馈
US11159766B2 (en) 2019-09-16 2021-10-26 Qualcomm Incorporated Placement of virtual content in environments with a plurality of physical participants
TWI727421B (zh) * 2019-09-16 2021-05-11 藏識科技有限公司 混合實境系統
US11275453B1 (en) 2019-09-30 2022-03-15 Snap Inc. Smart ring for manipulating virtual objects displayed by a wearable device
US11315326B2 (en) * 2019-10-15 2022-04-26 At&T Intellectual Property I, L.P. Extended reality anchor caching based on viewport prediction
US10997766B1 (en) * 2019-11-06 2021-05-04 XRSpace CO., LTD. Avatar motion generating method and head mounted display system
US11270412B2 (en) * 2019-10-31 2022-03-08 Apical Limited Image signal processor, method, and system for environmental mapping
EP3819873A1 (en) 2019-11-05 2021-05-12 Koninklijke Philips N.V. An image synthesis system and method therefor
CN110796703B (zh) * 2019-11-18 2022-07-12 中国商用飞机有限责任公司北京民用飞机技术研究中心 一种位姿跟踪系统、方法和存储介质
US11126267B2 (en) 2019-12-19 2021-09-21 Giantplus Technology Co., Ltd Tactile feedback device and operation method thereof
US11635802B2 (en) * 2020-01-13 2023-04-25 Sony Interactive Entertainment Inc. Combined light intensity based CMOS and event detection sensor for high speed predictive tracking and latency compensation in virtual and augmented reality HMD systems
CN111275612A (zh) * 2020-01-17 2020-06-12 成都库珀区块链科技有限公司 一种基于vr技术的k线显示、交互方法及装置
US20210278671A1 (en) * 2020-02-19 2021-09-09 Hes Ip Holdings, Llc Head wearable device with adjustable image sensing modules and its system
CN111338481B (zh) * 2020-02-28 2023-06-23 武汉灏存科技有限公司 基于全身动态捕捉的数据交互系统及方法
US11277597B1 (en) 2020-03-31 2022-03-15 Snap Inc. Marker-based guided AR experience
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
CN111580677A (zh) * 2020-05-21 2020-08-25 深圳布莱克实验室科技有限公司 一种人机交互方法及人机交互系统
US11520399B2 (en) 2020-05-26 2022-12-06 Snap Inc. Interactive augmented reality experiences using positional tracking
JP7162795B2 (ja) * 2020-06-09 2022-10-31 プレティア・テクノロジーズ株式会社 映像処理システム
TWI792106B (zh) 2020-07-09 2023-02-11 財團法人工業技術研究院 資訊顯示方法及其處理裝置與顯示系統
CN111862348B (zh) * 2020-07-30 2024-04-30 深圳市腾讯计算机系统有限公司 视频显示方法、视频生成方法、装置、设备及存储介质
CN112073632A (zh) * 2020-08-11 2020-12-11 联想(北京)有限公司 图像处理方法、设备及存储介质
CN112040596B (zh) * 2020-08-18 2022-11-08 张雪媛 虚拟空间灯光控制方法、计算机可读存储介质和系统
US11467403B2 (en) * 2020-08-20 2022-10-11 Htc Corporation Operating method and electronic system
US11422619B2 (en) * 2020-09-01 2022-08-23 Htc Corporation Tracking method and tracking system
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
TWI750818B (zh) * 2020-09-24 2021-12-21 宏達國際電子股份有限公司 動態調整使用者界面方法、電子裝置及電腦可讀儲存媒體
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
US11294188B1 (en) * 2020-09-30 2022-04-05 Snap Inc. Geometry modeling of eyewear devices with flexible frames
CN112308983B (zh) * 2020-10-30 2024-03-29 北京虚拟动点科技有限公司 一种虚拟景象的布置方法、装置、电子设备及存储介质
CN112527112B (zh) * 2020-12-08 2023-05-02 中国空气动力研究与发展中心计算空气动力研究所 一种多通道沉浸式流场可视化人机交互方法
US12086324B2 (en) 2020-12-29 2024-09-10 Snap Inc. Micro hand gestures for controlling virtual and graphical elements
WO2022146673A1 (en) 2020-12-30 2022-07-07 Snap Inc. Augmented reality precision tracking and display
US11740313B2 (en) * 2020-12-30 2023-08-29 Snap Inc. Augmented reality precision tracking and display
CN112822480B (zh) * 2020-12-31 2022-05-17 青岛小鸟看看科技有限公司 Vr系统及其定位追踪方法
CN114286142B (zh) * 2021-01-18 2023-03-28 海信视像科技股份有限公司 一种虚拟现实设备及vr场景截屏方法
WO2022151864A1 (zh) * 2021-01-18 2022-07-21 海信视像科技股份有限公司 虚拟现实设备
CN114812381B (zh) * 2021-01-28 2023-07-18 华为技术有限公司 电子设备的定位方法及电子设备
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
CN113038116B (zh) * 2021-03-09 2022-06-28 中国人民解放军海军航空大学航空作战勤务学院 一种空中加受油模拟训练视景系统
EP4327185A1 (en) 2021-04-19 2024-02-28 Snap, Inc. Hand gestures for animating and controlling virtual and graphical elements
KR20230029117A (ko) 2021-08-23 2023-03-03 삼성전자주식회사 포즈를 예측하기 위한 전자 장치 및 그 동작 방법
WO2023068087A1 (ja) * 2021-10-18 2023-04-27 ソニーグループ株式会社 ヘッドマウントディスプレイ、情報処理装置および情報処理方法
US20230161403A1 (en) * 2021-11-22 2023-05-25 Htc Corporation Method for managing tracking sensors, tracking device, and computer readable storage medium
US12045385B2 (en) 2022-03-23 2024-07-23 Htc Corporation Wearable tracking system and wearable tracking method
US12008160B2 (en) 2022-03-30 2024-06-11 Apple Inc. Eye tracking based selection of a user interface (UI) element based on targeting criteria
US20240005553A1 (en) * 2022-05-26 2024-01-04 Htc Corporation Method for pose correction and host
WO2022266556A1 (en) * 2022-08-09 2022-12-22 Innopeak Technology, Inc. Methods and systems for motion prediction
US20240071002A1 (en) * 2022-08-30 2024-02-29 Rovi Guides, Inc. Systems and methods for pinning content items to locations in an augmented reality display based on user preferences
US11947122B1 (en) * 2022-12-08 2024-04-02 Varjo Technologies Oy Tracking system and method incorporating selective control of light sources of controller
US11947736B1 (en) * 2022-12-21 2024-04-02 Varjo Technologies Oy Utilising focussing of light sources in image for controller tracking

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4710020A (en) 1986-05-16 1987-12-01 Denning Mobil Robotics, Inc. Beacon proximity detection system for a vehicle
US6407817B1 (en) 1993-12-20 2002-06-18 Minolta Co., Ltd. Measuring system with improved method of reading image data of an object
JPH07306956A (ja) 1994-05-10 1995-11-21 Michio Iyobe 閉鎖空間施設を利用した仮想空間体験システム
US5912700A (en) 1996-01-10 1999-06-15 Fox Sports Productions, Inc. System for enhancing the television presentation of an object at a sporting event
AU1328597A (en) 1995-11-30 1997-06-19 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US6152854A (en) 1996-08-27 2000-11-28 Carmein; David E. E. Omni-directional treadmill
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US20030158699A1 (en) 1998-12-09 2003-08-21 Christopher P. Townsend Orientation sensor
US7779015B2 (en) 1998-12-18 2010-08-17 Microsoft Corporation Logging and analyzing context attributes
JP4493113B2 (ja) 1999-01-29 2010-06-30 株式会社リコー プロジェクタおよび投影画像補正装置
WO2001035054A1 (en) 1999-11-12 2001-05-17 Armstrong Brian S Methods and appparatus for measuring orientation and distance
JP4268308B2 (ja) 2000-03-22 2009-05-27 株式会社キーエンス 光電スイッチ
JP4032603B2 (ja) 2000-03-31 2008-01-16 コニカミノルタセンシング株式会社 3次元計測装置
US6474159B1 (en) 2000-04-21 2002-11-05 Intersense, Inc. Motion-tracking
US6836560B2 (en) 2000-11-13 2004-12-28 Kla - Tencor Technologies Corporation Advanced phase shift inspection method
US6831263B2 (en) 2002-06-04 2004-12-14 Intel Corporation Very high speed photodetector system using a PIN photodiode array for position sensing
US20020085097A1 (en) 2000-12-22 2002-07-04 Colmenarez Antonio J. Computer vision-based wireless pointing system
GB2372656A (en) 2001-02-23 2002-08-28 Ind Control Systems Ltd Optical position determination
US20030233870A1 (en) 2001-07-18 2003-12-25 Xidex Corporation Multidimensional sensing system for atomic force microscopy
JP2003337963A (ja) 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
US7038661B2 (en) 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
JP2005050189A (ja) 2003-07-30 2005-02-24 Canon Inc 画像処理装置およびその方法並びにプログラムコード、記憶媒体
US7606665B2 (en) 2003-08-29 2009-10-20 Honeywell International Inc. System and method for employing an aided-alignment mode to align an inertial reference system
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US7720554B2 (en) 2004-03-29 2010-05-18 Evolution Robotics, Inc. Methods and apparatus for position estimation using reflected light sources
US7626569B2 (en) 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
KR100643304B1 (ko) 2005-02-15 2006-11-10 삼성전자주식회사 관성 센서 보정 장치 및 방법, 그리고, 상기 방법을 기록한기록 매체
JP5028751B2 (ja) 2005-06-09 2012-09-19 ソニー株式会社 行動認識装置
US9323055B2 (en) 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US9891435B2 (en) * 2006-11-02 2018-02-13 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
JP4857196B2 (ja) 2007-05-31 2012-01-18 キヤノン株式会社 頭部装着型表示装置、及びその制御方法
JP4989383B2 (ja) 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
US11325029B2 (en) 2007-09-14 2022-05-10 National Institute Of Advanced Industrial Science And Technology Virtual reality environment generating apparatus and controller apparatus
US9285459B2 (en) 2008-05-09 2016-03-15 Analog Devices, Inc. Method of locating an object in 3D
US20120062551A1 (en) * 2010-09-13 2012-03-15 Lg Electronics Inc. Image display apparatus and method for operating image display apparatus
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US8791901B2 (en) 2011-04-12 2014-07-29 Sony Computer Entertainment, Inc. Object tracking with projected reference patterns
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
CA3207408A1 (en) 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality
US20140160162A1 (en) 2012-12-12 2014-06-12 Dhanushan Balachandreswaran Surface projection device for augmented reality
US9419391B2 (en) * 2013-08-20 2016-08-16 Panduit Corp. Communication connector
JP6337433B2 (ja) * 2013-09-13 2018-06-06 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
EP3234685B1 (en) * 2014-12-18 2021-02-03 Facebook Technologies, LLC System, device and method for providing user interface for a virtual reality environment

Also Published As

Publication number Publication date
US20160260251A1 (en) 2016-09-08
TW201633104A (zh) 2016-09-16
CN107533230A (zh) 2018-01-02
WO2016144452A1 (en) 2016-09-15
CN107533230B (zh) 2021-10-26
JP2018514017A (ja) 2018-05-31
US10684485B2 (en) 2020-06-16
EP3265864A1 (en) 2018-01-10
EP3265864B1 (en) 2022-10-26
TWI594174B (zh) 2017-08-01

Similar Documents

Publication Publication Date Title
JP6575974B2 (ja) ヘッドマウントディスプレイの追跡システム
US11724177B2 (en) Controller having lights disposed along a loop of the controller
JP6538897B2 (ja) 空間感知を備えるゲーム機
JP6377759B2 (ja) ヘッドマウントディスプレイ(hmd)の追跡及びhmdのヘッドバンドの調整のための校正方法及びシステム
JP6548821B2 (ja) ヘッドマウントディスプレイの画面上でコンテンツの配置を最適化する方法
JP6526721B2 (ja) 仮想現実コンテンツをレンダリングするモバイルコンピューティングデバイスを備えたインタフェースを有する頭部装着型デバイス(hmd)システム
JP6759451B2 (ja) 人による追跡装置のオクルージョンの影響を低減するシステム及び方法
US11534684B2 (en) Systems and methods for detecting and displaying a boundary associated with player movement
KR20210018870A (ko) 멀티 서버 클라우드 가상 현실 (vr) 스트리밍
US10515466B2 (en) Optimized deferred lighting in a foveated rendering system
JP7337161B2 (ja) Hmdに対するコントローラの動きを判定するためのシステム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190815

R150 Certificate of patent or registration of utility model

Ref document number: 6575974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250