本開示は、いくつかの実施形態による、コンピュータ生成現実(CGR)体験をユーザに提供するユーザインタフェースに関する。
本明細書に記載するシステム、方法、及びGUIは、複数の方法で仮想/拡張現実環境とのユーザインタフェース相互作用を改善する。
いくつかの実施形態では、コンピュータシステムは、複数のユーザが、三次元環境において表示される第1のユーザインタフェースオブジェクトにアクセスする権利を有することを許可するが、別のユーザが第1のユーザインタフェースオブジェクトと相互作用している間、ユーザが第1のユーザインタフェースオブジェクトにアクセスすることを防止する。第1のユーザによって使用される第1の表示生成コンポーネントを介して第1のユーザインタフェースオブジェクトを含む三次元環境のビューを表示するとき、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出する。第1のユーザ入力を検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトがその時点で第1のユーザとの相互作用に利用可能であるか否かに応じて、第1のユーザインタフェースオブジェクトに対して第1のユーザ入力に対応する第1の動作を実行するか、又は第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションを表示し、第1の動作の実行を取りやめる。コンピュータシステムは、視覚的インジケーションを提供し、別のユーザがその時点で第1のユーザインタフェースオブジェクトを制御する(例えば、別のユーザが、第1のユーザインタフェースオブジェクトと相互作用している、第1のユーザの同時相互作用を除外するように第1のユーザインタフェースオブジェクトと相互作用している、及び/又は第1のユーザが実行しようとしているタイプのアクションについて第1のユーザインタフェースオブジェクトをロックしているなど)という判定に従って、第1の動作の実行を取りやめる。いくつかの実施形態では、視覚的インジケーションを表示することは、第1のユーザに対して示される三次元環境のビュー内の第1のユーザインタフェースオブジェクトを移動させて、第1のユーザインタフェースオブジェクトと第1のユーザの手の接近表現との間の予め設定された距離を維持することを含む。いくつかの実施形態では、視覚的インジケーションを表示することは、第1のユーザに対して示される三次元環境のビュー内の第1のユーザインタフェースオブジェクトの視覚的外観を変更することを含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトが制御ユーザによって(例えば、スロージェスチャ、トスジェスチャなどによって)第1のユーザに解放されると、コンピュータシステムは、第1のユーザインタフェースオブジェクトが、第1のユーザに対して示される三次元環境の現在表示されているビューの視点に対して予め設定された向きで表示されるように、第1のユーザインタフェースオブジェクトを回転させる。いくつかの実施形態では、コンピュータシステムは、第1のユーザの一部の表現(例えば、第1のユーザの手の表現、ユーザの顔の仮想ポジションの腕の届く範囲内など)のポジション又はその近くに第1のユーザインタフェースオブジェクトの表現を表示することによって、第1のユーザインタフェースオブジェクトへのアクセスを制御する。第1のユーザが第1のユーザインタフェースオブジェクトと相互作用しようとしたことに応じて、第1のユーザによって使用される表示生成コンポーネントを介して表示される三次元環境のビューに、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことを示す視覚的インジケーションを表示することは、相互作用が試みられたときに直感的かつタイムリーなフィードバックを提供し、三次元環境のビュー内の不要な視覚的混乱を低減する。また、第1のユーザと環境を共有している他のユーザに対して同じ視覚的インジケーションを表示する必要がなく、ユーザの混乱が低減され、マン-マシンインタフェースの効率が改善される。
いくつかの実施形態では、コンピュータシステムは、第1のユーザ(及び三次元環境を見るために第1のユーザによって使用される第1の表示生成コンポーネント)の物理的環境とは異なる物理的環境内に位置する物理的オブジェクト(例えば、第2のユーザ、動物、移動するドローンなど)の表現を含む三次元環境のビューを表示する。コンピュータシステムは、任意選択的に、三次元環境の現在表示されているビューに対応する視点を、物理的環境内の第1のユーザ(及び/又は第1の表示生成コンポーネント)の移動に従って移動させる。コンピュータシステムは、物理的環境内の物理的オブジェクトのロケーション及び移動経路に基づいて、三次元環境内の物理的オブジェクトの表現のポジション及び移動経路を判定する。コンピュータシステムは、三次元環境内のポジションと個別の物理的環境(例えば、第1のユーザ及び第1の表示生成コンポーネントの物理的環境、物理的オブジェクトの物理的環境など)内のロケーションとの間の第1のタイプの対応関係(例えば、マッピング関係及び変換関係、任意選択的に、視点、物理的オブジェクト、及び第1のユーザなどについての様々なマッピング関係及び変換関係)を利用する。(例えば、第1のユーザの移動、及び/又は物理的オブジェクトの移動などに起因する)状況によっては、物理的オブジェクトの表現のポジションは、ポジション(単数又は複数)が、三次元環境内のポジションと物理的環境内のロケーションとの間の第1のタイプの対応関係を使用して判定される場合、第1の表示生成コンポーネントを介して示されるポジションの閾値距離(例えば、腕の長さ、3フィート、ユーザ指定距離など)内にあるであろう。このような条件下で、コンピュータシステムは、第1のタイプの対応関係に基づいて判定されたポジションからオフセットされた調整されたポジションに物理的オブジェクトの表現を表示する。いくつかの実施形態では、調整されたポジションは、第1のタイプの対応関係とは異なる第2のタイプの対応関係に基づいて判定され、調整されたポジションが、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューの視点のポジションから閾値距離を超えたままであることを確実にする。コンピュータシステムは、第1のタイプの対応関係に基づいて計算された未調整ポジションが、第1の表示生成コンポーネントを介して示された三次元環境の現在表示されているビューの視点のポジションから閾値距離を超えて離れるまで、物理的オブジェクトの表現の調整ポジションを判定するために第2のタイプの対応関係を使用し続ける。物理的オブジェクトの表現のポジションと、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューの視点のポジションとの間の相対距離を監視することによって、コンピュータは、物理的オブジェクトの表現の表示ポジションを適時に調整することができ、その結果、視点と物理的オブジェクトの表現との間の視覚的衝突を回避することができる。このことは、ユーザの視覚体験を改善し、ユーザが三次元環境と相互作用するときのユーザの混乱及び誤りを低減する。
いくつかの実施形態では、コンピュータシステムは、ユーザに対応するバイオメトリックデータに従って、コンピュータ生成体験(例えば、視覚体験、視聴覚体験、仮想現実体験、拡張現実体験など)がユーザに提示される没入レベルを変更する。例えば、ユーザが、例えば、積極的に、又はコンピュータ生成コンテンツの影響下で、彼/彼女の身体的及び感情的な状態を調整しているとき、コンピュータ生成体験が開始された後、コンピュータシステムは、ユーザに対応するバイオメトリックデータ(例えば、心拍数、血圧、呼吸数など)の変化を検出し得る。様々な没入レベルに関連付けられた予め設定された基準のそれぞれのセットに対するバイオメトリックデータの変化に従って、コンピュータシステムは、物理的環境の表現の視覚的プロミネンスに対して仮想コンテンツの(例えば、空間範囲、視覚的奥行き、彩度、視覚的コントラストなどを含む)視覚的プロミネンスを変更することによって(例えば、仮想コンテンツの複雑さ、空間範囲、及び/又は視覚的特性を増強すること、及び/又は物理的環境の表現の視覚的明瞭さ、ぼかし半径、不透明度、彩度などを低減することなどによって)コンピュータ生成体験をユーザに提供する没入レベルを増加又は低減させる。ユーザに対応するバイオメトリックデータの変化に基づいて、コンピュータ生成体験をユーザに提供する没入レベルを調整することは、コンピュータシステムが、コンピュータ生成体験に対するユーザの知覚状態により良く対応する、低い没入レベルの体験と高い没入レベルの体験との間のより滑らかな遷移を提供するのに役立ち、それによって、ユーザの混乱を低減し、コンピュータ生成体験の有効性を改善する。
いくつかの実施形態では、コンピュータシステムは、特別な器具又はコンピュータシステムの支援なしでは容易に知覚され得ない物理的環境の様々な側面を知覚するユーザの能力を強化する複数のタイプの感覚調整機能を提供する。ユーザが一度に物理的環境の一部を見るときに単一タイプの感覚調整機能を使用することのみを可能にする代わりに、コンピュータシステムは、コンピュータシステムによって提供される物理的環境のビュー内で以前に隠されていた物理的環境の部分に存在する特徴及び特性が明らかにされ得るように、物理的環境の一部の表現に及ぼす2つ以上のタイプの感覚増強機能の効果を集約する。複数のタイプの感覚調整機能の効果が物理的環境の同じ部分の表現に集約され、物理的環境の部分の表現を含む三次元環境のビューに提示されることを可能にすることにより、ユーザが物理的環境をより良く知覚し理解することができ、物理的環境のコンピュータ生成ビューの有用性を向上させる。
いくつかの実施形態では、コンピュータシステムは、三次元環境のビューに表された物理的ロケーションが個別のタイプのエクササイズに関連付けられているという判定に従って、個別のタイプのエクササイズに対応する仮想コンテンツ(例えば、仮想風景、エクササイズ器具の視覚的及び機能的強化、ユーザインタフェース、健康及びスコアボードなど)を表示する。例えば、ユーザ及び表示生成コンポーネントが現実世界のロケーションを移動していくにつれて、三次元環境のビューに示される仮想コンテンツは、ユーザ及び表示生成コンポーネントの現在ロケーションに関連付けられたエクササイズのタイプに対応するように調整される。いくつかの実施形態では、ロケーションが複数のタイプのエクササイズに関連付けられている場合、コンピュータシステムは、他のコンテキスト情報(例えば、ユーザの移動、そのロケーションにおけるオブジェクトとのユーザの関与など)に基づいて、そのロケーションに関連付けられている複数のタイプのエクササイズからあるタイプのエクササイズを選択し、選択されたタイプのエクササイズに対応する視覚的コンテンツを表示する。ユーザ及び表示生成コンポーネントのロケーションに関連付けられた個別のタイプのエクササイズに基づいて仮想コンテンツを自動的に選択及び/又は変更することは、所望の結果を達成するためのユーザからの入力の数、範囲、及び/又は性質を絞る(例えば、エクササイズのタイプに適した仮想コンテンツを選択する、エクササイズの特定のモードを開始するなど)ことによって、より効率的なヒューマンマシンインタフェースを生成する。
図1~図6は、CGR体験をユーザに提供するための例示的なコンピュータシステムを説明する。図7A~図7Cは、いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用を示すブロック図である。図7D~図7Fは、三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法を示すブロック図であり、いくつかの実施形態により、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は、第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方式の変更がトリガされる。図7G~図7Jは、いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルの変更を示すブロック図である。図7K~7Mは、いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約することを示すブロック図である。図7N~7Pは、いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示することを示すブロック図である。図7A~図7Pのユーザインタフェースは、図8~図12のプロセスをそれぞれ例示するために使用される。
いくつかの実施形態では、図1に示されるように、CGR体験は、コンピュータシステム101を含む動作環境100を介してユーザに提供される。コンピュータシステム101は、コントローラ110(例えば、ポータブル電子デバイス又はリモートサーバのプロセッサ)と、表示生成コンポーネント120(例えば、ヘッドマウントデバイス(HMD)、ディスプレイ、プロジェクタ、タッチスクリーンなど)と、1つ以上の入力デバイス125(例えば、アイトラッキングデバイス130、ハンドトラッキングデバイス140、他の入力デバイス150)と、1つ以上の出力デバイス155(例えば、スピーカ160、触知出力ジェネレータ170、及び他の出力デバイス180)と、1つ以上のセンサ190(例えば、画像センサ、光センサ、深度センサ、触覚センサ、向きセンサ、近接センサ、温度センサ、ロケーションセンサ、運動センサ、速度センサなど)と、任意選択的に1つ以上の周辺デバイス195(例えば、家電製品、ウェアラブルデバイスなど)と、を含む。いくつかの実施形態では、入力デバイス125、出力デバイス155、センサ190、及び周辺デバイス195のうちの1つ以上は、(例えば、ヘッドマウントデバイス又はハンドヘルドデバイス内で)表示生成コンポーネント120と統合される。
CGR体験を説明するとき、ユーザが感知する、及び/又は(例えば、CGR体験を生成するコンピュータシステムに、CGR体験を生成するコンピュータシステム101に提供される様々な入力に対応するオーディオ、視覚、及び/又は触覚フィードバックを生成させる、コンピュータシステム101によって検出された入力を用いて)ユーザが相互作用することができる、いくつかの関連するが、別個の環境に個別的に言及するために様々な用語が使用される。以下は、これらの用語のサブセットである。
物理的環境:物理的環境とは、人々が電子システムの助けなしに、感知及び/又は相互作用することができる物理的世界を指す。物理的な公園などの物理的環境には、物理的な木々、物理的な建物、及び物理的な人々などの物理的物品が挙げられる。人々は、視覚、触覚、聴覚、味覚、及び嗅覚などを介して、物理的環境を直接感知し、及び/又はそれと相互作用することができる。
コンピュータ生成現実:対照的に、コンピュータ生成現実(CGR)環境とは、人々が電子システムを介して感知及び/又は相互作用する、全体的又は部分的にシミュレートされた環境を指す。CGRでは、人の身体運動のサブセット又はその表現が追跡され、それに応じて、CGR環境内でシミュレートされた1つ以上の仮想オブジェクトの1つ以上の特性が、少なくとも1つの物理学の法則でふるまうように調節される。例えば、CGRシステムは、人の頭部の回転を検出し、それに応じて、そのようなビュー及び音が物理的環境においてどのように変化するかと同様の方法で、人に提示されるグラフィックコンテンツ及び音場を調節することができる。状況によっては(例えば、アクセス性の理由から)、CGR環境における仮想オブジェクト(単数又は複数)の特性(単数又は複数)に対する調節は、身体運動の表現(例えば、音声コマンド)に応じて行われてもよい。人は、視覚、聴覚、触覚、味覚及び嗅覚を含むこれらの感覚のうちのいずれか1つを使用して、CGRオブジェクトを感知し、かつ/又はCGRオブジェクトと相互作用してもよい。例えば、人は、3D空間において点音源の知覚を提供する、3D又は空間的広がりを有するオーディオ環境を作り出す音声オブジェクトを感知し、かつ/又はそれと相互作用することができる。別の例では、オーディオオブジェクトによって、コンピュータ生成オーディオを含めて、又は含めずに、物理的環境から周囲音を選択的に組み込むオーディオ透過性が可能になり得る。いくつかのCGR環境では、人は、オーディオオブジェクトのみを感知し、かつ/又はそれと相互作用してもよい。
CGRの例としては、仮想現実及び複合現実が挙げられる。
仮想現実:仮想現実(VR)環境とは、1つ以上の感覚について、コンピュータ生成感覚入力に全面的に基づくように設計されたシミュレーション環境を指す。VR環境は、人が感知かつ/又は相互作用することができる複数の仮想オブジェクトを含む。例えば、木、建物、及び人々を表すアバターのコンピュータ生成画像は、仮想オブジェクトの例である。人は、コンピュータ生成環境内に人が存在することのシミュレーションを通じて、かつ/又はコンピュータ生成環境内での人の身体運動のサブセットのシミュレーションを通じて、VR環境における仮想オブジェクトを感知し、かつ/又はそれと相互作用することができる。
複合現実:複合現実(MR)環境とは、コンピュータ生成感覚入力に全面的に基づくように設計されたVR環境とは対照的に、コンピュータ生成感覚入力(例えば、仮想オブジェクト)を含むことに加えて、物理的環境からの感覚入力又はその表現を組み込むように設計されたシミュレーション環境を指す。仮想の連続体上では、複合現実環境は、一方の端部における完全な物理的環境と、他方の端部における仮想現実環境との間であるがこれらを含まない、任意の場所である。いくつかのMR環境では、コンピュータ生成感覚入力は、物理的環境からの感覚入力の変更に応答し得る。また、MR環境を提示するためのいくつかの電子システムは、仮想オブジェクトが現実のオブジェクト(即ち、物理的環境からの物理的物品又はその表現)と相互作用することを可能にするために、物理的環境に対するロケーション及び/又は向きを追跡してもよい。例えば、システムは、仮想の木が物理的な地面に対して静止して見えるように、動きを考慮することができる。
複合現実の例としては、拡張現実及び拡張仮想が挙げられる。
拡張現実:拡張現実(AR)環境とは、1つ以上の仮想オブジェクトが物理的環境上又はその表現上に重ねられたシミュレーション環境を指す。例えば、AR環境を提示するための電子システムは、人が物理的環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイに仮想オブジェクトを提示するように構成されていてもよく、それによって、人はシステムを使用して、物理的環境の上に重ね合わされた仮想オブジェクトを知覚する。あるいは、システムは、不透明ディスプレイと、物理的環境の表現である、物理的環境の画像又は動画をキャプチャする1つ以上の撮像センサとを有してもよい。システムは、画像又は動画を仮想オブジェクトと合成し、その合成物を不透明ディスプレイ上に提示する。人はこのシステムを使用して、物理的環境を、物理的環境の画像又は動画によって間接的に見て、物理的環境に重ね合わされた仮想オブジェクトを知覚する。本明細書で使用するとき、不透明ディスプレイ上に示される物理的環境の動画は、「パススルービデオ」と呼ばれ、システムが、1つ以上の画像センサ(単数又は複数)を使用して、物理的環境の画像をキャプチャし、不透明ディスプレイ上にAR環境を提示する際にそれらの画像を使用することを意味する。更に代替的に、システムが仮想オブジェクトを、例えば、ホログラムとして物理的環境の中に、又は物理的表面に投影するプロジェクションシステムを有してもよく、それによって、人はシステムを使用して、物理的環境に重ね合わされた仮想オブジェクトを知覚する。拡張現実環境はまた、物理的環境の表現がコンピュータ生成感覚情報によって変換されるシミュレーション環境を指す。例えば、パススルービデオを提供する際に、システムは、1つ以上のセンサ画像を、イメージセンサがキャプチャした透視図とは別の選択された透視図(例えば、視点)を面付けするように変形してもよい。別の例として、物理的環境の表現を、その一部分をグラフィカルに変更(例えば、拡大)することによって変形してもよく、それにより、変更された部分を、元のキャプチャ画像を表すが非写実的な、改変版にすることもできる。更なる例として、物理的環境の表現は、その一部分をグラフィカルに除去又は不明瞭化することによって変形されてもよい。
拡張仮想:拡張仮想(AV)環境とは、仮想環境又はコンピュータ生成環境が物理的環境から1つ以上の感覚入力を組み込んだシミュレーション環境を指す。感覚入力は、物理的環境の1つ以上の特性の表現であり得る。例えば、AVの公園には仮想の木及び仮想の建物があり得るが、顔がある人々は、物理的な人々が撮られた画像から写実的に再現される。別の例として、仮想オブジェクトは、1つ以上の撮像センサによって撮像された物理的物品の形状又は色を採用してもよい。更なる例として、仮想オブジェクトは、物理的環境における太陽のポジションと一致する影を採用することができる。
ハードウェア:人が様々なCGR環境を感知し、及び/又はそれと相互作用することを可能にする、多くの異なるタイプの電子システムが存在する。例としては、ヘッドマウントシステム、プロジェクションベースシステム、ヘッドアップディスプレイ(heads-up displays、HUD)、統合表示機能を有する車両ウィンドシールド、統合表示機能を有する窓、(例えば、コンタクトレンズと同様に)人の目の上に配置されるように設計されたレンズとして形成されたディスプレイ、ヘッドホン/イヤフォン、スピーカアレイ、入力システム(例えば、触覚フィードバックを有する又は有さない、装着型コントローラ又はハンドヘルドコントローラ)、スマートフォン、タブレット、及びデスクトップ/ラップトップコンピュータ、が挙げられる。ヘッドマウントシステムは、1つ以上のスピーカ(単数又は複数)及び一体型不透明ディスプレイを有してもよい。あるいは、ヘッドマウントシステムは、外部の不透明ディスプレイ(例えば、スマートフォン)を受容するように構成されていてもよい。ヘッドマウントシステムは、物理的環境の画像若しくは動画をキャプチャするための1つ以上の撮像センサ、及び/又は物理的環境のオーディオをキャプチャするための1つ以上のマイクロフォンを組み込んでいてもよい。ヘッドマウントシステムは、不透明ディスプレイではなく、透明又は半透明のディスプレイを有してもよい。透明又は半透明のディスプレイは、画像を表す光が人の目に向けられる媒体を有してもよい。ディスプレイは、デジタル光投影、OLED、LED、uLED、液晶オンシリコン、レーザスキャン光源、又はこれらの技術の任意の組み合わせを利用することができる。媒体は、光導波路、ホログラム媒体、光結合器、光反射器、又はこれらの任意の組み合わせであってもよい。一実施形態では、透明又は半透明のディスプレイは、選択的に不透明になるように構成されていてもよい。プロジェクションベースシステムは、グラフィカル画像を人の網膜上に投影する網膜投影技術を採用することができる。プロジェクションシステムはまた、仮想オブジェクトを、例えば、ホログラムとして、又は物理的表面として物理的環境に投影するように構成されてもよい。いくつかの実施形態では、コントローラ110は、ユーザのCGR体験を管理及び調整するように構成される。いくつかの実施形態では、コントローラ110は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。コントローラ110については、図2を参照して以下により詳細に記載する。いくつかの実施形態では、コントローラ110は、シーン105(例えば、物理的設定/環境)に対してローカル又はリモートであるコンピューティングデバイスである。例えば、コントローラ110は、シーン105内に位置するローカルサーバである。別の例では、コントローラ110は、シーン105の外側に位置するリモートサーバ(例えば、クラウドサーバ、中央サーバなど)である。いくつかの実施形態では、コントローラ110は、1つ以上の有線又は無線通信チャネル144(例えば、BLUETOOTH、IEEE802.11x、IEEE802.16x、IEEE802.3xなど)を介して、表示生成コンポーネント120(例えば、HMD、ディスプレイ、プロジェクタ、タッチスクリーンなど)と通信可能に結合される。別の例では、コントローラ110は、表示生成コンポーネント120(例えば、HMD、又はディスプレイ及び1つ以上のプロセッサなどを含むポータブル電子デバイス)、入力デバイス125のうちの1つ以上、出力デバイス155のうちの1つ以上、センサ190のうちの1つ以上、及び/又は周辺デバイス195のうちの1つ以上の筐体(例えば、物理的ハウジング)内に含まれる、又は上記のうちの1つ以上と同じ物理的筐体又は支持構造を共有する。
いくつかの実施形態では、表示生成コンポーネント120は、CGR体験(例えば、CGR体験の少なくとも視覚的コンポーネント)をユーザに提供するように構成される。いくつかの実施形態では、表示生成コンポーネント120は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。表示生成コンポーネント120について、図3を参照して以下により詳細に説明する。いくつかの実施形態では、コントローラ110の機能は、表示生成コンポーネント120によって提供される、及び/又は表示生成コンポーネント120と組み合わされる。
いくつかの実施形態によれば、表示生成コンポーネント120は、ユーザがシーン105内に仮想的及び/又は物理的に存在している間に、CGR体験をユーザに提供する。
いくつかの実施形態では、表示生成コンポーネントは、ユーザの身体の一部(例えば、自身の頭部や自身の手など)に装着される。したがって、表示生成コンポーネント120は、CGRコンテンツを表示するために提供された1つ以上のCGRディスプレイを含む。例えば、様々な実施形態では、表示生成コンポーネント120は、ユーザの視野を包囲する。いくつかの実施形態では、表示生成コンポーネント120は、CGRコンテンツを提示するように構成されたハンドヘルドデバイス(スマートフォン又はタブレットなど)であり、ユーザは、ユーザの視野に向けられるディスプレイ及びシーン105に向けられるカメラを備えたデバイスを保持する。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの頭部に装着された筐体内に配置される。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの前の支持体(例えば、三脚)上に配置される。いくつかの実施形態では、表示生成コンポーネント120は、ユーザが表示生成コンポーネント120を着用又は保持しない状態でCGRコンテンツを提示するように構成されたCGRチャンバ、筐体、又は部屋である。CGRコンテンツ(例えば、ハンドヘルドデバイス又は三脚上のデバイス)を表示するための1つのタイプのハードウェアを参照して説明される多くのユーザインタフェースは、CGRコンテンツ(例えば、HMD又は他のウェアラブルコンピューティングデバイス)を表示するための別のタイプのハードウェア上に実施され得る。例えば、ハンドヘルド又は三脚搭載デバイスの前の空間内で起こる相互作用に基づいてトリガされるCGRコンテンツとの相互作用を示すユーザインタフェースは、相互作用がHMDの前の空間で発生し、CGRコンテンツの応答がHMDを介して表示されるHMDと同様に実施され得る。同様に、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するハンドヘルド又は三脚搭載デバイスの移動に基づいてトリガされたCGRコンテンツとの相互作用を示すユーザインタフェースは、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するHMDの移動によって引き起こされるHMDと同様に実施され得る。
動作環境100の関連する特徴が図1に示されているが、当業者は、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないように、簡潔化のための様々な他の特徴が示されていないことを、本開示から理解されよう。
図2は、いくつかの実施形態による、コントローラ110の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。そのため、非限定的な例として、いくつかの実施形態では、コントローラ110は、1つ以上の処理ユニット202(例えば、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィック処理ユニット(GPU)、中央処理ユニット(CPU)、処理コアなど)、1つ以上の入出力(I/O)デバイス206、1つ以上の通信インタフェース208(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、グローバル移動通信システム(GSM)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、グローバル測位システム(GPS)、赤外線(IR)、BLUETOOTH、ZIGBEE、又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース210、メモリ220、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス204を含む。
いくつかの実施形態では、1つ以上の通信バス204は、システムコンポーネントを相互接続し、システムコンポーネント間の通信を制御する回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス206は、キーボード、マウス、タッチパッド、ジョイスティック、1つ以上のマイクロフォン、1つ以上のスピーカ、1つ以上の画像センサ、1つ以上のディスプレイなどのうちの少なくとも1つを含む。
メモリ220は、ダイナミックランダムアクセスメモリ(dynamic random-access memory、DRAM)、スタティックランダムアクセスメモリ(static random-access memory、SRAM)、ダブルデータレートランダムアクセスメモリ(double-data-rate random-access memory、DDRRAM)、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ220は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性記憶デバイスなどの不揮発性メモリを含む。メモリ220は、1つ以上の処理ユニット202からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ220は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ220、又はメモリ220の非一時的コンピュータ可読記憶媒体は、任意選択的なオペレーティングシステム230及びCGR体験モジュール240を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
オペレーティングシステム230は、様々な基本システムサービスを処理するための命令、及びハードウェア依存タスクを実行するための命令を含む。いくつかの実施形態では、CGR体験モジュール240は、1人以上のユーザに対する1つ以上のCGR体験(例えば、1人以上のユーザに対する単一のCGR体験、又は1人以上のユーザのそれぞれのグループに対する複数のCGR体験)を管理及び調整するように構成されている。その目的で、様々な実施形態では、CGR体験モジュール240は、データ取得ユニット242、トラッキングユニット244、調整ユニット246、及びデータ送信ユニット248を含む。
いくつかの実施形態では、データ取得ユニット242は、図1の少なくとも表示生成コンポーネント120、及び任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上からデータ(例えば、提示データ、相互作用データ、センサデータ、ロケーションデータなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット242は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、トラッキングユニット244は、シーン105をマッピングし、図1のシーン105に対する少なくとも表示生成コンポーネント120し、任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上のポジション/ロケーションを追跡するように構成される。その目的で、様々な実施形態において、トラッキングユニット244は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。いくつかの実施形態では、トラッキングユニット244は、ハンドトラッキングユニット243及び/又はアイトラッキングユニット245を含む。いくつかの実施形態では、ハンドトラッキングユニット243は、図1のシーン105に対する、表示生成コンポーネント120に対する、及び/又はユーザの手に対して定義された座標系に対する、ユーザの手の1つ以上の部分のポジション/ロケーション、及び/又はユーザの手の1つ以上の部分の運動を追跡するように構成される。ハンドトラッキングユニット243について、図4に関して以下でより詳細に説明する。いくつかの実施形態では、アイトラッキングユニット245は、シーン105に対する(例えば、物理的環境及び/又はユーザ(例えば、ユーザの手)に対する)、又は表示生成コンポーネント120を介して表示されるCGRコンテンツに対する、ユーザの視線(又は、より広範にはユーザの目、顔、又は頭部)のポジション及び移動を追跡するように構成される。アイトラッキングユニット245について、図5に関して以下でより詳細に説明する。
いくつかの実施形態では、調整ユニット246は、表示生成コンポーネント120によって、及び任意選択的に、出力デバイス155及び/又は周辺デバイス195のうちの1つ以上によって、ユーザに提示されるCGR体験を管理及び調整するように構成される。その目的で、様々な実施形態において、調整ユニット246は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、データ送信ユニット248は、データ(例えば、提示データ、ロケーションデータなど)を少なくとも表示生成コンポーネント120、及び任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上に送信するように構成される。その目的で、様々な実施形態では、データ送信ユニット248は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
データ取得ユニット242、トラッキングユニット244(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248が、単一のデバイス(例えば、コントローラ110)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット242、トラッキングユニット244(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
更に、図2は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実施形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、図2に別々に示すいくつかの機能モジュールは、単一のモジュール内に実装することができ、単一の機能ブロックの様々な機能は、様々な実施形態において1つ以上の機能ブロックによって実装することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
図3は、いくつかの実施形態による、表示生成コンポーネント120の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的で、非限定的な例として、いくつかの実施形態では、HMD120には、1つ以上の処理ユニット302(例えば、マイクロプロセッサ、ASIC、FPGA、GPU、CPU、処理コアなど)、1つ以上の入出力(I/O)デバイス及びセンサ306、1つ以上の通信インタフェース308(例えば、USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、赤外線、BLUETOOTH、ZIGBEE、及び/又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース310、1つ以上のCGRディスプレイ312、1つ以上の任意の内向き及び/又は外向き画像センサ314、メモリ320、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス304、が含まれる。
いくつかの実施形態では、1つ以上の通信バス304は、システムコンポーネントを相互接続し、システムコンポーネント間の通信を制御する、回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス及びセンサ306は、慣性測定装置(IMU)、加速度計、ジャイロスコープ、温度計、1つ以上の生理的センサ(例えば、血圧モニタ、心拍数モニタ、血液酸素センサ、血糖センサなど)、1つ以上のマイクロフォン、1つ以上のスピーカ、触覚エンジン、1つ以上の深度センサ(例えば、構造化光、飛行時間など)などのうちの少なくとも1つを含む。
いくつかの実施形態では、1つ以上のCGRディスプレイ312は、ユーザにCGR体験を提供するように構成される。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、ホログラフィック、デジタル光処理(DLP)、液晶ディスプレイ(LCD)、液晶オンシリコン(LCoS)、有機発光電界効果トランジスタ(OLET)、有機発光ダイオード(OLED)、表面伝導型電子放射素子ディスプレイ(SED)、電界放射ディスプレイ(FED)、量子ドット発光ダイオード(QD-LED)、MEMS、及び/又は同様のディスプレイタイプに相当する。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、回折、反射、偏光、ホログラフィックなどの、導波管ディスプレイに相当する。例えば、HMD120は、単一のCGRディスプレイを含む。別の実施例では、HMD120は、ユーザの各目用のCGRディスプレイを含む。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、MR又はVRコンテンツを提示することができる。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、MR又はVRコンテンツを提示することができる。
いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの目を含むユーザの顔の少なくとも一部に対応する画像データを取得するように構成される(及び、アイトラッキングカメラと称する場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの手(単数又は複数)及び任意選択的にユーザの腕(単数又は複数)の少なくとも一部に対応する画像データを取得するように構成される(及び、ハンドトラッキングカメラと称される場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、HMD120が存在しない場合に、ユーザが視認するシーンに対応する画像データを取得するように前方を向くように構成される(及び、シーンカメラと称される場合がある)。1つ以上の任意選択的な画像センサ314は、(例えば、相補型金属酸化膜半導体(CMOS)画像センサ若しくは電荷結合デバイス(CCD)画像センサを備えた)1つ以上のRGBカメラ、1つ以上の赤外線(IR)カメラ、1つ以上のイベントベースのカメラ、及び/又は同様のもの、を含むことができる。
メモリ320は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ320は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ320は、1つ以上の処理ユニット302から遠隔に位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ320は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ320、又はメモリ320の非一時的コンピュータ可読記憶媒体は、任意選択のオペレーティングシステム330及びCGR提示モジュール340を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
オペレーティングシステム330は、様々な基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含む。いくつかの実施形態では、CGR提示モジュール340は、1つ以上のCGRディスプレイ312を介してCGRコンテンツをユーザに提示するように構成される。その目的で、様々な実施形態では、CGR提示モジュール340は、データ取得ユニット342、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348を含む。
いくつかの実施形態では、データ取得ユニット342は、少なくとも図1のコントローラ110からデータ(例えば、提示データ、相互作用データ、センサデータ、ロケーションデータなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット342は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、CGR提示ユニット344は、1つ以上のCGRディスプレイ312を介してCGRコンテンツを提示するように構成される。その目的で、様々な実施形態では、CGR提示ユニット344は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、CGRマップ生成ユニット346は、メディアコンテンツデータに基づいて、CGRマップ(例えば、複合現実シーンの3Dマップ又はコンピュータ生成オブジェクトを配置することができる物理的環境のマップ)を生成するように構成される。その目的で、様々な実施形態では、CGRマップ生成ユニット346は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、データ送信ユニット348は、少なくともコントローラ110、及び任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上にデータ(例えば、提示データ、ロケーションデータなど)を伝送するように構成される。その目的で、様々な実施形態では、データ送信ユニット348は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
データ取得ユニット342は、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348は、単一のデバイス(例えば、図1の表示生成コンポーネント120)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット342、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
更に、図3は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実装形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、図3に別々に示すいくつかの機能モジュールは、単一のモジュール内に実現することができ、単一の機能ブロックの様々な機能は、様々な実施形態では1つ以上の機能ブロックによって実行することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
図4は、ハンドトラッキングデバイス140の例示的な実施形態の概略図である。いくつかの実施形態では、ハンドトラッキングデバイス140(図1)は、ハンドトラッキングユニット243(図2)によって制御されて、ユーザの手の1つ以上の部分のポジション/ロケーション、及び/又は図1のシーン105に対する(例えば、ユーザを取り囲む物理的環境の部分に対する、表示生成コンポーネント120に対する、又はユーザの部分(例えば、ユーザの顔、目、若しくは頭部)に対する、及び/又はユーザの手に対して定義された座標系に対するユーザの手の1つ以上の部分の運動を追跡する。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成コンポーネント120の一部である(例えば、ヘッドマウントデバイスに埋め込まれる、又はヘッドマウントデバイスに取り付けられる)。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成コンポーネント120とは別個である(例えば、別個のハウジング内に位置する、又は別個の物理的支持構造に取り付けられる)。
いくつかの実施形態では、ハンドトラッキングデバイス140は、人間のユーザの少なくとも手406を含む三次元シーン情報をキャプチャする画像センサ404(例えば、1つ以上のIRカメラ、3Dカメラ、深度カメラ、及び/又はカラーカメラなど)を含む。画像センサ404は、指及びそれらのそれぞれのポジションを区別するのを可能にするのに十分な解像度で手画像をキャプチャする。画像センサ404は、典型的には、ユーザの身体の他の部分の画像、又は身体の全ての画像をキャプチャし、ズーム機能又は高倍率を有する専用センサのいずれかを有して、所望の解像度で手の画像をキャプチャすることができる。いくつかの実施形態では、画像センサ404はまた、手406の2Dカラービデオ画像及びシーンの他の要素をキャプチャする。いくつかの実施形態では、画像センサ404は、シーン105の物理的環境をキャプチャする他の画像センサと併せて使用される、又はシーン105の物理的環境をキャプチャする画像センサとして機能する。いくつかの実施形態では、画像センサ404は、画像センサ又はその一部の視野が使用されて、画像センサによってキャプチャされた手の移動がコントローラ110への入力として処理される相互作用空間を定義するように、ユーザ又はユーザの環境に対して位置決めされる。
いくつかの実施形態では、画像センサ404は、3Dマップデータ(及び場合によってはカラー画像データ)を含むフレームのシーケンスをコントローラ110に出力し、これにより、マップデータから高レベル情報を抽出する。この高レベル情報は、典型的には、アプリケーションプログラムインタフェース(API)を介して、コントローラ上で実行されるアプリケーションに提供され、それに応じて表示生成コンポーネント120を駆動する。例えば、ユーザは、手408を移動させ、手の姿勢を変更することによって、コントローラ110上で動作するソフトウェアと相互作用することができる。
いくつかの実施形態では、画像センサ404は、手406を含むシーン上にスポットパターンを投射し、投射されたパターンの画像をキャプチャする。いくつかの実施形態では、コントローラ110は、パターンのスポットの横方向シフトに基づいて、三角測量によって(ユーザの手の表面上の点を含む)シーン内の点の3D座標を計算する。このアプローチは、ユーザが任意の種類のビーコン、センサ、又は他のマーカを保持又は着用する必要がないという点で有利である。これは、画像センサ404からの特定の距離で、所定の基準面に対するシーン内の点の深度座標を与える。本開示では、画像センサ404は、シーン内の点の深度座標が画像センサによって測定されたz成分に対応するように、直交する一連のx、y、z軸を定義すると想定される。あるいは、ハンドトラッキングデバイス440は、単一又は複数のカメラ又は他のタイプのセンサに基づいて、立体撮像又は飛行時間測定などの他の3Dマッピング方法を使用することができる。
いくつかの実施形態では、ハンドトラッキングデバイス140は、ユーザが手(例えば、手全体又は1本以上の指)を移動させている間、ユーザの手を含む深度マップの時間シーケンスをキャプチャし処理する。画像センサ404及び/又はコントローラ110内のプロセッサ上で動作するソフトウェアは、3Dマップデータを処理して、これらの深度マップ内の手のパッチ記述子を抽出する。ソフトウェアは、各フレームにおける手の姿勢を推定するために、以前の学習プロセスに基づいて、これらの記述子をデータベース408に記憶されたパッチ記述子と照合する。姿勢は、典型的には、ユーザの手関節及び指先の3Dロケーションを含む。
ソフトウェアはまた、ジェスチャを識別するために、シーケンス内の複数のフレームにわたって手及び/又は指の軌道を解析することができる。本明細書に記載される姿勢推定機能は、運動追跡機能とインターリーブされてもよく、それにより、パッチベースの姿勢推定が2つ(又はそれ以上)のフレーム毎に1回のみ実行される一方、追跡は残りのフレームにわたって発生する姿勢の変化を発見するために使用される。姿勢、運動、及びジェスチャ情報は、上述のAPIを介して、コントローラ110上で実行されるアプリケーションプログラムに提供される。このプログラムは、例えば、姿勢及び/又はジェスチャ情報に応じて、表示生成コンポーネント120上に提示された画像を移動させ修正する、又は他の機能を実行することができる。
いくつかの実施形態では、ソフトウェアは、例えばネットワーク上で、コントローラ110に電子形態でダウンロードされてもよい、又はその代わりに、光学、磁気、若しくは電子メモリ媒体などの、実体的非一時的媒体に提供されてもよい。いくつかの実施形態では、データベース408は、同様に、コントローラ110に関連付けられたメモリに記憶される。代替的又は追加的に、コンピュータの記載された機能の一部又は全ては、カスタム又は半カスタム集積回路又はプログラム可能なデジタル信号プロセッサ(DSP)などの専用のハードウェアに実装されてもよい。コントローラ110は、例として、画像センサ440からの別個のユニットとして図4に示されているが、コントローラの処理機能の一部又は全部は、好適なマイクロプロセッサ及びソフトウェアによって、又はハンドトラッキングデバイス402のハウジング内の専用回路によって、又は他の方法で画像センサ404に関連付けることができる。いくつかの実施形態では、これらの処理機能のうちの少なくともいくつかは、(例えば、テレビセット、ハンドヘルドデバイス、又はヘッドマウントデバイスにおいて)表示生成コンポーネント120と統合された好適なプロセッサによって、又はゲームコンソール又はメディアプレーヤなどの任意の他の適切なコンピュータ化されたデバイスを用いて実行されてもよい。画像センサ404の感知機能は、同様に、センサ出力によって制御されるコンピュータ又は他のコンピュータ化された装置に統合することができる。
図4は、いくつかの実施形態による、画像センサ404によってキャプチャされた深度マップ410の概略図を更に含む。深度マップは、上述したように、それぞれの深度値を有するピクセルのマトリックスを含む。手406に対応するピクセル412は、このマップで背景及び手首からセグメント化されている。深度マップ410内の各ピクセルの輝度は、深度値、即ち、画像センサ404からの測定されたz距離に反比例し、深度が上昇するにつれて階調が濃くなる。コントローラ110は、人間の手の特徴を有する画像の成分(即ち、隣接ピクセル群)を識別及びセグメント化するために、これらの深度値を処理する。これらの特性は、例えば、深度マップのシーケンスの全体サイズ、形状、フレームからフレームへの運動を含むことができる。
図4はまた、いくつかの実施形態による、コントローラ110が手406の深度マップ410から最終的に抽出する手骨格414を概略的に示す。図4では、骨格414は、元の深度マップからセグメント化された手の背景416に重畳される。いくつかの実施形態では、手(例えば、指関節、指先、掌の中心、手首に接続する手の終端など)、及び任意選択的に手に接続された手首又は腕上の主要な特徴点が、手の骨格414上で識別され配置される。いくつかの実施形態では、複数の画像フレーム上にわたるこれらの主要な特徴点のロケーション及び移動がコントローラ110によって使用されて、いくつかの実施形態により、手によって実行される手ジェスチャ又は手の現在の状態を判定する。
図5は、アイトラッキングデバイス130(図1)の例示的な実施形態を示す。いくつかの実施形態では、アイトラッキングデバイス130は、アイトラッキングユニット245(図2)によって制御されて、シーン105に対する、又は表示生成コンポーネント120を介して表示されるCGRコンテンツに対するユーザの視線のポジション及び移動を追跡する。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成コンポーネント120と統合される。例えば、いくつかの実施形態では、表示生成コンポーネント120がヘッドセット、ヘルメット、ゴーグル、又は眼鏡などのヘッドマウントデバイス、又はウェアラブルフレームに配置されたハンドヘルドデバイスである場合、ヘッドマウントデバイスは、ユーザによる視聴のためのCGRコンテンツを生成するコンポーネント及びCGRコンテンツに対するユーザの視線を追跡するためのコンポーネントの両方を含む。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成コンポーネント120とは別個である。例えば、表示生成コンポーネントがハンドヘルドデバイス又はCGRチャンバである場合、アイトラッキングデバイス130は、任意選択的に、ハンドヘルドデバイス又はCGRチャンバとは別個のデバイスである。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイス又はヘッドマウントデバイスの一部である。いくつかの実施形態では、ヘッドマウントアイトラッキングデバイス130は、任意選択的に、頭部に装着されている表示生成コンポーネント又は頭部に装着されていない表示生成コンポーネントと共に使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、ヘッドマウント表示生成コンポーネントと組み合わせて使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、非ヘッドマウント表示生成コンポーネントの一部である。
いくつかの実施形態では、表示生成コンポーネント120は、ユーザの目の前に左及び右の画像を含むフレームを表示して、3D仮想ビューをユーザに提供するディスプレイ機構(例えば、左右の目近傍ディスプレイパネル)を使用する。例えば、ヘッドマウント表示生成コンポーネントは、ディスプレイとユーザの目との間に位置する左右の光学レンズ(本明細書では接眼レンズと称される)を含んでもよい。いくつかの実施形態では、表示生成コンポーネントは、表示のためにユーザの環境のビデオをキャプチャする1つ以上の外部ビデオカメラを含んでもよい、又はそれに結合されてもよい。いくつかの実施形態では、ヘッドマウント表示生成コンポーネントは、ユーザが物理的環境を直接視認し、透明又は半透明ディスプレイ上に仮想オブジェクトを表示することができる透明又は半透明のディスプレイを有してもよい。いくつかの実施形態では、表示生成コンポーネントは、仮想オブジェクトを物理的環境に投影する。仮想オブジェクトは、例えば、物理的表面上に、又はホログラフとして投影され、それによって、個人は、システムを使用して、物理的環境の上に重ねられた仮想オブジェクトを観察することができる。そのような場合、左右の目のための別個のディスプレイパネル及び画像フレームが必要とされない場合がある。
図5に示すように、いくつかの実施形態では、視線トラッキングデバイス130は、少なくとも1つのアイトラッキングカメラ(例えば、赤外線(IR)又は近IR(NIR)カメラ)、並びに光(例えば、IR又はNIR光)をユーザの目に向けて発する照明源(例えば、LEDのアレイ若しくはリングなどのIR又はNIR光源)を含む。アイトラッキングカメラは、ユーザの目に向けられて、光源からの反射IR又はNIR光を目から直接受信してもよく、又は代替的に、ユーザの目と、可視光が通過することを可能にしながら目からアイトラッキングカメラにIR又はNIR光を反射させるディスプレイパネルとの間に配置される「ホット」ミラーに向けられてもよい。視線トラッキングデバイス130は、任意選択的に、ユーザの目の画像を(例えば、1秒当たり60~120フレーム(fps)でキャプチャされるビデオストリームとして)キャプチャし、画像を解析して、視線追跡情報を生成し、視線追跡情報をコントローラ110に通信する。いくつかの実施形態では、ユーザの両目は、それぞれのアイトラッキングカメラ及び照明源によって別々に追跡される。いくつかの実施形態では、ユーザの片目のみが、個別のアイトラッキングカメラ及び照明源によって追跡される。
いくつかの実施形態では、アイトラッキングデバイス130は、デバイス固有の較正プロセスを使用して較正されて、特定の動作環境100用のアイトラッキングデバイスのパラメータ、例えば、LED、カメラ、ホットミラー(存在する場合)、接眼レンズ、及びディスプレイスクリーンの3D幾何学的関係及びパラメータを判定する。デバイス固有の較正プロセスは、AR/VR機器のエンドユーザへの配送前に、工場又は別の施設で実行されてもよい。デバイス固有の較正プロセスは、自動較正プロセスであってもよく、又は手動較正プロセスであってもよい。ユーザ固有の較正プロセスは、特定のユーザの目パラメータ、例えば、瞳孔ロケーション、中心視覚ロケーション、光軸、視軸、目間隔などの推定を含んでもよい。いくつかの実施形態によれば、いったんアイトラッキングデバイス130についてデバイス固有及びユーザ固有のパラメータが判定されると、アイトラッキングカメラによってキャプチャされた画像は、グリント支援方法を使用して処理され、ディスプレイに対するユーザの現在の視覚軸及び視点を判定することができる。
図5に示すように、アイトラッキングデバイス130(例えば、130A又は130B)は、接眼レンズ(単数又は複数)520と、アイトラッキングが行われるユーザの顔の側に配置された少なくとも1つのアイトラッキングカメラ540(例えば、赤外線(IR)又は近IR(NIR)カメラ)と光(例えば、IR又はNIR光)をユーザの目(単数又は複数)592に向かって発する照明源530(例えば、NIR発光ダイオード(LED)のアレイ若しくはリングなどのIR又はNIR光源)とを含む視線追跡システムと、を含む。アイトラッキングカメラ540は、ユーザの目(単数又は複数)592とディスプレイ510(例えば、ヘッドマウントディスプレイの左若しくは右側のディスプレイパネル、又はハンドヘルドデバイスのディスプレイ、プロジェクタなど)との間に位置し、(例えば、図5の上部に示されるように)可視光を透過させながら、目(単数又は複数)592からのIR又はNIR光を反射するミラー550に向けられてもよく、あるいは、(例えば、図5の下部に示されるように)反射されたユーザの目(単数又は複数)592からのIR又はNIR光を受け取るように目(単数又は複数)592に向けられてもよい。
いくつかの実施形態では、コントローラ110は、AR又はVRフレーム562(例えば、左及び右のディスプレイパネルの左及び右のフレーム)をレンダリングし、フレーム562をディスプレイ510に提供する。コントローラ110は、様々な目的のために、例えば、表示のためにフレーム562を処理する際に、アイトラッキングカメラ540からの視線追跡入力542を使用する。コントローラ110は、任意選択的に、グリント支援方法又は他の適切な方法を使用して、アイトラッキングカメラ540から得られた視線追跡入力542に基づいて、ディスプレイ510上のユーザの視点を推定する。視線追跡入力542から推定された視点は、任意選択的に、ユーザが現在見ている方向を判定するために使用される。
以下、ユーザの現在の視線方向のいくつかの可能な使用事例について説明するが、これは限定することを意図するものではない。例示的な使用例として、コントローラ110は、判定されたユーザの視線方向に基づいて、仮想コンテンツを異なってレンダリングすることができる。例えば、コントローラ110は、周辺領域においてよりもユーザの現在の視線方向から判定された中心視覚領域において、より高い解像度で仮想コンテンツを生成してもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内の仮想コンテンツを位置決め又は移動させてもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内に特定の仮想コンテンツを表示してもよい。ARアプリケーションにおける別の例示的な使用事例として、コントローラ110は、CGR体験の物理的環境をキャプチャして、判定された方向に焦点を合わせるように外部カメラを方向付けることができる。次いで、外部カメラの自動焦点機構は、ユーザが現在ディスプレイ510上で見ている環境内のオブジェクト又は表面に焦点を合わせることができる。別の例示的な使用事例として、接眼レンズ520は集束可能なレンズであってもよく、視線追跡情報がコントローラによって使用されて、ユーザが現在見ている仮想オブジェクトが、ユーザの目592の収束に一致するために適切な両目連動を有するように接眼レンズ520の焦点を調整する。コントローラ110は、視線追跡情報を活用して、ユーザが見ている近接オブジェクトが正しい距離で現れるように接眼レンズ520を方向付けて焦点を調整することができる。
いくつかの実施形態では、アイトラッキングデバイスは、ウェアラブルハウジングに取り付けられた、ディスプレイ(例えば、ディスプレイ510)、2つの接眼レンズ(例えば、接眼レンズ(単数又は複数)520)、アイトラッキングカメラ(例えば、アイトラッキングカメラ(単数又は複数)540)、及び光源(例えば、光源530(例えば、IR LED又はNIR LED))を含むヘッドマウントデバイスの一部である。光源は、ユーザの目(単数又は複数)592に向かって光(例えば、IR又はNIR光)を発する。いくつかの実施形態では、光源は、図5に示されるように、各レンズの周りにリング又は円状に配置されてもよい。いくつかの実施形態では、8つの光源530(例えば、LED)が、一例として各レンズ520の周りに配置される。しかしながら、より多くの又はより少ない光源530が使用されてもよく、光源530の他の配置及びロケーションが用いられてもよい。
いくつかの実施形態では、ディスプレイ510は、可視光範囲内の光を発し、IR又はNIR範囲内の光を発さないため、視線追跡システムにノイズを導入しない。アイトラッキングカメラ(単数又は複数)540のロケーション及び角度は、例として与えられ、限定することを意図するものではないことに留意されたい。いくつかの実施形態では、単一のアイトラッキングカメラ540がユーザの顔の各側に位置する。いくつかの実施形態では、2つ以上のNIRカメラ540をユーザの顔の各側に使用することができる。いくつかの実施形態では、より広い視野(FOV)を有するカメラ540と狭いFOVを有するカメラ540が、ユーザの顔の各側に使用されてもよい。いくつかの実施形態では、1つの波長(例えば、850nm)で動作するカメラ540と異なる波長(例えば、940nm)で動作するカメラ540とが、ユーザの顔の各側に使用されてもよい。
図5に示すような視線追跡システムの実施形態は、例えば、コンピュータ生成現実(例えば、仮想現実、及び/又は複合現実を含む)アプリケーションに使用されて、コンピュータ生成現実(例えば、仮想現実、拡張現実、及び/又は拡張仮想を含む)の体験をユーザに提供することができる。
図6は、いくつかの実施形態による、グリント支援視線追跡パイプラインを示す。いくつかの実施形態では、視線追跡パイプラインは、グリント支援視線追跡システム(例えば、図1及び図5に示されるようなアイトラッキングデバイス130)によって実現される。グリント支援視線追跡システムは、追跡状態を維持することができる。最初、追跡状態はオフ又は「いいえ」である。追跡状態にあるとき、グリント支援視線追跡システムは、現フレームを解析する際に前のフレームからの先行情報を使用して、現フレーム内の瞳孔輪郭及びグリントを追跡する。追跡状態にない場合、グリント支援視線追跡システムは、現フレーム内の瞳孔及びグリントを検出しようとし、それに成功した場合、追跡状態を「はい」に初期化し、追跡状態で次のフレームに続く。
図6に示すように、視線追跡カメラは、ユーザの左目及び右目の左右の画像をキャプチャすることができる。次いで、キャプチャされた画像は、610で開始される処理のために視線追跡パイプラインに入力される。要素600に戻る矢印によって示されるように、視線追跡システムは、例えば、毎秒60~120フレームの速度で、ユーザの目の画像をキャプチャし続けることができる。いくつかの実施形態では、キャプチャされた画像の各セットが、処理のためにパイプラインに入力されてもよい。しかしながら、いくつかの実施形態、又はいくつかの条件下では、全てのキャプチャされたフレームがパイプラインによって処理されるわけではない。
610で、現在のキャプチャされた画像について、追跡状態がはいである場合、この方法は要素640に進む。610で、追跡状態がいいえである場合、620に示されるように、画像が解析されて、画像内のユーザの瞳孔及びグリントを検出する。630で、瞳孔とグリントが正常に検出される場合、方法は要素640に進む。正常に検出されない場合、方法は要素610に戻り、ユーザの目の次の画像を処理する。
640で、要素410から進む場合、前のフレームからの先行情報に部分的に基づいて、現フレームが解析されて、瞳孔及びグリントを追跡する。640で、要素630から進む場合、現フレーム内の検出された瞳孔及びグリントに基づいて、追跡状態が初期化される。要素640での処理の結果は、追跡又は検出の結果が信頼できることを確認するためにチェックされる。例えば、結果は、瞳孔及び視線推定を実行するための十分な数のグリントが現フレームで正常に追跡又は検出されるかどうかを判定するためにチェックすることができる。650で、結果が信頼できない場合、追跡状態はいいえに設定され、方法は要素610に戻り、ユーザの目の次の画像を処理する。650で、結果が信頼できる場合、方法は要素670に進む。670で、追跡状態ははいに設定され(まだはいではない場合)、瞳孔及びグリント情報が要素680に渡されて、ユーザの視点を推定する。
図6は、特定の実施で使用され得るアイトラッキング技術の一例として機能することを意図している。当業者によって認識されるように、現在存在するか、又は将来開発される他のアイトラッキング技術は、様々な実施形態によるCGR体験をユーザに提供するためにコンピュータシステム101において、本明細書に記載されるグリント支援アイトラッキング技術の代わりに、又はそれと組み合わせて使用することができる。
本開示では、コンピュータシステムとの相互作用に関して、様々な入力方法が説明される。一例が1つの入力デバイス又は入力方法を使用して提供され、別の例が別の入力デバイス又は入力方法を使用して提供される場合、各例は、別の例に関して記載された入力デバイス又は入力方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。同様に、様々な出力方法が、コンピュータシステムとの相互作用に関して説明される。一例が1つの出力デバイス又は出力方法を使用して提供され、別の例が別の出力デバイス又は出力方法を使用して提供される場合、各例は、別の例に関して記載された出力デバイス又は出力方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。同様に、様々な方法が、コンピュータシステムを介した仮想環境又は複合現実環境との相互作用に関して説明される。一例が仮想環境との相互作用を使用して提供され、別の例が複合現実環境を使用して提供される場合、各例は、別の例に関して説明された方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。したがって、本開示は、各例示的な実施形態の説明における実施形態の全ての特徴を網羅的に列挙することなく、複数の例の特徴の組み合わせである実施形態を開示する。
ユーザインタフェース及び関連するプロセス
ここで、ユーザインタフェース(「UI」)の実施形態、及び、表示生成コンポーネント、1つ以上の入力デバイス、及び(任意選択的に)1つ又は複数のカメラを備えた、ポータブル多機能デバイス又はヘッドマウントデバイスなどのコンピュータシステムにおいて実行され得る関連プロセスに注目する。
図7A~図7Pは、表示生成コンポーネント(例えば、表示生成コンポーネント7100、表示生成コンポーネント7200、表示生成コンポーネント120など)を介して表示される三次元環境と、三次元環境に向けられたユーザ入力及び/又は他のコンピュータシステム及び/又はセンサから受信された入力によって引き起こされる三次元環境において発生する相互作用とを示す。いくつかの実施形態では、入力は、三次元環境内の仮想オブジェクトのポジションで検出されたユーザの視線によって、仮想オブジェクトのポジションに対応する、物理的環境内のロケーションで実行される手のジェスチャによって、仮想オブジェクトが入力フォーカスを有する間に仮想オブジェクトのポジションとは無関係な物理的環境内のロケーションで実行される手のジェスチャ(例えば、同時に及び/又は以前に検出された視線入力によって選択される、同時に又は以前に検出されたポインタ入力によって選択される、同時に及び/又は以前に検出されたジェスチャ入力によって選択されるなど)によって、仮想オブジェクトのポジションにフォーカスセレクタオブジェクト(例えば、ポインタオブジェクト、セレクタオブジェクトなど)を配置した入力デバイスなどによって、三次元内の仮想オブジェクトに向けられる。いくつかの実施形態では、入力は、ユーザの手の移動(例えば、手全体の移動、個別の姿勢での手全体の移動、手の一部の手の別の部分に対する移動、2つの手の間の相対的な移動など)及び/又は物理的オブジェクトに対する操作(例えば、タッチする、スワイプする、タップする、開く、向かって移動する、相対的に移動するなど)によって、物理的オブジェクト又は物理的オブジェクトに対応する仮想オブジェクトの表現に向けられる。いくつかの実施形態では、コンピュータシステムは、センサ(例えば、画像センサ、温度センサ、バイオメトリックセンサ、運動センサ、近接センサなど)からの入力及びコンテキスト条件(例えば、ロケーション、時間、環境内の異なるの存在など)に従って、三次元環境の表示を変更する(例えば、追加の仮想コンテンツを表示する、又は既存の仮想コンテンツの表示を停止する、視覚的コンテンツを表示する異なる没入レベル間で遷移するなど)。いくつかの実施形態では、コンピュータシステムは、(例えば、共有コンピュータ生成体験、共有仮想環境、通信セッションの共有仮想又は拡張現実環境などにおいて)コンピュータ生成環境をコンピュータシステムのユーザと共有している他のユーザによって使用される他のコンピュータからの入力に従って、三次元環境の表示を変更する(例えば、追加の仮想コンテンツを表示する、又は既存の仮想コンテンツの表示を停止する、視覚的コンテンツを表示する様々な没入レベル間で遷移するなど)。
いくつかの実施形態では、表示生成コンポーネントを介して表示される三次元環境は、物理的環境の表現なしに三次元環境内の様々な仮想ポジションに仮想オブジェクト及びコンテンツを含む仮想三次元環境である。いくつかの実施形態では、三次元環境は、物理的環境の1つ以上の物理的側面(例えば、壁、床、表面、重力の方向、時刻などのポジション及び向き)によって制約される三次元環境内の様々な仮想ポジションに仮想オブジェクトを表示する複合現実環境である。いくつかの実施形態では、三次元環境は、物理的環境の表現を含む拡張現実環境である。物理的環境の表現は、物理的環境内の異なる物理的オブジェクトと表面との間の空間関係が、三次元環境内の物理的オブジェクトと表面との表現間の空間関係によって反映されるように、三次元環境内の異なるポジションにある物理的オブジェクト及び表面のそれぞれの表現を含む。仮想オブジェクトが、三次元環境内の物理的オブジェクト及び表面の表現のポジションに対して配置されるとき、仮想オブジェクトは、物理的環境内の物理的オブジェクト及び表面との対応する空間関係を有するように見える。いくつかの実施形態では、コンピュータシステムは、ユーザ入力及び/又はコンテキスト条件に基づいて、異なるタイプの環境を表示することの間で遷移する(例えば、異なる没入レベルでコンピュータ生成環境又は体験を提示すること、仮想コンテンツからの、及び物理的環境の表現からの音声/視覚感覚入力の相対的プロミネンスを調整することなどの間で遷移する)。
いくつかの実施形態では、表示生成コンポーネントは、物理的環境の表現が表示されるパススルー部分を含む。いくつかの実施形態では、パススルー部分は、ユーザの視野を取り囲み、ユーザの視野内の物理的環境の少なくとも一部を明らかにする表示生成コンポーネントの透明又は半透明(例えば、シースルー)部分である。例えば、パススルー部分は、半透明(例えば、50%、40%、30%、20%、15%、10%、又は5%未満の不透明度)又は透明であるヘッドマウントディスプレイの一部であり、それにより、ユーザは、ヘッドマウントディスプレイを除去することなく、又はヘッドアップディスプレイから離れたりすることなく、パススルー部分を通じてユーザを取り囲む現実世界を視認することができる。いくつかの実施形態では、パススルー部分は、仮想又は複合現実環境を表示するとき、半透明又は透明から完全に不透明に徐々に遷移する。いくつかの実施形態では、表示生成コンポーネントのパススルー部分は、1つ以上のカメラ(例えば、モバイルデバイスの若しくはヘッドマウントディスプレイに関連付けられた後面カメラ(単数又は複数)、又は画像データを電子デバイスに供給する他のカメラ)によってキャプチャされた物理的環境の少なくとも一部の画像又はビデオのライブフィードを表示する。いくつかの実施形態では、1つ以上のカメラは、直接ユーザの目の前に(例えば、表示生成コンポーネントの後ろに)ある物理的環境の一部に向けられる。いくつかの実施形態では、1つ以上のカメラは、直接ユーザの目の前にない(例えば、異なる物理的環境にある、又はユーザの側方又は後方にある)物理的環境の一部に向けられる。
いくつかの実施形態では、物理的環境(例えば、仮想現実環境、複合現実環境、拡張現実環境など)内の1つ以上の物理的オブジェクトのロケーションに対応するポジションに仮想オブジェクトを表示するとき、仮想オブジェクトのうちの少なくともいくつかは、カメラのライブビューの一部(例えば、ライブビュー内にキャプチャされた物理的環境の一部)の代わりに表示される(例えば、その表示を置換する)。いくつかの実施形態では、仮想オブジェクト及びコンテンツのうちの少なくともいくつかは、物理的環境内の物理的表面又は空き空間上に投影され、表示生成コンポーネントのパススルー部分を通じて可視である(例えば、物理的環境のカメラビューの一部として、又は表示生成コンポーネントの透明若しくは半透明の部分を通じて可視であるなど)。いくつかの実施形態では、仮想オブジェクト及びコンテンツのうちの少なくともいくつかは、ディスプレイの一部分に重なるように表示され、表示生成コンポーネントの透明又は半透明部分を介して可視である物理的環境の少なくとも一部分のビューを遮断する。
いくつかの実施形態では、表示生成コンポーネントは、三次元環境の現在表示されているビューの視点の仮想ポジションを三次元環境に対して変更するユーザ入力又は移動に従って、三次元環境の異なるビューを表示する。いくつかの実施形態では、三次元環境が仮想環境であるとき、視点は、物理的環境内のユーザの頭部、胴体、及び/又は表示生成コンポーネントの移動を必要とすることなく、ナビゲーション又は移動要求(例えば、空中の手のジェスチャ、手の1つの部分の手の別の部分に対する移動によって行われるジェスチャなど)に従って移動する。いくつかの実施形態では、(例えば、ユーザが表示生成コンポーネントを保持すること、又はHMDを装着することなどによる)物理的環境に対するユーザの頭部及び/若しくは胴体の移動、並びに/又はコンピュータシステムの表示生成コンポーネント若しくは他のロケーション感知要素の移動などは、三次元環境に対する視点の対応する移動(例えば、対応する移動方向、移動距離、移動速度、及び/又は向きの変化などを伴う)を引き起こし、三次元環境の現在表示されているビュー内の対応する変化をもたらす。いくつかの実施形態では、仮想オブジェクトが視点に対して予め設定された空間関係を有するとき、三次元環境に対する視点の移動は、視野内の仮想オブジェクトのポジションが維持されている間(例えば、仮想オブジェクトは、頭部が係止されていると言われる)、三次元環境に対する仮想オブジェクトの移動を引き起こす。いくつかの実施形態では、仮想オブジェクトは、ユーザに対して身体が係止され、ユーザが物理的環境内で全体として移動する(例えば、コンピュータシステムの表示生成コンポーネント及び/又は他のロケーション感知コンポーネントを携行又は装着する)とき、三次元環境に対して移動するが、ユーザの頭部の移動に応じて三次元環境内で移動しない(例えば、コンピュータシステムの表示生成コンポーネント及び/又は他のロケーション感知コンポーネントは、物理的環境内のユーザの固定ロケーションの周りを回転する)。
いくつかの実施形態では、図7A~7Pに示される三次元環境のビューは、ユーザの手(単数又は複数)、腕(単数又は複数)、及び/又は手首(単数又は複数)の表現(単数又は複数)を含む。いくつかの実施形態では、表現(単数又は複数)は、表示生成コンポーネントを介して提供される物理的環境の表現の一部である。いくつかの実施形態では、表現は、物理的環境の表現の一部ではなく、(例えば、ユーザの手(単数又は複数)、腕(単数又は複数)、及び手首(単数又は複数)に向けられる1つ以上のカメラによって)、三次元環境のビューとは無関係に、三次元環境内に表示される。いくつかの実施形態では、表現(単数又は複数)は、コンピュータシステム(単数又は複数)の1つ以上のカメラによってキャプチャされたカメラ画像、又は様々なセンサによってキャプチャされた情報に基づく腕(単数又は複数)、手首(単数又は複数)、及び/又は手(単数又は複数)の様式化されたバージョンを含む。いくつかの実施形態では、表現(単数又は複数)は、物理的環境の表現の一部の表示を置換する、その一部に重なる、又はその一部のビューを遮断する。いくつかの実施形態では、表示生成コンポーネントが物理的環境のビューを提供せず、完全な仮想環境(例えば、カメラビュー又は透明パススルー部分がない)を提供するとき、ユーザの一方又は両方の腕、手首、及び/又は手のリアルタイム視覚的表現(例えば、様式化表現又はセグメント化されたカメラ画像)は、依然として仮想環境内に表示され得る。
図7A~図7Cは、いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用を示すブロック図である。
いくつかの実施形態では、コンピュータシステムは、複数のユーザ(例えば、第1のユーザ7102、第2のユーザ7002、別のユーザなど)が、三次元環境(例えば、三次元環境7015、別の仮想環境又は拡張現実環境など)に表示される第1のユーザインタフェースオブジェクト(例えば、第1のユーザインタフェースオブジェクト7016、別のユーザインタフェースオブジェクト、コントロールパネル、仮想メニュー、メディアオブジェクトなど)にアクセスする権利を有することを許可するが、別のユーザ(例えば、第2のユーザ7002、第2のユーザ7002とは異なる別のユーザなど)が第1のユーザインタフェースオブジェクトと相互作用している間、ユーザ(例えば、第1のユーザ7102、又は第1のユーザ7102とは異なる別のユーザなど)が第1のユーザインタフェースオブジェクトにアクセスすることを防止する。第1のユーザ(例えば、第1のユーザ7102)によって使用される第1の表示生成コンポーネント(例えば、表示生成コンポーネント7200、HMDなどの異なるタイプの表示生成コンポーネントなど)を介して第1のユーザインタフェースオブジェクトを含む三次元環境のビューを表示するとき、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力(例えば、視線入力、手の移動、視線入力とユーザの手の移動との組み合わせなど)を検出する。第1のユーザ入力の検出に応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトがその時点で第1のユーザとの相互作用に利用可能であるか否かに応じて、第1のユーザインタフェースオブジェクトに対して第1のユーザ入力に対応する第1の動作を実行する(例えば、第1のユーザインタフェースオブジェクト又はその表現を第1のユーザの手7202の表現7202’に移動させる、三次元環境を変化させる(例えば、三次元環境内の仮想コンテンツの表示又は解除を引き起こす、三次元環境内の他の仮想コンテンツを変化させるなど)第1のユーザインタフェースオブジェクトに関連付けられた機能を実行するなど)か、又は第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションを表示し、第1の動作の実行を取りやめる。コンピュータシステムは、視覚的インジケーションを提供し、別のユーザ(例えば、第2のユーザ7002)がその時点で第1のユーザインタフェースオブジェクトを制御する(例えば、別のユーザが、第1のユーザインタフェースオブジェクトと相互作用している、第1のユーザの同時相互作用を除外するように第1のユーザインタフェースオブジェクトと相互作用している、及び/又は第1のユーザが実行しようとしているタイプのアクションについて第1のユーザインタフェースオブジェクトをロックしているなど)という判定に従って、第1の動作の実行を取りやめる。いくつかの実施形態では、視覚的インジケーションを表示することは、第1のユーザに対して示される三次元環境のビュー内の第1のユーザインタフェースオブジェクトを移動させて、第1のユーザインタフェースオブジェクトと第1のユーザの手の接近表現との間の予め設定された距離を維持することを含む。いくつかの実施形態では、視覚的インジケーションを表示することは、第1のユーザに対して示される三次元環境のビュー(例えば、図7Cに示されるように、ユーザ7102側のビュー)内の第1のユーザインタフェースオブジェクトの視覚的外観を変更することを含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトが制御ユーザによって(例えば、スロージェスチャ、トスジェスチャなどによって)第1のユーザに解放されると、コンピュータシステムは、第1のユーザインタフェースオブジェクトが、第1のユーザに対して示される三次元環境の現在表示されているビューの視点に対して予め設定された向きで(例えば、コンテンツ側又は制御側が第1のユーザ7102に向かって)表示されるように、第1のユーザインタフェースオブジェクトを回転させる。いくつかの実施形態では、コンピュータシステムは、第1のユーザの一部の表現(例えば、第1のユーザ7102の手7202の表現、ユーザの顔の仮想ポジションの腕の届く範囲内など)のポジション又はその近くに第1のユーザインタフェースオブジェクトの表現を表示することによって、第1のユーザインタフェースオブジェクトの第1のユーザへのアクセスを制御する。
図7A~図7Cに示される例では、いくつかの実施形態によれば、三次元環境7015は、ユーザ7102及び7002のうちの一方から、一方のユーザによって制御されるコンピュータシステムを使用して開始され、ユーザ7102及び7002のうちの他方によって、他方のユーザによって制御されるコンピュータシステムを使用して受け入れられる要求に応じて、第1のユーザ7102と第2のユーザ7002との間で共有される。いくつかの実施形態では、両方のユーザが、第3のユーザによって使用されるコンピュータシステムから、それぞれのコンピュータシステムを使用して三次元環境を共有する要求を受信し、受け入れている。いくつかの実施形態では、両方のユーザが、それぞれのコンピュータシステムを使用して、三次元環境を共有する要求をサーバに送信しており、ユーザの要求は、サーバによって受け入れられている。コンピュータ生成三次元環境を共有するとき、ユーザのロケーション及び向き、並びにユーザのそれぞれの頭、目、手、腕、及び/又は手首のロケーション及び向きは、センサ(例えば、カメラ、運動センサなど)によってリアルタイムで又は周期的にキャプチャされ、ロケーション及び向きデータは、ユーザによって制御されるコンピュータシステムの一方又は両方、及び/又はコンピュータシステムと通信しているサーバに提供される。ロケーションデータは、コンピュータシステム及び/又はサーバによって使用されて、コンピュータ生成三次元環境内のユーザのそれぞれのポジション及び向き、並びにユーザのそれぞれの頭部、目、手、腕、及び/又は手首のそれぞれのポジション及び向き、並びに、対応して、ユーザに関連付けられた異なる表示生成コンポーネントを介して提供される三次元環境のビュー内のユーザのそれぞれの頭部、腕、手、及び/又は手首を含むユーザの表現のそれぞれのポジション、並びにユーザに関連付けられた異なる表示生成コンポーネントを介して提供される三次元環境のビューの視野及び視点を判定する。
いくつかの実施形態では、2人以上のユーザが、コンピュータ生成環境(例えば、仮想電話会議、チャットセッション、マルチプレーヤゲーム、共有コンピュータ生成体験(例えば、グループ瞑想、エクササイズ、ゲーム、共同作業など)など)を共有するとき、それらは、コンピュータ生成環境内に存在する同じユーザインタフェースオブジェクト(例えば、仮想ボール、仮想制御パネル、文書又はメディアコンテンツ、仮想メニュー、ユーザインタフェースなど)を制御及び/又は操作することを所望し得る。これにより、コンピュータシステムがユーザインタフェースオブジェクトに対して異なるユーザのアクションを一貫して優先することが困難になる場合があり、結果として生じる三次元環境の変化がユーザを混乱させる可能性がある。本明細書に開示されるように、コンピュータシステムは、第1のユーザ7102に提示される環境のビュー7015-1内の第1のユーザインタフェースオブジェクトの外観特性のセットを変更することによって、環境内の第2のユーザ7002の既に制御下にある第1のユーザインタフェースオブジェクト7016と相互作用しようとする第1のユーザ7102の試みに応じて視覚的フィードバックを提供し、それによって、ユーザのアクション間の競合を低減し、ユーザが第1のユーザインタフェースオブジェクト7016と相互作用するときのユーザ混乱を低減する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトを制御する第2のユーザ7002に対して示される三次元環境のビュー7015-2に提示される第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクトと相互作用しようとする第1のユーザの試みの結果として変更されず、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と相互作用するときに第2のユーザ7002に対する混乱を引き起こさない。
図7Aは、例示的な物理的環境(例えば、シーン105、別の屋内又は屋外の物理的環境など)を示す。いくつかの実施形態では、図7Aに示されるように、2人以上のユーザ(例えば、ユーザ7102、ユーザ7002など)が同じ物理的環境に存在する。第1のユーザ7102は、第1の表示生成コンポーネント(例えば、表示生成コンポーネント7200、第1のユーザによって使用されるHMDなどの別のタイプの表示生成コンポーネントなど)を介して、三次元環境7015(例えば、拡張現実環境、仮想環境など)の第1のビュー7015-1を見ている。第2のユーザ7002は、第2の表示生成コンポーネント(例えば、表示生成コンポーネント7100、第2のユーザによって使用されるHMDなどの別のタイプの表示生成コンポーネントなど)を介して同じ三次元環境7015の第2のビュー7015-2を見ている。いくつかの実施形態では、三次元環境7015(例えば、第1の表示生成コンポーネント7200を介して提示されるときに7015-1とラベル付けされ、第2の表示生成コンポーネント7100を介して提示されるときに7015-2とラベル付けされるなど)は、共有コンピュータ生成体験、通信セッション、アプリケーション環境、ゲーム、映画などの環境である。
いくつかの実施形態では、第1のユーザ7102及び第2のユーザ7002は、必ずしも同じ物理的環境に同時に位置している必要はなく、2つの異なる物理的環境に別々に位置していてもよい。いくつかの実施形態では、三次元環境7015は、第2のユーザではなく第1のユーザの物理的環境の表現を含み、第1のユーザ及び第2のユーザは、第1のユーザの物理的環境に基づいて、三次元環境内の共有体験を有する。いくつかの実施形態では、三次元環境7015は、第1のユーザではなく第2のユーザの物理的環境の表現を含み、第1のユーザ及び第2のユーザは、第2のユーザの物理的環境に基づいて三次元環境内の共有体験を有する。いくつかの実施形態では、三次元環境7015は、第1のユーザの物理的環境又は第2のユーザの物理的環境ではない第3の物理的環境の表現を含み、第1のユーザ及び第2のユーザは、第3の物理的環境(例えば、共有体験に参加している第3のユーザの物理的環境、ユーザに関連付けられていない、又は共有体験に参加していないユーザに関連付けられている別の物理的環境など)に基づいて、三次元環境内に共有体験を有する。いくつかの実施形態では、三次元環境7015は、仮想三次元環境を含み、第1のユーザ及び第2のユーザは、仮想三次元環境内の共有体験を有する。いくつかの実施形態では、それぞれの物理的環境(例えば、同じ物理的環境、異なる物理的環境など)内の第1のユーザ及び第2のユーザのポジション及び移動は、同じ三次元環境内のポジション及び移動に(例えば、同じマッピング関係、又は異なるマッピング関係などを使用して)マッピングされるが、三次元環境の外観は、(例えば、異なる壁紙、配色、異なる仮想家具などを用いて)調整されて、個別のユーザに対して示される三次元環境のビュー内で個別のユーザに合わせて適応させることができる。
いくつかの実施形態では、コンピュータシステムは、環境7015の少なくとも空間部分(例えば、リビングルームに対応するがキッチンには対応しない環境の空間部分、第1のユーザの前の物理空間の部分に対応するが第1のユーザの後ろの物理空間の部分には対応しない環境の空間部分など)が共有されているという判定に従って、三次元環境が第1のユーザ7102と第2のユーザ7002との間で少なくとも部分的に共有されていると判定する。いくつかの実施形態では、コンピュータシステムは、環境7015の少なくとも空間部分が少なくともある期間中(例えば、第1のユーザと第2のユーザとの間の通信セッション中、午前中、勤務時間中、両方のユーザがオンラインであるときなど)に共有されるという判定に従って、三次元環境が第1のユーザと第2のユーザとの間で少なくとも部分的に共有されると判定する。いくつかの実施形態では、コンピュータシステムは、環境7105内のオブジェクトが完全に又は部分的に共有される(例えば、同時に可視でありかつアクセス可能である、同時に可視であるが同時にアクセス可能ではない、他者が制御しているときに可視であるがアクセス可能ではない(例えば、他者がオブジェクトを見ることができる、又は見ることができないなど))という判定に従って、三次元環境7015が第1のユーザと第2のユーザとの間で少なくとも部分的に共有されると判定する。いくつかの実施形態では、コンピュータシステムは、三次元環境7015の少なくとも一部(例えば、三次元環境の第1のビュー7015-1に示される部分、三次元環境7015の別の部分など)が第1のユーザ及び第2のユーザの両方によって同時に見られるために表示されるという判定に従って、三次元環境7015が第1のユーザと第2のユーザとの間で少なくとも部分的に共有されると判定する。いくつかの実施形態では、コンピュータシステムは、三次元環境内の仮想オブジェクトの一部又は全部が三次元環境内で第1のユーザ及び第2のユーザの両方に同時に表示されるという判定に従って、三次元環境7015が第1のユーザと第2のユーザとの間で少なくとも部分的に共有されていると判定する。
図7B及び図7Cでは、コンピュータシステムは、第1の表示生成コンポーネント7200を介して、第1のユーザ7102と第2のユーザ7002との間で少なくとも部分的に共有される三次元環境7015の第1のビュー7015-1を表示し、実質的に同時に(例えば、ネットワーク遅延、処理時間遅延などについて調整されて)、コンピュータシステム又はコンピュータシステムと通信している別のコンピュータシステムは、第2の表示生成コンポーネント7100を介して三次元環境7105の第2のビュー7015-2を表示する。いくつかの実施形態によれば、第1のビュー7015-1及び第2のビュー7015-2は両方とも、三次元環境の少なくとも第1の部分(例えば、三次元環境において表される物理的環境の同じ部分に対応する個別の部分、三次元環境の仮想環境の同じ部分に対応する個別の部分など)を含む。いくつかの実施形態では、三次元環境の第1の部分は、任意選択的に、(例えば、第1のユーザとその物理的環境との間のそれぞれの空間関係、及び/又は第1のユーザとその物理的環境との間のそれぞれの空間関係などに基づいて)三次元環境7105の第1のビュー7015-1及び第2のビュー7015-2内で異なる視野角から示される。
いくつかの実施形態では、第1のビュー7015-1は、第1のユーザ7102の物理的環境内の第1のユーザ7102の現在ロケーションに対応するポジションを有する第1の視点を有し、そのポジションは、第1のユーザ7102の物理的環境(例えば、シーン105、別の物理的環境など)内の第1のユーザ7102の移動に従って三次元環境7015内で移動する。いくつかの実施形態において、第2のビュー7015-2は、第2のユーザ7002の物理的環境内の現在ロケーションに対応する、三次元環境7015におけるポジションを有する第2の視点を有し、そのポジションは、第2のユーザの物理的環境(例えば、シーン105、別の物理的環境など)内の第2のユーザ7002の移動に従って三次元環境7015内で移動する。いくつかの実施形態では、個別の表示生成コンポーネント(例えば、第1の表示生成コンポーネント7200、第2の表示生成コンポーネント7100など)を介して示される三次元環境7015の現在表示されているビューの視点は、個別の表示生成コンポーネントの現在ロケーションに対応する、三次元環境7015内のポジション を有し、そのポジションは、個別の表示生成コンポーネントの物理的環境(例えば、シーン105、別の物理的環境など)内の個別の表示生成コンポーネントの移動に従って三次元環境7015内で移動する。いくつかの実施形態では、個別の表示生成コンポーネント(例えば、第1の表示生成コンポーネント7200、第2の表示生成コンポーネント7100など)を介して示される三次元環境7015の現在表示されているビューの視点は、個別の表示生成コンポーネントに関連付けられた1つ以上のカメラの現在ロケーションに対応する、三次元環境内のポジションを有し、そのポジションは、個別の表示生成コンポーネントの物理的環境(例えば、シーン105、別の物理的環境など)内の個別の表示生成コンポーネントに関連付けられた1つ以上のカメラの移動に従って三次元環境7015内で移動する。図7A~図7Cに示す例では、第1のビュー7015-1及び第2のビュー7015-2が同じ視点を有するように見えるが、第1の表示生成コンポーネント7200及び第2の表示生成コンポーネント7100を介して示されるそれぞれのビュー及びそれらの対応する視点は、第1の表示生成コンポーネント(及び第1のユーザ)及び第2の表示生成コンポーネント(及び第2のユーザ)のそれぞれの物理的環境に存在する空間関係及び移動に基づいて別々に独立して判定され、所与の時間において厳密に同じである必要はないことを理解されたい。
図7B及び図7Cにおいて、三次元環境7015の第1のビュー7015-1及び第2のビュー7015-2は、1つ以上のユーザインタフェースオブジェクト(例えば、第1のユーザインタフェースオブジェクト7016、第2のユーザインタフェースオブジェクト7018、他のユーザインタフェースオブジェクト、仮想三次元オブジェクトなど)、及び任意選択的に、1つ以上の表面(例えば、壁7004の表現7004’又は7004’’、壁7006の表現7006’又は7006’’、床7008の表現7008’又は7008’’、仮想壁、仮想スクリーン、仮想窓、仮想風景などの仮想表面)、及び/又は1つ以上の物理的オブジェクトの表現(例えば、物理的環境7015内の物理的オブジェクト7014の表現7014’又は7014’’、三次元環境7014において表される別の物理的環境内の他の物理的オブジェクトの表現など)を含む。いくつかの実施形態では、第1のビュー7015-1及び第2のビュー7015-2は、物理的環境の表現を含まず、仮想三次元環境(例えば、仮想会議室、ゲーム環境、仮想体験、仮想競技場など)を含む。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、アプリケーションの表現であり、予め設定された基準を満たす第1のユーザインタフェースオブジェクトとの相互作用は、コンピュータシステムに、三次元環境においてアプリケーションを開始させるか、又はアプリケーションのアプリケーション機能を実行させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、複数のユーザインタフェースオブジェクト(例えば、選択可能なアバター、選択可能なメニューアイテム、選択可能なデバイスコントロール、選択可能なコンテンツアイテム、スライダコントロール、ボタンなど)を含むユーザインタフェースである。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、物理的環境内のユーザの手の移動に従って三次元環境内で操作(例えば、変形、部分への分離、回転、移動など)することができる仮想三次元オブジェクトである。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、異なる機能又は動作に対応する複数のコントロールを含む単一のコントロール又はコントロールパネルである。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、情報アイテム、通知、アラートなどである。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、メディアアイテム又は文書などである。
いくつかの実施形態では、図7B及び図7Cに示すように、第1のビュー7015-1は、第1のユーザ7102の手7202の表現7202’、及び第2のユーザ7002の手7028の表現7028’を含み、第2のビュー7015-2は、第1のユーザ7102の手7202の表現7202’’、及び第2のユーザ7002の手7028の表現7028’’を含む。図7B及び図7Cにれるシナリオでは、第2のユーザ7002は、第1のユーザ7102と第1のユーザインタフェースオブジェクト7016との間の同時相互作用を除外して、第1のユーザインタフェースオブジェクト7016を制御する。例えば、いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7002の制御下にあるとき、第1のユーザインタフェースオブジェクト7016は、第2のユーザ7002の物理的環境内の第2のユーザ7002の手7028のロケーションに対応する、三次元環境7015内のポジションに表示される。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下にあるとき、第1のユーザインタフェースオブジェクト7016の表現は、第2のユーザ7002の物理的環境内の第2のユーザ7002の手7028のロケーションに対応する、三次元環境7015内のポジションに表示され、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクト7016の表現のポジションから離れた別のポジションに表示される。この例では、第2のユーザ7002は、第1のユーザインタフェースオブジェクト7016を制御しており、第1のユーザインタフェースオブジェクト7016は、第2のユーザの手7028のロケーションに対応する、三次元環境7015内のポジションに表示される。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下にあるとき、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクト7016の予め設定された面(例えば、前面A、コンテンツ提示面、インタラクティブ面など)が三次元環境7105の現在表示されている第2のビュー7015-2(例えば、第1のユーザインタフェースオブジェクト7016を制御する第2のユーザ7002に示されるビュー、第2の表示生成コンポーネント7100によって表示されるビューなど)に対応する視点に向くように、三次元環境7015内に配向される。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクト7016の予め設定された表面が三次元環境の現在表示されている第1のビュー7015-1に対応する視点(例えば、その時点で第1のユーザインタフェースオブジェクト7016を制御しない第1のユーザ7102に示されるビュー、第1の表示生成コンポーネント7200によって表示されるビューなど)の方を向くように、第1のユーザインタフェースオブジェクト7016を制御する第2のユーザ7002によって三次元環境内で再配向することができる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下にあり、第1のユーザ7102と共有されない場合(例えば、第1のユーザインタフェースオブジェクト7016のコンテンツ表示側が、第1の表示生成コンポーネント7200によって第1のユーザ7102に提示される三次元環境の第1のビュー7015-1内にある場合であっても)、第1のユーザインタフェースオブジェクト7016上のコンテンツの少なくとも一部は、三次元環境の第2のビュー7015-2にのみ示され、三次元環境の第1のビュー7015-1には示されない。いくつかの実施形態では、第2のユーザ7002は、第1のユーザインタフェースオブジェクト7016のコンテンツ提示側が第2のビュー7015-2の視点から離れる方を向くように、第1のユーザインタフェースオブジェクト7016を再配向することによって、第1のユーザインタフェースオブジェクト7016の隠されたコンテンツを第1のユーザ7102に可視であるようにすることができる。
図7B及び図7Cでは、第1のビュー7015-1及び第2のビュー7015-2は両方とも、第1のユーザの手7202の個別の表現(例えば、表現7202’又は7202’’)及び第2のユーザの手7028のそ個別の表現(例えば、表現7028’又は7028’’)を含む。いくつかの実施形態では、コンピュータシステムは、ユーザの手のカメラビューに基づいて手の表現を表示する。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント(単数又は複数)の透明部分を介して手の表現のビューを提供する。いくつかの実施形態では、コンピュータシステムは、第1のユーザ及び第2のユーザの物理的環境(単数又は複数)内に位置する1つ以上のセンサから受信されるセンサ情報に基づいて、ユーザの手のスタイル表現を生成する。いくつかの実施形態では、ユーザの手(単数又は複数)の表現のポジション及び構成は、ユーザの物理的環境(単数又は複数)におけるユーザの手(単数又は複数)のロケーション(単数又は複数)及び構成(単数又は複数)に従って変化する。いくつかの実施形態では、コンピュータシステムは、ユーザの手のカメラビューに基づいて手の表現を表示する。いくつかの実施形態では、コンピュータシステムは、所与の時間に、一方のユーザの手の表現を表示するが、他方のユーザの手の表現を表示しない。例えば、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016を制御している場合、第2のユーザの手7028の表現は、任意選択的に、第2のユーザ7002に示される第2のビュー7015-2にのみ表示され、第1のユーザ7102に示される第1のビュー7015-1には表示されない。別の例では、ユーザの手の表現は、それぞれの物理的環境内の第1のユーザ及び/又は第2のユーザ(及び/又はそれぞれの表示生成コンポーネント若しくはカメラなど)の移動に起因して、個別の表示生成コンポーネントを介して提供される視野の内外に移動し得る。
図7B及び図7Cでは、第1のユーザインタフェースオブジェクト7016を制御する第2のユーザ7002によって使用される第2の表示生成コンポーネント7100を介して表示される三次元環境の第2のビュー7015-2内で、第1のユーザインタフェースオブジェクト7016は、第1のセットの外観特性(例えば、第2の表示生成コンポーネントによって第2のユーザに対して表示されるような第1のユーザインタフェースオブジェクトの通常の外観(例えば、第1の形状、第1のサイズ、第1の色、第1の不透明度、第1の彩度、第1の輝度など))で表示される。第1のユーザインタフェースオブジェクト7016は、第1のユーザ7102が、第1のユーザインタフェースオブジェクトに向けられた個別の移動又は入力を用いて第1のユーザインタフェースオブジェクト7016にアクセスしようとしているか否かにかかわらず、第2のユーザ7002の制御下で第1のセットの外観特性を維持する。第1のユーザインタフェースオブジェクト7016は、第2のユーザ7002によって使用されるコンピュータシステムを介した第2のユーザ7002と第1のユーザインタフェースオブジェクト7016との間の相互作用に従って、個別の方法でその外観を変化させることができる。第2のユーザ7002と第1のユーザインタフェースオブジェクト7016との間の相互作用によって引き起こされる外観のこれらの変化は、任意選択的に、変化が発生する任意の所与の時間に第1のビュー7015-1及び第2のビュー7015-2の両方に示される。
図7Bでは、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下にある間、(例えば、ユーザの手などのユーザの一部の移動を介して、視線入力を介して、空中ジェスチャを介して、手の別の部分に対する手の一部の移動を伴うジェスチャを介して、制御オブジェクトを介して提供される入力を介してなど)第1のユーザ7002が第1のユーザインタフェースオブジェクト7016にアクセスしようとしていないか、又は第1のユーザインタフェースオブジェクト7016の制御権を取得しようとしていない場合、第1のユーザインタフェースオブジェクト7016は、(任意選択的に、異なる視点から、及び/又は隠されたコンテンツの編集などで)三次元環境の第2のビュー7015-2と同じ第1のセットの外観特性で第1のビュー7015-1に表示される。第1のビュー及び第2のビューの両方が、第1のユーザの手7202を含む物理空間のロケーションに対応する、三次元環境の部分をキャプチャする場合、第1のユーザ7102の物理的環境内の第1のユーザの手7202の移動は、第1のビュー7015-1及び第2のビュー7015-2の両方において表され得る。
対照的に、図7Cでは、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016に向けられた、第1のユーザ7102によって提供された第1のユーザ入力を検出する。例えば、いくつかの実施形態では、コンピュータシステムは、三次元環境7015内の第1のユーザインタフェースオブジェクト7016のポジションに対応する第1のユーザ7102の物理的環境内のロケーションへの第1のユーザ7102の一部(例えば、ユーザの手7202、第1のユーザの別の手など)の移動を検出する。いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016に向けられた視線入力と、視線入力と共に検出される制御入力(例えば、指移動ジェスチャ、空中ジェスチャ、コントローラによって提供される入力など)とを検出する。図7Cに示される例において、第1のユーザ入力は、第1のユーザインタフェースオブジェクト7016のポジションに対応するロケーションへの第1のユーザの手7202の移動であり、任意選択的に、三次元環境において第1のユーザインタフェースオブジェクト7016を把持するための移動又は姿勢を伴う。いくつかの実施形態では、第1のユーザ7102の手7202の移動、ポジション、及び/又は姿勢の表現は、第1のビュー7015-1及び第2のビュー7015-2の両方に示される。いくつかの実施形態では、第1のユーザ7102の手7202の移動、ポジション、及び/又は姿勢の表現は、第1のビュー7015-1のみに示され、第2のビュー7015-2には示されない。いくつかの実施形態では、第2のビュー7015-2内に第1のユーザ7102の手7202の移動、ポジション、及び/又は姿勢を示さないことによって、第2のユーザ7002によって使用されるコンピュータシステムは、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と相互作用するとき、第2のユーザ7002に対する混乱を低減する。
図7Cでは、第1のユーザインタフェースオブジェクト7016に向けられた第1のユーザ入力を検出したことに応じて、かつ第2のユーザ7002が第1のユーザインタフェースオブジェクトと現在相互作用している(例えば、第1のユーザインタフェースオブジェクト7016を制御する、第1のユーザ7102による要求された相互作用を除外して第1のユーザインタフェースオブジェクトを制御するなど)という判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないという視覚的インジケーションを表示する。いくつかの実施形態では、視覚的インジケーションを表示することは、三次元環境7015の第1のビュー7015-1内の第1のユーザインタフェースオブジェクト7016の外観又は第1のユーザインタフェースオブジェクト7016のポジションのうちの少なくとも1つを変更することを含む。
いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016が三次元環境内の第2のユーザ7002の仮想ポジションに対して予め設定された空間関係を有する(例えば、第1のユーザインタフェースオブジェクト7016が第2のユーザの掌又は手7028の表現内にある、第1のユーザインタフェースオブジェクト7016が三次元環境の第1のビュー7015-1内にある第2のユーザのプライベート空間内にあるなど)という判定に従って、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と現在相互作用していると判定する。いくつかの実施形態では、コンピュータシステムは、第2のユーザ7002が第2の表示生成コンポーネント7100を介して三次元環境の第2のビュー7015-2を表示するコンピュータシステムを通じて第1のユーザインタフェースオブジェクト7016を制御、選択、移動、修正、及び/又は他の方法で相互作用しているという判定に従って、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と現在相互作用していると判定する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないことを示す視覚的インジケーションを三次元環境7015の第1のビュー7015-1に表示するために、コンピュータシステムは、第1のセットの外観特性とは異なる第2のセットの外観特性(例えば、第2の形状、第2のサイズ、第2の色、第2の不透明度、第2の彩度、第2の輝度など)を有する第1のユーザインタフェースオブジェクト7016を表示する(例えば、第2のセットの外観特性は、第1のユーザインタフェースオブジェクトがこの時点で第2のユーザを制御しており、第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションを提供する)。例えば、図7Cの第1のビュー7015-1に示される第1のユーザインタフェースオブジェクト7016は、図7Cの第2のビュー7015-2に示されるものに比べて半透明である。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないことを示すために三次元環境7015の第1のビュー7015-1に視覚的インジケーションを表示するために、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016を、第1のユーザ7102がそれを把持しようとするときに邪魔にならないように移動させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、視覚的インジケーションが第1のユーザ7102に表示されるだけでよいため、第2のユーザ7002に表示される第2のビュー7015-2内のその外観及び/又はポジションを維持する。いくつかの実施形態では、第1のユーザ7102によって提供された第1のユーザ入力が、第1のユーザインタフェースオブジェクト7016に関して第1の動作を実行する要求に対応する場合、コンピュータシステムは、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と現在相互作用している(例えば、第1のユーザインタフェースオブジェクト7016を制御する、第1のユーザ7102によって要求された相互作用を除外して第1のユーザインタフェースオブジェクト7016を制御するなど)という判定に従って、第1のユーザインタフェースオブジェクト7016に関して第1の動作を実行しない。例えば、いくつかの実施形態では、コンピュータシステムは、第1のユーザの手7202の表現7202’によって把持されている第1のユーザインタフェースオブジェクト7106を示さない。いくつかの実施形態では、コンピュータシステムは、第1のユーザの手7202の表現7202’内に移動する第1のユーザインタフェースオブジェクト7016のゴースト画像又は別の表現を示さない。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト7106に向けられた第1のユーザ入力を検出したことに応じて、かつ第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と現在相互作用していないという判定に従って、コンピュータシステムは、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行する。いくつかの実施形態では、第1の動作を実行することは、第1のユーザインタフェースオブジェクト7016が第1のユーザ入力に従って第1のユーザ7102によって把持されるか又は移動される(例えば、三次元環境内の第1のユーザ7102の仮想ポジションに向かって移動される、第1のユーザ入力の移動に従って移動されるなど)ことを示すことを含む。いくつかの実施形態では、第1の動作を実行することは、把持されている及び/又は第1のユーザの手7202の表現7202’内に移動している第1のユーザインタフェースオブジェクト7016のゴースト画像又は他の表現を示すことを含む。いくつかの実施形態では、第1のユーザ7102からの第1のユーザ入力が検出されたときに第2のユーザ7002が第1のユーザインタフェースオブジェクト7106と相互作用していなかったという判定に従って、第1のユーザインタフェースオブジェクト7016は、第1のセットの外観特性で(例えば、その元のロケーションに、又は第1のユーザの手の表現などで)表示され続ける。
いくつかの実施形態では、第2のユーザ7002が第1のユーザインタフェースオブジェクトと相互作用している間、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016を把持しようと試みるか、又は他の方法で第1のユーザインタフェースオブジェクトと相互作用すると、コンピュータシステムは、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016を把持しようと試みるにつれて、第1のユーザ7102に表示された第1のビュー7015-1内の第1のユーザインタフェースオブジェクトをフェードアウトするなど、第1のユーザインタフェースオブジェクトの外観を変更する。例えば、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016の第1のセットの外観特性のうちの少なくとも1つを変更して(例えば、第1のユーザインタフェースオブジェクトの透明度レベルを上げる、彩度を下げる、不透明度を下げる、ぼかし、暗くする、解像度を下げる、サイズを縮小するなど)、任意選択的に、第1のユーザインタフェースオブジェクト7016の周囲環境の外観を維持しながら(例えば、周囲環境の外観及び/又は視覚的プロミネンスを変更しない)、三次元環境の第1のビュー7015-1内の第1のユーザインタフェースオブジェクト7016の視覚的プロミネンスを低減する。いくつかの実施形態では、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016と相互作用する試みを停止したことを検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元するために、第1のユーザインタフェースオブジェクトを把持するか又は第1のユーザインタフェースオブジェクトと相互作用する第1のユーザの試みに応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つ(例えば、いくつか、全てなど)を(例えば、第1のユーザ入力を検出する直前に、又は第1のユーザ入力の検出に応じて変更が行われる前に存在したレベルなどに)復元する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が、第1のユーザの手7202のロケーションに対応するポジションから離れるように移動される(例えば、第2のユーザ7002のアクションによって、及び/又は三次元環境内で発生した他のイベント(例えば、第1のユーザ7102による相互作用の試みに関連しないイベント)などに従って、三次元環境7015内の手7202の表現7202’から離れるように移動される)場合、コンピュータシステムは、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元するために、第1のユーザが第1のユーザインタフェースオブジェクトを把持するか、又は他の方法で第1のユーザインタフェースオブジェクトと相互作用する試みに応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つ(例えば、一部、全部など)を(例えば、第1のユーザ入力を検出する直前に、又は第1のユーザ入力の検出に応じて変更が行われる前に存在したレベルになど)復元する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないという視覚的インジケーションが第1のビュー7015-1に表示された後、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザ7102との相互作用に利用可能になるように、第2のユーザ7002がもはや第1のユーザインタフェースオブジェクトと相互作用していないこと、及び/又は第1のユーザインタフェースオブジェクトの制御を放棄したことをコンピュータシステムが検出するまで、視覚的インジケーションを表示し続ける。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないという視覚的インジケーションが第1のビュー7015-1に表示された後、コンピュータシステムは、第1のユーザが第1のユーザ入力又は別の入力を介して第1のユーザインタフェースオブジェクト7106と相互作用しようとするのを停止した後、予め設定された期間(例えば、10秒、5秒など)にわたって視覚的インジケーションを表示し続ける。
いくつかの実施形態において、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクト7016を制御する第2のユーザ7002によって提供されるジェスチャ入力(例えば、トスジェスチャ、スロージェスチャ、プッシュジェスチャなど)に従って、第1のユーザのロケーションに対応するポジション(例えば、第1のユーザ7102の手7202に対応するポジション、第1のユーザ7102を取り囲むプライベート空間に対応するポジションなど)に送信することができる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、第2のユーザ7002によって提供されたジェスチャ入力の結果として、三次元環境7015内の第1のポジションから第2のポジションへ移動する間に回転する(例えば、再配向する、向く方向を変えるなど)。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016はまた、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016の制御権を得た後、第1のユーザ7102によって提供されるジェスチャ入力(例えば、トスジェスチャ、スロージェスチャ、プッシュジェスチャなど)に従って、第2のユーザ7002のロケーションに対応するポジションに送信することができる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、第1のユーザ7102によって提供されたジェスチャ入力の結果として、三次元環境7015内の第2のポジションから第3のポジションへ移動する間に回転する(例えば、配向を変える、向く方向を変えるなど)。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7106は、そのコンテンツ提示側又はインタラクティブ側が第1のユーザインタフェースオブジェクトを受け取る側の方を向くように回転する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクトを制御するユーザによって提供されるジェスチャ入力(例えば、トスジェスチャ、スロージェスチャ、プッシュジェスチャなど)に応じて、第1のユーザインタフェースオブジェクトが第1のユーザ及び第2のユーザの両方によってより良好なビューで見られ得る(例えば、三次元環境7015の中心に表示される、物理的環境105の壁に対応するポジションに表示される、三次元環境7015内の仮想表面に表示されるなど)三次元環境内のポジションに送信することができる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、三次元環境内のポジションに到達したときに、第1のユーザ及び第2のユーザの両方がそのコンテンツ及び/又はインタラクティブ側を見ることを可能にする向きを有し、及び/又は三次元環境のポジションにおける表面(例えば、壁面、テーブル面、仮想表面、仮想スクリーン、仮想テーブル上面などの表現)に対して予め設定された空間関係(例えば、重なる、平行、斜めに、垂直、直立など)を有するように、三次元環境内のポジションに移動しながら回転する(例えば、再向きする、対面方向を変えるなど)。
いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないことの視覚的インジケーションとして、三次元環境の第1のビュー7015-1内の第1のユーザインタフェースオブジェクト7016のポジションを変更する。いくつかの実施形態では、三次元環境の第1のビュー7015-1内の第1のユーザインタフェースオブジェクトのポジションを変更することは、第1のユーザインタフェースオブジェクトと第1のユーザ入力を提供した第1のユーザ7102の手7202の表現7202’との間の少なくとも予め設定された距離を維持するために、第1のユーザインタフェースオブジェクトの元のポジションから第1のユーザインタフェースオブジェクト7016を移動させることを含む(例えば、第1のユーザインタフェースオブジェクトは、第1のユーザインタフェースオブジェクトを把持しようとする第1のユーザ7102の手7202の表現7202’を避けるために1つ以上の方向に移動するように見える)。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016の移動は、第1のユーザインタフェースオブジェクトの外観に対して行われる変更を伴う(例えば、第1のユーザインタフェースオブジェクトは、第1のユーザ7102の手の表現7202’がそれ自体に近づきすぎることを回避するために、移動している間に弱まる又は暗くなるように見える)。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下になく、第1のユーザ7102との相互作用に利用可能である場合、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016を、三次元環境7015の第1のビュー7015-1内の第1のユーザの手7202の表現7202’に向かって移動させ、任意選択的に、三次元環境の第2のビュー7015-2内にも移動させる。
いくつかの実施形態では、第1のユーザ7102によって提供される第1のユーザ入力は、所定の選択ジェスチャを含む(例えば、である、を含む、で開始する、で終了するなど)(例えば、選択ジェスチャは、同じ手の親指への人差し指のタッチダウンを含むピンチジェスチャ(任意選択的に、その後、親指から人差し指を持ち上げる、又は手に接続された手首をフリックする、又は手全体を平行移動するなど)、同じ手の人差し指と親指とをタッチ姿勢から互いに引き離すことを含むジェスチャ、ピンチジェスチャ、ピンチアンドドラッグジェスチャ、ピンチアンドフリックジェスチャなどである)。いくつかの実施形態では、コンピュータシステムは、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と相互作用していない間に第1のユーザ入力を検出したことに応じて、第1のユーザ7102から受信した後続の入力(例えば、ピンチジェスチャが維持されている間のドラッグジェスチャ、ピンチジェスチャが維持されている間のフリックジェスチャ、所定の選択ジェスチャが終了した後のドラッグジェスチャなど)のターゲットとして第1のユーザインタフェースオブジェクト7016を選択する。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016を第1のユーザ7102から受信した後続の入力のターゲットとして選択することと併せて、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016を三次元環境の第1のビュー7015-1内の第1のポジションに維持しながら、第1のユーザインタフェースオブジェクト7106の表現(例えば、第1のユーザインタフェースオブジェクトの複製、第1のユーザインタフェースオブジェクトのゴースト画像など)を第1のユーザ7102の手7202のロケーションに対応するポジションに表示する(例えば、第1のユーザインタフェースオブジェクトは元のロケーションに留まるが、第1のユーザ7102と第1のユーザインタフェースオブジェクトの表現との間の相互作用に従って第1のユーザ7102によって「遠隔」制御することができる)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手7102の表現7202’の近くに表示されるが、コンピュータシステムが第1のユーザ7202によって提供される別の選択入力を検出するまで、第1のユーザの手のロケーションに対応するポジションに進まない。いくつかの実施形態では、コンピュータシステムは、第1のユーザ7102が選択入力の要件と一致する入力を提供しているという判定に従って、第1のユーザインタフェースオブジェクトの表現の形状を変化させ、第1のユーザインタフェースオブジェクトの表現の形状の変化は、選択入力を完了するための要件に関する視覚的ガイダンスを任意選択的に提供する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現とのユーザ相互作用は、第1のユーザインタフェースオブジェクトとの相互作用に変換され、コンピュータシステムに、第1のユーザ7102と第1のユーザインタフェースオブジェクトの表現との間の相互作用に従って第1のユーザインタフェースオブジェクトに対して動作を実行させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手7202の表現7202’のポジションに表示されたままであり、任意選択的に、第1のユーザ7102が、第1のユーザと三次元環境を共有している他のユーザの相互作用を除外して、第1のユーザインタフェースオブジェクトを制御することを示す。
いくつかの実施形態では、図7A~図7Cのコンピュータシステム、第1の表示生成コンポーネント7200及び第2の表示生成コンポーネント7100の挙動に関して上述した特徴の一部又は全部は、第1のユーザインタフェースオブジェクト7016に対する第1のユーザ7102及び第2のユーザ7002の役割が逆になる他のシナリオにも同等に適用可能である。そのような他のシナリオでは、第1のユーザ及び第2のユーザによって使用されるコンピュータシステム及び表示生成コンポーネントの動作は、特定のシナリオにおいて適宜逆転されてもよい。上述した特徴は依然として有効であり、したがって、簡潔にするために本明細書では繰り返さない。
図7D~図7Fは、いくつかの実施形態による、三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法を示すブロック図であり、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方式の変化がトリガされる。
いくつかの実施形態では、コンピュータシステムは、第1のユーザ(及び三次元環境7304を見るために第1のユーザ7002によって使用される第1の表示生成コンポーネント7100)の物理的環境(例えば、シーン105-a、又は別の屋内若しくは屋外物理的環境など)とは異なる物理的環境(例えば、シーン105-b、又は別の屋内若しくは屋外物理的環境など)に位置する物理的オブジェクト(例えば、第2のユーザ7102、動物、移動ドローンなど)の表現を含む三次元環境7204のビューを表示する。コンピュータシステムは、任意選択的に、第1のユーザ7002(及び/又は第1の表示生成コンポーネント7100)の物理的環境(例えば、シーン105-a、又は別の物理的環境など)内の第1のユーザ7002の移動に従って、三次元環境7304の現在表示されているビューに対応する視点を移動させる。コンピュータシステムは、その物理的環境(例えば、シーン105-b、又は別の物理的環境など)における物理的オブジェクトのロケーション及び移動経路に基づいて、三次元環境7204における物理的オブジェクトの表現(例えば、第2のユーザ7102の表現7102’-a、別の物理的オブジェクトの表現など)のポジション及び移動経路を判定する。コンピュータシステムは、三次元環境7304内のポジションと、個別の物理的環境(例えば、第1のユーザ7002及び第1の表示生成コンポーネント7100の物理的環境105-a、物理的オブジェクトの物理的環境(例えば、第2のユーザ7102の物理的環境105-b、物理的オブジェクトの別の物理的環境など)など)内のロケーションとの間の第1のタイプの対応関係(例えば、マッピング及び変換関係、任意選択的に、視点、物理的オブジェクト、及び第1のユーザなどの異なるマッピング及び変換関係)を利用する。いくつかの条件下では(例えば、第1のユーザ7002の移動、及び/又は物理的オブジェクト(例えば、この例では第2のユーザ7102によって表される物理的オブジェクト)の移動などに起因して)、物理的オブジェクトの表現のポジション(単数又は複数)は、ポジションが三次元環境7304内のポジションと物理的環境(例えば、シーン105-a、105-bなど)内のロケーションとの間の第1のタイプの対応関係を使用して判定される場合、第1の表示生成コンポーネント7100を介して示される三次元環境7304の現在表示されているビュー(例えば、ビュー7304-a、7304-a’など)の視点のポジションの閾値距離(例えば、腕の長さ、3フィート、ユーザ指定距離など)内にある。そのような条件下で、コンピュータシステムは、(例えば、図7Fに示されるように)第1のタイプの対応関係に基づいて判定されたポジションからオフセットされた調整されたポジションに物理的オブジェクトの表現(例えば、この例では、表現7102’-a)を表示する。いくつかの実施形態では、調整されたポジションは、第1のタイプの対応とは異なる第2のタイプの対応に基づいて判定され、調整されたポジションが、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビュー(例えば、ビュー7304-a’’、第1の表示生成コンポーネント7100を介して示される後続のビューなど)の視点のポジションから閾値距離よりも大きいままであることを確実にする。コンピュータシステムは、第1のタイプの対応関係に基づいて計算された未調整ポジションが、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビュー(例えば、ビュー7304-a’’、第1の表示生成コンポーネント7100を介して示される後続のビューなど)の視点のポジションから閾値距離を超えて離れるまで、物理的オブジェクトの表現(例えば、この例では表現7102’-a)の調整ポジションを判定するために、第2のタイプの対応関係を使用し続ける。
いくつかの実施形態では、コンピュータシステムが三次元環境7304のビューを第1のユーザ7002に提供し、三次元環境7304の現在表示されているビューに対応する視点のポジションが、第1のユーザ7002の物理的環境内の第1のユーザの頭部、身体、又は眼のロケーションに基づくとき、コンピュータシステムは、時として、他の物理的オブジェクト(例えば、この例では第2のユーザ7102によって表される物理的オブジェクトであるが、コンピュータ生成環境7304を第1のユーザ7002と共有していない無生物オブジェクト又は生物オブジェクトであり得る、など)の表現を、それらの個別の物理的環境内の物理的オブジェクトのロケーションに対応するポジションに表示する。いくつかの状況では、現実世界における第1のユーザ7002と他の物理的オブジェクトとの間の実際の物理的衝突又は不快な空間的近接の危険若しくは可能性がない場合であっても、物理的オブジェクトの表現のポジションは、第1のユーザに対して示されるビューに対応する視点のポジションと衝突するか、又は近づきすぎて(例えば、具体的に調整されない場合、別様にアドレス指定されない場合など)、三次元環境内の第1のユーザの視覚経験を第1のユーザにとって不快にするか、又は時にはいらいらさせることがある。
本明細書に開示されるように、コンピュータシステムは、第1のタイプの対応関係に基づいて判定された物理的オブジェクトの表現のポジションが、第1のユーザに対して示される三次元環境の現在表示されているビューに対応する視点の閾値範囲内にないとき、三次元環境内のポジションと物理的オブジェクトの物理的環境内の対応するロケーションとの間の第1のタイプの対応関係又はマッピング関係に基づいて、第1のユーザとは他の物理的環境内に位置する物理的オブジェクトの表現のポジションを判定する。これは、物理的オブジェクトの表現が視点の仮想ポジションからある距離にある場合、三次元環境内の物理的オブジェクトの表現の移動は、実世界における移動及び空間関係を模倣するように物理的オブジェクトの移動に対応することができ、物理的オブジェクトの表現は、第1のユーザの個人空間の感覚を侵害しないことを意味する。しかしながら、物理的オブジェクトの表現が視点の仮想ポジションから非常に近い場合、同じ方法で(例えば、第1のタイプの対応関係又はマッピング関係に従って)物理的オブジェクトの移動に対応する物理的オブジェクトの表現の移動は、物理的オブジェクトの表現が不合理なサイズで表示されること、視点と重なること、及び/又は第1のユーザの個人空間の感覚を侵害することを引き起こす。したがって、第1のタイプの対応関係又はマッピング関係に基づいて、物理的オブジェクトの表現が視点から閾値距離内にあるという判定に従って、コンピュータシステムは、物理的オブジェクトの表現の調整されたポジションを計算するために、三次元環境内のポジションと物理的オブジェクトの物理的環境内の対応するロケーションとの間の第2のタイプの対応関係又はマッピング関係を使用し、それにより、物理的オブジェクトの表現は、調整されたポジションに表示され、及び/又は不合理なサイズで表示されること、視点と重なること、及び/又は第1のユーザの個人空間の感覚を侵害することを回避するように移動することができる。
図7Dは、いくつかの実施形態による、2人のユーザ、例えば、第1のユーザ7002及び第2のユーザ7102がコンピュータ生成三次元環境7304を共有しているシナリオを示す。いくつかの実施形態では、第1のユーザ7002は第1の物理的環境105-aに位置し、第2のユーザ7102は第2の物理的環境105-bに位置する。いくつかの実施形態では、第1の物理的環境及び第2の物理的環境は、互いに重複し得る同じ物理的環境の一部である。いくつかの実施形態では、第1の物理的環境及び第2の物理的環境は、互いに重複しない別個の物理的環境である。いくつかの実施形態では、第1の物理的環境及び第2の物理的環境は、任意選択的に、屋内環境、屋外環境、1つの屋内環境及び1つの屋外環境、屋内環境と屋外環境との混合などである。この例では、第1の物理的環境は、物理表面(例えば、壁7004-a及び7006-a、床7008-aなど)及び物理的オブジェクト(例えば、物理的オブジェクト7010、他の物理的オブジェクトなど)を含む。第2の物理的環境は、物理的表面(例えば、壁7004-b及び7006-b、床7008-bなど)及び物理的オブジェクト(例えば、物理的オブジェクト7014、他の物理的オブジェクトなど)を含む。第1のユーザ7002は、第1の表示生成コンポーネント7100のユーザであり、第1の表示生成コンポーネント7100を介して共有三次元環境7304の第1のビュー7304-a(及びその後更新された第1のビュー7304-a’、7304-a’’など)が提供される。第2のユーザ7102は、第2の表示生成コンポーネント7200のユーザであり、第2の表示生成コンポーネント7200を介して共有三次元環境7304の第2のビュー7304-b(及びその後更新された第1のビュー7304-b’、7304-b’’など)が提供される。説明のために、第1のユーザ7002は、第1の物理的環境105-a内の直線7300に沿って前方に移動し、第2のユーザ7102は、第2の物理的環境105-b内の直線7302に沿って前方に移動し、三次元環境7304の第2のビュー7304-b内の直線7300の表現7300’は、第2のビュー7304-bの視点を通過し、三次元環境7304の第1のビュー7304-a内の直線7302の表現7302’は、第1のビュー7304-aの視点を通過する。いくつかの実施形態では、第1のユーザ7002及び第2のユーザ7102の移動経路が直線である必要はなく、経路は、任意の形状であってもよく、及び/又はそれらの物理的環境内に好適な任意の空間範囲を有してもよい。いくつかの実施形態では、第1のユーザ及び第2のユーザの両方が個別の物理的環境内で移動する必要はない。いくつかの実施形態では、個別の表示生成コンポーネントを介して提供される三次元環境の現在表示されているビューの視点は、静止していなくてもよく、及び/又は個別の表示生成コンポーネントの移動及び/又は個別の表示生成コンポーネントの個別のユーザの移動に従って移動してもよい。いくつかの実施形態では、三次元環境が第1のユーザと第2のユーザとの間の共有環境であるという要件はない。例えば、いくつかの実施形態では、第1の表示生成コンポーネント7100の観点から、この例における第2のユーザ7102は、単に、第2の物理的環境内の物理的オブジェクト(例えば、動物、ドローン、三次元環境を使用していない、又は三次元環境への入力を提供していない人など)の表現である。同様に、いくつかの実施形態では、第2の表示生成コンポーネントの観点から、この例における第1のユーザ7002は、単に、第1の物理的環境内の物理的オブジェクト(例えば、動物、ドローン、三次元環境を使用していない、又は三次元環境への入力を提供していない人など)の表現である。いくつかの実施形態では、表示生成コンポーネント(例えば、第1の表示生成コンポーネント、第2の表示生成コンポーネントなど)のうちの1つのみが使用され、他の表示生成コンポーネントは、存在しない、又は本明細書に説明されるプロセスに関与しない。
図7Dに示す例では、いくつかの実施形態によれば、三次元環境7304は、ユーザ7002とユーザ7102との間で、1人のユーザによって制御されるコンピュータシステムを使用してユーザ7002及び7102のうちの1人から開始され、ユーザ7002及び7102のうちの別のユーザによって制御されるコンピュータシステムを使用して別のユーザによって受け入れられる要求に応じて共有される。いくつかの実施形態では、両方のユーザが、第3のユーザによって使用されるコンピュータシステムから、それぞれのコンピュータシステムを使用して三次元環境を共有する要求を受信し、受け入れている。いくつかの実施形態では、両方のユーザが、それぞれのコンピュータシステムを使用して、三次元環境を共有する要求をサーバに送信しており、ユーザの要求は、サーバによって受け入れられている。コンピュータ生成三次元環境を共有するとき、ユーザのロケーション及び向き、並びにユーザのそれぞれの頭、目、手、腕、及び/又は手首のロケーション及び向きは、センサ(例えば、カメラ、運動センサなど)によってリアルタイムで又は周期的にキャプチャされ、ロケーション及び向きデータは、ユーザによって制御されるコンピュータシステムの一方又は両方、及び/又はコンピュータシステムと通信しているサーバに提供される。ロケーションデータは、コンピュータシステム及び/又はサーバによって使用されて、コンピュータ生成三次元環境内のユーザのそれぞれのロケーション及び向き、並びにユーザのそれぞれの頭部、目、手、腕、及び/又は手首のそれぞれのロケーション及び向き、並びに、対応して、ユーザに関連付けられた異なる表示生成コンポーネントを介して提供される三次元環境のビュー内のユーザのそれぞれの頭部、腕、手、及び/又は手首を含むユーザの表現のそれぞれのポジション、並びにユーザに関連付けられた異なる表示生成コンポーネントを介して提供される三次元環境のビューの視野及び視点を判定する。いくつかの実施形態では、ユーザによって共有されるコンピュータ生成環境は、仮想会議通話、チャットセッション、マルチプレーヤゲーム、共有コンピュータ生成体験(例えば、グループ瞑想、エクササイズ、ゲーム、共同作業など)などの環境である。いくつかの実施形態では、ユーザの表現は、ユーザのアバターである。いくつかの実施形態では、ユーザの表現は、任意選択的に、三次元環境内の表面に付着されない、又は表面によって支持されない。
図7Dのパート(A)では、コンピュータシステムは、第1の表示生成コンポーネント7100を介して三次元環境7304の第1のビュー7304-aを表示する。三次元環境の第1のビュー7304-aにおいて、第2のユーザ7102の表現7102’-aは、第2の物理的環境105-b内の第2のユーザ7102の現在ロケーションに対応するポジションに表示される。三次元環境の第1のビュー7304-a内には、仮想経路7306-a、仮想オブジェクト7308-aなどの他のオブジェクトがある。第1のビュー7304-a内の第2のユーザ7102の表現7102’-a、仮想オブジェクト7308-a、及び仮想経路7306-aのそれぞれの外観及び表示ポジションは、第1の表示生成コンポーネント7100を介して示される三次元環境の現在表示されている第1のビュー7304-aの視点のポジションに対する三次元環境内のそれらのそれぞれのポジションに基づく。いくつかの実施形態では、第1のユーザ7002の表現7002’-aは、三次元環境の第1のビュー7304-a内に、第1のユーザ7002の仮想ポジション及び/又は三次元環境において現在表示されている第1のビュー7304-aの視点に対応するポジションで、任意選択的に可視である。この例では、図7D、パート(A)に示すように、コンピュータシステムは、第1のビュー7304-aの視点の仮想ポジションに向かう直線7302の表現7302’に沿った表現7102’-aの移動を表示する。図7Dに示される瞬間において、表現7102’-aは、三次元環境7304内のポジションと第2の物理的環境(例えば、シーン105-b、又は第2のユーザ7102の別の物理的環境など)内のロケーションとの間の第1のタイプの対応関係に従って計算されるポジションに表示される。第2のユーザ7102の表現7102’-aは、第2のユーザ7102が第2の物理的環境内で線7302に沿って前方に移動するにつれて、第1のビュー7304-aの視点に向かって移動して接近するように示されている。
いくつかの実施形態では、図7Dの部分(B)に示されるように、コンピュータシステム、又はコンピュータシステムと通信している別のコンピュータシステムは、任意選択的に、表示生成コンポーネント7200を介して、三次元環境7304の第2のビュー7304-bを表示する。三次元環境の第2のビュー7304-bにおいて、第1のユーザ7002の表現7002’-bは、第1の物理的環境(例えば、シーン105-a、又は第1のユーザの別の物理的環境など)内の第1のユーザ7002の現在ロケーションに対応するポジションに表示される。三次元環境の第2のビュー7304-bには、仮想経路7306-b(例えば、仮想経路7306-aと同じ仮想経路であるが、第2のビュー7304-bの視点から見たもの)、仮想オブジェクト7308-b(例えば、仮想オブジェクト7308-aと同じ仮想オブジェクトであるが、第2のビュー7304-bの視点から見たもの)などの他のオブジェクトがある。第2のビュー7304-b内の第1のユーザ7002の表現7002’-b、仮想オブジェクト7308-b、及び仮想経路7306-bのそれぞれの外観及び表示ポジションは、第2の表示生成コンポーネント7200を介して示される三次元環境の現在表示されている第2のビュー7304-bの視点のポジションに対する三次元環境内のそれらのそれぞれのポジションに基づく。いくつかの実施形態では、第2のユーザ7102の表現7102’-bは、第2のユーザ7102の仮想ポジション及び/又は現在表示されている第2のビュー7304-bの視点に対応するポジションにおいて、三次元環境の第2のビュー7304-b内で可視である。この例では、図7Dの部分(B)に示されるように、コンピュータシステムは、第2のビュー7304-bの視点の仮想ポジションに向かう直線7300の表現7300’に沿った表現7002’-bの移動を表示する。図7Dに示される瞬間、表現7002’-bは、三次元環境7304内のポジションと第1の物理的環境(例えば、シーン105-a、又は第1のユーザの別の物理的環境など)内のロケーションとの間の第1のタイプの対応関係に従って計算されるポジションに表示される。第1のユーザ7002の表現7002’-bは、第1のユーザ7002が第1の物理的環境内で線7300に沿って前方に移動するにつれて、第2のビュー7304-bの視点の仮想ポジションに向かって移動し、接近するように示されている。
図7Eは、第1のユーザ7002及び第2のユーザ7102のいずれか又は両方が、第1のタイプの対応関係(例えば、三次元環境7304内のポジションと第1の物理的環境内のロケーションとの間の第1のタイプの対応関係、三次元環境7304内のポジションと第2の物理的環境内のロケーションとの間の第1のタイプの対応関係など)に従って計算された三次元環境7304内の第1のユーザ及び第2のユーザのそれぞれのポジションが、三次元環境7304内で互いに個別の予め設定された閾値距離にあるように、それぞれの物理的環境内で移動した時点を示す。いくつかの実施形態では、この時点で、図7Eの部分(A)に示すように、第2のユーザ7102の表現7102’-aの個別のポジションと、三次元環境7304内のポジションと第2の物理的環境内のロケーションとの間の第1のタイプの対応に従って計算される更新された第1のビュー7304-a’の視点のポジションとは、三次元環境7304内で互いの第1の閾値距離にある。いくつかの実施形態では、任意選択的に、図7Eの部分(B)に示すように、三次元環境7304内のポジションと第1の物理的環境内のロケーションとの間の第1のタイプの対応関係に従って計算される、第1のユーザ7002の表現7002’-bの個別のポジション及び更新された第2のビュー7304-b’の視点のポジションは、三次元環境内で互いに第2の予め設定された閾値距離にある(例えば、第1の予め設定された閾値距離と同じ、異なる予め設定された閾値距離にあるなど)。いくつかの実施形態では、第1の閾値距離は、第1のユーザ及び第2のユーザのそれぞれの個人設定及び他の特性(例えば、サイズ、形状、姿勢、活動など)に応じて、第2の閾値距離とは異なる。
図7Eのパート(A)では、第1のユーザ7002及び第2のユーザ7102の彼/彼女の物理的環境内の移動を検出したことに応じて、コンピュータシステムは、第1の物理的環境内の第1のユーザ7002の移動に従って移動させられる視点を有する三次元環境の更新された第1のビュー7304-a’を表示する。いくつかの実施形態では、更新された第1のビュー7304-a’の視点は、第1のユーザ7002及び/又は第1の表示生成コンポーネント7100が第1の物理的環境内で移動しなかった場合、三次元環境内で静止している。いくつかの実施形態では、第1のタイプの対応関係に従って第2の物理的環境内の第2のユーザの現在ロケーションに基づいて計算される三次元環境内の第2のユーザ7102の表現7102’-aの個別のポジションが、三次元環境の更新された第1のビュー7304-a’に関連付けられた視点に対応する三次元環境内の個別のポジションから第1の予め設定された閾値距離以上であるという判定に従って、コンピュータシステムは、三次元環境の更新された第1のビュー7304-a’内の第1の表示ポジションに表現7102’-aを表示し、第1の表示ポジションは、三次元環境内の表現7102’-aの個別のポジションである。
いくつかの実施形態では、第1の予め設定された閾値距離は、腕の長さ、三次元環境7304内の第1のユーザ7002のための個人空間の予め設定された半径であり、三次元環境内の第1のユーザ7002の仮想ポジションを囲む予め設定された境界面(例えば、第1のユーザ7002の表現の仮想面、又は第1のユーザ7002の仮想ポジションを囲む境界ボックス)によって定義される。
いくつかの実施形態では、任意選択的に、図7Eの部分(B)に示されるように、第2のユーザ7102の物理的環境内の第2のユーザ7102の移動を検出したことに応じて、第2のユーザ7102のコンピュータシステムは、第2の物理的環境内の第2のユーザ7102の移動に従って移動される視点を有する三次元環境7304の更新された第2のビュー7304-b’を表示する。いくつかの実施形態では、更新された第2のビュー7304-b’の視点は、第2のユーザ7102及び/又は第2の表示生成コンポーネント7200が第2の物理的環境内で移動しなかった場合、三次元環境内で静止している。いくつかの実施形態では、第1のタイプの対応関係に従って第1の物理的環境内の第1のユーザ7002の現在ロケーションに基づいて計算される三次元環境内の第1のユーザ7002の表現7002’-bの個別のポジションが、三次元環境の更新された第2のビュー7304-b’に関連付けられた視点に対応する三次元環境内の個別のポジションから第2の予め設定された閾値距離以上であるという判定に従って、第2のユーザ7102のコンピュータシステムは、三次元環境の更新された第2のビュー7304-b’内の第2の表示ポジションに表現7002’-bを表示し、第2の表示ポジションは、三次元環境内の表現7002’-bの個別のポジションである。
いくつかの実施形態では、第2の予め設定された閾値距離は、腕の長さ、三次元環境内の第2のユーザ7102の個人空間の予め設定された半径であり、三次元環境内の第2のユーザ7102の仮想ポジションを取り囲む予め設定された境界面(例えば、第2のユーザ7102の表現の仮想面、第2のユーザ7102の仮想ポジションを取り囲む境界ボックスなど)によって定義される。
図7Fでは、図7Eに示されるものの次の瞬間、第1のユーザ7002及び第2のユーザ7102のいずれか又は両方の移動が、第1のタイプの対応関係(例えば、三次元環境7304内のポジションと第1の物理的環境内のロケーションとの間の第1のタイプの対応関係、三次元環境7304内のポジションと第2の物理的環境内のロケーションとの間の第1のタイプの対応関係など)に従って計算されるような三次元環境内の第1のユーザ及び第2のユーザのそれぞれのポジションが、三次元環境内で互いの個別の予め設定された閾値距離内にあるように、それらのそれぞれの物理的環境内で継続している。いくつかの実施形態では、この時点で、三次元環境7304内のポジションと第2の物理的環境内のロケーションとの間の第1のタイプの対応関係に従って計算される、第2のユーザ7102の表現の個別のポジション及び更に更新された第1のビュー7304-a’’の視点のポジションは、三次元環境内で互いの第1の予め設定された閾値距離未満である。
図7Fの部分(A)では、それぞれの物理的環境内の第1のユーザ7002及び/又は第2のユーザ7102の更なる移動を検出したことに応じて、コンピュータシステムは、第1の物理的環境内の第1のユーザ7002の更なる移動に従って移動される視点を有する三次元環境の更なる更新された第1のビュー7304-a’’を表示する。いくつかの実施形態では、更に更新された第1のビュー7304-a’’の視点は、第1のユーザ7002及び/又は第1の表示生成コンポーネント7100が第1の物理的環境内で移動しなかった場合、三次元環境内で静止している。いくつかの実施形態では、第1のタイプの対応関係に従って第2の物理的環境内の第2のユーザ7102の現在ロケーションに基づいて計算された三次元環境内の第2のユーザ7102の表現7102’-aの個別のポジションが、三次元環境の更に更新された第1のビュー7304-a’’に関連付けられた視点に対応する三次元環境内の個別のポジションから第1の予め設定閾値距離未満であるという判定に従って、コンピュータシステムは、三次元環境の更に更新された第1のビュー7304-a’’内の調整された表示ポジションに表現7102’-aを表示し、調整された表示ポジションは、この時点での三次元環境内の表現7102’-aの個別のポジションからオフセットされる。例えば、図7Fの部分(A)では、表現7102’-aの真正面のポジションに表現7002’-aを表示する代わりに、又は更に更新された第1のビュー7304-a’’内の表現7002’-aと重複して、表現7002’-aの調整された表示ポジションは、第1のユーザ7002の表現7002’-aの側(例えば、右側、又は別の側若しくは方向など)にオフセットされる。一般に、現在表示されている第1のビュー7304-a’’の視点の第1の予め設定された閾値距離内にあるポジションに表現7102’-aを表示する代わりに、コンピュータシステムは、第1のタイプの対応関係に従って計算された未調整ポジションからオフセットされた調整された表示ポジションに表現7102’-aを表示する。いくつかの実施形態では、コンピュータシステムは、表現7102’-aのポジションと現在表示されている第1のビュー7304-a’’の視点のポジションとの間の距離がもはや互いの第1の予め設定閾値距離内になくなるまで、第1のユーザ7002及び/又は第2のユーザ7102の移動中に、表現7102’-aの表示ポジションに調整を適用し続ける。
いくつかの実施形態では、任意選択的に、図7Fの部分(B)に示すように、三次元環境7304内のポジションと第1の物理的環境内のロケーションとの間の第1のタイプの対応関係に従って計算された、第1のユーザ7002の表現7002’-bの個別のポジション及び更に更新された第2のビュー7304-b’’の視点のポジションは、三次元環境内で互いの第2の予め設定された閾値距離未満(例えば、第1の予め設定された閾値距離と同じ、異なる予め設定された閾値距離など)である。
図7Fの部分(B)では、第1のユーザ7002及び/又は第2のユーザ7102のそれぞれの物理的環境内の更なる移動を検出したことに応じて、第2のユーザ7102のコンピュータシステムは、第2の物理的環境内の第2のユーザ7102の更なる移動に従って移動される視点を有する三次元環境の更なる更新された第2のビュー7304-b’’を表示する。いくつかの実施形態では、更に更新された第2のビュー7304-a’’の視点は、第2のユーザ7102及び/又は第2の表示生成コンポーネント7200が第2の物理的環境内で移動しなかった場合、三次元環境内で静止している。いくつかの実施形態では、第1のタイプの対応関係に従って第1の物理的環境内の第1のユーザ7002の現在ロケーションに基づいて計算された三次元環境内の第1のユーザ7002の表現7002’-bの個別のポジションが、三次元環境の更に更新された第2のビュー7304-b’’に関連付けられた視点に対応する三次元環境内の個別のポジションから第2の予め設定された閾値距離未満であるという判定に従って、第2のユーザ7102のコンピュータシステムは、三次元環境の更に更新された第2のビュー7304-b’’内の調整された表示ポジションに表現7002’-bを表示し、調整された表示ポジションは、この時点における三次元環境内の表現7002’-bの個別のポジションからオフセットされる。例えば、図7Fの部分(B)では、表現7002’-bを表現7102’-bの真正面のポジションに表示するか、又は更に更新された第2のビュー7304-b’’内の表現7102’-bと重複する代わりに、表現7002’-bの調整された表示ポジションは、第2のユーザ7102の表現7102’-bの側に(例えば、右に、別の側又は方向になど)オフセットされる。一般に、現在表示されている第2のビュー7304-b’’の視点の第2の予め設定された閾値距離内にあるポジションに表現7002’-bを表示する代わりに、第2のユーザ7102のコンピュータシステムは、第1のタイプの対応関係に従って計算された未調整ポジションからオフセットされた調整された表示ポジションに表現7002’-bを表示する。いくつかの実施形態では、第2のユーザ7102のコンピュータシステムは、表現7002’-bのポジションと現在表示されている第2のビュー7304-b’’の視点のポジションとの間の距離がもはや互いの予め設定された第2の閾値距離内になくなるまで、第1のユーザ及び/又は第2のユーザの移動中に調整を適用し続ける。
いくつかの実施形態では、上記の例において、第1のユーザ7002は移動しており、第2のユーザ7102は静止している。結果として、上述のように調整されない限り、現在表示されているビュー7304-a、7304-a’、及び7304-a’’の視点は、三次元環境において異なるポジションを有し、第1のユーザ7002の表現7002’-bは、三次元環境において(例えば、図7D~図7Fにおける現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、7304-b’’において)異なるポジションを有する。上述のように調整されない限り、現在表示されているビュー7304-b、7304-b’、及び7304-b’’の視点は、三次元環境において同じポジションを有し、第2のユーザ7102の表現7102’-aは、三次元環境において(例えば、図7D~図7Fにおける現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、7304-b’’において)同じポジションを有する。
いくつかの実施形態では、上記の例において、第1のユーザ7002は静止しており、第2のユーザ7102は第2の物理的環境内で移動している。結果として、上述のように調整されない限り、現在表示されているビュー7304-b、7304-b’、及び7304-b’’の視点は、三次元環境において異なるポジションを有し、第2のユーザ7102の表現7102’-aは、三次元環境において(例えば、図7D~図7Fにおける現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、7304-b’’において)異なるポジションを有する。上述のように調整されない限り、現在表示されているビュー7304-a、7304-a’、及び7304-a’’の視点は、三次元環境において同じポジションを有し、第1のユーザ7002の表現7002’-bは、三次元環境において(例えば、図7D~図7Fにおける現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、7304-b’’において)同じポジションを有する。
いくつかの実施形態では、上記の例において、第1のユーザ7002及び第2のユーザ7102は両方とも、それぞれの物理的環境内で移動している。その結果、現在表示されている第1のビュー7304-b、7304-b’、及び7304-b’’の視点、並びに現在表示されている第2のビュー7304-a、7304-a’、7304-a’’の視点は全て、三次元環境において異なるポジションを有する。第2のユーザ7102の表現7102’-aは、図7D~図7Fの現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、及び7304-b’’において三次元環境内の異なるポジションを有し、第1のユーザ7002の表現7002’-bは、図7D~図7Fの現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、及び7304-b’’において三次元環境内の異なるポジションを有する。
いくつかの実施形態では、第1のユーザ7002の表現7002’-b及び/又は第2のユーザ7102の表現7102’-aは、第1のビュー及び第2のビュー内の空間に浮動している。例えば、いくつかの実施形態では、第1のユーザ7002の表現7002’-bは、三次元環境の第2のビュー7034-b、7034-b’、及び7034-b’’などに浮かんでいる第1のユーザ7002の浮動アバターであり、第1のユーザの移動及び/又は第2のユーザの移動に起因して、第2のビュー7034-b’’の視点が表現7002’-bの第2の予め設定された閾値距離内に入ると、自動的に邪魔にならないように移動する。同様に、いくつかの実施形態では、第2のユーザ7102の表現7102’-aは、三次元環境の第1のビュー7034-a、7034-a’、及び7034-a’’などに浮かんでいる第2のユーザ7102の浮動アバターであり、第1のユーザの移動及び/又は第2のユーザの移動に起因して、第1のビュー7034-a’’の視点が表現7102’-aの第1の予め設定された閾値距離内に入ると、自動的に邪魔にならないように移動する。いくつかの実施形態では、三次元環境内のユーザのアバターは、三次元環境の現実感レベル(例えば、写真の現実感レベル、漫画の現実感レベルなど)に基づいて選択される現実感レベルである。いくつかの実施形態では、三次元環境7304が第1の現実感レベルで表示されるという判定に従って、ユーザの表現は、第1の現実感レベルに対応する第1のセットの表示特性(例えば、第1の解像度、第1の次元数、第1の鮮明度、第1のカラーパレット、照明効果なしなど)で表示され、三次元環境が第1の現実感レベルとは異なる(例えば、より高い、より低いなど)第2の現実感レベルで表示されるという判定に従って、ユーザの表現は、第2の現実感レベルに対応する第2のセットの表示特性(例えば、第2の解像度、第2の次元数、第2の鮮明度、第2のカラーパレット、照明効果ありなど)で表示され、第2のセットの表示特性は、第1のセットの表示特性とは異なる(例えば、より高い、より低い、加算する、減算するなど)。
いくつかの実施形態では、個別のユーザの表現の表示ポジションが調整されるとき、個別のユーザの表現は、通常の方法で(例えば、第1のタイプの対応関係に従って、調整なしでなど)物理的環境内の個別のユーザの移動に対応しない移動コンポーネントと共に移動する。いくつかの実施形態では、個別のユーザの個別の表現の調整されたポジション置に適用されるオフセットの量は、個別の表現と三次元環境内の視点の仮想ポジションとの間の空間関係に基づいて可変である。いくつかの実施形態では、表現7102’-aの表示ポジションに対する調整は、任意選択的に、第1のユーザ7002に表示される第1のビュー7304-a’’に適用され、第2のユーザ7102に表示される第2のビュー7304-b’’には適用されない。いくつかの実施形態では、表現7002’-bの表示ポジションに対する調整は、任意選択的に、第1のユーザ7002に表示される第1のビュー7304-a’’ではなく、第2のユーザ7102に表示される第2のビュー7304-b’’に適用される。
いくつかの実施形態では、三次元環境7304は、仮想三次元環境又は拡張現実環境を含み、第1のユーザ及び第2のユーザは、仮想三次元環境において共有体験を有する。いくつかの実施形態では、それぞれの物理的環境(例えば、同じ物理的環境、異なる物理的環境など)内の第1のユーザ及び第2のユーザのポジション及び移動は、同じ三次元環境内のポジション及び移動に(例えば、同じマッピング関係、又は異なるマッピング関係などを使用して)マッピングされるが、三次元環境の外観は、(例えば、異なる壁紙、配色、異なる仮想家具などを用いて)調整されて、個別のユーザに対して示される三次元環境のビュー内で個別のユーザに合わせて適応させることができる。
図7G~図7Jは、いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルの変化を示すブロック図である。
いくつかの実施形態では、コンピュータシステムは、ユーザ(例えば、ユーザ7002)に対応するバイオメトリックデータ(例えば、バー7312によって表されるバイオメトリックデータ、他のバイオメトリックデータなど)に従って、コンピュータ生成体験(例えば、視覚体験、視聴覚体験、仮想現実体験、拡張現実体験など)をユーザに提示する没入レベルを変更する。例えば、コンピュータ生成体験が開始された後、例えば、積極的に、及び/又はコンピュータ生成コンテンツの影響下で、ユーザが自分の身体的及び感情的な状態を調整しているとき、コンピュータシステムは、ユーザに対応するバイオメトリックデータ(例えば、心拍数、血圧、呼吸数など)の変化を検出することができる。様々な没入レベルに関連付けられた予め設定された基準(例えば、インジケータ7326によって表される閾値又は他のタイプの閾値若しくは基準など)のそれぞれのセットに対するバイオメトリックデータの変化に従って、コンピュータシステムは、物理的環境の表現の視覚的プロミネンスに対して仮想コンテンツの(例えば、空間範囲、視覚的奥行き、彩度、視覚的コントラストなどを含む)視覚的プロミネンスを変更することによって(例えば、仮想コンテンツの複雑さ、空間範囲、及び/又は視覚的特性を強化すること、及び/又は物理的環境の表現の視覚的明瞭さ、ぼかし半径、不透明度、彩度などを低減することなどによって)コンピュータ生成体験をユーザに提供する没入レベルを増加又は低減させる。
図7G~図7Jに示す例では、コンピュータシステムは、最初に、表示生成コンポーネント(例えば、表示生成コンポーネント7100、又はHMDなどの別のタイプの表示生成コンポーネントなど)を介して三次元環境のビュー7316を表示する。いくつかの実施形態では、三次元環境のビュー7316は、ユーザ7002の物理的環境のパススルービューであり、表示生成コンポーネントによって提供される視野の周辺部分内に仮想コンテンツを含まないか、又は最小量の仮想コンテンツ(例えば、システム制御、インジケータなど)を含む。ビュー7316は、例えば、ユーザの物理的環境の表現に対して表示される仮想コンテンツの量が最小限であるために、コンピュータ生成体験をユーザに提供する低い没入レベルに対応する。この例では、三次元環境のビュー7316は、物理的表面の表現(例えば、ユーザ7002の物理的環境105内の2つの隣接する壁7004及び7006の表現7004’及び7006’、床7008の表現7008’など)、及び物理的オブジェクトの表現(例えば、ユーザ7002の物理的環境105内の物理的オブジェクト7010の表現7010’、及び他の物理的オブジェクトの表現など)を含む。
図7Gはまた、コンピュータシステムが、低い没入レベルで三次元環境のビュー7316を表示している(例えば、物理的環境のパススルービューを表示する、又は最小量の仮想コンテンツを有する物理的環境の表現を表示するなど)間、コンピュータシステムが、ユーザ7002に対応するバイオメトリックデータを受信することを示す。ユーザ7002のバイオメトリックデータが次に高い没入レベルに対応する予め設定された基準を満たさないという判定に従って、コンピュータシステムは、三次元環境の現在表示されているビュー内の物理的環境の表現の視覚的プロミネンスを低減することなく、三次元環境の第1のビュー7316の表示を維持する。例えば、図7Gに示すように、バイオメトリックデータは、バイオメトリックデータの値(単数又は複数)の全範囲に対するバー7312の長さによって示される値又は値のセットを有し、異なるより高い没入レベルに遷移するための予め設定された基準に対応する閾値は、バイオメトリックデータの値の全範囲に対するインジケータ7326のポジションによって示される。
いくつかの実施形態では、ユーザ7002に対応するバイオメトリックデータは、ユーザ7002の心拍数、呼吸数、体温、特定の化学物質、薬剤、及び/又はホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値などのうちの1つ以上を含む。いくつかの実施形態では、ユーザ7002に対応するバイオメトリックデータは、コンピュータ生成体験とのユーザの関与中に経時的に変化し得る1つ以上のタイプのバイオメトリックデータ(例えば、呼吸数、血圧、集中度、血糖値など)を含む。いくつかの実施形態では、ユーザに対応するバイオメトリックデータは、ユーザの身体的アクション(例えば、コンピュータ生成体験とのユーザの関与中にコンピュータシステムによって提供されるユーザインタフェース要素又は制御との直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)を通じて変動し得る、1つ以上のタイプのバイオメトリックデータを含む。いくつかの実施形態では、ユーザに対応するバイオメトリックデータは、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックを含む。いくつかの実施形態では、バイオメトリックデータは、表示生成コンポーネントを介した三次元環境の現在のビューの表示の前の時間又は予め設定された量の時間内のユーザの生理学的状態に対応するリアルタイムデータを含む。いくつかの実施形態では、バイオメトリックデータは、ユーザに接続されるか、又は向けられる1つ以上のバイオメトリックセンサ(例えば、種々の好適な医療デバイス、振動センサ、カメラ、熱センサ、化学センサなど)を通じて、連続的及び/又は周期的に収集され、コンピュータシステムに連続的及び/又は周期的に伝送される。いくつかの実施形態では、バイオメトリックデータは、平均的なユーザがコンピュータ生成体験に関与している期間にわたって典型的には変化しない、人間の非一次的特徴(例えば、指紋、虹彩パターン及び色、顔特徴、声紋など)を含まない。
いくつかの実施形態では、コンピュータシステムは、心拍数が第1の閾値心拍数よりも大きく、血圧が第1の閾値血圧よりも高く、ユーザの運動が閾値時間量の間に第1の閾値移動量よりも大きく、ユーザの体温が第1の閾値体温よりも高く、ストレスレベルのメトリックが第1の閾値ストレスレベルを上回り、ユーザの気分に対応するメトリックがユーザが動揺して不満であることを示すなどという判定に従って、バイオメトリックデータが予め設定されたより高い没入レベルでコンピュータ生成体験を表示することに遷移するための予め設定された基準を満たさないと判定する。いくつかの実施形態では、コンピュータシステムは、予め設定された基準が満たされるとき、予め設定された基準が満たされる前のバイオメトリックデータの変化に基づく漸進的な遷移を経ることなく、(例えば、図7Jに示されるように)予め設定されたより高い没入レベルで三次元環境を表示することに切り替える。いくつかの実施形態では、任意選択的に、コンピュータ生成体験は、ユーザから受信される対応するバイオメトリックデータが予め設定された基準を満たすであろう状態にユーザが入ることを支援する視覚及び/又は音声ガイダンス(例えば、音楽、風景、鼓舞メッセージ、投薬記録の案内、視覚、音声、又は口頭での呼吸指示など)を含む。
図7H~図7Iは、いくつかの実施形態では、コンピュータシステムが、ユーザに対応するバイオメトリックデータの変化の傾向及び/又は大きさに従って、コンピュータ生成体験をユーザに提供する没入レベルを徐々に調整することを示す。例えば、いくつかの実施形態では、バイオメトリックデータが、予め設定されたより高い没入レベル(例えば、拡張現実ビュー、拡張仮想性ビュー、仮想現実ビューなど)に切り替えるための予め設定された基準の満足に近づく変化を呈すると、コンピュータシステムは、コンピュータ生成体験に対応する仮想コンテンツの視覚的プロミネンス及び/又は量を増加させ、三次元環境の現在表示されているビュー内の物理的環境の表現の視覚的プロミネンス及び/又は量を低減させる。いくつかの実施形態では、コンピュータシステムは、ユーザに対応するバイオメトリックデータの変化の量及び/又は性質に対応する量だけ、コンピュータ生成体験に対応する仮想コンテンツと物理的環境の表現との間の視覚的バランスを変化させる。同様に、いくつかの実施形態では、バイオメトリックデータが、予め設定されたより高い没入レベルに切り替えるための予め設定された基準を満たすことから離れる変化を呈すると、コンピュータシステムは、コンピュータ生成体験に対応する仮想コンテンツの視覚的プロミネンス及び/又は量を減少させ、三次元環境の現在表示されているビュー内の物理的環境の表現の視覚的プロミネンス及び/又は量を増加させる。
いくつかの実施形態では、コンピュータシステムは、ユーザに対応するバイオメトリックデータの変化の量及び/又は性質に対応する量だけ、仮想コンテンツと物理的環境の表現との間の視覚的バランスを変化させる。図7Hに示されるように、(例えば、インジケータ7326のポジションに近づくバー7312の増加した長さによって示されるように)バイオメトリックデータの値が予め設定された基準を満たすように変化するとき、三次元環境のビュー(例えば、図7Hのビュー7318)に表示される仮想コンテンツの量は、以前の状態(例えば、図7Gのビュー7316)と比較して増加し、物理的環境の表現の視覚的プロミネンスは減少する。より具体的には、図7Hでは、壁7004及び7006の表現7004’及び7006’は、仮想コンテンツ7320及び7322(例えば、視覚効果が適用される物理的環境の表現の部分を視覚的に隠す視覚効果、仮想表面、仮想オブジェクト、仮想風景など)の表示によって置換されるか又は隠され、表現7010’の表面の少なくとも一部も、仮想コンテンツ7324(例えば、視覚効果が適用される物理的環境の表現の部分を視覚的に隠す視覚効果、仮想表面、仮想オブジェクト、仮想風景など)の表示によって置換されるか又は隠される。図7Hに続く図7Iに示されるように、バイオメトリックデータの値が、(例えば、インジケータ7326のポジションから後退するバー7312の減少した長さによって示されるように)予め設定された基準を満たすことから離れて変化するとき、三次元環境のビュー(例えば、図7Iのビュー7328)内に表示される仮想コンテンツの量は、以前の状態(例えば、図7Hのビュー7318)と比較して減少し、物理的環境の表現の視覚的プロミネンスは再び増加する(例えば、任意選択的に、図7Gに示される状態よりも依然として低い)。より具体的には、図7Iでは、壁7006の表現7006’は、仮想コンテンツ7332が除去された後に再表示され、壁7004の表現7004’は、仮想コンテンツ7320の視覚的プロミネンスが低減されたときに部分的に再表示される(例えば、視覚効果が適用される物理的環境の表現の部分を視覚的に覆い隠す視覚効果の大きさが低減され、仮想面及び仮想オブジェクトが縮小され、除去され、数が低減され、又はより半透明にされるなど)。仮想コンテンツ7324の表示によって置換された、又は隠された表現7010’の表面の部分の視覚的プロミネンスは、仮想コンテンツ7324に対して行われた変更(例えば、より半透明にされた、より不透明でなくされた、表現7010’に対してより少ない量の歪みを含むなど)によって同様に増加する。いくつかの実施形態では、予め設定されたより高い没入レベルに遷移するための予め設定された基準が満たされる前に(例えば、インジケータ7326によって示される閾値がユーザに対応するバイオメトリックデータによって満たされる前に、又は他の基準がバイオメトリックデータによって満たされる前に、など)、バイオメトリックデータがユーザの現在の状態に基づいて更新されるにつれて、コンピュータシステムは、バイオメトリックデータに従って、仮想コンテンツと三次元環境の現在表示されているビュー内の物理的環境の表現との間の視覚的バランスを連続的又は周期的に調整する(例えば、物理的環境の表現に対する仮想コンテンツの視覚的プロミネンスを増加させる、物理的環境の表現に対する仮想コンテンツの視覚的プロミネンスを減少させる、など)。
図7Jでは、コンピュータシステムは、ユーザに対応する更新されたバイオメトリックデータが、バイオメトリックデータによって予め設定基準が満たされる前に表示されたもの(例えば、図7G~7Iのビュー7316、7318、7328など)と比較してより高い没入レベルを有する予め設定されたより高い没入レベル(例えば、拡張現実環境、拡張仮想現実環境、仮想現実環境など)に遷移するための予め設定基準を満たすことを検出し、コンピュータシステムは、予め設定されたより高い没入レベルでの三次元環境の表示(例えば、図7Jのビュー7334、又は予め設定されたより高い没入レベルでの三次元環境の別のビューなどの表示)に遷移する。この例では、図7Jに示されるように、コンピュータシステムは、仮想コンテンツ(例えば、図7Jのビュー7334内の壁7006、7004、床7008、及び物理的オブジェクト7010の表現7006’、7004’、7008’、及び7010’を視覚的に覆い隠す仮想コンテンツ7322、7320、7330、及び7324)の視覚的特性を通じて、物理的環境のヒント(例えば、壁と床との間の構造的関係、物理的オブジェクトの存在など)のみが三次元環境内で依然として可視であるように、仮想コンテンツの視覚的プロミネンスを増加させ、物理的環境の表現の視覚的プロミネンスを更に減少させている。いくつかの実施形態では、コンピュータシステムは、三次元環境内の様々なポジションに仮想オブジェクトを更に表示する。例えば、仮想オブジェクト7332は、物理的環境内の物理的オブジェクト7010のロケーションに対応するポジションに表示され、仮想オブジェクト7326は、床7008上のロケーションに対応するポジションに表示され、他の仮想オブジェクトは、物理的環境内の自由空間に対応するポジションに、又は物理的環境の状態とは無関係に表示され得る。いくつかの実施形態では、予め設定されたより高い没入レベルに遷移するための予め設定基準が満たされた後、コンピュータシステムは、三次元環境の現在表示されているビュー内の仮想コンテンツの量を急激に増加させるか、又はコンピュータ生成体験に対応する完全に新しい環境(例えば、新しい仮想世界、新しいシーンなど)を表示する。いくつかの実施形態では、予め設定基準が満たされ、コンピュータシステムが予め設定されたより高い没入レベルで三次元環境を表示した後、予め設定基準が更新されたバイオメトリックデータによってもはや満たされないという判定に従って、コンピュータシステムは、図7H及び図7Iに示すように、バイオメトリックデータの変化に基づいて三次元環境が表示される没入レベルを徐々に調整する。いくつかの実施形態では、予め設定された基準が満たされ、コンピュータシステムが予め設定されたより高い没入レベルで三次元環境を表示した後、予め設定された基準が更新されたバイオメトリックデータによってもはや満たされていないという判定に従って、コンピュータシステムは、(例えば、図7Gに示すように)より低い没入レベルで三次元環境の表示に戻るように急に切り替わる。
いくつかの実施形態では、予め設定された基準は、心拍数が第1の閾値心拍数よりも低い、呼吸数が第1の閾値呼吸数よりも低い、血圧が第1の閾値血圧よりも低い、ユーザの移動が閾値時間中に第1の閾値移動量より小さい、ユーザの体温が第1の閾値体温よりも低い、ストレスレベルのメトリックが第1の閾値ストレスレベルよりも低い、ユーザの気分に対応するメトリックがユーザがリラックスして幸せであることを示すという判定に従って満たされる。
いくつかの実施形態では、低い没入レベルで示される三次元環境のビュー(例えば、図7Gに示されるような、又は三次元環境の別のビューなど)は、コンピュータシステムの表示生成コンポーネントが最初にオンにされる、又はユーザの頭部若しくはユーザの目の前に置かれるときに表示され、仮想要素は三次元環境に表示されないか、又は最小量の仮想要素が三次元環境に表示される。これにより、表示生成コンポーネントがユーザの目を遮断することなく、ユーザは、現実世界の直接ビューと非常に類似している三次元環境のビューから開始することができる。いくつかの実施形態では、低い没入レベルに対応する三次元環境のビューは、二次元ウィンドウ内に表示される、又は物理的環境の表現に対するポジションに表示される表示域内に制限されるアプリケーション又はコンピュータ生成体験のユーザインタフェース又は環境(例えば、二次元環境、三次元環境など)のビューである。いくつかの実施形態では、低い没入レベルで示される三次元環境のビュー(例えば、図7Gに示すように、又は三次元環境の別のビューなど)は、アプリケーション又はコンピュータ生成体験がユーザによって最初に起動又は開始されたときに表示され、アプリケーション又は体験の完全な空間範囲は、三次元環境においてまだ表示されていない。これにより、ユーザは、あまり没入感がなく、実世界のビューのコンテキストで見られる三次元環境のビューから開始することができる。
いくつかの実施形態では、コンピュータシステムによって表示される仮想コンテンツ(例えば、仮想壁紙、仮想オブジェクト、仮想表面、仮想風景、仮想三次元環境など)は、物理的環境の視界を少なくとも部分的に遮断又は不明瞭にする。いくつかの実施形態では、予め設定されたよりも高い没入レベルで三次元環境のビューを表示するとき、コンピュータシステムは、第1のクラスの物理的オブジェクト又は表面(例えば、前壁、前壁、及び天井など)のビューを、新しく表示された仮想要素又は既存の仮想要素の新しく表示された部分と置換又は遮断する。いくつかの実施形態では、アニメーション遷移が表示されて、仮想要素が徐々に拡大するか、又はより不透明になり一杯にすることで、第1のクラスの物理的オブジェクト又は表面のビューを覆う又は遮断する。いくつかの実施形態では、予め設定されたより高い没入レベルで三次元環境のビューを表示するとき、コンピュータシステムは、物理的要素の任意のクラス全体を置換することなく、仮想要素を三次元環境に追加する。いくつかの実施形態では、追加される仮想要素は、任意選択的に、メニュー(例えば、アプリケーションのメニュー、文書など)、コントロール(例えば、ディスプレイ輝度コントロール、ディスプレイ焦点コントロールなど)、又はユーザ入力によって操作することができる、又は三次元環境に情報若しくはフィードバックを提供するその他のオブジェクト(例えば、仮想アシスタント、文書、メディアアイテムなど)などのユーザインタフェースオブジェクトを含む。いくつかの実施形態では、追加される仮想要素は、任意選択的に、ユーザ入力によって操作することができず、物理的環境のルックアンドフィールを置換する三次元環境のルックアンドフィールを提供するように機能する非インタラクティブオブジェクト又は表面を含む。いくつかの実施形態では、コンピュータシステムによって表示される仮想コンテンツは、物理的環境のビューを少なくとも部分的に遮断又は不明瞭にする視覚効果(例えば、物理的環境の表現をフェードアウトする、ぼかす、ぼんやりさせるなど)を含む。
いくつかの実施形態では、バイオメトリックデータが更新され、更新されたバイオメトリックデータが、更に高い没入レベルで三次元環境を表示することに遷移するための予め設定された基準を満たすという判定に従って、コンピュータシステムは、コンピュータ生成体験に対応する仮想コンテンツの視覚的プロミネンスを増加させ、物理的環境からの視覚的刺激を、更に高い没入レベルに対応する別のレベルに低減する。例えば、いくつかの実施形態では、コンピュータシステムは、追加のクラスの物理的オブジェクト又は表面(例えば、床)を、新たに表示された仮想要素又は既存の仮想要素の新たに表示された部分によって置換する、不明瞭にする、又は遮断する。いくつかの実施形態では、アニメーション遷移が表示されて、仮想要素が徐々に拡大するか、又はより不透明になり一杯にすることで、追加のクラスの物理的オブジェクト及び表面のvビューを覆う又は遮断する。
いくつかの実施形態では、三次元環境は、コンピュータ生成仲介体験の環境であり、ユーザが、より深い瞑想体験の状態に入るために必要とされる集中、弛緩、集中などのレベルを達成したことをバイオメトリックデータが示す際、コンピュータシステムは、環境の現在表示されているビューを、例えば、瞑想体験に対応する仮想コンテンツの拡張された空間範囲(例えば、幅、深度、角度など)及び視覚的プロミネンス、並びに物理的環境の表現の低減された空間範囲及び視覚的プロミネンスを伴う、より没入型の環境に変換する。
いくつかの実施形態では、コンピュータ生成体験の視覚的コンテンツを表示する没入レベルの増加と共に、コンピュータシステムはまた、コンピュータシステムの音声出力デバイスのアクションを通じてユーザによって知覚可能な物理的環境の音の抑制レベルを増加させ、及び/又は音声出力デバイスによって出力されるコンピュータ生成体験の音声コンテンツの没入レベルを増加させる(例えば、音量を増加させる、ステレオ音声出力モード若しくはサラウンドサウンド出力モードから空間音声出力モードに変更する、又はステレオ音声出力モードからサラウンドサウンド出力モードに変更するなど)。
いくつかの実施形態では、コンピューティングシステムは、2つ以上の没入レベルで表示生成コンポーネントを介してCGRコンテンツの視覚的コンポーネントを表示するように構成される。いくつかの実施形態では、コンピュータシステムは、少なくとも第1の没入レベル、第2の没入レベル、及び第3の没入レベルでCGRコンテンツの視覚的コンポーネントを表示する。いくつかの実施形態では、コンピュータシステムは、少なくとも2つの没入レベルでCGRコンテンツの視覚的コンポーネントを表示し、それぞれ、互いに対してより没入レベルの低い視覚体験及びより没入レベルの高い視覚体験を提供する。いくつかの実施形態では、コンピューティングシステムは、ユーザに対応するバイオメトリックデータが基準の異なるセットを満たすことに応じて、表示生成コンポーネントを介して表示される視覚的コンテンツを異なる没入レベル間で遷移させる。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、CGR環境内に存在するCGR体験に対応する仮想コンテンツの量を増加させること、及び/又はCGR環境内に存在する周囲の物理的環境の表現の量を減少させることに対応する。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、コンピュータ生成コンテンツの増加する画像忠実度(例えば、増加するピクセル解像度、増加する色解像度、増加する色飽和度、増加するルミナンス、増加する不透明度、増加する画像詳細など)及び/又は空間範囲(例えば、角度範囲、空間深度など)、及び/又は周囲の物理的環境の表現の減少する画像忠実度及び/又は空間範囲を有する、コンテンツ表示の異なるモードに対応する。いくつかの実施形態では、第1の没入レベルは、パススルーモードであり、物理的環境は、表示生成コンポーネントを通じて(例えば、物理的環境のカメラビューとして、又は表示生成コンポーネントの透明若しくは半透明の部分を通じて)ユーザに完全に可視である。いくつかの実施形態では、パススルーモードで提示される視覚的CGRコンテンツは、物理的環境のビューとして同時に可視な最小量の仮想要素を有する、又は物理的環境のユーザのビューの周辺の仮想要素(例えば、ディスプレイの周辺領域に表示されるインジケータ及びコントロール)のみを有する、物理的環境のパススルービューを含む。例えば、物理的環境のビューは、表示生成コンポーネントによって提供される視野の中央領域及び大部分の領域を占め、より少数のコントロール(例えば、映画のタイトル、プログレスバー、再生コントロール(例えば、再生ボタン)など)のみが、表示生成コンポーネントによって提供される視野の周辺領域に表示される。いくつかの実施形態では、第1の没入レベルは、パススルーモードであり、物理的環境は、表示生成コンポーネントを通じて(例えば、物理的環境のカメラビューとして、又は表示生成コンポーネントの透明部分を通じて)第1のユーザに完全に可視であり、視覚的CGRコンテンツは、物理的環境の表現に重ねられて、物理的環境の表現の一部を置換して、又は物理的環境の表現の一部のビューを遮断するなどして仮想ウィンドウ又はフレーム内に表示される。いくつかの実施形態では、第2の没入レベルは、物理的環境のパススルービューがコンピュータシステムによって生成された仮想要素で拡張された複合現実モードであり、仮想要素は、ユーザの視野の中央領域及び/又は大部分の領域を占有する(例えば、仮想コンテンツは、コンピュータ生成環境のビュー内の物理的環境と統合される)。いくつかの実施形態では、第2の没入レベルは、物理的環境のパススルービューが、物理的環境の表現の一部に重ねられる、物理的環境の表現の一部の表示を置換する、又は物理的環境の表現の一部のビューを遮断するなどし、表示生成コンポーネントが物理的環境に対して移動されるときに明らかにされる追加の深さ又は空間範囲を有する、仮想ウィンドウ、ビューポート、又はフレームで拡張される、複合現実モードである。いくつかの実施形態では、第3の没入レベルは、拡張現実モードであり、仮想コンテンツは、物理的環境の表現と共に三次元環境内に表示され、仮想オブジェクトは、物理的環境の異なるロケーションに対応するポジションで三次元環境全体に分散される。いくつかの実施形態では、第3の没入レベルは、仮想コンテンツが物理的環境の表現なしに三次元環境に表示される仮想現実モードである。いくつかの実施形態では、上述の異なる没入レベルは、互いに対して増加する没入レベルを表す。
いくつかの実施形態では、コンピュータシステムは、コンピュータ生成体験(例えば、アプリケーション、通信セッション、映画、ビデオ、ゲームなど)の音声コンテンツを出力するための音声出力モードを、コンピュータ生成体験の視覚的コンテンツが表示生成コンポーネントによって表示されている没入レベルに従って選択する。いくつかの実施形態では、視覚的コンテンツを表示する没入レベルが(例えば、第1の没入レベルから第2の没入レベルへ、第1の没入レベルから第3の没入レベルへ、又は第2の没入レベルから第3の没入レベルへなど)増加すると、コンピュータシステムは、音声出力モードを没入レベルの低い出力モードから没入レベルの高い出力モードへ切り替える(例えば、第1の音声出力モードから第2の音声出力モードへ、又は第1の音声出力モードから第3の音声出力モードへ、又は第2の音声出力モードから第3の音声出力モードへなど、第1の音声出力モード、第2の音声出力モード、及び第3の音声出力モードは、没入レベルが増加していく音声出力に対応する)。本明細書で説明するように、空間音声出力モードは、ステレオ音声出力モード及びモノラル音声出力モードよりも高い没入レベルに対応する。空間音声出力モードは、サラウンドサウンド出力モードよりも高い没入レベルに対応する。サラウンドサウンド出力モードは、ステレオ音声出力モード及びモノラル音声出力モードよりも高い没入レベルに対応する。ステレオ音声出力モードは、モノラル音声出力モードよりも高い没入レベルに対応する。いくつかの実施形態では、コンピュータシステムは、コンピュータ生成体験の視覚的コンテンツを表示生成コンポーネントを介して提供する没入レベルに基づいて、複数の利用可能な音声出力モード、例えば、モノラル音声出力モード、ステレオ音声出力モード、サラウンドサウンド出力モード、空間音声出力モードなどから音声出力モードを選択する。
図7K~7Mは、いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約することを示すブロック図である。
いくつかの実施形態では、コンピュータシステムは、特別な器具又はコンピュータシステムの支援なしでは容易に知覚され得ない物理的環境の様々な側面を知覚するユーザの能力を強化する複数のタイプの感覚調整機能を提供する。ユーザが一度に物理的環境の一部を見るときに単一タイプの感覚調整機能を使用することのみを可能にする代わりに、コンピュータシステムは、コンピュータシステムによって提供される物理的環境のビュー内で以前に隠されていた物理的環境の部分に存在する特徴及び特性が明らかにされ得るように、物理的環境の一部の表現に及ぼす2つ以上のタイプの感覚増強機能の効果を集約する。
いくつかの実施形態では、コンピュータシステムが、表示生成コンポーネント(例えば、表示生成コンポーネント7100、又はHMDなどの別のタイプの表示生成コンポーネント)を介して、物理的環境の表現を含む三次元環境を表示するとき、コンピュータシステムは、任意選択的に、物理的環境の現在表示されている部分に対応するセンサ入力又は情報を使用して、物理的環境の表現を強化及び調整し、それにより、ユーザは、ユーザが表示生成コンポーネントの支援なしに物理的環境の部分を見るときにユーザに利用可能でない感覚情報を用いて物理的環境の部分を知覚することができる。
図7Kでは、コンピュータシステムは、物理的環境の第1の部分の第1の表現を含む三次元環境のビュー7340を表示する。ビュー7340において、物理的環境の第1の部分の第1の表現は、コンピュータシステムによって行われる感覚調整を伴わない物理的環境の第1の部分の外観に対応する。いくつかの実施形態では、物理的環境の第1の部分の第1の表現は、正常な人間の知覚の範囲内の平均色及び強度検出に対応する第1のレベルの撮像感度を有するカラーカメラによってキャプチャされる物理的環境の第1の部分のビューに対応する。いくつかの実施形態では、物理的環境の第1の部分の第1の表現は、表示生成コンポーネントの透明部分を通じた物理的環境の第1の部分のビューに対応し、コンピュータシステムによって増強及び調整されない。
いくつかの実施形態において、コンピュータシステムは、コンピュータシステムによって提供される複数の感覚調整機能のそれぞれを作動させるための複数のアフォーダンス(例えば、ハードウェアコントロール7354、7356、及び7358、三次元環境に表示されるユーザインタフェース要素など)を提供する。いくつかの実施形態では、コンピュータシステムは、複数の感覚調整機能のそれぞれに対応するアフォーダンスに向けられたユーザの起動入力(例えば、ボタン押下入力、タップ入力、ジェスチャ入力、タッチ入力、視線入力、選択入力、これらの組み合わせなど)に従って、複数の感覚調整機能のそれぞれを順番に又は組み合わせて作動させる。いくつかの実施形態では、複数の感覚調整機能のうちのそれぞれの1つは、コンピュータシステムに関連付けられた対応するハードウェアアフォーダンス又は三次元環境内の対応するユーザインタフェースコントロールの存在を必要とせずに、予め設定された入力(例えば、ジェスチャ入力、タッチ入力、音声コマンドなど)によって任意選択的に作動される。
この例では、図7Kに示すように、物理的環境の第1の部分の第1の表現は、部屋の内側から部屋の壁上の窓に向かうビューを含む。この例は非限定的であり、様々な実施形態によれば、物理的環境の第1の部分は、任意の屋内又は屋外環境であり得る。この例では、物理的環境の第1の部分の第1の表現は、壁の表現7344’、窓の表現7346’、窓から第1の距離にある窓の外側の丘の表現7348’、及び窓から第2の距離だけ離れた丘の頂上付近の木の表現7350’を含む。丘及び木が表示生成コンポーネントから大きな距離にあり、丘の表現7348’及び木の表現7350’が、三次元環境の現在表示されているビューに対応する視点から遠く離れているため(例えば、視点と表現7348’及び7350’との間のそれぞれの距離は、ユーザの目(又は表示生成コンポーネント)から丘及び木までのそれぞれの距離に対応する)、丘の表現7348’及び木の表現7350’は、表示生成コンポーネント7100によって提供される視野の小さな部分を占有する。
図7Lにおいて、コンピュータシステムは、コンピュータシステムによって提供される複数の感覚調整機能のうちの第1の感覚調整機能を作動させるユーザ入力を検出する。例えば、コンピュータシステムは、ハードウェアアフォーダンス7354がユーザの入力によって作動されたこと、第1の感覚調整機能に対応するユーザインタフェースオブジェクトがユーザの入力によって作動又は選択されたこと、第1の感覚調整機能を作動させるための基準を満たすジェスチャ入力、音声コマンド、及び/又はタッチ入力などがユーザによって提供されたことなどを検出する。これに応じて、コンピュータシステムは、物理的環境の第2の部分の第2の表現を含む三次元環境の第2のビュー7361を表示し、物理的環境の第2の部分は、物理的環境の第1の部分内に含まれる(例えば、図7Kに示す物理的環境の第1の部分の全部若しくは一部、又は第1の感覚調整機能を作動させた入力の検出前に示された物理的環境の一部などである)。三次元環境の第2のビュー7361において、図7Lの例に示されるように、木の表現7350’’の表示特性は、第1の感覚調整機能の動作に従って、三次元環境の第1のビュー7340に示される木の表現7350’に対して調整される。例えば、第1の感覚調整機能が、図7Lに示されるように、オブジェクトがユーザにより近く見えるように、オブジェクトの焦点距離を低減するシミュレートされた望遠鏡視である場合、木の表現7350’’は、図7Kに示されるように、第2の距離よりも視点にはるかに近く位置するように見える(例えば、調整された距離は、第2の距離の5分の1であり、調整された距離は、第2の距離の10分の1であり、調整された距離は、第2の距離及び/又はシミュレートされた望遠鏡視の最大倍率の予め設定された割合に基づいて選択される距離である、など)。同様に、丘の表現7348’’もまた、図7Kに示されるように、第1の距離よりもユーザのはるかに近くに位置するように見える(例えば、調整された距離は、第1の距離の5分の1であり、調整された距離は、第1の距離の10分の1であり、調整された距離は、第1の距離及び/又はシミュレートされた望遠鏡機能の最大倍率の予め設定された割合に基づいて選択される距離である、など)。この例では、ビュー7361内のユーザの視点又は仮想ポジションは、いくつかの実施形態に従って、ビュー7340内のウィンドウのポジションに移動される。この例では、いくつかの実施形態によれば、ビュー7361内のユーザの視点又は仮想ポジションは、依然として、物理的環境内のユーザ及び/又は表示生成コンポーネントの実際のロケーションに基づく。
いくつかの実施形態では、コンピュータは、第1の感覚調整機能を適用するとき、三次元環境の現在のビューに向けられたユーザの視線のロケーションに基づいて、物理的環境のターゲット部分を選択する。例えば、図7Kに示すように、コンピュータシステムは、ユーザの視線7352が三次元環境の第1のビュー7340内の木の表現7350’に向けられていることを検出し、第1の感覚調整機能が適用される物理的環境の第2の部分として、物理的環境の第1の部分から木を含む物理的環境の部分を選択する。
いくつかの実施形態では、シミュレートされた望遠鏡視は、コンピュータシステムによって提供される第1のタイプの感覚調節機能の例示的な例であり、コンピュータシステムによって提供され、ユーザ入力によって選択される別のタイプの感覚調節機能によって置換されてもよい。
図7Mでは、コンピュータシステムが、ユーザの入力によって作動された第1の感覚調整機能の動作に従って調整された物理的環境の第2の表現を含む三次元環境の第2のビュー7361を表示している間、コンピュータシステムは、複数の感覚調整機能のうちの第1の感覚調整機能とは異なる第2の感覚調整機能を作動させる第2のユーザ入力を検出する。例えば、コンピュータシステムは、ハードウェアアフォーダンス7356がユーザの入力によって作動されたこと、第2の感覚調整機能に対応するユーザインタフェースオブジェクトがユーザの入力によって作動又は選択されたこと、第2の感覚調整機能を作動させるための基準を満たすジェスチャ入力、音声コマンド、及び/又はタッチ入力などがユーザによって提供されたことなどを検出する。これに応じて、コンピュータシステムは、物理的環境の第3の部分の第3の表現を含む三次元環境の第3のビュー7364を表示し、物理的環境の第3の部分は、物理的環境の第2の部分内に含まれる(例えば、図7Lに示す物理的環境の第2の部分の全部若しくは一部、又は第2の感覚調整機能を作動させた入力の検出前に示された物理的環境の一部などである)。三次元環境の第3のビュー7364において、図7Mの例に示されるように、木の表現7350’’’の表示特性は、第2の感覚調整機能の動作に従って、三次元環境の第2のビュー7361に示される木の表現7350’’に対して更に調整される。例えば、第2の感覚調整機能が、図7Mに示されるように、温度及び/又は熱放射の変動に従って色及び/又は強度の変動を提示するシミュレートされた熱視である場合、木の表現7350’’’は、第3のビュー7364内の背景環境に対して異なる色及び/又は強度を有するように見え、表現7350’’’の部分7366’’’及び7368’’’の表示特性は、(例えば、熱撮像センサ又はコンピュータシステムと通信している他のセンサによって検出されるように、コンピュータシステムに送信されるか又はコンピュータシステムによって別のコンピュータシステムから取り出される熱データによって示されるように、など)物理的環境内の木の他の部分に対する木のそれらの部分の温度に基づいて更に調整される。例えば、部分7366’’’及び7368’’’によって表されるこれらの部分のより高い温度は、より多くの熱を放射するか、又は木自体よりも高い温度を有する小動物又はオブジェクトを明らかにする可能性が高い。表現7350’’’内の部分7366’’’及び7368’’’は、図7Kに示すように、木の元の第1の表現7350’に対する第1の感覚調整機能及び第2の感覚調整機能の両方の動作に基づいて生成される表示特性を有する。
いくつかの実施形態では、コンピュータシステムは、第2の感覚調整機能を適用するとき、三次元環境の現在表示されているビューに向けられたユーザの視線のロケーションに基づいて、物理的環境のターゲット部分を選択する。例えば、図7Lに示すように、コンピュータシステムは、ユーザの視線7360が三次元環境の第2のビュー7361内の木の表現7350’’に向けられていることを検出し、第1の感覚調整機能及び第2の感覚調整機能の両方が適用される物理的環境の第3の部分として、物理的環境の第2の部分から木を含む物理的環境の部分を選択する。
いくつかの実施形態では、シミュレートされた熱視は、コンピュータシステムによって提供される第2のタイプの感覚調整機能の例証的実施例であり、コンピュータシステムによって提供され、ユーザの入力によって選択される別のタイプの感覚調整機能によって置換されてもよい。
いくつかの実施形態では、第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)が、第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、望遠鏡視、顕微鏡視、暗視、熱視など)に従って、物理的環境の個別の部分のベースライン表現(例えば、図7Mの部分7366’’’、7368’’’、に対応する図7Kの木の表現7350’、物理的環境の別の部分など)に対して調整されて、物理的環境の個別の部分の第1の調整された表現(例えば、図7Mの木の表現7350’’’の部分7366’’’、7368’’’に対応する図7Lの木の表現7350’’、又は物理的環境の別の部分の更に調整された表現など)を取得し、第2の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)が、第2のタイプのコンピュータ生成感覚調整に従って、物理的環境の第2の表現に対して調整されて、物理的環境の個別の部分の第3の表現(例えば、図7Mの木の表現7350’’’の部分7366’’’、7368’’’、又は物理的環境の別の部分の更に調整された表現など)を取得する。いくつかの実施形態では、第2の表示特性は、第1のタイプ及び第2のタイプの感覚調整機能のいくつかの組み合わせにおいて、第1の表現及び第2の表現において同じ値を有し、第2の表示特性は、第1のタイプ及び第2のタイプの感覚調整機能のいくつかの組み合わせにおいて、第1の表現及び第2の表現において異なる値を有する。
いくつかの実施形態では、コンピュータシステムは、物理的環境の表現が、第3の感覚調整機能(例えば、第3の感覚調整機能に対応するアフォーダンス7358、ユーザインタフェースオブジェクト、ジェスチャ入力、音声コマンドなどとの相互作用によって作動させることができる感覚調整機能など)に更に基づいて調整されることを可能にする。いくつかの実施形態では、物理的環境の第3の表現を含む三次元環境の第3のビュー7364を表示している間、コンピュータシステムは、第1のタイプ及び第2のタイプの感覚調整機能とは異なる第3のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)を作動させる要求に対応する第3のユーザ入力を検出する。それに応じて、コンピュータシステムは、物理的環境の第4の部分の第4の表現(例えば、物理的環境の第3の部分の全部又は一部)を含む三次元環境の第4のビューを表示し、物理的環境の第4の表現は、第1のタイプの感覚調整機能に従って物理的環境の第4の部分の第1の表現に対して調整された第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第2のタイプの感覚調整機能に従って物理的環境の第4の部分の第2の表現に対して調整された第2の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第3のタイプの感覚調整機能に従って物理的環境の第4の部分の物理的環境の第3の表現に対して調整された第3の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)とを有する。
いくつかの実施形態では、第1の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、双眼鏡視、単眼鏡視、望遠鏡視など)(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含み、第2の感覚調整機能は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。
いくつかの実施形態では、第1の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるように、オブジェクトの焦点距離を低減すること)を含み、第2の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含む。
いくつかの実施形態では、第1の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減すること)を含み、第2の感覚調整機能は、フィルタ(例えば、カラーフィルタ、光周波数フィルタ、強度フィルタ、運動フィルタなど)を用いて物理的オブジェクトのビューを修正することを含む。
いくつかの実施形態では、第1の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減すること)を含み、第2の感覚調整機能は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音のための選択的音声増強(例えば、音量を増強すること、ある音周波数を選択的に増強/抑制することなど)を含む。
いくつかの実施形態では、物理的環境の第3の表現を表示するのと同時に、コンピュータシステムは、物理的環境の第3の表現において可視である物理的環境の一部に対応する音を出力し、音は、物理的環境の一部の外側の音源からの音に対して選択的に増強される(例えば、音量を増加させる、いくつかの選択された周波数の振幅を修正するなど)。
いくつかの実施形態では、物理的環境の第3の表現を表示するのと同時に、コンピュータシステムは、物理的環境の第2の表現及び第3の表現の両方において可視である物理的環境の一部から発せられる発話に対応するテキスト出力を表示し、発話は、物理的環境の一部の外側の音源からの音に対して選択的に増強される。
いくつかの実施形態では、第1の感覚調整機能は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含み、第2の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従って色及び/又は強度の変動を提示することなど)を含む。
いくつかの実施形態では、第1の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含む。
いくつかの実施形態では、第1の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に強化される、輝度の小さな変動が拡大されるなど)を含み、第2の感覚調整機能は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。
いくつかの実施形態では、第1の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高感度、温度及び/又は熱放射の変動に応じた色及び/又は強度の変動を提示することなど)を含む。
いくつかの実施形態では、第1の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2の感覚調整機能及び第2のタイプのコンピュータ生成感覚調整は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音に対する選択的音声増強(例えば、音量を増強する、ある音周波数を選択的に増強/抑制するなど)を含む。
いくつかの実施形態では、第1の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度変動に対する高感度、温度及び/又は熱放射変動に従った色及び/又は強度変動を提示することなど)を含み、第2の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、ユーザにより近く見えるようにオブジェクトの焦点距離を低減すること)を含む。
いくつかの実施形態では、第1の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含み、第2の感覚調整機能は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。
いくつかの実施形態では、第1の感覚調整動作は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含み、第2の感覚調整動作は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高い感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含む。
いくつかの実施形態では、第1の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含み、第2の感覚調整動作は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音に対する選択的音声増強(例えば、音量を増強すること、こと、特定の音周波数を選択的に増強/抑制することなど)を含む。
いくつかの実施形態では、ユーザによって選択された複数の選択された感覚調整機能が物理的環境の一部のベースライン表現に適用される順序は、1つ以上の予め設定された制約に基づいてコンピュータシステムによって調整され、任意選択的に、これらの感覚調整機能がユーザによって作動される順序とは異なる。例えば、いくつかの実施形態では、シミュレートされた望遠鏡視に対応する調整は、ユーザに最終結果を提示する目的で他のタイプの感覚調整が実行される必要がある物理的環境の部分を減少させるため、他のタイプの感覚調整に対応する調整の前に実行される。いくつかの実施形態では、コンピュータシステムは、異なるタイプの感覚調整機能がユーザによって作動される順序を観察し、ユーザによって作動される各追加の感覚調整に応じて得られる中間結果を提示する。
図7N~図7Pは、いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示することを示すブロック図である。
いくつかの実施形態では、コンピュータシステムは、三次元環境のビュー(例えば、ビュー7408、ビュー7410など)に表された物理的ロケーション(例えば、物理的オブジェクト7404のロケーション、物理的オブジェクト7402のロケーションなど)が個別のタイプのエクササイズ(例えば、ローイング、ハイキングなど)に関連付けられているという判定に従って、個別のタイプのエクササイズ(例えば、ローイング、ハイキングなど)に対応する仮想コンテンツ(例えば、仮想開放水域7406、仮想ハイキングコース7412など)(例えば、仮想風景、エクササイズ器具の視覚的及び機能的強化、ユーザインタフェース、ヘルス及びスコアボードなど)を表示する。例えば、ユーザ及び表示生成コンポーネント(例えば、ユーザ7002及び表示生成コンポーネント7100、又はHMDなどの別のタイプの表示生成コンポーネントを有する別のユーザなど)が現実世界内(例えば、シーン105内、又は別の物理的環境内など)のロケーションを移動する際、三次元環境のビュー内に示される仮想コンテンツは、ユーザ及び表示生成コンポーネントの現在ロケーションに関連付けられたタイプのエクササイズに対応するように調整される。いくつかの実施形態では、ロケーションが複数のタイプのエクササイズに関連付けられている場合、コンピュータシステムは、他のコンテキスト情報(例えば、ユーザの移動、そのロケーションにおけるオブジェクトとのユーザの関与など)に基づいて、そのロケーションに関連付けられている複数のタイプのエクササイズからあるタイプのエクササイズを選択し、選択されたタイプのエクササイズに対応する視覚的コンテンツを表示する。
図7Nの部分(A)は、ユーザ7002が物理的環境(例えば、シーン105、又は別の物理的環境など)に位置することを示す。ユーザ7002は、屋外環境若しくは屋内環境である異なる物理的環境に位置してもよく、又は屋内環境と屋外環境との間を移動してもよい。ユーザ7002は、第1の表示生成コンポーネント(例えば、表示生成コンポーネント7100、HMDなどの別のタイプの表示生成コンポーネントなど)を介して提供される視野を通じて物理的環境を見る。物理的環境は、物理的表面(例えば、壁7004及び7006、床7008、他の物理的表面など)及び1つ以上の物理的オブジェクト(例えば、エクササイズ器具7402、7404、他の物理的オブジェクトなど)を含む。いくつかの実施形態では、物理的環境は、ユーザが同時に見ることができない互いに分離した複数の部屋又はセクションを含む建物である。いくつかの実施形態では、物理的環境は、個々の建物内の部屋、様々な公園、様々な地理的領域など、互いに分離した複数の領域を含む。いくつかの実施形態では、物理的環境は、道路、木、空、開放水域、岩、山、車両、動物、人などの屋外の物理的オブジェクト及び表面を含む屋外環境である。いくつかの実施形態では、コンピュータシステムは、ユーザの物理的環境内(例えば、表示生成コンポーネントを通じたユーザの視野内、ユーザの閾値近傍(例えば、5メートル以内、数歩以内など)など)にある個別のロケーションに関連付けられる、1つ以上のタイプのエクササイズ(例えば、屋内エクササイズ、屋内スポーツ、屋外エクササイズ、屋外スポーツ、健康及び身体的能力を促進する身体活動、機能回復訓練及び療法など)を判定するために、情報を記憶し、及び/又は規則及び人工知能を実装する。いくつかの実施形態では、コンピュータシステムは、個別のロケーションに存在する物理的オブジェクトのタイプに基づいて、個別のロケーションに関連付けられたエクササイズのタイプを判定する。いくつかの実施形態では、コンピュータシステムは、個別のロケーションに存在する環境又は設定のタイプに基づいて、個別のロケーションに関連付けられたエクササイズのタイプを判定する。いくつかの実施形態では、コンピュータシステムは、他のタイプのマーカ及び信号、又は個別のに存在する情報の組み合わせに基づいて、個別ロケーションのロケーションに関連付けられたエクササイズのタイプを判定する。
図7Nの部分(B)では、コンピュータシステムは、ユーザ7002の物理的環境の表現を含む三次元環境の第1のビュー7405を表示する。いくつかの実施形態では、三次元環境の第1のビュー7405は、図7N(B)に示されるように、仮想要素を伴わない、又は最小限の仮想要素を伴う、現実ビューである。この例では、第1のビュー7405は、仮想コンテンツなしで、物理的表面の表現(例えば、壁7004及び7006の表現7004’及び7006’、床7008の表現7008など)と、物理的オブジェクトの表現(例えば、物理的オブジェクト7402の表現7402’、物理的オブジェクト7404の表現7404’など)とを含む。いくつかの実施形態では、三次元環境の第1のビューは、コンピュータシステムの基本機能を制御するためのユーザインタフェースオブジェクト(例えば、様々なコンピュータ生成体験を起動するためのアプリケーションアイコン、ディスプレイ設定、音声コントロールなど)を伴う、現実ビュー(例えば、図7N(B)に示されるビュー7405)である。いくつかの実施形態では、三次元環境の第1のビューは、低い没入レベルで表示される拡張現実ビューである(例えば、特定のアプリケーション体験(例えば、健康用途、瞑想アプリケーション、ワークアウトアプリケーション、ゲームアプリケーションなど)の一部ではなく、全体としてユーザの視野の小さい割合(例えば、10%未満、20%未満など)しか占有しない、又は制限された浮動ウィンドウなどに表示されるユーザインタフェースオブジェクト(例えば、アプリケーション起動パッド、ウェルカムユーザインタフェース、設定ユーザインタフェース)を表示する)。いくつかの実施形態では、三次元環境の第1のビュー7405に含まれる物理的環境の表現は、物理的環境の一部のカメラビューである。いくつかの実施形態では、三次元環境の第1のビュー7405に示される物理的環境の部分は、(例えば、ユーザが自分の頭部に表示生成コンポーネントを装着しているとき、又は自分の手に表示生成コンポーネントを保持しているときなど)ユーザが物理的環境の周りを移動するにつれて変化する。いくつかの実施形態では、三次元環境の第1のビュー7405に示される物理的環境の部分は、表示生成コンポーネントが物理的環境の周りを移動するにつれて変化する。いくつかの実施形態では、三次元環境の第1のビュー7405に含まれる物理的環境の表現は、表示生成コンポーネントの透明部分を通じた物理的環境のビューである。この例では、物理的オブジェクト7402は、三次元環境の第1のビュー7405に示される物理的環境の第1の部分内の第1のロケーションに配置され、物理的オブジェクト7404は、三次元環境の第1のビュー7405に示される物理的環境の第1の部分内の第2のロケーションに配置される。いくつかの実施形態では、第1のロケーション及び第2のロケーションは、必ずしも三次元環境の同じビュー内にある必要はなく、同じ物理的環境内の2つの別個のロケーションに、又は互いに完全に分離された異なる物理的環境に位置してもよい。この例では、物理的オブジェクト7402は、第1のタイプのエクササイズ(例えば、ランニング、ウォーキングなど)に対応する器具又は設定に対応し、物理的オブジェクト7402は、第2のタイプのエクササイズ(例えば、ローイング、ボート漕ぎ、水上スキーなど)に対応する器具又は設定に対応する。
図7O及び図7Pでは、コンピュータシステムは、三次元環境の第1のビュー7450を表示している間、物理的環境内のユーザ7002の移動を検出する。いくつかの実施形態では、三次元環境の第1のビュー内で可視である物理的環境の部分は、ユーザが物理的環境内で動き回るにつれて変化する。図7Oは、ユーザ7002が、第1のタイプのエクササイズに対応する物理的オブジェクト7404又は設定を含む第1のロケーションに移動した第1のシナリオを示す。図7Oは、ユーザ7002が、第2のタイプのエクササイズに対応する物理的オブジェクト7402又は設定を含む第2のロケーションに移動した第2のシナリオを示す。
いくつかの実施形態では、ユーザの移動は、(例えば、ユーザが表示生成コンポーネントを保持又は装着している間、表示生成コンポーネントとユーザとの間の空間関係が、ユーザが表示生成コンポーネントを通じて物理的環境を見続けることができるように維持されている間など)個別のロケーション(例えば、第1の物理的オブジェクト7404を含む第1のロケーション、第2の物理的オブジェクト7402を含む第2のロケーションなど)へのユーザ全体の移動を含む。いくつかの実施形態では、ユーザの移動は、(例えば、ユーザが表示生成コンポーネントを保持又は装着している、表示生成コンポーネントとユーザとの間の空間関係が、ユーザが表示生成コンポーネントを通じて物理的環境を見続けることができるように維持されている間など)個別のロケーション(例えば、第1の物理的オブジェクト7404を含む第1のロケーション、第2の物理的オブジェクト7402を含む第2のロケーションなど)のビューをキャプチャするように表示生成コンポーネント又は表示生成コンポーネントに関連付けられたカメラを配向するユーザの移動を含む。いくつかの実施形態では、ユーザの移動は、個別のロケーションでの物理的オブジェクト(単数又は複数)の操作(例えば、個別のロケーションでエクササイズ器具をオンにすること、個別のロケーションでエクササイズ器具を持ち上げること、個別のロケーションでエクササイズ器具の使用を開始することなど)に対応する移動を更に含む。
図7Oに示されるように、ユーザは、第1のタイプのエクササイズに対応する物理的オブジェクト7404を含む物理的環境内の第1のロケーションに移動している。この例では、ユーザはまた、ユーザが第1のタイプのエクササイズのために物理的オブジェクト7404を使用し始めることを可能にする物理的オブジェクト7404に対するポジションに移動している(例えば、器具上に座る、器具上に立つ、器具の1つ以上の部分を保持するなど)。いくつかの実施形態では、コンピュータシステムは、任意選択的に、ユーザが第1のタイプのエクササイズ(例えば、オールを漕ぐこと、シフトレバーを引くこと、開始姿勢をとることなど)に対応するエクササイズの1回以上の移動の繰り返しを開始したことを検出する。第1のタイプのエクササイズに対応する物理的オブジェクト7404を含む第1のロケーションへの第1のユーザの移動を検出したことに応じて、かつ第1のロケーションが第1のタイプのエクササイズに対応するという判定、及び任意選択的に、ユーザの移動が第1のセットの基準(例えば、第1のロケーションに対応する基準、第1のタイプのエクササイズに対応する基準など)を満たすという判定に従って、コンピュータシステムは、三次元環境の第2のビュー7408を表示し、第2のビュー7408は、第1のタイプのエクササイズに対応する第1の仮想コンテンツを含み、第1の仮想コンテンツのビューは、第1のロケーション(例えば、物理的オブジェクト7404を含むが物理的オブジェクト7402を含まないロケーション、第2のタイプのエクササイズに対応しないロケーションなど)を含む物理的環境のビューの少なくとも一部を置換する。いくつかの実施形態では、第1の仮想コンテンツは、三次元環境の第2のビュー7408内の物理的環境のビューを完全に置換する。いくつかの実施形態では、仮想コンテンツは、三次元環境の第2のビュー7408内の物理的環境の表現の表示に重なって、遮断して、又は置換して表示される。
いくつかの実施形態では、コンピュータシステムは、第1のロケーションが第1のタイプのエクササイズに対応する第1のタイプのエクササイズ器具(例えば、ローイングマシン、ボートなど)を有するという判定に従って、第1のロケーションが第1のタイプのエクササイズに対応すると判定する。いくつかの実施形態では、コンピュータシステムは、第1のロケーションが第1のタイプのエクササイズ(例えば、ローイング、瞑想など)のために設計された(例えば、適切な床面、構造などを有する)ロケーションであるという判定に従って、第1のロケーションが第1のタイプのエクササイズに対応すると判定する。
図7Oのパート(B)に示されるように、コンピュータシステムは、ユーザ7002が第1のタイプのエクササイズに対応する第1のロケーションに移動したとき、三次元環境の第2のビュー7408を表示する。いくつかの実施形態では、第2のビュー7408は、第1のロケーション及び第1のタイプのエクササイズに対応する第1のコンピュータ生成体験に対応するより多くの仮想要素を有する拡張現実ビューである。いくつかの実施形態では、第2のビュー7408は、第1のロケーション及び第1のタイプのエクササイズに対応する第1のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビューである。いくつかの実施形態では、第2のビュー7408は、より高い没入レベルで表示される拡張現実ビューである(例えば、第1のタイプのエクササイズに対応する第1の特定のアプリケーション体験の一部であるユーザインタフェースオブジェクト(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータを変更する制御など)を表示し、全体としてユーザの視野のかなりの割合(例えば、60%超、90%超など)を占有するか、又は三次元仮想若しくは拡張現実環境で表示される。この例では、三次元環境の第2のビューに表示される仮想コンテンツは、第1のロケーションの表示生成コンポーネントによって提供される視野内に潜在的にある物理的環境の様々な部分の表現7004’、7006’、及び/又は7008’のビューを置換した仮想開放水域7406を含む。いくつかの実施形態では、表示生成コンポーネントによって提供される潜在的視野内の物理的環境の全ての部分は、仮想コンテンツの表示によって置換又は遮断される。いくつかの実施形態では、ユーザの身体の一部、エクササイズ器具の少なくとも一部などの物理的環境の一部は、三次元環境の第2のビュー7408内で可視のままである。
図7Pに示されるように、ユーザは、第2のタイプのエクササイズに対応する物理的オブジェクト7402を含む物理的環境内の第2のロケーションに移動している。この例では、ユーザはまた、ユーザが第2のタイプのエクササイズのために物理的オブジェクト7402を使用し始めることを可能にする物理的オブジェクト7402に対するポジションに移動している(例えば、器具上に座る、器具上に立つ、器具の1つ以上の部分を保持するなど)。いくつかの実施形態では、コンピュータシステムは、任意選択的に、ユーザが第2のタイプのエクササイズに対応する移動の1回以上の繰り返しを開始したこと(例えば、階段を踏むこと、ペダルを踏むことを開始すること、ウォーキングを開始することなど)を検出する。第2のタイプのエクササイズに対応する物理的オブジェクト7402を含む第2のロケーションへのユーザの移動を検出したことに応じて、かつ第2のロケーションが第2のタイプのエクササイズに対応するという判定、及び任意選択的に、ユーザの移動が第2のセットの基準(例えば、第2のロケーションに対応する基準、第2のタイプのエクササイズに対応する基準など)を満たすという判定に従って、コンピュータシステムは、三次元環境の第3のビュー7412を表示し、第3のビュー7412は、第2のタイプのエクササイズに対応する第2の仮想コンテンツを含み、第2の仮想コンテンツのビューは、第2のロケーション(例えば、第2のタイプのエクササイズに対応するが第1のタイプのエクササイズに対応しないロケーション、物理的オブジェクト7404を含まないロケーションなど)を含む物理的環境のビューの少なくとも一部を置換する。いくつかの実施形態では、第1の仮想コンテンツは、三次元環境の第3のビュー7410内の物理的環境のビューを完全に置換する。いくつかの実施形態では、仮想コンテンツは、物理的環境の表現の少なくとも一部の表示に重なって、遮断して、又は置換して表示される。
いくつかの実施形態では、コンピュータシステムは、第2のロケーションが第2のタイプのエクササイズに対応する第2のタイプのエクササイズ器具(例えば、階段、ステッパー、トレッドミルなど)を有するという判定に従って、第2のロケーションが第2のタイプのエクササイズに対応すると判定する。いくつかの実施形態では、コンピュータシステムは、第2のロケーションが第2のタイプのエクササイズ(例えば、ハイキング、ランニングなど)のために設計された(例えば、適切な床面、構造などを有する)ロケーションであるという判定に従って、第2のロケーションが第2のタイプのエクササイズに対応すると判定する。
図7Pの部分(B)に示されるように、コンピュータシステムは、ユーザ7002が第2のタイプのエクササイズに対応する第2のロケーションに移動したとき、三次元環境の第3のビュー7410を表示する。いくつかの実施形態では、第3のビュー7410は、第2のロケーション及び第2のタイプのエクササイズに対応する第2のコンピュータ生成体験に対応するより多くの仮想要素を有する拡張現実ビューである。いくつかの実施形態では、第3のビュー7410は、第2のロケーション及び第2のタイプのエクササイズに対応する第2のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビューである。いくつかの実施形態では、第3のビュー7410は、より高い没入レベルで表示される拡張現実ビューである(例えば、第2のタイプのエクササイズに対応する第2の特定のアプリケーション体験(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータを変更する制御など)の一部であり、全体としてユーザの視野のかなりの割合(例えば、60%超、90%超など)を占有するか、又は三次元仮想若しくは拡張現実環境で表示されるユーザインタフェースオブジェクトを表示する)。この例では、三次元環境の第3のビュー7410に表示された仮想コンテンツは、第2のロケーションの表示生成コンポーネントによって提供される視野内に潜在的にある物理的環境の様々な部分の表現7004’、7006’、及び/又は7008’のビューを置換した仮想ハイキングコース7412を含む。いくつかの実施形態では、表示生成コンポーネントによって提供される潜在的視野内の物理的環境の全ての部分は、仮想コンテンツの表示によって置換又は遮断される。いくつかの実施形態では、ユーザの身体の一部、エクササイズ器具の少なくとも一部などの物理的環境の一部は、三次元環境の第3のビュー7410内で可視のままである。
いくつかの実施形態では、コンピュータシステムは、現在ロケーションにおける個別のタイプのエクササイズに対応する個別のタイプのエクササイズ器具の検出に従って、現在ロケーションが個別のタイプのエクササイズに対応すると判定する。いくつかの実施形態では、個別のタイプのエクササイズ器具の検出は、個別のタイプのエクササイズ器具に対応するRFID信号の検出、現在ロケーションをキャプチャするカメラフィード内の個別のタイプのエクササイズ器具の画像の検出、現在ロケーションが個別のタイプのエクササイズ器具の登録ロケーションと一致することの検出などに基づく。
いくつかの実施形態では、ユーザの現在ロケーションが個別のタイプのエクササイズに関連付けられたロケーションに対応するという判定に従って、コンピュータシステムは、個別のタイプのエクササイズに対応する三次元環境のビューを表示し、これは、三次元環境のビュー内の現在ロケーションに関連付けられた個別のタイプのエクササイズに対応する仮想コンテンツの視覚的プロミネンスを増加させながら、三次元環境の現在表示されているビュー内の物理的環境の表現の視覚的プロミネンスを徐々に低減することを含む。いくつかの実施形態では、物理的環境の表現の視覚的プロミネンスを低減することは、物理的環境の表現のより多くの部分の表示を停止すること、物理的環境の表現をフェードアウトすることなどを含む。いくつかの実施形態では、個別のタイプのエクササイズに対応する仮想コンテンツの視覚的プロミネンスを徐々に増加させることは、物理的環境の表現が徐々に低減された三次元環境のビューの領域内で、仮想コンテンツの表示を開始すること、仮想コンテンツの可視性を増加させること、仮想コンテンツによって占有されるユーザの視野の割合を増加させること、仮想コンテンツの不透明度又は輝度を増加させることなどを含む。
いくつかの実施形態では、個別のロケーションは、複数のタイプのエクササイズに対応してもよく、コンピュータシステムは、ユーザがどのタイプのエクササイズを実行したいかを明確にするために、ユーザが複数のタイプのエクササイズのうちのそれぞれ1つに対応する何らかの移動をすることを必要とし、個別のロケーションにおける三次元環境のビューに表示するための対応する仮想コンテンツを選択する。例えば、いくつかの実施形態では、コンピュータシステムは、個別のロケーションに関連付けられた複数のタイプのエクササイズの個別の1つに対応する移動(例えば、特徴的な動作の開始(例えば、トレッドミル上での歩行の開始、階段ステッパー上での足踏み、楕円上での脚の前後移動、又はローイングマシン上でのローイングの開始など)、個別のタイプのエクササイズに対応するエクササイズ器具への足踏み/着座(例えば、ローイングマシン又はウェイトトレーニングマシン上での着座など)、個別のタイプのエクササイズに対応する準備姿勢(例えば、仮想テニスボールを打つための準備姿勢での起立、瞑想又はヨガを開始するための床への着座など)を検出し、コンピュータシステムは、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境のビューを表示する。
いくつかの実施形態では、コンピュータシステムは、個別のロケーションでユーザによって実行される個別のタイプのエクササイズの進行に従って、三次元環境のビューに表示される仮想コンテンツを徐々に変化させる。例えば、いくつかの実施形態では、現実世界のビューは徐々に消え、及び/又は表示が停止され、個別のタイプのエクササイズに対応する仮想コンテンツによって徐々に置換される。いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する個別の仮想環境が第1の表示生成コンポーネントを介して完全に表示されるまで(例えば、三次元環境の第2のビューが第1のタイプのエクササイズに対応する仮想環境を含み、三次元環境の第3のビューが第2のタイプのエクササイズに対応する仮想環境を含むなど)、第1のユーザの視野内に表示される仮想コンテンツの量を徐々に増加させる。例えば、いくつかの実施形態では、開放ジムがヨガとダンスの両方に関連付けられたロケーションであるとき、第1のユーザが開放ジムに到着した後、第1のユーザがナマステポーズで座る場合、コンピュータシステムは、ユーザが仮想ビーチ上でヨガを練習するために、海洋音を伴う仮想海洋ビューを表示し、第1のユーザがダンサーのポーズで立つ場合、コンピュータシステムは、ユーザがダンスを練習するために、ダンス音楽を伴う仮想ステージを表示する。
いくつかの実施形態では、コンピュータシステムが、ユーザが個別のロケーションから離れたことを検出すると、コンピュータシステムは、個別のロケーションに関連付けられたエクササイズのタイプに対応する仮想コンテンツの表示を停止する。例えば、図7Oでは、コンピュータシステムが、ユーザ7002が物理的オブジェクト7404を含む第1のロケーションを離れたことを検出した場合、ビュー7408が表示された後、コンピュータシステムは、第1のタイプのエクササイズに対応するビュー7408の表示を停止する。いくつかの実施形態では、コンピュータシステムは、第1のタイプのエクササイズ又は第2のタイプのエクササイズのいずれかに対応する仮想コンテンツを含まないビュー7405を再表示する。いくつかの実施形態では、ユーザが第1のロケーションから第2のロケーションに移動したことをコンピュータシステムが検出すると、コンピュータシステムは、第2のタイプのエクササイズに対応する仮想コンテンツ7410を表示する。
いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境のビューを表示するときに、個別のタイプのエクササイズに対応するステータス情報(例えば、現在のセッション中の進行、持続時間、速度、力、身長、ペース、ストライド長、パフォーマンスレベル、スコア、完了した反復回数など、過去の統計、第1のユーザ及び/又は複数のユーザにわたる平均統計、同じタイプのエクササイズを実行している他のユーザのステータスなど)を表示する。
いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境のビューを表示するときに、ユーザに対応する健康情報(例えば、リアルタイムバイオメトリックデータ(例えば、心拍数、血圧、呼吸数、体温、血糖値など)、体重、BMIなど)を表示する。
いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境のビューを表示するときに、ユーザによって実行される個別のタイプのエクササイズの進行情報(例えば、リアルタイムスコア、完了したラップ、残りのラップ、持続時間、歩数、移動距離、完了したポーズなど)を視覚的に提示する。
いくつかの実施形態では、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境は、没入型環境であり、三次元環境の現在表示されているビューに含まれる空間範囲よりも大きい空間範囲を含む。例えば、ユーザが自分の頭を回転させるか、又は他の方法で三次元環境の現在表示されているビューに対応する視点を変更すると、仮想コンテンツの異なる部分が三次元環境の現在表示されているビューに表示される。
いくつかの実施形態では、三次元環境の第2及び/又は第3のビューは、ユーザと競争して、(例えば、第1のユーザの以前の最良記録に基づいて、第1のタイプのエクササイズについて第1のユーザの予め設定された構成に基づいてなど)個別のタイプのエクササイズを実行するように示されるユーザの仮想表現を含む。
いくつかの実施形態では、三次元環境の第2及び/又は第3のビューは、ユーザと競争して個別のタイプのエクササイズを実行するように示される、ユーザとは異なる少なくとも別のユーザの仮想表現を含む。
本明細書に開示されるように、いくつかの実施形態では、表示生成コンポーネントを介して表示される三次元環境は、物理的環境の表現を伴わずに、三次元環境内の様々な仮想ポジションに仮想オブジェクト及びコンテンツを含む、仮想三次元環境である。いくつかの実施形態では、三次元環境は、物理的環境の1つ以上の物理的側面(例えば、壁、床、表面、重力の方向、時刻などのポジション及び向き)によって制約される三次元環境内の様々な仮想ポジションに仮想オブジェクトを表示する複合現実環境である。いくつかの実施形態では、三次元環境は、物理的環境の表現を含む拡張現実環境である。物理的環境の表現は、物理的環境内の異なる物理的オブジェクトと表面との間の空間関係が、三次元環境内の物理的オブジェクトと表面との表現間の空間関係によって反映されるように、三次元環境内の異なるポジションにある物理的オブジェクト及び表面のそれぞれの表現を含む。仮想オブジェクトが、三次元環境内の物理的オブジェクト及び表面の表現のポジションに対して配置されるとき、仮想オブジェクトは、物理的環境内の物理的オブジェクト及び表面との対応する空間関係を有するように見える。いくつかの実施形態では、表示生成コンポーネントは、物理的環境の表現が表示されるパススルー部分を含む。いくつかの実施形態では、パススルー部分は、ユーザの視野を取り囲み、ユーザの視野内の物理的環境の少なくとも一部を明らかにする表示生成コンポーネントの透明又は半透明(例えば、シースルー)部分である。例えば、パススルー部分は、半透明(例えば、50%、40%、30%、20%、15%、10%、又は5%未満の不透明度)又は透明であるヘッドマウントディスプレイの一部であり、それにより、ユーザは、ヘッドマウントディスプレイを除去することなく、又はヘッドアップディスプレイから離れたりすることなく、パススルー部分を通じてユーザを取り囲む現実世界を視認することができる。いくつかの実施形態では、パススルー部分は、仮想又は複合現実環境を表示するとき、半透明又は透明から完全に不透明に徐々に遷移する。いくつかの実施形態では、表示生成コンポーネントのパススルー部分は、1つ以上のカメラ(例えば、モバイルデバイスの若しくはヘッドマウントディスプレイに関連付けられた後面カメラ(単数又は複数)、又は画像データを電子デバイスに供給する他のカメラ)によってキャプチャされた物理的環境の少なくとも一部の画像又はビデオのライブフィードを表示する。いくつかの実施形態では、1つ以上のカメラは、直接ユーザの目の前に(例えば、表示生成コンポーネントの後ろに)ある物理的環境の一部に向けられる。いくつかの実施形態では、1つ以上のカメラは、直接ユーザの目の前にない(例えば、異なる物理的環境にある、又はユーザの側方又は後方にある)物理的環境の一部に向けられる。いくつかの実施形態では、物理的環境内の1つ以上の物理的オブジェクトのロケーションに対応するポジションに仮想オブジェクト又はコンテンツを表示するとき、仮想オブジェクトのうちの少なくともいくつかは、カメラのライブビューの一部(例えば、ライブビュー内にキャプチャされた物理的環境の一部)の代わりに表示される(例えば、その表示を置換する)。いくつかの実施形態では、仮想オブジェクト及びコンテンツのうちの少なくともいくつかは、物理的環境内の物理的表面又は空き空間上に投影され、表示生成コンポーネントのパススルー部分を通じて可視である(例えば、物理的環境のカメラビューの一部として、又は表示生成コンポーネントの透明若しくは半透明の部分を通じて可視であるなど)。いくつかの実施形態では、仮想オブジェクト及びコンテンツのうちの少なくともいくつかは、ディスプレイの一部分に重なるように表示され、表示生成コンポーネントの透明又は半透明部分を介して可視である物理的環境の全てではないが少なくとも一部分のビューを遮断する。いくつかの実施形態では、仮想オブジェクトのうちの少なくともいくつかは、(例えば、物理的環境のカメラビューを通じて、又は表示生成コンポーネントの透明部分を通じて視認されるような)物理的環境の表現の画像に対するポジションにおいて、ユーザの網膜上に直接投影される。
いくつかの実施形態では、(例えば、図7A~7P及び図8~12に関して)本明細書に記載される各種実施例及び実施形態で使用される入力ジェスチャは、任意選択的に、いくつかの実施形態によると、仮想又は複合現実環境と相互作用するために、ジェスチャの直前又は最中に動作を実行するためにユーザの手全体又は腕をそれらの自然なロケーション(単数又は複数)及び姿勢(単数又は複数)から離れるように大きく移動させることを任意選択的に必要とせずに、ユーザの指(単数又は複数)を他の指(単数又は複数)又はユーザの手の一部(単数又は複数)に対して移動させることによって実行される不連続の小さな運動ジェスチャを含む。
いくつかの実施形態では、入力ジェスチャは、センサシステム(例えば、図1のセンサ190、図3の画像センサ314)によってキャプチャされるデータ及び信号を解析することによって検出される。いくつかの実施形態では、センサシステムは、1つ以上の撮像センサ(例えば、モーションRGBカメラ、赤外線カメラ、深度カメラなどの1つ以上のカメラ)を含む。例えば、1つ以上の撮像センサは、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120(例えば、ディスプレイ及びタッチ感知面として機能するタッチスクリーンディスプレイ、立体ディスプレイ、パススルー部分を有するディスプレイなど))を含むコンピュータシステム(例えば、図1のコンピュータシステム101(例えば、ポータブル電子デバイス7100又はHMD))のコンポーネントである、又は上記コンピュータシステムにデータを提供する。いくつかの実施形態では、1つ以上の撮像センサは、デバイスのディスプレイとは反対側のデバイスの側に1つ以上の後面カメラを含む。いくつかの実施形態では、入力ジェスチャは、ヘッドマウントシステムのセンサシステム(例えば、ユーザの左目の左画像及びユーザの右目の右画像を提供する立体ディスプレイを含むVRヘッドセット)によって検出される。例えば、ヘッドマウントシステムのコンポーネントである1つ以上のカメラは、ヘッドマウントシステムの前側及び/又は下側に取り付けられている。いくつかの実施形態では、1つ以上の撮像センサは、撮像センサがヘッドマウントシステム及び/又はヘッドマウントシステムのユーザの画像をキャプチャするように、ヘッドマウントシステムが使用される空間に配置される(例えば、部屋内の様々なロケーションでヘッドマウントシステムの周りに配列される)。いくつかの実施形態では、入力ジェスチャは、ヘッドアップデバイス(例えば、ヘッドアップディスプレイ、グラフィックを表示する能力を有する自動車フロントガラス、グラフィックを表示する能力を有する窓、グラフィックを表示する能力を有するレンズ)のセンサシステムによって検出される。例えば、1つ以上の撮像センサは、自動車の内面に取り付けられる。いくつかの実施形態では、センサシステムは、1つ以上の深度センサ(例えば、センサアレイ)を含む。例えば、1つ以上の深度センサは、1つ以上の光ベースの(例えば、赤外線)センサ及び/又は1つ以上の音響ベースの(例えば、超音波)センサを含む。いくつかの実施形態では、センサシステムは、光エミッタ(例えば、赤外線エミッタ)及び/又は音声エミッタ(例えば、超音波エミッタ)などの1つ以上の信号エミッタを含む。例えば、光(例えば、所定パターンを有する赤外光エミッタアレイからの光)が手(例えば、手7200)に投射されている間、光の照明下の手の画像が1つ以上のカメラによってキャプチャされ、キャプチャされた画像が手のポジション置及び/又は構成を判定するために解析される。タッチ感知面又は他の直接接触機構又は近接ベースの機構の信号を使用することと対照的に、手に向けられた画像センサからの信号を使用して入力ジェスチャを判定することで、ユーザは、特定の入力デバイス又は入力領域によって課せられる制約を経験せずに、手で入力ジェスチャを提供するときに、大きな運動を実行するか、又は相対的に静止状態を保つかを自由に選択することができる。
いくつかの実施形態では、タップ入力は、任意選択的に、ユーザの手の人差し指上の(例えば、親指に隣接する人差し指の側部上の)親指のタップ入力を示す。いくつかの実施形態では、人差し指の側部から親指を持ち上げる必要なく、タップ入力が検出される。いくつかの実施形態では、タップ入力は、親指の下方移動の後に親指の上方移動が続き、親指が閾値時間未満、人差し指の側部と接触しているという判定に従って検出される。いくつかの実施形態では、タップホールド入力は、親指が上昇ポジションからタッチダウンポジションまで移動し、少なくとも第1の閾値時間(例えば、タップ時間閾値又はタップ時間閾値よりも長い別の時間閾値)、タッチダウンポジションに留まるという判定に従って検出される。いくつかの実施形態では、コンピュータシステムは、人差し指上の親指によるタップホールド入力を検出するために、手全体が、少なくとも第1の閾値時間、あるロケーションで実質的に静止したままであることを必要とする。いくつかの実施形態では、タッチホールド入力は、手が実質的に静止したままであることを必要とせずに検出される(例えば、親指が人差し指の側部に置かれている間、手全体が移動することができる)。いくつかの実施形態では、タップホールドラッグ入力は、親指が人差し指の側部にタッチし、親指が人差し指の側部に静止している間に手全体が移動するときに検出される。
いくつかの実施形態では、フリックジェスチャは、任意選択的に、人差し指を横切る親指の移動(例えば、人差し指の掌側から後側への)プッシュ又はフリック入力を示す。いくつかの実施形態では、親指の伸長移動は、例えば、親指による上方フリック入力のように、人差し指の側部から離れる上方移動を伴う。いくつかの実施形態では、人差し指は、親指が前方及び上方に移動する間、親指の方向と反対方向に移動する。いくつかの実施形態では、逆フリック入力は、伸長ポジションから後退ポジションに移動する親指によって実行される。いくつかの実施形態では、人差し指は、親指が後方及び下方に移動する間、親指の方向と反対方向に移動する。
いくつかの実施形態では、スワイプジェスチャは、任意選択的に、人差し指に沿った(例えば、親指に隣接する人差し指の側部又は掌の側部に沿った)親指の移動によるスワイプ入力である。いくつかの実施形態では、人差し指は、任意選択的に、伸長状態(例えば、実質的に直線)又は屈曲状態である。いくつかの実施形態では、人差し指は、スワイプ入力ジェスチャで親指が移動する間、伸長状態と屈曲状態との間を移動する。
いくつかの実施形態では、様々な指の異なる指骨は、異なる入力に対応する。様々な指(例えば、人差し指、中指、薬指、及び任意選択的に小指)の様々な指骨にわたる親指のタップ入力は、任意選択的に、異なる動作にマッピングされる。同様に、いくつかの実施形態では、異なるプッシュ又はクリック入力が、異なる指及び/又は指の異なる部分を横切る親指によって実行されて、個別のユーザインタフェース接触で異なる動作をトリガすることができる。同様に、いくつかの実施形態では、異なる指に沿って、及び/又は異なる方向に(例えば、指の遠位端又は近位端に向かって)親指によって実行される異なるスワイプ入力が、個別のユーザインタフェースコンテキストで異なる動作をトリガする。
いくつかの実施形態では、コンピュータシステムは、タップ入力、フリック入力、及びスワイプ入力を、親指の移動のタイプに基づいて異なるタイプの入力として処理する。いくつかの実施形態では、コンピュータシステムは、所与の入力タイプ(例えば、タップ入力タイプ、フリック入力タイプ、スワイプ入力タイプなど)の異なるサブ入力タイプ(例えば、近位、中間、遠位サブタイプ、又は人差し指、中指、薬指、若しくは小指サブタイプ)として親指によってタップ、タッチ、又はスワイプされる異なる指ロケーションを有する入力を処理する。いくつかの実施形態では、移動する指(例えば、親指)によって実行される移動量、及び/又は指の移動に関連付けられる他の移動の尺度(例えば、速度、初期速度、終了速度、持続時間、方向、移動パターンなど)が使用されて、指入力によってトリガされる動作に定量的に影響を与える。
いくつかの実施形態では、コンピュータシステムは、タップスワイプ入力(例えば、親指が他の指へのタッチダウン後に、指の側部に沿ってスワイプする)、タップフリック入力(例えば、親指が他の指へのタッチダウン後に、掌の側部から指の後部まで指を横切ってフリックする)、ダブルタップ入力(例えば、ほぼ同じロケーションでの指の側部上の2連続タップ)などの、親指による一連の移動を組み合わせた組み合わせ入力タイプを認識する。
いくつかの実施形態では、ジェスチャ入力は、親指の代わりに人差し指によって実行される(例えば、人差し指が親指上でタップ又はスワイプを実行するか、又は親指及び人差し指が互いに向かって動いてピンチジェスチャを実行する)。いくつかの実施形態では、手首の移動(例えば、水平方向又は垂直方向での手首のフリック)は、指の移動入力の直前、直後(例えば、閾値時間内)、又は同時に実行されて、手首の移動による修正入力のない指の移動入力と比較して、現在のユーザインタフェースコンテキストで追加の動作、異なる動作、又は修正された動作をトリガする。いくつかの実施形態では、ユーザの顔に面するユーザの掌で実行される指入力ジェスチャは、ユーザの顔と反対に面するユーザの掌で実行される指入力ジェスチャとは異なるタイプのジェスチャとして処理される。例えば、ユーザに面するユーザの掌で実行されるタップジェスチャは、ユーザの顔と反対に面するユーザの掌で実行されるタップジェスチャに応じて実行される動作(例えば、同じ動作)と比較して、プライバシー保護が追加(又は低減)された動作を実行する。
1つのタイプの指入力を使用して、本開示で提供される実施例において動作タイプをトリガすることができるが、他の実施形態では、同じタイプの動作をトリガするために、他のタイプの指入力が任意選択的に使用される。
図7A~図7Pに関する追加の説明は、以下の図8~12に関して記載された方法8000、9000、10000、11000、及び12000を参照して以下に提供される。
図8は、いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用をサポートする方法のフローチャートである。
いくつかの実施形態では、方法8000は、コンピュータシステム(例えば、図1の第1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法8000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法8000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。
いくつかの実施形態では、方法8000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1の第1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。
方法8000では、コンピュータシステムは、第1のユーザインタフェースオブジェクト(例えば、図7Bのユーザインタフェースオブジェクト7016、別のユーザインタフェースオブジェクトなど)(例えば、アプリケーションの表現、複数のユーザインタフェースオブジェクト(例えば、選択可能なアバター、選択可能なメニューアイテム、選択可能なデバイスコントロール、選択可能なコンテンツアイテム、スライダコントロール、ボタンなど)を含むユーザインタフェース、仮想三次元オブジェクト、コントロール、異なる機能又は動作に対応する複数のコントロールを含むコントロールパネル、情報アイテム、メディアアイテムなど)を、三次元環境の第1のビュー(例えば、図7Bの第1のビュー7015-1、別の第1のビューなど)に表示し(8002)、三次元環境は、第1のユーザ(例えば、図7A~図7Cのユーザ7102)と第2のユーザ(例えば、図7A~図7Cのユーザ7002)との間で少なくとも部分的に共有され(例えば、環境の少なくとも空間部分が共有される、環境が少なくともある期間中に共有される、環境内のオブジェクトが完全に又は部分的に共有される(例えば、同時に閲覧可能及びアクセス可能である、同時に閲覧可能であるが同時にアクセス可能でない、他者が制御を有する(例えば、他者がオブジェクトを閲覧又は閲覧できない)場合に閲覧可能であるがアクセス可能でないなど)、(例えば、三次元環境の少なくとも一部(例えば、三次元環境の第1のビューに示される部分、三次元環境の別の部分など)が、第1のユーザと第2のユーザの両方によって閲覧のために表示されているとき、及び/又は三次元環境内の仮想オブジェクト(例えば、第1のユーザインタフェースオブジェクト、別のユーザインタフェースオブジェクトなど)が、第1のユーザと第2のユーザの両方に示される三次元環境内に同時に表示されるとき)、(例えば、図7Bに示されるように)第1のセットの外観特性(例えば、第2の表示生成コンポーネントによって第2のユーザに対して表示されるような第1のユーザインタフェースオブジェクトの通常の外観(例えば、第1の形状、第1のサイズ、第1の色、第1の不透明度、第1の彩度、第1の輝度など))で三次元環境の第1のビュー内の第1のポジションに第1のユーザインタフェースオブジェクトが表示される(例えば、図7Bの第1のビュー7015-1)。三次元環境の第1のビュー内の第1のポジションに第1のセットの外観特性を有する第1のユーザインタフェースオブジェクトを表示している間、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力であって、第1のユーザによって提供された第1のユーザ入力を検出する(8004)(例えば、ユーザ入力を検出することは、物理的環境内の第1のロケーションへの第1のユーザの一部の移動を検出することを含み、物理的環境内の第1のロケーションは、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの個別のポジションに対応し、ユーザ入力を検出することは、第1のユーザインタフェースオブジェクトに向けられた視線入力及び視線入力と共に検出される制御入力(例えば、指移動ジェスチャ、空中ジェスチャ、コントローラによって提供される入力など)を検出することを含む)。第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したこと(8006)に応じて、かつ第2のユーザ(例えば、図7A~図7Cのユーザ7002)が第1のユーザインタフェースオブジェクト(例えば、図7A~図7Cのユーザインタフェースオブジェクト7016)と現在相互作用していない(例えば、第1のユーザインタフェースオブジェクトが、三次元環境の第1のビュー内の第2のユーザの仮想ポジションとの予め設定された空間関係を有していない(例えば、第1のユーザインタフェースオブジェクトが、第2のユーザの掌又は手の表現内にない、第1のユーザインタフェースオブジェクトが、三次元環境の第1のビュー内で可視である第2のユーザのプライベート空間外にある、など)という判定に従って、第2のユーザが、少なくとも部分的に共有される三次元環境内の三次元環境の第2のビューを表示する第2のコンピュータシステムを介して第1のユーザインタフェースオブジェクトを制御、選択、移動、修正、及び/又は相互作用していない、など)ことに従って、コンピュータシステムは、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対する第1の動作を実行する(8008)(例えば、第1のユーザインタフェースオブジェクトが第1のユーザ入力に従って第1のユーザによって把持されている又は移動させられていることを示す(例えば、ユーザに向かって移動させられる、第1のユーザ入力の移動に従って移動させられる、など)、第1のユーザの手の表現に把持されている又は移動させられている第1のユーザインタフェースオブジェクトのゴースト画像を示す、など)。いくつかの実施形態では、第1のユーザ入力が検出されたときに第2のユーザが第1のユーザインタフェースオブジェクトと相互作用していなかったという判定に従って、第1のユーザインタフェースオブジェクトは、第1のセットの外観特性で(例えば、その元のロケーションに、又は第1のユーザの手の表現などで)表示され続ける。第1のユーザインタフェースオブジェクト(例えば、図7A~図7Cのユーザインタフェースオブジェクト7016)に向けられた第1のユーザ入力を検出したこと(8006)に応じて、かつ第2のユーザが第1のユーザインタフェースオブジェクト(例えば、第1のユーザインタフェースオブジェクトは、三次元環境の第1のビュー内の第2のユーザの仮想ポジションとの予め設定された空間関係を有する)と現在相互作用している(例えば、第1のユーザインタフェースオブジェクトが第2のユーザの掌又は手の表現内にある、第1のユーザインタフェースオブジェクトが三次元環境の第1のビュー内に見える第2のユーザのプライベート空間内にあるなど)という判定に従って、第2のユーザが、三次元環境の第2のビューを共有三次元環境に表示する第2のコンピュータシステムを通じて第1のユーザインタフェースオブジェクトを制御、選択、移動、修正、及び/又は他の方法で相互作用しているなど)、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションを表示し(8010)、視覚的インジケーションを表示することは、第1のユーザインタフェースオブジェクトの外観又は三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトのポジションのうちの少なくとも1つを変更することを含む(例えば、図7Cでは、ユーザインタフェースオブジェクト7016の外観は、第1のユーザ7102に示される第1のビュー7015-1内で変更される)。いくつかの実施形態では、コンピュータシステムは、第1のセットの外観特性とは異なる第2のセットの外観特性(例えば、第2の形状、第2のサイズ、第2の色、第2の不透明度、第2の彩度、第2の輝度など)を有する第1のユーザインタフェースオブジェクトを表示し(例えば、第2のセットの外観特性は、第1のユーザインタフェースオブジェクトがこの時点で第2のユーザを制御しており、第1のユーザと相互作用するために利用可能でないという視覚的インジケーションを提供する)、及び/又は第1のユーザが第1のユーザインタフェースオブジェクトを把持しようとするときに第1のユーザインタフェースオブジェクトを邪魔にならないように移動させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、視覚的インジケーションが第1のユーザに対して表示されるだけでよいため、第2のユーザに対して表示される少なくとも部分的に共有される三次元環境のビュー内のその外観及び/又はポジションを維持する。いくつかの実施形態では、視覚的インジケーションは、第2のユーザが少なくとも部分的に共有された三次元環境内で第1のユーザインタフェースオブジェクトと相互作用している間、表示される。コンピュータシステムは、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行することを取りやめる(8014)。いくつかの実施形態では、コンピュータシステムは、第1のユーザの表現によって把持されている第1のユーザインタフェースオブジェクトを示さないか、又は第1のユーザ入力の移動に従って移動する第1のユーザインタフェースオブジェクトを示さない(例えば、第1のユーザの手によって把持されることを回避するためにオブジェクトが移動していない、第1のユーザの表現によって把持されることを回避するためにオブジェクトが縮小又は形状を変化していない、など)。いくつかの実施形態では、コンピュータシステムは、第1のユーザの手の表現内に移動する第1のユーザインタフェースオブジェクトのゴースト画像を示さない。
これらの特徴は、例えば、図7A~図7Cに示されており、第1のユーザ7102及び第2のユーザ7002は、表示生成コンポーネント7200及び7100を介してそれぞれ示される三次元環境を共有する。第2のユーザ7002が第1のユーザインタフェースオブジェクト7016を制御する(例えば、第1のユーザインタフェースオブジェクト7016と相互作用している、第1のユーザインタフェースオブジェクト7016又はその表現を第2のビュー7015-2内の手7028の表現7028’’(第1のユーザ7102に示される第1のビュー7015-1内の表現7028’も)を介して保持するなど)とき、第1のユーザ7102が、第1のユーザの手7102の移動によって第1のユーザインタフェースオブジェクト7016と相互作用しようと試みる場合、第1のユーザ7102のコンピュータシステムは、第1の表示生成コンポーネント7200を介して示される第1のビュー7015-1内の第1のユーザインタフェースオブジェクト7016の外観を変更し、第1のユーザインタフェースオブジェクト7016に対応する動作を実行しない。対照的に、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と相互作用していない場合、コンピュータシステムは、第1のユーザの手7202の移動に従って第1の動作を実行する。これは、図7Bにおける第2のユーザ7002と第1のユーザインタフェースオブジェクト7016との間の相互作用によって間接的に示されており、第1のユーザ7102は、第1のユーザインタフェースオブジェクト7016を制御しないか、又は第1のユーザインタフェースオブジェクト7016と相互作用していない(例えば、そのシナリオにおける第1のユーザ及び第2のユーザの役割の逆転を考える)。
いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションとして第1のユーザインタフェースオブジェクトの外観を変更し、第1のユーザインタフェースオブジェクトの外観を変更することは、第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを変更して(例えば、第1のユーザインタフェースオブジェクトの透明度を上げる、彩度を下げる、不透明度を下げる、ぼかす、暗くする、解像度を下げる、サイズを縮小するなど、任意選択的に、第1のユーザインタフェースオブジェクトの周囲環境の外観を維持しながら(例えば、周囲環境の視覚的プロミネンスを変化させずに))、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを低減することを含む(例えば、図7Cでは、ユーザインタフェースオブジェクト7016の外観は、第1のユーザ7102に示される第1のビュー7015-1で変更される)。いくつかの実施形態では、計算システムは、第1のユーザ入力とは無関係に判定される三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトのポジション(例えば、第1のポジション、第1のユーザインタフェースオブジェクトと第2のユーザとの間の相互作用に応じて判定される別のポジション、第1のユーザインタフェースオブジェクトの予めプログラムされた自律移動に従って判定される別のポジション(例えば、第1のユーザインタフェースオブジェクトは、予め設定された移動パターン又は予め設定されたアニメーション効果などを有する)、コンピュータシステム内の他のイベントに従って判定される別のポジションなど)を維持しながら、第1のユーザインタフェースオブジェクトの外観を変更する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないという判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクトの外観を変更して第1のユーザインタフェースオブジェクトの視覚的プロミネンスを低減させず、コンピュータシステムは、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行する(例えば、第1のユーザインタフェースオブジェクトの外観及び視覚的プロミネンスが維持される、又は外観は、第1の動作を実行した結果として変更されてもよいが、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを低減することを目的としない、など)。
第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションとして、第1のユーザインタフェースオブジェクトに対する視覚的プロミネンスを低減するように第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを変更することを含む、第1のユーザインタフェースオブジェクトの外観を変更することは、改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力の終了を検出する(例えば、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの個別のポジションに対応する、物理的環境内の第1のロケーションから離れる第1のユーザの一部の移動を検出する、第1のユーザインタフェースオブジェクトに向けられた視線入力が第1のユーザインタフェースオブジェクトから離れるように移動することを検出する、第1のユーザ入力を提供した第1のユーザの手が第1のユーザ入力を維持するのに必要な姿勢から外れるように移動することを検出するなど)。第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力の終了を検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元するために、第1のユーザ入力に応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを(例えば、第1のユーザ入力を検出する直前に存在したレベルに、又は第1のユーザ入力の検出に応じて変更が行われる前に、などに)復元する。いくつかの実施形態では、コンピュータシステムは、任意選択的に、第1のユーザインタフェースオブジェクトの周囲環境の外観を維持しながら(例えば、周囲環境の視覚的プロミネンスを変化させずに)、第1のユーザインタフェースオブジェクトの増加した透明度を復元し、低下した彩度を復元し、低下した不透明度を復元し、ぼやけ及び/又は暗化を停止し、低下した解像度を復元し、減少したサイズを復元するなどする。例えば、いくつかの実施形態では、第1のユーザが、第2のユーザが現在相互作用している仮想オブジェクトに対応するロケーションに向かって彼/彼女の手を伸ばすと、第1のユーザの手が、三次元環境内の仮想オブジェクトのポジションに対応する、物理的環境内のロケーションにあるとき、仮想オブジェクトは、フェードアウトするか、又はより暗くなるように見える。その後、第1のユーザがそのロケーションから手を離すと、仮想オブジェクトの外観が復元される(例えば、もはやフェードアウトされない、又は暗く見えない)。これは、図7B(図7Cに続く)に示されており、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016と相互作用しようとするのを停止する場合、第1のユーザインタフェースオブジェクト7016の外観は、第1のユーザ7102に示される第1のビュー7015-1においてもはや変更されない。
第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力の終了の検出に応じて、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元するために、第1のユーザ入力に応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを復元することは、改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが相互作用に利用可能であるという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、コンピュータシステムは、第1のユーザ入力の検出を継続しながら(例えば、第1のユーザ入力が最初に検出されたときに三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの個別のポジションに対応する、物理的環境内の第1のロケーションに残っている第1のユーザの部分を検出し、三次元環境内の同じポジションに残っている第1のユーザインタフェースオブジェクトに向けられた視線入力を検出し、第1のユーザ入力を維持するために必要な姿勢に残っている第1のユーザ入力を提供した第1のユーザの手を検出するなど)、第1のユーザ入力の検出とは無関係に(例えば、第2のユーザによって提供されたユーザ入力に従って、第1のユーザインタフェースオブジェクトの固有の移動パターンに従って、第1のユーザ入力とは無関係にコンピュータシステム内の他のイベントに応じてなど)、三次元環境の第1のビュー内の第1のポジションから離れる第1のユーザインタフェースオブジェクトの移動を検出する。第1のユーザ入力の検出とは無関係に、三次元環境の第1のビュー内の第1のポジションから離れる第1のユーザインタフェースオブジェクトの移動を検出したことに応じて、コンピュータシステムは、第1のユーザ入力に応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを(例えば、第1のユーザ入力を検出する直前に存在したレベルに、又は第1のユーザ入力の検出に応じて変更が行われる前に存在したレベルに、など)復元して、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元する。いくつかの実施形態では、コンピュータシステムは、任意選択的に、第1のユーザインタフェースオブジェクトの周囲環境の外観を維持しながら(例えば、周囲環境の視覚的プロミネンスを変化させずに)、第1のユーザインタフェースオブジェクトの増加した透明度を復元し、低下した彩度を復元し、低下した不透明度を復元し、ぼやけ及び/又は暗化を停止し、低下した解像度を復元し、減少したサイズを復元するなどする。例えば、いくつかの実施形態では、第1のユーザが、第2のユーザが現在相互作用している仮想オブジェクトに対応するロケーションに向かって彼/彼女の手を伸ばすと、第1のユーザの手が、三次元環境内の仮想オブジェクトのポジションに対応する、物理的環境内のロケーションにあるとき、仮想オブジェクトは、フェードアウトするか、又はより暗くなるように見える。次いで、第1のユーザインタフェースオブジェクトが、その現在ポジションから離れ、第1のユーザの手の現在ロケーションに対応するポジションから離れるように移動される(例えば、第2のユーザによって、それ自体の移動パターンに従って、第1のユーザ入力に関連しない他のシステム生成イベントに従って移動されるなど)とき、仮想オブジェクトの外観は復元される(例えば、もはやフェードアウトされたり暗くなったりして見えない)。
第1のユーザ入力の検出とは無関係に三次元環境の第1のビュー内の第1のポジションから離れる第1のユーザインタフェースオブジェクトの移動を検出したことに応じて、第1のユーザ入力に応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを復元して、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元することは、ユーザに改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが第1のポジションから離れたという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションを表示することは、第2のユーザが第1のユーザインタフェースオブジェクトとの相互作用を停止するまで、第1のユーザ入力に応じて行われた第1のユーザインタフェースオブジェクトの外観に対する変更を維持することを含む。例えば、ユーザインタフェースオブジェクト7016の変更された外観は、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016と相互作用する試みを停止した後であっても、第2のユーザ7002がもはや第1のユーザ7102を除外して第1のユーザインタフェースオブジェクト7016を制御しなくなるまで維持される。例えば、いくつかの実施形態では、第1のユーザ入力の検出に応じて、かつ第1のユーザ入力が最初に検出された時点で第2のユーザが第1のユーザインタフェースオブジェクトと相互作用していたという判定に従って視覚的インジケーションが表示されると、コンピュータシステムは、第2のユーザが依然として第1のユーザインタフェースオブジェクトと相互作用しているという判定に従って、視覚的インジケーション(例えば、第1のユーザインタフェースオブジェクトの変化した外観、変化したポジションなど)を表示し続ける(例えば、第2のユーザは、第2のユーザの掌又は手のロケーションに対応するポジションに仮想オブジェクトを維持し続け、及び/又は第2のユーザのコンピュータシステムの動作を通じて仮想オブジェクトを選択、修正、又は他の方法で相互作用し続けるなど)。
いくつかの実施形態では、コンピュータシステムが、第1のユーザ入力が終了したこと、及び第1のユーザが第1のユーザインタフェースオブジェクトと相互作用しようと試みるための入力を現在提供していないことを検出した場合であっても、視覚的インジケーションは表示され続ける。いくつかの実施形態では、視覚的インジケーションは、第1のユーザ入力が維持されるか否か、又は第1のユーザが第1のユーザインタフェースオブジェクトとの相互作用を試み続けるか否かにかかわらず、ある期間にわたって維持されるが、必ずしも第2のユーザが第1のユーザインタフェースオブジェクトとの相互作用を中止するまでは維持されない。いくつかの実施形態では、第1のユーザのコンピュータシステムは、第2のユーザがもはや第1のユーザインタフェースオブジェクトと相互作用していないと判定し、第2のユーザがもはや第1のユーザインタフェースオブジェクトと相互作用していないことを検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションを表示することを停止する(例えば、コンピュータシステムは、第1のユーザインタフェースオブジェクトを弱まった状態又は暗くなった状態で表示することを停止し、第1のユーザ入力の検出に応じて変更された第1のユーザインタフェースオブジェクトの元の外観特性を復元する)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトが依然として第2のユーザの制御範囲内にある、及び/又は第1のユーザとの相互作用に利用可能でないという持続的な視覚的インジケーションは、デバイスが第1のユーザインタフェースオブジェクトと相互作用しようとする別の試みに応答する準備ができているときを第1のユーザが知るのを助け、第1のユーザインタフェースオブジェクトと相互作用しようとする際の失敗の繰り返しを回避する。
第2のユーザが第1のユーザインタフェースオブジェクトと相互作用するのを停止するまで、第1のユーザ入力に応じて行われた第1のユーザインタフェースオブジェクトの外観に対する変更を維持することは、改善された視覚的フィードバック(例えば、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用しているという改善された視覚的フィードバック、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016)に向けられた第1のユーザ入力を検出したことに応じて、かつ第2のユーザ(例えば、図7B~図7Cのユーザ7002)が第1のユーザインタフェースオブジェクト(第1のユーザインタフェースオブジェクトは、三次元環境の第1のビュー内の第2のユーザの仮想ポジションとの予め設定された空間関係を有さない)と現在相互作用していない(例えば、第1のユーザインタフェースオブジェクトが第2のユーザの掌又は手の表現の内側にない、第1のユーザインタフェースオブジェクトが三次元環境の第1のビュー内で見える第2のユーザのプライベート空間の外側にあるなど)という判定に従って、第2のユーザは、少なくとも部分的に共有される三次元環境内の三次元環境の第2のビューを表示する第2のコンピュータシステムを介して第1のユーザインタフェースオブジェクトを制御、選択、移動、修正、及び/又はそれ以外の形で相互作用しておらず、コンピュータシステムは、三次元環境の第1のビュー内の第2のポジションに第1のユーザインタフェースオブジェクトを表示し、第2のポジションは、第1のユーザ(例えば、図7B~図7Cのユーザ7102又は別のユーザなど)の手の現在ロケーションに従って選択される。いくつかの実施形態において、第2のポジションは、第1のユーザ入力を提供する第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)の現在ロケーションに対応するように選択される(例えば、第1のユーザの手の表現に重なって、その表現の表示を置換して、その表現の外観を変更してなど)、又は第2のポジションは、第1のユーザ入力などによって向けられる、若しくは示される三次元環境内のポジション若しくは物理的環境内のロケーションに対応するように選択される。
いくつかの実施形態では、コンピュータシステムは、三次元環境の第1のビュー内で第1のユーザの手の表現によって把持されている第1のユーザインタフェースオブジェクトを示す、第1のユーザの手によって提供される第1のユーザ入力の移動方向に対応する方向に移動する第1のユーザインタフェースオブジェクトを示す(例えば、ユーザの手の上方への移動は、仮想オブジェクトをテーブル上面の表現から持ち上げさせ、ユーザの手の上方への移動は、仮想オブジェクトをテーブル上面の表現からジャンプさせ、ユーザの手の表現に着地させるなど)、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)を第1のユーザの手によって示されるポジションに移動させる(例えば、第1のユーザの手によるフリック及びポイントジェスチャは、仮想オブジェクトをその元のポジションから移動させ、第1のユーザの手の人差し指によって示されるポジションに移動させるなど)。第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、第1のユーザの手の現在ロケーションに従って選択される第2のポジションに第1のユーザインタフェースオブジェクトを表示している間(例えば、第1のユーザインタフェースオブジェクトが第1のユーザの手の表現に対応するポジションに表示されている間(例えば、第1のユーザの手によって保持されているように見える)、第1のユーザインタフェースオブジェクトが第1のユーザ入力によって選択されるポジションにホバリングして表示されている間など)、コンピュータシステムは、第1のユーザの手のスローイングジェスチャに対応する第1のユーザ(例えば、ユーザ7102、又は別のユーザなど)の手の移動を検出する。いくつかの実施形態では、コンピュータシステムは、第1のユーザの手が、第1のユーザに近いロケーションから第1のユーザから更に離れた別のロケーションに、任意選択的に、第2のユーザの表現のポジションに対応するロケーションに向かって移動していることを検出する。いくつかの実施形態では、コンピュータシステムは、第1のユーザが人差し指を第1のユーザから離して、任意選択的に第2のユーザの表現のポジションに対応するロケーションに向かってフリックすることを検出する、及び/又は第1のユーザが自分の手を使用してトス運動又はスローイング運動を実行していることを検出する。いくつかの実施形態では、スローイングジェスチャを検出することは、手の急加速とそれに続く急減速を検出することを含む。いくつかの実施形態では、スローイングジェスチャを検出することは、閉じられた手が開くことを検出すること(及び任意選択的に、急減速を検出することと併せて)を含む。第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、かつ第1のユーザの手のスローイングジェスチャに対応する第1のユーザの手の移動を検出したことに応じて、コンピュータシステムは、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトを、第1のユーザの手の移動の方向に対応する第1の方向に移動させ、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトを回転させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトがスローイングジェスチャの方向に対応する方向に移動するにつれて、第1のユーザインタフェースオブジェクトはまた、第1のユーザインタフェースオブジェクトの仮想重心(例えば、幾何学的中心、第1のユーザインタフェースオブジェクトによってシミュレートされるオブジェクトに応じて第1のユーザインタフェースオブジェクトの内外の別の点など)の周りを回転する(例えば、第1のユーザインタフェースオブジェクトの直線運動中の角運動量の保存をシミュレートするため、第1のユーザインタフェースオブジェクトに対するスローイングジェスチャの物理的効果をシミュレートするため、スローイングジェスチャの目的端において第1のユーザインタフェースオブジェクトの所定のユーザ対向側を第2のユーザに向けて示すため、物理的表面の表現上又は所定の直立向きを有する仮想表面上に着地するためなど)。
いくつかの実施形態では、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用しており、その後、スローイングジェスチャを実行して第1のユーザインタフェースオブジェクトを三次元環境内に捨てると、コンピュータシステムは、第1のユーザインタフェースオブジェクトが三次元環境の第1のビュー内で第2のユーザの手の移動の方向に対応する第2の方向に移動し、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトを回転させることを示す(例えば、第1のユーザインタフェースオブジェクトがスローイングジェスチャの方向に移動すると、第1のユーザインタフェースオブジェクトはまた、第1のユーザインタフェースオブジェクトの仮想重心の周りを回転する(例えば、第1のユーザインタフェースオブジェクトの直線運動中の角運動量の保存をシミュレートするため、第1のユーザインタフェースオブジェクトに対するスローイングジェスチャの物理的効果をシミュレートするため、スローイングジェスチャの目的端において第1のユーザに向かう第1のユーザインタフェースオブジェクトの所定のユーザ対向側を示すため、物理的表面の表現上に又は所定の直立向きを有する仮想表面上に着地するためなど))。
第1のユーザの手のスローイングジェスチャに対応する第1のユーザの手の移動を検出したことに応じて、第1のユーザの手の移動の方向に対応する第1の方向に三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトを移動させ、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトを回転させることは、改善された視覚的フィードバック(例えば、コンピュータシステムが第1のユーザの手のスローイングジェスチャを検出したという改善された視覚的フィードバック、第1のユーザインタフェースオブジェクトが移動されているという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)を回転させることは、第1のユーザの手の移動の方向が三次元環境の第1のビュー内の第2のユーザの表現に向いているという判定に従って、第1のユーザインタフェースオブジェクトが、物理的環境内の第1のユーザの手の移動に従って選択された三次元環境内の目的ポジション(例えば、第2のユーザの手の表現、第2のユーザに関連付けられた表面の表現などのポジション)に到達したときに三次元環境内で第1の予め設定された向きを有するように、第1のユーザインタフェースオブジェクトを第1の方式で回転させる(例えば、第1のユーザインタフェースオブジェクトを第1の回転方向に第1の量だけ、第2の回転方向に第2の量だけ、及び/又は第3の回転方向に第3の量だけ回転させる)ことを含む。いくつかの実施形態において、第1の予め設定された向きは、第1のユーザのスローイングジェスチャに応じて第1のユーザインタフェースオブジェクトが移動を開始したときに第1のユーザインタフェースオブジェクトが有していた向きとは異なる。いくつかの実施形態では、第1の予め設定された向きは、第1のユーザインタフェースオブジェクトの予め設定された前面側が第2のユーザの表現の方を向く向きである。いくつかの実施形態では、第1の予め設定された向きは、第1のユーザインタフェースオブジェクトが、第2のユーザ等の手の表現に引っかかるとき、及び/又はその上に置かれるとき、直立する向きである。いくつかの実施形態では、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用しており、その後、第1のユーザの表現の方向に対応する方向にスローイングジェスチャを行った場合、コンピュータシステムは、物理的環境内の第2のユーザの手の動きに従って、選択された、三次元環境内の目的ポジションに到達したときに、第2のユーザの手の動きの方向が三次元環境の第1ビューの視点に向いているという判定に従って、第1のユーザインタフェースオブジェクトが第1の予め設定された向きを有する(例えば、第1の予め設定された向きは、第1のユーザインタフェースオブジェクトが第2のユーザのスローイングジェスチャに応じて移動を開始したときに第1のユーザインタフェースオブジェクトが有していた向きとは異なる、第1の予め設定された向きは、第1のユーザインタフェースオブジェクトの予め設定された前向き側が第1のユーザの表現に向く向きである、又は第1の予め設定された向きは、第1のユーザ等の手の表現に引っかかるとき、及び/又はその上に置かれるときに、第1のユーザインタフェースオブジェクトが直立する向きである)ように、第1のユーザインタフェースオブジェクトを個別の方式で回転させる(例えば、第1の回転方向に第1の量だけ、第2の回転方向に第2の量だけ、及び/又は第3の回転方向に第3の量だけ、など)。
物理的環境内の第1のユーザの手の移動に従って選択された三次元環境内の目的ポジションに到達したときに第1のユーザインタフェースが三次元環境において第1の予め設定された向きを有するように第1の方式で第1のユーザインタフェースオブジェクトを回転させることは、目的ポジションにおいて所望の向きで第1のユーザインタフェースオブジェクトを表示するための入力の数を低減する(例えば、ユーザは、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトが回転された後、第1のユーザインタフェースオブジェクトを所望の向きに(例えば、見るために)回転させるために追加のジェスチャを実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトを回転させることは、第1のユーザ(例えば、図7A~図7Cの第1のユーザ7102、別のユーザなど)の手の移動の方向が三次元環境の第1のビュー(例えば、図7B~図7Cの第1のビュー7015-1、別のビューなど)内の第1の表面(例えば、物理的表面(例えば、壁、テーブル上面、ソファの座席など)、仮想表面(例えば、仮想棚、仮想壁、仮想ソファなど)など)の表現の方を指すという判定に従って、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cの第1のユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)を第2の方式で回転させて(例えば、第1のユーザインタフェースオブジェクトを第1の回転方向に第1の量だけ、第2の回転方向に第2の量だけ、及び/又は第3の回転方向に第3の量だけ回転させて)、第1のユーザインタフェースオブジェクトが、物理的環境内の第1のユーザの手の移動に従って選択された第1の表面の表現上の目的ポジションに到着したときに、三次元環境内の第1の表面の表現に対して第2の予め設定された向きを有するようにすることを含む。いくつかの実施形態では、第2の予め設定された向きは、第1のユーザインタフェースオブジェクトが第1のユーザのスローイングジェスチャに応じて移動を開始したときに第1のユーザインタフェースオブジェクトが有していた向きとは異なる。いくつかの実施形態では、第2の予め設定された向きは、第1のユーザインタフェースオブジェクトの予め設定された前面側が第1のユーザの表現の方を向く向きである。いくつかの実施形態において、第2の予め設定された向きは、第1のユーザインタフェースオブジェクトが第1の表面などの表現上に着地するときに直立する向きである。
いくつかの実施形態では、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用しており、その後、第1の表面の表現の方向に対応する方向にスローイングジェスチャを実行したとき、コンピュータシステムは、第2のユーザの手の移動の方向が三次元環境内の第1の表面の表現に向いているという判定に従って、第1のユーザインタフェースオブジェクトが、物理的環境内の第2のユーザの手の移動に従って選択された第1の表面の表現上の目的ポジションに到達したときに、(例えば、第1の回転方向に第1の量だけ、第2の回転方向に第2の量だけ、及び/又は第3の回転方向に第3の量だけなど)三次元環境内の第1の表面の表現に対して第2の予め設定された向きを有するように、第1のユーザインタフェースオブジェクトを個別の方式で回転させる。いくつかの実施形態では、どのユーザが第1の表面の表現の方向にスローイングジェスチャを行ったかに関係なく、第1のユーザインタフェースオブジェクトは、第1のユーザインタフェースオブジェクトが第1の表面の表現に対して予め設定された空間関係(例えば、向き、ロケーションなど)で第1の表面の表現上に着地するように、第1の表面の表現に向かう移動中に個別の方式で回転される。例えば、いくつかの実施形態では、第1のユーザインタフェースオブジェクトが仮想ピクチャフレームであるとき、仮想ピクチャフレームは、テーブルの表現に向かって投げられている間に回転し、スローイングジェスチャを実行したユーザに向かって直立した向きでテーブルに着地する。いくつかの実施形態では、仮想ピクチャフレームが壁の表現に向かって投げられるとき、仮想ピクチャフレームは、壁の表現に向かって移動中に回転し、その背面が壁の表現に平行な状態で壁の表現に着地する。いくつかの実施形態では、仮想ピクチャフレームが第1のユーザによって第2のユーザに向かって投げられるとき、仮想ピクチャフレームは、仮想ピクチャフレームが第2のユーザの掌の表現上に着地したときに第2のユーザの表現に向かう前面を有するように回転する。
第1のユーザインタフェースオブジェクトが、物理的環境内の第1のユーザの手の移動に従って選択される第1の表面の表現上の目的ポジションに到達するときに、三次元環境内の第1の表面の表現に対して第2の予め設定された向きを有するように、第1のユーザインタフェースオブジェクトを第2の方式で回転させることは、第1の表面上に所望の向きで第1のユーザインタフェースオブジェクトを表示するために必要な入力の数を低減する(例えば、ユーザは、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトが回転された後、第1のユーザインタフェースオブジェクトを所望の向きに(例えば、見るために)回転させるために追加のジェスチャを行う必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションとして、三次元環境の第1のビュー(例えば、図7Cの7015-1又は別のビューなど)内の第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016又は別のユーザインタフェースオブジェクトなど)のポジションを変更し、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトのポジションを変更することは、第1のユーザインタフェースオブジェクトと第1のユーザ入力を提供した第1のユーザの手の表現との間の少なくとも予め設定された距離を維持するために、第1のユーザインタフェースオブジェクトを第1のポジションから移動させることを含む(例えば、第1のユーザインタフェースオブジェクトは、第1のユーザインタフェースオブジェクトを把持しようとする第1のユーザの手の表現を避けるために1つ以上の方向に移動するように見える)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動は、第1のユーザインタフェースオブジェクトの外観に対して行われる変更を伴う(例えば、第1のユーザインタフェースオブジェクトは、第1のユーザの手の表現がそれ自体に近づきすぎることを回避するために、移動している間に弱まる又は暗くなるように見える)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないという判定に従って、コンピュータシステムは、第1のユーザの手の表現が第1のポジションに到達するまで、第1のユーザインタフェースオブジェクトを第1のポジションから移動させず、次いで、コンピュータシステムは、第1のユーザインタフェースオブジェクトを第1のポジションから離れるように移動させるか、又は第1のポジションからの手の後続の移動に従って第1のユーザインタフェースオブジェクトを操作する(例えば、第1のユーザインタフェースオブジェクトの後続の移動は、手を避けるためではなく、手と共に移動するため、又は手に追従するためである)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないという判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクトのポジションと手の表現とが重なるまで、第1のユーザインタフェースオブジェクトを第1のポジションから第1のユーザの手の表現に向かって移動させ、次いで、コンピュータシステムは、手の後続の移動に従って第1のユーザインタフェースオブジェクトを移動させるか又は第1のユーザインタフェースオブジェクトを操作する(例えば、第1のユーザインタフェースオブジェクトは、手の表現と共に移動するか又は手の表現に従う)。
第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションとして、第1のユーザインタフェースオブジェクトと第1のユーザ入力を提供した第1のユーザの手の表現との間の少なくとも予め設定された距離を維持するように第1のポジションから第1のユーザインタフェースオブジェクトを移動させることは、改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザ入力に従って、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)に対して第1の動作を実行することは、第1のユーザインタフェースオブジェクトを第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)(例えば、第1のユーザ入力を提供している手、第1のユーザ入力を提供した手とは異なる第1のユーザの手、第1のユーザのいずれかの手など)の表現に向かって移動させることを含む。いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザの手によって把持されるために利用可能であることを示すために、手が第1のユーザインタフェースオブジェクトに向かって移動するにつれて、手の表現に向かって移動する第1のユーザインタフェースオブジェクトを示す。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動は、第1のユーザインタフェースオブジェクトのポジションが手の表現のポジションと重複するときに中止し、次いで、コンピュータシステムは、第1のユーザインタフェースオブジェクトを移動させるか、又は、もしあれば、手の後続の移動に従って第1のユーザインタフェースオブジェクトを操作する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動は、第1のポジションからの限られた距離だけであり(例えば、第1のユーザの手の表現が第1のポジションの閾値距離内まで第1のユーザインタフェースオブジェクトに接近するときに、第1のユーザインタフェースオブジェクトが第1のユーザの手の表現に向かって少しだけ移動する)、この移動は、(例えば、第1のユーザが正しい選択ジェスチャを提供するとき、第1のユーザの手の表現が第1のユーザインタフェースオブジェクトの近くに移動して第1のユーザインタフェースオブジェクトを把持することなどに応じて)第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能であるという視覚的フィードバックを第1のユーザに提供する。
第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないという判定に従って、第1のユーザの手の表現に向かって第1のユーザインタフェースオブジェクトを移動させることは、改善された視覚的フィードバック(例えば、ユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能であるという改善された視覚的フィードバック、コンピュータシステムが第1のユーザインタフェースオブジェクトに対して動作を実行しているという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザ入力に従って第1のユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)に対して第1の動作を実行することは、第1のユーザ入力が所定の選択ジェスチャを含む(例えば、含む、開始する、終了するなど)という判定に従って、第1のユーザ(例えば、図7A~図7Cのユーザ7102、又は別のユーザなど)から受信した後続の入力(例えば、ピンチジェスチャが維持されている間のドラッグジェスチャ、ピンチジェスチャが維持されている間のフリックジェスチャ、所定の選択ジェスチャが終了した後のドラッグジェスチャなど)のターゲットとして第1のユーザインタフェースオブジェクトを選択することを含む。いくつかの実施形態では、選択ジェスチャは、同じ手の親指への人差し指のタッチダウンを含むピンチジェスチャ(任意選択的に、その後、親指から人差し指を離すこと、又は手に接続された手首のフリック、又は手全体の平行移動など)、タッチ姿勢から互いに引き離す同じ手の人差し指及び親指を含むジェスチャ、ピンチジェスチャ、ピンチアンドドラッグジェスチャ、ピンチアンドフリックジェスチャなどである。いくつかの実施形態では、第1のユーザの手が、第1のユーザインタフェースオブジェクトの近くのポジションに対応するロケーションに近づき、所定の選択ジェスチャを実行する場合、コンピュータシステムは、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用しているという判定に従って、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことを示す視覚的フィードバックを生成し、コンピュータシステムは、第1のユーザとの後続の相互作用のために第1のユーザインタフェースオブジェクトを選択しない。コンピュータシステムが、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないと判定した場合、コンピュータシステムは、視覚的フィードバックを表示せず、第1のユーザとの後続の相互作用のために第1のユーザインタフェースオブジェクトを選択する。
第1のユーザ入力が所定の選択ジェスチャを含むという判定に従って、第1のユーザから受信される後続の入力のためのターゲットとして第1のユーザインタフェースオブジェクトを選択することは、追加の表示されるコントロール(例えば、第1のユーザインタフェースオブジェクトを選択するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、(例えば、第1のユーザ入力の少なくとも一部を検出したことに応じて、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していない間に第1のユーザによって提供された所定の選択ジェスチャを検出したことに応じて、など)第1のユーザから受信された後続の入力のターゲットとして第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)を選択することと併せて、コンピュータシステムは、第1のユーザインタフェースオブジェクトを三次元環境の第1のビュー内の第1のポジションに維持しながら(例えば、第1のユーザインタフェースオブジェクトは元のロケーションに留まるが、第1のユーザと第1のユーザインタフェースオブジェクトの表現との間の相互作用に従って第1のユーザによって「遠隔的に」制御することができる)、第1のユーザの手(例えば、所定の選択ジェスチャを実行した手、又は第1の所定の選択ジェスチャを実行した手とは異なる第1のユーザの手、第1のユーザのいずれかの手など)のロケーションに対応するポジションに第1のユーザインタフェースオブジェクトの表現を表示する(例えば、第1のユーザインタフェースオブジェクトの表現又はゴースト画像は、第1のユーザの手の表現のポジションの近く又はポジションに、第1のユーザの手の表現の掌部分に表示される)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザインタフェースオブジェクトの複製、第1のユーザインタフェースオブジェクトよりも半透明な第1のユーザインタフェースオブジェクトの画像、第1のユーザインタフェースオブジェクトの特性(例えば、簡略化された内部構造、アウトラインなど)及び/又は機能のサブセットを有する第1のユーザインタフェースオブジェクトの縮小バージョン(例えば、縮小されたユーザインタフェース要素、テキストコンテンツの除去など)などである。いくつかの実施形態では、第1のユーザによって実行された選択ジェスチャに応じて第1のユーザインタフェースオブジェクトが選択されると、第1のユーザインタフェースオブジェクトのゴースト画像が、第1のユーザの手のロケーションに対応するポジションに表示される(例えば、第1のユーザの手の表現の上方、ユーザの掌の表現上などに浮動している)。
三次元環境の第1のビュー内の第1のポジションに第1のユーザインタフェースオブジェクトを維持している間、第1のユーザの手のロケーションに対応するポジションに第1のユーザインタフェースオブジェクトの表現を表示することと併せて、第1のユーザから受信される後続の入力のためのターゲットとして第1のユーザインタフェースオブジェクトを選択することは、改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが現在、第1のユーザから受信される後続の入力のためのターゲットであるという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作が実行された(例えば、第1のユーザインタフェースオブジェクトの表現が第1のユーザインタフェースオブジェクトと共に第1のポジションの近くに表示された)後、第1のユーザインタフェースオブジェクトの表現(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)が第1のユーザの手の表現(例えば、図7B~図7Cの第1のビュー7015-1の表現7202’、又は別の手の表現7202など)のポジションの近くに移動し、第1のユーザインタフェースオブジェクトが第1のユーザのポジションに向かって移動して、第1のユーザインタフェースオブジェクトが第1のユーザと相互作用する準備ができたことを示すなど)、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第2のユーザ入力を検出する(例えば、第1のユーザインタフェースオブジェクトの表現のポジションに向けられた所定のピンチジェスチャを検出する、第1のユーザインタフェースオブジェクトのポジションに向けられた所定のピンチジェスチャを検出する、所定の選択入力の検出と併せて第1のユーザインタフェースオブジェクトの表現のポジションに向けられた視線入力を検出する、所定の選択入力の検出と併せて第1のユーザインタフェースオブジェクトのポジションに向けられた視線入力を検出するなど)。第2のユーザ入力を検出したことに応じて、かつ第2のユーザ入力が所定の選択ジェスチャを含む(例えば、含む、開始する、終了するなど)という判定に従って、コンピュータシステムは、第1のユーザから受信した後続の入力(例えば、ピンチジェスチャが維持されている間のドラッグジェスチャ、ピンチジェスチャが維持されている間のフリックジェスチャ、所定の選択ジェスチャが終了した後のドラッグジェスチャなど)のターゲットとして第1のユーザインタフェースオブジェクトを選択する。
いくつかの実施形態では、選択ジェスチャは、同じ手の親指への人差し指のタッチダウンを含むピンチジェスチャ(任意選択的に、親指から人差し指を離すこと、又は手に接続された手首のフリック、又は手全体の並進などが続く)、タッチ姿勢から互いに引き離す同じ手の人差し指及び親指を含むジェスチャ、ピンチジェスチャ、ピンチアンドドラッグジェスチャ、ピンチアンドフリックジェスチャなどである。いくつかの実施形態では、第1のユーザ入力に従って第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクトなど)に対して第1の動作を実行することは、第1のユーザインタフェースオブジェクトを三次元環境の第1のビュー内の第1のポジションに維持している間、第1のユーザインタフェースオブジェクトの表現を(例えば、第1のユーザインタフェースオブジェクトが表示される第1のポジションとは異なる、及び/又は第1のユーザ入力を提供した第1のユーザの手の表現のポジションとは異なる第2のポジションに)表示することを含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザインタフェースオブジェクトの複製、第1のユーザインタフェースオブジェクトよりも半透明である第1のユーザインタフェースオブジェクトの画像、第1のユーザインタフェースオブジェクトの特性(例えば、簡略化された内部構造、輪郭など)及び/又は機能のサブセットを有する第1のユーザインタフェースオブジェクトの縮小バージョン(例えば、縮小されたユーザインタフェース要素、テキストコンテンツの除去など)などである。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザインタフェースオブジェクトからわずかにオフセットして表示される(例えば、第1のユーザの手のロケーションに対応するポジションではなく、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの上方、正面などに浮動している、など)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手の表現に向かって移動するが、第1のユーザの手の表現の外側に留まる。
第1の動作が実行された後、第2のユーザ入力が所定のジェスチャを含むという判定に従って、第1のユーザから受信される後続の入力のためのターゲットとして第1のユーザインタフェースオブジェクトを選択することは、追加の表示されるコントロール(例えば、第1のユーザインタフェースオブジェクトを選択するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザ入力に従って第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクト)に対して第1の動作を実行することは、第1のユーザインタフェースオブジェクトを三次元環境の第1のビュー内の第1のポジションに維持している間、第1のユーザインタフェースオブジェクトの表現(例えば、第1のユーザインタフェースオブジェクトの複製、第1のユーザインタフェースオブジェクトよりも半透明な第1のユーザインタフェースオブジェクトの画像、特性のサブセット(例えば、簡略化された内部構造又は輪郭)及び/又は第1のユーザインタフェースオブジェクトの機能(例えば、削減されたユーザインタフェース要素又は削減されたテキストコンテンツ)を有する第1のユーザインタフェースオブジェクトの削減バージョン)を(例えば、第1のユーザインタフェースオブジェクトが表示される第1のポジションとは異なる、及び/又は第1のユーザ入力を提供した第1のユーザの手の表現のポジションとは異なる第2のポジションに)表示することを含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザインタフェースオブジェクトからわずかにオフセットされて表示される(例えば、第1のユーザの手のロケーションに対応するポジションではなく、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの上、前などに浮動している)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手の表現に向かって移動するが、第1のユーザの手の表現の外側に留まる。第1のユーザインタフェースオブジェクトを三次元環境の第1のビュー内の第1のポジションに維持している間、第1のユーザインタフェースオブジェクトの表現を表示することは、改善された視覚的フィードバック(例えば、コンピュータシステムが第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行しているという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクトなど)の表現は、第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)(例えば、第1のユーザ入力を提供した手、第1のユーザの別の手など)の表現から離れたポジションに最初に表示され、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザによって提供された後続のユーザ入力によって選択されたという判定に従って、第1のユーザインタフェースオブジェクトの表現を、第1のユーザの手(例えば、第1のユーザ入力を提供した手、第1のユーザの他方の手など)の表現から離れたポジションから第1のユーザの手の表現のポジションに移動させる(例えば、第1のユーザインタフェースオブジェクトの表現を、その初期表示ポジションから第1のユーザの手の表現のポジションに、ユーザの掌の表現上に移動させるなど)。いくつかの実施形態では、コンピュータシステムは、選択基準を満たす、又は選択ジェスチャを含む、第1のユーザインタフェースオブジェクトに向けられた第2のユーザ入力の検出(例えば、第1のユーザインタフェースオブジェクトの表現に向けられた所定のピンチジェスチャの検出、第1のユーザインタフェースオブジェクトに向けられた所定のピンチジェスチャの検出、所定の選択入力の検出と共に第1のユーザインタフェースオブジェクトの表現に向けられた視線入力の検出、又は所定の選択入力の検出と共に第1のユーザインタフェースオブジェクトに向けられた視線入力の検出)に応じて、第1のユーザインタフェースオブジェクトの表現を移動させる。第1のユーザによって提供される後続のユーザ入力によって第1のユーザインタフェースオブジェクトが選択されたという判定に従って、第1のユーザの手の表現から離れたポジションから第1のユーザの手の表現のポジションに第1のユーザインタフェースオブジェクトの表現を移動させることは、第1のユーザに改善された視覚的フィードバック(例えば、第1のユーザによって提供される後続のユーザ入力によって第1のユーザインタフェースオブジェクトが選択されたという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現を表示している間(例えば、第1のユーザインタフェースオブジェクトの表現が、第1のユーザ入力の検出(例えば、三次元環境内の第1のユーザインタフェースオブジェクトのポジションに対応するロケーションの近くで動いている第1のユーザの手の検出)に応じて表示されている)、コンピュータシステムは、第1のユーザの手(例えば、手7202、又はユーザ7102の別の手など)(例えば、第1のユーザ入力を提供した手、第1のユーザ入力を提供した手とは異なる第1のユーザの手など)の移動を検出する。第1のユーザの手(例えば、第1のユーザ入力を提供した手、第1のユーザ入力を提供した手とは異なる第1のユーザの手など)の移動を検出したことに応じて、かつ第1のユーザの手の移動が予め設定された選択ジェスチャの初期部分を識別するための予め設定された基準を満たすという判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)の表現の外観を変更する(例えば、形状、サイズ、色、不透明度、詳細レベルなどを変更し、任意選択的に、第1のユーザインタフェースオブジェクトの表現を第1のユーザインタフェースオブジェクトなどの外観により近似させる)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現の外観は、第1のユーザの手の移動が選択ジェスチャの必要な進行に適合し続けるときに変化し続ける。いくつかの実施形態では、第1のユーザの手の移動が予め設定された選択ジェスチャの初期部分を識別するための予め設定された基準を満たさないことを検出したことに応じて、コンピュータシステムは、予め設定された選択ジェスチャが検出されていないことを第1のユーザに示すために、第1のユーザインタフェースオブジェクトの表現の外観を変更しないか、又は異なる方式で外観を変更しない。いくつかの実施形態では、第1のユーザの手の移動が予め設定された選択ジェスチャの必要な進行にもはや適合していないことを検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトの表現の外観を変更することを停止し、第1のユーザインタフェースオブジェクトの外観を復元するか、又は第1のユーザインタフェースオブジェクトの表現を表示することを停止する。
第1のユーザの手の移動が予め設定された選択ジェスチャの初期部分を識別するための予め設定された基準を満たすという判定に従って第1のユーザインタフェースオブジェクトの表現の外観を変更することは、第1のユーザに改善された視覚的フィードバック(例えば、コンピュータシステムが予め設定された基準を満たす第1のユーザの手の移動を検出したという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクトなど)の表現を第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)の表現のポジションに表示している間(例えば、第1のユーザインタフェースオブジェクトの表現がその初期表示ポジションから第1のユーザの手の表現のポジションまで飛んでいることを示した後、ユーザの掌の表現上など)、第1のユーザインタフェースオブジェクトが第1のユーザによって選択されたという判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクトの表現と相互作用する第3のユーザ入力を検出する(例えば、第3の入力は、第1のユーザ入力を提供した手、第1のユーザインタフェースオブジェクトの表現を選択した手、第1のユーザ入力を提供した手とは異なる第1のユーザの手、又は第1のユーザインタフェースオブジェクトの表現を選択した手とは異なる第1のユーザの手などによって提供される入力である。第3のユーザ入力を検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトの表現の移動及び第1のユーザインタフェースオブジェクトの表現の外観を変更することのうちの少なくとも1つを通じて第3のユーザ入力に対する視覚的フィードバックを表示し、コンピュータシステムは、第3のユーザ入力に従って、第1のユーザインタフェースオブジェクトに対して第2の動作を実行する。いくつかの実施形態では、視覚的フィードバックは、第1のユーザインタフェースオブジェクトに対して実行される第2の動作に対応する。いくつかの実施形態では、視覚的フィードバックは、第1のユーザインタフェースオブジェクトの表現のポジションに対応するロケーションにある第1のユーザの手の移動に従って第1のユーザインタフェースオブジェクトの表現を直接操作することに対応する。いくつかの実施形態では、第2の動作を実行することは、第1のユーザインタフェースオブジェクト上のコントロールを作動させること、第1のユーザインタフェースオブジェクトを三次元空間内で移動させること、第1のユーザインタフェースオブジェクトによって表されるメディアアイテムを再生すること、第1のユーザインタフェースオブジェクトによって表されるアプリケーションを起動すること、及び/又は第1のユーザインタフェースオブジェクトによって表される別のユーザとの通信セッションを開始することなどを含む。
第1のユーザインタフェースオブジェクトの表現と相互作用する第3のユーザ入力の検出に応じて、第1のユーザインタフェースオブジェクトの表現の移動及び第1のユーザインタフェースオブジェクトの表現の外観の変更のうちの少なくとも1つを通じて第3のユーザ入力に対する視覚的フィードバックを表示すること、及び第3のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第2の動作を実行することは、改善された視覚的フィードバック(例えば、コンピュータシステムが第3のユーザ入力を検出したという改善された視覚的フィードバック、及び/又はコンピュータシステムが第1のユーザインタフェースオブジェクトに対して第2の動作を実行しているという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、コンピュータシステムは、第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)の表現の更新ポジションとの既存の空間関係を第1のユーザインタフェースオブジェクトの表現が維持する(例えば、固定されたままである、追従するなど)ように(例えば、第1のユーザインタフェースが三次元環境の第1のビュー内の第1のポジションに留まる間)、第1のユーザの手の移動に従って第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクトなど)の表現のポジションを更新する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザが第1のユーザインタフェースオブジェクトの表現と実際に相互作用するか否かにかかわらず、第1のユーザの手の表現又はその近くのポジションに表示されたままである。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手の掌のロケーションに対応するポジションに表示され、手の表現が三次元環境の現在表示されているビュー内にないとき、又は第1のユーザの手が閉じられているとき、表示を停止する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手の表現が三次元環境の現在表示されているビュー内で再び可視になるとき、又は手の掌の表現が三次元環境の現在表示されているビュー内で再び見えるときに再表示される。第1のユーザは、第1のユーザが第1のユーザインタフェースオブジェクトの制御を具体的に放棄していない限り、(例えば、第2のユーザに向かって、又は三次元環境の共有部分(例えば、壁又はテーブル上面などの表現)に向かってスローイングジェスチャを提供することなどによって)第1のユーザインタフェースオブジェクトの表現と相互作用することができる。いくつかの実施形態では、第1のユーザは、第1のユーザインタフェースオブジェクトの表現が三次元環境の現在表示されているビューにもはや表示されないように第1のユーザが自分の手を閉じたときに、第1のユーザインタフェースオブジェクトの制御を放棄する(例えば、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用していない間、第1のユーザは、別の選択入力でもう一度やり直すことによって制御を回復しなければならない)。
第1のユーザインタフェースオブジェクトの表現が、第1のユーザの手の表現の更新ポジションとの既存の空間関係を維持するように、第1のユーザの手の移動に従って第1のユーザインタフェースオブジェクトの表現のポジションを更新することは、改善された視覚的フィードバック(例えば、第1のユーザにより提供される後続のユーザ入力により第1のユーザインタフェースオブジェクトが選択される改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
図8における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法9000、10000、11000、及び12000)に関して本明細書で記載された他のプロセスの詳細はまた、図8に関連して上述された方法8000に類似の方式で適用可能であることも留意されたい。例えば、方法8000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法9000、10000、11000、及び12000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図9A~図9Bは、いくつかの実施形態による、三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法のフローチャートであり、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方法の変更がトリガされる。
いくつかの実施形態では、方法9000は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法9000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法9000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。
いくつかの実施形態では、方法9000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。
方法9000では、第1のユーザ(例えば、図7D~図7Fのユーザ7002、又は別のユーザ)が第1の物理的環境(例えば、図7D~図7Fのシーン105-a、又は別の物理的環境など)内の第1のロケーションにある、コンピュータシステムは、第1の物理的環境(例えば、第1の視点は、第1のユーザが物理的環境内の第1のロケーションにいるときのユーザの目又は顔のロケーションに対応する仮想ポジションであり、第1の視点は、三次元環境などへの第1の視点に対応する)内の第1のロケーションに関連付けられた第1の視点に対応する三次元環境(例えば、図7Dの図7304-a)(例えば、仮想三次元環境、拡張現実環境、三次元混合現実環境など)の第1のビューを表示し(9002)、三次元環境の第1のビューは、第1の物理的環境(例えば、第1の物理的環境及び第2の物理的環境は、2つの異なる部屋、2つの異なる地理的ロケーションなどにあり、第1のユーザ及び第2のユーザは、それぞれ第1の物理的環境及び第2の物理的環境に位置するとき、互いに物理的に届かない(例えば、物理的衝突の危険性がない))とは異なる第2の物理的環境(例えば、図7D~図7Fのシーン105-b、又は別の物理的環境など)内の第1のオブジェクト(例えば、第2のユーザ、移動する物理的オブジェクト(例えば、動物、飛行ドローン、ゲームの対戦相手など)など)を表す第1のユーザインタフェースオブジェクト(例えば、図7D~図7Fの第2のユーザ7102の表現7102’-a、又は別の物理的オブジェクトの別の表現など)(例えば、第1のユーザとは異なる第2のユーザのアバター、移動する物理的オブジェクトの仮想表現(例えば、動物、車両、飛行ドローン、マルチプレーヤゲームの対戦相手など))を含み、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する(例えば、第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動距離及び移動方向は、第1の予め設定されたオブジェクトマッピング関係(例えば、線形マッピング関係、及び/又は同じ基本方向を有する同じタイプの座標系など)に従って、三次元環境内の第1のユーザインタフェースオブジェクトの移動距離及び移動方向にそれぞれマッピングされ、三次元環境の現在表示されているビューの視点(例えば、第1のユーザの視点、三次元環境内の第1のユーザの仮想ポジションなどである。)に対応する個別のポジションの移動距離及び移動方向は、第1の予め設定されたユーザマッピング関係(例えば、線形マッピング関係、及び/又は同じ基本方向を有する同じタイプの座標系など)などに従って、第1の物理的環境内の第1のユーザの移動距離及び移動方向にそれぞれマッピングされる)。いくつかの実施形態では、第1の方式における対応関係は、現実世界における運動及びロケーションと三次元環境内の運動及びロケーションとの間のデフォルトの対応関係(例えば、現実模倣対応関係、第1のユーザの前にいる第1のユーザの別の部分への第1のユーザの一部分の移動にも適用される対応関係など)である。いくつかの実施形態では、三次元環境は、第1のユーザと第2のユーザとの間で少なくとも部分的に共有される仮想環境又は拡張現実環境であり、第1のユーザ及び第2のユーザは、三次元環境に対して2つの異なる視点から三次元環境の同じ部分を見てもよい。
いくつかの実施形態では、三次元環境は共有環境ではない。いくつかの実施形態では、三次元環境は仮想三次元環境である。いくつかの実施形態では、三次元環境は、第1の物理的環境の表現(例えば、第1の物理的環境のカメラビュー又は透明パススルービューなど)と、任意選択的に、(例えば、第2の物理的環境の表現を含まずに)第2の物理的環境内の物理的オブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の表現とを含む拡張現実環境である。いくつかの実施形態では、三次元環境は、(例えば、第1のユーザインタフェースオブジェクトのポジションが、第1の表示生成コンポーネントを介して示される拡張現実環境内の第2の物理的環境の表現に対して計算で又はデジタル的に修正され得るように)第1のオブジェクトのカメラビュー又は記録された画像が除去され、第1のユーザインタフェースオブジェクトによって置換された、第2の物理的環境の表現(例えば、第2の物理的環境のカメラビュー又は透明パススルービュー、第2の物理的環境でキャプチャされたビデオ記録など)を含む拡張現実ビューである。いくつかの実施形態では、第1の物理的環境内の第1のユーザ全体の移動(例えば、第1の物理的環境内で人全体を動かすことなく単に第1のユーザの頭又は腕を動かす代わりに、第1の物理的環境内で歩く、走る、自転車に乗る、上にジャンプする、エレベータに乗るなど)は、三次元環境の現在表示されているビューの視点における対応する変化(例えば、対応する方向及び/又は対応する距離での三次元環境に対する視点の平行移動など)を引き起こす。第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ全体、動物、飛行ドローンなど)の移動(例えば、歩く、走る、自転車に乗る、上にジャンプする、エレベータに乗る、飛行するなど)は、三次元環境内の対応する方向及び/又は対応する距離などでの第1のユーザインタフェースオブジェクトの移動を引き起こす。
いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動及び/又はポジションが、(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び/又は移動履歴に関係なく)第1の方式で第2の物理的環境内の第1のオブジェクトの移動及び/又はロケーションに基づいて判定される場合、第1のユーザインタフェースオブジェクトは、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューの視点(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び移動履歴に従って判定される視点)の閾値距離内にある三次元環境内のポジションに到達してもよい。いくつかの実施形態では、第1のユーザインタフェースオブジェクトを三次元環境の現在表示されているビューの視点の仮想ポジションの閾値距離内に表示させることは、第1のユーザインタフェースオブジェクトが三次元環境を見る人(例えば、第1のユーザ)の個人空間に対して非常に大きく、不自然に、及び/又は侵入的に見えることをもたらす。いくつかの実施形態では、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューは、第1のユーザの身体の仮想表現を視覚的に含まない(例えば、三次元環境に対する第1のユーザの仮想ポジションは、現在表示されているビュー自体及び対応する視点によって反映される)。いくつかの実施形態では、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューは、第1のユーザの身体の一部の仮想表現を視覚的に含む(例えば、ビューは、ビューの底部に、第1のユーザの輪郭、第1のユーザの目の前の第1のユーザの手又は足の表現を含み、ビューは、三次元環境内のポジションが第1の物理的環境内の第1のユーザの移動及び/又は現在ロケーションに基づいて第1の方式で判定され、ディスプレイに対して静止したままである(例えば、三次元環境の現在表示されているビューの視点と固定された空間関係を有する)第1のユーザのアバターを含む)。
方法9000において、コンピュータシステムは、第1の物理的環境内の第1のユーザ(例えば、図7D~図7Fの第1のユーザ7002)の移動(例えば、第1のロケーションから第2のロケーションへの第1の方向(例えば、第1の物理的環境内の前方、後方、左方、右方、上方、下方、2時方向、10時方向など)への第1の距離及び/又は第1の速度での移動)と、第2の物理的環境内の第1のオブジェクト(例えば、図7D~図7Fの第2のユーザ7102又は別の物理的オブジェクトなど)の移動(例えば、第3のロケーションから第4のロケーションへの第2の方向(例えば、前方、後方、左方、右方、上方、下方、3時方向、8時方向など)への第2の距離及び/又は第2の速度での移動)とのうちの少なくとも1つ(例えば、1つのみ、第1のユーザのみ、第1のオブジェクトのみ(例えば、第2のユーザ、動物、飛行中のドローン等)、両者など)とを検出する(9004)。いくつかの実施形態では、第1のユーザの移動を検出することは、第1のユーザ及び第1の表示生成コンポーネントと共に配置されたセンサを使用して直接的に実行され、任意選択的に、第2の物理的環境内の第1のオブジェクトの移動を検出することは、間接的に実行される(例えば、第2の物理的環境内に第1のオブジェクトと共に配置されたセンサを介して、第2の物理的環境で使用される(例えば、第2のユーザ、又は第1及び第2のユーザとは異なる別のユーザによって使用されるなど)コンピュータシステムから送信された第1のユーザインタフェースオブジェクトの更新ポジションの受信を介して、コンピュータシステムは、第1の方式に従って(例えば、予め設定された第1の現実模倣マッピング関係に従って)第1のユーザインタフェースオブジェクトのポジションを更新している。
方法9000では、第1の物理的環境内の第1のユーザの移動及び第2の物理的環境内の第1のオブジェクトの移動のうちの少なくとも1つを検出したこと(9006)に応じて(例えば、第1のユーザの移動のみを検出したことに応じて、第1のオブジェクトの移動のみを検出したことに応じて、ユーザ又はオブジェクトの移動のいずれか1つを検出したことに応じて、ユーザの移動及びオブジェクトの移動の両方を検出したことに応じてなど)、コンピュータシステムは、第2の視点(例えば、図7Eのビュー7304-a’、図7Fのビュー7304-a’’など)に対応する三次元環境の第2のビューを表示する(9008)(例えば、第1のユーザが第1の物理的環境内に移動していない場合、第2の視点は第1の視点と同じであり、第1のユーザが第1の物理的環境内に移動した場合、第2の視点は第1の視点と異なる(例えば、物理的環境内の第1のユーザの移動は、三次元環境内の第1のユーザの移動にマッピングされ、第1のユーザに対して表示される三次元環境の第1のユーザのビューの視点のシフトを引き起こす)。コンピュータシステムは、三次元環境の第2のビュー(例えば、図7Eのビュー7304-a’、図7Fのビュー7304-a’’など)に第1のユーザインタフェースオブジェクト(例えば、図7E及び図7Fの表現7102’-a)を表示する(9010)。第1のユーザインタフェースオブジェクトを表示することは、第1の方式で(例えば、現実模倣方式に従って判定される、予め設定された第1のマッピング関係など)第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のユーザインタフェースオブジェクトが三次元環境において実質的に静止していた場合、三次元環境内の第1のユーザインタフェースオブジェクトの同じ以前のポジション、第1のユーザインタフェースオブジェクトが三次元環境において移動していた場合、三次元環境内の異なるポジション)が、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境の個別のポジションから閾値距離超である(例えば、腕の長さより大きい、三次元環境内の第1のユーザの個人空間の予め設定された半径より大きい、三次元環境(例えば、第1のユーザの表現の仮想面、第1のユーザの仮想ポジションを囲む境界ボックスなど)内の第1のユーザの仮想ポジションを囲む予め設定された境界面の外である)(例えば、個別のポジションは三次元環境内の第1のユーザの仮想ポジションである(例えば、三次元環境の現在表示されているビュー内の可視ポジション、又は不可視ポジション)、個別のポジションが第1のユーザの頭部の仮想ポジション又は三次元環境内の彼/彼女の仮想表現である、個別のポジションが第1のユーザの仮想ポジション又は三次元環境内の彼/彼女の仮想表現を囲む境界面の1つ以上のポジションのうちの1つである)ことに従って、第1のユーザインタフェースオブジェクトを三次元環境の第2のビュー内の第1の表示ポジションに表示すること(9012)を含み、第1の表示ポジションは、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションである。これは、例えば、第2のユーザの表現7102’-aの表示ポジションが、第1の方式に従って計算された表現7102’-aの個別のポジションと同じである、図7Eに示されるシナリオである。例えば、いくつかの実施形態では、第1の表示ポジションは、第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の現在ロケーション及び/又は移動履歴に基づいて、第1の方式で(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び/又は移動履歴とは無関係に、第1の予め設定されたマッピング関係に従ってなど)判定される。第1の表示ポジションは、第1のユーザインタフェースオブジェクトが三次元環境の現在表示されているビューの視点に近づきすぎておらず(又は第1のユーザの仮想ポジションに近づきすぎておらず、及び/又は三次元環境内の第1のユーザの仮想表現のポジションに近づきすぎておらず)、第1のユーザの個人空間に対して大きすぎる、不自然である、及び/又は侵襲的であるように見えない場合の第1のユーザインタフェースオブジェクトのポジションである。
第1のユーザインタフェースオブジェクトを表示することは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという判定に従って、第1のユーザインタフェースオブジェクトを三次元環境の第2のビュー内の第2の表示ポジションに表示すること(9014)を更に含み、第2の表示ポジションは、個別のポジションからオフセットされ(例えば、側方にシフトされる、閾値距離を超えて個別の方向(例えば、側方、上方、下方など)にシフトされる、三次元環境の現在表示されているビューに対して側方(例えば、左方、右方など)に閾値距離を超えてシフトされる、三次元環境内の第1のユーザインタフェースオブジェクトの三次元環境の現在表示されているビューに対して、上方に閾値距離を超えてシフトされるなど)(例えば、第2の表示ポジションは、第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の現在ロケーション及び/又は移動履歴だけでなく、第1の物理的環境内の第1のユーザの現在ロケーション及び/又は移動履歴にも基づいて判定され、第2の表示ポジションは、第1の方式とは異なる第2の方式に従って判定され、第2の表示ポジションは、第1のユーザインタフェースオブジェクトが三次元環境の現在表示されているビューの視点に近づきすぎた場合、第1のユーザインタフェースオブジェクトが大きくなりすぎず、不自然になりすぎず、及び/又は第1のユーザの個人空間に対して侵入的に見えないように、第1のユーザインタフェースオブジェクトのデフォルトポジションからシフトされる。これは、例えば、第2のユーザの表現7102’-aの表示ポジションが、第1の方式に従って計算された表現7102’-aの個別のポジションからオフセットされ、第2の方式に従って計算される、図7Fに示されるシナリオである。
いくつかの実施形態では、第1の方式とは異なる第2の方式に従って第1のユーザインタフェースオブジェクトのポジションを判定するために、第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動距離及び移動方向は、第2の予め設定されたオブジェクトマッピング関係(例えば、非線形マッピング関係、三次元環境の現在表示されているビューの視点(例えば、第1のユーザの視点、三次元環境内の第1のユーザの仮想ポジションなど)に対応す個別のポジションの現在ポジション、移動距離、及び/又は移動方向、及び/又は三次元環境内の第1のユーザインタフェースオブジェクトの現在ポジション、移動距離、及び/又は移動方向に基づく追加の線形又は非線形オフセット量を有する線形マッピング関係)に従って、三次元環境内の第1のユーザインタフェースオブジェクトの移動距離及び移動方向にそれぞれマッピングされる。いくつかの実施形態では、第2の方式における対応は、第1のユーザインタフェースオブジェクトが三次元環境の第1のユーザのビュー内で近すぎるように見えることを回避する目的で(例えば、視覚的衝突回避対応)、現実世界における運動及びロケーションと三次元環境内の運動及びロケーションとの間のデフォルト対応関係(例えば、現実模倣対応関係)に対する修正を含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの第2の表示ポジションがデフォルト表示ポジション(例えば、現実模倣対応関係に従って、第1の予め設定されたマッピング関係などに従って判定されるポジション)からシフト又はオフセットされる方向及び量は、第1のオブジェクトのサイズ及び/又は形状、及び/又は第1のユーザのサイズ及び/又は形状、第1のユーザに関連付けられた境界ボックスのサイズ及び/又は形状、第1のオブジェクトの境界ボックスに関連付けられたサイズ及び/又は形状、及び/又は三次元環境内の第1のユーザの仮想表現のサイズ及び/又は形状などに従って判定される。第1の例では、いくつかの実施形態では、第1のオブジェクトは第2のユーザであり、第1のユーザ及び/又は第2のユーザが、(第1の現実を模倣するマッピング関係に従って計算された)三次元環境の現在表示されているビュー内の第2のユーザの仮想表現の個別のポジションが、現在表示されているビューに対応する視点の閾値距離を超えるようにそれぞれの物理的環境内を歩くとき、第2のユーザの仮想表現は、(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び移動履歴を考慮することなく、第2の物理的環境内の第2のユーザの現在ロケーション及び移動履歴に基づいて)三次元環境の現在表示されているビュー内の第1の現実模倣マッピング関係に従って計算された個別のポジションに表示される。しかしながら、第1の現実感模倣マッピング関係に従って計算された三次元環境の現在表示されているビュー内の第2のユーザの仮想表現の個別のポジションが、現在表示されているビューに対応する視点の閾値距離内に入るように、第1のユーザ及び/又は第2のユーザが個別の物理的環境内を歩くとき、第2のユーザの仮想表現の表示ポジションは、第2のユーザの仮想表現が第1のユーザに衝突して見えないように、及び/又は第1のユーザの視点から第1のユーザのビューを圧倒しないように、及び/又は三次元環境内の第1のユーザの仮想表現(可視の仮想表現、又は三次元環境の現在表示されているビュー内で不可視である仮想表現など)と重ならないように、個別のポジション(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び移動履歴を考慮せずに第2の物理的環境内の第2のユーザの現在ロケーション及び移動履歴に基づいて計算されたポジション)からシフトされる。いくつかの実施形態では、第2のユーザの表現の表示ポジションが三次元環境のビュー内でシフトされたとしても、三次元環境内の第2のユーザの表現の個別のポジションはシフトされない(第1のユーザに対して示される三次元環境の表示ビュー内に視覚的に反映されないだけである)。いくつかの実施形態による上記の特徴は、例えば、図7D~図7Fに示されている。図7Eでは、例えば、第1のユーザ7102に示されるビュー7304-a’において、第2のユーザ7002の表現7102’-aの表示ポジションは、三次元環境内のポジションと第2のユーザ7102の第2の物理的環境内のロケーションとの間の第1のタイプの対応関係に従って計算された表現7102’-aの個別のポジションと同じである。これは通常のシナリオであり、第2のユーザ7102の表現7102’-aは、第1のユーザ7002に示される第1のビュー7304-aの視点の閾値距離内にない(図7Eの左のビュー)。図7Fでは、例えば、第1のユーザ7002に示されるビュー7034-a’’において、表現7102’-aの表示ポジションは、第1のタイプの対応関係に従って計算された表現7102’-aの個別のポジションからオフセットされる。これは、個別のポジションが、第2のユーザの表現7102’-aを、第1のユーザ7002に示される第1のビュー7304-a’’の視点に近すぎるように配置するからである。したがって、図7Fに示すシナリオでは、第2のユーザの表現7102’-aの個別のポジションが実際には第1のビュー7304-a’’内の表現7002’-aの真正面にあっても、表現7102’-aは第1のユーザ7002の表現7002’-aの右側にあるように示されている。
いくつかの実施形態では、第1の物理的環境(例えば、図7D~図7Fのシーン105-a、又は別のシーンなど)内の第1のユーザ(例えば、図7D~図7Fのユーザ7002、又は別のユーザなど)の移動、及び第2の物理的環境(例えば、図7D~図7Fのシーン105-b、又は別のシーンなど)内の第1のオブジェクト(例えば、図7D~図7Fのユーザ7102、又は別の人若しくはオブジェクトなど)の移動のうちの少なくとも1つを検出することは、第1のオブジェクト(例えば、図7D~図7Fのユーザ7102、又は別の人若しくはオブジェクトなど)が第2の物理的環境内に静止している間、第1の物理的環境内の第1のユーザ(例えば、図7D~図7Fのユーザ7002、又は別のユーザなど)の第1の移動を検出することを含む。第1の物理的環境内の第1のユーザの第1の移動中(例えば、三次元環境内の静止した第2のユーザ又は仮想オブジェクトの表現に向かって視点の移動を引き起こす第1のユーザ全体の移動中)、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のユーザの第1の移動中の第2の物理的環境内の第1のオブジェクトの静止ロケーションに対応する、三次元環境内の静止ポジション)が、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離よりも大きい(例えば、第2のユーザ又は仮想オブジェクトの表現が、三次元環境内の第1のユーザの視点又は仮想ポジションの閾値範囲外にある)という判定に従って、第1のユーザインタフェースオブジェクトは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内のユーザインタフェースオブジェクトの個別のポジションに表示される(例えば、第1のユーザインタフェースオブジェクトの外観及びロケーションは、視点の変化により第1のユーザに視覚的に変化し得る(例えば、第1のユーザの視野の異なるサイズ又は異なる部分に現れる)が、三次元環境内の第1のユーザインタフェースオブジェクトの個別の三次元ポジションは変化しない)。第1の物理的環境内の第1のユーザの第1の移動の間(例えば、三次元環境内の静止した第2のユーザ又は仮想オブジェクトの表現に向かって視点の移動を引き起こす第1のユーザ全体の移動の間)、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のユーザの第1の移動の間の第2の物理的環境内の第1のオブジェクトの静止ロケーションに対応する、三次元環境内の静止ポジション)が、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下(例えば、等しい、未満など)であるという判定に従って(例えば、第2のユーザ又は仮想オブジェクトの表現は、三次元環境内の第1のユーザの視点又は仮想ポジションの閾値範囲内にあり、他の方法でシフトされない場合)、第1のユーザインタフェースオブジェクトは、第1のオブジェクトが第2の物理的環境内に静止している、三次元環境内の調整されたポジション(例えば、現実模倣マッピング関係に基づいて判定される個別のポジションからオフセットされたポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点から閾値距離外にあるポジションなど)に表示され、三次元環境内の調整されたポジションは、第1の方式とは異なる第2の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する。例えば、いくつかの実施形態では、第1のオブジェクトが第2の物理的環境内に静止したままであっても、第1のユーザインタフェースオブジェクトは、第1のユーザの移動(例えば、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに向かう第1のユーザの視点又は仮想表現の移動に対応する第1の物理的環境内の移動)に応じて、三次元環境の現在表示されているビュー内で自律的な移動をするように見える。より具体的な例では、第1のユーザが、三次元環境内の第2のユーザ又は仮想オブジェクトの表現に向かう第1のユーザの仮想表現の移動に対応する第1の物理的環境内の移動を行うとき、第1のユーザの仮想表現が第2のユーザ又は仮想オブジェクトの表現の閾値距離内に到達する場合、第2のユーザ又は仮想オブジェクトが第2の物理的環境内で静止したままであっても、第2のユーザ又は仮想オブジェクトの表現は、第1のユーザの仮想表現から自動的に邪魔にならないように移動して、第1のユーザの仮想表現にぶつかることを回避する。第2のユーザ及び仮想オブジェクトの表現は、衝突回避オフセットをトリガするための条件がもはや満たされなくなった後、デフォルトの現実模倣マッピング関係を使用して計算されたそれらのデフォルトポジションに復元される。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、第1のユーザと仮想電話会議をしている第2のユーザを表すアバターである。第1のユーザが、第2のユーザのアバターに向かう三次元環境内の移動に対応する方向に歩くとき、第2のユーザのアバターは、アバターが第1のユーザの仮想ポジションに近づきすぎるにつれて、邪魔にならないように移動する。これは、第2のユーザが自身の環境内で移動していなくても行われる。
第1のオブジェクトが第2の物理的環境内で静止している間に第1の物理的環境内で第1のユーザの第1の移動を検出し、第1の方式での第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離超であるという判定に従って、第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境の第1のユーザインタフェースオブジェクトの個別のポジションに第1の方式で第1のユーザインタフェースオブジェクトを表示し、第1のオブジェクトが第2の物理的環境内で静止している間、第1の方式での第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下であるという判定に従って、第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の調整されたポジションに第1のユーザインタフェースオブジェクトを第1の方式とは異なる第2の方式で三次元環境内に表示することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整する更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに、適切なポジションで第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の物理的環境(例えば、図7D~図7Fのシーン105-a、又は別のシーンなど)内の第1のユーザ(例えば、図7D~図7Fのユーザ7002、又は別のユーザなど)の移動、及び第2の物理的環境(例えば、シーン105-b、又は別のシーンなど)内の第1のオブジェクト(例えば、図7D~図7Fのユーザ7102、又は別の人若しくはオブジェクトなど)の移動のうちの少なくとも1つを検出することは、第1のユーザが第1の物理的環境内に静止している間、第2の物理的環境内の第1のオブジェクトの第2の移動を検出することを含む。第2の物理的環境内の第1のオブジェクトの第2の移動中(例えば、三次元環境において第1のユーザインタフェースオブジェクトを移動させる全体としての第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動中に)、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のオブジェクトの第2の移動中、第2の物理的環境内の第1のオブジェクトの新たなロケーションに対応する、三次元環境内の新たなポジション)が、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離超である(例えば、第2のユーザ又は仮想オブジェクトの表現は第1のユーザの視点又は三次元環境内の仮想ポジションの閾値範囲外にある)という判定に従って、第1のユーザインタフェースオブジェクトは、(例えば、三次元環境の現在表示されているビューの視点が静止している間)三次元環境内の更新ポジション(例えば、現実模倣関係に基づいて判定される個別のポジションであるポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点から閾値距離外のポジションなど)に表示され(例えば、第1のユーザインタフェースオブジェクトはそこに移動するように示され)、三次元環境内の更新ポジションは、第1の方式での第2の移動の結果として、第2の物理的環境内の第1のオブジェクトの更新ロケーションに対応する(例えば、第1のユーザインタフェースオブジェクトの外観及び表示ポジションは、現在表示されているビューの視点が維持されている間、三次元環境内の第1のユーザインタフェースオブジェクトの個別の三次元ポジションの変化に起因して変化する)。第2の物理的環境内の第1のオブジェクトの第2の移動の間(例えば、三次元環境内の第1のユーザインタフェースオブジェクトの移動を全体として引き起こす第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動の間)、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のオブジェクトの第2の移動の間の第2の物理的環境内の第1のオブジェクトの新たなロケーションに対応する、三次元環境内の新たなポジション)が、三次元環境の現在表示されているビューに関連付けられる視点に対応する三次元環境内の個別のポジションから閾値距離以下である(例えば、等しい、未満であるなど)(例えば、第2のユーザ又は仮想オブジェクトの表現は、離れてシフトされてなければ、第1のユーザの視点又は三次元環境内の仮想ポジションの閾値範囲内にある)という判定に従って、第1のユーザインタフェースオブジェクトは、第1のオブジェクトが第2の物理的環境で静止している間、三次元環境内の調整された更新ポジション(現実模倣マッピング関係に基づいて判定される個別のポジションからオフセットされたポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点から閾値距離外にあるポジションなど)に表示され(例えば、第1のユーザインタフェースオブジェクトはそこに移動するように示され)、三次元環境内の調整された更新ポジションは、第1の方式とは異なる第2の方式で第2の物理的環境内の第1のオブジェクトの更新ロケーションに対応する。例えば、いくつかの実施形態では、第2のユーザ又は仮想オブジェクトが、現在表示されているビューの視点又は三次元環境内の第1のユーザの仮想ポジションに向かう移動に対応する第2の物理的環境内の方向に移動するとき、第1のユーザインタフェースオブジェクトは、第2のユーザ又は仮想オブジェクトの表現が三次元環境内の第1のユーザの視点又は仮想ポジションの閾値距離を超えようとしているときに、第1のユーザの視点又は仮想ポジションから離れるように押す、及び/又は第1のユーザの視点又は仮想ポジションに近づきすぎるのを防ぐ磁気又は静電反発力などのシミュレートされた物理力の影響下にあるように見える。第2のユーザ及び仮想オブジェクトの表現は、視覚的衝突回避オフセットをトリガするための条件がもはや満たされなくなった後、デフォルトの現実模倣マッピング関係を使用して計算されたそれらの元の移動経路に復元される。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、第1のユーザとの仮想会議通話中の第2のユーザを表す浮動会話アバターである。第2のユーザが、第1のユーザの仮想ポジションに向かう三次元環境内の移動に対応する方向に歩くとき、第2のユーザの浮動会話アバターは、第1のユーザの仮想ポジションの仮想ポジションの周りを移動し、第1のユーザの仮想ポジションに近づきすぎることはない。これは、第2の物理的環境内の第2のユーザの移動と三次元環境内の第2のユーザのアバターの移動との間のデフォルトのマッピング関係に基づいて計算された通常の移動に加えて実行される修正である。
第1のユーザが第1の物理的環境内で静止している間に第2の物理的環境内の第1のオブジェクトの第2の移動を検出し、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えるという判定に従って、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに第1のユーザインタフェースオブジェクトを表示し、第1のユーザが第2の物理的環境内で静止している間、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下であるという判定に従って、第1の方式とは異なる第2の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の調整されたポジションに第1のユーザインタフェースオブジェクトを表示することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整する更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに、適切なポジションに第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の物理的環境(例えば、図7D~図7Fのシーン105又は別のシーンなど)内の第1のユーザ(例えば、図7D~図7Fのユーザ7002又は別のユーザなど)の移動及び第2の物理的環境(例えば、シーン105-b又は別のシーンなど)内の第1のオブジェクト(例えば、図7D~図7Fのユーザ7102又は別の人若しくはオブジェクトなど)の移動のうちの少なくとも1つを検出することは、第1の物理的環境内の第1のユーザの第3の移動(例えば、図7D~図7Fの経路7300に沿った第1のユーザ7002の移動又は別の経路に沿った移動など)及び第2の物理的環境内の第1のオブジェクトの第4の移動(例えば、図7D~図7Fの経路7302に沿った第2のユーザ7102又は7102によって表されるオブジェクトの移動又は別の経路に沿った移動など)を同時に検出することを含む。いくつかの実施形態では、第1の物理的環境内の第1のユーザの第3の移動を検出することは、第1のユーザと並べて配置されたセンサを使用して実行され、第1のオブジェクトの第4の移動を検出することは、任意選択的に、第1のオブジェクトと並べて配置されたセンサを使用して、及び/又は別のコンピュータシステムから受信された第1のユーザインタフェースオブジェクトの未調整の更新ポジションに従って実行される。第1の物理的環境内の第1のユーザの第3の移動及び第2の物理的環境内の第1のオブジェクトの第4の移動の少なくとも一方の間(例えば、三次元環境内の第1のユーザインタフェースオブジェクトの移動を全体として引き起こす第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動と、三次元環境の現在表示されているビューの視点の移動及び/又は三次元環境内の第1のユーザの仮想ポジションの移動を全体として引き起こす第1のユーザの移動の間)、第1の方式で第2の物理的環境内の第1のオブジェクトのロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のオブジェクトの第4の移動中、第2の物理的環境内の第1のオブジェクトの新たなロケーションに対応する、三次元環境内の新たなポジション)が、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジション(例えば、現実模倣関係に従って、第1の物理的環境内の第1のユーザの第3の移動により更新された)から閾値距離を超えている(例えば、第2のユーザ又は仮想オブジェクトの表現が、第1のユーザの第3の移動により更新されている第1のユーザの視点又は三次元環境内の仮想ポジションの閾値範囲外である)という判定に従って、第1のユーザインタフェースオブジェクトは、(例えば、三次元環境の現在表示されているビューの視点が、第1のユーザの第3の移動に従って更新されている間)三次元環境内の更新ポジション(例えば、現実模倣関係に基づいて判定される個別のポジションであるポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点からの閾値距離外にあるポジション、など)に表示され(例えば、そこに移動するように示され)、三次元環境内の更新ポジションは、第1の方式での第4の移動の結果として第2の物理的環境内の第1のオブジェクトの更新ロケーションに対応する(例えば、現在表示されているビューの視点が第1のユーザの第3の移動に従って更新される間、第1のユーザインタフェースオブジェクトの外観及びロケーションは、三次元環境内の第1のユーザインタフェースオブジェクトの個別の三次元ポジションの変化により第1のユーザに視覚的に変化する)。第1の物理的環境内の第1のユーザの第3の移動及び第2の物理的環境内の第1のオブジェクトの第4の移動の少なくとも一方の間(例えば、三次元環境内の第1のユーザインタフェースオブジェクトの移動を全体として引き起こす第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動と、三次元環境の現在表示されているビューの視点の移動及び/又は三次元環境内の第1のユーザの仮想ポジションの移動を全体として引き起こす第1のユーザの移動の間)、第1の方式の第2の物理的環境内の第1のオブジェクトのロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のオブジェクトの第2の移動中、第2の物理的環境内の第1のオブジェクトの新たなロケーションに対応する、三次元環境内の新たなポジション)が(例えば、現実模倣関係に従って第1の物理的環境内の第1のユーザの第3の移動に従って更新された)三次元環境の現在表示されているビューに関連する視点に対応する三次元環境内の個別のポジションからの閾値距離を超えない(例えば、等しい、未満であるなど)(例えば、第2のユーザ又は仮想オブジェクトの表現が、離れてシフトされていない場合、三次元環境内の第1のユーザの視点又は仮想ポジションの閾値範囲内にある)という判定に従って、第1のユーザインタフェースオブジェクトは、三次元環境内の調整された更新ポジション(例えば、現実模倣関係に基づいて判定される個別のポジションからオフセットされるポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点からの閾値距離外にあるポジションなど)で表示され(例えば、そこに移動するように示され)、三次元環境内の更新ポジションは、第1の方式(及び、任意選択的に、第2の方式)と異なる第3の方式(例えば、第1のオブジェクトの第4の移動と第1のユーザの第3の移動の両方を考慮に入れて)で第2の物理的環境内の第1のオブジェクトのロケーションに対応する。例えば、いくつかの実施形態では、第2のユーザ又は仮想オブジェクトが、現在表示されているビューの視点又は三次元環境内の第1のユーザの仮想ポジションに向かう移動に対応する第2の物理的環境内の方向に移動し、及び/又は第1のユーザが、三次元環境内の第2のユーザ又は仮想オブジェクトの表現に向かう移動に対応する第1の物理的環境内の方向に移動するとき、第1のユーザインタフェースオブジェクトは、第2のユーザ又は仮想オブジェクトの表現が三次元環境内の第1のユーザの変化する視点又は仮想ポジションの閾値距離を超えようとしているときに、第1のユーザの視点又は仮想ポジションから離れるように押す、及び/又は第1のユーザの視点又は仮想ポジションに近づきすぎるのを防ぐ別の力の影響下にあるように見える。第2のユーザ及び仮想オブジェクトの表現は、衝突回避オフセットをトリガするための条件がもはや満たされなくなった後、デフォルトの現実模倣マッピング関係を使用して計算されたそれらの元の移動経路に復元される。いくつかの実施形態では、第1のユーザの仮想ポジション又は三次元環境の現在表示されているビューの視点は、第2の物理的環境内の第2のユーザ又は仮想オブジェクトの移動及び現在ロケーションにかかわらず、第1の方式(例えば、現実模倣方式、予め設定された第1のマッピング関係など)で第1の物理的環境内の第1のユーザのロケーションに対応する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、第1のユーザとの仮想会議通話中の第2のユーザを表す浮動会話アバターであり、第1のユーザ及び第2のユーザがそれぞれそれらの物理的環境内を歩くとき、三次元環境内の第1のユーザ及び第2のユーザの仮想ポジションは、第1のユーザ及び第2のユーザにそれぞれ適用されるいくつかの予め設定されたデフォルトマッピング関係に従って、第1のユーザ及び第2のユーザの移動に基づいて判定される。例えば、第1のユーザ及び第2のユーザの仮想ポジションは、第1のユーザ又は第2のユーザがそれぞれの物理的環境内でかなりの移動距離を実行した場合であっても、同じ共通仮想空間に限定される。デフォルトマッピングが、三次元環境内の第1のユーザ及び第2のユーザの仮想ポジションの視覚的衝突をもたらす場合、(第1のユーザによって第1の表示生成コンポーネントを介して見られるとき)第2のユーザの浮動会話アバターは、浮動会話アバターが第1のユーザの仮想ポジションに近づきすぎるにつれて、邪魔にならないように移動する。同時に、第1のユーザの浮動会話アバターは(第2のユーザによって第2の表示生成コンポーネントを介して見られるとき)、浮動会話アバターが第2のユーザの仮想ポジションに近づきすぎるにつれて、邪魔にならないように移動する。
第1の物理的環境内の第1のユーザの第3の移動と第2の物理的環境内の第1のオブジェクトの第4の移動を同時に検出し、第1の方式での第2の物理的環境内の第1のオブジェクトのロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離超であるという判定に従って、第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境の第1のユーザインタフェースオブジェクトの個別のポジションに第1の方式で第1のユーザインタフェースオブジェクトを表示し、第2の物理的環境内の第1のオブジェクトのロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えないという判定に従って、第2の物理的環境内の第1のオブジェクトの個別のロケーションに第1の方式で対応する三次元環境内の調整されたポジションに第1のユーザインタフェースオブジェクトを第1の方式とは異なる第3の方式で表示することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整する更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに、適切なポジションで第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のオブジェクトは、第2の物理的環境(例えば、図7D~図7Fのシーン105-b)内に位置する第2のユーザ(例えば、図7D~図7Fの第2のユーザ7102、又は別のユーザなど)であり、第1のユーザ(例えば、第1のユーザ7002)及び第2のユーザ(例えば、第2のユーザ7102)は、三次元環境(例えば、図7D~図7Fの表示生成コンポーネント7100及び7200を介して見られる環境)を少なくとも部分的に共有する(例えば、両方のユーザが同時に三次元環境の少なくとも一部を見る、少なくとも一部にアクセスする、及び/又は少なくとも一部と相互作用することができる)。例えば、第2のユーザには、第2のコンピュータシステムと通信している第2の表示生成コンポーネントを介して三次元環境のビューが提供される。第2の物理的環境内の第2のユーザのロケーションは、第2のコンピュータシステムと通信している1つ以上のセンサによって検出される。いくつかの実施形態では、第2のコンピュータシステムは、第2の物理的環境を表すデータを送信し、第1のコンピュータシステムは、第2の物理的環境を表すデータを受信し、第1のコンピュータシステム及び第2のコンピュータシステムは両方とも、第2の物理的環境の表現(例えば、第2の物理的環境のカメラビュー又はパススルービュー)を表示する。いくつかの実施形態では、第1のコンピュータシステムは、第1の物理的環境を表すデータを送信し、第2のコンピュータシステムは、第1の物理的環境を表すデータを受信し、第1のコンピュータシステム及び第2のコンピュータシステムは両方とも、第1の物理的環境の表現(例えば、第1の物理的環境のカメラビュー又はパススルービュー)を表示する。いくつかの実施形態では、第1のコンピュータシステム及び第2のコンピュータシステムは両方とも、仮想環境(例えば、仮想会議室、ゲーム世界など)の表現、又は第1の物理的環境及び第2の物理的環境とは異なる第3の物理的環境(例えば、第1のユーザ及び第2のユーザとは異なり、第1のユーザ及び第2のユーザと三次元環境を共有している第3のユーザの物理的環境など)の表現を表示する。いくつかの実施形態では、第1の表示生成コンポーネントを介して第1のユーザに提供される三次元環境のビュー内で、第2のユーザの表示ポジションが視覚的衝突回避シフト/オフセットで(例えば、第2の方式で、第2の衝突回避マッピング関係でなどで)修正されるとき、第2の表示生成コンポーネントを介して第2のユーザに提供される三次元環境のビューは、代わりに、第1のユーザの表示ポジションが視覚的衝突回避シフト/オフセットで修正されるが、第2のユーザのロケーションに基づく三次元環境の視点はそのようなシフト又はオフセットを有さないことを示す。
第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下という判定に従って、第1のユーザインタフェースオブジェクトを三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに表示し、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えるという判定に従って、第1のユーザインタフェースオブジェクトを三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションからオフセットされている三次元環境の第2のビュー内の第2の表示ポジションに表示し、第1のオブジェクトは、第2の物理的環境に位置する第2のユーザであり、第1のユーザ及び第2のユーザは、三次元環境を少なくとも部分的に共有することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整する更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに、適切なポジションで第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第2の表示生成コンポーネント(例えば、表示生成コンポーネント7200、又は別の表示生成コンポーネントなど)を介して第2のユーザ(例えば、ユーザ7102、又は別のユーザなど)に表示される三次元環境の第3のビュー(例えば、図7F(B)に示すビュー7304-b)において、第1の方式(例えば、例えば、現実模倣方式に従って判定される、予め設定された第1のマッピング関係など)で第1の物理的環境(例えば、図7D~図7Fのシーン105-a)内の第1のユーザ(例えば、図7D~図7Fのユーザ7002、別のユーザなど)の個別のロケーションに対応する、三次元環境内の第2のユーザインタフェースオブジェクト(例えば、図7Fの表現7002’-b、別の表現など)(例えば、第1のユーザのアバター、第1のユーザを表すトーキングヘッドなど)の個別のポジションが、三次元環境の第3のビューに関連付けられる第3の視点に対応する三次元環境内の個別のポジション(例えば、三次元環境内の第2のユーザの仮想ポジション)からの閾値距離を超えないという反対に従って、コンピュータシステムは、三次元環境の第3のビュー内の修正されたポジションで第2のユーザインタフェースオブジェクト(例えば、第1のユーザ7002の表現7002’-b)を表示し、修正されるポジションは、第1の方式(例えば、現実模倣方式に従って判定される、予め設定された第1のマッピング関係など)で第1の物理的環境内の第1のユーザの個別のロケーションに対応する、三次元環境内の第2のユーザインタフェースオブジェクトの個別のポジションからオフセットされる(例えば、図7F(B)に示されるように、第1のユーザ7002の表現7102’-bのポジションがビュー7304-b’’内の表現7102’-bの真正面にあるはずであっても、第1のユーザ7002の表現7002’-bは、第2のユーザ7102に示されるビュー7304-b’’内の表現7102’-bの右側に表示される)。
第1の方式で第1の物理的環境内の第1のユーザの個別のロケーションに対応する、三次元環境内の第2のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第3のビューに関連付けられた第3の視点に対応する三次元環境内の個別のポジションから閾値距離を超えないという判定に従って、第1の方式で第1の物理的環境内の第1のユーザの個別のロケーションに対応する、三次元環境内の第2のユーザインタフェースオブジェクトの個別のポジションからオフセットされた三次元環境の第3のビュー内の修正ポジションに第2のユーザインタフェースオブジェクトを表示することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整するための更なるユーザ入力)を必要とせずに条件のセットが満たされたときに、適切なポジションに第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のオブジェクトは、第2の物理的環境に位置する物理的オブジェクトである(例えば、図7D~図7Fのユーザ7102は、いくつかの実施形態では、表示生成コンポーネント7200を使用する別のユーザではない物理的オブジェクトを表すことができる)。いくつかの実施形態では、三次元環境は、三次元環境を見る人とは異なる物理的環境内の他の物理的オブジェクトの表現を含む。例えば、いくつかの実施形態では、三次元環境は、任意選択的に、第1のユーザのためのハイキングコース上のシミュレートされた自然歩行の一部であり、第1のユーザの物理的環境とは異なる物理的ロケーションにおけるハイキングコース上の物理的環境のリアルタイムカメラフィード又は記録されたビデオを含む。第1のユーザが第1の物理的環境内で歩いており、ハイキングコースからの物理的環境のビューでシミュレートされた自然歩行を体験しているとき、野鳥、飛行ドローン、又は別のハイカーなどの物理的オブジェクトも、物理的オブジェクトの個別のポジションが第1のユーザの仮想ポジション(例えば、第1のユーザに現在示されているハイキングコースのビューの視点に対応するポジション、又はビュー内の第1のユーザの仮想表現のポジションなど)と視覚的衝突回避調整なしに重なるか、又はその閾値距離内にあるように、ハイキングコースを取り囲む物理的環境内で移動している場合、第1のユーザの体験は視覚的衝突によって妨害される(例えば、第1のユーザは、物理的オブジェクトが自分の頭又は体を通って走ったように感じる、及び/又はそのような感覚又は体験が生じるのを恐れるなど)。視覚的衝突が回避されるように、そのようなシナリオにおいて物理的オブジェクトの表現の表示ポジションを自動的に調整することによって、第1のユーザは、シミュレートされた自然歩行をより快適かつ円滑に体験することができる。別の例では、第1のオブジェクトは、ハイキングコース上の大きな岩、又はハイキングコースの中央に座っている人などの静止オブジェクトである。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、第1のユーザの仮想ポジションがハイキングコースのビュー内の大きな岩又は座っている人のポジションに近づくと、(例えば、デジタル画像編集手段を通じて)自動的に邪魔にならないように移動される。いくつかの実施形態では、第1のオブジェクトが(例えば、体験全体を通じて)静止した物理的オブジェクトであるという判定に従って、第1のコンピュータシステムは、任意選択的に、第1のユーザインタフェースオブジェクトが三次元環境の現在表示されているビュー内の第1のユーザの仮想ポジションに近すぎるとき、第1のユーザインタフェースオブジェクトを短時間表示することを停止する。
第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えるという判定に従って、三次元環境内の第1のユーザインタフェースオブジェクトを三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに表示し、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下という判定に従って、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションからオフセットされた三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示し、第1のオブジェクトは第2の物理的環境に位置する物理的オブジェクトであり、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、第1のユーザインタフェースオブジェクトを適切なポジションに表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、図7D~図7Fにおける第2のユーザ7102の表現7102’-a)は、三次元環境において浮いている(例えば、別のオブジェクト又は表面に付着していない及び/又は接触している)オブジェクト(例えば、第2のユーザの浮動会話アバター、飛んでいる鳥の表現、飛んでいるドローンの表現など)である。いくつかの実施形態では、三次元環境の現在表示されているビュー内の無生物オブジェクトの表現も、同じようにして対応する視覚的衝突回避動作を有する。第1のユーザが移動して、三次元環境の現在表示されているビューの視点に対応する仮想ポジションを浮動仮想ランタン又はデジタルアシスタントの仮想表現に接近させると、浮動仮想ランタン又はデジタルアシスタントの仮想表現は、三次元環境の現在表示されているビュー内で自動的に側方に邪魔にならないように移動する。第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えるという判定に従って、第1のユーザインタフェースオブジェクトを三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに表示し、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下という判定に従って、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションからオフセットされた三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示し、第1のユーザインタフェースオブジェクトが、三次元環境内に浮動しているオブジェクトである、ことは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、第1のユーザインタフェースオブジェクトを適切なポジションに表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、三次元環境が第1の現実感レベルで表示されているという判定に従って、第1のユーザインタフェースオブジェクト(例えば、図7D~図7Fの第2のユーザ7102の表現7102’-a)は、第1の現実感レベルに対応する第1のセットの表示特性(例えば、第1の解像度、第1の次元数、第1の鮮明度、第1のカラーパレット、照明効果なしなど)で表示され、三次元環境が第1の現実感レベルとは異なる(例えば、より高い、より低いなど)第2の現実感レベルの現実感で表示されているという判定に従って、第1のユーザインタフェースオブジェクトは、第2の現実感レベルに対応する第2のセットの表示特性(例えば、第2の解像度、第2の次元数、第2の鮮明度、第2のカラーパレット、照明効果ありなど)で表示され、第2のセットの表示特性は、第1のセットの表示特性とは異なる(例えば、例えば、より高い、より低い、加算する、減算するなど)。例えば、いくつかの実施形態では、三次元環境が仮想三次元環境である場合、第1のユーザインタフェースオブジェクトは、固定された会話アニメーションを有する第2のユーザの三次元仮想モデルであり、三次元環境が拡張現実環境である場合、第1のユーザインタフェースオブジェクトは、第2のユーザのリアルタイムビデオ画像に従って生成される表情及び会話アニメーションを有する第2のユーザのより現実的な三次元モデルである。いくつかの実施形態では、コンピュータシステムは、共有体験の仮想モードから拡張現実モードに切り替えるユーザ(例えば、第1のユーザ、第2のユーザなど)の要求に応じて、三次元環境の表示を第1の現実感レベルから第2の現実感レベルに切り替える。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、三次元環境が単純で平坦で不透明な表面を有する場合、三次元環境内に浮動している第2のユーザの二次元画像であり、第1のユーザインタフェースオブジェクトは、三次元環境が物理的環境のより現実的な仮想レンダリングに切り替えられる場合、より精巧な顔の特徴及び照明効果を有する第2のユーザの三次元モデルになる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの現実感レベル及び/又は第1のユーザインタフェースオブジェクトが三次元環境においてどのようにレンダリングされるかを、三次元環境の現実感レベル及び/又は三次元環境がどのようにレンダリングされるかに自動的に一致させることは、第1のユーザインタフェースオブジェクトを三次元環境の自然で邪魔にならない部分に見せ、それによって第1のユーザの視聴体験を改善する。
三次元環境が第1の現実感レベルで表示されているという判定に従って、第1の現実感レベルに対応する第1セットの表示特性で第1ユーザインタフェースオブジェクトを表示し、三次元環境が第1の現実感レベルとは異なる第2の現実感レベルで表示されているという判定に従って、第2の現実感レベルに対応する第1セットの表示特性とは異なる第2セットの表示特性で第1ユーザインタフェースオブジェクトを表示することは、ユーザに改善された視覚的フィードバック(例えば、三次元環境がどの現実感レベルで表示されているかに関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、三次元環境の第2のビュー内の第2の表示ポジション(例えば、第1のユーザ7002に示されるビュー7304-a’’内の第2のユーザ7102の表現7102’-aの表示ポジション)は、第2の物理的環境(例えば、シーン105-b又は別のシーンなど)内の第1のオブジェクト(例えば、図7Fの第2のユーザ7102又は別のオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、第2のユーザ7102の表現7102’-a)の個別のポジションから第1の変位量だけ第1の方式で変位され、第1の変位量(例えば、第1の方向及び/又は第1の大きさなどを有する)は、第2の物理的環境内の第1のオブジェクトの第1の方式で移動(例えば、図7D~図7Fの経路7302に沿った移動、又は別の経路に沿った移動)に対応しない。いくつかの実施形態では、第1の変位量は、第2の物理的環境内の第1のオブジェクトの移動に全く対応しないか、又は第1の変位量は、第1の方式とは異なる個別の方式で第2の物理的環境内の第1のオブジェクトの移動に対応する。
第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという判定に従って、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションから、第1の方式で第2の物理的環境内の第1のオブジェクトの移動に対応しない第1の変位量だけ変位する三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示することは、ユーザに改良された視覚的フィードバックを提供する(例えば、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという改良された視覚的フィードバック)。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の変位量は、三次元環境の現在表示されているビューの視点(例えば、図7Fのビュー7304-a’’の視点)と、第2の物理的環境(例えば、シーン105-b、又は別のシーンなど)内の第1のオブジェクト(例えば、図7D~図7Fの第2のユーザ7102、又は別のユーザ若しくはオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、図7Fの第2のユーザ7102の表現7102’-a、又は別の表現など)の個別のポジションとの間の空間関係(例えば、距離及び相対ポジションなど)に従って第1の方式で判定される方向を有する。
第1のユーザインタフェースオブジェクトを三次元環境の第2のビュー内の第2の表示ポジションであって、三次元環境の第2のビュー内の第2の表示ポジションが、三次元環境の現在表示されているビューの視点と第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションとの間の空間関係に従って第1の方式で判定される方向を有する第1の変位量だけ第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションから変位される、三次元環境の第2のビュー内の第2の表示ポジションに表示することは、ユーザに改善された視覚的フィードバック(例えば、現在表示されているビューの視点と第1のユーザインタフェースオブジェクトの個別のポジションとの間の空間関係に関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7F(A)のビュー7304-a’’、又は別のビューなど)内の第2の表示ポジションは、第2の物理的環境(例えば、シーン105-b、別のシーンなど)内の第1のオブジェクト(例えば、第2のユーザ7102、別のユーザ又はオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、第2のユーザの表現7102’-a、別の表現など)の個別のポジションから第1の方式で第2の変位量(例えば、第1の変位量と同じ、第1の変位量とは異なるなど)だけ変位され、第2の変位量は、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションに向かう順方向とは異なる方向(例えば、垂直又は直交、左、右、上を指すなど)を有する(例えば、図7F(A)に示されるように、表現7102’-aは、そのポジションが第1のユーザ7002に示されるビュー7304-a’’内の視点の真正面にあるべきであっても、視点の側にシフトされる)。例えば、いくつかの実施形態では、第1のユーザインタフェースオブジェクトがどの方向から三次元環境の現在表示されているビュー(例えば、第2のビュー、又は後に表示される別のビューなど)に関連付けられた視点に対応する個別のポジションに近づいて到達しているかにかかわらず、第1のユーザインタフェースオブジェクトは、現在表示されているビューに関連付けられた視点に対応する個別のポジションの側方又は上方に偏向され、その結果、第1のユーザインタフェースオブジェクトの表示ポジションは、デフォルトの未調整方式(例えば、第1の方式、現実模倣方式、第1の予め設定されたマッピング関係など)に従ってそれぞれの物理的環境内の第1のユーザ及び/又は第1のオブジェクトの移動に基づいて計算された第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた個別の視点に更に近づくか又は通過する場合であっても、視点に対応する個別のポジションを囲む制限された空間に入らない。いくつかの実施形態では、三次元環境の現在表示されているビューの視点に対応する個別のポジションの前の閾値距離に不可視ガラス壁があるかのように、第1の方式で第1のユーザ及び第1のオブジェクトの現在ロケーション及び移動履歴に基づいて計算された第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューの視点に対応する個別のポジションの閾値距離内になくなるまで、第1のユーザインタフェースオブジェクトを不可視ガラス壁に沿って側方又は上方にスライドさせる。この実装形態は、第1のユーザインタフェースオブジェクトが第1のユーザの視点又は第1のユーザの顔の仮想表現を横切ることを回避するのに役立つ。
第1のユーザインタフェースオブジェクトを三次元環境の第2のビュー内の第2の表示ポジションであって、三次元環境の第2のビュー内の第2の表示ポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションに向かう順方向とは異なる方向を有する第2の変位量だけ、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションから変位させる、三次元環境の第2のビュー内の第2の表示ポジションに表示することは、ユーザに改善された視覚的フィードバック(例えば、改善された視覚的フィードバック、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7Fのビュー7304-a’’)内の第2の表示ポジションは、第2の物理的環境(例えば、シーン105-b、又は別のシーンなど)内の第1のオブジェクト(例えば、図7Fのユーザ7102、別のユーザ又はオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、第2のユーザの表現7102’-a、別の表現など)の個別のポジションから、第1の方式で第3の変位量(例えば、第1の変位量と同じ、第1の変位量と異なるなど)だけ変位され、第3の変位量は、第1のユーザインタフェースオブジェクトと、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の接近方向(例えば、共通の中心を指す)とは異なる(例えば、垂直又は直交する、左に、右に、上方を指すなど)方向を有する(例えば、図7F(A)に示すように、表現7102’-aは、第1のユーザ7002に示されるビュー7304-a’’内の視点を通って直線的に移動すべきであっても、視点の側にシフトされる)。例えば、いくつかの実施形態では、第1のユーザインタフェースオブジェクトがどの方向から三次元環境の現在表示されているビュー(例えば、第2のビュー、又は後に表示される別のビューなど)に関連付けられた視点に対応する個別のポジションに接近して到達しているかに応じて、第3の変位量は、第1のユーザインタフェースオブジェクトをその接近方向から現在表示されているビューに関連付けられた視点に対応する個別のポジションの側方又は上方に逸らせ、その結果、第1のユーザインタフェースオブジェクトの表示ポジションは、それぞれの物理的環境内の第1のユーザ及び/又は第1のオブジェクトの移動に基づいて計算された第1のユーザインタフェースオブジェクトの個別のポジションが三次元環境の現在表示されているビューに関連付けられた個別の視点に更に近づくか又は通過しても、視点に対応する個別のポジションを囲む制限された空間に入らない。いくつかの実施形態では、三次元環境の現在表示されているビューの視点に対応する個別のポジションを取り囲む不可視ガラスドームが存在するかのように、第1のユーザ及び第1のオブジェクトの現在ロケーション及び移動履歴に基づいて計算された第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューの視点に対応する個別のポジションの閾値距離内になくなるまで、第1のユーザインタフェースオブジェクトを不可視ガラスドームに沿って側方又は上方にスライドさせる。この実装形態は、第1のユーザインタフェースオブジェクトが、第1のユーザの視点又は第1のユーザの仮想表現を任意の方向から(例えば、正面から、側面からなど)横切ることを回避するのに役立つ。
三次元環境の第2のビュー内の第2の表示ポジションであって、三次元環境の第2のビュー内の第2の表示ポジションが、第1のユーザインタフェースオブジェクトと三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の接近方向とは異なる方向を有する第3の変位量だけ、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションから変位される、三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示することは、ユーザに改善された視覚的フィードバック(例えば、改善された視覚的フィードバック、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7Fのビュー7304-a’’、又は別のビューなど)内の第2の表示ポジションと、第1の方式で第2の物理的環境内の第1のオブジェクト(例えば、図7Fのユーザ7102、又は別のユーザ若しくはオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、図7Fの表現7102’-a、又は別の表現)の個別のポジションとの間の変位の大きさ及び方向のうちの少なくとも1つは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションと、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の空間関係(例えば、相対方向及び/又は距離など)に基づく(例えば、変位は、大きさ及び/又は方向の変化の大きさ及び/又は方向に従って、又は大きさ及び/又は方向の絶対値に従って、方向及び/又は大きさが動的に調整される)。
三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示し、三次元環境の第2のビュー内の第2の表示ポジションと、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションとの間の変位の大きさ及び方向のうちの少なくとも1つが、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションと、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の空間関係に基づくことは、ユーザに改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトの個別のポジションと、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の空間関係に関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
図9A~図9Bにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、10000、11000、及び12000)に関して本明細書で記載されている他のプロセスの詳細は、また、図9A~図9Bに関連して上述されている方法9000に類似の方式で適用可能であることも留意されたい。例えば、方法9000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法8000、10000、11000、及び12000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図10は、いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルを変更する方法のフローチャートである。
いくつかの実施形態では、方法10000は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法10000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法10000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。
いくつかの実施形態では、方法10000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。
方法10000では、コンピュータシステムは、第1のコンピュータ生成体験(例えば、アプリケーションユーザインタフェース、仮想体験、拡張現実体験、複合現実体験など)を第1の没入レベルで表示する(10002)(例えば、二次元アプリケーションユーザインタフェースを表示する、三次元環境の二次元ビューを表示する、ユーザの視野の小さい第1の部分を占有する三次元環境にウィンドウ又は視点を表示する、非空間音声を有するコンピュータ生成体験を表示するなど)(例えば、図7Gに示すように、コンピュータ生成体験の最小量の仮想コンテンツが表示され、物理的環境の表現がビュー7316を支配する)。第1の没入レベルで第1のコンピュータ生成体験を表示している間、コンピュータシステムは、第1のユーザ(例えば、図7G~図7Jのユーザ7002)に対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータを(例えば、リアルタイムで、第1のユーザに接続された、又は向けられた1つ以上のバイオメトリックセンサ(例えば、様々な適切な医療デバイス、振動センサ、カメラ、熱センサ、化学センサなど)を通じて、など)受信する(10004)。いくつかの実施形態では、バイオメトリックデータは、平均的なユーザがコンピュータ生成体験に関与している期間にわたって典型的には変化しない、人間の非一次的特徴(例えば、指紋、虹彩パターン及び色、顔特徴、声紋など)を含まない。いくつかの実施形態では、バイオメトリックデータは、心拍数、呼吸数、体温、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、ユーザがコンピュータ生成体験に関与している間に経時的に変化し得る1つ以上のタイプのバイオメトリックデータ、ユーザがコンピュータ生成体験に関与している間にユーザ自身のアクション(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又は制御との直接相互作用とは対照的に、瞑想、呼吸パターン変化、エクササイズなど)を通じて変化し得る1つ以上のタイプのバイオメトリックデータ、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックを含む。第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したこと(10006)に応じて、かつ、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された期間の直近の期間にわたって受信されたバイオメトリックデータなど)が第1の基準を満たすという判定に従って、コンピュータシステムは、第1のコンピュータ生成体験を第2の没入レベルで表示し(10008)(例えば、第2の没入レベルは第1の没入レベルよりも没入感の高い体験を提供し、第2の没入レベルは第1の没入レベルよりも没入感の低い体験を提供するなど)、第2の没入レベルで表示された第1のコンピュータ生成体験は、第1の没入レベルで表示された第1のコンピュータ生成体験よりも第1のユーザの視野のより大きな部分(例えば、横方向により広い角度範囲、縦方向により広い角度範囲、より大きい視野サイズなど)を占有する(例えば、第1のユーザの視野のより大きな部分を占有する第1のコンピュータ生成体験は、任意選択的に、第1のコンピュータ生成体験が第1のユーザの視野のより小さな部分を占有する場合よりも没入感の高い体験を第1のユーザに提供する)。いくつかの実施形態では、第1の基準は、第1のユーザが精神的及び感情的に没入感の高い体験に入る準備ができていることを示すための予め設定された基準、第1のユーザがあまり没入感の高くない体験に出る準備ができていることを示すための予め設定された基準などを含む。これは図7Jに示されており、ビュー7334は、例えば、図7Gに示されるビュー7316よりも大きな空間範囲を占有するコンピュータ生成体験の仮想コンテンツを含む。いくつかの実施形態では、コンピュータシステムは、心拍数が第1の閾値心拍数よりも低く、呼吸数が第1の閾値呼吸数よりも低く、血圧が第1の閾値血圧よりも低く、ユーザの移動が閾値時間量の間に第1の閾値移動量よりも小さい、ユーザの体温が第1の閾値体温よりも低い、ストレスレベルのメトリックが第1の閾値ストレスレベルよりも低い、ユーザの気分に対応するメトリックがユーザがリラックスして幸せであることを示すなどの判定に従って、バイオメトリックデータが予め設定基準を満たすと判定する。いくつかの実施形態では、第1の没入レベル及び第2の没入レベルは、任意選択的に、コンピュータ生成体験のユーザのビューに存在する仮想要素の量、コンピュータ生成体験において可視のままである物理的表面の数、コンピュータ生成体験の音響効果を再生するために使用される音声出力モード、コンピュータ生成体験によって描写される現実感レベル、コンピュータ生成体験によって描写される次元数、及び/又はコンピュータ生成体験において利用可能にされる機能及び相互作用の数などが異なる。方法10000において、第1のユーザに対応するバイオメトリックデータを受信したことに応じて、かつ第1のユーザに対応するバイオメトリックデータが第1の基準を満たさない(例えば、心拍数が第1の閾値心拍数よりも多い、血圧が第1の閾値血圧よりも高い、ユーザの移動が閾値時間量の間に第1の閾値移動量よりも大きい、ユーザの体温が第1の閾値体温よりも高い、ストレスレベルのメトリックが第1の閾値ストレスレベルを上回る、ユーザの気分に対応するメトリックがユーザが動揺して不満であることを示すなど)という判定に従って、コンピュータシステムは、第1の没入レベルで第1のコンピュータ生成体験を表示し続ける(10010)。これは図7Gに示されており、図7Gでは、バイオメトリックデータが閾値インジケータ7326を下回って変動する場合があり、ビュー7316が維持される。いくつかの実施形態では、任意選択的に、第1のコンピュータ生成体験は、第1のユーザから受信される対応するバイオメトリックデータが第1の基準を満たすであろう状態に第1のユーザが入ることを支援する視覚及び音声ガイダンス(例えば、音楽、風景、鼓舞メッセージ、投薬記録の案内、視覚、音声、又は口頭での呼吸指示など)を含む。これらの特徴は、例えば、図7G~図7Jに示されており、仮想コンテンツと物理的環境の表現との間の視覚的バランスは、ユーザ7002に対応するバイオメトリックデータの変化に従って徐々に及び/又は急に変化する。仮想コンテンツと物理的環境の表現との間の視覚的バランス及び相対的な視覚的プロミネンスは、コンピュータ生成体験をユーザに提供する没入レベルを表す。
いくつかの実施形態では、第2の没入レベルで第1のコンピュータ生成体験を表示している、コンピュータシステムは、第1のユーザに対応する(例えば、コンピュータシステムが第2の没入レベルで第1のコンピュータ生成体験の表示に遷移した後の、第1の時点又は期間よりも後の第2の時点又は期間における第1のユーザの生理学的状態に対応する)第1の更新されたバイオメトリックデータを(例えば、リアルタイムで、第1のユーザに接続された又は向けられた1つ以上のバイオメトリックセンサ(例えば、様々な好適な医療デバイス、振動センサ、カメラ、熱センサ、化学センサなど)を通じて)受信する。いくつかの実施形態では、第1の更新されたバイオメトリックデータは、心拍数、呼吸数、体温、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値の第1の更新された値、ユーザがコンピュータ生成体験に関与している間に経時的に変化し得る1つ以上のタイプのバイオメトリックデータ、ユーザがコンピュータ生成体験に関与している間にユーザ自身のアクション(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又はコントロールとの直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)を通じて変化し得る1つ以上のタイプのバイオメトリックデータ、ある期間後に受信されるユーザの気分、喜び、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックを含む。方法10000において、コンピュータシステムは、第1のユーザに対応する(例えば、第1の時点又は期間よりも後の第2の時点又は期間における第1のユーザの生理学的状態に対応する)第1の更新されたバイオメトリックデータを受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点又は期間よりも後の第2の時点又は期間における第1のユーザの生理学的状態に対応する)第1の更新されたバイオメトリックデータが第1の基準とは異なる(例えば、より制限的な、より満たすことが困難な)第2の基準を満たすという判定に従って、第1のコンピュータ生成体験を第3の没入レベルで表示し(例えば、第3の没入レベルは第2の没入レベルよりも没入感の高い体験を提供する第3の没入レベルは第2の没入レベルよりも没入感の低い体験を提供する、など)、第3の没入レベルで表示された第1のコンピュータ生成体験は、第2の没入レベルで表示された第1のコンピュータ生成体験よりも第1のユーザの視野のより大きな部分を占有する(例えば、第1のユーザの視野のより大きな部分を占有する第1のコンピュータ生成体験は、任意選択的に、第1のコンピュータ生成体験が第1のユーザの視野のより小さな部分を占有する場合よりも没入感の高い体験を第1のユーザに提供する)。いくつかの実施形態では、第1の没入レベル、第2の没入レベル、及び第3の没入レベルは、任意選択的に、コンピュータ生成体験のユーザのビューに存在する仮想要素の量、コンピュータ生成体験において可視のままである物理的表面の数、コンピュータ生成体験の音響効果を再生するために使用される音声出力モード、コンピュータ生成体験によって描写される現実感レベル、コンピュータ生成体験によって表される次元数、及び/又はコンピュータ生成体験において利用可能にされる機能及び相互作用の数などが異なる。方法10000では、第1のユーザに対応する第1の更新されたバイオメトリックデータを受信したことに応じて、かつ第1のユーザに対応する第1の更新されたバイオメトリックデータが第1の基準を満たし、第2の基準を満たさない(例えば、心拍数が第1の閾値心拍数未満であるが第2の閾値心拍数よりも多い、血圧が第1の閾値血圧未満であるが第2の閾値血圧よりも高い、閾値時間の間のユーザの移動が第1の閾値移動量未満であるが第2の閾値移動量よりも大きい、ユーザの体温が第1の閾値体温未満であるが第2の閾値温度よりも高い、ストレスレベルのメトリックが閾値ストレスレベルよりも低いが第2の閾値ストレスレベルよりも高い、ユーザの気分に対応するメトリックが、ユーザがリラックスして幸せであるが、まだ集中しておらず安らかではないなどを示す)という判定に従って、コンピュータシステムは、第2の没入レベルで第1のコンピュータ生成体験を表示し続ける。いくつかの実施形態では、任意選択的に、第1のコンピュータ生成体験は、第1のユーザから受信される対応するバイオメトリックデータが第2の基準を満たすであろう状態に第1のユーザが入ることを支援する視覚及び音声ガイダンス(例えば、音楽、風景、鼓舞メッセージ、投薬記録の案内、視覚、音声、又は口頭での呼吸指示など)を含む。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、コンピュータ生成環境内に存在する仮想コンテンツの量を増加させること、及び/又はコンピュータ生成環境内に存在する周囲の物理的環境の表現の量を減少させることに対応する。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、コンピュータ生成コンテンツの増加した画像忠実度及び/又は空間範囲(例えば、角度範囲、空間深度など)、並びに周囲の物理的環境の表現の減少した画像忠実度及び/又は空間範囲を有する、コンテンツ表示の異なるモードに対応する。いくつかの実施形態では、第1の没入レベルは、物理的環境が第1の表示生成コンポーネントを介して(例えば、物理的環境のカメラビューとして、又は第1の表示生成コンポーネントの透明部分を介して)ユーザに完全に可視なパススルーモードであり、コンピュータ生成環境は、物理的環境のビューとして同時に可視な最小量の仮想要素を有する、又は物理的環境のユーザのビューの周辺の仮想要素(例えば、ディスプレイの周辺領域に表示されたインジケータ及びコントロール)を含む、物理的環境のパススルービューを含む。いくつかの実施形態では、第2の没入レベルは、物理的環境のパススルービューがコンピューティングシステムによって生成された仮想要素で拡張され、かつ、物理的環境のユーザのビューの中央部分に対応するコンピュータ生成環境内のポジションを有し、かつ/又は物理的環境内のロケーション及びオブジェクトに対応するコンピュータ生成環境内のポジションを有する(例えば、仮想コンテンツがコンピュータ生成環境のビュー内の物理的環境と統合される)複合現実モードである。いくつかの実施形態では、物理的環境のそのユーザのビューが第1の表示生成コンポーネントによって提供される仮想コンテンツのビューによって完全に置換される又は遮断される、仮想現実モードの第3の没入レベル。いくつかの実施形態では、異なる4つの没入レベルが存在し、第1の没入レベルは、第1の表示生成コンポーネントのパススルーモードに対応し、第2の没入レベルは、第1の表示生成コンポーネントの2つの別個のサブモードに対応する2つのサブレベルA及びB(例えば、物理的環境のパススルービューがユーザインタフェース又はユーザインタフェースオブジェクトの背景に表示されている間にユーザインタフェース又はユーザインタフェースオブジェクトがユーザの視野の主要部分に表示されている第2のレベル-A、及び仮想要素が物理的環境の拡張現実ビュー内の物理的環境内の物理的オブジェクトの表現と統合される第2のレベル-B)を含み、第3の没入レベルは、第1の表示生成コンポーネントの仮想現実モードに対応する。
第1のユーザに対応する第1の更新されたバイオメトリックデータが第1の基準とは異なる第2の基準を満たすという判定に従って、第2の没入レベルで表示される第1のコンピュータ生成体験よりも第1のユーザの視野のより大きな部分を占有する第3の没入レベルで第1のコンピュータ生成体験を表示し、第1のユーザに対応する第1の更新されたバイオメトリックデータが第1の基準を満たし、第2の基準を満たさないという判定に従って、第2の没入レベルで第1のコンピュータ生成体験を表示し続けることは、更なるユーザ入力(例えば、没入レベルを変更するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたとき、第3の没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、個別の没入レベル(例えば、第2の没入レベル、第3の没入レベルなど)で第1のコンピュータ生成体験を表示している、コンピュータシステムは、第1のユーザに対応する(例えば、コンピュータシステムは、低い没入レベルから個別の没入レベルで第1のコンピュータ生成体験の表示に遷移した後、第1の時点若しくは期間及び/又は第2の時点若しくは期間よりも後の第3の時点若しくは期間における第1のユーザの生理学的状態に対応する)第2の更新されたバイオメトリックデータを受信し、個別の没入レベルで表示される第1のコンピュータ生成体験は、第1の没入レベルよりも第1のユーザの視野のより大きな部分を占有する(例えば、個別の没入レベルは第2の没入レベル又は第3の没入レベルである)。いくつかの実施形態では、第2の更新されたバイオメトリックデータは、心拍数、呼吸数、体温、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、ユーザがコンピュータ生成体験に関与している間に経時的に変化し得る1つ以上のタイプのバイオメトリックデータ、ユーザがコンピュータ生成体験に関与している間にユーザ自身のアクション(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又は制御との直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)を通じて変化し得る1つ以上のタイプのバイオメトリックデータ、ある期間後に受信されるユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックに関する第2の更新された値を含む。第1のユーザに対応する(例えば、第1の時点若しくは期間及び/又は第2の時点若しくは期間よりも後の第3の時点若しくは期間における第1のユーザの生理学的状態に対応する)第2の更新されたバイオメトリックデータを受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点若しくは期間よりも後の第2の時点若しくは期間における第1のユーザの生理学的状態に対応する)第2の更新されたバイオメトリックデータが、個別の没入レベル(例えば、第2の没入レベル、第3の没入レベルなど)を有する第1のコンピュータ生成体験の表示に遷移するために満たされた個別の基準(例えば、第1の基準、第2の基準など)を満たさないという判定に従って、コンピュータシステムは、個別の没入レベル(例えば、第2の没入レベル、第3の没入レベルなど)を有する第1のコンピュータ生成体験を表示する前に使用されるより低い没入レベル(例えば、第1の没入レベル、第2の没入レベルなど)を有する第1のコンピュータ生成体験を表示する。いくつかの実施形態では、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更することは、現在受信されているバイオメトリックデータがもはや第2の基準を満たさないが、依然として第1の基準を満たすという判定に従って、第3の没入レベル(例えば、仮想現実モード)を有するコンピュータ生成環境の表示から、第2の没入レベル(例えば、複合現実モード、又は任意選択的に仮想現実コンテンツの同時表示を伴う一時的パススルーモード)を有するコンピュータ生成環境の表示に切り替えることを含む。いくつかの実施形態では、コンピュータ生成環境が第2の没入レベルで現在表示されており、かつ、コンピュータシステムが、現在のバイオメトリックデータがもはや第1の基準を満たさず、第2の基準を満たさないことを検出したときに、コンピューティングシステムは、コンピュータ生成環境を第1の没入レベルで表示することからコンピュータ生成環境を第2の没入レベルで表示することに切り替える(例えば、完全なパススルーモードから複合現実モード(例えば、複合現実モードのサブモードA)に切り替える、又はグラフィカルユーザインタフェース(例えば、ホーム画面、アプリケーション起動ユーザインタフェース)若しくはユーザインタフェースオブジェクト(例えば、アプリケーション起動アイコン、コンテンツアイテム及び体験の表現など)の表示をユーザの視野の主要部分に表示させる)。例えば、図7Jにおいて、いくつかの実施形態によれば、バイオメトリックデータ7312がインジケータ7326によって示される予め設定された閾値を満たすことに応じて、コンピュータ生成体験が高い没入レベルで表示された後、バイオメトリックデータが予め設定された閾値をもはや満たさないとき、コンピュータシステムは、任意選択的に、図7G~7Iに示される状態のいずれかに戻る。
第1のユーザに対応する第2の更新されたバイオメトリックデータが、個別の没入レベルで第1のコンピュータ生成体験を表示することに遷移するために満たされた個別の基準を満たさないという判定に従って、個別の没入レベルで第1のコンピュータ生成体験を表示する前に使用されるよりも低い没入レベルで第1のコンピュータ生成体験を表示することは、更なるユーザ入力(例えば、没入レベルを選択するための更なるユーザ入力)を必要とせずに条件のセットが満たされたときに、適切な没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312)は、第1のユーザの呼吸速度を含み、第1の基準は、第1の基準が満たされるために第1のユーザの呼吸速度が第1の閾値呼吸速度未満であるときに満たされる基準を含む。いくつかの実施形態では、呼吸速度などのバイオメトリックデータは、第1のユーザが、コンピュータシステムによって提供されるより深い没入型体験に入り、第1のユーザを取り囲む物理的環境からより少ない刺激を受ける準備ができているかどうかのインジケーションとして使用される。いくつかの実施形態では、より少ない呼吸速度は、任意選択的に、他のタイプのバイオメトリックデータと組み合わせて、ユーザがコンピュータ生成体験によって提供される誘導型瞑想の次の段階に移動する準備ができていることを示すために使用される。いくつかの実施形態では、バイオメトリックデータは、他のタイプの生理学的データを含み、第1の基準は、他のタイプの生理学的データのそれぞれのデータに対するそれぞれの閾値を含む。いくつかの実施形態では、少なくとも閾値数のバイオメトリックデータタイプについてのそれぞれの閾値は、第1の基準が満たされるように満たされなければならない。いくつかの実施形態では、第2の基準は、第2の基準が満たされるために、第1のユーザの呼吸速度が、第1の呼吸速度よりも低い第2の閾値呼吸速度を下回るときに満たされる基準を含む。いくつかの実施形態では、異なるタイプのバイオメトリックデータのための異なる(必ずしもより低いとは限らない)値が、第2の基準の閾値のために使用される。
第1のユーザの呼吸速度を含む、第1のユーザに対応するバイオメトリックデータが、第1のユーザの呼吸速度が第1の閾値呼吸速度未満であることを必要とする第1の基準を満たさないという判定に従って、第2の没入レベルで第1のコンピュータ生成体験を表示し、第1のユーザの呼吸速度を含む、第1のユーザに対応するバイオメトリックデータが、第1のユーザの呼吸速度が第1の閾値呼吸速度未満であることを必要とする第1の基準を満たさないという判定に従って、第1の没入レベルで第1のコンピュータ生成体験を表示し続けることは、更なるユーザ入力(例えば、没入レベルを選択するための更なるユーザ入力)を必要とせずに条件のセットが満たされたとき、適切な没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の基準は、バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、他のバイオメトリックデータなど)が、第1の基準が満たされるために、少なくとも閾値時間量の、1つ以上の予め設定された閾値(例えば、インジケータ7326によって示される閾値、他の閾値など)を満たすという要件を含む。例えば、いくつかの実施形態では、バイオメトリックデータは、第1のユーザの呼吸速度及び/又は第1のユーザの心拍数を含み、第1の基準は、第1のユーザの平均呼吸速度が少なくとも3分間にわたって15呼吸/分未満のままである、及び/又は第1のユーザの平均心拍数が少なくとも5分間にわたって65拍動/分未満のままであるときに満たされる。別の例では、バイオメトリックデータは、第1のユーザの血圧及び/又は第1のユーザの酸素濃度を含み、第1の基準は、第1のユーザの平均血圧が、少なくとも10分、120/80の第1の範囲(例えば、+/-10)のままであり、及び/又は第1のユーザの酸素濃度が、少なくとも3分間、99.9%を上回ったままであるときに満たされる。
第1のユーザに対応するバイオメトリックデータが、少なくとも閾値時間量必要とする第1の基準を満たすという判定に従って、第2の没入レベルで第1のコンピュータ生成体験を表示し、第1のユーザに対応する、第1のユーザの呼吸速度を含むバイオメトリックデータが、少なくとも閾値時間にわたって、1つ以上の予め設定された閾値を満たすことを必要とする第1の基準を満たさないという判定に従って、第1の没入レベルで第1のコンピュータ生成体験を表示し続けることは、更なるユーザ入力(例えば、没入レベルを選択するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、適切な没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の1つ以上の第1の部分のロケーションに対応するそれぞれの第1のポジションに仮想コンテンツ(例えば、任意選択的に経時的に変化している第1のコンピュータ生成体験の仮想コンテンツ)を表示することを含む(例えば、仮想コンテンツは、仮想コンテンツが表示されなかった場合にユーザの視野内にあったはずの物理的環境の第1の部分(例えば、単一の連続部分、又は複数の別個のばらばらの部分など)の表現に重なる、その表現の表示を置換する、又はその表現のビューを遮断するなど)(例えば、物理的環境の1つ以上の第2の部分(第1の部分とは異なる)の表現の表示(例えば、それぞれの第2のポジションで)を維持している間(例えば、物理的環境の部分は、表示生成コンポーネントを介してユーザに対して(例えば、仮想コンテンツに隣接して、仮想コンテンツの周囲背景としてなど)可視のままである)、物理的環境の拡張現実ビューを表示する、又はいくつかのユーザインタフェースオブジェクトを有する物理的環境の完全なパススルービューを表示する)。いくつかの実施形態では、第1の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の表現(例えば、カメラビュー、透明ディスプレイを通じたパススルービューなど)に重ねられる、物理的環境の表現の表示を置換する、又は物理的環境の表現のビューを遮断する、仮想ウィンドウ又は画面内に仮想コンテンツを表示することを含む。いくつかの実施形態では、第1の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境内の第1の物理的表面(例えば、現実の窓、壁、テーブル上面など)又は第1の数の(例えば、全てよりも少ない)物理的表面(例えば、天井及び床ではなく全ての壁、家具ではなく全ての壁、天井及び床、壁ではなくテーブル上面など)のロケーションに対応するポジションに仮想コンテンツを表示することを含む。第2の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の1つ以上の第1の部分(例えば、ユーザの視野の中心付近の部分)のロケーションに対応するそれぞれの第1のポジション、及び物理的環境の1つ以上の第2の部分(例えば、ユーザの視野の中心からより離れた部分)の少なくとも一部に対応するそれぞれの第2のポジションに仮想コンテンツ(例えば、任意選択的に経時的に変化している第1のコンピュータ生成体験の仮想コンテンツ)を表示することを含む(例えば、第2の没入レベルでは、表示生成コンポーネントを通じてユーザに可視のままである物理的環境の部分がより少ない)。いくつかの実施形態では、第2の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の表現(例えば、カメラビュー、透明ディスプレイを通じたパススルービューなど)のより多くの又はより広い部分上に重ねられる、その表示を置換する、又はそのビューを遮断するなどの仮想オブジェクトを有する三次元環境内に仮想コンテンツを表示することを含む。いくつかの実施形態では、第2の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境内のより多くの物理的表面及び/又はより多くのタイプの物理的表面(例えば、現実の窓、壁、テーブル上面、家具など)のロケーションに対応するポジションに仮想コンテンツを表示することを含む。いくつかの実施形態では、第3の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の任意の部分の表現を表示することなく仮想環境を表示すること(例えば、仮想現実環境を表示すること)を含む。いくつかの実施形態では、仮想環境は依然として物理的環境に対応し、例えば、仮想環境内の仮想オブジェクト及び表面のロケーション及び空間関係は依然として、物理的環境内の少なくともいくつかの物理的オブジェクト及び表面のロケーション及び空間関係に対応する。いくつかの実施形態では、仮想環境は、最小限の範囲(例えば、重力の方向及び床の向きなど)を除いて、物理的環境に対応しない。いくつかの実施形態では、第1の没入レベルで表示される第1のコンピュータ生成体験は拡張現実体験であり、第2の没入レベルで表示される第1のコンピュータ生成体験は仮想体験である。
物理的環境の1つ以上の第2の部分の表現の表示を維持している間、物理的環境の1つ以上の第1の部分のロケーションに対応するそれぞれの第1のポジションに仮想コンテンツを表示することを含む、第1の没入レベルで第1のコンピュータ生成体験を表示することと、物理的環境の1つ以上の第1の部分のロケーションに対応するそれぞれの第1のポジション及び物理的環境の1つ以上の第2の部分の少なくともいくつかに対応するそれぞれの第2のポジションに仮想コンテンツを表示することを含む、第2の没入レベルで第1のコンピュータ生成体験を表示することとは、ユーザに改善された視覚的フィードバック(例えば、現在の没入レベルに関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、又は他のバイオメトリックデータ)(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された持続時間の直近の期間にわたって受信されたバイオメトリックデータなど)の変化が第1の基準を満たすように進行している(例えば、心拍数が第1の閾値心拍数に近づくように減速している、呼吸数が第1の閾値呼吸数に近づくように減速している、体温が第1の閾値体温に近づくように減少している、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、及びコンピュータ生成体験へのユーザの関与中に経時的に変動し得る1つ以上のタイプのバイオメトリックデータ、コンピュータ生成体験へのユーザの関与中にユーザ自身のアクションを通じて変動し得る1つ以上のタイプのバイオメトリックデータ(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又はコントロールとの直接的相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックが、継続すると第1の基準が満たされる傾向を伴って変化している)という判定に従って、コンピュータシステムは、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部の視覚的強調を徐々に低減し(例えば、ぼかす、暗くする、遮断する、置換する、オーバーレイなど)、第2の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の表現の一部が第1の表示生成コンポーネントを介して可視であることを停止するように、物理的環境の表現の一部に対応するポジションに第1のコンピュータ生成体験の仮想コンテンツを表示することを含む。例えば、いくつかの実施形態では、第1のコンピュータ生成体験が第1の没入レベルで表示されるとき、第1のユーザに面する物理的な壁の表現(例えば、壁のパススルービュー又はカメラビュー)は、仮想壁(例えば、仮想壁紙を有する)、仮想窓(例えば、仮想ビューを有する)、仮想風景(例えば、開放海洋ビュー、開放風景など)、仮想デスクトップ、仮想映画スクリーンなどによって遮断される、置換される、又は重ねられるが、室内の他の物理的な壁、天井、床、家具は、表示生成コンポーネントを通じてユーザに対して依然として可視である。第1のユーザから受信されたバイオメトリックデータが第1の基準を満たすとき、コンピュータシステムは、依然として可視である物理的環境の表現の部分を徐々にぼやかし、及び/又は暗くし、それらを仮想コンテンツで置換する(例えば、既存の仮想コンテンツを拡張する、新しい仮想コンテンツを追加するなど)。いくつかの実施形態では、コンピュータシステムは、仮想壁紙、仮想部屋装飾、仮想風景、仮想映画スクリーン、仮想デスクトップなどの仮想コンテンツを表示し、これは、物理的環境の表現のぼやけた部分及び/又は暗くなった部分を徐々に置換する(例えば、物理的環境の表現の部分の後ろからフェードインする、又は物理的環境の表現の部分の周囲領域からクリープインするなど)。遷移が完了すると、第1のコンピュータ生成体験のユーザの視野は拡大されており、表示生成コンポーネントを介して見える物理的環境が少なくなる。
第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して視認可能であった物理的環境の表現の少なくとも一部の視覚的強調を徐々に低減することと、第2の没入レベルで第1のコンピュータ生成体験を表示することとは、第1のユーザに対応するバイオメトリックデータの変化が第1の基準を満たすことに向かって進行しているという判定に従って、物理的環境の表現の一部が第1の表示生成コンポーネントを介して視認可能であることを停止するように物理的環境の表現の一部に対応するポジションに第1のコンピュータ生成体験の仮想コンテンツを表示することを含み、ユーザに改善された視覚的フィードバック(例えば、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かって進行しているという改善された視覚的フィードバック、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かう相対的な進行に関する視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、又は他のバイオメトリックデータ)(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された持続時間の直近の期間にわたって受信されたバイオメトリックデータなど)の変化が第1の基準を満たすように進行している(例えば、心拍数が第1の閾値心拍数に近づくように減速している、呼吸数が第1の閾値呼吸数に近づくように減速している、体温が第1の閾値体温に近づくように減少している、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、及びコンピュータ生成体験へのユーザの関与中に経時的に変動し得る1つ以上のタイプのバイオメトリックデータ、コンピュータ生成体験へのユーザの関与中にユーザ自身のアクションを通じて変動し得る1つ以上のタイプのバイオメトリックデータ(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又はコントロールとの直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックが、継続すると第1の基準が満たされる傾向を伴って変化している)という判定に従って、コンピュータシステムは、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部の視覚的特性を、第1のユーザに対応するバイオメトリックデータの変化に対応する量だけ変更する(例えば、ぼかす、暗くする、遮断する、置換する、重ね合わせるなど)。例えば、いくつかの実施形態では、第1のコンピュータ生成体験が第1の没入レベルで表示されるとき、第1のユーザに面する物理的な壁の表現(例えば、壁のパススルービュー又はカメラビュー)は、仮想壁(例えば、仮想壁紙を有する)、仮想窓(例えば、仮想ビューを有する)、仮想風景(例えば、開放海洋ビュー、開放風景など)、仮想デスクトップ、仮想映画スクリーンなどによって遮断される、置換される、又は重ねられるが、室内の他の物理的な壁、天井、床、家具は、表示生成コンポーネントを通じてユーザに対して依然として可視である。第1のユーザから受信されたバイオメトリックデータが、第1の基準を満たす傾向を伴って変化するとき、コンピュータシステムは、仮想コンテンツによってまだ覆われていないユーザの視野のエリアに適用されるぼかし及び/又は暗化の量を徐々に強化する。任意選択的に、バイオメトリックデータが反対の傾向で変化する場合、ぼかし及び/又は暗化の量は徐々に低減され、それらのエリア内の物理的環境のビューの鮮明度は再び改善する。
第1のユーザに対応するバイオメトリックデータの変化が第1の基準を満たすことに向かって進行しているという判定に従って、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して視認可能であった物理的環境の表現の少なくとも一部の視覚的特性を、第1のユーザに対応するバイオメトリックデータの変化に対応する量だけ変化させることは、ユーザに改善された視覚的フィードバック(例えば、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かって進行しているという改善された視覚的フィードバック、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かう相対的な進行に関する改善された視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
くつかの実施形態では、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、又は他のバイオメトリックデータ)(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された持続時間の直近の期間にわたって受信されたバイオメトリックデータなど)の変化が第1の基準を満たすように進行している(例えば、心拍数が第1の閾値心拍数に近づくように減速している、呼吸数が第1の閾値呼吸数に近づくように減速している、体温が第1の閾値体温に近づくように減少している、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、及びコンピュータ生成体験へのユーザの関与中に経時的に変動し得る1つ以上のタイプのバイオメトリックデータ、コンピュータ生成体験へのユーザの関与中にユーザ自身のアクションを通じて変動し得る1つ以上のタイプのバイオメトリックデータ(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又はコントロールとの直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックが、継続すると第1の基準が満たされる傾向を伴って変化している)という判定に従って、コンピュータシステムは、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部に、第1のユーザに対応するバイオメトリックデータの変化の量だけ仮想コンテンツの表示を拡張する(例えば、遮断する、置換する、重ね合わせるなど)。例えば、いくつかの実施形態では、第1のコンピュータ生成体験が第1の没入レベルで表示されるとき、第1のユーザに面する物理的な壁の表現(例えば、壁のパススルービュー又はカメラビュー)は、仮想壁(例えば、仮想壁紙を有する)、仮想窓(例えば、仮想ビューを有する)、仮想風景(例えば、開放海洋ビュー、開放風景など)、仮想デスクトップ、仮想映画スクリーンなどによって遮断される、置換される、又は重ねられるが、室内の他の物理的な壁、天井、床、家具の表現は、依然として表示生成コンポーネントを介してユーザに対して表示される。第1のユーザから受信されたバイオメトリックデータが、第1の基準を満たす傾向を伴って変化するとき、コンピュータシステムは、仮想コンテンツによって覆われるユーザの視野の面積を徐々に拡大し、周囲の物理的環境のビューのより多くを遮断する。任意選択的に、バイオメトリックデータが反対の傾向で変化する場合、以前に遮断された/覆われたエリアは徐々に復元され、それらのエリア内の物理的環境のビューを再び明らかにする。
第1のユーザに対応するバイオメトリックデータの変化が第1の基準を満たすことに向かって進行しているという判定に従って、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部分上への仮想コンテンツの表示を、第1のユーザに対応するバイオメトリックデータの変化に対応する量だけ拡大することは、ユーザに改善された視覚的フィードバック(例えば、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かって進行しているという改善された視覚的フィードバック、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かう相対的な進行に関する改善された視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の基準は、第1の基準が満たされるためにバイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、又は他のバイオメトリックデータなど)が受信されているときに、第1のユーザ(例えば、図7G~図7Jのユーザ7002、又は別のユーザなど)が第1のタイプの閾値移動量未満(例えば、閾値時間量の間の第1のタイプの予め設定された閾値移動量未満、第1のタイプの閾値累積移動量未満、第1のタイプの移動の絶対量未満など)を行うという基準を含む(例えば、第1のタイプの移動は、頭部の移動、身体の中心の移動、四肢の移動、及び/又は目の移動などを含む)。例えば、いくつかの実施形態では、受信されるバイオメトリックデータが有効であることを確実にするために、及び/又は第1のユーザが落ち着いてコンピュータ生成体験のより高い没入レベルに入ることを確実にするために、第1のユーザは、バイオメトリックデータが受信及び評価されるとき、実質的に静止したままであること必要がある。いくつかの実施形態では、閾値時間量の間に第1のユーザの閾値移動量を超える移動が検出された場合、コンピュータシステムは、バイオメトリックデータが第1の基準においてバイオメトリックデータに対して指定された要件(例えば、呼吸数、心拍数などに対する閾値)を満たす場合であっても、第2の没入レベル(又は別の次の没入レベル)を有する第1のコンピュータ生成体験の表示を(例えば、取りやめる、停止する、反転させるなど)。
第1のユーザに対応するバイオメトリックデータが、バイオメトリックデータが受信されているときに第1のユーザが第1のタイプの閾値移動量未満の移動をすることを必要とする第1の基準を満たすという判定に従って、第2の没入レベルで第1のコンピュータ生成体験を表示し、第1のユーザに対応する、第1のユーザの呼吸速度を含むバイオメトリックデータが、バイオメトリックデータが受信されているときに第1のユーザが第1のタイプの閾値移動量未満の移動をすることを必要とする第1の基準を満たさないという判定に従って、第1の没入レベルで第1のコンピュータ生成体験を表示し続けることは、更なるユーザ入力(例えば、没入レベルを選択するための更なるユーザ入力)を必要とせずに、条件のセットが満たされたときに、適切な没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第2の没入レベルで第1のコンピュータ生成体験を表示している間、コンピュータシステムは、第1のユーザ(例えば、図7G~図7Jのユーザ7002、別のユーザなど)によって実行されている第1のタイプの移動(例えば、頭部の移動、身体の中心の移動、四肢の移動、目の移動など)を検出する。第1のユーザによって実行されている第1のタイプの移動を検出したことに応じて、かつ第1のタイプの移動が予め設定された閾値移動量を超える(例えば、閾値時間中の予め設定された閾値移動量を超える、累積移動量を超える、絶対移動量を超えるなど)という判定に従って、コンピュータシステムは、第1の没入レベルで第1のコンピュータ生成体験を再表示する。例えば、いくつかの実施形態では、第1のユーザから受信されたバイオメトリックデータが第1の基準を満たした後、第1のコンピュータ生成体験が第2の没入レベルで表示されている間、第1のユーザが1つ以上の予め設定された方法(例えば、第1のユーザが立った、頭を動かした、腕を伸ばした、視線を動かしたなど)で閾値量を超えて移動した場合、コンピュータシステムは、第1のユーザの移動を、より没入レベルの高い体験を終了する意図として解釈し、以前に表示されたより没入レベルの低いコンピュータ生成体験に戻る。この特徴は、第1のユーザが瞑想又は睡眠のためにコンピュータ生成体験を使用しているときに有用であり、第1のユーザの移動は、ユーザが正常状態に戻ることを可能にする。いくつかの実施形態では、受信されるバイオメトリックデータが有効であることを確実にするために、及び/又は第1のユーザがコンピュータ生成体験のより没入型のレベルに入るように落ち着きたいことを確実にするために、第1のユーザは、バイオメトリックデータが受信及び評価されるとき、実質的に静止したままであることを必要とされる。いくつかの実施形態では、閾値時間中に第1のユーザの閾値移動量を超える移動が検出された場合、コンピュータシステムは、バイオメトリックデータが第1の基準においてバイオメトリックデータに対して指定された要件(例えば、呼吸数、心拍数などに対する閾値)を依然として満たすかどうかにかかわらず、第2の没入レベル(又は次の没入レベルが何であれ)を有する第1のコンピュータ生成体験の表示を停止又は反転させる。
第1のユーザによって実行されている第1のタイプの移動を検出したことに応じて、かつ第1のタイプの移動が予め設定された閾値移動量を超えるという判定に従って、第1の没入レベルで第1のコンピュータ生成体験を再表示することは、更なるユーザ入力(例えば、第1の没入レベルを選択するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、第1の没入レベルで第1のコンピュータ生成体験を再表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、(例えば、図7Jに示すように)第2の没入レベルで第1のコンピュータ生成体験を表示している間、コンピュータシステムは、第1のユーザ(例えば、図7Jのユーザ7002)によって行われている第1のタイプの移動(例えば、頭部の移動、身体の中心の移動、四肢の移動、目の移動など)を検出する。第1のユーザによって実行されている第1のタイプの移動を検出したことに応じて、かつ第1のタイプの移動が予め設定された閾値移動量を超える(例えば、閾値時間量の間の予め設定された閾値移動量を超える、蓄量な移動を超える、絶対的な移動量を超えるなど)という判定に従って、コンピュータシステムは、第1の視点で第2の没入レベルで第1のコンピュータ生成体験を表示することから、第1の視点とは異なる第2の視点で第2の没入レベルで第1のコンピュータ生成体験を表示することに切り替える(例えば、第2の没入レベルで第1のコンピュータ生成体験の視点の変化は、第1のユーザによって実行される第1のタイプの移動に対応する)。例えば、バイオメトリックデータの変化によってより没入的な体験がトリガされると、第1のユーザは、仮想環境のビューが表示される視点を変更するために、物理的環境内で動き回る、自分の頭を回転させる、又は異なる方向を見ることができる。
第1のユーザによって実行されている第1のタイプの移動を検出したことに応じて、かつ第1のタイプの移動が予め設定された閾値移動量を超えるという判定に従って、第1の視点で第2の没入レベルで第1のコンピュータ生成体験を表示することから、第1の視点とは異なる第2の視点で第2の没入レベルで第1のコンピュータ生成体験を表示することへ切り替えることは、更なるユーザ入力(例えば、第1の視点から第2の視点に変更するための更なるユーザ入力)を必要とせずに、条件のセットが満たされたときに表示される視点を切り替える。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のコンピュータ生成体験(例えば、図7G~図7Jの第1の表示生成コンポーネント7100を介して示されるコンピュータ生成体験、別のコンピュータ生成体験など)を第1の没入レベルで表示することから、第1のコンピュータ生成体験を第2の没入レベルで表示することへの遷移は、第1の基準が満たされた時間に対応する時点で行われる不連続の遷移(例えば、徐々にぼやけたりフェードインしたりすることなく、物理的表面に対応するポジションを横切る1つ以上の方向に沿って増分的に変化することなく、仮想コンテンツを有する物理的環境の表現の大部分を同時に置換したり、その部分のビューを遮断したり、及び/又はその部分に重ね合わされる急激な変化)である。例えば、いくつかの実施形態では、第1のコンピュータ生成体験は、第1の基準が満たされる前に、延長された期間にわたって第1の没入レベルで表示され、第1の基準がバイオメトリックデータによって満たされると、第2の没入レベルで表示された第1のコンピュータ生成体験が、第1の没入レベルで表示された第1のコンピュータ生成体験を置換するときに示される明確かつ突然の視覚的変化が生じる。
第1の没入レベルでの第1のコンピュータ生成体験の表示から第2の没入レベルでの第1のコンピュータ生成体験の表示への遷移は、第1の基準が満たされる時間に対応する時点で行われる不連続の遷移によって、改善された視覚的フィードバック(例えば、コンピュータシステムが第1の没入レベルから第2の没入レベルに遷移したという改善された視覚的フィードバック、第1の基準が満たされたという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の没入レベルで表示される第1のコンピュータ生成体験は、第1の仮想環境を描写し、第2の没入レベルで表示される第1のコンピュータ生成体験は、第1の仮想環境よりも大きい仮想深度を有する第2の仮想環境を描写する(例えば、第1の仮想環境は、平坦な2次元表面上に仮想コンテンツを有し、第2の仮想環境は、第1のユーザの視点とは異なる深度に仮想コンテンツを有する)。第1の仮想環境を描写する第1の没入レベルで第1のコンピュータ生成体験を表示し、第1の仮想環境よりも大きい仮想深度を有する第2の仮想環境を描写する第2の没入レベルで第1のコンピュータ生成体験を表示することは、ユーザに改善された視覚的フィードバック(例えば、コンピュータシステムが第1又は第2の没入レベルを表示しているかどうかに関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の没入レベルで第1のコンピュータ生成体験を表示することは、第1の没入レベルで第1のコンピュータ生成体験を表示している間に受信されたバイオメトリックデータの変化に従って変化する少なくとも第1の視覚的特性(例えば、第1の仮想オブジェクトの移動、照明の変化など)で第1のコンピュータ生成体験を表示することを含み、第2の没入レベルで第1のコンピュータ生成体験を表示することは、第2の没入レベルで第1のコンピュータ生成体験を表示している間に受信されたバイオメトリックデータの変化に従って変化する少なくとも第2の視覚的特性(例えば、第1の仮想オブジェクトの移動、照明の変化など)で第1のコンピュータ生成体験を表示することを含む。例えば、いくつかの実施形態では、第1の没入レベルで表示される第1のコンピュータ生成体験は、仮想森林の夜間シーンへの表示域を示し、仮想木は、暗い仮想空上の月及び星によって薄暗く照らされる。呼吸数の減少及び/又は酸素濃度の増加など、第1のユーザから受信されたバイオメトリックデータの変化に従って、仮想森林に示される照明レベルはそれに応じて上昇し、仮想の暗い空は徐々に明るく赤くなり、夜明けの到来をシミュレートする。第1の基準がバイオメトリックデータによって満たされるとき、第2没入レベルで表示される第1のコンピュータ生成体験は、仮想森林によって占有されているユーザの視野内の拡張されたエリアを示し(例えば、仮想森林は、ユーザの周囲に拡張し、三次元環境の現在表示されているビューに対応する視点を取り囲む)、仮想地平線上で太陽の縁が可視な状態で仮想シーン内で夜が明ける。呼吸数の継続的な減少(例えば、閾値レベルまでの低下)及び/又は酸素濃度の継続的な増加(例えば、閾値レベルまでの上昇)など、第1のユーザから受信されたバイオメトリックデータの更なる変化に従って、仮想森林に示される照明レベルはそれに応じて増加し続け、仮想空は徐々に明るくなり、昼間の到来をシミュレートする。別の例では、第1の没入レベルで表示される第1のコンピュータ生成体験は、第1のユーザの正面の第1の物理的壁面のロケーションに対応する拡張現実環境内のポジションにおける衝突波を伴う仮想海洋ビューを示す。呼吸数の減少及び/又は心拍数の減少など、第1のユーザから受信されたバイオメトリックデータの変化に従って、海洋の波の頻度及び/又は大きさはそれに応じて減少する。第1の基準がバイオメトリックデータによって満たされるとき、第2の没入レベルで表示される第1のコンピュータ生成体験は、ユーザの視野内の拡張されたエリアが海洋シーンによって占有されていることを示す(例えば、仮想海洋ビューは、2つの側壁のロケーションに対応するポジションにも拡張する)。呼吸数の継続的な減少(例えば、閾値レベルまでの低下)及び/又は心拍数の継続的な減少(例えば、閾値レベルまでの低下)などの、第1のユーザから受信されたバイオメトリックデータの更なる変化に従って、仮想海洋の波の頻度及び/又は大きさは、それに応じて減少し続ける。
第1の没入レベルで第1のコンピュータ生成体験を表示することは、第1の没入レベルで第1のコンピュータ生成体験を表示している間に受信されたバイオメトリックデータの変化に従って変化する少なくとも第1の視覚的特性で第1のコンピュータ生成体験を表示することを含み、第2の没入レベルで第1のコンピュータ生成体験を表示することは、第2の没入レベルで第1のコンピュータ生成体験を表示している間に受信されたバイオメトリックデータの変化に従って変化する少なくとも第2の視覚的特性で第1のコンピュータ生成体験を表示することを含み、ユーザに改善された視覚的フィードバック(例えば、コンピュータシステムが第1又は第2の没入レベルを表示しているかどうかに関する改善された視覚的フィードバック、第1のユーザに対応するバイオメトリックデータの変化に関する改善された視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザ(例えば、図7G~7Jのユーザ7002、別のユーザなど)の生理学的状態に対応する)バイオメトリックデータ(例えば、図7G~7Jのバイオメトリックデータ7312、他のバイオメトリックデータなど)(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したことに応じて、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された期間の直近の期間にわたって受信されたバイオメトリックデータなど)が第1の基準を満たす(例えば、図7Jに示すように、バイオメトリックデータがインジケータ7326によって示される閾値を満たす)という判定に従って、コンピュータシステムは、音声出力モードを第1の音声出力モードから第2の音声出力モードに(例えば、ステレオサウンドからサラウンドサウンドに、ヘッドロック音声から空間音声になど)変更し、第1の音声出力モードは、第2の音声出力モードよりも少ない計算制御変数(例えば、各音源の音量、各音源の位相、音源の数、利用可能な音源の作動シーケンスなど)を有する。
第1のユーザに対応するバイオメトリックデータが第1の基準を満たすという判定に従って、音声出力モードを第1の音声出力モードから、第1の音声出力モードよりも多くの計算制御変数を有する第2の音声出力モードに変更することは、改善された音声フィードバック(例えば、コンピュータシステムが第1の没入レベルから第2の没入レベルに遷移したという改善された音声フィードバック、第1のユーザに対応するバイオメトリックデータが第1の基準を満たしたという改善された音声フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
図10における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、11000、及び12000)に関して本明細書で記載した他のプロセスの詳細はまた、図10に関連して上述した方法10000に類似の方式で適用可能であることに留意されたい。例えば、方法10000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法8000、9000、11000、及び12000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図11は、いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約する方法のフローチャートである。
いくつかの実施形態では、方法11000は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法11000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法11000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。
いくつかの実施形態では、方法11000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。
コンピュータシステムは、物理的環境の第1のビュー(例えば、図7Kのビュー7340、又は別のビューなど)を表示し(11002)、物理的環境の第1のビューは、物理的環境の第1の部分の第1の表現(例えば、図7Kの表現7350’、7348’など)を含む(例えば、第1の表現は、物理的環境の第1の部分の通常のカラー又はB/Wカメラビュー、表示生成コンポーネントのパススルー部分を通じた物理的環境のビューなどである)(例えば、第1の表現は、1つ以上のタイプのコンピュータ生成感覚増強なしに表示されるベースライン表現である)。物理的環境の第1のビューを表示している間、コンピュータシステムは、2つ以上のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、熱視、顕微鏡視、暗視、スーパーヒアリングなど)のうちの第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、熱視、顕微鏡など)を作動させる要求に対応する第1のユーザ入力(例えば、第1のユーザインタフェースコントロールの選択、第1の方式での第1のハードウェアボタンの作動、第1の所定のジェスチャ入力の実行、第1の予め設定された音声コマンドの発話など)を検出する(11004)。第1のユーザ入力を検出したことに応じて、コンピュータシステムは、物理的環境の第2のビュー(例えば、図7Lに示す第2のビュー7361、又は別のビューなど)を表示し(11006)、物理的環境の第2のビューは、物理的環境の第1の部分の第2の表現(例えば、図7Lの表現7350’’、7348’’など)を含み、物理的環境の第1の部分の第2の表現は、第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、熱視、暗視など)に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)を有する。いくつかの実施形態では、物理的環境の第1の部分の表現は、適用される感覚調整による光及び/又は色スペクトルの異なる部分の増強及び/又は抑制に起因して、表現内にキャプチャされた主題のサイズ、解像度、焦点距離、倍率、並びに色及び光強度の分布に関して、ベースライン表現に対して変更される。図7K~図7Lに示される例では、表現7350’’及び7348’’は、ビュー7340内の表現7350’及び7348’と比較して、拡大される及び/又はビュー7361の視点のより近くに移動される。物理的環境の第2のビュー(例えば、図7Lのビュー7361、又は別のビューなど)を表示している間、コンピュータシステムは、2つ以上のタイプのコンピュータ生成感覚調整のうちの第2のタイプのコンピュータ生成感覚調整を作動させる要求に対応する第2のユーザ入力(例えば、第2のユーザインタフェースコントロールの選択、第2の方式での第1のハードウェアボタンの作動、第1の方式での第2のハードウェアボタンの作動、第2の所定のジェスチャ入力の実行、第1の予め設定された音声コマンドの発話など)を検出し(11008)、第2のタイプのコンピュータ生成感覚調整は、第1のタイプのコンピュータ生成感覚調整とは異なる。第2のユーザ入力を検出したことに応じて、コンピュータシステムは、物理的環境の第3のビュー(例えば、ビュー7364、又は別のビューなど)を表示し(11010)、物理的環境の第3のビューは、物理的環境の第1の部分の第3の表現(例えば、表現7350’’’、7348’’’など)を含み、物理的環境の第1の部分の第3の表現は、第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視など)に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第2のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)に従って物理的環境の第2の表現に対して調整された第2の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)とを含む(例えば、第2の表示特性は、第1のタイプ及び第2のタイプの感覚増強のいくつかの組み合わせにおいて第1の表現及び第2の表現において同じ値を有し、第2の表示特性は、第1のタイプ及び第2のタイプの感覚増強のいくつかの組み合わせにおいて第1の表現及び第2の表現において異なる値を有する)。図7K~図7Mに示される例では、表現7350’’及び7348’’は、ビュー7361内の表現7350’及び7348’と比較して拡大され、及び/又はビュー7340の視点より近くに移動され、表現7350’’’及び7348’’’は、表現7350’’及び7348’’と比較して色及び強度が変更される。
いくつかの実施形態では、物理的環境の第3のビュー(例えば、図7Mのビュー7364、又は別のビューなど)を表示している間、コンピュータシステムは、2つ以上のタイプのコンピュータ生成感覚調整のうちの、第1のタイプのコンピュータ生成感覚調整及び第2のタイプのコンピュータ生成感覚調整とは異なる第3のタイプのコンピュータ生成感覚調整(例えば、図7Mのアフォーダンス7358に対応する調整機能、まだ作動されていない別の調整機能など)(例えば、両眼視、顕微鏡視、暗視、熱視、カラーフィルタなど)を作動させる要求に対応する第3のユーザ入力を検出し、第3のユーザ入力の検出に応じて、コンピュータシステムは、物理的環境の第4のビューを表示し、物理的環境の第4のビューは物理的環境の第1の部分の第4の表現を含み、物理的環境の第1の部分の第4の表現は、第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第2のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)に従って物理的環境の第2の表現に対して調整される第2の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第3のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)に従って物理的環境の第3の表現に対して調整される第3の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)とを有する。
2つ以上のタイプのコンピュータ生成感覚調整のうちの第3のタイプのコンピュータ生成感覚調整を作動させる要求に対応する第3のユーザ入力を検出したことに応じて、第1のタイプのコンピュータ生成感覚調整に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する物理的環境の第1の部分の第4の表現を含む物理的環境の第4のビューを表示することは、追加の表示されるコントロール(例えば、第1、第2、又は第3のタイプのコンピュータ生成感覚調整を選択及び/又は作動させるための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、(例えば、図7K~図7Lに示される)遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、双眼鏡視、単眼鏡視、望遠鏡視など)(例えば、ユーザにより近く見えるようにオブジェクトの焦点距離を低減すること)を含み、第2のタイプのコンピュータ生成感覚調整は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れるので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてさほど遠くには現れず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有する。物理的環境の第3の表現を表示することは、任意選択的に第2の仮想ポジションよりもユーザの視点又は仮想ポジションに更に近い第3の仮想ポジションに、遠隔の物理的オブジェクトの第2の表現のサイズに対して正の倍率(例えば、100倍、20倍など)で、遠隔の物理的オブジェクトの表現を表示することを含む(例えば、遠隔の物理的オブジェクトは、第2又は第3の仮想ポジションで拡大されるように見える)。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、第1の距離(例えば、30メートル、50メートルなど)離れた木のカメラビューを表示し、次いで、望遠鏡ビューが作動された状態で、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)離れた仮想ポジションに木の望遠鏡ビューを表示し、望遠鏡ビュー及び顕微鏡ビューの両方が作動された状態で、表示生成コンポーネントは(例えば、5メートル、10メートルなど)離れた現在の仮想ポジションに木の少なくとも一部の拡大ビュー(例えば、30倍、100倍など)を表示する。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び顕微鏡ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。
第1のユーザ入力を検出したことに応じて、遠くの物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、第2のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠くのオブジェクトを見るためのシミュレートされた望遠鏡視と近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視との間で選択又は切換を行う追加の表示されるコントロールでUIを雑然とさせることなく、追加の表示された制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、7K~7Lに示される)(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含み、第2のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下での高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジション(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)に、依然として低光量条件下で遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れ、物理的環境の第1の表現が暗く見え、物理的環境の低光量条件に起因してオブジェクトが明確に識別できないので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジション(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)だが、依然として低光量条件下で、遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてより遠くに見えず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有するが、物理的環境の第2の表現は依然として暗く見え、物理的環境の低光量条件のためにオブジェクトは明確に識別できない。物理的環境の第3の表現を表示することは、増強された輝度及び/又はコントラストで(例えば、低光量カメラからの画像で向上されて、又は複数の写真を組み合わせること及び/又は機械学習を使用することなどによってデジタル的に向上されて)、第2の仮想ポジションにおける遠隔の物理的オブジェクトの表現を表示することを含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間に第1の変位量(例えば、30メートル、50メートルなど)離れた木のカメラビューを表示し、次いで、望遠鏡ビューが作動された状態で、表示生成コンポーネントは、現在表示されている物理的環境の表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)だけ離れた仮想ポジションに木の望遠鏡ビューを表示するが、シーン全体は、夜間の低光量条件のために依然として暗く、望遠鏡ビュー及び暗視の両方が作動された状態で、表示生成コンポーネントは、(例えば、5メートル、10メートルなど)離れた現在の仮想ポジションに木の明るく高コントラストの画像を表示する。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び暗視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。
第1のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠隔のオブジェクトを見るためのシミュレートされた望遠鏡視と、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の表示された制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、7K~7Lに示される)(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含み、第2のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、7L~7Mに示される)(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れるので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてさほど遠くには現れず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有する。物理的環境の第3の表現を表示することは、第2の仮想ポジションにおける遠隔の物理的オブジェクトの表現を、その熱放射プロファイル又は温度マップと共に表示することを含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、第1の距離(例えば、30メートル、50メートルなど)だけ離れた木のカメラビューを表示し、次いで、望遠鏡ビューが作動された状態で、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)だけ離れた仮想ポジションに木の望遠鏡ビューを表示し、望遠鏡ビューと熱視の両方が作動された状態で、表示生成コンポーネントは、(例えば、5メートル、10メートルなど離れた)現在の仮想ポジションに、木の葉の間に隠れたリスの明るいプロファイルを示す木のヒートマップを表示する。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。
第1のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠隔のオブジェクトを見るためのシミュレートされた望遠鏡視と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視との間で選択又は切換を行うための追加の表示されるコントロールでUIを雑然とさせることなく、追加の表示された制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、(例えば、7K~7Lに示される)遠隔の物理的オブジェクトを見るためにシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含み、第2のタイプのコンピュータ生成感覚調整は、フィルタ(例えば、カラーフィルタ、光周波数フィルタ、強度フィルタ、運動フィルタなど)を用いて物理的オブジェクトのビューを修正することを含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れるので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてさほど遠くには現れず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有する。物理的環境の第3の表現を表示することは、色及び/又は強度などの一部がフィルタリングして、第2の仮想ポジションに遠隔の物理的オブジェクトの表現を表示することを含む。いくつかの実施形態では、運動フィルタが適用されると、運動を有さない物理的環境の第2の表現の部分がフィルタリングされ、運動(例えば、葉、動物、人などの移動)を有する部分が強調表示される。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、第1の距離(例えば、30メートル、50メートルなど)の木のカメラビューを表示する。望遠鏡ビューが作動されると、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)離れた仮想ポジションに木の望遠鏡ビューを表示し、望遠鏡ビューフィルタ及び色/強度/運動フィルタの両方が作動されると、表示生成コンポーネントは、現在の仮想ポジション(例えば、5メートル、10メートルなど)に木のフィルタ処理された画像を表示する。現在の仮想ポジション(例えば、5メートル、10メートルなど)における木の不鮮明な彩度の減少した画像(カラーフィルタが適用されている)又は木のフィルタリングされた画像の上に明るいオレンジ色の帽子及び安全ベストを示す)木の不鮮明な彩度の減少した画像上を移動するカモフラージュされた昆虫の視覚的強調表示を示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー及び望遠鏡ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。
第1のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、物理的オブジェクトのビューを修正するフィルタに従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠隔のオブジェクトを見るためのシミュレートされた望遠鏡視と物理的オブジェクトのビューを修正するフィルタとの間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の表示される制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、7K~7Lに示される)(例えば、オブジェクトがユーザにより近く見えるように、オブジェクトの焦点距離を低減する)を含み、第2のタイプのコンピュータ生成感覚調整は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音のための選択的音声増強(例えば、音量を増強する、ある音周波数を選択的に増強/抑制するなど)を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れるので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてさほど遠くには現れず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有する。物理的環境の第3の表現を表示することは、第2の仮想ポジションにおける遠隔の物理的オブジェクトの表現を、遠隔の物理的オブジェクトの表現上又はその近傍の物理的環境内の局所化された音源の視覚的識別と共に表示することを含み、局所化された音源からの音に対応する増強された音声出力は、物理的環境の第3の表現の表示と共に出力される。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間に第1の距離(例えば、30メートル、50メートルなど)だけ離れた木のカメラビューを表示し、次いで、望遠鏡ビューが作動された状態で、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)だけ離れた仮想ポジションに木の望遠鏡ビューを表示し、望遠鏡ビュー及び増強された聴覚の両方が作動された状態で、表示生成コンポーネントは、木の中で歌っている鳥のポジションを示す現在の仮想ポジション(例えば、5メートル離れた、3メートル離れたなど)に木の画像上に重ねられた円を表示する。鳥からの局所化されたチャープ音は、視点から第2の距離(例えば、5メートル、10メートルなど)離れた3つのビューと共に、任意選択的に空間音声出力モードで再生される。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び局所化された音は、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。
第1のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、物理的環境内の物理的オブジェクトのサブセットに対応する音に対する選択的音声調整に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠隔のオブジェクトを見るためのシミュレートされた望遠鏡視と、物理的環境内の物理的オブジェクトのサブセットに対応する音に対する選択的音声調整との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の表示される制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、物理的環境の第3の表現(例えば、図7Mに示される表現、又は別の表現など)を表示すると同時に、コンピュータシステムは、物理的環境の第3の表現において可視である物理的環境の第1の部分(例えば、図7Mの部分7366’’及び7368’’、又は別の部分など)に対応する音を出力し、音は、物理的環境の第1の部分の外側の音源からの音に対して選択的に増強される(例えば、音量が増強される、いくつかの選択された周波数の振幅に対する修正を伴うなど)。例示的なシナリオでは、2つの木が、物理的環境全体からキャプチャされた音の音声出力と共に物理的環境の第1の表現において可視であり、第1の木が望遠鏡ビューで見られ、増強された聴覚が作動されているとき、第1の木における鳥の鳴き声は、第2の木におけるリスの鳴き声に対して増強され(例えば、より大きくされ)、第1の木の仮想ポジションに対応する仮想ポジションを有するように空間音声で再生される。物理的環境の第3の表現を表示するのと同時に、物理的環境の第2の表現において可視である物理的環境の第1の部分に対応する音であって、物理的環境の第1の部分の外側の音源からの音に対して選択的に増強される音を出力することは、改善された音声フィードバック(例えば、物理的環境の第1の部分に関する改善された音声フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、物理的環境の第3の表現を表示するのと同時に、コンピュータシステムは、物理的環境の第2の表現及び第3の表現の両方において可視である物理的環境の第1の部分(例えば、図7Mの部分7366’’及び7368’’、又は別の部分など)から発せられる発話に対応するテキスト出力を表示し、発話は、物理的環境の第1の部分の外側の音源からの音に対して選択的に強調される。例示的なシナリオでは、木及び家屋が、物理的環境全体からキャプチャされた音の音声出力と共に物理的環境の第1の表現において可視であり、家屋が望遠鏡ビューで見られ、増強された聴覚が作動されているとき、家屋からの発話の音は、木における鳥の鳴き声の音に対して増強され(例えば、より大きく、より鮮明にされるなど)、字幕、書き起こし、翻訳などのテキスト出力が表示される。いくつかの実施形態では、発話の音は、対応する音声翻訳で置換される。物理的環境の第2の表現及び第3の表現の両方において可視である物理的環境の第1の部分から発せられる発話に対応するテキスト出力を表示することは、物理的環境の第3の表現を表示することと同時に、発話が物理的環境の第1の部分の外側の音源からの音に対して選択的に強調され、ユーザに改善された視覚的フィードバック(例えば、物理的環境の第1の部分から発せられる発話に関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含み、第2のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高感度、温度及び/又は熱放射の変動に従って色及び/又は強度の変動を提示することなど)を含む。例示的な使用シナリオは、表示生成コンポーネントは、最初に、携帯電話内のマイクロチップのカメラビューを表示し、次いで、顕微鏡ビューが作動された状態で、表示生成コンポーネントは、マイクロチップの拡大ビューを表示し、顕微鏡ビュー及び熱視の両方が作動された状態で、表示生成コンポーネントは、現在の拡大レベルでマイクロチップのヒートマップを表示し、マイクロチップ上の低温領域に対して高温領域を示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、顕微鏡ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。第1のユーザ入力を検出したことに応じて、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視との間で選択又は切換を行うための追加の表示されるコントロールでUIを雑然とさせることなく、追加の表示される制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを視認するためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを視認するためのシミュレートされた望遠鏡視(例えば、図7K~図7Lに示される)(例えば、ユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間に第1の距離(例えば、30メートル、60メートルなど)離れた木のカメラビューを表示し、木の詳細は、低光量条件のためにほとんど見えず、次いで、暗視が作動された状態で、表示生成コンポーネントは、第1の距離(例えば、30メートル、60メートルなど)離れた木を示すカメラビューの明るく高コントラストの画像を表示し、暗視及び望遠鏡ビューの両方が作動された状態で、表示生成コンポーネントは、5メートル離れた仮想ポジションに木の明るく高コントラストの画像を表示する。
第1のユーザ入力を検出したことに応じて、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視と、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2のタイプのコンピュータ生成感覚調整は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、暗い部屋のテーブル上面のカメラビューを表示する。部屋の詳細は、低光量条件のためにほとんど見えず、暗視が作動されると、表示生成コンポーネントは、テーブルの上にいくつかの硬貨を示す明るく高コントラストの部屋の画像を表示し、暗視及び顕微鏡ビューの両方が作動されると、表示生成コンポーネントは、硬貨の詳細を示す、明るく高コントラストの硬貨の画像を拡大して表示する。いくつかの実施形態では、硬貨の顕微鏡画像は、任意選択的に、暗視画像のものとは異なる時間、及び/又はテーブル上面のカメラビューからキャプチャされる。異なるタイプのセンサ及びカメラからの情報は、物理的環境の第3の表現を生成するために組み合わされる。いくつかの実施形態では、物理的環境の第1の表現及び/又は第2の表現から抽出された情報(例えば、硬貨のサイズ、硬貨上の画像の特性など)を、(例えば、オンラインソース、画像データベースなどから)をベースとして使用して、物理的環境の詳細に関する追加情報(例えば、硬貨のタイプ、硬貨の年、硬貨の材料など)を取得し、物理的環境の第3の表現を生成する(例えば、第1の表現及び第2の表現によってキャプチャされない硬貨の更なる詳細を示す)。
第1のユーザ入力を検出したことに応じて、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する第1の物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視と近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間の木のカメラビューを表示する。木の詳細は、低光量条件のためにほとんど見えない。暗視が作動されると、表示生成コンポーネントは、2つの巣を示す木の明るくされた高コントラスト画像を表示し、暗視及び熱視の両方が作動されると、表示生成コンポーネントは、巣の明るくされた高コントラスト画像を表示し、一方の巣は、他方の巣とは異なる色及び/又は光強度を有し、一方の巣には動物が最近住んでおり、他方の巣には住んでいないことを示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、暗視ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。
第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現に応じて、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2のタイプのコンピュータ生成感覚調整は、第2のタイプのコンピュータ生成感覚調整は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音に対する選択的音声増強(例えば、音量を増強する、ある音周波数を選択的に増強/抑制するなど)を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、低光量条件下で物理的オブジェクトの表現を表示することを含む。物理的環境の第2の表現を表示することは、部屋全体からキャプチャされた音の通常の音声出力と共に暗い部屋の明るい高コントラスト画像を表示することを含む。物理的環境の第3の表現を表示することは、局所化された音源が画像内で識別され、視覚的に増強され、局所化された音源からの音に対応する増強された音声出力を伴って、暗い部屋の同じ明るい高コントラスト画像を表示することを含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、識別可能な音のない暗い部屋のカメラビューを表示し、次いで、暗視が作動された状態で、表示生成コンポーネントは、部屋の中の家具及び器具を示す暗い部屋の高輝度及び高コントラストビューを表示し、暗視及び高聴覚の両方が作動された状態で、表示生成コンポーネントは、低周波数振動音が聞こえる冷蔵庫のポジションを示す、暗い部屋の明るい高コントラストの画像上に重ねられた円を表示する。冷蔵庫からの局所化された音は、増強され、部屋の暗視ビューと共に再生され、任意選択的に、空間音声出力モードと共に、冷蔵庫の振動における周波数の増強と共に再生される。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び局所化された音は、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。いくつかの実施形態では、増強された音声が要求される音源を選択するユーザ入力(例えば、暗視ビュー内の冷蔵庫のタップ、別の音源を選択する別の入力など)が検出される。
第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、物理的環境内の物理的オブジェクトのサブセットに対応する音に対する選択的音声調整に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視と物理的環境内の物理的オブジェクトのサブセットに対応する音に対する選択的音声調整との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従って色及び/又は強度の変動を提示することなど)を含み、第2のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、図7K~図7Lに示される)(例えば、ユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含む。例示的使用シナリオでは、表示生成コンポーネントは、最初に森林のカメラビューを表示し、次いで、熱視が作動されると、熱視ビュー内の森林の1つのエリアは、熱視ビュー内の森林の他のエリアよりも高い温度を有するように見え、より高い温度を有する森林のエリアは、熱視ビュー内で第1の距離(例えば、50メートル、100メートルなど)離れている。熱視ビュー及び望遠鏡ビューの両方が作動されると、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)離れた仮想ポジションにおいて、より高い温度を有するエリアの望遠鏡ビューを表示する。第2の距離(例えば、5メートル、10メートルなど)離れた仮想ポジションに表示されたより高い温度を有するエリアのヒートマップは、くすぶっている死んだ木の幹の表現を示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。
第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視と、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度変動に対する高い感度、温度及び/又は熱放射変動に従う色及び/又は強度変動の提示など)を含み、第2のタイプのコンピュータ生成感覚調整は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、モバイルデバイスの内部構造のカメラビューを表示する。次いで、熱視が作動されると、モバイルデバイスの内部構造の1つのエリアは、熱視ビュー内で構造の他のエリアよりも高い温度を有するように見え、より高い温度を有する構造のエリアは、修正された色で示される。熱視ビュー及び顕微鏡ビューの両方が作動されると、表示生成コンポーネントは、より高い温度を有するエリアの拡大ビューを表示する。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。
第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視と、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含み、第2のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視的に増強される、明るさの小さな変動が拡大されるなど)を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間の家屋のカメラビューを表示する。家屋の詳細は、低光量条件のためにほとんど見えない。熱視が作動された状態では、表示生成コンポーネントは、熱視ビューの1つの領域が熱視ビューの他の領域よりも高い温度を有するように表示するが、家屋のどの構造部分が高温領域をホストしているかかは不明であり、暗視及び熱視が作動された状態では、表示生成コンポーネントは、家屋の明るくコントラストの高い画像を表示し、家屋の前側を下る縦樋内の高温領域を示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、暗視ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。
第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視と、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視との間で選択又は切換を行うための追加の表示される追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度変動を提示することなど)を含み、第2のタイプのコンピュータ生成感覚調整は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音のための選択的音声増強(例えば、音量を増強すること、ある音周波数を選択的に増強/抑制することなど)を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間の家屋のカメラビューを表示する。家屋の詳細は、低光量条件のためにほとんど見えず、次いで、熱視が作動されると、表示生成コンポーネントは、熱視ビューの1つの領域が熱視ビューの他の部分よりも高い温度を有するように見えるが、家屋のどの構造部分が高温領域をホストするかが不明瞭であることを表示し、暗視及び熱視の両方が作動されると、表示生成コンポーネントは、家屋の明るく高コントラストの画像を表示して、家屋の前側を下る縦樋の内側の高温領域を示し、暗視及び増強された聴覚の両方が作動されると、表示生成コンポーネントは、音源(例えば、いびきをかくげっ歯類の巣)のポジションを示す円を高温領域に重ねて表示する。強調表示された音源からの局所化された音は増強され、家屋の熱視ビューと共に、任意選択的に、空間音声出力モード及び音源からの音の増強と共に再生される。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、熱視ビュー、及び局所化された音は、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて強化される。いくつかの実施形態では、増強された音声が要求される音源(例えば、暗視ビュー内のホットスポット上のタップ)を選択するユーザ入力が検出される。
第1のユーザ入力を検出したことに応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、物理的環境内の物理的オブジェクトのサブセットに対応する音の選択的音声調整に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示コントロール(例えば、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視と、物理的環境内の物理的オブジェクトのサブセットに対応する音の選択的音声調整との間で選択又は切換を行うための追加の表示コントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
図11における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、10000、及び12000)に関して本明細書で記載した他のプロセスの詳細はまた、図11に関連して上述した方法11000に類似の方式で適用可能であることに留意されたい。例えば、方法11000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法8000、9000、10000、及び12000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図12は、いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示する方法のフローチャートである。
いくつかの実施形態では、方法12000は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法12000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法12000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。
いくつかの実施形態では、方法12000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。
コンピュータシステムは、三次元環境(例えば、図7N(A)のシーン105、別の物理的環境など)の第1のビュー(例えば、図7N(B)のビュー7405、別のビューなど)(例えば、仮想要素を有さないか又は最小限の仮想要素を有する現実ビュー、コンピュータシステムの基本機能を制御するためのユーザインタフェースオブジェクト(例えば、異なるコンピュータ生成体験を起動するためのアプリケーションアイコン、表示設定、音声制御など)を有する現実ビュー、低い没入レベルで表示される拡張現実ビュー(例えば、ユーザの視野の小さな割合(例えば、10%未満、20%未満など)しか占有しないか又は制限された浮動ウィンドウなどに表示されるユーザインタフェースオブジェクト(例えば、アプリケーション起動パッド、ウェルカムユーザインタフェース、設定ユーザインタフェース)などを表示する)を表示し(12002)、三次元環境の第1のビューは、物理的環境の第1の部分の第1の表現を含む(例えば、第1の表現は、第1の表示生成コンポーネントを介して三次元環境を見るために第1の表示生成コンポーネントと物理的空間関係にあるユーザを囲む物理的環境の第1の部分の通常のカメラビュー、第1の表示生成コンポーネントのパススルー部分を通じた物理的環境のビューなど)。物理的環境の第1の部分の第1の表現を含む三次元環境の第1のビューを表示している間、コンピュータシステムは、物理的環境の第1のロケーション(例えば、図7N(A)のユーザ7002のロケーション、別のロケーションなど)から第2のロケーション(例えば、図7O(A)のユーザ7002のロケーション、図7P(A)のユーザ7002のロケーション、別のロケーションなど)への第1のユーザ(例えば、図7N~7Pのユーザ7002、別のユーザなど)の移動(例えば、第1の表示生成コンポーネントとして機能するHMDを装着している間の第1のユーザ全体の移動(例えば、歩く、登るなど)、第1の表示生成コンポーネントとして機能するディスプレイ又はプロジェクタを有するモバイルデバイスを携帯している第1のユーザの第1の物理的環境内の第1のロケーションから第2のロケーションへの移動(例えば、モバイルデバイス及びディスプレイの移動を引き起こすユーザの腕の移動、ディスプレイを有するモバイルデバイスを携帯しているユーザ全体の移動)など)を検出する(12004)。第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したこと(12006)に応じて、かつ第2のロケーションへの移動が第1の基準を満たし、第1の基準は、第1の基準が満たされるために、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーション(例えば、ロケーションが第1のタイプのエクササイズ器具(例えば、ローイングマシン、階段、トレッドミル、クライミングウォール、ステーショナリーバイク、ウェイトトレーニングマシン、パンチバックなど)を有する)に対応するという第1の要件を含み、ロケーションは、(例えば、適切な床面、マット、プール、壁、構造などを有して)第1のタイプのエクササイズ(例えば、水泳、ローイング、瞑想、ヨガ、リフティング、キック、ウォーキング、ランニング、ダンス、クライミング、テニス、バスケットボール、体操など)に合わせて設計されるロケーションである、という判定に従って、コンピュータシステムは、三次元環境の第2のビュー(例えば、図7O(B)のビュー7408又は別のビューなど)(例えば、現在ロケーションに対応する第1の特定のコンピュータ生成体験に対応するより多くの仮想要素を備えた拡張現実ビュー、現在ロケーションに対応する第1のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビュー、より高い没入レベルで表示された拡張現実ビュー)を表示し(12008)(例えば、総合してユーザの視野の相当の割合(例えば、60%超、90%超など)を占有する、又は三次元仮想又は拡張現実環境に表示される第1の特定のアプリケーション体験(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータの変更コントロールなど)の一部であるユーザインタフェースオブジェクトを表示する)、三次元環境の第2のビューは、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツ(例えば、図7O(B)の仮想開放水域7406、他の仮想コンテンツなど)(例えば、トレッドミルエクササイズプログラム用のハイキングコース風景、ローイングマシンエクササイズ用の湖シーン、キックボクシング用のアリーナ、クライミングウォールエクササイズ用の仮想崖側面、仮想テニスゲーム用の仮想テニスコート、及び/又は第1のタイプのエクササイズについてのユーザインタフェースコントロール、スコア、統計など)を含み、第1のセットの仮想コンテンツは、物理的環境の第2の部分の第2の表現の少なくとも一部を置換し(例えば、図7O(A)のユーザ7002のロケーション、別のロケーションなど)(例えば、第1のタイプのエクササイズに対応する仮想コンテンツは、第2のロケーションを含む物理的環境の部分の表現(例えば、第1のタイプのエクササイズの実際の器具又は第1のタイプのエクササイズに合わせて設計された部屋のビューなど)に重ねて、その表現のビューを遮断して、その部分の表示を置換して表示されるなど)。いくつかの実施形態では、上記の要件は、第1の基準が満たされる唯一の要件である。いくつかの実施形態では、上記の要件は、第1の基準が満たされるために全てが満たされる必要はない第1の基準における1つ以上の他の要件の代替要件である。いくつかの実施形態では、上記の要件は、第1の基準が満たされるために全てが満たされなければならない第1の基準における1つ以上の他の要件の追加要件である。いくつかの実施形態では、代替条件(又は追加条件)として、ユーザは、第1の基準が満たされるために、エクササイズに関連付けられたアクション、例えば、特徴的な移動を開始すること(例えば、トレッドミル上で歩き始めること、階段ステッパー上で歩くこと、楕円上で脚を前後に動かすこと、又はローイングマシン上でローイングを開始すること、又はエクササイズ器具の上に乗る/座ること)を実行しなければならない。方法12000では、第1のユーザの第1のロケーションから第2のロケーションへの移動を検出したことに応じて、第2のロケーションへの移動が第1の基準と異なる第2の基準を満たし、第2の基準は、第2の基準が満たされるために、第2のロケーションが第2のタイプのエクササイズに関連付けられたロケーションに対応するという第2の要件を含み(例えば、ロケーションは第2のタイプのエクササイズ器具(例えば、ローイングマシン、階段、トレッドミル、クライミングウォール、ウェイトトレーニングマシン、パンチバックなど)を有し、ロケーションは(例えば、適切な床面、マット、プール、壁、構造などを有して)第2のタイプのエクササイズ(例えば、水泳、ローイング、瞑想、ヨガ、リフティング、キック、ウォーキング、ランニング、ダンス、クライミング、テニス、バスケットボール、体操など)など)に合わせて設計されたロケーションであり、第2のタイプのエクササイズは第1のタイプのエクササイズと異なる、という判定に従って、コンピュータシステムは、三次元環境の第3のビュー(例えば、図7P(B)のビュー7410又は別のビューなど)(例えば、現在ロケーションに対応する第2の特定のコンピュータ生成体験に対応するより多くの仮想要素を備えた拡張現実ビュー、現在ロケーションに対応する第2のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビュー、より高い没入レベルで表示された拡張現実ビュー)を表示し(12010)(例えば、総合してユーザの視野の相当割合(例えば、60%超、90%超など)を占有する、又は三次元仮想又は拡張現実環境などに表示される)第2の特定のアプリケーション体験(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータの変更コントロールなど)の一部であるユーザインタフェースオブジェクトを表示する)、三次元環境の第3のビューは、第2のタイプのエクササイズ(例えば、トレッドミルエクササイズプログラム用のハイキングコース風景、ローイングマシンエクササイズ用の湖シーン、キックボクシング用のアリーナ、クライミングウォールエクササイズ用の仮想崖側面、仮想テニスゲーム用の仮想テニスコート、及び/又は第2のタイプのエクササイズについてのユーザインタフェースコントロール、スコア、統計など)に対応する第2のセットの仮想コンテンツを含み、第2のセットの仮想コンテンツは第1のセットの仮想コンテンツ(例えば、仮想ハイキングコース対仮想湖シーン;仮想テニスコート対仮想ボクシングリング;瞑想用の仮想草原対ダンス用の仮想ステージなど)と異なり、第2のセットの仮想コンテンツ(例えば、図7P(B)の仮想ハイキングコース7412、他の仮想コンテンツなど)は、物理的環境の第3の部分の第3の表現の少なくとも一部を置換する(例えば、第2のタイプのエクササイズに対応する仮想コンテンツは、第2のロケーション(例えば、図7P(A)のユーザ7002のロケーション、別のロケーションなど)を含む物理的環境(例えば、第1のタイプのエクササイズの実際の器具又は第1のタイプのエクササイズに合わせて設計された部屋などのビュー)の部分の表現に重ねて、その表現のビューを遮断して、その表現の表示を置換するなどして表示される)。いくつかの実施形態では、上記の要件は、第1の基準が満たされる唯一の要件である。いくつかの実施形態では、上記の要件は、第1の基準が満たされるために全てが満たされる必要はない第1の基準における1つ以上の他の要件の代替要件である。いくつかの実施形態では、上記の要件は、第1の基準が満たされるために全てが満たされなければならない第1の基準における1つ以上の他の要件の追加要件である。いくつかの実施形態では、代替条件(又は追加条件)として、ユーザは、第1の基準が満たされるために、エクササイズに関連付けられたアクション、例えば、特徴的な移動を開始すること(例えば、トレッドミル上で歩き始めること、階段ステッパー上で歩くこと、楕円上で脚を前後に動かすこと、又はローイングマシン上でローイングを開始すること、又はエクササイズ器具の上に乗る/座ること)を実行しなければならない。これらの特徴は図7N~図7Pに示されており、ユーザ7002がロケーションを移動するとき、ユーザ7002の現在ロケーションに応じて、コンピュータシステムは、どのタイプのエクササイズがユーザ7002の現在ロケーションに関連付けられているかを判定する。現在ロケーションが第1のタイプのエクササイズ(例えば、オブジェクト7404を含むロケーション)に関連付けられている場合、コンピュータシステムは、第1のタイプのエクササイズ(例えば、ローイング、ボート漕ぎなど)に対応する仮想コンテンツ7408(図7O)を表示する。現在ロケーションが第2のタイプのエクササイズ(例えば、オブジェクト7402を含むロケーション)に関連付けられている場合、コンピュータシステムは、第2のタイプのエクササイズ(例えば、ハイキング、ウォーキングなど)に対応する仮想コンテンツ7410(図7P)を表示する。
いくつかの実施形態では、コンピュータシステムは、第2のロケーションにおける第1のタイプのエクササイズ器具(例えば、図7Oのオブジェクト7404、他の器具など)の検出(例えば、第2のロケーションにおける第1のタイプのエクササイズ器具に対応するRFID信号の検出、第2のロケーションをキャプチャするカメラフィードにおける第2のロケーションにおける第1のタイプのエクササイズ器具の画像の検出、第2のロケーションが第1のタイプのエクササイズ器具の登録されたロケーションに一致することの検出など)に従って、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーションに対応すると判定する(例えば、第1のタイプのエクササイズ器具は、第2のタイプのエクササイズ器具と異なり、第2のタイプのエクササイズに対応しない)。コンピュータシステムは、第2のロケーションにおける第2のタイプのエクササイズ器具(例えば、図7Pのオブジェクト7402、他の器具など)の検出(例えば、第2のロケーションにおける第2のタイプのエクササイズ器具に対応するRFID信号の検出、第2のロケーションをキャプチャするカメラフィードにおける第2のロケーションにおける第2のタイプのエクササイズ器具の画像の検出、第2のロケーションが第2のタイプのエクササイズ器具の登録されたロケーションであることの検出など)に従って、第2のロケーションが第2のタイプのエクササイズに関連付けられたロケーションに対応することを判定し、第2のタイプのエクササイズ器具は、第1のタイプのエクササイズ器具と異なり、第1のタイプのエクササイズに対応しない。例えば、第1のユーザがトレッドミルの前のロケーションへ歩くとき、HMDは、第1の表示生成コンポーネントを介して提供されるユーザの視野内のトレッドミルの表現を遮断する、その表現の表示を置換する、又はその表現に重なる仮想ハイキングコースを表示し、第1のユーザがローイングマシンの前のロケーションへ歩くとき、HMDは、第1の表示生成コンポーネントを介して提供されるユーザの視野内のローイングマシンの表現を遮断する、その表現の表示を置換する、又はその表現に重なる仮想湖シーンを表示する。いくつかの実施形態では、第1のユーザがロケーションからロケーションへ(例えば、ジムの入口からトレッドミルの前へ、トレッドミルの前からローイングマシンの前へなど)移動するとき、第1の表示生成コンポーネントによって提供される仮想コンテンツは、現実ビュー、異なる仮想シーンを有する異なる拡張現実ビュー、及び/又は異なる仮想環境などの間で自動的に(例えば、ユーザインタフェース要素又は音声コマンドを使用して仮想コンテンツ又はプログラムを具体的に選択するユーザ入力なしに)変更される。
コンピュータシステムが、第2のロケーションにおける第1のタイプのエクササイズ器具の検出に従って、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーションに対応すると判定する、第2のロケーションへの移動が、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーションに対応することを必要とする第1の基準を満たすという判定に従って、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツを含む三次元環境の第2のビューを表示することと、コンピュータシステムが、第2のロケーションにおける第2のタイプのエクササイズ器具の検出に従って、第2のロケーションが第2のタイプのエクササイズに関連付けられたロケーションに対応することを判定する、第2のロケーションが第2のタイプのエクササイズに関連付けられたロケーションに対応することを必要とする、第1の基準とは異なる、第2のロケーションへの移動が、第2の基準を満たすという判定に従って、第2のタイプのエクササイズに対応する第1のセットの仮想コンテンツとは異なる第2のセットの仮想コンテンツ三次元環境の第3のビューを表示することは、更なるユーザ入力(例えば、第1又は第2のタイプのエクササイズに対応する仮想コンテンツのセットを選択するための更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに適切なセットの仮想コンテンツを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、物理的環境内の第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したことに応じて、三次元環境の第2のビュー(例えば、図7Oのビュー7408、又は図7Pのビュー7410、別のビューなど)を表示することは、物理的環境の第2の部分の第2の表現(例えば、図7Oのオブジェクト7404を含むシーン105の部分、及び図7Pのオブジェクト7402を含むシーン105の部分など)を徐々に減少させ(例えば、物理的環境の第2の部分の表現のより多くの部分の表示を停止し、物理的環境の第2の部分の表現をフェードアウトするなど)、物理的環境の第2の部分の第2の表現が徐々に減少した三次元環境の第2のビューの領域において、第1のタイプのエクササイズに対応する仮想コンテンツのプロミネンスを徐々に増加させる(例えば、仮想コンテンツの表示を開始し、仮想コンテンツの可視性を増加させ、仮想コンテンツによって占有されるユーザの視野の割合を増加させ、仮想コンテンツの不透明度又は輝度を上昇させるなど)ことを含む。いくつかの実施形態では、物理的環境内の第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したことに応じて、三次元環境の第3のビューを表示することは、物理的環境の第3の部分の表現を徐々に低減すること(例えば、物理的環境の第3の部分の表現のより多くの部分の表示を停止する、物理的環境の第3の部分の表現をフェードアウトするなど)と、物理的環境の第3の部分の表現が徐々に低減された三次元環境の第3のビューの領域において、第2のタイプのエクササイズに対応する仮想コンテンツを徐々に増加させる(例えば、仮想コンテンツを表示する、仮想コンテンツの可視性を増加させるなど)こととを含む。例えば、いくつかの実施形態では、第1のユーザがトレッドミルの前に立っている、及び/又はトレッドミルに乗っているとき、ユーザの物理的環境のビュー(例えば、トレッドミルのハードウェア制御パネル、ユーザの前の壁、同じ部屋の他のエクササイズマシンなど)が徐々に変更され、物理的環境の表現のより多くの部分が次第に消え、及び/又はトレッドミルエクササイズに対応する仮想コンテンツ(例えば、ハイキングコースの風景、仮想湖の周囲の仮想舗装路など)に置換される。最終的に、ユーザがトレッドミル上で歩き始めると、ユーザの視野全体が、山道又は湖岸路の仮想風景で満たされる。いくつかの実施形態では、仮想コンテンツは、仮想三次元環境であり、ユーザは、トレッドミル上を歩行しながら、自分の頭を回転させるか、又は上下させることによって、仮想三次元環境の異なる部分を見ることができる。
物理的環境の第2の部分の第2の表現を徐々に低減し、物理的環境の第2の部分の第2の表現が徐々に低減された三次元環境の第2のビューの領域において第1のタイプのエクササイズに対応する仮想コンテンツのプロミネンスを徐々に増加させることは、改善された視覚的フィードバック(例えば、コンピュータシステムが物理的環境内の第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の基準は、第1の基準が満たされるために、第1のユーザの第1のロケーションから第2のロケーションへの移動の後、第1のタイプのエクササイズに対応する第1の所定の移動(例えば、図7Oのオブジェクト7404に座る、図7Pのオブジェクト7402を踏む)(例えば、特徴的な動作を開始する(例えば、トレッドミル上で歩き始める、階段ステッパーを踏む、楕円上で脚を前後に動かす、又はローイングマシンでローイングを開始するなど))、第1のタイプのエクササイズに対応するエクササイズ器具に踏む/座る(例えば、ローイングマシン又はウェイトトレーニングマシンに座るなど)、第1のタイプのエクササイズに対応する準備姿勢になる(例えば、仮想テニスボールを打つ準備姿勢で立つ、瞑想又はヨガを始めるために床に座るなど)など)が続く第3の要件を含む。いくつかの実施形態では、第2の基準は、第1のロケーションから第2のロケーションへの第1のユーザの移動の後、第2のタイプのエクササイズに対応する第2の所定の移動が続くという第4の要件を含み、第2の所定の移動は、第1のタイプの移動とは異なる。いくつかの実施形態では、第2の所定の移動は、第1の所定の移動と同じである。例えば、キックボクシング用の仮想環境を開始するための所定の移動は、任意選択的に、ボクシング用の仮想環境を開始するための所定の移動要件と同じである。例えば、バレエ用の仮想環境を開始するための所定の移動は、任意選択的に、モダンダンス用の仮想環境を開始するための所定の移動要件とは異なる。いくつかの実施形態では、コンピュータシステムは、第1のユーザが第2のロケーションにおり、第2のロケーションが第1のタイプのエクササイズに対応するロケーションであっても、第1のタイプのエクササイズに対応する第1の所定の移動が検出されるまで、第1のタイプのエクササイズに対応する仮想コンテンツの表示を開始しない。いくつかの実施形態では、コンピュータシステムは、第1のユーザが第2のロケーションで検出され、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーションであるとき、第1のユーザが第1の所定の移動を提供して、第1のタイプのエクササイズに関連付けられた仮想コンテンツの表示をトリガするための視覚的プロンプトを表示する。
第2のロケーションへの移動が第1の基準であって、第1の基準は、第1のユーザの第1のロケーションから第2のロケーションへの移動の後に第1のタイプのエクササイズに対応する第1の所定の移動が続くという第3の要件を含む、第1の基準を満たすという判定に従って、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツを含む三次元環境の第2のビューを表示することは、追加の表示されたコントロール(例えば、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツを表示するための追加の表示されたコントロール、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツの表示を取りやめるための追加の表示されたコントロールなど)でUIを雑然とさせることなく、追加のコントロールオプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したことに応じて、かつ第2のロケーションへの移動が第1の基準及び第2の基準とは異なる第3の基準を満たし、第3の基準は、第3の基準が満たされるために、第2のロケーションが第1のタイプのエクササイズ及び第2のタイプのエクササイズとは異なる第3のタイプのエクササイズに関連付らたロケーションに対応するという要件を含み(例えば、第2のロケーションは、任意選択的に、第1のタイプのエクササイズ及び第3のタイプのエクササイズの両方に関連付けられる)、第1のロケーションから第2のロケーションへの第1のユーザの移動の後に、第3のタイプのエクササイズに対応する第3の所定の移動(例えば、特徴的な動作を開始すること(例えば、トレッドミル上で歩くことを開始すること、階段ステッパーを踏むこと、楕円上で脚を前後に動かすこと、又はローイングマシン上でローイングを開始することなど))、個別のタイプのエクササイズに対応するエクササイズ器具を踏む/座ること(例えば、ローイングマシンに座ること、ウェイトトレーニングマシンに座ることなど)、個別のタイプのエクササイズに対応する準備姿勢になること(例えば、仮想テニスボールを打つための準備姿勢で立つこと、瞑想又はヨガを始めるために床に座ることなど)が続き、第3の所定の移動が第1の所定の移動とは異なる、という判定に従って、コンピュータシステムは、三次元環境の第4のビュー(例えば、現在ロケーションに対応する第3の特定のコンピュータ生成体験に対応するより多くの仮想要素を有する拡張現実ビュー、現在ロケーションに対応する第3のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビュー、より高い没入レベルで表示される拡張現実ビューを表示する(例えば、全体でユーザの視野の相当割合(例えば、60%超、90%超など)を占有する、又は三次元仮想又は拡張現実環境などに表示される第3の特定のアプリケーション体験の一部であるユーザインタフェースオブジェクト(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータの変更コントロールなど)を表示する)。三次元環境の第4のビューは、第3のタイプのエクササイズに対応する第3のセットの仮想コンテンツ(例えば、トレッドミルエクササイズプログラムのハイキングコース風景、ローイングマシンエクササイズの湖シーン、キックボクシングのアリーナ、クライミングウォールエクササイズの仮想崖側面、仮想テニスゲームの仮想テニスコート、及び/又は第3のタイプのエクササイズのユーザインタフェースコントロール、スコア、統計など)を含む。第3のセットの仮想コンテンツは、第1のセットの仮想コンテンツ及び第2のセットの仮想コンテンツとは異なり、第3のセットの仮想コンテンツは、物理的環境の第2の部分の第2の表現の少なくとも一部を置換する(例えば、第2のロケーションは、第1のタイプのエクササイズ及び第3のタイプのエクササイズの両方に対応し、第1のセットの仮想コンテンツ又は第3のセットの仮想コンテンツが表示されるかどうかは、第1のユーザが第2のロケーションにいる間に第1の所定の移動又は第3の所定の移動が検出されるかどうかに依存する)。
第2のロケーションへの移動が第1の基準及び第2の基準とは異なる第3の基準を満たし、第2のロケーションが第1のタイプのエクササイズ及び第2のタイプのエクササイズとは異なる第3のタイプのエクササイズに関連付らたロケーションに対応すること、及び第1のロケーションから第2のロケーションへの第1のユーザの移動の後に第3のタイプのエクササイズに対応する第1の所定の移動とは異なる第3の所定の移動が続くことを必要とするという判定に従って、第3のタイプのエクササイズに対応する第1のセットの仮想コンテンツ及び第2のセットの仮想コンテンツとは異なる第3のセットの仮想コンテンツを含む三次元環境の第4のビューを表示することは、追加の表示されるコントロール(例えば、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツを表示するための追加の表示されるコントロール、第3のタイプのエクササイズに対応する第3のセットの仮想コンテンツを表示するための追加の表示されるコントロールなど)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、コンピュータシステムは、第2のロケーションに関連付けられた個別のタイプのエクササイズ(例えば、第1のタイプのエクササイズ、第2のタイプのエクササイズ、第3のタイプのエクササイズなど)に対応する所定の移動の進行又は持続時間のうちの少なくとも1つに従って、第1のユーザの視野内(例えば、図7O(B)及び7P(B)などに示されるビュー内)に表示される仮想コンテンツの量を徐々に増加させる。例えば、いくつかの実施形態では、現実世界のビューは徐々に消え、及び/又は表示が停止され、個別のタイプのエクササイズに対応する仮想コンテンツによって徐々に置換される。いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する個別の仮想環境が第1の表示生成コンポーネントを介して完全に表示されるまで(例えば、三次元環境の第2のビューが第1のタイプのエクササイズに対応する仮想環境を含み、三次元環境の第3のビューが第2のタイプのエクササイズに対応する仮想環境を含むなど)、第1のユーザの視野内に表示される仮想コンテンツの量を徐々に増加させる。例えば、いくつかの実施形態では、開放ジムがヨガとダンスの両方に関連付けられたロケーションであるとき、第1のユーザが開放ジムに到着した後、第1のユーザがナマステポーズで座る場合、コンピュータシステムは、ユーザが仮想ビーチ上でヨガを練習するために、海洋音を伴う仮想海洋ビューを表示し、第1のユーザがダンサーのポーズで立つ場合、コンピュータシステムは、第1のユーザがダンスを練習するために、ダンス音楽を伴う仮想ステージを表示する。
第2のロケーションに関連付けられた個別のタイプのエクササイズに対応する所定の移動の進行又は持続時間のうちの少なくとも1つに従って、第1のユーザの視野内に表示される仮想コンテンツの量を徐々に増加させることは、改善された視覚的フィードバック(例えば、第2のロケーションに関連付けられた個別のタイプのエクササイズに対応する所定の移動の進行又は持続時間に関する改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第2のロケーションに関連付けられた個別のタイプのエクササイズ(例えば、第1のタイプのエクササイズ、第2のタイプのエクササイズ、第3のタイプのエクササイズなど)に対応する三次元環境の個別のビュー(例えば、拡張現実ビュー、仮想現実ビューなど)を表示している間、コンピュータシステムは、第2のロケーションに関連付けられた個別のタイプのエクササイズを終了させる要求に対応する第1のユーザの移動を検出する(例えば、第1のユーザが個別のタイプのエクササイズを中止すること、立ち上がること、l器具から降りること、HMDを外すこと、及び/又は第2のロケーションから歩き去ることなどを検出する)。第2のロケーションに関連付けられた個別のタイプのエクササイズを終了させる要求に対応する第1のユーザの移動を検出したことに応じて、コンピュータシステムは、物理的環境の少なくとも第4の部分の表現を含む三次元環境の第5のビューを検出し、物理的環境の少なくとも第4の部分の表現は、第1のユーザが第2のロケーションにいる間に個別のタイプのエクササイズに対応する個別のセットの仮想コンテンツが表示されていた第1のユーザの視野の一部を占有する。例えば、現在のエクササイズを終了させる要求に対応する第1のユーザの移動が検出されると、現在のエクササイズに対応する仮想シーンは表示が停止され(例えば、次第に消えたり、すぐに表示が停止されるなど)、物理的環境の表現を再び見えるようにする。いくつかの実施形態では、ユーザ7002がオブジェクト7404から離れて移動し、シーン105内のオブジェクト7402に到達していないとき、図7O及び7Pのビュー7408もビュー7410も表示されず、図7Nに示されるような物理的環境の表現が表示される。
物理的環境の少なくとも第4の部分の表現であって、物理的環境の少なくとも第4の部分の表現は、第1のユーザが第2のロケーションにいる間に個別のタイプのエクササイズに対応する個別のセットの仮想コンテンツが表示されていた第1のユーザの視野の一部を占有する、第4の部分の表現を含む三次元環境の第5のビューを表示することは、第2のロケーションに関連付けられた個別のタイプのエクササイズを終了させる要求に対応する第1のユーザの移動を検出したことに応じて、更なるユーザ入力(例えば、三次元環境の第5のビューを表示するための更なるユーザ入力)を必要とせずに、条件のセットが満たされたときに三次元環境の第5のビューを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、コンピュータシステムは、三次元環境の第2のビュー(例えば、図7Oのビュー7408、図7Pのビュー7410、別のビューなど)が表示されるときに、第1のタイプのエクササイズに対応するステータス情報(例えば、現在のセッション中の進行、持続時間、速度、力、身長、ペース、ストライド長、パフォーマンスレベル、スコア、完了した反復回数など、過去の統計、第1のユーザ及び/又は複数のユーザにわたる平均統計、同じタイプのエクササイズを行っている他のユーザのステータスなど)を表示する。いくつかの実施形態では、第1のタイプのエクササイズに対応するステータス情報は、第1のタイプのエクササイズに対応する仮想シーンの一部に重ね合わされる。いくつかの実施形態では、ステータス情報は、第1のタイプのエクササイズに対応する仮想シーンがステータス情報なしで表示されている間に検出される第1のユーザの要求に応じて表示される。いくつかの実施形態では、三次元環境の第2のビューは、第1のユーザによる第1のタイプのエクササイズの実行全体にわたって次第に進展する。いくつかの実施形態では、ステータス情報は、第1のユーザによる第1のタイプのエクササイズの実行全体を通じて連続的に更新される(例えば、三次元環境の変化する第2のビューに重ね合わされる)。いくつかの実施形態では、ステータス情報は、1つ以上の性能パラメータの値が予め設定された閾値を満たした(例えば、目標速度又は距離が達成された、閾値スコアに達したなど)ことの検出に応じて表示される。
三次元環境の第2のビューが表示されるときに第1のタイプのエクササイズに対応するステータス情報を表示することは、改善された視覚的フィードバック(例えば、第1のタイプのエクササイズに関する改善された視覚的フィードバック、第2のポジションへのユーザの移動が第1の基準を満たすという改善された視覚的フィードバック、コンピュータシステムが三次元環境の第2のビューを表示しているという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、コンピュータシステムは、三次元環境の第2のビュー(例えば、図7Oのビュー7408、図7Pのビュー7410、別のビューなど)が表示されるとき、第1のユーザに対応する健康情報(例えば、リアルタイムバイオメトリックデータ(例えば、心拍数、血圧、呼吸数、体温、血糖値など)、体重、BMIなど)を表示する。いくつかの実施形態では、第1のユーザに対応する健康情報は、第1のタイプのエクササイズに対応する仮想シーンの一部に重ね合わされる。いくつかの実施形態では、健康情報は、第1のタイプのエクササイズに対応する仮想シーンが健康情報なしで表示されている間に検出される第1のユーザの要求に応じて表示される。いくつかの実施形態では、三次元環境の第2のビューは、第1のユーザによる第1のタイプのエクササイズの実行全体にわたって次第に進展する。いくつかの実施形態では、健康情報は、第1のユーザによる第1のタイプのエクササイズの実行全体を通じて連続的に更新される(例えば、三次元環境の変化する第2のビューに重ね合わされる)。いくつかの実施形態では、健康情報は、1つ以上の健康パラメータの値が予め設定された閾値を満たした(例えば、目標心拍数が達成された、閾値血圧に達したなど)ことの検出に応じて表示される。
三次元環境の第2のビューが表示されるときに第1のユーザに対応する健康情報を表示することは、改善された視覚的フィードバック(例えば、第1のタイプのエクササイズに関する改善された視覚的フィードバック、第2のポジションへのユーザの移動が第1の基準を満たすという改善された視覚的フィードバック、コンピュータシステムが三次元環境の第2のビューを表示しているという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、コンピュータシステムは、三次元環境の第2のビュー(例えば、図7Oのビュー7408、図7Pのビュー7410、別のビューなど)が表示されるときに、第1のユーザによって行われた第1のタイプのエクササイズの進行情報(例えば、リアルタイムスコア、完了したラップ、残りのラップ、持続時間、歩数、移動距離、完了したポーズなど)を視覚的に提示する。いくつかの実施形態では、進行情報は、第1のユーザに提示される仮想シーンに生じる視覚的変化によって視覚的に表される(例えば、仮想ハイキングコース上の仮想里程標、下りポジションに示される仮想シューティングターゲットの数、仮想ゲーム場の一部としてのスコアボード、達成される深い瞑想度を表す仮想湖上の水の静止など)。いくつかの実施形態では、第1のユーザによる第1のタイプのエクササイズの実行に対応する進行情報は、第1のタイプのエクササイズに対応する仮想シーンの一部に重ねられる。いくつかの実施形態では、進行情報は、第1のタイプのエクササイズに対応する仮想シーンが進行情報なしで表示されている間に検出される第1のユーザの要求に応じて表示される。いくつかの実施形態では、三次元環境の第2のビューは、第1のユーザによる第1のタイプのエクササイズの実行全体にわたって次第に進展する。いくつかの実施形態では、進行情報は、第1のユーザによる第1のタイプのエクササイズの実行全体にわたって連続的に更新される(例えば、三次元環境の変化する第2のビューに重ね合わされる)。いくつかの実施形態において、進行情報は、1つ以上の進行パラメータの値が予め設定された閾値を満たした(例えば、目標距離が達成された、閾値スコアに達した、エクササイズルーチンが完了したなど)ことの検出に応じて表示される。
三次元環境の第2のビューが表示されるときに第1のユーザによって実行される第1のタイプのエクササイズの進行情報を視覚的に提示することは、改善された視覚的フィードバック(例えば、第1のタイプのエクササイズの進行情報に関連する改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のユーザが物理的環境内で第1の方向を向いているという判定に従って、コンピュータシステムは、第1のセットの仮想コンテンツの第2のサブセットを表示することなく、エクササイズの第1のタイプに対応する第1のセットの仮想コンテンツの第1のサブセットを表示し、第1のユーザが物理的環境内で第1の方向と異なる第2の方向(例えば、第1の方向と反対の方向、第1の方向から0でない角度など)を向いているという判定に従って、コンピュータシステムは、第1のセットの仮想コンテンツの第2のサブセットを表示することなく、エクササイズの第1のタイプに対応する第1のセットの仮想コンテンツの第2のサブセット(例えば、図7Oのビュー7408に示されていない仮想開放水域7406、図7Pのビュー7410に示されていない仮想マウンテントレイル7412など)を表示する。例えば、いくつかの実施形態では、三次元環境の第2のビューは、第1のユーザの全周囲の方向に仮想オブジェクトを伴う没入型ビューである(例えば、ユーザの視野よりも広い角度に及ぶため、ユーザが自分の頭を回したとき、仮想環境の様々な部分が見える)。いくつかの実施形態では、コンピュータシステムは、サラウンドサウンドモードなどの没入型音声出力モード、又は仮想環境内の音生成仮想オブジェクト(例えば、応援する群衆、海の波、仮想コーチなど)に対応するポジションに局所化された音を提供する空間音声モードを使用して音響効果を出力する。
第1のユーザが物理的環境内で第1の方向を向いているという判定に従って、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツの第1のサブセットを、第1のセットの仮想コンテンツの第2のサブセットを表示せずに表示し、第1のユーザが物理的環境内で第1の方向とは異なる第2の方向であるという判定に従って、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツの第2のサブセットを、第1のセットの仮想コンテンツの第2のサブセットを表示せずに表示することは、更なるユーザ入力(例えば、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツをナビゲートするための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツの適切なサブセットを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプのエクササイズは、ローイングエクササイズであり、第2のロケーションは、ローイングエクササイズ器具(例えば、オブジェクト7404、他のローイング器具など)が存在するロケーションであり、三次元環境の第2のビュー(例えば、図7Oのビュー7408)は、開放水域を有する仮想シーン(例えば、図7Oの仮想開放水域7406)を含む。いくつかの実施形態では、第1の基準は更に、第1の基準が満たされるために、(例えば、図7O(A)に示されるように)第1のユーザがローイングエクササイズ器具に座り、彼/彼女の手をローイングエクササイズ器具のオール上に置くという要件を含む。いくつかの実施形態では、第2のタイプのエクササイズはウォーキングエクササイズであり、第2のロケーションは、トレッドミル(例えば、オブジェクト7402、又は他のウォーキング器具など)を伴うロケーションであり、三次元環境の第3のビュー(例えば、図7Pのビュー7410)は、屋外ウォーキング路(例えば、図7Pの仮想コース7412)(例えば、ハイキングコース、湖岸路、都市街路など)を示す仮想シーンを含む。いくつかの実施形態では、第2の基準は、第1のユーザがトレッドミルに乗り、少なくとも1歩進むという要件を更に含む。第1のタイプのエクササイズがローイングエクササイズであり、第2のロケーションがローイングエクササイズ器具が存在するロケーションである、開放水域を有する仮想シーンを含む三次元環境の第2のビューを表示することは、改善された視覚的フィードバック(例えば、第1のタイプのエクササイズがローイングエクササイズであるという改善された視覚的フィードバック、ローイングエクササイズ器具が第2のロケーションに存在するという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のロケーションから第2のロケーションへの第1のユーザ(例えば、図7O~図7Pの7002)の移動を検出したことに応じて、第2のロケーションが第5のタイプのエクササイズ及び第6のタイプのエクササイズに関連付けられたロケーションに対応するという判定に従って、かつ第1のロケーションから第2のロケーションへの第1のユーザの移動の後、第2のロケーションにおける第1のユーザによる第5のタイプのエクササイズに関連付けられた個別のタイプの器具との関与が続くという判定に従って、コンピュータシステムは、三次元環境の第6のビューを表示し、三次元環境の第6のビューは、第5のタイプのエクササイズ(例えば、バレーボール、テニス、楕円形マシンなど)に対応する第5のセットの仮想コンテンツを含み、第5のセットの仮想コンテンツは、第1のセットの仮想コンテンツ及び第2のセットの仮想コンテンツとは異なり、第5のセットの仮想コンテンツは、物理的環境の第5の部分の第5の表現の少なくとも一部を置換する。いくつかの実施形態では、第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したことに応じて、第1のロケーションから第2のロケーションへの第1のユーザの移動の後、第2のロケーションにおける第1のユーザによる第6のタイプのエクササイズに関連付けられた個別のタイプの器具との関与が続くという判定に従って、コンピュータシステムは、三次元環境の第7のビューを表示し、三次元環境の第7のビューは、第6のタイプのエクササイズ(例えば、バスケットボール、フェンシング、エクササイズバイクなど)に対応する第6のセットの仮想コンテンツを含み、第6のセットの仮想コンテンツは、第1のセットの仮想コンテンツ、第2のセットの仮想コンテンツ、及び第5のセットの仮想コンテンツとは異なり、第6のセットの仮想コンテンツは、物理的環境の第5の部分の第5の表現の少なくとも一部を置換する(例えば、物理的環境の第5の部分は、第5のタイプのエクササイズ及び第6のタイプのエクササイズの両方に関連付けられる)。これは図7O及び図7Pに示されており、いくつかの実施形態によれば、ユーザ7002が、第1のタイプのエクササイズ(例えば、ローイング、ボート漕ぎなど)に対応するオブジェクト7404を含む1つのロケーションから、第2のタイプのエクササイズ(例えば、ハイキング、ウォーキングなど)に対応するオブジェクト7402を含む別のロケーションに移動するとき、ビュー7408内の仮想コンテンツ(例えば、仮想開放水域7406、又は他の仮想コンテンツなど)は、ビュー7410内の仮想コンテンツ(例えば、ハイキングコース7412、又は他の仮想コンテンツなど)に置換される。
三次元環境の第6のビューであって、三次元環境の第6のビューは、第1のロケーションから第2のロケーションへの第1のユーザの移動の後に、第2のロケーションにおける第1のユーザによる第5のタイプのエクササイズに関連付けられた個別のタイプの器具との関与が続くという判定に従って、第5のタイプのエクササイズに対応する第5のセットの仮想コンテンツを含む、三次元環境の第6のビューが表示されることと、三次元環境の第7のビューであって、三次元環境の第7のビューは、第1のロケーションから第2のロケーションへの第1のユーザの移動の後に、第2のロケーションにおける第1のユーザによる第6のタイプのエクササイズに関連付けられた個別のタイプの器具との関与が続くという判定に従って、第6のタイプのエクササイズに対応する第6のセットの仮想コンテンツを含む、三次元環境の第7のビューが表示されることとは、更なるユーザ入力(例えば、三次元環境のビュー及び/又は個別のタイプのエクササイズに対応する仮想コンテンツのセットを選択又はナビゲートするための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、それぞれのタイプのエクササイズに対応する仮想コンテンツの個別のセットを有する三次元環境の適切なビューを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7O~図7Pのビュー7408、ビュー7410など)は、第1のユーザ(例えば、図7N~図7Pのユーザ7002、又は別のユーザなど)の仮想表現を含み、この仮想表現は、第1のユーザと競争して(例えば、第1のユーザの以前の最良記録に基づいて、第1のタイプのエクササイズについて第1のユーザの予め設定された構成に基づいてなど)第1のタイプのエクササイズを実行するように示される。いくつかの実施形態では、三次元環境の第3のビューは、第1のユーザと競争して(例えば、第1のユーザの以前の最良記録に基づいて、第2のタイプのエクササイズについて第1のユーザの予め設定された構成に基づいてなど)第2のタイプのエクササイズを実行するように示される第1のユーザの仮想表現を含む。第1のユーザと競争して第1のタイプのエクササイズを実行するように示される第1のユーザの仮想表現を含む三次元環境の第2のビューを表示することは、ユーザに改善された視覚的フィードバック(例えば、第1のタイプのエクササイズに関する改善された視覚的フィードバック、第1のタイプのエクササイズの第1のユーザの実行の特性に関する改善された視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7O~図7Pのビュー7408、ビュー7410など)は、第1のユーザと競争して第1のタイプのエクササイズを行うように示される、第1のユーザとは異なる少なくとも第2のユーザ(例えば、図7N~図7Pのユーザ7002、又は別のユーザなど)の仮想表現を含む。いくつかの実施形態では、三次元環境の第3のビューは、第1のユーザと競争して第2のタイプのエクササイズを実行するように示される、第1のユーザとは異なる少なくとも第2のユーザの仮想表現を含む。第1のユーザと競争して第1のタイプのエクササイズを行うように示される、第1のユーザとは異なる少なくとも第2のユーザの仮想表現を含む、三次元環境の第2のビューを表示することは、改善された視覚的フィードバック(例えば、少なくとも第2のユーザも第1のタイプのエクササイズを行っているという改善された視覚的フィードバック、第1のタイプのエクササイズの第2のユーザの実行に対する第1のタイプのエクササイズのユーザの実行に関する改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
図12における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、10000、及び11000)に関して本明細書で記載した他のプロセスの詳細はまた、図12に関連して上述した方法12000に類似の方式で適用可能であることに留意されたい。例えば、方法12000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法8000、9000、10000、及び11000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図8、図9A~9B、図10、図11、及び図12を参照して上述した動作は、任意選択的に、図1~図6に示すコンポーネントにより実施される。いくつかの実施形態では、方法8000、9000、10000、11000、及び12000の態様/動作は、これらの方法の間で交換、置換、及び/又は追加されてもよい。簡潔にするために、それらの詳細はここでは繰り返さない。
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に適した様々な変更で本発明及び様々な記載された実施形態を最良の形で使用することを有効化するために、これらの実施形態を選択し記載した。