JP7496424B2 - 単一コントローラを使用したコンテンツ移動および相互作用 - Google Patents

単一コントローラを使用したコンテンツ移動および相互作用 Download PDF

Info

Publication number
JP7496424B2
JP7496424B2 JP2022544290A JP2022544290A JP7496424B2 JP 7496424 B2 JP7496424 B2 JP 7496424B2 JP 2022544290 A JP2022544290 A JP 2022544290A JP 2022544290 A JP2022544290 A JP 2022544290A JP 7496424 B2 JP7496424 B2 JP 7496424B2
Authority
JP
Japan
Prior art keywords
user
content
interactive content
location
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022544290A
Other languages
English (en)
Other versions
JPWO2021150623A5 (ja
JP2023511905A (ja
Inventor
カレン ストールゼンバーグ,
マーク アラン マッコール,
フランク アレクサンダー ザ フォース ハミルトン,
コール パーカー ハイナー,
ジョン オースティン デイ,
エリック ノーマン イスキス,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Priority claimed from PCT/US2021/014208 external-priority patent/WO2021150623A1/en
Publication of JP2023511905A publication Critical patent/JP2023511905A/ja
Publication of JPWO2021150623A5 publication Critical patent/JPWO2021150623A5/ja
Application granted granted Critical
Publication of JP7496424B2 publication Critical patent/JP7496424B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

(関連出願の相互参照)
本願は、35U.S.C.§119(e)下、その開示が、参照することによってその全体として本明細書に組み込まれる、2020年1月24日に出願され、「CONTENT MOVEMENT AND INTERACTION USING A SINGLE CONTROLLER」と題された、米国仮出願第62/965708号の優先権の利益を主張する。
本開示は、概して、1人またはそれを上回るユーザのための双方向仮想または拡張現実環境を促進するためのシステムおよび方法に関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」、「拡張現実」、または「複合現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、すなわち、そのように知覚され得る様式でユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴い、拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴い、複合現実、すなわち、「MR」シナリオは、実世界と仮想世界との融合に関連し、物理的および仮想オブジェクトが共存し、リアルタイムで相互作用する、新しい環境を生産する。結論から言うと、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素の中で仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、VR、AR、またはMR技術を生産することは、困難である。本明細書に開示されるシステムおよび方法は、VR、AR、およびMR技術に関連する種々の課題に対処する。
本開示の実施形態は、1人またはそれを上回るユーザのための仮想または拡張現実相互作用を促進するためのデバイス、システム、および方法を対象とする。
本開示の特徴、目的、および利点のさらなる詳細は、下記の詳細な説明、図面、および請求項に説明される。前述の一般的説明および以下の詳細な説明は両方とも、例示的かつ説明的であって、本開示の範囲に関して限定することを意図するものではない。
いくつかの構成では、拡張現実(AR)システムは、仮想コンテンツをARシステムのユーザに提示するように構成される、ARディスプレイと、ユーザの環境の1つまたはそれを上回る画像を捕捉するように構成される、外向きに向いたカメラと、ハンドヘルドコントローラの指示方向を示す、指示ベクトルを定義する、ハンドヘルドコントローラと、ARディスプレイ、外向きに向いたカメラ、およびハンドヘルドコントローラと通信する、ハードウェアプロセッサであって、ARディスプレイを介して、双方向コンテンツオブジェクトを表示し、第1の相互作用モードでは、指示ベクトルが双方向コンテンツオブジェクト内に留まる間、双方向コンテンツオブジェクト内のハンドヘルドコントローラの移動を示し、ハンドヘルドコントローラを介して、双方向コンテンツオブジェクトとの相互作用を可能にし、双方向コンテンツオブジェクトを基準として、指示ベクトルの変化を監視し、双方向コンテンツオブジェクトの外側の指示ベクトルの移動の検出に応答して、本システムを第2の相互作用モードに更新し、ハンドヘルドコントローラは、双方向コンテンツオブジェクトが仮想環境内でハンドヘルドコントローラの移動に追従するように、双方向コンテンツオブジェクトの移動を生じさせ、双方向コンテンツオブジェクトの内側のハンドヘルドコントローラの指示ベクトルの移動の検出に応答して、本システムを第1の相互作用モードに更新するようにプログラムされ得る、ハードウェアプロセッサとを含むことができる。
いくつかの構成では、拡張現実(AR)システムは、仮想コンテンツをARシステムのユーザに提示するように構成される、ARディスプレイと、少なくとも6自由度を有する、ハンドヘルドコントローラと、ARディスプレイ、外向きに向いたカメラ、およびハンドヘルドコントローラと通信する、ハードウェアプロセッサであって、双方向コンテンツを第1のコンテンツ場所に表示し、コントローラによって示される方向を備える、第1の指示ベクトルを決定し、第1の指示ベクトルが、双方向コンテンツと関連付けられる、境界された体積と交差するかどうかを決定し、第1の指示ベクトルが、境界された体積と交差しないことの決定に応答して、双方向コンテンツを、第1の指示ベクトルの方向に沿った点と関連付けられる、第2のコンテンツ場所に移動させ、第1の指示ベクトルが境界された体積と交差することの決定に応答して、第1のコンテンツ場所における双方向コンテンツと相互作用するためのインジケーションを受信するようにプログラムされ得る、ハードウェアプロセッサとを含むことができる。
仮想コンテンツを表示するための方法は、双方向コンテンツを第1のコンテンツ場所に表示するステップと、コントローラによって示される方向を備える、第1の指示ベクトルを決定するステップと、第1の指示ベクトルが、双方向コンテンツと関連付けられる、境界された体積と交差するかどうかを決定するステップと、第1の指示ベクトルが、境界された体積と交差しないことの決定に応答して、双方向コンテンツを、第1の指示ベクトルの方向に沿った点と関連付けられる、第2のコンテンツ場所に移動させるステップと、第1の指示ベクトルが境界された体積と交差することの決定に応答して、第1のコンテンツ場所における双方向コンテンツと相互作用するためのインジケーションを受信するステップとを含むことができる。
本発明は、例えば、以下を提供する。
(項目1)
拡張現実(AR)システムであって、
仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
前記ユーザの環境の1つまたはそれを上回る画像を捕捉するように構成される外向きに向いたカメラと、
ハンドヘルドコントローラの指示方向を示す指示ベクトルを定義するハンドヘルドコントローラと、
前記ARディスプレイ、前記外向きに向いたカメラ、および前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記ARディスプレイを介して、双方向コンテンツオブジェクトを表示することと、
第1の相互作用モードにおいて、前記指示ベクトルが前記双方向コンテンツオブジェクト内に留まる間、前記双方向コンテンツオブジェクト内の前記ハンドヘルドコントローラの移動を示し、前記ハンドヘルドコントローラを介して、前記双方向コンテンツオブジェクトとの相互作用を可能にすることと、
前記双方向コンテンツオブジェクトを基準として、前記指示ベクトルの変化を監視することと、
前記双方向コンテンツオブジェクトの外側の前記指示ベクトルの移動の検出に応答して、前記システムを第2の相互作用モードに更新することであって、前記ハンドヘルドコントローラは、前記双方向コンテンツオブジェクトが前記仮想環境内で前記ハンドヘルドコントローラの移動に追従するように、前記双方向コンテンツオブジェクトの移動を生じさせる、ことと、
前記双方向コンテンツオブジェクトの内側の前記ハンドヘルドコントローラの前記指示ベクトルの移動の検出に応答して、前記システムを前記第1の相互作用モードに更新することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。
(項目2)
前記双方向コンテンツオブジェクトは、仮想オブジェクトを含有する境界された体積を備える、項目1に記載のシステム。
(項目3)
前記双方向コンテンツオブジェクトの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、項目1または2のいずれか1項に記載のシステム。
(項目4)
前記ハードウェアプロセッサは、前記双方向コンテンツを第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、項目1-3のいずれか1項に記載のシステム。
(項目5)
前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、項目4に記載のシステム。
(項目6)
前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツの表示をアラートするように構成される、項目4-5のいずれか1項に記載のシステム。
(項目7)
前記アラートは、グラフィック、触知フィードバック、または音のうちの少なくとも1つを含む、項目6に記載のシステム。
(項目8)
前記ハードウェアプロセッサは、前記ユーザの環境内における前記双方向コンテンツの表示を停止するためのインジケーションを受信するように構成される、項目1-7のいずれか1項に記載のシステム。
(項目9)
前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、項目8に記載のシステム。
(項目10)
前記ハードウェアプロセッサは、
第1のユーザ頭部姿勢を決定することと、
前記第1のユーザ頭部姿勢に基づいて、第1のユーザ視線ベクトルを識別することと、
前記双方向コンテンツオブジェクトの表面が前記第1のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツを配向することと
を行うように構成される、項目1-9のいずれか1項に記載のシステム。
(項目11)
前記ハードウェアプロセッサは、
第2のユーザ頭部姿勢を決定することと、
前記第2のユーザ頭部姿勢に基づいて、第2のユーザ視線ベクトルを識別することと、
前記双方向コンテンツオブジェクトの表面が前記第2のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツオブジェクトを配向することと
を行うように構成される、項目10に記載のシステム。
(項目12)
前記双方向コンテンツオブジェクトのピッチは、前記ユーザの頭部の高さに対して固定される、項目1-11に記載のシステム。
(項目13)
前記ハードウェアプロセッサは、
前記双方向コンテンツの移動を停止させるためのインジケーションを受信することと、
前記移動を停止させるためのインジケーションの受信に応答して、前記双方向コンテンツの表示を前記ユーザの環境内の現在のコンテンツ場所に維持することと
を行うように構成される、項目1-12のいずれか1項に記載のシステム。
(項目14)
前記ハードウェアプロセッサは、
前記双方向コンテンツの移動を開始するためのインジケーションを受信することと、
前記移動を開始するためのインジケーションの受信に応答して、前記双方向コンテンツが前記ユーザの環境内の新しい場所に表示されることを可能にすることと
を行うように構成される、項目13に記載のシステム。
(項目15)
拡張現実(AR)システムであって、
仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
少なくとも6自由度を有するハンドヘルドコントローラと、
前記ARディスプレイ、外向きに向いたカメラ、および前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
双方向コンテンツを第1のコンテンツ場所に表示することと、
前記コントローラによって示される方向を備える第1の指示ベクトルを決定することと、
前記第1の指示ベクトルが、前記双方向コンテンツと関連付けられる境界された体積と交差するかどうかを決定することと、
前記第1の指示ベクトルが、前記境界された体積と交差しないことの決定に応答して、前記双方向コンテンツを、前記第1の指示ベクトルの方向に沿った点と関連付けられる第2のコンテンツ場所に移動させることと、
前記第1の指示ベクトルが前記境界された体積と交差することの決定に応答して、前記第1のコンテンツ場所における前記双方向コンテンツと相互作用するためのインジケーションを受信することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。
(項目16)
前記双方向コンテンツは、仮想オブジェクトを含有する境界された体積を備える、項目15に記載のシステム。
(項目17)
前記双方向コンテンツの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、項目15または16のいずれか1項に記載のシステム。
(項目18)
前記ハードウェアプロセッサは、前記双方向コンテンツを前記第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、項目15に記載のシステム。
(項目19)
前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、項目18に記載のシステム。
(項目20)
前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツの表示をアラートするように構成される、項目18-19のいずれか1項に記載のシステム。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用される。以下の図面および関連付けられる説明は、本開示の実施形態を例証するために提供され、請求項の範囲を限定するものではない。
図面は、本開示の種々の実施形態の設計および有用性を図示する。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して類似参照番号によって表されることに留意されたい。本開示の種々の実施形態の上記に列挙および他の利点および目的を取得する方法をより深く理解するために、上記に簡単に説明された本開示のより詳細な説明が、付随の図面に図示される、その具体的実施形態を参照して与えられるであろう。これらの図面は、本開示の典型的実施形態のみを描写し、したがって、その範囲の限定として見なされるべきではないことを理解した上で、本開示は、付随の図面の使用を通して付加的具体性および詳細とともに説明および記載されるであろう。
図1は、ARデバイスを通した拡張現実(AR)場面のユーザのビューを図示する。
図2は、ユーザのための3次元画像をシミュレートするための従来のディスプレイシステムを図示する。
図3A-3Cは、曲率半径と焦点半径との間の関係を図示する。
図4Aは、ヒト視覚系の遠近調節-輻輳・開散運動応答の表現を図示する。
図4Bは、一対のユーザの眼の異なる遠近調節状態および輻輳・開散運動状態の実施例を図示する。
図4Cは、ディスプレイシステムを介してコンテンツを視認するユーザの上下図の表現の実施例を図示する。
図4Dは、ディスプレイシステムを介してコンテンツを視認するユーザの上下図の表現の別の実施例を図示する。
図5は、波面発散を修正することによって3次元画像をシミュレートするためのアプローチの側面を図示する。
図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。
図7は、導波管によって出力された出射ビームの実施例を図示する。
図8は、スタックされた導波管アセンブリの実施例を図示し、各深度面は、複数の異なる原色を使用して形成される画像を含む。
図9Aは、それぞれ、内部結合光学要素を含む、スタックされた導波管のセットの実施例の断面側面図を図示する。
図9Bは、図9Aの複数のスタックされた導波管の実施例の斜視図を図示する。
図9Cは、図9Aおよび9Bの複数のスタックされた導波管の実施例の上下平面図を図示する。
図9Dは、ウェアラブルディスプレイシステムの実施例を図示する。
図10Aは、コントローラボタンを通して受信されたユーザ入力の実施例を図示する。
図10Bは、コントローラタッチパッドを通して受信されたユーザ入力の実施例を図示する。
図10Cは、コントローラまたは頭部搭載型デバイス(HMD)の物理的移動を通して受信されたユーザ入力の実施例を図示する。
図10Dは、ユーザ入力が異なる持続時間を有し得る様子の実施例を図示する。
図11Aは、コントローラボタンを通して受信されたユーザ入力の付加的実施例を図示する。
図11Bは、コントローラタッチパッドを通して受信されたユーザ入力の付加的実施例を図示する。
図12Aは、本明細書に開示される追従および相互作用方法の一実施例による、例示的コンテンツ制御環境1200を図示する。
図12Bは、ユーザの3D空間内のコンテンツ場所を制御する、またはコンテンツと相互作用するために利用され得る、例示的プロセスのフローチャートを示す。
図12Cは、境界された体積内の例示的コンテンツを図示する。
図12Dは、その指示ベクトルが、概して、境界された体積内のコンテンツに向かうように配向される、コントローラの上面図を図示する。
図13A、13B、および13Cは、例示的コンテンツ移動環境の例示的側面を図示する。 図13A、13B、および13Cは、例示的コンテンツ移動環境の例示的側面を図示する。 図13A、13B、および13Cは、例示的コンテンツ移動環境の例示的側面を図示する。
図14A-14Cは、例示的コンテンツ配向環境の側面を図示する。 図14A-14Cは、例示的コンテンツ配向環境の側面を図示する。 図14A-14Cは、例示的コンテンツ配向環境の側面を図示する。
図14Dは、例示的コンテンツ配向プロセスのフローチャートを図示する。
図15は、例示的コンテンツアクセス手順を図示する。
図16は、例示的コンテンツドロップ手順を図示する。
図17は、個別のウェアラブルシステムの2人のユーザがテレプレゼンスセッションを行う、コンテンツ追従システムのための例示的アプリケーションを描写する。
詳細な説明
ARおよび/またはVRシステムは、仮想コンテンツをユーザまたは視認者に表示し得る。例えば、本コンテンツは、例えば、アイウェアの一部として、画像情報をユーザの眼に投影する、頭部搭載型ディスプレイ上に表示されてもよい。加えて、本システムが、ARシステムである場合、ディスプレイはまた、周囲環境からの光をユーザの眼に透過させ、その周囲環境のビューを可能にし得る。本明細書で使用されるように、「頭部搭載型」または「頭部搭載可能」ディスプレイは、視認者またはユーザの頭部上に搭載され得る、ディスプレイであることを理解されたい。そのようなディスプレイは、ディスプレイシステムの一部を形成すると理解され得る。
種々の拡張現実および仮想現実ディスプレイシステムでは、回折または反射外部結合要素等の外部結合要素が、導波管からの光をユーザの眼に向かって外部結合する。しかしながら、典型的外部結合要素は、指向性ではない場合があり、外部結合光学要素内の全ての領域において、光を種々の方向に出力するように、構造化されている場合がある。したがって、外部結合要素によって外部結合された光の一部は、眼に入射し、画像を形成するであろう、ユーザの眼の瞳孔に向かって有用に指向され得るが、外部結合要素によって外部結合された他の光は、眼の瞳孔またはその近くに入射し得ず、したがって、ディスプレイシステムによって形成される画像に寄与しない。
故に、光の外部結合をユーザの眼の瞳孔に向かって標的化することによって、かつ他の方向に外部結合される光の量を低減させることによって、効率を増加または最適化し得る、ディスプレイシステムを設計することが望ましくあり得る。外部結合を瞳孔に向かって標的化することによって、そのようなシステムは、所与の明度の画像を装着者の眼の中に生産するために、光投影システムまたは他のディスプレイ光源によって生成されなければならない、光エネルギーの量を低減させ得る。本技術の種々の実施形態は、画像光を装着者の眼の瞳孔に向かって選択的に指向するように構成される、外部結合要素、内部結合要素、および/または光投影システムを含む、システムを提供する。そのようなシステムは、それによって、有利なこととして、それらが、ユーザによって知覚される画像を形成するために使用される、光投影システムによって生産された所与の光の量の割合を増加させ得、ユーザの眼の他の部分または顔に当たる、またはそうでなければユーザによって知覚される画像に寄与しない、光の割合を低減させ得るため、本明細書に開示されるディスプレイデバイスの効率を改良し得る。
ここで、同様の参照番号が全体を通して同様の部分を指す、図面を参照する。別様に示されない限り、図面は、概略であって、必ずしも、正確な縮尺で描かれていない。
A. 用語
本明細書で議論されるシステムおよび方法の理解を促進するために、いくつかの用語が、下記に説明される。下記に説明される用語および本明細書で使用される他の用語は、提供される説明、用語の通常および慣例意味、および/または個別の用語に関する任意の他の含意される意味を含むものと解釈されるべきであって、そのような構造は、用語のコンテキストと一致する。したがって、下記の説明は、これらの用語の意味を限定するものではなく、例示的説明のみを提供する。
頭部姿勢(または「頭部の姿勢」):ウェアラブルヘッドセット、代理として、実世界内のユーザの頭部の位置および/または配向。頭部姿勢は、慣性測定ユニット(IMU)、加速度計、ジャイロスコープ等のセンサを使用して決定されてもよい。頭部姿勢の方向に延在する、頭部姿勢光線が、仮想オブジェクトと相互作用するために使用されてもよい。例えば、ユーザが、プリズムまたはオブジェクトを指示または見ているとき、オブジェクトまたはプリズムは、ユーザの頭部姿勢光線によって交差される。
コントローラ:トーテム等のハンドヘルドコントローラ。制御は、6DoF(6自由度)等の多自由度移動を提供してもよい。
コントローラ姿勢:コントローラの位置および/または配向。コントローラ姿勢は、コントローラが指示している、複合現実環境の面積、体積、または点を決定するために使用されることができる。
プリズム:複合現実コンテンツまたは複合現実空間と関連付けられる、コンテナ、面積、または体積。例えば、プリズムは、ユーザによって選択可能であり得る、1つまたはそれを上回る仮想コンテンツアイテムを含有してもよい。プリズムは、アプリケーションが立ち上げられると、スポーンされてもよく、次いで、兄弟または子プリズムをスポーンし、フレキシブルなレイアウトを作成してもよい。プリズム内のアプリケーションは、これらの階層プリズムが現れるであろう場所を制御するように構成されてもよく、これは、典型的には、第1のプリズムの近接度内にあって、ユーザによって容易に発見可能である。プリズムは、フィードバックをユーザに提供してもよい。いくつかの実施形態では、フィードバックは、プリズムが頭部姿勢を用いて標的化されると、ユーザにのみに表示される、タイトルであってもよい。いくつかの実施形態では、フィードバックは、プリズムの周囲の光彩であってもよい。プリズム光彩(および/または他のプリズムフィードバック)もまた、共有する際に使用され、ユーザに共有されているプリズムのフィードバックを与えてもよい。
焦点:双方向オブジェクトが選択されることを可能にする、プリズム等のオブジェクトの特性。
入力焦点:オブジェクトのカーソルをアクティブシステムカーソルとしてリフレッシュおよびレンダリングさせる、プリズムまたはアプリケーション等のオブジェクトの特性。いくつかの実装では、複数の焦点オブジェクトが存在し得るが、1つのみが、入力焦点を伴う。
3Dコンテンツ:ユーザの3D環境内に表示され得る、仮想オブジェクト。3Dコンテンツは、静的である、アニメーション化される、操作可能である、または別様に相互作用されることができる。3Dコンテンツは、例えば、ブラウザタイルを使用して、ウェブドメインまたはウェブページとのユーザ相互作用によって生成される、ウェブベースのコンテンツを含むことができる。
A. 例示的拡張現実シナリオ
図1は、ある人物によって視認される、ある仮想現実オブジェクトおよびある実際の現実オブジェクトを伴う、拡張現実シナリオの例証を描写する。図1は、拡張現実場面100を描写し、AR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム120を特徴とする、実世界公園状設定110が見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム120上に立っている、ロボット像130と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ140(例えば、マルハナバチ)とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
3次元(3-D)ディスプレイが、深度の真の感覚、より具体的には、表面深度のシミュレートされた感覚を生産するために、ディスプレイの視野内の点毎に、その仮想深度に対応する、遠近調節応答を生成することが望ましい。ディスプレイ点に対する遠近調節応答が、収束および立体視の両眼深度キューによって決定されるようなその点の仮想深度に対応しない場合、ヒトの眼は、遠近調節衝突を被り、不安定な結像、有害な眼精疲労、頭痛、および遠近調節情報の不在下では、表面深度のほぼ完全な欠如をもたらし得る。
VR、AR、およびMR体験は、その中で複数の深度面に対応する画像が視認者に提供される、ディスプレイを有する、ディスプレイシステムによって提供されることができる。画像は、深度面毎に異なり得(例えば、場面またはオブジェクトの若干異なる提示を提供する)、視認者の眼によって別個に合焦され、それによって、ユーザに、異なる深度面上に位置する場面のための異なる画像特徴に合焦させるために要求される眼の遠近調節に基づいて、および/または焦点から外れている異なる深度面上の異なる画像特徴を観察することに基づいて、深度キューを提供することに役立ち得る。本明細書のいずれかの場所に議論されるように、そのような深度キューは、深度の信用できる知覚を提供する。
B. 例示的ディスプレイシステム
図2は、ユーザのための3次元画像をシミュレートするための従来のディスプレイシステムを図示する。ユーザの眼は、離間されており、空間内の実オブジェクトを見ているとき、各眼は、オブジェクトの若干異なるビューを有し、オブジェクトの画像を各眼の網膜上の異なる場所に形成し得ることを理解されたい。これは、両眼視差と称され得、ヒト視覚系によって、深度の知覚を提供するために利用され得る。従来のディスプレイシステムは、仮想オブジェクトが所望の深度における実オブジェクトであるように各眼によって見えるであろう仮想オブジェクトのビューに対応する、眼210、220毎に1つの同一仮想オブジェクトの若干異なるビューを伴う2つの明確に異なる画像190、200を提示することによって、両眼視差をシミュレートする。これらの画像は、ユーザの視覚系が深度の知覚を導出するために解釈し得る、両眼キューを提供する。
図2を継続して参照すると、画像190、200は、z-軸上で距離230だけ眼210、220から離間される。z-軸は、その眼が視認者の直前の光学無限遠におけるオブジェクトを固視している状態の視認者の光学軸と平行である。画像190、200は、平坦であって、眼210、220から固定距離にある。それぞれ、眼210、220に提示される画像内の仮想オブジェクトの若干異なるビューに基づいて、眼は、必然的に、オブジェクトの画像が眼のそれぞれの網膜上の対応する点に来て、単一両眼視を維持するように回転し得る。本回転は、眼210、220のそれぞれの視線を仮想オブジェクトが存在するように知覚される空間内の点上に収束させ得る。その結果、3次元画像の提供は、従来、ユーザの眼210、220の輻輳・開散運動を操作し得、ヒト視覚系が深度の知覚を提供するように解釈する、両眼キューを提供することを伴う。
しかしながら、深度の現実的かつ快適な知覚の生成は、困難である。眼からの異なる距離におけるオブジェクトからの光は、異なる発散量を伴う波面を有することを理解されたい。図3A-3Cは、距離と光線の発散との間の関係を図示する。オブジェクトと眼210との間の距離は、減少距離R1、R2、およびR3の順序で表される。図3A-3Cに示されるように、光線は、オブジェクトまでの距離が減少するにつれてより発散する。逆に言えば、距離が増加するにつれて、光線は、よりコリメートされる。換言すると、点(オブジェクトまたはオブジェクトの一部)によって生成されるライトフィールドは、点がユーザの眼から離れている距離の関数である、球状波面曲率を有すると言えるであろう。曲率は、オブジェクトと眼210との間の距離の減少に伴って増加する。単眼210のみが、例証を明確にするために、図3A-3Cおよび本明細書の種々の他の図に図示されるが、眼210に関する議論は、視認者の両眼210および220に適用され得る。
図3A-3Cを継続して参照すると、視認者の眼が固視しているオブジェクトからの光は、異なる波面発散度を有し得る。異なる波面発散量に起因して、光は、眼の水晶体によって異なるように集束され得、これは、ひいては、水晶体に、異なる形状をとり、集束された画像を眼の網膜上に形成することを要求し得る。集束された画像が、網膜上に形成されない場合、結果として生じる網膜ぼけは、集束された画像が網膜上に形成されるまで、眼の水晶体の形状に変化を生じさせる、遠近調節のためのキューとして作用する。例えば、遠近調節のためのキューは、眼の水晶体を囲繞する毛様筋の弛緩または収縮を誘起し、それによって、レンズを保持する提靭帯に印加される力を変調し、したがって、固視されているオブジェクトの網膜ぼけが排除または最小限にされるまで、眼の水晶体の形状を変化させ、それによって、固視されているオブジェクトの集束された画像を眼の網膜(例えば、中心窩)上に形成し得る。眼の水晶体が形状を変化させるプロセスは、遠近調節と称され得、固視されているオブジェクトの集束された画像を眼の網膜(例えば、中心窩)上に形成するために要求される眼の水晶体の形状は、遠近調節状態と称され得る。
ここで図4Aを参照すると、ヒト視覚系の遠近調節-輻輳・開散運動応答の表現が、図示される。オブジェクトを固視するための眼の移動は、眼にオブジェクトからの光を受光させ、光は、画像を眼の網膜のそれぞれ上に形成する。網膜上に形成される画像内の網膜ぼけの存在は、遠近調節のためのキューを提供し得、網膜上の画像の相対的場所は、輻輳・開散運動のためのキューを提供し得る。遠近調節するためのキューは、遠近調節を生じさせ、眼の水晶体がオブジェクトの集束された画像を眼の網膜(例えば、中心窩)上に形成する特定の遠近調節状態をとる結果をもたらす。一方、輻輳・開散運動のためのキューは、各眼の各網膜上に形成される画像が単一両眼視を維持する対応する網膜点にあるように、輻輳・開散運動移動(眼の回転)を生じさせる。これらの位置では、眼は、特定の輻輳・開散運動状態をとっていると言え得る。図4Aを継続して参照すると、遠近調節は、眼が特定の遠近調節状態を達成するプロセスであると理解され得、輻輳・開散運動は、眼が特定の輻輳・開散運動状態を達成するプロセスであると理解され得る。図4Aに示されるように、眼の遠近調節および輻輳・開散運動状態は、ユーザが別のオブジェクトを固視する場合、変化し得る。例えば、遠近調節された状態は、ユーザがz-軸上の異なる深度における新しいオブジェクトを固視する場合、変化し得る。
理論によって限定されるわけではないが、オブジェクトの視認者は、輻輳・開散運動および遠近調節の組み合わせに起因して、オブジェクトを「3次元」であると知覚し得ると考えられる。上記に記載されるように、2つの眼の相互に対する輻輳・開散運動移動(例えば、瞳孔が相互に向かって、またはそこから移動し、眼の視線を収束させ、オブジェクトを固視するような眼の回転)は、眼の水晶体の遠近調節と密接に関連付けられる。正常条件下では、眼の水晶体の形状を変化させ、1つのオブジェクトから異なる距離における別のオブジェクトに焦点を変化させることは、自動的に、「遠近調節-輻輳・開散運動反射」として知られる関係下、同一距離まで輻輳・開散運動における整合する変化を生じさせるであろう。同様に、輻輳・開散運動における変化は、正常条件下、水晶体形状における整合する変化を誘起するであろう。
ここで図4Bを参照すると、眼の異なる遠近調節および輻輳・開散運動状態の実施例が、図示される。対の眼222aは、光学無限遠におけるオブジェクトを固視する一方、対の眼222bは、光学無限遠未満におけるオブジェクト221を固視する。着目すべきこととして、各対の眼の輻輳・開散運動状態は、異なり、対の眼222aは、まっすぐ指向される一方、対の眼222は、オブジェクト221上に収束する。各対の眼222aおよび222bを形成する眼の遠近調節状態もまた、水晶体210a、220aの異なる形状によって表されるように異なる。
望ましくないことに、従来の「3-D」ディスプレイシステムの多くのユーザは、これらのディスプレイにおける遠近調節と輻輳・開散運動状態との間の不整合に起因して、そのような従来のシステムを不快であると見出す、または奥行感を全く知覚しない場合がある。上記に記載されるように、多くの立体視または「3-D」ディスプレイシステムは、若干異なる画像を各眼に提供することによって、場面を表示する。そのようなシステムは、それらが、とりわけ、単に、場面の異なる提示を提供し、眼の輻輳・開散運動状態に変化を生じさせるが、それらの眼の遠近調節状態に対応する変化を伴わないため、多くの視認者にとって不快である。むしろ、画像は、眼が全ての画像情報を単一遠近調節状態において視認するように、ディスプレイによって眼から固定距離に示される。そのような配列は、遠近調節状態における整合する変化を伴わずに輻輳・開散運動状態に変化を生じさせることによって、「遠近調節-輻輳・開散運動反射」に逆らう。本不整合は、視認者不快感を生じさせると考えられる。遠近調節と輻輳・開散運動との間のより良好な整合を提供する、ディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し得る。
理論によって限定されるわけではないが、ヒトの眼は、典型的には、有限数の深度面を解釈し、深度知覚を提供することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、眼にこれらの限定数の深度面のそれぞれに対応する画像の異なる提示を提供することによって達成され得る。いくつかの実施形態では、異なる提示は、輻輳・開散運動のためのキューおよび遠近調節するための整合するキューの両方を提供し、それによって、生理学的に正しい遠近調節-輻輳・開散運動整合を提供してもよい。
図4Bを継続して参照すると、眼210、220からの空間内の異なる距離に対応する、2つの深度面240が、図示される。所与の深度面240に関して、輻輳・開散運動キューが、眼210、220毎に適切に異なる視点の画像を表示することによって提供されてもよい。加えて、所与の深度面240に関して、各眼210、220に提供される画像を形成する光は、その深度面240の距離におけるある点によって生成されたライトフィールドに対応する波面発散を有してもよい。
図示される実施形態では、点221を含有する、深度面240のz-軸に沿った距離は、1mである。本明細書で使用されるように、z-軸に沿った距離または深度は、ユーザの眼の射出瞳に位置するゼロ点を用いて測定されてもよい。したがって、1mの深度に位置する深度面240は、眼が光学無限遠に向かって指向される状態における、それらの眼の光学軸上のユーザの眼の射出瞳から1m離れた距離に対応する。近似値として、z-軸に沿った深度または距離は、ユーザの眼の正面のディスプレイ(例えば、導波管の表面)から測定され、デバイスとユーザの眼の射出瞳との間の距離に関する値が加えられてもよい。その値は、瞳距離と呼ばれ、ユーザの眼の射出瞳と眼の正面のユーザによって装着されるディスプレイとの間の距離に対応し得る。実際は、瞳距離に関する値は、概して、全ての視認者に関して使用される、正規化された値であってもよい。例えば、瞳距離は、20mmであると仮定され得、1mの深度における深度面は、ディスプレイの正面の980mmの距離にあり得る。
ここで図4Cおよび4Dを参照すると、整合遠近調節-輻輳・開散運動距離および不整合遠近調節-輻輳・開散運動距離の実施例が、それぞれ、図示される。図4Cに図示されるように、ディスプレイシステムは、仮想オブジェクトの画像を各眼210、220に提供してもよい。画像は、眼210、220に、眼が深度面240上の点15上に収束する、輻輳・開散運動状態をとらせ得る。加えて、画像は、その深度面240における実オブジェクトに対応する波面曲率を有する光によって形成され得る。その結果、眼210、220は、画像がそれらの眼の網膜上に合焦する、遠近調節状態をとる。したがって、ユーザは、仮想オブジェクトを深度面240上の点15にあるように知覚し得る。
眼210、220の遠近調節および輻輳・開散運動状態はそれぞれ、z-軸上の特定の距離と関連付けられることを理解されたい。例えば、眼210、220からの特定の距離におけるオブジェクトは、それらの眼に、オブジェクトの距離に基づいて、特定の遠近調節状態をとらせる。特定の遠近調節状態と関連付けられる距離は、遠近調節距離Aと称され得る。同様に、特定の輻輳・開散運動状態または相互に対する位置における眼と関連付けられる特定の輻輳・開散運動距離Vが、存在する。遠近調節距離および輻輳・開散運動距離が整合する場合、遠近調節と輻輳・開散運動との間の関係は、生理学的に正しいと言え得る。これは、視認者のために最も快適なシナリオであると見なされる。
しかしながら、立体視ディスプレイでは、遠近調節距離および輻輳・開散運動距離は、常時、整合しない場合がある。例えば、図4Dに図示されるように、眼210、220に表示される画像は、深度面240に対応する波面発散を伴って表示され得、眼210、220は、その深度面上の点15a、15bが合焦する、特定の遠近調節状態をとり得る。しかしながら、眼210、220に表示される画像は、眼210、220を深度面240上に位置しない点15上に収束させる、輻輳・開散運動のためのキューを提供し得る。その結果、いくつかの実施形態では、遠近調節距離は、眼210、220の射出瞳から深度面240への距離に対応する一方で、輻輳・開散運動距離は、眼210、220の射出瞳から点15までのより大きい距離に対応する。遠近調節距離は、輻輳・開散運動距離と異なる。その結果、遠近調節-輻輳・開散運動不整合が存在する。そのような不整合は、望ましくないと見なされ、不快感をユーザに生じさせ得る。不整合は、距離(例えば、V-A)に対応し、ジオプタを使用して特徴付けられ得ることを理解されたい。
いくつかの実施形態では、同一参照点が遠近調節距離および輻輳・開散運動距離のために利用される限り、眼210、220の射出瞳以外の参照点が、遠近調節-輻輳・開散運動不整合を決定するための距離を決定するために利用されてもよいことを理解されたい。例えば、距離は、角膜から深度面、網膜から深度面、接眼レンズ(例えば、ディスプレイデバイスの導波管)から深度面等で測定され得る。
理論によって限定されるわけではないが、ユーザは、不整合自体が有意な不快感を生じさせずに、依然として、最大約0.25ジオプタ、最大約0.33ジオプタ、および最大約0.5ジオプタの遠近調節-輻輳・開散運動不整合が生理学的に正しいと知覚し得ると考えられる。いくつかの実施形態では、本明細書に開示されるディスプレイシステム(例えば、ディスプレイシステム250、図6)は、約0.5ジオプタまたはそれ未満の遠近調節-輻輳・開散運動不整合を有する画像を視認者に提示する。いくつかの他の実施形態では、ディスプレイシステムによって提供される画像の遠近調節-輻輳・開散運動不整合は、約0.33ジオプタまたはそれ未満である。さらに他の実施形態では、ディスプレイシステムによって提供される画像の遠近調節-輻輳・開散運動不整合は、約0.25ジオプタまたはそれ未満であって、約0.1ジオプタまたはそれ未満を含む。
図5は、波面発散を修正することによって、3次元画像をシミュレートするためのアプローチの側面を図示する。ディスプレイシステムは、画像情報でエンコードされた光770を受光し、その光をユーザの眼210に出力するように構成される、導波管270を含む。導波管270は、所望の深度面240上のある点によって生成されたライトフィールドの波面発散に対応する定義された波面発散量を伴って光650を出力してもよい。いくつかの実施形態では、同一量の波面発散が、その深度面上に提示される全てのオブジェクトのために提供される。加えて、ユーザの他方の眼は、類似導波管からの画像情報を提供され得るように図示されるであろう。
いくつかの実施形態では、単一導波管が、単一または限定数の深度面に対応する設定された波面発散量を伴う光を出力するように構成されてもよく、および/または導波管は、限定された範囲の波長の光を出力するように構成されてもよい。その結果、いくつかの実施形態では、複数またはスタックの導波管が、異なる深度面のための異なる波面発散量を提供し、および/または異なる範囲の波長の光を出力するために利用されてもよい。本明細書で使用されるように、深度面は、平坦であってもよい、または湾曲表面の輪郭に追従してもよいことを理解されたい。
図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ディスプレイシステム250は、複数の導波管270、280、290、300、310を使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ260を含む。ディスプレイシステム250は、いくつかの実施形態では、ライトフィールドディスプレイと見なされてもよいことを理解されたい。加えて、導波管アセンブリ260はまた、接眼レンズとも称され得る。
いくつかの実施形態では、ディスプレイシステム250は、輻輳・開散運動するための実質的に連続キューおよび遠近調節するための複数の離散キューを提供するように構成されてもよい。輻輳・開散運動のためのキューは、異なる画像をユーザの眼のそれぞれに表示することによって提供されてもよく、遠近調節のためのキューは、選択可能な離散量の波面発散を伴う画像を形成する光を出力することによって提供されてもよい。換言すると、ディスプレイシステム250は、可変レベルの波面発散を伴う光を出力するように構成されてもよい。いくつかの実施形態では、波面発散の各離散レベルは、特定の深度面に対応し、導波管270、280、290、300、310のうちの特定の1つによって提供されてもよい。
図6を継続して参照すると、導波管アセンブリ260はまた、複数の特徴320、330、340、350を導波管の間に含んでもよい。いくつかの実施形態では、特徴320、330、340、350は、1つまたはそれを上回るレンズであってもよい。導波管270、280、290、300、310および/または複数のレンズ320、330、340、350は、種々のレベルの波面曲率または光線発散を伴って画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度面と関連付けられてもよく、その深度面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス360、370、380、390、400は、導波管のための光源として機能してもよく、画像情報を導波管270、280、290、300、310の中に投入するために利用されてもよく、それぞれ、本明細書に説明されるように、眼210に向かって出力するために、各個別の導波管を横断して入射光を分散させるように構成されてもよい。光は、画像投入デバイス360、370、380、390、400の出力表面410、420、430、440、450から出射し、導波管270、280、290、300、310の対応する入力表面460、470、480、490、500の中に投入される。いくつかの実施形態では、入力表面460、470、480、490、500はそれぞれ、対応する導波管の縁であってもよい、または対応する導波管の主要表面の一部(すなわち、世界510または視認者の眼210に直接向いた導波管表面のうちの1つ)であってもよい。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、特定の導波管と関連付けられる深度面に対応する特定の角度(および発散量)において眼210に向かって指向される、クローン化されるコリメートされたビームの全体場を出力してもよい。いくつかの実施形態では、画像投入デバイス360、370、380、390、400のうちの単一の1つは、複数(例えば、3つ)の導波管270、280、290、300、310と関連付けられ、その中に光を投入してもよい。
いくつかの実施形態では、画像投入デバイス360、370、380、390、400はそれぞれ、それぞれ対応する導波管270、280、290、300、310の中への投入のために画像情報を生成する、離散ディスプレイである。いくつかの他の実施形態では、画像投入デバイス360、370、380、390、400は、例えば、画像情報を1つまたはそれを上回る光学導管(光ファイバケーブル等)を介して画像投入デバイス360、370、380、390、400のそれぞれに送り得る、単一の多重化されたディスプレイの出力端である。画像投入デバイス360、370、380、390、400によって提供される画像情報は、異なる波長または色(例えば、本明細書に議論されるような異なる原色)の光を含み得ることを理解されたい。
いくつかの実施形態では、導波管270、280、290、300、310の中に投入される光は、本明細書にさらに議論されるように、画像情報でエンコーディングされ、光プロジェクタシステム1010によって提供される。いくつかの実施形態では、光プロジェクタシステム1010は、1つまたはそれを上回る放出ピクセルアレイを備えてもよい。放出ピクセルアレイはそれぞれ、複数の発光ピクセルを備えてもよく、これは、可変強度および色の光を放出するように構成されることを理解されたい。画像投入デバイス360、370、380、390、400は、図式的に図示され、いくつかの実施形態では、これらの画像投入デバイスは、光を導波管270、280、290、300、310の関連付けられるものの中に出力するように構成される、共通投影システム内の異なる光経路および場所を表し得ることを理解されたい。いくつかの実施形態では、導波管アセンブリ260の導波管は、導波管の中に投入された光をユーザの眼に中継しながら、理想的レンズとして機能し得る。本概念では、オブジェクトは、光投入デバイス1010のピクセルアレイであってもよく、画像は、深度面上の画像であってもよい。
コントローラ560は、画像投入デバイス360、370、380、390、400および光投影システム1010の動作を含む、スタックされた導波管アセンブリ260のうちの1つまたはそれを上回るものの動作を制御する。いくつかの実施形態では、コントローラ560は、ローカルデータ処理モジュール140の一部である。コントローラ560は、例えば、本明細書に開示される種々のスキームのいずれかに従って、導波管270、280、290、300、310への画像情報のタイミングおよび提供を調整する、プログラミング(例えば、非一過性媒体内の命令)を含む。いくつかの実施形態では、コントローラは、単一の一体型デバイスまたは有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ560は、いくつかの実施形態では、処理モジュール140または150(図9D)の一部であってもよい。
図6を継続して参照すると、導波管270、280、290、300、310は、全内部反射(TIR)によって各個別の導波管内で光を伝搬するように構成されてもよい。導波管270、280、290、300、310はそれぞれ、主要上部表面および底部表面およびそれらの主要上部表面と底部表面との間に延在する縁を伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管270、280、290、300、310はそれぞれ、各個別の導波管内で伝搬する光を導波管から再指向し、画像情報を眼210に出力することによって、光を導波管から抽出するように構成される、外部結合光学要素570、580、590、600、610を含んでもよい。抽出された光はまた、外部結合光と称され得、外部結合光学要素はまた、光抽出光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内を伝搬する光が光抽出光学要素に衝打する場所において出力され得る。外部結合光学要素570、580、590、600、610は、例えば、本明細書にさらに議論されるような回折光学特徴を含む、格子であってもよい。説明を容易にし、図面を明確にするために、導波管270、280、290、300、310の底部主要表面に配置されて図示されるが、いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、本明細書にさらに議論されるように、上部および/または底部主要表面に配置されてもよく、および/または導波管270、280、290、300、310の容積内に直接配置されてもよい。いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、透明基板に取り付けられ、導波管270、280、290、300、310を形成する、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管270、280、290、300、310は、モノリシック材料片であってもよく、外部結合光学要素570、580、590、600、610は、その材料片の表面上および/または内部に形成されてもよい。
図6を継続して参照すると、本明細書に議論されるように、各導波管270、280、290、300、310は、光を出力し、特定の深度面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管270は、眼210にコリメートされた光(そのような導波管270の中に投入された)を送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管280は、眼210に到達し得る前に、第1のレンズ350(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。そのような第1のレンズ350は、眼/脳が、その次の上方の導波管280から生じる光を光学無限遠から眼210に向かって内向きにより近い第1の焦点面から生じるものとして解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管290は、眼210に到達する前に、その出力光を第1のレンズ350および第2のレンズ340の両方を通して通過させる。第1のレンズ350および第2のレンズ340の組み合わせられた屈折力は、眼/脳が、第3の導波管290から生じる光が次の上方の導波管280からの光であったよりも光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるものとして解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。
他の導波管層300、310およびレンズ330、320も同様に構成され、スタック内の最高導波管310は、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ260の他側の世界510から生じる光を視認/解釈するとき、レンズ320、330、340、350のスタックを補償するために、補償レンズ層620が、スタックの上部に配置され、下方のレンズスタック320、330、340、350の集約力を補償してもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の外部結合光学要素およびレンズの集束側面は両方とも、静的であってもよい(すなわち、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。
いくつかの実施形態では、導波管270、280、290、300、310のうちの2つまたはそれを上回るものは、同一の関連付けられる深度面を有してもよい。例えば、複数の導波管270、280、290、300、310が、同一深度面に設定される画像を出力するように構成されてもよい、または導波管270、280、290、300、310の複数のサブセットは、深度面毎に1つのセットを伴う、同一の複数の深度面に設定される画像を出力するように構成されてもよい。これは、それらの深度面において拡張された視野を提供するようにタイル化された画像を形成する利点を提供し得る。
図6を継続して参照すると、外部結合光学要素570、580、590、600、610は、導波管と関連付けられる特定の深度面のために、光をその個別の導波管から再指向し、かつ本光を適切な量の発散またはコリメーションを伴って出力するように構成されてもよい。その結果、異なる関連付けられる深度面を有する導波管は、外部結合光学要素570、580、590、600、610の異なる構成を有してもよく、これは、関連付けられる深度面に応じて、異なる量の発散を伴う光を出力する。いくつかの実施形態では、光抽出光学要素570、580、590、600、610は、具体的角度で光を出力するように構成され得る、立体または表面特徴であってもよい。例えば、光抽出光学要素570、580、590、600、610は、立体ホログラム、表面ホログラム、および/または回折格子であってもよい。いくつかの実施形態では、特徴320、330、340、350は、レンズではなくてもよい。むしろ、それらは、単に、スペーサ(例えば、空隙を形成するためのクラッディング層および/または構造)であってもよい。
いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、回折パターンを形成する回折特徴または「回折光学要素」(また、本明細書では、「DOE」とも称される)である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差部で眼210に向かって偏向される一方、残りがTIRを介して、導波管を通して移動し続けるように、十分に低い回折効率を有する。画像情報を搬送する光は、したがって、様々な場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼210に向かって非常に均一なパターンの出射放出となる。
いくつかの実施形態では、1つまたはそれを上回るDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であり得る。例えば、切替可能なDOEは、ポリマー分散液晶の層を備えてもよく、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に一致するように切り替えられてもよい(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに一致しない屈折率に切り替えられてもよい(その場合、パターンは、入射光を能動的に回折させる)。
いくつかの実施形態では、カメラアセンブリ630(例えば、可視光および赤外光カメラを含む、デジタルカメラ)が、眼210および/または眼210の周囲の組織の画像を捕捉し、例えば、ユーザ入力を検出する、および/またはユーザの生理学的状態を監視するために提供されてもよい。本明細書で使用されるように、カメラは、任意の画像捕捉デバイスであってもよい。いくつかの実施形態では、カメラアセンブリ630は、画像捕捉デバイスと、光(例えば、赤外線光)を眼に投影し、次いで、眼によって反射され、画像捕捉デバイスによって検出され得る、光源とを含んでもよい。いくつかの実施形態では、カメラアセンブリ630は、フレーム80(図9D)に取り付けられてもよく、カメラアセンブリ630からの画像情報を処理し得る、処理モジュール140および/または150と電気通信してもよい。いくつかの実施形態では、1つのカメラアセンブリ630が、眼毎に利用され、各眼を別個に監視してもよい。
ここで図7を参照すると、導波管によって出力された出射ビームの実施例が、示される。1つの導波管が図示されるが、導波管アセンブリ260(図6)内の他の導波管も同様に機能し得、導波管アセンブリ260は、複数の導波管を含むことを理解されたい。光640が、導波管270の入力表面460において導波管270の中に投入され、TIRによって導波管270内を伝搬する。光640がDOE570上に衝突する点では、光の一部は、導波管から出射ビーム650として出射する。出射ビーム650は、略平行として図示されるが、本明細書に議論されるように、また、導波管270と関連付けられる深度面に応じて、ある角度(例えば、発散出射ビームを形成する)において眼210に伝搬するように再指向されてもよい。略平行出射ビームは、眼210からの遠距離(例えば、光学無限遠)における深度面に設定されるように現れる画像を形成するように光を外部結合する、外部結合光学要素を伴う導波管を示し得ることを理解されたい。他の導波管または他の外部結合光学要素のセットは、より発散する、出射ビームパターンを出力してもよく、これは、眼210がより近い距離に遠近調節し、網膜上に合焦させることを要求し、光学無限遠より眼210に近い距離からの光として脳によって解釈されるであろう。
いくつかの実施形態では、フルカラー画像が、原色、例えば、3つまたはそれを上回る原色のそれぞれに画像をオーバーレイすることによって、各深度面において形成されてもよい。図8は、各深度面は、複数の異なる原色を使用して形成される画像を含む、スタックされた導波管アセンブリの実施例を図示する。図示される実施形態は、深度面240a-240fを示すが、より多いまたはより少ない深度もまた、検討される。各深度面は、第1の色Gの第1の画像、第2の色Rの第2の画像、および第3の色Bの第3の画像を含む、それと関連付けられる3つまたはそれを上回る原色画像を有してもよい。異なる深度面は、文字G、R、およびBに続くジオプタ(dpt)に関する異なる数字によって図示される。単なる実施例として、これらの文字のそれぞれに続く数字は、ジオプタ(1/m)、すなわち、視認者からの深度面の逆距離を示し、図中の各ボックスは、個々の原色画像を表す。いくつかの実施形態では、異なる波長の光の眼の集束における差異を考慮するために、異なる原色に関する深度面の正確な場所は、変動してもよい。例えば、所与の深度面に関する異なる原色画像は、ユーザからの異なる距離に対応する深度面上に設置されてもよい。そのような配列は、視力およびユーザ快適性を増加させ得る、および/または色収差を減少させ得る。
いくつかの実施形態では、各原色の光は、単一専用導波管によって出力されてもよく、その結果、各深度面は、それと関連付けられる複数の導波管を有してもよい。そのような実施形態では、文字G、R、またはBを含む、図中の各ボックスは、個々の導波管を表すものと理解され得、3つの導波管は、3つの原色画像が、深度面毎に提供される、深度面毎に提供されてもよい。各深度面と関連付けられる導波管は、本図面では、説明を容易にするために相互に隣接して示されるが、物理的デバイスでは、導波管は全て、レベル毎に1つの導波管を伴うスタックで配列されてもよいことを理解されたい。いくつかの他の実施形態では、例えば、単一導波管のみが深度面毎に提供され得るように、複数の原色が、同一導波管によって出力されてもよい。
図8を継続して参照すると、いくつかの実施形態では、Gは、緑色であって、Rは、赤色であって、Bは、青色である。いくつかの他の実施形態では、マゼンタ色およびシアン色を含む、光の他の波長と関連付けられる他の色も、赤色、緑色、または青色のうちの1つまたはそれを上回るものに加えて使用されてもよい、またはそれらに取って代わってもよい。
本開示全体を通した所与の光の色の言及は、視認者によってその所与の色として知覚される、光の波長の範囲内の1つまたはそれを上回る波長の光を包含すると理解されると理解されたい。例えば、赤色光は、約620~780nmの範囲内の1つまたはそれを上回る波長の光を含んでもよく、緑色光は、約492~577nmの範囲内の1つまたはそれを上回る波長の光を含んでもよく、青色光は、約435~493nmの範囲内の1つまたはそれを上回る波長の光を含んでもよい。
いくつかの実施形態では、光投影システム1010(図6)は、視認者の視覚的知覚範囲外の1つまたはそれを上回る波長、例えば、赤外線および/または紫外線波長の光を放出するように構成されてもよい。加えて、ディスプレイ250の導波管の内部結合、外部結合、および他の光再指向構造は、例えば、結像および/またはユーザ刺激用途のために、本光をディスプレイからユーザの眼210に向かって指向および放出するように構成されてもよい。
ここで図9Aを参照すると、いくつかの実施形態では、導波管に衝突する光は、その光を導波管の中に内部結合するために再指向される必要があり得る。内部結合光学要素が、光をその対応する導波管の中に再指向および内部結合するために使用されてもよい。図9Aは、それぞれ、内部結合光学要素を含む、複数またはセット660のスタックされた導波管の実施例の断面側面図を図示する。導波管はそれぞれ、1つまたはそれを上回る異なる波長または1つまたはそれを上回る異なる波長範囲の光を出力するように構成されてもよい。スタック660は、スタック260(図6)に対応し得、スタック660の図示される導波管は、複数の導波管270、280、290、300、310の一部に対応してもよいが、画像投入デバイス360、370、380、390、400のうちの1つまたはそれを上回るものからの光が、光が内部結合のために再指向されることを要求する位置から導波管の中に投入されることを理解されたい。
スタックされた導波管の図示されるセット660は、導波管670、680、および690を含む。各導波管は、関連付けられる内部結合光学要素(導波管上の光入力面積とも称され得る)を含み、例えば、内部結合光学要素700は、導波管670の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素710は、導波管680の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素720は、導波管690の主要表面(例えば、上側主要表面)上に配置される。いくつかの実施形態では、内部結合光学要素700、710、720のうちの1つまたはそれを上回るものは、個別の導波管670、680、690の底部主要表面上に配置されてもよい(特に、1つまたはそれを上回る内部結合光学要素は、反射型偏向光学要素である)。図示されるように、内部結合光学要素700、710、720は、それらの個別の導波管670、680、690の上側主要表面(または次の下側導波管の上部)上に配置されてもよく、特に、それらの内部結合光学要素は、透過型偏向光学要素である。いくつかの実施形態では、内部結合光学要素700、710、720は、個別の導波管670、680、690の本体内に配置されてもよい。いくつかの実施形態では、本明細書に議論されるように、内部結合光学要素700、710、720は、他の光の波長を透過させながら、1つまたはそれを上回る光の波長を選択的に再指向するように、波長選択的である。それらの個別の導波管670、680、690の片側または角に図示されるが、内部結合光学要素700、710、720は、いくつかの実施形態では、それらの個別の導波管670、680、690の他の面積内に配置され得ることを理解されたい。
図示されるように、内部結合光学要素700、710、720は、相互から側方にオフセットされてもよい。いくつかの実施形態では、各内部結合光学要素は、その光が別の内部結合光学要素を通して通過することなく、光を受光するようにオフセットされてもよい。例えば、各内部結合光学要素700、710、720は、図6に示されるように、光を異なる画像投入デバイス360、370、380、390、および400から受光するように構成されてもよく、光を内部結合光学要素700、710、720の他のものから実質的に受光しないように、他の内部結合光学要素700、710、720から分離されてもよい(例えば、側方に離間される)。
各導波管はまた、関連付けられる光分散要素を含み、例えば、光分散要素730は、導波管670の主要表面(例えば、上部主要表面)上に配置され、光分散要素740は、導波管680の主要表面(例えば、上部主要表面)上に配置され、光分散要素750は、導波管690の主要表面(例えば、上部主要表面)上に配置される。いくつかの他の実施形態では、光分散要素730、740、750は、それぞれ、関連付けられる導波管670、680、690の底部主要表面上に配置されてもよい。いくつかの他の実施形態では、光分散要素730、740、750は、それぞれ、関連付けられる導波管670、680、690の上部および底部両方の主要表面上に配置されてもよい、または光分散要素730、740、750は、それぞれ、異なる関連付けられる導波管670、680、690内の上部および底部主要表面の異なるもの上に配置されてもよい。
導波管670、680、690は、例えば、材料のガス、液体、および/または固体層によって離間および分離されてもよい。例えば、図示されるように、層760aは、導波管670および680を分離してもよく、層760bは、導波管680および690を分離してもよい。いくつかの実施形態では、層760aおよび760bは、低屈折率材料(すなわち、導波管670、680、690のうちの直近のものを形成する材料より低い屈折率を有する材料)から形成される。好ましくは、層760a、760bを形成する材料の屈折率は、導波管670、680、690を形成する材料の屈折率よりも0.05またはそれを上回る、または0.10またはそれを下回る。有利なこととして、より低い屈折率層760a、760bは、導波管670、680、690を通して光の全内部反射(TIR)(例えば、各導波管の上部主要表面と底部主要表面との間のTIR)を促進する、クラッディング層として機能してもよい。いくつかの実施形態では、層760a、760bは、空気から形成される。図示されないが、導波管の図示されるセット660の上部および底部は、直近クラッディング層を含み得ることを理解されたい。
好ましくは、製造および他の考慮点を容易にするために、導波管670、680、690を形成する材料は、類似または同一であって、層760a、760bを形成する材料は、類似または同一である。いくつかの実施形態では、導波管670、680、690を形成する材料は、1つまたはそれを上回る導波管間で異なり得る、および/または層760a、760bを形成する材料は、依然として、上記の種々の屈折率関係を保持しながら、異なり得る。
図9Aを継続して参照すると、光線770、780、790が、導波管のセット660に入射する。光線770、780、790は、1つまたはそれを上回る画像投入デバイス360、370、380、390、400(図6)によって導波管670、680、690の中に投入されてもよいことを理解されたい。
いくつかの実施形態では、光線770、780、790は、異なる導波管のために意図される(例えば、異なる量の波面発散を伴う光を出力するように構成される、および/または異なる波長または色等の異なる性質を有する光を出力するように構成される、導波管)。したがって、いくつかの実施形態では、光線770、780、790は、異なる色に対応し得る、異なる性質、例えば、異なる波長または異なる波長範囲を有してもよい。内部結合光学要素700、710、720はそれぞれ、光が、TIRによって、導波管670、680、690のうちの個別の1つを通して伝搬するように、入射光を偏向させる。いくつかの実施形態では、内部結合光学要素700、710、720はそれぞれ、他の波長を下層導波管および関連付けられる内部結合光学要素に透過させながら、1つまたはそれを上回る特定の光の波長を選択的に偏向させる。
例えば、内部結合光学要素700は、それぞれ、異なる第2および第3の波長または波長範囲を有する、光線780および790を透過させながら、第1の波長または波長範囲を有する、光線770を偏向させるように構成されてもよい。透過された光線780は、第2の波長または波長範囲の光を偏向させるように構成される、内部結合光学要素710に衝突し、それによって偏向される。光線790は、第3の波長または波長範囲の光を選択的に偏向させるように構成される、内部結合光学要素720によって偏向される。
図9Aを継続して参照すると、偏向された光線770、780、790は、対応する導波管670、680、690を通して伝搬するように偏向される。すなわち、各導波管の内部結合光学要素700、710、720は、光をその対応する導波管670、680、690の中に偏向させ、光をその対応する導波管の中に内部結合する。光線770、780、790は、光をTIRによって個別の導波管670、680、690を通して伝搬させる角度で偏向される。光線770、780、790は、導波管の対応する光分散要素730、740、750に衝突するまで、TIRによって個別の導波管670、680、690を通して伝搬する。
ここで図9Bを参照すると、図9Aの複数のスタックされた導波管の実施例の斜視図が、図示される。上記のように、内部結合された光線770、780、790は、それぞれ、内部結合光学要素700、710、720によって偏向され、次いで、それぞれ、導波管670、680、690内でTIRによって伝搬する。光線770、780、790は、次いで、それぞれ、光分散要素730、740、750に衝突する。光分散要素730、740、750は、それぞれ、外部結合光学要素800、810、820に向かって伝搬するように、光線770、780、790を偏向させる。
いくつかの実施形態では、光分散要素730、740、750は、直交瞳エクスパンダ(OPE)である。いくつかの実施形態では、OPEは、光を外部結合光学要素800、810、820に偏向または分散し、いくつかの実施形態では、また、外部結合光学要素に伝搬するにつれて、本光のビームまたはスポットサイズを増加させ得る。いくつかの実施形態では、光分散要素730、740、750は、省略されてもよく、内部結合光学要素700、710、720は、光を直接外部結合光学要素800、810、820に偏向させるように構成されてもよい。例えば、図9Aを参照すると、光分散要素730、740、750は、それぞれ、外部結合光学要素800、810、820と置換されてもよい。いくつかの実施形態では、外部結合光学要素800、810、820は、光を視認者の眼210(図7)に指向させる、射出瞳(EP)または射出瞳エクスパンダ(EPE)である。OPEは、少なくとも1つの軸においてアイボックスの次元を増加させるように構成され得、EPEは、OPEの軸と交差する、例えば、直交する軸においてアイボックスを増加させてもよいことを理解されたい。例えば、各OPEは、光の残りの部分が導波管を辿って伝搬し続けることを可能にしながら、OPEに衝打する光の一部を同一導波管のEPEに再指向するように構成されてもよい。OPEに再び衝突することに応じて、残りの光の別の部分は、EPEに再指向され、その部分の残りの部分は、導波管を辿ってさらに伝搬し続ける等である。同様に、EPEへの衝打に応じて、衝突光の一部は、ユーザに向かって導波管から外に指向され、その光の残りの部分は、EPに再び衝打するまで、導波管を通して伝搬し続け、その時点で、衝突光の別の部分は、導波管から外に指向される等である。その結果、内部結合された光の単一ビームは、その光の一部がOPEまたはEPEによって再指向される度に、「複製」され、それによって、図6に示されるように、クローン化された光のビーム野を形成し得る。いくつかの実施形態では、OPEおよび/またはEPEは、光のビームのサイズを修正するように構成されてもよい。
故に、図9Aおよび9Bを参照すると、いくつかの実施形態では、導波管のセット660は、原色毎に、導波管670、680、690と、内部結合光学要素700、710、720と、光分散要素(例えば、OPE)730、740、750と、外部結合光学要素(例えば、EP)800、810、820とを含む。導波管670、680、690は、各1つの間に空隙/クラッディング層を伴ってスタックされてもよい。内部結合光学要素700、710、720は、(異なる波長の光を受光する異なる内部結合光学要素を用いて)入射光をその導波管の中に再指向または偏向させる。光は、次いで、個別の導波管670、680、690内にTIRをもたらすであろう角度で伝搬する。示される実施例では、光線770(例えば、青色光)は、前述の様式において、第1の内部結合光学要素700によって偏光され、次いで、導波管を辿ってバウンスし続け、光分散要素(例えば、OPE)730、次いで、外部結合光学要素(例えば、EP)800と相互作用する。光線780および790(例えば、それぞれ、緑色および赤色光)は、導波管670を通して通過し、光線780は、内部結合光学要素710上に衝突し、それによって偏向される。光線780は、次いで、TIRを介して、導波管680を辿ってバウンスし、その光分散要素(例えば、OPE)740、次いで、外部結合光学要素(例えば、EP)810に進むであろう。最後に、光線790(例えば、赤色光)は、導波管690を通して通過し、導波管690の光内部結合光学要素720に衝突する。光内部結合光学要素720は、光線が、TIRによって、光分散要素(例えば、OPE)750、次いで、TIRによって、外部結合光学要素(例えば、EP)820に伝搬するように、光線790を偏向させる。外部結合光学要素820は、次いで、最後に、光線790を視認者に外部結合し、視認者はまた、他の導波管670、680からの外部結合した光も受光する。
図9Cは、図9Aおよび9Bの複数のスタックされた導波管の実施例の上下平面図を図示する。図示されるように、導波管670、680、690は、各導波管の関連付けられる光分散要素730、740、750および関連付けられる外部結合光学要素800、810、820とともに、垂直に整合されてもよい。しかしながら、本明細書に議論されるように、内部結合光学要素700、710、720は、垂直に整合されない。むしろ、内部結合光学要素は、好ましくは、非重複する(例えば、上下図に見られるように、側方に離間される)。本明細書でさらに議論されるように、本非重複空間配列は、1対1ベースで異なるリソースから異なる導波管の中への光の投入を促進し、それによって、具体的光源が具体的導波管に一意に結合されることを可能にする。いくつかの実施形態では、非重複の空間的に分離される内部結合光学要素を含む、配列は、偏移瞳システムと称され得、これらの配列内の内部結合光学要素は、サブ瞳に対応し得る。
図9Dは、本明細書に開示される種々の導波管および関連システムが統合され得る、ウェアラブルディスプレイシステム60の実施例を図示する。いくつかの実施形態では、ディスプレイシステム60は、図6のシステム250であって、図6は、そのシステム60のいくつかの部分をより詳細に図式的に示す。例えば、図6の導波管アセンブリ260は、ディスプレイ70の一部であってもよい。
図9Dを継続して参照すると、ディスプレイシステム60は、ディスプレイ70と、そのディスプレイ70の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ70は、フレーム80に結合されてもよく、これは、ディスプレイシステムユーザまたは視認者90によって装着可能であって、ディスプレイ70をユーザ90の眼の正面に位置付けるように構成される。ディスプレイ70は、いくつかの実施形態では、アイウェアと見なされ得る。いくつかの実施形態では、スピーカ100が、フレーム80に結合され、ユーザ90の外耳道に隣接して位置付けられるように構成される(いくつかの実施形態では、示されない別のスピーカも、随意に、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供してもよい)。ディスプレイシステム60はまた、1つまたはそれを上回るマイクロホン110または他のデバイスを含み、音を検出してもよい。いくつかの実施形態では、マイクロホンは、ユーザが入力またはコマンドをシステム60に提供することを可能にするように構成され(例えば、音声メニューコマンドの選択、自然言語質問等)、および/または他の人物(例えば、類似ディスプレイシステムの他のユーザ)とのオーディオ通信を可能にしてもよい。マイクロホンはさらに、周辺センサとして構成され、オーディオデータ(例えば、ユーザおよび/または環境からの音)を収集してもよい。いくつかの実施形態では、ディスプレイシステムはまた、周辺センサ120aを含んでもよく、これは、フレーム80と別個であって、ユーザ90の身体(例えば、ユーザ90の頭部、胴体、四肢等)上に取り付けられてもよい。周辺センサ120aは、いくつかの実施形態では、ユーザ90の生理学的状態を特徴付けるデータを入手するように構成されてもよい。例えば、センサ120aは、電極であってもよい。
図9Dを継続して参照すると、ディスプレイ70は、有線導線または無線コネクティビティ等の通信リンク130によって、ローカルデータ処理モジュール140に動作可能に結合され、これは、フレーム80を固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホン内に埋設される、または別様にユーザ90に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成で搭載されてもよい。同様に、センサ120aは、通信リンク120b、例えば、有線導線または無線コネクティビティによって、ローカルデータ処理モジュール140に動作可能に結合されてもよい。ローカル処理およびデータモジュール140は、ハードウェアプロセッサおよび不揮発性メモリ(例えば、フラッシュメモリまたはハードディスクドライブ)等のデジタルメモリを備えてもよく、その両方とも、データの処理、キャッシュ、および記憶を補助するために利用されてもよい。随意に、ローカル処理およびデータモジュール140は、1つまたはそれを上回る中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、専用処理ハードウェア等を含んでもよい。データは、a)センサ(画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、ジャイロスコープ、および/または本明細書に開示される他のセンサ(例えば、フレーム80に動作可能に結合される、または別様にユーザ90に取り付けられ得る))から捕捉されたデータ、および/またはb)可能性として処理または読出後にディスプレイ70への通過のための遠隔処理モジュール150および/または遠隔データリポジトリ160(仮想コンテンツに関連するデータを含む)を使用して取得および/または処理されたデータを含んでもよい。ローカル処理およびデータモジュール140は、これらの遠隔モジュール150、160が相互に動作可能に結合され、ローカル処理およびデータモジュール140に対するリソースとして利用可能であるように、有線または無線通信リンクを介して等、通信リンク170、180によって、遠隔処理モジュール150および遠隔データリポジトリ160に動作可能に結合されてもよい。いくつかの実施形態では、ローカル処理およびデータモジュール140は、画像捕捉デバイス、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープのうちの1つまたはそれを上回るものを含んでもよい。いくつかの他の実施形態では、これらのセンサのうちの1つまたはそれを上回るものは、フレーム80に取り付けられてもよい、または有線または無線通信経路によってローカル処理およびデータモジュール140と通信する、独立構造であってもよい。
図9Dを継続して参照すると、いくつかの実施形態では、遠隔処理モジュール150は、データおよび/または画像情報を分析および処理するように構成される、1つまたはそれを上回るプロセッサを備えてもよく、例えば、1つまたはそれを上回る中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、専用処理ハードウェア等を含む。いくつかの実施形態では、遠隔データリポジトリ160は、デジタルデータ記憶設備を備えてもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、遠隔データリポジトリ160は、1つまたはそれを上回る遠隔サーバを含んでもよく、これは、情報、例えば、拡張現実コンテンツをローカル処理およびデータモジュール140および/または遠隔処理モジュール150に生成するための情報を提供する。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュールにおいて実施され、遠隔モジュールからの完全に自律的使用を可能にする。随意に、CPU、GPU等を含む、外部システム(例えば、1つまたはそれを上回るプロセッサ、1つまたはそれを上回るコンピュータのシステム)が、処理(例えば、画像情報を生成する、データを処理する)の少なくとも一部を実施し、例えば、無線または有線接続を介して、情報をモジュール140、150、160に提供し、情報をそこから受信してもよい。
C. ユーザ入力の実施例
図10Aおよび10Bは、ユーザ入力デバイス上のコントローラボタンまたは入力領域を通して受信されたユーザ入力の実施例を図示する。特に、図10Aおよび10Bは、コントローラ3900を図示し、これは、本明細書に開示されるウェアラブルシステムの一部であってもよく、これは、ホームボタン3902と、トリガ3904と、バンパ3906と、タッチパッド3908とを含んでもよい。ユーザ入力デバイスまたはトーテムは、ウェアラブルシステムの種々の実施形態では、コントローラ3900としての役割を果たすことができる。
コントローラ3900を通して受信され得る、潜在的ユーザ入力は、限定ではないが、ホームボタン3902の押下および解放、トリガ3904の半および完全(および他の部分的)押下、トリガ3904の解放、バンパ3906の押下および解放、タッチ、タッチしながらの移動、タッチの解放、タッチの圧力の増加または減少、タッチパッド3908の縁等の具体的部分のタッチ、またはタッチパッド3908上でのジェスチャ(例えば、親指である形状を描くことによって)を含む。
図10Aおよび10Bは、本システムによって受信および認識され得る、ユーザ入力の種々の実施例を図示する。ユーザ入力は、1つまたはそれを上回るユーザ入力モード(図示されるように、個々に、または組み合わせて)を経由して受信されてもよい。ユーザ入力は、ホームボタン3902、トリガ3904、バンパ3906、およびタッチパッド3908等のコントローラボタン、コントローラ3900またはHMD3910の物理的移動、眼視線方向、頭部姿勢方向、ジェスチャ、音声入力等を通した入力を含んでもよい。
図10Aに示されるように、ホームボタン3902の短押下および解放は、ホームタップアクションを示してもよい一方、ホームボタン3902の長押下は、ホーム押下および保持アクションを示してもよい。同様に、トリガ3904またはバンパ3906の短押下および解放は、それぞれ、トリガタップアクションまたはバンパタップアクションを示してもよい一方、トリガ3904またはバンパ3906の長押下は、それぞれ、トリガ押下および保持アクションまたはバンパ押下および保持アクションを示してもよい。
図10Bに示されるように、タッチパッドにわたって移動する、タッチパッド3908のタッチは、タッチドラッグアクションを示してもよい。タッチが実質的に移動しない、タッチパッド3908の短タッチおよび解放は、弱タップアクションを示してもよい。タッチパッド3908のそのような短タッチおよび解放が、ある閾値レベルを上回る力(所定の閾値、動的に決定された閾値、学習された閾値、またはそれらのある組み合わせであってもよい)で行われる場合、入力は、強タップ入力を示してもよい。閾値レベルを上回る力を用いたタッチパッド3908のタッチは、強押下アクションを示してもよい一方、そのような力を用いた長タッチは、強押下および保持入力を示してもよい。タッチパッド3908の縁の近くのタッチは、縁押下アクションを示してもよい。いくつかの実施形態では、縁押下アクションはまた、閾値レベルを上回る圧力の縁タッチを伴ってもよい。図10Bはまた、弧を描いて移動する、タッチパッド3908上のタッチが、タッチ円形アクションを示し得ることを示す。
図10Cは、コントローラまたは頭部搭載型デバイス(HMD)の物理的移動を通して受信されたユーザ入力の実施例を図示する。図10Cに示されるように、コントローラ3900および頭部搭載型ディスプレイ3910(HMD)の物理的移動が、システムへのユーザ入力を形成してもよい。HMD3910は、図9Dに示される、頭部装着型コンポーネント70、110を備えることができる。いくつかの実施形態では、コントローラ3900は、任意の方向におけるコントローラ3900の回転を認識することによって、3自由度(3DOF)入力を提供する。他の実施形態では、コントローラ3900は、同様に、任意の方向におけるコントローラの平行移動を認識することによって、6自由度(6DOF)入力を提供する。さらに他の実施形態では、コントローラ3900は、6DOF未満または3DOF未満の入力を提供してもよい。同様に、頭部搭載型ディスプレイ3910は、3DOF、6DOF、6DOF未満、または3DOF未満の入力を認識および受信してもよい。
図10Dは、ユーザ入力が異なる持続時間を有し得る様子の実施例を図示する。図10Dに示されるように、あるユーザ入力は、短持続時間(例えば、0.25秒等の1秒のある割合未満の持続時間)を有してもよい、または長持続時間(例えば、0.25秒を上回る等の1秒のある割合未満の持続時間)を有してもよい。少なくともいくつかの実施形態では、入力の持続時間自体が、本システムによって、入力として認識および利用されてもよい。短および長持続時間入力は、ウェアラブルシステムによって異なるように取り扱われることができる。例えば、短持続時間入力は、オブジェクトの選択を表し得る一方、長持続時間入力は、オブジェクトのアクティブ化を表し得る(例えば、オブジェクトと関連付けられるアプリの実行を生じさせる)。
図11Aおよび11Bは、本システムによって受信および認識され得る、ユーザ入力の種々の実施例を図示する。ユーザ入力は、1つまたはそれを上回るユーザ入力モード(図示されるように、個々に、または組み合わせて)を経由して、受信されてもよい。ユーザ入力は、ホームボタン3902、トリガ3904、バンパ3906、およびタッチパッド3908等のコントローラボタン、コントローラ3900またはHMD3910の物理的移動、眼視線方向、頭部姿勢方向、ジェスチャ、音声入力等を通した入力を含んでもよい。
図11Aに示されるように、ホームボタン3902の短押下および解放は、ホームタップアクションを示してもよい一方、ホームボタン3902の長押下は、ホーム押下および保持アクションを示してもよい。同様に、トリガ3904またはバンパ3906の短押下および解放は、それぞれ、トリガタップアクションまたはバンパタップアクションを示してもよい一方、トリガ3904またはバンパ3906の長押下は、それぞれ、トリガ押下および保持アクションまたはバンパ押下および保持アクションを示してもよい。
図11Bに示されるように、タッチパッドにわたって移動する、タッチパッド3908のタッチは、タッチドラッグアクションを示してもよい。タッチが実質的に移動しない、タッチパッド3908の短タッチおよび解放は、弱タップアクションを示してもよい。タッチパッド3908のそのような短タッチおよび解放が、ある閾値レベルを上回る力(所定の閾値、動的に決定された閾値、学習された閾値、またはそれらのある組み合わせであってもよい)で行われる場合、入力は、強タップ入力を示してもよい。閾値レベルを上回る力を用いたタッチパッド3908のタッチは、強押下アクションを示してもよい一方、そのような力を用いた長タッチは、強押下および保持入力を示してもよい。タッチパッド3908の縁の近くのタッチは、縁押下アクションを示してもよい。いくつかの実施形態では、縁押下アクションはまた、閾値レベルを上回る圧力の縁タッチを伴ってもよい。図11Bはまた、弧を描いて移動する、タッチパッド3908上のタッチがタッチ円形アクションを示し得ることを示す。
他の例示的ユーザ入力は、6自由度を有し得る、入力デバイス(例えば、ユーザの手)または機構を含むことができる。有利なこととして、ユーザの手を入力として使用することは、ユーザが、直感的指示または他の入力ジェスチャを行い、情報をARシステムに提供することを可能にすることによって、ユーザ体験を改良することができる。オブジェクト相互作用および制御の場合、ユーザの手のまたは他のポインティングデバイスを使用することは、ユーザの手(または他のポインティングデバイス)の位置または配向に基づいて、オブジェクトのコンポーネントを標的化することと、オブジェクトを移動させることとの両方をユーザがより直感的に適応させることに役立ち得る。したがって、離散ボタンアクティブ化は、必要とされなくてもよい。しかしながら、いくつかの実施例では、離散ボタンアクティブ化と6自由度入力デバイスを用いた指示の組み合わせも、使用されてもよい。
D. 単一コントローラコンテンツ移動および相互作用
拡張現実(AR)または仮想現実(VR)システムによって実装される、いくつかのアプリケーションは、ユーザ入力を、例えば、ユーザ頭部姿勢、身体姿勢、眼視線、コントローラ入力、同等物、またはそれらの組み合わせを通して受け取る、相互作用可能および/または移動可能な仮想コンテンツを含んでもよい。例えば、アプリケーションは、その中でユーザが、メニューまたはメニューと関連付けられる情報を選択する、ハイライトする、または別様にそれと相互作用し得る、仮想制御メニューを有してもよい。別の実施例では、アプリケーションは、その中でユーザが、リフレッシュ、ホーム、または制御ボタン等の双方向特徴を使用して、ブラウザウィンドウ内への情報または制御情報を入力し得る、ウェブブラウザを有してもよい。アプリケーションはまた、相互作用可能仮想コンテンツが、ユーザがその環境を動き回るにつれて、またはユーザのアクティブ入力によって、ユーザの環境内で移動することを可能にしてもよい。しかしながら、VRまたはARシステムによって提供される、時として限定される制御を使用して、コンテンツと相互作用することと、コンテンツをその環境内で移動させることとの両方を行うことは、ユーザにとって、困難かつ煩雑であり得る。例えば、ユーザが、相互作用可能コンテンツと相互作用することを所望する場合、それらは、1セットの入力を提供し得る、ユーザが、相互作用可能コンテンツを移動させることを所望する場合、それらは、第2のセットの入力を提供し得る。2つのセットの入力を組み合わせることは、ユーザにとって、煩雑かつ不快であり得る。本明細書に説明されるものは、相互作用可能仮想コンテンツと相互作用するための負担を軽減させるように、相互作用可能仮想コンテンツの移動および/またはそれとの相互作用を簡略化するためのシステムおよび方法である。
ユーザの環境内のユーザ相互作用およびコンテンツの移動を促進するための1つの方法は、(例えば、ユーザインターフェース内の)相互作用および(例えば、ユーザインターフェースの)移動のアクションを分離することである。例えば、ARシステムは、コンテンツをユーザの環境内の固定された場所に設置し、次いで、ユーザジェスチャ、コントローラ、ユーザ視線、同等物、またはそれらのある組み合わせに基づいて、設置されたコンテンツと相互作用するための入力をユーザから受け取ってもよい。しかしながら、双方向空間(例えば、双方向コンテンツの境界された体積を含む、プリズム)をユーザの環境内の設定場所に設置することは、仮想または拡張現実のコンテキストにおいて、常時、理想的であるわけではない。例えば、仮想または拡張現実体験では、ユーザは、その3D環境を動き回り得る。双方向空間が、設定場所にピン固定される場合、ユーザは、情報を入力するために、双方向空間の場所に戻る必要があるであろう。
ユーザ相互作用およびコンテンツの移動を促進するための別の方法は、相互作用および移動のための別個のコントローラを利用することである。例えば、ARシステムは、ユーザの手毎に、コントローラを有してもよい。ユーザの第1の手内の第1のコントローラは、ユーザの3D環境内の双方向空間を移動し得、ユーザの第2の手内の第2のコントローラは、双方向空間内のコンテンツを選択し得る。しかしながら、2つのコントローラのそのような使用は、部分的に、ユーザが、多くの場合、慣れていない、両手用の運動を要求するため、ぎこちなくかつ不快なユーザ体験をもたらす。
本明細書に開示されるものは、単一コントローラを使用して、コンテンツ設置および相互作用の両方を可能にする、相互作用および移動手順のためのシステムおよび方法である。相互作用および移動手順は、コントローラによる異なる大きさの移動が、システムへの入力の異なる側面に影響を及ぼすことを可能にすることができる。例えば、(例えば、6自由度ポインティングデバイスの)双方向コンテンツオブジェクト内の小移動が、双方向コンテンツオブジェクト内のコンテンツを標的化または選択するために使用されることができる。双方向コンテンツオブジェクトの外側のより大きい移動は、双方向コンテンツオブジェクトの位置を制御デバイスに追従(または更新/応答)させることができる。有利なこととして、そのようなシステムは、ユーザが、同一コントローラを使用して、彼らがその3D環境を動き回るにつれて、コンテンツを彼らと連動させることと、そのコンテンツと選択的に相互作用することとの両方を可能にすることができる。
一般に、本明細書に説明されるシステムおよび方法は、ユーザが、カーソルまたはポインタ(例えば、ハンドヘルドコントローラの移動に応答して)をプリズム内等の双方向コンテンツオブジェクト内で移動させ、双方向コンテンツオブジェクトと相互作用することを可能にする。いったんユーザが、カーソルまたはポインタを双方向コンテンツオブジェクトの外側(または双方向コンテンツオブジェクトを囲繞する、いくつかの付加的境界面積の外側)に移動させると、コントローラ移動の機能性は、更新され、双方向コンテンツオブジェクトのコンテンツと相互作用するように試みるのではなく、双方向コンテンツオブジェクトの位置を移動させ、コントローラの移動と対応させる。したがって、コントローラの機能性は、ユーザがコントローラの移動を提供することによって交互に入れ替えられてもよい。実施形態に応じて、コントローラの閾値移動は、双方向コンテンツオブジェクトの平面を基準としたコントローラ姿勢の位置および/またはコントローラ姿勢と双方向コンテンツオブジェクトの平面との間の角度によって定義され得る。
図12Aは、本明細書に開示される追従および相互作用プロセスの一実施例による、例示的コンテンツ制御環境1200を図示する。例えば、ユーザ1202は、ユーザが、仮想コンテンツをその3D環境内で知覚することを可能にし得る、ウェアラブルデバイス1204(図9Dを参照して上記に開示される、頭部搭載型ディスプレイ等)を使用してもよい。ウェアラブルデバイス1204は、仮想コンテンツ1206をユーザの正面の場所に表示してもよい。ユーザの正面の場所は、ウェアラブルデバイスのコントローラ1208(図10A-11Bを参照して説明されるユーザの手またはコントローラ等)の位置および/または配向によって決定されてもよい。下記にさらに詳細に説明されるように、ユーザが、コントローラの指示ベクトルが、コンテンツ1206と関連付けられる、境界された面積または体積1212と交差しないように、コントローラ1208を移動させる場合、ウェアラブルデバイス1204は、コンテンツ1206の場所をコントローラの新しい焦点に向かって更新してもよい。ユーザが、コントローラの指示ベクトルが、境界された面積または体積1212と交差するように、コントローラ1208を移動させる場合、ウェアラブルデバイス1204は、ユーザが、コンテンツ1206を移動させずに、コンテンツ1206と関連付けられる情報を選択および入力することを可能にしてもよい。有利なこととして、コンテンツ1206が、頭部姿勢と連動して移動するにつれて、コンテンツ1206の配向は、ユーザ1202の現在の頭部姿勢に合致するように調節されてもよい。したがって、コンテンツ1206がユーザの3D環境内に設置される場所にかかわらず、コンテンツは、ユーザの現在の頭部姿勢において、便宜的視認のために角度付けられる。例えば、いくつかの実装では、コンテンツ1206は、頭部姿勢方向1210と垂直に配向されてもよい。
有利なこととして、ユーザが、その環境を動き回るにつれて、本明細書に開示される追従および相互作用プロセスは、コンテンツが、場所毎に、ユーザとともに移動および再配向されることを可能にすることができる。例えば、図12Aに図示されるように、ユーザは、第1の配向および場所1201aを有してもよい。ユーザは、新しい場所1201bまたは1201cに移動し、新しい配向を有してもよい。ユーザが、移動し、自らを再配向するにつれて、ユーザの頭部姿勢およびコントローラ1208と関連付けられる指示ベクトルを追跡することによって、ARシステムは、コンテンツ1206の場所および配向を移動させ、事実上、新しい場所1201bまたは1201cまでユーザに追従してもよい。しかしながら、ユーザが、コントローラ1206の位置および配向に対してわずかな調節を行う場合、ARシステムは、コンテンツ1206の場所を維持し、ユーザが、コントローラ1206のそれらのより小さい移動を介して、入力を提供する、またはコンテンツと相互作用することを可能にしてもよい。
図12Bは、コントローラの移動が、ユーザの3D空間内のコンテンツの場所を更新する、またはユーザがコンテンツと相互作用することを可能にするために使用されるかどうかを制御するために利用され得る、例示的プロセス1303のフローチャートを示す。プロセス1303は、方向決定ブロック1350、コンテンツ境界決定ブロック1352、境界比較ブロック1354、コンテンツ移動ブロック1356、および入力識別ブロック1358、またはより少ないまたはより多いブロックのある組み合わせを含むことができる。
方向決定ブロック1350では、ARシステムは、コントローラ、デバイス、ジェスチャ、または方向を示すことが可能な他の入力機構の指示ベクトルを決定してもよい。指示ベクトルは、入力デバイスが、電気機械的(例えば、トーテムまたはハンドヘルドコントローラ)、機械的、またはオブジェクト(例えば、ユーザの手、指、または光束)であるかどうかにかかわらず、1つまたはそれを上回る入力デバイスによって示される、ユーザの3D環境内の方向を含むことができる。いくつかの実施例では、指示ベクトルは、1人またはそれを上回るユーザジェスチャによって示される方向を含むことができる。いくつかの実施例では、指示ベクトルは、図10A-11Bを参照して上記に説明されるようなハンドヘルドコントローラの示される方向を含むことができる。いくつかの実施例では、指示ベクトルは、コントローラ配向およびユーザの眼視線または入力の他の組み合わせ等、1つを上回る入力によって決定されてもよい。
コンテンツ境界決定ブロック1352では、ARシステムは、仮想コンテンツの境界を決定してもよい。境界は、仮想コンテンツと関連付けられる空間の体積の1つまたはそれを上回る縁、空間の体積のあるサブセット(例えば、仮想コンテンツが非常に大きい場合)、または仮想コンテンツの境界線の周囲のある空間を含む、面積であってもよい。いくつかの実施例では、コンテンツ境界は、仮想コンテンツの1つを上回る断片と関連付けられ得る。
コンテンツ境界は、任意の形状であってもよい。例えば、コンテンツ境界は、直角プリズム、球体、切頂錐体、または他の形状であってもよい。いくつかの実施形態では、コンテンツ境界は、仮想コンテンツのものに類似する形状を有する場合とそうではない場合がある。例えば、コンテンツが、矩形メニューである場合、コンテンツ境界は、矩形であることができる。コンテンツが、円形である場合、コンテンツ境界は、円形または矩形であることができる。いくつかの実施例では、コンテンツ境界は、仮想コンテンツの同一または類似境界であってもよい。例えば、仮想コンテンツは、矩形双方向メニューの周囲のプリズムであってもよい。プリズムは、双方向メニューに等しいまたはそれ上回る長さおよび高さを有する、直角プリズムを有してもよい。いくつかの実施形態では、コンテンツ境界は、直角プリズムの縁であってもよい。
加えて、または代替として、コンテンツ境界は、水平および垂直方向に同一であってもよい、または異なってもよい。例えば、コンテンツ境界は、垂直方向において、水平方向より仮想コンテンツの縁からさらに離れてもよい。したがって、コンテンツは、垂直方向において、水平方向より少ないコントローラによる方向の変化を伴って、より多く移動してもよい。
コンテンツ境界は、仮想コンテンツまたは仮想コンテンツを含有するプリズムの境界より小さいまたはより大きくてもよい。例えば、コンテンツ境界は、仮想コンテンツの完全サイズより小さくあり得る、仮想コンテンツ(例えば、メニュータイル)の双方向部分の境界と一致してもよい。いくつかの実施例では、コンテンツ境界のサイズまたは形状は、コンテンツおよび/またはARシステムの1つまたはそれを上回る側面に基づいて変動してもよい。例えば、コンテンツ境界は、異なるタイプの仮想コンテンツまたは仮想コンテンツと関連付けられるアプリケーションに関して異なってもよい。いくつかの実施形態では、コンテンツ境界は、ユーザの視野の一部またはあるパーセンテージを含むように延在することができる。いくつかの実施例では、コンテンツ境界は、1/3メートル、1/2メートル、1メートル、または他の値を有する、矩形直方体であってもよい。他の実施例では、境界は、ユーザの視野の10%、25%、または他の量であってもよい。いくつかの実施例では、仮想コンテンツは、設定閾値または境界内にフィットするようにサイズ決めまたは調節されてもよい。
図12Cは、境界された体積1212内の例示的コンテンツ1206を図示し、図12Dは、その指示ベクトルが、概して、境界された体積1212内のコンテンツ1206に向かうように配向される、コントローラ1208の上面図を図示する。本実施例では、境界された体積1212は、コンテンツ1206の面積1230より大きい。有利なこととして、本余剰面積は、その中でユーザが、コンテンツ移動をトリガせずに(例えば、コンテンツをコントローラの移動に追従させずに)、コントローラ1208の指示ベクトルの方向をコンテンツ1206の直近面積1230の外側に変化させ得る、パディングを可能にする。本余剰面積は、コンテンツ面積1230の縁からの角距離1232によって定義されることができる。角距離1232は、5度、10度、または20度等の任意の度数であることができる。角距離1232は、コンテンツ1206の面積1230の異なる縁において異なってもよい。例えば、角距離1232は、左または右縁において、コンテンツ面積1230の上部または底部縁より大きくてもよい。別の実施例では、角距離1232は、コンテンツ1206に基づいて異なってもよい。例えば、コンテンツ1206は、左側に、右側より双方向性であるコンテンツを有する、メニューであってもよい。コンテンツと相互作用する、ユーザは、指示ベクトルをより双方向性であるコンテンツを伴う側に向かって移動させる可能性がより高いため、ARシステムは、より大きいパディングを左側に提供し、コンテンツ1206の新しい場所への偶発的移動を回避することに役立て、ユーザがコンテンツ1206と相互作用することをより容易にしてもよい。
図12Bを継続して参照すると、境界比較ブロック1354では、ARシステムは、コントローラの指示ベクトルがコンテンツ境界と交差するかどうかを決定してもよい。例えば、コントローラの指示ベクトルは、コンテンツ境界内またはコンテンツ境界の外側を通過してもよい。指示ベクトルが、コンテンツ境界と交差する場合、ARシステムは、ブロック1358に進んでもよい。指示ベクトルが、コンテンツ境界と交差しない場合、ARシステムは、ブロック1356に進んでもよい。
コンテンツ移動ブロック1356では、ARシステムは、仮想コンテンツを新しい場所に移動させてもよい。例えば、ARシステムは、コンテンツをコントローラの指示ベクトルに向かって移動させてもよい。点は、下記にさらに詳細に説明されるように、ARシステムまたはアプリケーションと関連付けられる、1つまたはそれを上回る要因に基づいて決定されてもよい。ARシステムは、指示ベクトルが、単に、コンテンツ境界と交差することを開始するように、コンテンツを移動させてもよい、または指示ベクトルがコンテンツの中心等のコンテンツ内の特定の点と交差するように、コンテンツを移動させてもよい。
ARシステムは、一定または可変速度において、コンテンツを移動させてもよい。例えば、ARシステムは、現在のコンテンツ場所と所望のコンテンツ場所との間の距離に基づいて計算される、速度において、コンテンツを移動させてもよい。いくつかの実施例では、速度は、より遠い距離に関しては、より高速であって、より短い距離に関しては、より低速であってもよい。いくつかの実施例では、速度は、可変であってもよい。例えば、コンテンツは、最初に、ゆっくりと移動し、加速し、次いで、目的地により近くなると、減速してもよい。
入力識別ブロック1358では、ARシステムは、コンテンツと関連付けられる、ユーザ入力を受信してもよい。例えば、ユーザは、コントローラ(および/またはジェスチャ、音声コマンド、または同等物)を用いて、双方向コンテンツとの相互作用を示してもよい(コントローラ移動に関連した双方向コンテンツの継続移動ではなく)。ARシステムは、インジケーションを受信し、インジケーションに基づいて、アクションを実施してもよい。例えば、コンテンツは、選択可能ボタンを有する、仮想メニューを含むことができる。ARシステムは、インジケーションをユーザから受信し、選択可能ボタンのうちの1つまたはそれを上回るものを選択し、選択に基づいて、1つまたはそれを上回るアクションを実施してもよい。
E. 例示的コンテンツ追従移動
上記に述べられたように、ARシステムは、コントローラの操作を通して、3D環境内の仮想コンテンツの移動を制御し、ユーザがその空間を動き回るにつれて、コンテンツが事実上ユーザに追従する結果をもたらしてもよい。図13A、13B、および13Cは、コントローラ1302を用いて、仮想コンテンツをコンテンツ場所1304において移動させることを含み得る、例示的コンテンツ移動環境の例示的側面を図示する。
コントローラ1302は、任意の多自由度入力デバイスであることができる。例えば、コントローラ1302は、ユーザの手またはその一部、図10A-11Bを参照して上記に説明されるようなウェアラブルデバイスのコントローラ、指示方向、3自由度タッチ入力デバイス、同等物を提供することが可能な6自由度デバイス、またはそれらのある組み合わせを含むことができる。コントローラ1302は、コントローラ1302が方向を示すことを可能にする、センサ、制御、または出力コンポーネントのある組み合わせを有してもよい。いくつかの実施例では、示される方向は、コントローラ1302の軸と平行な方向と一致してもよい。いくつかの実施例では、コントローラ1302は、コントローラ1302の配向または位置付けを使用して、方向を示してもよい。示される方向は、次いで、コントローラ1302の指示ベクトルの方向を定義してもよい。
仮想コンテンツは、1つまたはそれを上回るプリズムを含むことができ、これは、概して、複合現実コンテンツと関連付けられる、3次元コンテナ、面積、または体積を説明し、これは、3Dオブジェクトの表現等の複数の仮想コンテンツアイテムを含有してもよい。図13Bに図示されるように、プリズムは、幅wおよび高さhおよび別の寸法を有し得る、境界された体積1318を含むことができる。プリズム内で境界されたコンテンツは、その中でコンテンツが境界されるプリズムを制御または設置することによって、ユーザの環境内で制御または設置されてもよい。本明細書で使用されるような仮想オブジェクトは、プリズムである、またはそれを含んでもよい。プリズムの種々の特性、使用、および実装は、2019年6月27日に公開された米国特許公開第2019/0197785号(参照することによってその全体として本明細書に組み込まれる)に説明される。一実施例では、プリズム内のコンテンツは、アプリケーションと関連付けられるメニューを含んでもよい。例えば、仮想コンテンツは、メニュー内の1つまたはそれを上回る場所における入力を通して、ユーザ入力を受け取ることが可能な制御メニューを含むことができる。
仮想コンテンツは、ユーザの3D環境内の場所1304に中心合わせされてもよい。場所1304は、ユーザ、ウェアラブルデバイス、またはユーザの環境と関連付けられる、1つまたはそれを上回る要因に基づいてもよい。例えば、場所1304は、コントローラ1302の場所に対してもよい。コントローラ1302は、コントローラ1302上の点における原点を伴う、座標系を定義してもよい。場所1304が、コントローラ1302または他の基準点に対する場合、場所1304は、コントローラ1302と関連付けられる原点または指示ベクトル1312に沿った他の基準点までの距離の範囲内にあることができる。例えば、図13Bに図示されるようなベクトル1322は、コントローラ1302の原点からコンテンツ場所(またはコンテンツと関連付けられる基準点)まで定義されてもよく、場所1304は、ベクトル1322に沿ってあってもよい。
図13Aを参照すると、コンテンツ場所1304を決定する際、ARシステムは、コントローラ1302の指示ベクトル1312に沿って、コンテンツの場所1306を計算または決定してもよい。例えば、ARシステムは、コントローラ1302における原点を有する、座標系を定義してもよい。座標系は、コントローラ1302の指示ベクトル1312と平行なz軸を有してもよい。コンテンツ場所1304は、コントローラ1302の座標系内に定義されることができる。したがって、コンテンツ場所1304は、z成分(図13Aに図示されるように、z1等)を有してもよい。z成分は、コントローラ1302の指示ベクトル1312に沿ったコンテンツ場所1306に対応し得る。z成分が、最小距離1307を下回る場合、ARシステムは、z成分が最小距離を上回るまたはそれに等しくなるまで、指示ベクトル1312に沿って、コンテンツを場所1304から移動させてもよい。z成分が、最大距離1308を上回る場合、ARシステムは、z成分が最大距離未満またはそれに等しくなるまで、指示ベクトル1312に沿って、コンテンツを場所1304から移動させてもよい。
コンテンツ場所1304は、加えて、境界された体積1318の幅wおよび高さhに対する基準点を有してもよい。コントローラ1302の指示ベクトル1312が、交点1314において、高さhおよび幅wを有する、境界された体積1318と交差してもよい。点1314の場所が、境界された体積1318の幅wの外側にある場合、ARシステムは、距離が境界内に入るまで、コンテンツを場所1304から水平に移動させてもよい。垂直距離が、境界された体積1318の境界高さhを超える場合、ARシステムは、距離が境界内に入るまで、コンテンツを場所1304から垂直に移動させてもよい。したがって、コントローラ1302が、境界された体積1318内で水平または垂直に回転または移動する場合、境界された体積1318の場所1304は、空間内で比較的に固定されたままであり得る。しかしながら、コントローラ1302が、境界された体積1318の外側で水平または垂直に移動する場合、ARシステムは、仮想コンテンツおよび/または境界された体積1318を空間1314内の新しい場所に移動させてもよい。
図13Cは、別の例示的コンテンツ移動環境1301を図示する。本例示的コンテンツ移動環境1301では、ARシステムは、コンテンツ1362をコントローラ1302から離れた最小距離と最大距離との間に維持してもよい。例えば、コンテンツ1362とコントローラ1302との間の距離が、最小値未満である場合、ARシステムは、距離を最小値に設定してもよい。加えて、または代替として、コンテンツ1262とコントローラ1302との間の距離が、最大値を上回る場合、ARシステムは、距離を最大距離に設定してもよい。そうでなければ、ARシステムは、コンテンツ1362とコントローラ1302との間の現在の距離を維持し、調節を行わなくてもよい。
加えて、または代替として、コンテンツ1362を容易に位置特定し、それと相互作用する、ユーザの能力は、例えば、コントローラがコンテンツ1362の境界の内側のスポットを指示するように、コンテンツ1362がコントローラ1302の正面に留まる場合、改良され得る。維持された距離を達成し、ユーザが、コンテンツ1362またはプリズムの内側のスポットを指示することを可能にすることに役立てるために、ARシステムは、コンテンツ(例えば、プリズムまたは他の3次元コンテンツアイテム)を不可視球体1364の表面上に移動させてもよい。
図13Cを参照すると、不可視球体1364は、中心1360をコントローラ1302上の点1360(またはコントローラ上のある他の点)に有してもよい。ARシステムは、コンテンツ1362の場所を、原点を点1360に有する、球面座標に変換してもよい。球面座標は、距離、方位角φ(例えば、水平平面における回転)、および極性角度Θ(例えば、ピッチに類似する)を含んでもよい。他の実施形態では、別の座標系も、使用されてもよい。
上記の議論と同様に、コンテンツ1362(例えば、プリズムまたは他の3次元コンテンツ)は、境界のセットを有してもよい。境界のセットはまた、指定された中心1360を基準とする球面座標と関連付けられてもよい。本実施例では、ARシステムは、コンテンツ1362の境界を基準とする球体1364の外面を決定してもよい(例えば、したがって、コンテンツの境界は、球体1364の表面に隣接して維持される)。1つの特定の実施例では、球面座標が、決定され、コントローラ1302からコンテンツ1362までのベクトルCPが以下のように定義されるように、Cは、コントローラ場所を表し、Pは、コンテンツ(例えば、プリズム)場所を表す。
CP=P-C
式中、コントローラ1302とコンテンツ1362との間の距離は、CPの長さであって、ベクトルの方位角は、CP.z/CP.xの逆正接であって、CPの水平距離は、hypot(CP.x、CP.y)として計算され得る、X-Z平面上に投影されたベクトルの距離であって、コンテンツ場所の高度は、高さ/水平距離またはarctan(CP.y/horizontal distance)の逆正接である。いくつかの実施形態では、コンテンツ1362の場所は、例えば、プリズム、故に、コンテンツが、壁、テーブル、椅子、または同等物等の他の実または仮想オブジェクトに結び付けられ得る、場所を示し得る、プリズムの体積の中心における点またはプリズムの辺のうちの1つの中心(または他の場所)における点等、プリズムと関連付けられる、アンカであってもよい。
有利なこととして、いくつかの実施形態では、コントローラが、移動されるにつれて、コンテンツ1362の位置は、球体1364の外面上に留まるように調節される。例えば、コントローラ指示ベクトルの現在の方位角および極角が、球体の境界された面積の内側にある場合、ARシステムは、コンテンツ1362の位置を維持してもよい。指示ベクトルの現在の方位角および/または極角が、球体の境界された面積の外側にある場合、ARシステムは、コンテンツ1362の位置を更新してもよい。例えば、ARシステムは、境界された面積上の最も近くの点とCPの現在の方位角との間の方位角における差異を決定してもよい。ARシステムは、次いで、コンテンツ1362を移動させ、差異を低減させてもよい。加えて、または代替として、ARシステムは、コンテンツの高度を調節し、コンテンツ場所およびCPの高度における差異を低減させてもよい。
1つの特定の実施例では、コンテンツ1360の位置は、距離に関して(例えば、最小および最大距離を参照して上記に述べられたように)、方位角および高度を参照して、調節されてもよい。コンテンツの方位角が調節される必要があるかどうかを決定するために、水平境界は、角度、例えば、距離によって除算される水平境界の半分の逆正接、すなわち、arctan((horiz_bounds/2)/distance)に変換されてもよい。方位角における差異が、本角度を上回る場合、ARシステムは、方位角における差異を本角度まで低減させてもよい。コンテンツの高度角が調節される必要があるかどうかを決定するために、垂直境界は、角度、例えば、距離によって除算される垂直境界の半分の逆正接、すなわち、arctan((vert_bounds/2)/distance)に変換されてもよい。高度における差異が、本角度を上回る場合、ARシステムは、高度における差異を本角度まで低減させてもよい。
いくつかの実施例では、ARシステムは、コンテンツ1360の座標をデカルト座標に変換してもよい。前述では、コンテンツの球面座標は、コントローラを基準とした。有利なこととして、デカルト座標を使用することは、ARシステムが、コントローラ1302を基準とせずに、コンテンツをユーザの環境内に位置付けることを可能にすることができる。球面座標からデカルト(矩形)座標に変換するために、ARシステムは、以下の式を適用してもよい。
X=距離×cos(方位角)×cos(高度)
Y=距離×sin(高度)
Z=距離×sin(方位角)×cos(高度)
式中、Xは、x座標に対応し、Yは、デカルト座標フレーム内のy座標に対応し、Zは、デカルト座標フレーム内のz座標に対応する。
F. 例示的コンテンツ配向
ARシステムは、仮想コンテンツの配向をユーザの3D環境内で制御することが可能であってもよい。図14A-14Cは、コントローラ1302と、頭部搭載型デバイス1402とを含む、仮想コンテンツ1404の配向を制御するための例示的コンテンツ配向環境1400の側面を図示する。
図14Aを参照すると、コンテンツ配向環境1400は、頭部搭載型ディスプレイ1402を装着し、および/またはコントローラ1302を使用して、仮想コンテンツ1404を操作および/または視認している、ユーザ1406を含むことができる。ユーザは、仮想コンテンツ1404をユーザ1406の3D環境内の場所1412において視認し得る。コンテンツは、ユーザの頭部姿勢と関連付けられる視線ベクトル1405に対して角度1410で表示されてもよい。いくつかの実施例では、角度1410は、ユーザがコンテンツ1404の表面をより容易に知覚し得るように、最適化されてもよい。いくつかの実施例では、角度1410は、コンテンツ1404の表面がユーザの視線方向と垂直であるようなものであってもよい。
図14Bは、例示的コンテンツ配向環境1401の上下図を図示する。図14Bに示されるように、コンテンツ1420は、コントローラ1302に向く(例えば、コントローラの姿勢と垂直なままである)ように、回転されてもよい。したがって、頭部搭載型ディスプレイ1402に向いたコンテンツ1420の表面は、ユーザの頭部搭載型ディスプレイに中心合わせされる座標系のX軸に対して角度1422まで回転されてもよい。角度1422は、コンテンツの表面1420が、コントローラ1302の指示ベクトルに対して垂直角度に係止されたままであるように、コントローラが移動するにつれて、更新されてもよい。別の実施例では、角度1422は、ユーザまたはアプリケーション入力に応じて、更新されてもよい。
図14Cは、例示的コンテンツ配向環境1401の側面図を図示する。図14Cに示されるように、コンテンツ1420は、ユーザの頭部または頭部搭載型ディスプレイ1402に向くように、回転されてもよい。したがって、頭部搭載型ディスプレイ1402またはユーザの頭部に向いたコンテンツ1420の表面は、ユーザの頭部搭載型ディスプレイに中心合わせされる座標系のy軸に対して角度1432まで回転されてもよい。角度1432は、コンテンツ1420の表面が、ユーザの頭部姿勢と関連付けられる視線ベクトル1405に対して垂直角度に係止されたままであるように、ユーザが、その頭部、眼視線、および/または頭部搭載型ディスプレイを移動させるにつれて、更新されてもよい。別の実施例では、角度1432は、ユーザまたはアプリケーション入力に応じて、更新されてもよい。いくつかの実施例では、角度1432は、コンテンツ1420の表面が、ユーザの頭部上の点等、ユーザと関連付けられる原点に向いて配向され得るように、コンテンツ1420の高さに基づいてもよい。別の実施例では、コンテンツ1420の角度1432および/または高さは、固定されてもよい。
図14Dは、例示的コンテンツ配向プロセス1403のフローチャートを図示する。例えば、コンテンツ配向プロセス1403は、コンテンツ場所決定ブロック1442、頭部姿勢決定ブロック1444、コンテンツ配向ブロック、またはそれを上回るまたはより少ないブロックを含むことができる。
コンテンツ場所決定ブロック1442では、ARシステムは、ユーザの3D環境内の仮想コンテンツの場所を決定してもよい。例えば、仮想コンテンツは、ユーザの正面の点(図12A-13Bを参照して説明される移動ルールによって決定された場所等)に位置してもよい。ARシステムは、仮想コンテンツ、アプリケーション、および/またはARシステムからの入力、またはそれと関連付けられるデータに基づいて、コンテンツ場所を決定してもよい。
頭部姿勢決定ブロック1444では、ARシステムは、ユーザの頭部姿勢を決定してもよい。例えば、ARシステムは、ユーザによって装着される頭部搭載型ディスプレイと関連付けられる1つまたはそれを上回る外向きに向いたカメラ、慣性測定ユニット、それらのある組み合わせ、または他のセンサ等のARシステムと関連付けられる1つまたはそれを上回るセンサを使用して、ユーザの頭部姿勢と関連付けられる、1つまたはそれを上回るパラメータを検出してもよい。ユーザの頭部姿勢は、ユーザの視線方向を決定することに役立てるために利用されてもよい。
コンテンツ配向ブロック1446では、ARシステムは、ユーザのコンテンツ場所および視線方向を利用して、仮想コンテンツを再配向してもよい。例えば、ARシステムは、決定されたコンテンツ場所にある間、ユーザの視線方向と垂直であるようにコンテンツの表面を配向してもよい。いくつかの実施例では、ARシステムは、加えて、コンテンツを更新された配向において視認する際、ユーザの快適な視認体験を遂行するように、コンテンツの場所を移動させてもよい。
G. 例示的コンテンツ制御手順
図15は、上記に説明される相互作用および移動手順と併せて利用され得る、例示的コンテンツアクセス手順を図示し、図16は、例示的コンテンツドロップ手順を図示する。
1. メニューの開閉
いくつかの実施例では、コンテンツは、制御メニューを含んでもよい。図15は、制御メニューにアクセスするための例示的メニューアクセスプロセス1500を図示する。図15を参照すると、メニューアクセスプロセス1500は、インジケーションブロック1502、方向決定ブロック1504、開く場所決定ブロック1506、アニメーションブロック1508、メニュー表示ブロック1510、より少ないまたはより多いブロックを含むことができる。図15の実施例は、制御メニューを参照して議論されるが、プロセスは、1つまたはそれを上回る双方向仮想オブジェクトを含む、プリズム等の他のコンテンツと併用されてもよい。
インジケーションブロック1502では、ARシステムは、メニューまたは他のコンテンツを開く、またはそれにアクセスするためのインジケーションを受信してもよい。インジケーションは、入力、ジェスチャ、または姿勢を含むことができる。例えば、入力は、指示、ボタンの押下、またはARシステムと関連付けられるコントローラの他の入力コンポーネントを含むことができる。別の実施例では、入力は、メニューまたは他のコンテンツにアクセスすることと関連付けられる、ジェスチャを含むことができる。ボタンの直接押下またはコントローラへの他の直接入力を伴わない、入力の場合、ARシステムは、頭部搭載型ディスプレイの外向きに向いた結像システム等、ARシステムと関連付けられる1つまたはそれを上回るセンサを使用して、入力を知覚し得る。例えば、入力は、ユーザの手またはポインティングデバイスによる6自由度指示を含むことができる。別の実施例では、入力は、多自由度タッチパッドへの入力を含むことができる。ARシステムは、次いで、ジェスチャ、姿勢、または1つまたはそれを上回るセンサによって検出された他の間接または直接入力に基づいて、インジケーションが与えられるかどうかを決定してもよい。いくつかの実施例では、異なる入力は、異なるタイプのメニューまたは異なるコンテンツをもたらしてもよい。いくつかの実施例では、異なる入力は、同一メニューまたはコンテンツをもたらしてもよい。
方向決定ブロック1504では、ARシステムは、コントローラ、デバイス、ジェスチャ、または方向を示すことが可能な他の入力機構の指示ベクトルを決定してもよい。指示ベクトルは、1つまたはそれを上回る入力デバイスによって示される、ユーザの3D環境内の方向を含むことができる。いくつかの実施例では、指示ベクトルは、6自由度入力デバイスまたはユーザの手を用いて、1つまたはそれを上回るユーザジェスチャによって示される、方向を含むことができる。別の実施例では、指示ベクトルは、3自由度タッチ入力によって示される方向を含むことができる。いくつかの実施例では、指示ベクトルは、図10A-11Bを参照して上記に説明されるようなハンドヘルドコントローラの示される方向を含むことができる。いくつかの実施例では、指示ベクトルは、コントローラ配向およびユーザの眼視線または入力の他の組み合わせ等の1つを上回る入力によって決定されてもよい。
開く場所決定ブロック1506では、ARシステムは、示されるメニューを開く、または別様にコンテンツをユーザの3D環境内に表示するための場所を決定または識別してもよい。場所は、焦点の決定された方向、またはユーザ、アプリケーション、またはARシステムからの他の入力に基づいてもよい。例えば、ユーザは、その環境内でコントローラを指示してもよい。ARシステムは、メニューまたは他の仮想コンテンツを指示ベクトルに沿った点に表示してもよい。指示ベクトルに沿った点は、限定ではないが、図12A-13Bを参照して議論されるようなコンテンツ場所と関連付けられる1つまたはそれを上回るルールを含む、任意の数の要因に基づいて決定されてもよい。いくつかの実施例では、開く場所は、指示ベクトルに沿ったコントローラから離れた設定距離にあってもよい。別の実施例では、開く場所は、ユーザの視野の中心内にあってもよい。
アニメーションブロック1508では、ARシステムは、アニメーション、音、フィードバック、または他の効果を生成し、メニューまたは他のコンテンツをユーザに対して開く場所を示してもよい。例えば、開く場所は、焦点光線の方向に沿った点であってもよい。焦点光線の方向は、現在ユーザによってその頭部搭載型ディスプレイを用いて知覚されていない、ユーザの3D環境の面積に向かって指向されてもよい。ユーザの注意をメニューまたは他のコンテンツを開いた場所に向けるために、ARシステムは、アニメーションを表示し、触知フィードバックを生成し、または音を再生し、コンテンツがその場所に開かれようとしていることを示してもよい。例えば、ARシステムは、コントローラまたは他の基準点から、焦点の方向に沿って、開く場所に向かって生じる、スパークまたは他のコンテンツを表示してもよい。したがって、ユーザの視線または注意は、メニューまたはコンテンツ場所に向けられる可能性がより高くなり得る。
メニュー表示ブロック1510では、ARシステムは、ユーザがメニューまたは他の双方向仮想コンテンツを視認するために快適な配向において、メニューを開く場所に表示してもよい。例えば、メニューまたは他のコンテンツの配向および/または位置は、図12A-14Dを参照して上記に説明される1つまたはそれを上回るプロセスに従って、表示および/または更新されてもよい。
加えて、または代替として、ARシステムは、1つまたはそれを上回る閉じるインジケーションに基づいて、コンテンツまたはメニューを閉じる、または表示することを中止してもよい。閉じるインジケーションは、コントローラへの入力、ジェスチャ、コマンド、他の入力、またはメニューを表示することを中止するための入力のある組み合わせを含むことができる。閉じるインジケーションの受信に応じて、ARシステムは、メニューまたは他のコンテンツを表示することを中止してもよい。
2. コンテンツドロップ
図16は、図12Aおよび12Bを参照して上記に説明されるようなコンテンツ追従移動を停止および開始するための例示的メニューアクセスプロセス1600を図示する。図16を参照すると、コンテンツドロッププロセス1600は、場所決定ブロック1602と、追従決定ブロック1604と、表示ブロック1606と、追従決定ブロック1608と、追従ブロック1610とを含むことができる。
場所決定ブロック1602では、ARシステムは、操作されている仮想コンテンツまたはメニューの現在の場所を決定することができる。例えば、仮想コンテンツまたはメニューは、図12A-13Bを参照して上記に説明されるような焦点の方向と関連付けられる、指定された場所に移動されてもよい。ARシステムは、その更新された場所またはユーザまたはユーザの3D環境と関連付けられる他の場所を決定し、コンテンツが位置する、または位置付けられるべき場所を識別してもよい。いくつかの実施例では、場所は、ユーザが、部屋を動き回り、コントローラの場所および焦点の方向の配向が変化するにつれて、更新されてもよい。いくつかの実施形態では、コンテンツは、ユーザの正面の固定距離に設置されてもよい。
追従決定ブロック1604では、ARシステムは、ARシステムがコンテンツの場所を更新し続けるべきかどうかを決定することができる。例えば、ARシステムは、コンテンツの場所を更新し続ける(または追従プロセスまたは手順の)ための停止条件を識別してもよい。停止条件は、コンテンツの場所を更新することを停止するためのユーザまたは他のソースからのインジケーションを含むことができる。例えば、ユーザは、ジェスチャを行い、コマンドを発行し、またはコントローラ上のボタンまたは他の入力を押下し、コンテンツをユーザに追従させることを停止することができる。別の実施例では、ARシステムは、ユーザが、境界された体積から退出した、または閾値追従条件を超過したことを識別してもよい。いくつかの実施例では、停止条件の組み合わせも、使用されてもよい。停止条件が、検出される場合、ARシステムは、ブロック1606に進んでもよい。停止条件が、検出されない場合、ARシステムは、ブロック1610に進み、図12A-14Bを参照して上記に説明されるように、コンテンツの場所を更新し続け(換言すると、追従プロセスまたは手順を継続し)てもよい。
表示ブロック1606では、ARシステムは、コンテンツをユーザの3D環境の現在または指定された場所に表示することができる。例えば、ARシステムが、ブロック1604において、追従を停止するためのインジケーションを受信する場合、ARシステムは、メニューまたはコンテンツが最後の更新された場所に留まるように、メニューまたは他のコンテンツをメニューまたはコンテンツの現在の場所にドロップしてもよい。いくつかの実施例では、ARシステムは、図14A-14Bを参照して上記に説明されるように、メニューまたはコンテンツの配向を更新し続けてもよい。いくつかの実施例では、ARシステムはまた、メニューまたはコンテンツの配向を現在の配向にフリーズさせてもよい。いくつかの実施例では、ARシステムは、ジェスチャ、コマンド、ボタンの押下、または別様に、ARシステムにコンテンツの配向をフリーズまたはその更新を停止することを示すための入力をARシステムに提供する等のフリーズ条件を検出すること結果として、メニューまたはコンテンツの配向をフリーズさせてもよい。いくつかの実施例では、ARシステムが、ブロック1610において、停止条件を受信すると、ARシステムは、配向をユーザの3D環境内の固定またはプリセット配向および/または高さに更新してもよい。例えば、ARシステムは、ユーザがコンテンツを容易に視認し得るように、コンテンツを眼の高さに固定し、コンテンツの表面のためのコンテンツの配向がユーザの3D環境の床と垂直になるように固定してもよい。
追従決定ブロック1608では、ARシステムは、ARシステムがコンテンツの場所を更新し続けるべきであるかどうかを決定することができる。例えば、ARシステムは、コンテンツの場所を更新する(または追従プロセスまたは手順の)ための開始条件を識別してもよい。開始条件は、コンテンツの場所の更新を開始するためのユーザからまたは他のソースからのインジケーションを含むことができる。例えば、ユーザは、コンテンツをユーザに追従させることを開始するためのジェスチャを行う、コマンドを発行する、ボタンを押下する、または他の入力を行うことができる。別の実施例では、ARシステムは、ユーザが、境界された体積に進入した、または閾値追従条件を通過したことを識別してもよい。いくつかの実施例では、開始条件の組み合わせも、使用されてもよい。開始条件が、検出される場合、ARシステムは、ブロック1610に進み、図12A-14Bを参照して上記に説明されるように、コンテンツの場所を更新し続け(換言すると、追従プロセスまたは手順を継続し)てもよい。
いくつかの実施例では、ARシステムが、コンテンツの場所および/または配向の更新を開始するためのインジケーションを受信すると、ARシステムは、コンテンツをユーザの現在の場所に呼び出してもよい。例えば、ARシステムは、コンテンツの現在の場所をユーザにより近い新しい場所に移動させてもよい。いくつかの実施例では、新しい場所は、上記の図12A-14Bを参照して説明される、コンテンツの場所に関する1つまたはそれを上回るルールに基づいてもよい。いくつかの実施例では、ARシステムは、呼出インジケーションが検出されるまで、コンテンツをユーザの現在の場所に呼び出すように、コンテンツの場所および/または配向を更新しなくてもよい。呼出インジケーションは、ジェスチャ、コマンド、ボタン押下、または他の入力を含むことができる。
H. コンテンツ追従システムの例示的アプリケーション
図17は、個別のウェアラブルシステムの2人のユーザが、テレプレゼンスセッションを行っている、コンテンツ追従システムのための例示的アプリケーション1700を描写する。2人のユーザ(本実施例では、Alice912およびBob914と命名される)が、本図に示される。2人のユーザが、テレプレゼンスセッションにおける他のユーザの仮想アバタを表すための図9D(例えば、システム60のディスプレイデバイス70)を参照して説明されるHMDを含み得る、その個別のウェアラブルデバイス902および904を装着している。2人のユーザは、ウェアラブルデバイスを使用して、テレプレゼンスセッションを行うことができる。2人のユーザを分離する、図17における垂直線は、AliceおよびBobが、彼らがテレプレゼンスを介して通信している間、2つの異なる場所に存在し得る(但し、その必要はない)ように意図されることを図示する(例えば、Aliceは、Atlantaのそのオフィス内に存在する一方、Bobは、Bostonの屋外に存在する)ことに留意されたい。
ウェアラブルデバイス902および904は、相互または他のユーザデバイスおよびコンピュータシステムと通信してもよい。例えば、Aliceのウェアラブルデバイス902は、例えば、ネットワーク990を介して、Bobのウェアラブルデバイス904と通信してもよい。ウェアラブルデバイス902および904は、ユーザの環境および環境内の移動(例えば、個別の外向きに向いた結像システム464、または1つまたはそれを上回る位置特定センサを介して)および発話(例えば、個別のオーディオセンサ232を介して)を追跡することができる。ウェアラブルデバイス902および904はまた、内向きに向いた結像システム462によって入手されたデータに基づいて、ユーザの眼移動または視線を追跡することができる。いくつかの状況では、ウェアラブルデバイスはまた、ユーザが反射表面の近くに存在する場合、ユーザの顔の表情または他の身体移動(例えば、腕または脚部の移動)を捕捉または追跡することができ、外向きに向いた結像システム464は、ユーザの反射された画像を取得し、ユーザの顔の表情または他の身体移動を観察することができる。
ウェアラブルデバイスは、第1のユーザおよび環境の入手された情報を使用して、第2のユーザのウェアラブルデバイスによってレンダリングされ、第1のユーザの存在の有形感覚を第2のユーザの環境内に作成するであろう、仮想アバタをアニメーション化することができる。例えば、ウェアラブルデバイス902および904、遠隔コンピューティングシステム920は、単独で、または組み合わせて、Bobのウェアラブルデバイス904による提示のために、Aliceの画像または移動を処理してもよい、またはAliceのウェアラブルデバイス902による提示のために、Bobの画像または移動を処理してもよい。本明細書にさらに説明されるように、アバタは、例えば、ユーザの意図、ユーザの環境またはその中にアバタがレンダリングされる環境、またはヒトの他の生物学的特徴等のコンテキスト情報に基づいて、レンダリングされることができる。
実施例は、2人のユーザのみを参照するが、本明細書に説明される技法は、2人のユーザに限定されるべきではない。ウェアラブル(または他のテレプレゼンスデバイス)を使用する、複数のユーザ(例えば、2人、3人、4人、5人、6人、またはそれを上回る人数)が、テレプレゼンスセッションに参加してもよい。特定のユーザのウェアラブルデバイスは、テレプレゼンスセッションの間、その特定のユーザに、他のユーザのアバタを提示することができる。さらに、本図における実施例は、環境内に立っているようにユーザを示すが、ユーザは、立っていることを要求されない。ユーザのいずれかは、テレプレゼンスセッションの間、立つ、座る、ひざまずく、横になる、歩く、または走る、または任意の位置または移動にあってもよい。ユーザはまた、本明細書の実施例に説明される以外の物理的環境内に存在してもよい。ユーザは、テレプレゼンスセッションを行う間、別個の環境に存在してもよい、または同一環境内に存在してもよい。全てのユーザが、テレプレゼンスセッションにおいて、その個別のHMDを装着することが要求されるわけではない。例えば、Aliceは、ウェブカメラおよびコンピュータ画面等の他の画像入手およびディスプレイデバイスを使用してもよい一方、Bobは、ウェアラブルデバイス904を装着する。
Bobは、アバタチャットセッションの間、例えば、コントローラ1704上のボタン押下を通して、チャットメニューまたは他のコンテンツ1702を表示するためのインジケーションを提供してもよい。BobのARシステムは、例えば、図15を参照して上記に説明されるアクセスプロセス1500に従って、コンテンツ1702を表示してもよい。コンテンツ1702は、Bobの環境内の指示ベクトル1706に沿った場所において、Bobに現れてもよい。コンテンツ1702は、例えば、上記の図14Dを参照して説明される配向プロセスに従って、Bobがコンテンツ1702を視認することを可能にするように配向されてもよい。コンテンツ1702は、Aliceに可視である場合とそうではない場合がある。コンテンツ1702がAliceに可視である、実施例では、コンテンツ1702は、Aliceがコンテンツ1702を視認し得るように配向される場合とそうではない場合がある。Bobが、アバタチャットの間、その空間を動き回り、コントローラまたは頭部搭載型ディスプレイを3D環境内で再配向するにつれて、コンテンツ1702は、上記に説明される1つまたはそれを上回るプロセスに従って、Bobに追従してもよい。いくつかの実施例では、Bobは、チャットメニューまたは他のコンテンツ1702をBobの環境内の所望の場所に設置してもよい。加えて、または代替として、Bobは、コントローラ1704のより小さい移動を使用して、コンテンツ1702の一部を選択する、またはそれと相互作用してもよい。Bobは、BobのARシステムへの1つまたはそれを上回るインジケーションを通して、チャットメニューまたは他のコンテンツ1702を閉じてもよい。
I. 付加的実施例
本明細書に開示されるものは、ARシステムの付加的実施例である。開示される実施例のいずれかは、組み合わせられてもよい。
実施例1:拡張現実(AR)システムであって、
仮想コンテンツをARシステムのユーザに提示するように構成される、ARディスプレイと、
ユーザの環境の1つまたはそれを上回る画像を捕捉するように構成される、外向きに向いたカメラと、
ハンドヘルドコントローラの指示方向を示す、指示ベクトルを定義する、ハンドヘルドコントローラと、
ARディスプレイ、外向きに向いたカメラ、およびハンドヘルドコントローラと通信する、ハードウェアプロセッサであって、
ARディスプレイを介して、双方向コンテンツオブジェクトを表示し、
第1の相互作用モードでは、指示ベクトルが双方向コンテンツオブジェクト内に留まる間、双方向コンテンツオブジェクト内のハンドヘルドコントローラの移動を示し、ハンドヘルドコントローラを介して、双方向コンテンツオブジェクトとの相互作用を可能にし、
双方向コンテンツオブジェクトを基準として、指示ベクトルの変化を監視し、
双方向コンテンツオブジェクトの外側の指示ベクトルの移動の検出に応答して、本システムを第2の相互作用モードに更新し、ハンドヘルドコントローラは、双方向コンテンツオブジェクトが仮想環境内でハンドヘルドコントローラの移動に追従するように、双方向コンテンツオブジェクトの移動を生じさせ、
双方向コンテンツオブジェクトの内側のハンドヘルドコントローラの指示ベクトルの移動の検出に応答して、本システムを第1の相互作用モードに更新する、
ようにプログラムされる、ハードウェアプロセッサと、
を備える、システム。
実施例2:双方向コンテンツオブジェクトは、仮想オブジェクトを含有する、プリズムを備える、実施例1に記載のシステム。
実施例3:双方向コンテンツオブジェクトの少なくとも1つの縁は、仮想オブジェクトの対応する縁より仮想オブジェクトの中心から10度さらに離れている、実施例1または2のうちのいずれか1項に記載のシステム。
実施例4:ハードウェアプロセッサは、双方向コンテンツを第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、実施例1-3のうちのいずれか1項に記載のシステム。
実施例5:インジケーションは、コントローラ上のボタンの押下および解放を備える、実施例4に記載のシステム。
実施例6:ハードウェアプロセッサは、ユーザに、第1のコンテンツ場所における双方向コンテンツの表示をアラートするように構成される、実施例4-5のうちのいずれか1項に記載のシステム。
実施例7:アラートは、グラフィック、触知フィードバック、または音のうちの少なくとも1つを含む、実施例6に記載のシステム。
実施例8:ハードウェアプロセッサは、ユーザの環境内における双方向コンテンツの表示を停止するためのインジケーションを受信するように構成される、実施例1-7のうちのいずれか1項に記載のシステム。
実施例9:インジケーションは、コントローラ上のボタンの押下および解放を備える、実施例8に記載のシステム。
実施例10:ハードウェアプロセッサは、
第1のユーザ頭部姿勢を決定し、
第1のユーザ頭部姿勢に基づいて、第1のユーザ視線ベクトルを識別し、
双方向コンテンツオブジェクトの表面が第1のユーザ視線ベクトルと垂直となるように、双方向コンテンツを配向する、
ように構成される、実施例1-9のうちのいずれか1項に記載のシステム。
実施例11:ハードウェアプロセッサは、
第2のユーザ頭部姿勢を決定し、
第2のユーザ頭部姿勢に基づいて、第2のユーザ視線ベクトルを識別し、
双方向コンテンツオブジェクトの表面が第2のユーザ視線ベクトルと垂直となるように、双方向コンテンツオブジェクトを配向する、
ように構成される、実施例10に記載のシステム。
実施例12:双方向コンテンツオブジェクトのピッチは、ユーザの頭部の高さに対して固定される、実施例1-11に記載のシステム。
実施例13:ハードウェアプロセッサは、
双方向コンテンツの移動を停止させるためのインジケーションを受信し、
移動を停止させるためのインジケーションの受信に応答して、双方向コンテンツの表示をユーザの環境内の現在のコンテンツ場所に維持する、
ように構成される、実施例1-12のうちのいずれか1項に記載のシステム。
実施例14:ハードウェアプロセッサは、
双方向コンテンツの移動を開始するためのインジケーションを受信し、
移動を開始するためのインジケーションの受信に応答して、双方向コンテンツがユーザの環境内の新しい場所に表示されることを可能にする、
ように構成される、実施例13に記載のシステム。
実施例15:拡張現実(AR)システムであって、
仮想コンテンツをARシステムのユーザに提示するように構成される、ARディスプレイと、
少なくとも6自由度を有する、ハンドヘルドコントローラと、
ARディスプレイ、外向きに向いたカメラ、およびハンドヘルドコントローラと通信する、ハードウェアプロセッサであって、
双方向コンテンツを第1のコンテンツ場所に表示し、
コントローラによって示される方向を備える、第1の指示ベクトルを決定し、
第1の指示ベクトルが、双方向コンテンツと関連付けられる、境界された体積と交差するかどうかを決定し、
第1の指示ベクトルが、境界された体積と交差しないことの決定に応答して、双方向コンテンツを、第1の指示ベクトルの方向に沿った点と関連付けられる、第2のコンテンツ場所に移動させ、
第1の指示ベクトルが境界された体積と交差することの決定に応答して、第1のコンテンツ場所における双方向コンテンツと相互作用するためのインジケーションを受信する、
ようにプログラムされる、ハードウェアプロセッサと、
を備える、システム。
実施例16:双方向コンテンツは、仮想オブジェクトを含有する、プリズムを備える、実施例15に記載のシステム。
実施例17:双方向コンテンツの少なくとも1つの縁は、仮想オブジェクトの対応する縁より仮想オブジェクトの中心から10度さらに離れている、実施例15または16のうちのいずれか1項に記載のシステム。
実施例18:ハードウェアプロセッサは、双方向コンテンツを第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、実施例15に記載のシステム。
実施例19:インジケーションは、コントローラ上のボタンの押下および解放を備える、実施例18に記載のシステム。
実施例20:ハードウェアプロセッサは、ユーザに、第1のコンテンツ場所における双方向コンテンツの表示をアラートするように構成される、実施例18-19のうちのいずれか1項に記載のシステム。
実施例21:アラートは、グラフィック、触知フィードバック、または音のうちの少なくとも1つを含む、実施例20に記載のシステム。
実施例22:ハードウェアプロセッサは、ユーザの環境内における双方向コンテンツの表示を停止するためのインジケーションを受信するように構成される、実施例15-21のうちのいずれか1項に記載のシステム。
実施例23:インジケーションは、コントローラ上のボタンの押下および解放を備える、実施例22に記載のシステム。
実施例24:ハードウェアプロセッサは、
第1のユーザ頭部姿勢を決定し、
第1のユーザ頭部姿勢に基づいて、第1のユーザ視線ベクトルを識別し、
双方向コンテンツの表面が第1のユーザ視線ベクトルと垂直になるように、双方向コンテンツを配向する、
ように構成される、実施例15-24のうちのいずれか1項に記載のシステム。
実施例25:ハードウェアプロセッサは、
第2のユーザ頭部姿勢を決定し、
第2のユーザ頭部姿勢に基づいて、第2のユーザ視線ベクトルを識別し、
双方向コンテンツの表面が第2のユーザ視線ベクトルと垂直になるように、双方向コンテンツを配向する、
ように構成される、実施例24に記載のシステム。
実施例26:第1のコンテンツ場所および第2のコンテンツ場所は、接地面から同一高さにある、実施例15-25のうちのいずれか1項に記載のシステム。
実施例27:双方向コンテンツのピッチは、ユーザの頭部の高さに対して固定される、実施例26に記載のシステム。
実施例28:ハードウェアプロセッサは、
双方向コンテンツの移動を停止させるためのインジケーションを受信し、
移動を停止させるためのインジケーションの受信に応答して、双方向コンテンツの表示をユーザの環境内の現在のコンテンツ場所に維持する、
ように構成される、実施例15-27のうちのいずれか1項に記載のシステム。
実施例29:ハードウェアプロセッサは、
双方向コンテンツの移動を開始するためのインジケーションを受信し、
移動を開始するためのインジケーションの受信に応答して、双方向コンテンツがユーザの環境内の新しい場所に表示されることを可能にする、
ように構成される、実施例28に記載のシステム。
実施例30:仮想コンテンツを表示するための方法であって、
双方向コンテンツを第1のコンテンツ場所に表示するステップと、
コントローラによって示される方向を備える、第1の指示ベクトルを決定するステップと、
第1の指示ベクトルが、双方向コンテンツと関連付けられる、境界された体積と交差するかどうかを決定するステップと、
第1の指示ベクトルが、境界された体積と交差しないことの決定に応答して、双方向コンテンツを、第1の指示ベクトルの方向に沿った点と関連付けられる、第2のコンテンツ場所に移動させるステップと、
第1の指示ベクトルが境界された体積と交差することの決定に応答して、第1のコンテンツ場所における双方向コンテンツと相互作用するためのインジケーションを受信するステップと、
を含む、方法。
実施例31:双方向コンテンツを第1のコンテンツ場所に表示するためのインジケーションを受信するステップを含む、実施例30に記載の方法。
実施例32:インジケーションは、コントローラ上のボタンの押下および解放を備える、実施例31に記載の方法。
実施例33:第1のコンテンツ場所における双方向コンテンツの表示と関連付けられるユーザに、アラートを通信するステップを含む、実施例31-32のうちのいずれか1項に記載の方法。
実施例34:アラートは、グラフィック、触知フィードバック、または音のうちの少なくとも1つを含む、実施例33に記載の方法。
実施例35:ユーザの環境内における双方向コンテンツの表示を停止するためのインジケーションを受信するステップを含む、実施例30-34のうちのいずれか1項に記載の方法。
実施例36:インジケーションは、コントローラ上のボタンの押下および解放を備える、実施例35に記載の方法。
実施例37:
第1のユーザ頭部姿勢を決定するステップと、
第1のユーザ頭部姿勢に基づいて、第1のユーザ視線ベクトルを識別するステップと、
双方向コンテンツの表面が第1のユーザ視線ベクトルと垂直になるように、双方向コンテンツを配向するステップと、
を含む、実施例30-36のうちのいずれか1項に記載の方法。
実施例38:
第2のユーザ頭部姿勢を決定するステップと、
第2のユーザ頭部姿勢に基づいて、第2のユーザ視線ベクトルを識別するステップと、
双方向コンテンツの表面が第2のユーザ視線ベクトルと垂直になるように、双方向コンテンツを配向するステップと、
を含む、実施例37に記載の方法。
実施例39:第1のコンテンツ場所および第2のコンテンツ場所は、接地面から同一高さにある、実施例30-38のうちのいずれか1項に記載の方法。
実施例40:双方向コンテンツのピッチは、ユーザの頭部の高さに対して固定される、実施例39に記載の方法。
実施例41:
双方向コンテンツの移動を停止させるためのインジケーションを受信するステップと、
移動を停止させるためのインジケーションの受信に応答して、双方向コンテンツの表示をユーザの環境内の現在のコンテンツ場所に維持するステップと、
を含む、実施例30-40のうちのいずれか1項に記載の方法。
実施例42:
双方向コンテンツの移動を開始するためのインジケーションを受信するステップと、
移動を開始するためのインジケーションの受信に応答して、双方向コンテンツがユーザの環境内の新しい場所に表示されることを可能にするステップと、
を含む、実施例41に記載の方法。
実施例43:双方向コンテンツオブジェクトは、仮想オブジェクトを含有する、境界された体積を備える、上記の実施例のいずれかに記載の方法。

J. 他の考慮点
本明細書に説明される、および/または添付の図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つまたはそれを上回る物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得ることを理解されたい。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、またはインタープリタ型プログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つまたはそれを上回る物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、アニメーションまたはビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップまたはアクションの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つまたはそれを上回る実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、本明細書に提供される例証的実施例に追加される、そこから削除される、修正される、または別様にそこから変更されることができる。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、いずれの特定のシーケンスにも限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそこから除去され得る。さらに、本実施形態に説明される実装における種々のシステムコンポーネントの分離は、例証目的のためであり、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例も、可能性として考えられる。
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線または無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つまたはそれを上回る特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要または必須ではない。
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件付き用語は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることを意図している。したがって、そのような条件付き用語は、概して、特徴、要素、および/またはステップが、1つまたはそれを上回る実施形態のためにいかようにも要求されること、または1つまたはそれを上回る実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるものであるべきかどうかを決定するための論理を必然的に含むことを合意することを意図していない。用語「~を備える(comprising)」、「~を含む(including)」、「~を有する(having)」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つまたはそれを上回る」または「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「~のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図するものではない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が、示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないことを認識されたい。さらに、図面は、フローチャートの形態で1つまたはそれを上回る例示的プロセスを図式的に描写し得る。しかしながら、描写されていない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つまたはそれを上回る付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられてもよい。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合には、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。

Claims (20)

  1. 拡張現実(AR)システムであって、
    仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
    前記ユーザの環境の1つまたは複数の画像を捕捉するように構成される外向きに向いたカメラと、
    ハンドヘルドコントローラであって、前記ハンドヘルドコントローラは、前記ハンドヘルドコントローラの指示方向を示す指示ベクトルを定義する、ハンドヘルドコントローラと、
    前記ARディスプレイ、前記外向きに向いたカメラ、および前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
    前記ARディスプレイを介して、双方向コンテンツオブジェクトを表示することと、
    第1の相互作用モードにおいて、前記指示ベクトルが前記双方向コンテンツオブジェクト内に留まる間、前記双方向コンテンツオブジェクト内の前記ハンドヘルドコントローラの移動を示し、前記ハンドヘルドコントローラを介して、前記双方向コンテンツオブジェクトとの相互作用を可能にすることと、
    前記双方向コンテンツオブジェクトを基準として、前記指示ベクトルの変化を監視することと、
    前記双方向コンテンツオブジェクトの外側の前記指示ベクトルの移動検出したことに応答して、前記システムを第2の相互作用モードに更新することであって、前記第2の相互作用モードにおいて、前記ハンドヘルドコントローラは、前記双方向コンテンツオブジェクトが仮想環境内で前記ハンドヘルドコントローラの移動に追従するように、前記双方向コンテンツオブジェクトの移動を生じさせる、ことと、
    前記双方向コンテンツオブジェクトの内側の前記ハンドヘルドコントローラの前記指示ベクトルの移動検出したことに応答して、前記システムを前記第1の相互作用モードに更新することと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、システム。
  2. 前記双方向コンテンツオブジェクトは、仮想オブジェクトを含有する境界された体積を備える、請求項1に記載のシステム。
  3. 前記双方向コンテンツオブジェクトの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、請求項2に記載のシステム。
  4. 前記ハードウェアプロセッサは、前記双方向コンテンツオブジェクトを第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、請求項1に記載のシステム。
  5. 前記インジケーションは、前記ハンドヘルドコントローラ上のボタンの押下および解放を備える、請求項4に記載のシステム。
  6. 前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツオブジェクトの表示をアラートするように構成される、請求項4に記載のシステム。
  7. 前記アラートは、グラフィック、触知フィードバック、または音のうちの少なくとも1つを含む、請求項6に記載のシステム。
  8. 前記ハードウェアプロセッサは、前記ユーザの前記環境内における前記双方向コンテンツオブジェクトの表示を停止するためのインジケーションを受信するように構成される、請求項1に記載のシステム。
  9. 前記インジケーションは、前記ハンドヘルドコントローラ上のボタンの押下および解放を備える、請求項8に記載のシステム。
  10. 前記ハードウェアプロセッサは、
    第1のユーザ頭部姿勢を決定することと、
    前記第1のユーザ頭部姿勢に基づいて、第1のユーザ視線ベクトルを識別することと、
    前記双方向コンテンツオブジェクトの表面が前記第1のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツオブジェクトを配向することと
    を行うように構成される、請求項1に記載のシステム。
  11. 前記ハードウェアプロセッサは、
    第2のユーザ頭部姿勢を決定することと、
    前記第2のユーザ頭部姿勢に基づいて、第2のユーザ視線ベクトルを識別することと、
    前記双方向コンテンツオブジェクトの表面が前記第2のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツオブジェクトを配向することと
    を行うように構成される、請求項10に記載のシステム。
  12. 前記双方向コンテンツオブジェクトのピッチは、前記ユーザの頭部の高さに対して固定される、請求項1に記載のシステム。
  13. 前記ハードウェアプロセッサは、
    前記双方向コンテンツオブジェクトの移動を停止させるためのインジケーションを受信することと、
    前記移動を停止させるためのインジケーション受信したことに応答して、前記双方向コンテンツオブジェクトの表示を前記ユーザの前記環境内の現在のコンテンツ場所に維持することと
    を行うように構成される、請求項1に記載のシステム。
  14. 前記ハードウェアプロセッサは、
    前記双方向コンテンツオブジェクトの移動を開始するためのインジケーションを受信することと、
    前記移動を開始するためのインジケーション受信したことに応答して、前記双方向コンテンツオブジェクトが前記ユーザの前記環境内の新しい場所に表示されることを可能にすることと
    を行うように構成される、請求項13に記載のシステム。
  15. 拡張現実(AR)システムであって、
    仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
    少なくとも6自由度を有するハンドヘルドコントローラと、
    前記ARディスプレイおよび前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
    双方向コンテンツを第1のコンテンツ場所に表示することと、
    前記ハンドヘルドコントローラによって示される方向を備える第1の指示ベクトルを決定することと、
    前記第1の指示ベクトルが、前記双方向コンテンツと関連付けられる境界された体積と交差するかどうかを決定することと、
    前記第1の指示ベクトルが前記境界された体積と交差しないこと決定したことに応答して、前記双方向コンテンツを、前記第1の指示ベクトルの方向に沿った点と関連付けられる第2のコンテンツ場所に移動させることと、
    前記第1の指示ベクトルが前記境界された体積と交差すること決定したことに応答して、前記第1のコンテンツ場所における前記双方向コンテンツと相互作用するためのインジケーションを受信することと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、システム。
  16. 前記双方向コンテンツは、仮想オブジェクトを含有する境界された体積を備える、請求項15に記載のシステム。
  17. 前記双方向コンテンツの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、請求項16に記載のシステム。
  18. 前記ハードウェアプロセッサは、前記双方向コンテンツを前記第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、請求項15に記載のシステム。
  19. 前記インジケーションは、前記ハンドヘルドコントローラ上のボタンの押下および解放を備える、請求項18に記載のシステム。
  20. 前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツの表示をアラートするように構成される、請求項18に記載のシステム。
JP2022544290A 2020-01-24 2021-01-20 単一コントローラを使用したコンテンツ移動および相互作用 Active JP7496424B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062965708P 2020-01-24 2020-01-24
US62/965,708 2020-01-24
PCT/US2021/014208 WO2021150623A1 (en) 2020-01-24 2021-01-20 Content movement and interaction using a single controller

Publications (3)

Publication Number Publication Date
JP2023511905A JP2023511905A (ja) 2023-03-23
JPWO2021150623A5 JPWO2021150623A5 (ja) 2024-01-29
JP7496424B2 true JP7496424B2 (ja) 2024-06-06

Family

ID=

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013507052A (ja) 2009-09-30 2013-02-28 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
WO2014162762A1 (ja) 2013-04-02 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017004357A (ja) 2015-06-12 2017-01-05 株式会社コロプラ フローティング・グラフィカルユーザインターフェース
JP2018517967A (ja) 2015-08-26 2018-07-05 グーグル エルエルシー 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ
WO2018195099A1 (en) 2017-04-19 2018-10-25 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013507052A (ja) 2009-09-30 2013-02-28 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
WO2014162762A1 (ja) 2013-04-02 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017004357A (ja) 2015-06-12 2017-01-05 株式会社コロプラ フローティング・グラフィカルユーザインターフェース
JP2018517967A (ja) 2015-08-26 2018-07-05 グーグル エルエルシー 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ
WO2018195099A1 (en) 2017-04-19 2018-10-25 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system

Similar Documents

Publication Publication Date Title
JP7273940B2 (ja) 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム
JP7398507B2 (ja) 仮想および拡張現実システムおよび方法
US11138793B2 (en) Multi-depth plane display system with reduced switching between depth planes
JP2021182148A (ja) 可変焦点レンズ要素を用いた拡張現実システムおよび方法
US11782499B2 (en) Converting a 2D positional input into a 3D point in space
US20230214015A1 (en) Content movement and interaction using a single controller
JP7496424B2 (ja) 単一コントローラを使用したコンテンツ移動および相互作用
JP2023517281A (ja) 仮想および拡張現実ディスプレイシステムのための仮想オブジェクト移動速度曲線
JP2023511083A (ja) アンカベースのクロスリアリティアプリケーションのための向上された状態制御