JP2023513250A - 仮想コンテンツの動的併置 - Google Patents
仮想コンテンツの動的併置 Download PDFInfo
- Publication number
- JP2023513250A JP2023513250A JP2022548434A JP2022548434A JP2023513250A JP 2023513250 A JP2023513250 A JP 2023513250A JP 2022548434 A JP2022548434 A JP 2022548434A JP 2022548434 A JP2022548434 A JP 2022548434A JP 2023513250 A JP2023513250 A JP 2023513250A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate data
- persistent coordinate
- head
- mounted device
- persistent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002085 persistent effect Effects 0.000 claims abstract description 348
- 238000000034 method Methods 0.000 claims abstract description 55
- 230000009466 transformation Effects 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 16
- 230000001568 sexual effect Effects 0.000 claims 1
- 210000003128 head Anatomy 0.000 description 23
- 230000008569 process Effects 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 16
- 230000005236 sound signal Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 9
- 238000000844 transformation Methods 0.000 description 9
- 230000000977 initiatory effect Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000007654 immersion Methods 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 201000003152 motion sickness Diseases 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 230000000284 resting effect Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241000219357 Cactaceae Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 241000153282 Theope Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008045 co-localization Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 208000004209 confusion Diseases 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 206010013395 disorientation Diseases 0.000 description 1
- 210000003027 ear inner Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 150000003014 phosphoric acid esters Chemical class 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0081—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
第1および第2の持続座標データと、関係データとを受信するステップが開示される。第3および第4の持続座標データが、次いで、頭部装着型デバイスを介して受信された入力に基づいて、第1および第3の持続座標データが対応するかどうか、その場合、第2および第4の持続座標データが対応するかどうかが決定され、その場合、仮想オブジェクトが、関係データおよび第2の持続座標データを使用して、頭部装着型デバイスのディスプレイを介して表示されることができる。第2および第4の持続座標データが対応しない場合、仮想オブジェクトは、関係データおよび第1の持続座標データを使用して、頭部装着型デバイスのディスプレイを介して表示されることができ、第1の持続座標データが第3の持続座標データに対応しないことの決定に従って、本方法は、頭部装着型デバイスのディスプレイを介して仮想オブジェクトを表示しないようにしてもよい。
Description
(関連出願の相互参照)
本願は、その内容が参照することによってその全体として本明細書に組み込まれる、2020年2月10日に出願された、米国仮出願第62/972,541号の利益を主張する。
本願は、その内容が参照することによってその全体として本明細書に組み込まれる、2020年2月10日に出願された、米国仮出願第62/972,541号の利益を主張する。
本開示は、一般に、仮想コンテンツをユーザに表示するためのシステムおよび方法に関し、特に、複合現実環境内で仮想コンテンツをユーザに表示するためのシステムおよび方法に関する。
仮想環境は、コンピューティング環境において普遍的であって、ビデオゲーム(仮想環境が、ゲーム世界を表し得る)、マップ(仮想環境が、ナビゲートされるべき地形を表し得る)、シミュレーション(仮想環境が、実環境をシミュレートし得る)、デジタルストーリーテリング(仮想キャラクタが、仮想環境内で相互に相互作用し得る)、および多くの他の用途において使用を見出している。現代のコンピュータユーザは、概して、快適に仮想環境を知覚し、それと相互作用する。しかしながら、仮想環境を伴うユーザの体験は、仮想環境を提示するための技術によって限定され得る。例えば、従来のディスプレイ(例えば、2Dディスプレイ画面)およびオーディオシステム(例えば、固定スピーカ)は、人を引き付け、現実的で、かつ没入型の体験を作成するように、仮想環境を実現することが不可能であり得る。
仮想現実(「VR」)、拡張現実(「AR」)、複合現実(「MR」)、および関連技術(集合的に、「XR」)は、XRシステムのユーザにコンピュータシステム内のデータによって表される仮想環境に対応する感覚情報を提示する能力を共有する。本開示は、VR、AR、およびMRシステム間の特異性を考慮する(但し、いくつかのシステムは、一側面(例えば、視覚的側面)では、VRとしてカテゴリ化され、同時に、別の側面(例えば、オーディオ側面)では、ARまたはMRとしてカテゴリ化され得る)。本明細書で使用されるように、VRシステムは、少なくとも1つの側面においてユーザの実環境を置換する、仮想環境を提示する。例えば、VRシステムは、ユーザに、仮想環境のビューを提示し得る一方、同時に、光遮断頭部搭載型ディスプレイ等を用いて、実環境のそのビューを不明瞭にする。同様に、VRシステムは、ユーザに、仮想環境に対応するオーディオを提示し得る一方、同時に、実環境からのオーディオを遮断する(減衰させる)。
VRシステムは、ユーザの実環境を仮想環境と置換することから生じる、種々の短所を被り得る。1つの短所は、仮想環境内のユーザの視野が、(仮想環境ではなく)実環境内におけるその平衡および配向を検出する、その内耳の状態にもはや対応しなくなるときに生じ得る、乗り物酔いを感じることである。同様に、ユーザは、自身の身体および四肢(そのビューは、ユーザが実環境内において「地に足が着いている」と感じるために依拠するものである)が直接可視ではない場合、VR環境内において失見当識を被り得る。別の短所は、特に、ユーザを仮想環境内に没入させようとする、リアルタイム用途において、完全3D仮想環境を提示しなければならない、VRシステムに課される算出負担(例えば、記憶、処理力)である。同様に、そのような環境は、ユーザが、仮想環境内のわずかな不完全性にさえ敏感である傾向にあって、そのいずれも、仮想環境内のユーザの没入感を破壊し得るため、没入していると見なされるために、非常に高水準の現実性に到達する必要があり得る。さらに、VRシステムの別の短所は、システムのそのような用途が、実世界内で体験する、種々の光景および音等の実環境内の広範囲の感覚データを利用することができないことである。関連短所は、実環境内の物理的空間を共有するユーザが、仮想環境内で直接見る、または相互に相互作用することが不可能であり得るため、VRシステムが、複数のユーザが相互作用し得る、共有環境を作成することに苦戦し得ることである。
本明細書で使用されるように、ARシステムは、少なくとも1つの側面において実環境に重複またはオーバーレイする、仮想環境を提示する。例えば、ARシステムは、表示される画像を提示する一方、光が、ディスプレイを通してユーザの眼の中に通過することを可能にする、透過性頭部搭載型ディスプレイ等を用いて、ユーザに、実環境のユーザのビュー上にオーバーレイされる仮想環境のビューを提示し得る。同様に、ARシステムは、ユーザに、仮想環境に対応するオーディオを提示し得る一方、同時に、実環境からのオーディオを混合させる。同様に、本明細書で使用されるように、MRシステムは、ARシステムと同様に、少なくとも1つの側面において実環境に重複またはオーバーレイする、仮想環境を提示し、加えて、MRシステム内の仮想環境が、少なくとも1つの側面において実環境と相互作用し得ることを可能にし得る。例えば、仮想環境内の仮想キャラクタが、実環境内の照明スイッチを切り替え、実環境内の対応する電球をオンまたはオフにさせてもよい。別の実施例として、仮想キャラクタが、実環境内のオーディオ信号に反応してもよい(顔の表情等を用いて)。実環境の提示を維持することによって、ARおよびMRシステムは、VRシステムの前述の短所のうちのいくつかを回避し得る。例えば、ユーザにおける乗り物酔いは、実環境からの視覚的キュー(ユーザ自身の身体を含む)が、可視のままであり得、そのようなシステムが、没入型であるために、ユーザに、完全に実現された3D環境を提示する必要がないため、低減される。さらに、ARおよびMRシステムは、実世界感覚入力(例えば、景色、オブジェクト、および他のユーザのビューおよび音)を利用して、その入力を拡張させる、新しい用途を作成することができる。
単一ユーザ用途に加え、XRシステムは、マルチユーザ環境から利益を享受し得る。ARおよび/またはMRシステムは、実世界環境と仮想環境を混成するため、XRシステムのユーザは、多くの場合、同一実世界空間内に常駐し得る。実コンテンツと仮想コンテンツとの間の境を上手くぼかすために、XRシステムのユーザに、同一実世界空間に内在するXRシステムの他のユーザと同一位置において、同一仮想コンテンツが見えることが有益であり得る。仮想オブジェクト併置(すなわち、複数のユーザが同一実オブジェクトを見ているかのように、複数のユーザが、同一仮想オブジェクトを同一場所にあるものと知覚するとき)は、ユーザが、共有実コンテンツを見て、体験するのと同一方法において、ユーザが、共有仮想コンテンツを見て、体験することを可能にすることができる。仮想オブジェクト併置は、ユーザが同一複合現実体験を共有することが可能であるため、生産性および没入性を有効にすることができる。XRシステムが、仮想オブジェクトを複数のユーザおよび/またはXRシステムを横断して同一設置場所に表示することを有効にすることは、ユーザが、複合現実環境内に没入したまま、他のユーザと相互作用することを可能にする。
XRシステムは、仮想視覚的およびオーディオキューと実光景および音を組み合わせることによって、一意に増大した没入感および現実性をもたらすことができる。故に、いくつかのXRシステムでは、対応する実環境を向上させる、改良する、または改変する、仮想環境を提示することが望ましい。本開示は、複数のXRシステムを横断して仮想オブジェクトの一貫した設置を有効にする、XRシステムに関する。
本開示の実施例は、仮想コンテンツを併置するためのシステムおよび方法を説明する。本開示の実施例によると、方法は、第1の持続座標データ、第2の持続座標データ、および関係データを受信するステップを含んでもよい。第3の持続座標データおよび第4の持続座標データは、頭部装着型デバイスの1つまたはそれを上回るセンサを介して受信された入力に基づいて決定されてもよい。第1の持続座標データが第3の持続座標データに対応するかどうかが決定されることができる。第1の持続座標データが第3の持続座標データに対応することの決定に従って、第2の持続座標データが第4の持続座標データに対応するかどうかが決定されることができる。第2の持続座標データが第4の持続座標データに対応することの決定に従って、仮想オブジェクトは、関係データおよび第2の持続座標データを使用して、頭部装着型デバイスのディスプレイを介して、表示されることができる。第2の持続座標データが第4の持続座標データに対応しないことの決定に従って、仮想オブジェクトは、関係データおよび第1の持続座標データを使用して、頭部装着型デバイスのディスプレイを介して、表示されることができる。第1の持続座標データが第3の持続座標データに対応しないことの決定に従って、本方法は、頭部装着型デバイスを介して、仮想オブジェクトを表示しないようにしてもよい。
詳細な説明
実施例の以下の説明では、本明細書の一部を形成し、例証として、実践され得る具体的実施例が示される、付随の図面を参照する。他の実施例も、使用されることができ、構造変更が、開示される実施例の範囲から逸脱することなく、行われることができることを理解されたい。
実施例の以下の説明では、本明細書の一部を形成し、例証として、実践され得る具体的実施例が示される、付随の図面を参照する。他の実施例も、使用されることができ、構造変更が、開示される実施例の範囲から逸脱することなく、行われることができることを理解されたい。
複合現実環境
全ての人々と同様に、複合現実システムのユーザは、実環境内に存在する、すなわち、「実世界」の3次元部分と、そのコンテンツの全てとが、ユーザによって知覚可能である。例えば、ユーザは、通常の人間の感覚、すなわち、視覚、聴覚、触覚、味覚、嗅覚を使用して、実環境を知覚し、実環境内で自身の身体を移動させることによって、実環境と相互作用する。実環境内の場所は、座標空間内の座標として説明されることができる。例えば、座標は、緯度、経度、および海抜に対する高度、基準点から3つの直交次元における距離、または他の好適な値を含むことができる。同様に、ベクトルは、座標空間内の方向および大きさを有する、量を説明することができる。
コンピューティングデバイスは、例えば、デバイスと関連付けられるメモリ内に、仮想環境の表現を維持することができる。本明細書で使用されるように、仮想環境は、3次元空間の算出表現である。仮想環境は、任意のオブジェクトの表現、アクション、信号、パラメータ、座標、ベクトル、またはその空間と関連付けられる他の特性を含むことができる。いくつかの実施例では、コンピューティングデバイスの回路(例えば、プロセッサ)は、仮想環境の状態を維持および更新することができる。すなわち、プロセッサは、第1の時間t0において、仮想環境と関連付けられるデータおよび/またはユーザによって提供される入力に基づいて、第2の時間t1における仮想環境の状態を決定することができる。例えば、仮想環境内のオブジェクトが、時間t0において、第1の座標に位置し、あるプログラムされた物理的パラメータ(例えば、質量、摩擦係数)を有し、ユーザから受信された入力が、力がある方向ベクトルにおいてオブジェクトに印加されるべきであることを示す場合、プロセッサは、運動学の法則を適用し、基本力学を使用して、時間t1におけるオブジェクトの場所を決定することができる。プロセッサは、仮想環境について既知の任意の好適な情報および/または任意の好適な入力を使用して、時間t1における仮想環境の状態を決定することができる。仮想環境の状態を維持および更新する際、プロセッサは、仮想環境内の仮想オブジェクトの作成および削除に関連するソフトウェア、仮想環境内の仮想オブジェクトまたはキャラクタの挙動を定義するためのソフトウェア(例えば、スクリプト)、仮想環境内の信号(例えば、オーディオ信号)の挙動を定義するためのソフトウェア、仮想環境と関連付けられるパラメータを作成および更新するためのソフトウェア、仮想環境内のオーディオ信号を生成するためのソフトウェア、入力および出力をハンドリングするためのソフトウェア、ネットワーク動作を実装するためのソフトウェア、アセットデータ(例えば、仮想オブジェクトを経時的に移動させるためのアニメーションデータ)を適用するためのソフトウェア、または多くの他の可能性を含む、任意の好適なソフトウェアを実行することができる。
ディスプレイまたはスピーカ等の出力デバイスは、仮想環境のいずれかまたは全ての側面をユーザに提示することができる。例えば、仮想環境は、ユーザに提示され得る、仮想オブジェクト(無生物オブジェクト、人々、動物、光等の表現を含み得る)を含んでもよい。プロセッサは、仮想環境のビュー(例えば、原点座標、視軸、および錐台を伴う、「カメラ」に対応する)を決定し、ディスプレイに、そのビューに対応する仮想環境の視認可能場面をレンダリングすることができる。任意の好適なレンダリング技術が、本目的のために使用されてもよい。いくつかの実施例では、視認可能場面は、仮想環境内のいくつかの仮想オブジェクトのみを含み、ある他の仮想オブジェクトを除外してもよい。同様に、仮想環境は、ユーザに1つまたはそれを上回るオーディオ信号として提示され得る、オーディオ側面を含んでもよい。例えば、仮想環境内の仮想オブジェクトは、オブジェクトの場所座標から生じる音を生成してもよい(例えば、仮想キャラクタが、発話する、または音効果を生じさせ得る)、または仮想環境は、特定の場所と関連付けられる場合とそうではない場合がある、音楽キューまたは周囲音と関連付けられてもよい。プロセッサは、「聴取者」座標に対応するオーディオ信号、例えば、仮想環境内の音の合成に対応し、聴取者座標において聴取者によって聞こえるであろうオーディオ信号をシミュレートするように混合および処理される、オーディオ信号を決定し、ユーザに、1つまたはそれを上回るスピーカを介して、オーディオ信号を提示することができる。
仮想環境は、算出構造としてのみ存在するため、ユーザは、直接、通常の感覚を使用して、仮想環境を知覚することができない。代わりに、ユーザは、例えば、ディスプレイ、スピーカ、触覚的出力デバイス等によって、ユーザに提示されるように、間接的にのみ、仮想環境を知覚することができる。同様に、ユーザは、直接、仮想環境に触れる、それを操作する、または別様に、それと相互作用することができないが、入力データを、入力デバイスまたはセンサを介して、デバイスまたはセンサデータを使用して、仮想環境を更新し得る、プロセッサに提供することができる。例えば、カメラセンサは、ユーザが仮想環境のオブジェクトを移動させようとしていることを示す、光学データを提供することができ、プロセッサは、そのデータを使用して、仮想環境内において、適宜、オブジェクトを応答させることができる。
複合現実システムは、ユーザに、例えば、透過型ディスプレイおよび/または1つまたはそれを上回るスピーカ(例えば、ウェアラブル頭部デバイスの中に組み込まれ得る)を使用して、実環境および仮想環境の側面を組み合わせる、複合現実環境(「MRE」)を提示することができる。いくつかの実施形態では、1つまたはそれを上回るスピーカは、頭部搭載型ウェアラブルユニットの外部にあってもよい。本明細書で使用されるように、MREは、実環境および対応する仮想環境の同時表現である。いくつかの実施例では、対応する実および仮想環境は、単一座標空間を共有する。いくつかの実施例では、実座標空間および対応する仮想座標空間は、変換行列(または他の好適な表現)によって相互に関連する。故に、単一座標(いくつかの実施例では、変換行列とともに)は、実環境内の第1の場所と、また、仮想環境内の第2の対応する場所とを定義し得、その逆も同様である。
MREでは、(例えば、MREと関連付けられる仮想環境内の)仮想オブジェクトは、(例えば、MREと関連付けられる実環境内の)実オブジェクトに対応し得る。例えば、MREの実環境が、実街灯柱(実オブジェクト)をある場所座標に含む場合、MREの仮想環境は、仮想街灯柱(仮想オブジェクト)を対応する場所座標に含んでもよい。本明細書で使用されるように、実オブジェクトは、その対応する仮想オブジェクトとともに組み合わせて、「複合現実オブジェクト」を構成する。仮想オブジェクトが対応する実オブジェクトに完璧に合致または整合することは、必要ではない。いくつかの実施例では、仮想オブジェクトは、対応する実オブジェクトの簡略化されたバージョンであることができる。例えば、実環境が、実街灯柱を含む場合、対応する仮想オブジェクトは、実街灯柱と概ね同一高さおよび半径の円筒形を含んでもよい(街灯柱が略円筒形形状であり得ることを反映する)。仮想オブジェクトをこのように簡略化することは、算出効率を可能にすることができ、そのような仮想オブジェクト上で実施されるための計算を簡略化することができる。さらに、MREのいくつかの実施例では、実環境内の全ての実オブジェクトが、対応する仮想オブジェクトと関連付けられなくてもよい。同様に、MREのいくつかの実施例では、仮想環境内の全ての仮想オブジェクトが、対応する実オブジェクトと関連付けられなくてもよい。すなわち、いくつかの仮想オブジェクトが、任意の実世界対応物を伴わずに、MREの仮想環境内にのみ存在し得る。
いくつかの実施例では、仮想オブジェクトは、時として著しく、対応する実オブジェクトのものと異なる、特性を有してもよい。例えば、MRE内の実環境は、緑色の2本の枝が延びたサボテン、すなわち、とげだらけの無生物オブジェクトを含み得るが、MRE内の対応する仮想オブジェクトは、人間の顔特徴および無愛想な態度を伴う、緑色の2本の腕の仮想キャラクタの特性を有してもよい。本実施例では、仮想オブジェクトは、ある特性(色、腕の数)において、その対応する実オブジェクトに類似するが、他の特性(顔特徴、性格)において、実オブジェクトと異なる。このように、仮想オブジェクトは、創造的、抽象的、誇張された、または架空の様式において、実オブジェクトを表す、または挙動(例えば、人間の性格)をそうでなければ無生物である実オブジェクトに付与する潜在性を有する。いくつかの実施例では、仮想オブジェクトは、実世界対応物を伴わない、純粋に架空の創造物(例えば、おそらく、実環境内の虚空に対応する場所における、仮想環境内の仮想モンスタ)であってもよい。
ユーザに、実環境を不明瞭にしながら、仮想環境を提示する、VRシステムと比較して、MREを提示する、複合現実システムは、仮想環境が提示される間、実環境が知覚可能なままであるであるという利点をもたらす。故に、複合現実システムのユーザは、実環境と関連付けられる視覚的およびオーディオキューを使用して、対応する仮想環境を体験し、それと相互作用することが可能である。実施例として、VRシステムのユーザは、上記に述べられたように、ユーザが、直接、仮想環境を知覚する、またはそれと相互作用することができないため、仮想環境内に表示される仮想オブジェクトを知覚する、またはそれと相互作用することに苦戦し得るが、MRシステムのユーザは、その自身の実環境内の対応する実オブジェクトが見え、聞こえ、触れることによって、仮想オブジェクトと相互作用することが直感的および自然であると見出し得る。本レベルの相互作用は、ユーザの仮想環境との没入感、つながり、および関与の感覚を向上させ得る。同様に、実環境および仮想環境を同時に提示することによって、複合現実システムは、VRシステムと関連付けられる負の心理学的感覚(例えば、認知的不協和)および負の物理的感覚(例えば、乗り物酔い)を低減させることができる。複合現実システムはさらに、実世界の我々の体験を拡張または改変し得る用途に関する多くの可能性をもたらす。
図1Aは、ユーザ110が複合現実システム112を使用する、例示的実環境100を図示する。複合現実システム112は、ディスプレイ(例えば、透過型ディスプレイ)および1つまたはそれを上回るスピーカと、例えば、下記に説明されるような1つまたはそれを上回るセンサ(例えば、カメラ)とを含んでもよい。示される実環境100は、その中にユーザ110が立っている、長方形の部屋104Aと、実オブジェクト122A(ランプ)、124A(テーブル)、126A(ソファ)、および128A(絵画)とを含む。部屋104Aはさらに、場所座標106を含み、これは、実環境100の原点と見なされ得る。図1Aに示されるように、その原点を点106(世界座標)に伴う、環境/世界座標系108(x-軸108X、y-軸108Y、およびz-軸108Zを備える)は、実環境100のための座標空間を定義し得る。いくつかの実施形態では、環境/世界座標系108の原点106は、複合現実システム112の電源がオンにされた場所に対応し得る。いくつかの実施形態では、環境/世界座標系108の原点106は、動作の間、リセットされてもよい。いくつかの実施例では、ユーザ110は、実環境100内の実オブジェクトと見なされ得る。同様に、ユーザ110の身体部分(例えば、手、足)は、実環境100内の実オブジェクトと見なされ得る。いくつかの実施例では、その原点を点115(例えば、ユーザ/聴取者/頭部座標)に伴う、ユーザ/聴取者/頭部座標系114(x-軸114X、y-軸114Y、およびz-軸114Zを備える)は、その上に複合現実システム112が位置する、ユーザ/聴取者/頭部のための座標空間を定義し得る。ユーザ/聴取者/頭部座標系114の原点115は、複合現実システム112の1つまたはそれを上回るコンポーネントに対して定義されてもよい。例えば、ユーザ/聴取者/頭部座標系114の原点115は、複合現実システム112の初期較正等の間、複合現実システム112のディスプレイに対して定義されてもよい。行列(平行移動行列および四元数行列または他の回転行列を含み得る)または他の好適な表現が、ユーザ/聴取者/頭部座標系114空間と環境/世界座標系108空間との間の変換を特性評価することができる。いくつかの実施形態では、左耳座標116および右耳座標117が、ユーザ/聴取者/頭部座標系114の原点115に対して定義されてもよい。行列(平行移動行列および四元数行列または他の回転行列を含み得る)または他の好適な表現が、左耳座標116および右耳座標117とユーザ/聴取者/頭部座標系114空間との間の変換を特性評価することができる。ユーザ/聴取者/頭部座標系114は、ユーザの頭部または頭部搭載型デバイスに対する、例えば、環境/世界座標系108に対する場所の表現を簡略化することができる。同時位置特定およびマッピング(SLAM)、ビジュアルオドメトリ、または他の技法を使用して、ユーザ座標系114と環境座標系108との間の変換が、リアルタイムで決定および更新されることができる。
図1Bは、実環境100に対応する、例示的仮想環境130を図示する。示される仮想環境130は、実長方形部屋104Aに対応する仮想長方形部屋104Bと、実オブジェクト122Aに対応する仮想オブジェクト122Bと、実オブジェクト124Aに対応する仮想オブジェクト124Bと、実オブジェクト126Aに対応する仮想オブジェクト126Bとを含む。仮想オブジェクト122B、124B、126Bと関連付けられるメタデータは、対応する実オブジェクト122A、124A、126Aから導出される情報を含むことができる。仮想環境130は、加えて、仮想モンスタ132を含み、これは、実環境100内の任意の実オブジェクトに対応しない。実環境100内の実オブジェクト128Aは、仮想環境130内の任意の仮想オブジェクトに対応しない。その原点を点134(持続的座標)に伴う、持続的座標系133(x-軸133X、y-軸133Y、およびz-軸133Zを備える)は、仮想コンテンツのための座標空間を定義し得る。持続的座標系133の原点134は、実オブジェクト126A等の1つまたはそれを上回る実オブジェクトと相対的に/それに対して定義されてもよい。行列(平行移動行列および四元数行列または他の回転行列を含み得る)または他の好適な表現は、持続的座標系133空間と環境/世界座標系108空間との間の変換を特性評価することができる。いくつかの実施形態では、仮想オブジェクト122B、124B、126B、および132はそれぞれ、持続的座標系133の原点134に対するその自身の持続的座標点を有してもよい。いくつかの実施形態では、複数の持続的座標系が存在してもよく、仮想オブジェクト122B、124B、126B、および132はそれぞれ、1つまたはそれを上回る持続的座標系に対するその自身の持続的座標点を有してもよい。
持続座標データは、物理的環境に対して存続する、座標データであってもよい。持続座標データは、MRシステム(例えば、MRシステム112、200)によって使用され、持続仮想コンテンツを設置してもよく、これは、その上に仮想オブジェクトが表示されている、ディスプレイの移動に結び付けられなくてもよい。例えば、2次元画面は、画面上の位置に対してのみ仮想オブジェクトを表示してもよい。2次元画面が移動するにつれて、仮想コンテンツは、画面とともに移動してもよい。いくつかの実施形態では、持続仮想コンテンツは、部屋の角に表示されてもよい。MRユーザが、角を見ると、仮想コンテンツが見え、角から眼を逸らし(仮想コンテンツは、もはや可視ではなくなり得る)、視線を戻すと、仮想コンテンツが角に見え得る(実オブジェクトが挙動し得る方法に類似する)。
いくつかの実施形態では、持続座標データ(例えば、持続座標系)のインスタンスは、原点と、3つの軸とを含むことができる。例えば、持続座標系は、MRシステムによって、部屋の中心に割り当てられてもよい。いくつかの実施形態では、ユーザが、部屋を動き回り、部屋から出て、部屋に再進入する等し得るが、持続座標系は、部屋の中心に留まり得る(例えば、物理的環境に対して存続するため)。いくつかの実施形態では、仮想オブジェクトは、持続座標データへの変換を使用して、表示されてもよく、これは、持続仮想コンテンツを表示することを有効にし得る。いくつかの実施形態では、MRシステムは、同時位置特定およびマッピングを使用して、持続座標データを生成してもよい(例えば、MRシステムは、持続座標系を空間内の点に割り当ててもよい)。いくつかの実施形態では、MRシステムは、持続座標データを規則的インターバルで生成することによって、環境をマッピングしてもよい(例えば、MRシステムは、持続座標系を、持続座標系が別の持続座標系の少なくとも5フィート以内にあり得る、グリッド内に割り当ててもよい)。
いくつかの実施形態では、持続座標データは、MRシステムによって生成され、遠隔サーバに伝送されてもよい。いくつかの実施形態では、遠隔サーバは、持続座標データを受信するように構成されてもよい。いくつかの実施形態では、遠隔サーバは、複数の観察インスタンスからの持続座標データを同期させるように構成されてもよい。例えば、複数のMRシステムは、同一部屋と持続座標データをマッピングし、そのデータを遠隔サーバに伝送してもよい。いくつかの実施形態では、遠隔サーバは、本観察データを使用して、規準持続座標データを生成してもよく、これは、1つまたはそれを上回る観察に基づいてもよい。いくつかの実施形態では、規準持続座標データは、持続座標データの単一観察より正確および/または信頼性があり得る。いくつかの実施形態では、規準持続座標データは、1つまたはそれを上回るMRシステムに伝送されてもよい。例えば、MRシステムは、画像認識および/または場所データを使用して、対応する規準持続座標データを有する、部屋内に位置することを認識してもよい(例えば、他のMRシステムが、その部屋を以前にマッピングしているため)。いくつかの実施形態では、MRシステムは、その場所に対応する規準持続座標データを遠隔サーバから受信してもよい。
図1Aおよび1Bに関して、環境/世界座標系108は、実環境100および仮想環境130の両方のための共有座標空間を定義する。示される実施例では、座標空間は、その原点を点106に有する。さらに、座標空間は、同一の3つの直交軸(108X、108Y、108Z)によって定義される。故に、実環境100内の第1の場所および仮想環境130内の第2の対応する場所は、同一座標空間に関して説明されることができる。これは、同一座標が両方の場所を識別するために使用され得るため、実および仮想環境内の対応する場所を識別および表示するステップを簡略化する。しかしながら、いくつかの実施例では、対応する実および仮想環境は、共有座標空間を使用する必要がない。例えば、いくつかの実施例では(図示せず)、行列(平行移動行列および四元数行列または他の回転行列を含み得る)または他の好適な表現は、実環境座標空間と仮想環境座標空間との間の変換を特性評価することができる。
図1Cは、同時に、実環境100および仮想環境130の側面をユーザ110に複合現実システム112を介して提示する、例示的MRE150を図示する。示される実施例では、MRE150は、同時に、ユーザ110に、実環境100からの実オブジェクト122A、124A、126A、および128A(例えば、複合現実システム112のディスプレイの透過性部分を介して)と、仮想環境130からの仮想オブジェクト122B、124B、126B、および132(例えば、複合現実システム112のディスプレイのアクティブディスプレイ部分を介して)とを提示する。上記のように、原点106は、MRE150に対応する座標空間のための原点として作用し、座標系108は、座標空間のためのx-軸、y-軸、およびz-軸を定義する。
示される実施例では、複合現実オブジェクトは、座標空間108内の対応する場所を占有する、対応する対の実オブジェクトおよび仮想オブジェクト(すなわち、122A/122B、124A/124B、126A/126B)を含む。いくつかの実施例では、実オブジェクトおよび仮想オブジェクトは両方とも、同時に、ユーザ110に可視であってもよい。これは、例えば、仮想オブジェクトが対応する実オブジェクトのビューを拡張させるように設計される情報を提示する、インスタンスにおいて望ましくあり得る(仮想オブジェクトが古代の損傷された彫像の欠けた部分を提示する、博物館用途等)。いくつかの実施例では、仮想オブジェクト(122B、124B、および/または126B)は、対応する実オブジェクト(122A、124A、および/または126A)をオクルードするように、表示されてもよい(例えば、ピクセル化オクルージョンシャッタを使用する、アクティブピクセル化オクルージョンを介して)。これは、例えば、仮想オブジェクトが対応する実オブジェクトのための視覚的置換として作用する、インスタンスにおいて望ましくあり得る(無生物実オブジェクトが「生きている」キャラクタとなる、双方向ストーリーテリング用途等)。
いくつかの実施例では、実オブジェクト(例えば、122A、124A、126A)は、必ずしも、仮想オブジェクトを構成するとは限らない、仮想コンテンツまたはヘルパデータと関連付けられてもよい。仮想コンテンツまたはヘルパデータは、複合現実環境内の仮想オブジェクトの処理またはハンドリングを促進することができる。例えば、そのような仮想コンテンツは、対応する実オブジェクトの2次元表現、対応する実オブジェクトと関連付けられるカスタムアセットタイプ、または対応する実オブジェクトと関連付けられる統計的データを含み得る。本情報は、不必要な算出オーバーヘッドを被ることなく、実オブジェクトに関わる計算を可能にする、または促進することができる。
いくつかの実施例では、上記に説明される提示はまた、オーディオ側面を組み込んでもよい。例えば、MRE150では、仮想モンスタ132は、モンスタがMRE150の周囲を歩き回るにつれて生成される、足音効果等の1つまたはそれを上回るオーディオ信号と関連付けられ得る。下記にさらに説明されるように、複合現実システム112のプロセッサは、MRE150内の全てのそのような音の混合および処理された合成に対応するオーディオ信号を算出し、複合現実システム112内に含まれる1つまたはそれを上回るスピーカおよび/または1つまたはそれを上回る外部スピーカを介して、オーディオ信号をユーザ110に提示することができる。
例示的複合現実システム
例示的複合現実システム112は、ディスプレイ(接眼ディスプレイであり得る、左および右透過型ディスプレイと、ディスプレイからの光をユーザの眼に結合するための関連付けられるコンポーネントとを含み得る)と、左および右スピーカ(例えば、それぞれ、ユーザの左および右耳に隣接して位置付けられる)と、慣性測定ユニット(IMU)(例えば、頭部デバイスのつるのアームに搭載される)と、直交コイル電磁受信機(例えば、左つる部品に搭載される)と、ユーザから離れるように配向される、左および右カメラ(例えば、深度(飛行時間)カメラ)と、ユーザに向かって配向される、左および右眼カメラ(例えば、ユーザの眼移動を検出するため)とを備える、ウェアラブル頭部デバイス(例えば、ウェアラブル拡張現実または複合現実頭部デバイス)を含むことができる。しかしながら、複合現実システム112は、任意の好適なディスプレイ技術および任意の好適なセンサ(例えば、光学、赤外線、音響、LIDAR、EOG、GPS、磁気)を組み込むことができる。加えて、複合現実システム112は、ネットワーキング特徴(例えば、Wi-Fi能力)を組み込み、他の複合現実システムを含む、他のデバイスおよびシステムと通信してもよい。複合現実システム112はさらに、バッテリ(ユーザの腰部の周囲に装着されるように設計されるベルトパック等の補助ユニット内に搭載されてもよい)と、プロセッサと、メモリとを含んでもよい。複合現実システム112のウェアラブル頭部デバイスは、ユーザの環境に対するウェアラブル頭部デバイスの座標セットを出力するように構成される、IMUまたは他の好適なセンサ等の追跡コンポーネントを含んでもよい。いくつかの実施例では、追跡コンポーネントは、入力をプロセッサに提供し、同時位置特定およびマッピング(SLAM)および/またはビジュアルオドメトリアルゴリズムを実施してもよい。いくつかの実施例では、複合現実システム112はまた、ハンドヘルドコントローラ300、および/または下記にさらに説明されるように、ウェアラブルベルトパックであり得る、補助ユニット320を含んでもよい。
図2A-2Dは、MRE(MRE150に対応し得る)または他の仮想環境をユーザに提示するために使用され得る、例示的複合現実システム200(複合現実システム112に対応し得る)のコンポーネントを図示する。図2Aは、例示的複合現実システム200内に含まれるウェアラブル頭部デバイス2102の斜視図を図示する。図2Bは、ユーザの頭部2202上に装着されるウェアラブル頭部デバイス2102の上面図を図示する。図2Cは、ウェアラブル頭部デバイス2102の正面図を図示する。図2Dは、ウェアラブル頭部デバイス2102の例示的接眼レンズ2110の縁視図を図示する。図2A-2Cに示されるように、例示的ウェアラブル頭部デバイス2102は、例示的左接眼レンズ(例えば、左透明導波管セット接眼レンズ)2108と、例示的右接眼レンズ(例えば、右透明導波管セット接眼レンズ)2110とを含む。各接眼レンズ2108および2110は、それを通して実環境が可視となる、透過性要素と、実環境に重複するディスプレイ(例えば、画像毎に変調された光を介して)を提示するためのディスプレイ要素とを含むことができる。いくつかの実施例では、そのようなディスプレイ要素は、画像毎に変調された光の流動を制御するための表面回折光学要素を含むことができる。例えば、左接眼レンズ2108は、左内部結合格子セット2112と、左直交瞳拡張(OPE)格子セット2120と、左出射(出力)瞳拡張(EPE)格子セット2122とを含むことができる。同様に、右接眼レンズ2110は、右内部結合格子セット2118と、右OPE格子セット2114と、右EPE格子セット2116とを含むことができる。画像毎に変調された光は、内部結合格子2112および2118、OPE2114および2120、およびEPE2116および2122を介して、ユーザの眼に転送されることができる。各内部結合格子セット2112、2118は、光をその対応するOPE格子セット2120、2114に向かって偏向させるように構成されることができる。各OPE格子セット2120、2114は、光をその関連付けられるEPE2122、2116に向かって下方に漸次的に偏向させ、それによって、形成されている射出瞳を水平に延在させるように設計されることができる。各EPE2122、2116は、その対応するOPE格子セット2120、2114から受信された光の少なくとも一部を、接眼レンズ2108、2110の背後に定義される、ユーザアイボックス位置(図示せず)に外向きに漸次的に再指向し、アイボックスに形成される射出瞳を垂直に延在させるように構成されることができる。代替として、内部結合格子セット2112および2118、OPE格子セット2114および2120、およびEPE格子セット2116および2122の代わりに、接眼レンズ2108および2110は、ユーザの眼への画像毎に変調された光の結合を制御するための格子および/または屈折および反射性特徴の他の配列を含むことができる。
いくつかの実施例では、ウェアラブル頭部デバイス2102は、左つるのアーム2130と、右つるのアーム2132とを含むことができ、左つるのアーム2130は、左スピーカ2134を含み、右つるのアーム2132は、右スピーカ2136を含む。直交コイル電磁受信機2138は、左こめかみ部品またはウェアラブル頭部ユニット2102内の別の好適な場所に位置することができる。慣性測定ユニット(IMU)2140は、右つるのアーム2132またはウェアラブル頭部デバイス2102内の別の好適な場所に位置することができる。ウェアラブル頭部デバイス2102はまた、左深度(例えば、飛行時間)カメラ2142と、右深度カメラ2144とを含むことができる。深度カメラ2142、2144は、好適には、ともにより広い視野を網羅するように、異なる方向に配向されることができる。
図2A-2Dに示される実施例では、画像毎に変調された光の左源2124は、左内部結合格子セット2112を通して、左接眼レンズ2108の中に光学的に結合されることができ、画像毎に変調された光の右源2126は、右内部結合格子セット2118を通して、右接眼レンズ2110の中に光学的に結合されることができる。画像毎に変調された光の源2124、2126は、例えば、光ファイバスキャナ、デジタル光処理(DLP)チップまたはシリコン上液晶(LCoS)変調器等の電子光変調器を含む、プロジェクタ、または側面あたり1つまたはそれを上回るレンズを使用して、内部結合格子セット2112、2118の中に結合される、マイクロ発光ダイオード(μLED)またはマイクロ有機発光ダイオード(μOLED)パネル等の発光型ディスプレイを含むことができる。入力結合格子セット2112、2118は、画像毎に変調された光の源2124、2126からの光を、接眼レンズ2108、2110のための全内部反射(TIR)に関する臨界角を上回る角度に偏向させることができる。OPE格子セット2114、2120は、伝搬する光をTIRによってEPE格子セット2116、2122に向かって下方に漸次的に偏向させる。EPE格子セット2116、2122は、ユーザの眼の瞳孔を含む、ユーザの顔に向かって、光を漸次的に結合する。
いくつかの実施例では、図2Dに示されるように、左接眼レンズ2108および右接眼レンズ2110はそれぞれ、複数の導波管2402を含む。例えば、各接眼レンズ2108、2110は、複数の個々の導波管を含むことができ、それぞれ、個別の色チャネル(例えば、赤色、青色、および緑色)専用である。いくつかの実施例では、各接眼レンズ2108、2110は、複数のセットのそのような導波管を含むことができ、各セットは、異なる波面曲率を放出される光に付与するように構成される。波面曲率は、例えば、ユーザの正面のある距離(例えば、波面曲率の逆数に対応する距離)に位置付けられる仮想オブジェクトを提示するように、ユーザの眼に対して凸面であってもよい。いくつかの実施例では、EPE格子セット2116、2122は、各EPEを横断して出射する光のPoyntingベクトルを改変することによって凸面波面曲率をもたらすために、湾曲格子溝を含むことができる。
いくつかの実施例では、表示されるコンテンツが3次元である知覚を作成するために、立体視的に調節される左および右眼画像は、画像毎に光変調器2124、2126および接眼レンズ2108、2110を通して、ユーザに提示されることができる。3次元仮想オブジェクトの提示の知覚される現実性は、仮想オブジェクトが立体視左および右画像によって示される距離に近似する距離に表示されるように、導波管(したがって、対応する波面曲率)を選択することによって向上されることができる。本技法はまた、立体視左および右眼画像によって提供される深度知覚キューと人間の眼の自動遠近調節(例えば、オブジェクト距離依存焦点)との間の差異によって生じ得る、一部のユーザによって被られる乗り物酔いを低減させ得る。
図2Dは、例示的ウェアラブル頭部デバイス2102の右接眼レンズ2110の上部からの縁視図を図示する。図2Dに示されるように、複数の導波管2402は、3つの導波管の第1のサブセット2404と、3つの導波管の第2のサブセット2406とを含むことができる。導波管の2つのサブセット2404、2406は、異なる波面曲率を出射する光に付与するために異なる格子線曲率を特徴とする、異なるEPE格子によって区別されることができる。導波管のサブセット2404、2406のそれぞれ内において、各導波管は、異なるスペクトルチャネル(例えば、赤色、緑色、および青色スペクトルチャネルのうちの1つ)をユーザの右眼2206に結合するために使用されることができる。(図2Dには図示されないが、左接眼レンズ2108の構造は、右接眼レンズ2110の構造に類似する。)
図3Aは、複合現実システム200の例示的ハンドヘルドコントローラコンポーネント300を図示する。いくつかの実施例では、ハンドヘルドコントローラ300は、把持部分346と、上部表面348に沿って配置される、1つまたはそれを上回るボタン350とを含む。いくつかの実施例では、ボタン350は、例えば、カメラまたは他の光学センサ(複合現実システム200の頭部ユニット(例えば、ウェアラブル頭部デバイス2102)内に搭載され得る)と併せて、ハンドヘルドコントローラ300の6自由度(6DOF)運動を追跡するための光学追跡標的として使用するために構成されてもよい。いくつかの実施例では、ハンドヘルドコントローラ300は、ウェアラブル頭部デバイス2102に対する位置または配向等の位置または配向を検出するための追跡コンポーネント(例えば、IMUまたは他の好適なセンサ)を含む。いくつかの実施例では、そのような追跡コンポーネントは、ハンドヘルドコントローラ300のハンドル内に位置付けられてもよく、および/またはハンドヘルドコントローラに機械的に結合されてもよい。ハンドヘルドコントローラ300は、ボタンの押下状態、またはハンドヘルドコントローラ300の位置、配向、および/または運動(例えば、IMUを介して)のうちの1つまたはそれを上回るものに対応する、1つまたはそれを上回る出力信号を提供するように構成されることができる。そのような出力信号は、複合現実システム200のプロセッサへの入力として使用されてもよい。そのような入力は、ハンドヘルドコントローラの位置、配向、および/または移動(さらに言うと、コントローラを保持するユーザの手の位置、配向、および/または移動)に対応し得る。そのような入力はまた、ユーザがボタン350を押下したことに対応し得る。
図3Bは、複合現実システム200の例示的補助ユニット320を図示する。補助ユニット320は、エネルギーを提供し、システム200を動作するためのバッテリを含むことができ、プログラムを実行し、システム200を動作させるためのプロセッサを含むことができる。示されるように、例示的補助ユニット320は、補助ユニット320をユーザのベルトに取り付ける等のためのクリップ2128を含む。他の形状因子も、補助ユニット320のために好適であって、ユニットをユーザのベルトに搭載することを伴わない、形状因子を含むことも明白となるであろう。いくつかの実施例では、補助ユニット320は、例えば、電気ワイヤおよび光ファイバを含み得る、多管式ケーブルを通して、ウェアラブル頭部デバイス2102に結合される。補助ユニット320とウェアラブル頭部デバイス2102との間の無線接続もまた、使用されることができる。
いくつかの実施例では、複合現実システム200は、1つまたはそれを上回るマイクロホンを含み、音を検出し、対応する信号を複合現実システムに提供することができる。いくつかの実施例では、マイクロホンは、ウェアラブル頭部デバイス2102に取り付けられる、またはそれと統合されてもよく、ユーザの音声を検出するように構成されてもよい。いくつかの実施例では、マイクロホンは、ハンドヘルドコントローラ300および/または補助ユニット320に取り付けられる、またはそれと統合されてもよい。そのようなマイクロホンは、環境音、周囲雑音、ユーザまたは第三者の音声、または他の音を検出するように構成されてもよい。
図4は、上記に説明される複合現実システム200(図1に関する複合現実システム112に対応し得る)等の例示的複合現実システムに対応し得る、例示的機能ブロック図を示す。図4に示されるように、例示的ハンドヘルドコントローラ400B(ハンドヘルドコントローラ300(「トーテム」)に対応し得る)は、トーテム/ウェアラブル頭部デバイス6自由度(6DOF)トーテムサブシステム404Aを含み、例示的ウェアラブル頭部デバイス400A(ウェアラブル頭部デバイス2102に対応し得る)は、トーテム/ウェアラブル頭部デバイス6DOFサブシステム404Bを含む。実施例では、6DOFトーテムサブシステム404Aおよび6DOFサブシステム404Bは、協働し、ウェアラブル頭部デバイス400Aに対するハンドヘルドコントローラ400Bの6つの座標(例えば、3つの平行移動方向におけるオフセットおよび3つの軸に沿った回転)を決定する。6自由度は、ウェアラブル頭部デバイス400Aの座標系に対して表されてもよい。3つの平行移動オフセットは、そのような座標系内におけるX、Y、およびZオフセット、平行移動行列、またはある他の表現として表されてもよい。回転自由度は、ヨー、ピッチ、およびロール回転のシーケンスとして、回転行列として、四元数として、またはある他の表現として表されてもよい。いくつかの実施例では、ウェアラブル頭部デバイス400A、ウェアラブル頭部デバイス400A内に含まれる、1つまたはそれを上回る深度カメラ444(および/または1つまたはそれを上回る非深度カメラ)、および/または1つまたはそれを上回る光学標的(例えば、上記に説明されるようなハンドヘルドコントローラ400Bのボタン350またはハンドヘルドコントローラ400B内に含まれる専用光学標的)は、6DOF追跡のために使用されることができる。いくつかの実施例では、ハンドヘルドコントローラ400Bは、上記に説明されるようなカメラを含むことができ、ウェアラブル頭部デバイス400Aは、カメラと併せた光学追跡のための光学標的を含むことができる。いくつかの実施例では、ウェアラブル頭部デバイス400Aおよびハンドヘルドコントローラ400Bはそれぞれ、3つの直交して配向されるソレノイドのセットを含み、これは、3つの区別可能な信号を無線で送信および受信するために使用される。受信するために使用される、コイルのそれぞれ内で受信される3つの区別可能な信号の相対的大きさを測定することによって、ハンドヘルドコントローラ400Bに対するウェアラブル頭部デバイス400Aの6DOFが、決定され得る。加えて、6DOFトーテムサブシステム404Aは、改良された正確度および/またはハンドヘルドコントローラ400Bの高速移動に関するよりタイムリーな情報を提供するために有用である、慣性測定ユニット(IMU)を含むことができる。
いくつかの実施例では、例えば、座標系108に対するウェアラブル頭部デバイス400Aの移動を補償するために、座標をローカル座標空間(例えば、ウェアラブル頭部デバイス400Aに対して固定される座標空間)から慣性座標空間(例えば、実環境に対して固定される座標空間)に変換することが必要になり得る。例えば、そのような変換は、ウェアラブル頭部デバイス400Aのディスプレイが、ディスプレイ上の固定位置および配向(例えば、ディスプレイの右下角における同一位置)ではなく仮想オブジェクトを実環境に対する期待される位置および配向に提示し(例えば、ウェアラブル頭部デバイスの位置および配向にかかわらず、前方に面した実椅子に着座している仮想人物)、仮想オブジェクトが実環境内に存在する(かつ、例えば、ウェアラブル頭部デバイス400Aが偏移および回転するにつれて、実環境内に不自然に位置付けられて現れない)という錯覚を保存するために必要であり得る。いくつかの実施例では、座標空間間の補償変換が、座標系108に対するウェアラブル頭部デバイス400Aの変換を決定するために、SLAMおよび/またはビジュアルオドメトリプロシージャを使用して、深度カメラ444からの画像を処理することによって決定されることができる。図4に示される実施例では、深度カメラ444は、SLAM/ビジュアルオドメトリブロック406に結合され、画像をブロック406に提供することができる。SLAM/ビジュアルオドメトリブロック406実装は、本画像を処理し、次いで、頭部座標空間と別の座標空間(例えば、慣性座標空間)との間の変換を識別するために使用され得る、ユーザの頭部の位置および配向を決定するように構成される、プロセッサを含むことができる。同様に、いくつかの実施例では、ユーザの頭部姿勢および場所に関する情報の付加的源が、IMU409から取得される。IMU409からの情報は、SLAM/ビジュアルオドメトリブロック406からの情報と統合され、改良された正確度および/またはユーザの頭部姿勢および位置の高速調節に関するよりタイムリーな情報を提供することができる。
いくつかの実施例では、深度カメラ444は、ウェアラブル頭部デバイス400Aのプロセッサ内に実装され得る、手のジェスチャトラッカ411に、3D画像を供給することができる。手のジェスチャトラッカ411は、例えば、深度カメラ444から受信された3D画像を手のジェスチャを表す記憶されたパターンに合致させることによって、ユーザの手のジェスチャを識別することができる。ユーザの手のジェスチャを識別する他の好適な技法も、明白となるであろう。
いくつかの実施例では、1つまたはそれを上回るプロセッサ416は、ウェアラブル頭部デバイスの6DOFヘッドギヤサブシステム404B、IMU409、SLAM/ビジュアルオドメトリブロック406、深度カメラ444、および/または手のジェスチャトラッカ411からのデータを受信するように構成されてもよい。プロセッサ416はまた、制御信号を6DOFトーテムシステム404Aに送信し、そこから受信することができる。プロセッサ416は、ハンドヘルドコントローラ400Bがテザリングされない実施例等では、無線で、6DOFトーテムシステム404Aに結合されてもよい。プロセッサ416はさらに、オーディオ/視覚的コンテンツメモリ418、グラフィカル処理ユニット(GPU)420、および/またはデジタル信号プロセッサ(DSP)オーディオ空間化装置422等の付加的コンポーネントと通信してもよい。DSPオーディオ空間化装置422は、頭部関連伝達関数(HRTF)メモリ425に結合されてもよい。GPU420は、画像毎に変調された光の左源424に結合される、左チャネル出力と、画像毎に変調された光の右源426に結合される、右チャネル出力とを含むことができる。GPU420は、例えば、図2A-2Dに関して上記に説明されるように、立体視画像データを画像毎に変調された光の源424、426に出力することができる。DSPオーディオ空間化装置422は、オーディオを左スピーカ412および/または右スピーカ414に出力することができる。DSPオーディオ空間化装置422は、プロセッサ419から、ユーザから仮想音源(例えば、ハンドヘルドコントローラ320を介して、ユーザによって移動され得る)への方向ベクトルを示す入力を受信することができる。方向ベクトルに基づいて、DSPオーディオ空間化装置422は、対応するHRTFを決定することができる(例えば、HRTFにアクセスすることによって、または複数のHRTFを補間することによって)。DSPオーディオ空間化装置422は、次いで、決定されたHRTFを仮想オブジェクトによって生成された仮想音に対応するオーディオ信号等のオーディオ信号に適用することができる。これは、複合現実環境内の仮想音に対するユーザの相対的位置および配向を組み込むことによって、すなわち、その仮想音が実環境内の実音である場合に聞こえるであろうもののユーザの期待に合致する仮想音を提示することによって、仮想音の信憑性および現実性を向上させることができる。
図4に示されるようないくつかの実施例では、プロセッサ416、GPU420、DSPオーディオ空間化装置422、HRTFメモリ425、およびオーディオ/視覚的コンテンツメモリ418のうちの1つまたはそれを上回るものは、補助ユニット400C(上記に説明される補助ユニット320に対応し得る)内に含まれてもよい。補助ユニット400Cは、バッテリ427を含み、そのコンポーネントを給電し、および/または電力をウェアラブル頭部デバイス400Aまたはハンドヘルドコントローラ400Bに供給してもよい。そのようなコンポーネントを、ユーザの腰部に搭載され得る、補助ユニット内に含むことは、ウェアラブル頭部デバイス400Aのサイズおよび重量を限定することができ、これは、ひいては、ユーザの頭部および頸部の疲労を低減させることができる。
図4は、例示的複合現実システムの種々のコンポーネントに対応する要素を提示するが、これらのコンポーネントの種々の他の好適な配列も、当業者に明白となるであろう。例えば、補助ユニット400Cと関連付けられているような図4に提示される要素は、代わりに、ウェアラブル頭部デバイス400Aまたはハンドヘルドコントローラ400Bと関連付けられ得る。さらに、いくつかの複合現実システムは、ハンドヘルドコントローラ400Bまたは補助ユニット400Cを完全に無くしてもよい。そのような変更および修正は、開示される実施例の範囲内に含まれるものとして理解されるべきである。
仮想コンテンツの動的併置
MRシステムが、発達し、より多くの市場への参入を達成するにつれて、MRシステム能力に関する需要もまた、増加し得る。MRシステムの単独ユーザは、MRシステムが持続仮想コンテンツ(例えば、ディスプレイに対するある場所にのみ存続し得る、仮想コンテンツではなく、環境に対するある場所に存続し得る、仮想コンテンツ)を表示することを期待し得るが、相互に相互作用する、MRシステムの複数のユーザは、より需要の高い期待を有し得る。例えば、同一実世界空間に内在する、MRシステムの複数のユーザは、同一複合現実環境を体験することを期待し得る。ユーザが、同一実世界環境に内在し得るため、ユーザはまた、同一仮想環境に内在することを期待し得る(その両方とも、複合現実環境を形成するために組み合わせられ得る)。具体的には、第1のユーザは、仮想オブジェクトを第1のユーザの複合現実環境内で視認し得、第1のユーザは、同一実環境内の第2のユーザもまた、同一場所内の仮想オブジェクトを見ることが可能であることを期待し得る。したがって、複数のMRシステムを横断して、仮想コンテンツを併置することが望ましくあり得る。
仮想オブジェクト併置は、1つを上回るMRおよび/またはXR(例えば、その画面上の共有仮想コンテンツを正しい実世界場所に表示し得る、スマートフォン)システムを横断して、複合現実環境に対する一貫した位置に現れるように、仮想オブジェクトを複合現実環境内に設置することを含み得る。例えば、仮想コーヒーマグカップが、実テーブル上に設置されているように表示されてもよい。仮想オブジェクト持続性は、単一MRシステムが、複合現実環境を動き回っても、実テーブル上の同一スポットに静置しているように、仮想コーヒーマグカップを持続的に表示することを有効にし得る。仮想オブジェクト併置は、2つまたはそれを上回るMRシステムが、複合現実環境を動き回りながら、その両方とも、実テーブル上の同一スポットに静置しているように、仮想コーヒーマグカップを持続的に表示することを有効にし得る。換言すると、仮想オブジェクト併置の目標は、仮想オブジェクトを実オブジェクト(例えば、各人物およびオブジェクトに対するその位置を横断して、一貫した様式において、複数の人々によって同時に観察され得る、オブジェクト)のように取り扱うことであり得る。
図5は、いくつかの実施形態による、仮想オブジェクト併置の実施例を図示する。ユーザ502およびユーザ508が、同一実世界環境に内在し得る(例えば、ユーザ502およびユーザ508は、相互に近接近して、および/または相互と同一部屋に存在し得る)。いくつかの実施形態では、ユーザ502および/またはユーザ508は、仮想コンテンツを他のユーザと共有することを所望し得る。いくつかの実施形態では、仮想オブジェクト(例えば、プリズム510および/または幾何学的オブジェクト512)は、ユーザ502およびユーザ508のために併置されてもよい。いくつかの実施形態では、プリズム510は、境界体積を含むことができ、これは、1つまたはそれを上回る幾何学的オブジェクトの周囲の閉鎖された体積を含んでもよい。例えば、境界体積は、境界される幾何学的オブジェクトまたは境界される幾何学的オブジェクトのグループの最大長、幅、および/または高さにサイズ決めされる、矩形ボックスであってもよい。いくつかの実施形態では、境界体積は、任意の幾何学的形状であることができ、円柱、球体等を含む。いくつかの実施形態では、プリズムは、境界体積のためのコンテナを含んでもよく、プリズムは、境界体積の性質を含んでもよい。例えば、プリズムは、境界体積が他の境界体積と交差すべきであるかどうか、境界体積が水平にまたは垂直に配向されるべきであるかどうか、境界体積が他の仮想オブジェクトに結び付けられるべきであるかどうかおよび/またはその方法等に関するパラメータを含んでもよい。いくつかの実施形態では、幾何学的オブジェクトは、3次元オブジェクトを形成し得る、相互接続された頂点のメッシュであることができる。
いくつかの実施形態では、仮想オブジェクトは、ユーザ502およびユーザ508の両方に、実世界環境および/または複合現実環境に対する同一位置に現れ得る。例えば、ユーザ502は、プリズム510をテーブル上に静置しているように知覚し得、ユーザ508もまた、プリズム510を同一位置においてテーブル上に静置しているように知覚し得る。ユーザ502および/またはユーザ508が、プリズム510の周囲を動き回るにつれて、プリズム510は、ユーザ502および/またはユーザ508に、定常のままであるように現れ得る(例えば、プリズム510は、同一位置において同一テーブル上に留まるように現れ得る)。いくつかの実施形態では、仮想オブジェクト併置は、移動しているオブジェクトにも適用することができる。例えば、ユーザ502は、プリズム510をテーブルからキャビネットに移動させてもよい。ユーザ502は、例えば、MRシステム504(MRシステム112、200に対応し得る)のユーザインターフェースを使用して、これを遂行してもよい。MRシステム504のユーザインターフェースは、ユーザが、プリズム510を指しながら、ハンドヘルドコントローラ上のボタンを押下し、プリズム510を選択し、それを異なる場所に移動させ得る、ハンドヘルドコントローラを含んでもよい。いくつかの実施形態では、仮想オブジェクト併置は、ユーザ502がユーザ502自身のMRE内でプリズム510を移動させるにつれて、ユーザ508が、プリズム510の移動を知覚することを有効にし得る。
図6は、いくつかの実施形態による、仮想オブジェクト併置の実施例を図示する。仮想オブジェクト併置は、1つまたはそれを上回るMRシステム間の通信を含むことができる。いくつかの実施形態では、MRシステム602(MRシステム112、200に対応することができる)およびMRシステム604(MRシステム112、200に対応することができる)は、併置される仮想オブジェクトの表示を同期させるために通信してもよい。いくつかの実施形態では、MRシステム602およびMRシステム604は、独立してもよく(例えば、各システムが、ユーザの位置を追跡し、仮想コンテンツをその独自のMRE内に表示してもよく)、MRシステム602およびMRシステム604が、通信し、同期して、仮想コンテンツを併置することを可能にすることが有益であり得る。
いくつかの実施形態では、MRシステムは、1つまたはそれを上回る持続座標系(例えば、持続座標系133)を利用して、持続仮想コンテンツ(例えば、ディスプレイに対して定常とは対照的に、MREに対して定常のままであり得る、仮想コンテンツ)を表示してもよい。いくつかの実施形態では、MRシステムは、視覚的データ(例えば、カメラデータ)、慣性データ(例えば、IMUデータ)、深度データ(例えば、飛行時間データおよび/またはLIDARデータ)、および/または他のデータを利用して、1つまたはそれを上回るアンカポイント(例えば、持続座標系の原点)を3次元空間内に確立してもよい。例えば、MRシステムは、MRシステムが実環境を動き回るにつれて、視覚的慣性オドメトリおよび/または同時位置特定およびマッピングを利用して、持続座標系を作成および/または設置してもよい。いくつかの実施形態では、以前に確立された持続座標系は、保存されてもよい(例えば、MRシステムにローカルで、および/または遠隔サーバにアップロードされる)。
いくつかの実施形態では、MRシステムは、持続座標系と以前にマッピングされている環境内に存在することを決定してもよい(例えば、場所データを介して、画像認識を介して、および/または同時位置特定およびマッピングを介して)。MRシステムは、持続仮想コンテンツを表示する際に使用するために、以前にマッピングされた持続座標系を読み出してもよい。いくつかの実施形態では、1つまたはそれを上回るローカルで作成された持続座標系が、遠隔サーバにアップロードされてもよい。いくつかの実施形態では、遠隔サーバは、1つまたはそれを上回るローカルで作成された持続座標系が1つまたはそれを上回る以前にアップロードされた持続座標系に対応するかどうかを決定してもよい。いくつかの実施形態では、遠隔サーバは、規準持続座標系を1つまたはそれを上回る対応する持続座標系から決定してもよい。例えば、遠隔サーバは、2つの対応する持続座標系を2つの異なるMRシステムから受信してもよく、遠隔サーバは、対応する持続座標系を平均してもよい。いくつかの実施形態では、平均は、1つまたはそれを上回る信頼度測定値に従った加重平均であってもよい(例えば、1つのMRシステムは、繰り返し観察される持続座標系を有し得、これは、そのMRシステムによって展開された持続座標系内の信頼度を増加させ得る)。いくつかの実施形態では、MRシステムは、MRシステムが以前にマッピングされた環境内に存在することが決定される場合、全ての対応する持続座標系を読み出してもよい(例えば、ローカルで、および/または遠隔サーバから)。例えば、MRシステムが、以前に作成された持続座標系を有する、部屋内に存在することが決定される場合、MRシステムは、その部屋に関する全ての以前に作成された持続座標系を読み出してもよい。
いくつかの実施形態では、持続仮想コンテンツが、1つまたはそれを上回る持続座標系を使用して、MRE内に設置されることができる。例えば、仮想コンテンツは、持続座標系に対して表示されることができる。いくつかの実施形態では、座標系間の1つまたはそれを上回る変換が、持続仮想コンテンツを表示するために使用されてもよい。例えば、1つまたはそれを上回る変換は、持続座標系から頭部座標系に転換させるために使用されてもよい。いくつかの実施形態では、1つまたはそれを上回る変換は、頭部座標系から左眼座標系(立体視MRシステムの左ディスプレイに対応し得る)に平行移動させるために使用されてもよい。いくつかの実施形態では、1つまたはそれを上回る変換は、頭部座標系から右眼座標系(立体視MRシステムの右ディスプレイに対応し得る)に平行移動させるために使用されてもよい。いくつかの実施形態では、仮想コンテンツは、1つまたはそれを上回る持続座標系に対して表示されることができる。例えば、仮想コンテンツは、MRE内で移動し得、仮想コンテンツは、所与の時間における仮想コンテンツに最も近い、持続座標系に対して表示されてもよい。
図6に描写される実施形態では、MRシステム602および604は、持続座標系610と、持続座標系612とを含む、MRE内に位置し得る。いくつかの実施形態では、MRシステム602は、以前にマッピングされた環境内に位置することを認識し、持続座標系610および持続座標系612を読み出してもよい。いくつかの実施形態では、MRシステム602は、座標系608を使用して、プリズム606を表示してもよい。いくつかの実施形態では、座標系608は、プリズム606の位置と持続座標系610を関連させ得る、持続座標系610からの変換を含み、および/またはそれによって定義されてもよい。
いくつかの実施形態では、MRシステム604は、MRシステム602を併置セッションに加えてもよく、これは、MRシステム602および604が、仮想オブジェクト(例えば、プリズム606および/またはプリズム内に含有される仮想コンテンツ)をリアルタイムで併置することを可能にし得る。いくつかの実施形態では、MRシステム602は、併置セッションに加わるための要求をMRシステム604に送信してもよい。いくつかの実施形態では、MRシステム604は、併置セッションに加わるための要求をMRシステム602に送信してもよい。いくつかの実施形態では、MRシステム602およびMRシステム604はそれぞれ、プリズム606を統制し得る、アプリケーションの別個のインスタンスを起動してもよい。いくつかの実施形態では、MRシステム602は、併置されるべき1つまたはそれを上回る仮想オブジェクトに関するデータをMRシステム604に伝送してもよい。例えば、MRシステム602は、MRシステム604が適切な仮想オブジェクトを位置特定し(例えば、MRシステム602上で起動する同一アプリケーションの異なるインスタンスであり得る、アプリケーション内から)、表示する仮想オブジェクトを表示することを可能にし得る、仮想オブジェクト識別子を伝送してもよい。
併置される仮想オブジェクトを表示することは、併置される仮想オブジェクトが、併置セッションにおいて、MRシステムを横断して、単一持続座標系に対して表示される場合、より正確となり得る。例えば、共通持続座標系を利用することは、異なる持続座標系における誤差から生じ得る、オブジェクト位置および/または配向における不正確性を低減させ得る。いくつかの実施形態では、MRシステム602およびMRシステム604は、それらが、持続座標系と以前にマッピングされている、空間内に常駐することを認識し得る(個々に、および/または相互間の通信を介して)。MRシステム602および604は、認識される実世界環境に対応する、持続座標系を読み出してもよい。いくつかの実施形態では、各MRシステムは、持続座標系(例えば、近隣の持続座標系および/または占有される環境に対応する持続座標系)を併置セッション内の他のMRシステムに送信してもよい。いくつかの実施形態では、各MRシステムは、1つまたはそれを上回る持続座標系から併置される仮想オブジェクトの場所への1つまたはそれを上回る変換を送信してもよい。
いくつかの実施形態では、MRシステム(例えば、MRシステム602)は、併置セッション内の他のMRシステム(例えば、MRシステム604)によって使用される、持続座標系および/または持続座標系の一意の識別子のリストを受信してもよい。いくつかの実施形態では、MRシステム(例えば、MRシステム602および/またはMRシステム604)は、併置セッション内の他のMRシステムによる使用時の持続座標系とMRシステム自体による使用時の持続座標系を比較してもよい。いくつかの実施形態では、MRシステムは、持続座標系610が、併置セッション内の全てのMRシステムによって使用中であって、および/またはそれらに共通であることを決定し得る。いくつかの実施形態では、MRシステムは、1つまたはそれを上回る持続座標系から併置される仮想オブジェクトの場所への1つまたはそれを上回る変換を受信してもよい。いくつかの実施形態では、MRシステムは、持続座標系610を使用して(例えば、持続座標系610に対する変換を使用することによって)、併置される仮想コンテンツ(例えば、プリズム606および/またはプリズム606と関連付けられる仮想コンテンツ)を表示してもよい。いくつかの実施形態では、併置比較のために使用される、持続座標系は、規準持続座標系(例えば、持続座標系の統合された複数の観察を有し得る、遠隔サーバから読み出された持続座標系)であってもよい。
いくつかの実施形態では、1つを上回る持続座標系が、併置セッション内の全てのMRシステムに共通であり得る。いくつかの実施形態では、各MRシステムは、併置される仮想コンテンツの場所に最も近い、共通持続座標系を使用して、併置される仮想コンテンツを表示してもよい。いくつかの実施形態では、MRシステムは、併置セッション内で他のMRシステムと交渉し、併置される仮想コンテンツを単一共通持続座標系に対して表示してもよい。
いくつかの実施形態では、併置される仮想コンテンツは、併置セッションの間、移動し得る。例えば、MRシステム602は、併置セッションの間、プリズム606を移動させ得る。いくつかの実施形態では、移動を開始する側のMRシステム(例えば、MRシステム602)は、変換データ(例えば、変換行列)を併置セッション内の他のMRシステムに持続的に伝送してもよい(例えば、15Hz、30Hz、60Hz等のレートで)。いくつかの実施形態では、受信側MRシステム(例えば、MRシステム604)は、開始側MRシステムと同一持続座標系を使用して、併置される仮想コンテンツをすでに表示していてもよい。いくつかの実施形態では、受信側MRシステムは、変換データを使用して、併置される仮想コンテンツの移動を表示してもよい。いくつかの実施形態では、受信側MRシステムは、開始側MRシステムと異なる持続座標系(例えば、異なる共通持続座標系)を使用して、併置される仮想コンテンツを表示してもよい。いくつかの実施形態では、受信側MRシステムは、開始側MRシステムによって使用中の共通持続座標系を使用して、併置される仮想コンテンツを表示するように切り替えてもよく、これは、受信側MRシステムが、直接、開始側MRシステムによって伝送される変換データを使用することを可能にし得る。いくつかの実施形態では、受信側MRシステムは、その持続座標系から切り替えなくてもよく、開始側MRシステムによって使用される持続座標系から受信側MRシステムによって使用される持続座標系への変換を利用してもよい。
いくつかの実施形態では、1つを上回るMRシステムは、併置される仮想コンテンツを同時に移動させることができる。例えば、MRシステム602は、プリズム606を移動させてもよい。MRシステム602が、プリズム606を移動させている間、MRシステム604はまた、プリズム606を移動させてもよい。いくつかの実施形態では、MRシステム604は、MRシステム602がプリズム606を移動させるときに移動するように、プリズム606を表示してもよい。いくつかの実施形態では、いったんMRシステム604が、プリズム606の移動を開始すると、MRシステム604は、その独自の移動を表示してもよい(例えば、MRシステム602によって行われる移動をオーバーライドする)。いくつかの実施形態では、MRシステム602は、ローカルで、その独自の移動を表示し続けるであろう一方、MRシステム604は、ローカルで、MRシステム604の移動を表示している。いくつかの実施形態では、いったんMRシステム602が、プリズム606を解放すると、MRシステム602は、MRシステム604による移動に従って、プリズム606を表示するであろう。
図7は、いくつかの実施形態による、複数の環境を横断した仮想オブジェクト併置の実施例を図示する。いくつかの実施形態では、MRシステム702および704は、第1の環境(例えば、第1の部屋)を占有し得、MRシステム705および706は、第2の環境(例えば、第2の部屋)を占有し得る。いくつかの実施形態では、MRシステム702、704、705、および706は、同一併置セッション内にあってもよく、持続座標系(例えば、使用中のものおよび/または近隣のもの)および/または変換データを共有してもよい。MRシステム702および704は、MRシステム705および706と異なる環境を占有し得るため、MRシステム702および704は、MRシステム705および706と共通持続座標系を利用しなくてもよい。いくつかの実施形態では、MRシステム702および704は、それらが、少なくとも1つの共通持続座標系(例えば、持続座標系710および/または712)を共有することを決定し、仮想コンテンツを相互に併置することができる(例えば、持続座標系710および/または712を使用して)。いくつかの実施形態では、MRシステム705および706は、それらが、少なくとも1つの持続座標系(例えば、持続座標系714および/または716)を共有することを決定し、仮想コンテンツを相互に併置することができる(例えば、持続座標系714および/または716を使用して)。
いくつかの実施形態では、併置セッション内の併置される仮想コンテンツは、異なる持続座標系を横断してさえ、相対的移動を共有し続けることができる。例えば、プリズム708は、MRシステム702および704のために、持続座標系710に関連して表示される一方、MRシステム705および706のために、持続座標系714に関連して表示されてもよい。プリズム708は、異なるMRシステムがプリズム708を異なる持続座標系にアンカし得る場合でも、併置セッション内の全てのMRシステム(例えば、MRシステム702、704、705、および706)のために移動しているように表示されてもよい。
いくつかの実施形態では、併置される仮想コンテンツは、併置される仮想コンテンツが、ローカルで移動される場合、遠隔ユーザのために移動しなくてもよい。例えば、MRシステム702および704は、相互にローカルであり得る(例えば、それらが、1つまたはそれを上回る持続座標系を共有するため)。いくつかの実施形態ではMRシステム705および/または706は、MRシステム702および/または704にとって遠隔にあると見なされ得る(例えば、MRシステム705および/または706は、MRシステム702および/または704と持続座標系を共有し得ないため)。いくつかの実施形態では、MRシステム705および/または706は、したがって、MRシステム702がプリズム708を移動させる場合、プリズム708が移動するように見えなくてもよい。
いくつかの実施形態では、既存の併置セッションに加わるMRシステムが、すでにセッション内に存在する別のMRシステムと併置し得る。例えば、MRシステム702、704、および705が、すでに併置セッション内に存在し得る。いくつかの実施形態では、MRシステム706は、併置セッションに加わり得る(例えば、MRシステム706がMRシステム705と同一部屋に進入するため)。いくつかの実施形態では、MRシステム706は、プリズム708をMRシステム705と同一場所に表示してもよい(例えば、MRシステム705によって使用される持続座標系714を使用して)。新しいメンバがセッションに加わるとき、既存のセッションメンバのために、位置持続性を維持することが望ましくあり得る(例えば、したがって、既存のセッションメンバは、仮想コンテンツを新しく加わったメンバに合致するように偏移させることによって、妨げられない)。
いくつかの実施形態では、仮想コンテンツは、第1のMRシステムに従って、仮想コンテンツを表示するように併置されてもよい。例えば、MRシステム702および704は、併置セッション内に存在し得ず、それぞれ、プリズム708を別個に表示し得る。いくつかの実施形態では、MRシステム702および704が、併置セッションを開始する場合、プリズム708は、MRシステム702がプリズムを表示している場所に表示されてもよい(例えば、MRシステム702が、MRシステム704の前に、プリズム708の表示を開始したため)。いくつかの実施形態では、仮想コンテンツは、併置セッションを開始した、MRシステムに従って、併置されてもよい。
いくつかの実施形態では、併置セッションを開始し、および/またはそれに参加する、MRシステムは、1つまたはそれを上回るインターネット接続を介して、相互に通信してもよい。例えば、併置セッションにおけるMRシステムは、遠隔サーバと通信してもよく、これは、併置セッション内の他のMRシステムへの接続をルーティングしてもよい。いくつかの実施形態では、MRシステムは、ピアツーピア接続を使用して、相互に通信してもよい。いくつかの実施形態では、MRシステムは、アドホックネットワークを使用して、相互に通信してもよい。例えば、併置セッション内のMRシステムは、直接、WiFi、Bluetooth(登録商標)、赤外線等を使用して、相互に通信してもよい。
図8は、いくつかの実施形態による、仮想オブジェクト併置のための例示的ネットワークアーキテクチャを図示する。MRシステム802は、アプリケーション804を起動および/またはホスティングしてもよい。いくつかの実施形態では、アプリケーション804は、併置ライブラリ806を含んでもよい。いくつかの実施形態では、併置ライブラリ806は、持続座標データ(例えば、特定の持続座標系に関する一意の識別子)を、遠隔サーバから、および/または併置セッション内のMRシステムから、受信するように構成されることができる。いくつかの実施形態では、併置ライブラリ806は、持続座標データ(例えば、ホストMRシステム802によって使用中の持続座標系)を併置セッション内の他のMRシステムにブロードキャストするように構成されることができる。いくつかの実施形態では、併置ライブラリ806は、併置セッション内の他のMRシステムから受信された持続座標データとホストMRシステムによって使用中の持続座標データを比較し、共通持続座標系が存在するかどうかを決定することができる。いくつかの実施形態では、併置ライブラリ806は、パス可能世界サービス818のクライアントであることができ、これは、遠隔サーバ内で起動してもよい。いくつかの実施形態では、パス可能世界サービス818は、規準持続座標系を記憶し、および/または観察される持続座標系を受信し、観察と対応する規準持続座標系を統合してもよい。いくつかの実施形態では、併置ライブラリ806は、ホストMRシステム802によって使用中の規準持続座標系をパス可能世界サービス818から受信してもよい。いくつかの実施形態では、パス可能世界サービス818は、ホストMRシステム上のバックグラウンドサービスとして、ローカルで起動することができる。
併置ライブラリ806は、プロセスを実行するように構成されることができ、これは、ランタイム環境内で起動してもよい。いくつかの実施形態では、併置ライブラリ806は、親プロセスのサブプロセスを実行するように構成されることができる。いくつかの実施形態では、併置ライブラリ806は、親プロセスのスレッドを実行するように構成されることができる。いくつかの実施形態では、併置ライブラリ806は、サービスを動作させるように構成されることができる(例えば、バックグラウンドオペレーティングシステムサービスとして)。いくつかの実施形態では、併置ライブラリ806によって実行される、プロセス、サブプロセス、スレッド、および/またはサービスは、ホストシステムのオペレーティングシステムが起動中である間、持続的に起動するように構成されることができる(例えば、バックグラウンドで)。いくつかの実施形態では、併置ライブラリ806によって実行されるサービスは、親バックグラウンドサービスのインスタンス化であることができ、これは、1つまたはそれを上回るバックグラウンドプロセスおよび/またはサブプロセスに対するホストプロセスとしての役割を果たし得る。いくつかの実施形態では、併置ライブラリ806は、複数のシステム間に分散され、および/またはその上で実行されてもよい。いくつかの実施形態では、併置ライブラリ806の各コンポーネントは、並列に、順次、または複数のシステムの2つまたはそれを上回るシステムの任意の組み合わせにおいて、実行してもよい。
いくつかの実施形態では、併置ライブラリ806は、アプリケーションコネクティビティプラットフォーム808を介して、持続座標データを他のMRシステムから受信することができる(例えば、併置ライブラリ806は、アプリケーションコネクティビティプラットフォーム808のクライアントであることができる)。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム808は、併置セッション内のMRシステム間の短待ち時間通信経路を提供し、リアルタイム仮想オブジェクト併置を有効にすることができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム808は、ウェブリアルタイム通信(「WebRTC」)の1つまたはそれを上回る実装を含むことができる。例えば、データは、短待ち時間通信のために、1つまたはそれを上回るTwilioトラックを介して伝送されてもよい。
アプリケーションコネクティビティプラットフォーム808は、プロセスを実行するように構成されることができ、これは、ランタイム環境内で起動してもよい。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム808は、親プロセスのサブプロセスを実行するように構成されることができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム808は、親プロセスのスレッドを実行するように構成されることができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム808は、サービスを動作させるように構成されることができる(例えば、バックグラウンドオペレーティングシステムサービスとして)。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム808によって実行される、プロセス、サブプロセス、スレッド、および/またはサービスは、ホストシステムのオペレーティングシステムが起動中の間、持続的に起動(例えば、バックグラウンドで)するように構成されることができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム808によって実行されるサービスは、親バックグラウンドサービスのインスタンス化であることができ、これは、1つまたはそれを上回るバックグラウンドプロセスおよび/またはサブプロセスに対するホストプロセスとしての役割を果たし得る。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム808は、複数のシステム間に分散され、および/またはその上で実行されてもよい。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム808の各コンポーネントは、並列に、順次、または複数のシステムの2つまたはそれを上回るシステムの任意の組み合わせにおいて、実行してもよい。
いくつかの実施形態では、ホストMRシステム810は、ホストMRシステム802と併置セッション内に存在し得る。いくつかの実施形態では、ホストMRシステム802は、アプリケーション812を起動してもよく、これは、アプリケーション804の別個であるが、同じインスタンス化であり得る。いくつかの実施形態では、アプリケーション812は、併置ライブラリ814を含んでもよく、これは、持続座標データを、遠隔サーバから、および/または併置セッション内の他のMRシステムから受信するように構成されてもよい。いくつかの実施形態では、併置ライブラリ814は、持続座標データ(例えば、ホストMRシステム810によって使用中の持続座標系)を併置セッション内の他のMRシステムにブロードキャストするように構成されることができる。いくつかの実施形態では、併置ライブラリ814は、アプリケーションコネクティビティプラットフォーム816を利用して、短待ち時間併置データ(例えば、併置される仮想オブジェクトが移動するにつれて、関係変換データ)を併置セッション内のMRシステムに送信および/またはそこから受信してもよい。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム816は、他のMRシステム(例えば、アプリケーションコネクティビティプラットフォーム808)上で起動する、他のアプリケーションコネクティビティプラットフォームと通信するように構成されることができる。
図9は、仮想コンテンツを併置するための例示的プロセスを図示する。ステップ902では、MRシステムが、併置セッションに加わってもよい。いくつかの実施形態では、MRシステムは、既存の併置セッションに加わるように招待されてもよい。いくつかの実施形態では、MRシステムは、併置セッションを開始してもよい。
ステップ904では、MRシステムは、持続座標データを伝送し、持続座標データを受信してもよい。いくつかの実施形態では、MRシステムは、持続座標データ(および/または関係データ)を併置セッション内の他のMRシステムに伝送してもよい。いくつかの実施形態では、MRシステムは、持続座標データ(および/または関係データ)を1つまたはそれを上回る遠隔サーバに伝送してもよく、これは、データを併置セッション内の他のMRシステムに伝送してもよい。いくつかの実施形態では、MRシステムは、持続座標データ(および/または関係データ)を併置セッション内の1つまたはそれを上回るMRシステムから受信してもよい。いくつかの実施形態では、MRシステムは、1つまたはそれを上回るMRシステムに対応する持続座標データ(および/または関係データ)を1つまたはそれを上回る遠隔サーバから受信してもよい。
ステップ906では、MRシステムは、持続座標データの少なくとも1つの共有インスタンスが存在するかどうかを決定してもよい。例えば、第1のMRシステムは、他のMRシステムから受信された持続座標データを第1のMRシステムに対応する持続座標データ(ステップ904において伝送されているとされる)に対して比較してもよい。いくつかの実施形態では、持続座標データの各インスタンスは、一意の識別子を含んでもよく、一意の識別子は、比較されてもよい。いくつかの実施形態では、その場所を以前にマッピングされた部屋として認識する、任意のMRシステムは、その部屋に対応する、持続座標データを受信してもよい。いくつかの実施形態では、同一部屋内の任意のMRシステムは、持続座標データの少なくとも1つのインスタンスを共有してもよい。
持続座標データの共有インスタンスが、受信された持続座標データと伝送される持続座標データとの間に存在しない場合(例えば、MRシステムが他のMRシステムと同一部屋内に存在しないため)、ステップ907では、非併置仮想オブジェクトが、表示されてもよい。いくつかの実施形態では、非併置仮想オブジェクトは、その移動が併置セッション内の他のMRシステムのために反映され得ない、オブジェクトであってもよい。
持続座標データの少なくとも1つの共有インスタンスが、識別される場合、ステップ908では、持続座標データの1つを上回る共有インスタンスが識別され得るかどうかが決定されることができる。例えば、第1のMRシステムは、第2のMRシステムと同一部屋内に位置してもよく、部屋は、持続座標データの2つまたはそれを上回るインスタンスを含んでもよい。いくつかの実施形態では、第1および第2のMRシステムは、したがって、共有持続座標データの2つまたはそれを上回るインスタンスを有してもよい。
持続座標データの1つのみの共有インスタンスが、存在することが決定される場合、ステップ909では、併置される仮想オブジェクトが、持続座標データの共有インスタンスを使用して、表示されてもよい。例えば、第1および第2の併置されるMRシステムは両方とも、併置される仮想オブジェクトを持続座標データの共有インスタンスに対して表示してもよい。いくつかの実施形態では、第1および第2の併置されるMRシステムは、同一関係データ(例えば、変換行列)を使用して、仮想オブジェクトの位置(例えば、場所および/または配向)を持続座標データの共有インスタンスに関連させてもよい。
1つを上回る持続座標データの共有インスタンスが存在することが決定される場合、ステップ910では、持続座標データの好ましい共有インスタンスが、識別されることができる。いくつかの実施形態では、MRシステムに最も近い持続座標データのインスタンスが、共有持続座標データの好ましいインスタンスと見なされ得る。例えば、第1および第2の併置されるMRシステムは、同一部屋内に位置し得る。いくつかの実施形態では、部屋は、持続座標データの第1および第2のインスタンスを含んでもよく、両インスタンスは、第1および第2のMRシステムを横断して共有されてもよい(例えば、それらが同一部屋内に存在するため)。いくつかの実施形態では、第1のMRシステムは、持続座標データの第1のインスタンスにより近くあり得、第2のMRシステムは、持続座標データの第2のインスタンスにより近くあり得る。いくつかの実施形態では、持続座標データのより近いインスタンスは、持続座標データのより遠いインスタンスより正確に仮想コンテンツを表示し得る。
ステップ912では、併置される仮想コンテンツは、共有持続座標データの好ましいインスタンスを使用して、表示されてもよい。いくつかの実施形態では、各MRシステムは、併置される仮想コンテンツを共有持続座標データのその好ましい(例えば、最近)インスタンスに対して表示してもよい。いくつかの実施形態では、共有持続座標データの異なるインスタンスが、使用され得るが、併置される仮想コンテンツは、同一スポットにおいて、第1および第2のMRシステムのユーザに現れ得る(例えば、異なる関係データが、オブジェクトを同一場所に提示するために使用され得るため)。
ステップ907、909、および/または912後、MRシステムは、ステップ904に戻り得る、これは、動的併置を有効にし得る。例えば、MRシステムは、持続座標データを併置セッション内の他のMRシステムと共有するかどうかを持続的に監視してもよい。いくつかの実施形態では、MRシステムは、MRシステムがその現在の場所を認識しない場合、10秒毎に1回、持続座標データをポーリングしてもよい。いくつかの実施形態では、MRシステムは、MRシステムがその現在の場所を認識する場合、30秒毎に1回、持続座標データをポーリングしてもよい。いくつかの実施形態では、トリガ(例えば、ジオフェンシングトリガ)が、MRシステムに持続座標データをポーリングさせてもよい。
図10は、いくつかの実施形態による、1つまたはそれを上回るMRシステムと接続し、併置セッションを開始するための例示的プロセスを図示する。いくつかの実施形態では、1つまたはそれを上回るMRシステムと接続するためのプロセスは、アプリケーションコネクティビティプラットフォーム(例えば、アプリケーションコネクティビティプラットフォーム808)を利用してもよい。ステップ1002では、1つまたはそれを上回る併置セッション参加者が、選択されてもよい。いくつかの実施形態では、1人またはそれを上回る参加者は、アプリケーション(例えば、アプリケーション804)のユーザインターフェースを使用して、選択されてもよい。
ステップ1004では、参加者情報が、遠隔サーバに伝送されてもよい。いくつかの実施形態では、アプリケーション(例えば、アプリケーション804)は、参加者情報をアプリケーションコネクティビティプラットフォーム(例えば、アプリケーションコネクティビティプラットフォーム808)に伝送してもよい。いくつかの実施形態では、アプリケーションコネクティビティプラットフォームは、参加者情報を遠隔サーバに伝送してもよい。いくつかの実施形態では、遠隔サーバは、セッションを開始してもよい。
ステップ1006では、遠隔サーバは、参加者情報に基づいて、招待および/またはトークン(例えば、認証トークン)を1人またはそれを上回る参加者に伝送してもよい。いくつかの実施形態では、遠隔サーバは、招待および/またはトークンを招待されるMRシステム上で起動するアプリケーションコネクティビティプラットフォーム(例えば、アプリケーションコネクティビティプラットフォーム816)に伝送してもよい。いくつかの実施形態では、アプリケーションコネクティビティプラットフォームは、アプリケーション(例えば、アプリケーション812)と通信してもよい。いくつかの実施形態では、招待されるMRシステム上で起動するアプリケーションは、ユーザに、ユーザが併置セッションに招待されていることを示し得る。
ステップ1006では、併置セッションに加わるための招待が、承認されてもよく、ユーザおよび/またはMRシステムは、併置セッションに加わってもよい。いくつかの実施形態では、ユーザは、(例えば、アプリケーション812の)ユーザインターフェースを使用して、招待を承認してもよい。いくつかの実施形態では、アプリケーションは、アプリケーションコネクティビティプラットフォーム(例えば、アプリケーションコネクティビティプラットフォーム816)に、招待が承認されていることを示し得る。いくつかの実施形態では、アプリケーションコネクティビティプラットフォームは、併置セッションに加わってもよい(例えば、提供される認証トークンを使用することによって)。いくつかの実施形態では、いったん1人またはそれを上回る参加者が、セッションに加わると、1つまたはそれを上回るパイプ(例えば、Twilioトラック)が、作成されてもよい。いくつかの実施形態では、パイプは、許可されてもよい。例えば、指定されるユーザのみが、許可されたパイプを使用して、データを伝送してもよい。いくつかの実施形態では、任意のユーザが、パイプに沿って、データを伝送および/または受信してもよい。いくつかの実施形態では、1つまたはそれを上回るパイプが、具体的タイプのデータのために留保されることができる(例えば、オーディオ、ビデオ、および/または汎用データのためのパイプ)。
本明細書に説明される仮想コンテンツを併置するためのシステムおよび方法は、いくつかの利点を提供することができる。例えば、アプリケーションの別個のインスタンスの起動および/または併置される仮想オブジェクトの位置付けは、非一元型アーキテクチャを提供することができる。非一元型アーキテクチャを用いることで、併置セッションは、一元型アーキテクチャ内のマスタがセッションから退出する場合の途絶を回避し得る。いくつかの実施形態では、一元型アーキテクチャ(例えば、マスタMRシステムが、スレーブMRシステムに、具体的座標系および/または変換を利用するように命令する)は、マスタがセッションから退出する場合、併置セッションを平滑に継続し得ない。再計算が、新しいマスタが一元型アーキテクチャ内でセッションを引き継ぐにつれて、実施され得る。いくつかの実施形態では、非一元型アーキテクチャは、1つまたはそれを上回るMRシステムが同一環境内に位置しない(したがって、共通持続座標系を共有し得ない)、併置セッションを有効にし得る。いくつかの実施形態では、非一元型アーキテクチャは、マスタシステムを2つの異なる持続座標系内の併置される仮想オブジェクトに関する位置を計算する負担から解放し得る。
例示的システム、方法、および非一過性コンピュータ可読媒体が、開示される。いくつかの実施例によると、システムは、ディスプレイおよび1つまたはそれを上回るセンサを有する、頭部装着型デバイスと、第1の持続座標データ、第2の持続座標データ、および関係データを受信するステップと、1つまたはそれを上回るセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定するステップと、第1の持続座標データが第3の持続座標データに対応するかどうかを決定するステップと、第1の持続座標データが第3の持続座標データに対応することの決定に従って、第2の持続座標データが第4の持続座標データに対応するかどうかを決定するステップと、第2の持続座標データが第4の持続座標データに対応することの決定に従って、頭部装着型デバイスのディスプレイを介して、関係データおよび第2の持続座標データを使用して、仮想オブジェクトを表示するステップと、第2の持続座標データが第4の持続座標データに対応しないことの決定に従って、頭部装着型デバイスのディスプレイを介して、関係データおよび第1の持続座標データを使用して、仮想オブジェクトを表示するステップと、第1の持続座標データが第3の持続座標データに対応しないことの決定に従って、頭部装着型デバイスのディスプレイを介して、仮想オブジェクトを表示しないようにするステップとを含む、方法を実行するように構成される、1つまたはそれを上回るプロセッサとを備える。いくつかの実施例では、第1の持続座標データは、第1の場所に対応し、第2の持続座標データは、第2の場所に対応し、第2の場所は、第1の場所より頭部装着型デバイスの場所に近い。いくつかの実施例では、頭部装着型デバイスは、第1の頭部装着型デバイスであって、第1の持続座標データは、第2の頭部装着型デバイスから受信される。いくつかの実施例では、頭部装着型デバイスは、第1の頭部装着型デバイスであって、関係データは、第2の頭部装着型デバイスから受信される。いくつかの実施例では、本方法はさらに、仮想オブジェクトに対応するデータを受信するステップを含む。いくつかの実施例では、第3の持続座標データは、頭部装着型デバイスの現在の場所に対応する。いくつかの実施例では、関係データは、変換行列を備える。
いくつかの実施例によると、方法は、第1の持続座標データ、第2の持続座標データ、および関係データを受信するステップと、頭部装着型デバイスの1つまたはそれを上回るセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定するステップと、第1の持続座標データが第3の持続座標データに対応するかどうかを決定するステップと、第1の持続座標データが第3の持続座標データに対応することの決定に従って、第2の持続座標データが第4の持続座標データに対応するかどうかを決定するステップと、第2の持続座標データが第4の持続座標データに対応することの決定に従って、頭部装着型デバイスのディスプレイを介して、関係データおよび第2の持続座標データを使用して、仮想オブジェクトを表示するステップと、第2の持続座標データが第4の持続座標データに対応しないことの決定に従って、頭部装着型デバイスのディスプレイを介して、関係データおよび第1の持続座標データを使用して、仮想オブジェクトを表示するステップと、第1の持続座標データが第3の持続座標データに対応しないことの決定に従って、頭部装着型デバイスのディスプレイを介して、仮想オブジェクトを表示しないようにするステップとを含む。いくつかの実施例では、第1の持続座標データは、第1の場所に対応し、第2の持続座標データは、第2の場所に対応し、第2の場所は、第1の場所より頭部装着型デバイスの場所に近い。いくつかの実施例では、頭部装着型デバイスは、第1の頭部装着型デバイスであって、第1の持続座標データは、第2の頭部装着型デバイスから受信される。いくつかの実施例では、頭部装着型デバイスは、第1の頭部装着型デバイスであって、関係データは、第2の頭部装着型デバイスから受信される。いくつかの実施例では、本方法はさらに、仮想オブジェクトに対応するデータを受信するステップを含む。いくつかの実施例では、第3の持続座標データは、頭部装着型デバイスの現在の場所に対応する。いくつかの実施例では、関係データは、変換行列を備える。
いくつかの実施例によると、非一過性コンピュータ可読媒体は、1つまたはそれを上回るプロセッサによって実行されると、1つまたはそれを上回るプロセッサに、第1の持続座標データ、第2の持続座標データ、および関係データを受信するステップと、頭部装着型デバイスの1つまたはそれを上回るセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定するステップと、第1の持続座標データが第3の持続座標データに対応するかどうかを決定するステップと、第1の持続座標データが第3の持続座標データに対応することの決定に従って、第2の持続座標データが第4の持続座標データに対応するかどうかを決定するステップと、第2の持続座標データが第4の持続座標データに対応することの決定に従って、頭部装着型デバイスのディスプレイを介して、関係データおよび第2の持続座標データを使用して、仮想オブジェクトを表示するステップと、第2の持続座標データが第4の持続座標データに対応しないことの決定に従って、頭部装着型デバイスのディスプレイを介して、関係データおよび第1の持続座標データを使用して、仮想オブジェクトを表示するステップと、第1の持続座標データが第3の持続座標データに対応しないことの決定に従って、頭部装着型デバイスのディスプレイを介して、仮想オブジェクトを表示しないようにするステップとを含む、方法を実行させる、命令を記憶する。いくつかの実施例では、第1の持続座標データは、第1の場所に対応し、第2の持続座標データは、第2の場所に対応し、第2の場所は、第1の場所より頭部装着型デバイスの場所に近い。いくつかの実施例では、頭部装着型デバイスは、第1の頭部装着型デバイスであって、第1の持続座標データは、第2の頭部装着型デバイスから受信される。いくつかの実施例では、頭部装着型デバイスは、第1の頭部装着型デバイスであって、関係データは、第2の頭部装着型デバイスから受信される。いくつかの実施例では、本方法はさらに、仮想オブジェクトに対応するデータを受信するステップを含む。いくつかの実施例では、第3の持続座標データは、頭部装着型デバイスの現在の場所に対応する。いくつかの実施例では、関係データは、変換行列を備える。
いくつかの実施例によると、システムは、ディスプレイおよび1つまたはそれを上回るセンサを有する、頭部装着型デバイスと、第1の持続座標データを受信するステップと、関係データを受信するステップであって、関係データは、位置を第1の持続座標データに関連させる、ステップと、1つまたはそれを上回るセンサを介して受信された入力に基づいて、第2の持続座標データを決定するステップと、第1の持続座標データが第2の持続座標データに対応するかどうかを決定するステップと、第1の持続座標データが第2の持続座標データに対応することの決定に従って、頭部装着型デバイスのディスプレイを介して、第1の持続座標データに基づいて、および関係データに基づいて、仮想オブジェクトを表示するステップと、第1の持続座標データが第2の持続座標データに対応しないことの決定に従って、頭部装着型デバイスのディスプレイを介して、仮想オブジェクトを表示しないようにするステップとを含む、方法を実行するように構成される、1つまたはそれを上回るプロセッサとを備える。いくつかの実施例では、頭部装着型デバイスは、第1の頭部装着型デバイスであって、本方法はさらに、第2の持続座標データを第2の頭部装着型デバイスに伝送するステップを含む。いくつかの実施例では、頭部装着型デバイスは、第1の頭部装着型デバイスであって、第1の持続座標データは、第2の頭部装着型デバイスから受信される。いくつかの実施例では、頭部装着型デバイスは、第1の頭部装着型デバイスであって、関係データは、第2の頭部装着型デバイスから受信される。いくつかの実施例では、本方法はさらに、仮想オブジェクトに対応するデータを受信するステップを含む。いくつかの実施例では、第2の持続座標データは、頭部装着型デバイスの現在の場所に対応する。いくつかの実施例では、関係データは、変換行列を備える。
開示される実施例は、付随の図面を参照して完全に説明されたが、種々の変更および修正が、当業者に明白となるであろうことに留意されたい。例えば、1つまたはそれを上回る実装の要素は、組み合わせられ、削除され、修正され、または補完され、さらなる実装を形成してもよい。そのような変更および修正は、添付の請求項によって定義されるような開示される実施例の範囲内に含まれるものとして理解されるべきである。
Claims (28)
- システムであって、
ディスプレイおよび1つまたはそれを上回るセンサを有する頭部装着型デバイスと、
1つまたはそれを上回るプロセッサであって、
第1の持続座標データ、第2の持続座標データ、および関係データを受信することと、
前記1つまたはそれを上回るセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応することの決定に従って、
前記第2の持続座標データが前記第4の持続座標データに対応するかどうかを決定することと、
前記第2の持続座標データが前記第4の持続座標データに対応することの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第2の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第2の持続座標データが前記第4の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第1の持続座標データを使用して、前記仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第3の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。 - 前記第1の持続座標データは、第1の場所に対応し、前記第2の持続座標データは、第2の場所に対応し、前記第2の場所は、前記第1の場所より前記頭部装着型デバイスの場所に近い、請求項1に記載のシステム。
- 前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記第1の持続座標データは、第2の頭部装着型デバイスから受信される、請求項1に記載のシステム。
- 前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記関係データは、第2の頭部装着型デバイスから受信される、請求項1に記載のシステム。
- 前記方法はさらに、前記仮想オブジェクトに対応するデータを受信することを含む、請求項1に記載のシステム。
- 前記第3の持続座標データは、前記頭部装着型デバイスの現在の場所に対応する、請求項1に記載のシステム。
- 前記関係データは、変換行列を備える、請求項1に記載のシステム。
- 方法であって、
第1の持続座標データ、第2の持続座標データ、および関係データを受信することと、
頭部装着型デバイスの1つまたはそれを上回るセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応することの決定に従って、
前記第2の持続座標データが前記第4の持続座標データに対応するかどうかを決定することと、
前記第2の持続座標データが前記第4の持続座標データに対応することの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第2の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第2の持続座標データが前記第4の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第1の持続座標データを使用して、前記仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第3の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む、方法。 - 前記第1の持続座標データは、第1の場所に対応し、前記第2の持続座標データは、第2の場所に対応し、前記第2の場所は、前記第1の場所より前記頭部装着型デバイスの場所に近い、請求項8に記載の方法。
- 前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記第1の持続座標データは、第2の頭部装着型デバイスから受信される、請求項8に記載の方法。
- 前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記関係データは、第2の頭部装着型デバイスから受信される、請求項8に記載の方法。
- 前記仮想オブジェクトに対応するデータを受信することをさらに含む、請求項8に記載の方法。
- 前記第3の持続座標データは、前記頭部装着型デバイスの現在の場所に対応する、請求項8に記載の方法。
- 前記関係データは、変換行列を備える、請求項8に記載の方法。
- 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
第1の持続座標データ、第2の持続座標データ、および関係データを受信することと、
頭部装着型デバイスの1つまたはそれを上回るセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定することと、
前記第1の持続座標データが第3の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応することの決定に従って、
前記第2の持続座標データが前記第4の持続座標データに対応するかどうかを決定することと、
前記第2の持続座標データが前記第4の持続座標データに対応することの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第2の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第2の持続座標データが前記第4の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第1の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第3の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む方法を実行させる、非一過性コンピュータ可読媒体。 - 前記第1の持続座標データは、第1の場所に対応し、前記第2の持続座標データは、第2の場所に対応し、前記第2の場所は、前記第1の場所より前記頭部装着型デバイスの場所に近い、請求項15に記載の非一過性コンピュータ可読媒体。
- 前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記第1の持続座標データは、第2の頭部装着型デバイスから受信される、請求項15に記載の非一過性コンピュータ可読媒体。
- 前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記関係データは、第2の頭部装着型デバイスから受信される、請求項15に記載の非一過性コンピュータ可読媒体。
- 前記方法はさらに、前記仮想オブジェクトに対応するデータを受信することを含む、請求項15に記載の非一過性コンピュータ可読媒体。
- 前記第3の持続座標データは、前記頭部装着型デバイスの現在の場所に対応する、請求項15に記載の非一過性コンピュータ可読媒体。
- 前記関係データは、変換行列を備える、請求項15に記載の非一過性コンピュータ可読媒体。
- システムであって、
ディスプレイおよび1つまたはそれを上回るセンサを有する頭部装着型デバイスと、
1つまたはそれを上回るプロセッサであって、
第1の持続座標データを受信することと、
関係データを受信することであって、前記関係データは、位置を前記第1の持続座標データに関連させる、ことと、
前記1つまたはそれを上回るセンサを介して受信された入力に基づいて、第2の持続座標データを決定することと、
前記第1の持続座標データが前記第2の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第2の持続座標データに対応することの決定に従って、前記頭部装着型デバイスのディスプレイを介して、前記第1の持続座標データに基づいて、および前記関係データに基づいて、仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第2の持続座標データに対応しないことの決定に従って、前記頭部装着型デバイスのディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。 - 前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記方法はさらに、前記第2の持続座標データを第2の頭部装着型デバイスに伝送することを含む、請求項22に記載のシステム。
- 前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記第1の持続座標データは、第2の頭部装着型デバイスから受信される、請求項22に記載のシステム。
- 前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記関係データは、第2の頭部装着型デバイスから受信される、請求項22に記載のシステム。
- 前記方法はさらに、前記仮想オブジェクトに対応するデータを受信することを含む、請求項22に記載のシステム。
- 前記第2の持続座標データは、前記頭部装着型デバイスの現在の場所に対応する、請求項22に記載のシステム。
- 前記関係データは、変換行列を備える、請求項22に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062972541P | 2020-02-10 | 2020-02-10 | |
US62/972,541 | 2020-02-10 | ||
PCT/US2021/017508 WO2021163224A1 (en) | 2020-02-10 | 2021-02-10 | Dynamic colocation of virtual content |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023513250A true JP2023513250A (ja) | 2023-03-30 |
Family
ID=77176861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022548434A Pending JP2023513250A (ja) | 2020-02-10 | 2021-02-10 | 仮想コンテンツの動的併置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11335070B2 (ja) |
EP (1) | EP4104165A4 (ja) |
JP (1) | JP2023513250A (ja) |
CN (1) | CN115699157A (ja) |
WO (1) | WO2021163224A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7499749B2 (ja) | 2018-07-24 | 2024-06-14 | マジック リープ, インコーポレイテッド | アプリケーション共有 |
US11335070B2 (en) | 2020-02-10 | 2022-05-17 | Magic Leap, Inc. | Dynamic colocation of virtual content |
CN118276683A (zh) | 2020-02-14 | 2024-07-02 | 奇跃公司 | 工具桥 |
JP7539478B2 (ja) | 2020-02-14 | 2024-08-23 | マジック リープ, インコーポレイテッド | セッションマネージャ |
EP4104002A4 (en) | 2020-02-14 | 2023-08-09 | Magic Leap, Inc. | 3D OBJECT ANNOTATION |
US11360733B2 (en) * | 2020-09-10 | 2022-06-14 | Snap Inc. | Colocated shared augmented reality without shared backend |
US11587255B1 (en) | 2020-09-25 | 2023-02-21 | Snap Inc. | Collaborative augmented reality eyewear with ego motion alignment |
US11568616B1 (en) * | 2021-11-29 | 2023-01-31 | Varjo Technologies Oy | Display apparatuses and methods for facilitating location-based virtual content |
US20230326145A1 (en) * | 2022-04-08 | 2023-10-12 | Robert Plotkin | Manifesting a virtual object in a virtual environment |
Family Cites Families (110)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6130670A (en) | 1997-02-20 | 2000-10-10 | Netscape Communications Corporation | Method and apparatus for providing simple generalized conservative visibility |
US6456285B2 (en) | 1998-05-06 | 2002-09-24 | Microsoft Corporation | Occlusion culling for complex transparent scenes in computer generated graphics |
US6771264B1 (en) | 1998-08-20 | 2004-08-03 | Apple Computer, Inc. | Method and apparatus for performing tangent space lighting and bump mapping in a deferred shading graphics processor |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US9811237B2 (en) | 1999-04-06 | 2017-11-07 | Iii Holdings 2, Llc | Visual navigation of virtual environments through logical processes |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
US7050955B1 (en) | 1999-10-01 | 2006-05-23 | Immersion Corporation | System, method and data structure for simulated interaction with graphical objects |
WO2002054351A2 (en) | 2000-12-06 | 2002-07-11 | Sun Microsystems, Inc. | Using ancillary geometry for visibility determination |
CA2348135A1 (en) * | 2001-05-17 | 2002-11-17 | Cedara Software Corp. | 3-d navigation for x-ray imaging system |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (de) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Kopfmontiertes optisches Durchsichtssystem |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
US7064766B2 (en) | 2001-10-18 | 2006-06-20 | Microsoft Corporation | Intelligent caching data structure for immediate mode graphics |
US7443401B2 (en) | 2001-10-18 | 2008-10-28 | Microsoft Corporation | Multiple-level graphics processing with animation interval generation |
AU2003239385A1 (en) | 2002-05-10 | 2003-11-11 | Richard R. Reisman | Method and apparatus for browsing using multiple coordinated device |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
JP2004199496A (ja) * | 2002-12-19 | 2004-07-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7088374B2 (en) | 2003-03-27 | 2006-08-08 | Microsoft Corporation | System and method for managing visual structure, timing, and animation in a graphics processing system |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
US8434027B2 (en) | 2003-12-15 | 2013-04-30 | Quantum Matrix Holdings, Llc | System and method for multi-dimensional organization, management, and manipulation of remote data |
US7290216B1 (en) | 2004-01-22 | 2007-10-30 | Sun Microsystems, Inc. | Method and apparatus for implementing a scene-graph-aware user interface manager |
US7800614B2 (en) | 2004-02-17 | 2010-09-21 | Oracle America, Inc. | Efficient communication in a client-server scene graph system |
CN102068237A (zh) | 2004-04-01 | 2011-05-25 | 威廉·C·托奇 | 监控眼睛运动的系统及方法、控制计算装置的系统及方法 |
US7450130B2 (en) | 2005-09-14 | 2008-11-11 | Microsoft Corporation | Adaptive scheduling to maintain smooth frame rate |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US8275031B2 (en) | 2005-12-15 | 2012-09-25 | Broadcom Corporation | System and method for analyzing multiple display data rates in a video system |
US8244051B2 (en) | 2006-03-15 | 2012-08-14 | Microsoft Corporation | Efficient encoding of alternative graphic sets |
US7911950B2 (en) | 2006-07-03 | 2011-03-22 | Cisco Technology, Inc. | Adapter and method to support long distances on existing fiber |
US20080122838A1 (en) | 2006-09-27 | 2008-05-29 | Russell Dean Hoover | Methods and Systems for Referencing a Primitive Located in a Spatial Index and in a Scene Index |
US20090278852A1 (en) | 2008-05-09 | 2009-11-12 | Production Resource Group L.L.C | Control of 3D objects in a light displaying device |
US8368705B2 (en) | 2008-07-16 | 2013-02-05 | Google Inc. | Web-based graphics rendering system |
US8253730B1 (en) | 2008-08-29 | 2012-08-28 | Adobe Systems Incorporated | System and method for construction of data structures for ray tracing using bounding hierarchies |
US20110234587A1 (en) | 2008-09-24 | 2011-09-29 | The Bakery | Method and system for rendering or interactive lighting of a complex three dimensional scene |
US8441496B1 (en) | 2008-09-30 | 2013-05-14 | Adobe Systems Incorporated | Method and system for modifying and rendering scenes via display lists |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
EP2584026B1 (en) | 2010-06-15 | 2017-07-05 | Adeka Corporation | Lubricant composition for internal combustion engines |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US8860760B2 (en) | 2010-09-25 | 2014-10-14 | Teledyne Scientific & Imaging, Llc | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
KR101591579B1 (ko) | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
FR2974474B1 (fr) | 2011-04-19 | 2017-11-17 | Prologue | Procedes et appareils de production et de traitement de representations de scenes multimedias |
US20130127849A1 (en) | 2011-05-26 | 2013-05-23 | Sebastian Marketsmueller | Common Rendering Framework and Common Event Model for Video, 2D, and 3D Content |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
WO2013039748A2 (en) | 2011-09-16 | 2013-03-21 | Social Communications Company | Capabilities based management of virtual areas |
US20130077147A1 (en) | 2011-09-22 | 2013-03-28 | Los Alamos National Security, Llc | Method for producing a partially coherent beam with fast pattern update rates |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US20150199788A1 (en) | 2012-04-12 | 2015-07-16 | Google Inc. | Accelerating graphical rendering through legacy graphics compilation |
US9122321B2 (en) | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
US9873045B2 (en) | 2012-05-25 | 2018-01-23 | Electronic Arts, Inc. | Systems and methods for a unified game experience |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US9069554B2 (en) | 2012-09-24 | 2015-06-30 | Qualcomm Innovation Center, Inc. | Systems and methods to coordinate resource usage in tightly sandboxed environments |
CN103023872B (zh) | 2012-11-16 | 2016-01-06 | 杭州顺网科技股份有限公司 | 一种云游戏服务平台 |
CN104903818B (zh) | 2012-12-06 | 2018-12-14 | 谷歌有限责任公司 | 眼睛跟踪佩戴式设备和使用方法 |
EP2951811A4 (en) | 2013-01-03 | 2016-08-17 | Meta Co | DIGITAL EYES FOR EXTRAMISSIVE SPATIAL IMAGING, PROCESSES AND SYSTEMS FOR VIRTUAL OR ENLARGED VISIBILITY, MANIPULATION, PRODUCTION OR INTERACTION WITH OBJECTS, MATERIALS, OR OTHER UNITS |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
US20140267234A1 (en) * | 2013-03-15 | 2014-09-18 | Anselm Hook | Generation and Sharing Coordinate System Between Users on Mobile |
US9230294B2 (en) | 2013-03-15 | 2016-01-05 | Dreamworks Animation Llc | Preserving and reusing intermediate data |
EP3995952A1 (en) | 2013-04-19 | 2022-05-11 | Huawei Technologies Co., Ltd. | Method for displaying a 3d scene graph on a screen |
US9940897B2 (en) * | 2013-05-24 | 2018-04-10 | Awe Company Limited | Systems and methods for a shared mixed reality experience |
US9799127B2 (en) | 2014-03-03 | 2017-10-24 | Deep Node, Inc. | Displaying a live stream of events using a dynamically-constructed three-dimensional data tree |
US11570114B2 (en) | 2014-03-04 | 2023-01-31 | Mobophiles, Inc. | System and method of adaptive rate control and traffic management |
US10572215B1 (en) | 2014-03-31 | 2020-02-25 | Amazon Technologies, Inc. | Extendable architecture for augmented reality system |
US9519481B2 (en) | 2014-06-27 | 2016-12-13 | International Business Machines Corporation | Branch synthetic generation across multiple microarchitecture generations |
EP3183653A4 (en) | 2014-08-20 | 2018-07-04 | Landmark Graphics Corporation | Optimizing computer hardware resource utilization when processing variable precision data |
EP3186784B1 (en) | 2014-08-26 | 2021-10-27 | Honeywell International Inc. | Annotating three-dimensional displays |
KR102244619B1 (ko) | 2014-09-30 | 2021-04-26 | 삼성전자 주식회사 | 가속 구조를 생성 및 탐색하는 방법 |
US10062354B2 (en) | 2014-10-10 | 2018-08-28 | DimensionalMechanics, Inc. | System and methods for creating virtual environments |
US10810797B2 (en) | 2015-05-22 | 2020-10-20 | Otoy, Inc | Augmenting AR/VR displays with image projections |
EP3104271A1 (en) | 2015-06-08 | 2016-12-14 | Hans-Henry Sandbaek | Running remote java applications through a local, plugin-free web browser |
US10665020B2 (en) | 2016-02-15 | 2020-05-26 | Meta View, Inc. | Apparatuses, methods and systems for tethering 3-D virtual elements to digital content |
WO2017214559A1 (en) | 2016-06-10 | 2017-12-14 | Dirtt Environmental Solutions, Inc. | Mixed-reality architectural design environment |
WO2017214576A1 (en) * | 2016-06-10 | 2017-12-14 | Dirtt Environmental Solutions, Inc. | Mixed-reality and cad architectural design environment |
US10417803B2 (en) | 2016-06-17 | 2019-09-17 | The Boeing Company | Multiple-pass rendering of a digital three-dimensional model of a structure |
US20180114368A1 (en) | 2016-10-25 | 2018-04-26 | Adobe Systems Incorporated | Three-dimensional model manipulation and rendering |
US10937391B2 (en) | 2016-12-05 | 2021-03-02 | Case Western Reserve University | Systems, methods, and media for displaying interactive augmented reality presentations |
US10147243B2 (en) | 2016-12-05 | 2018-12-04 | Google Llc | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment |
EP3340012A1 (en) | 2016-12-26 | 2018-06-27 | CaptoGlove International Limited | Haptic interaction method, tool and system |
US20180255285A1 (en) | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
WO2018175335A1 (en) | 2017-03-24 | 2018-09-27 | Pcms Holdings, Inc. | Method and system for discovering and positioning content into augmented reality space |
EP3602495A4 (en) | 2017-03-30 | 2020-12-16 | Magic Leap, Inc. | CENTRALIZED RENDERING |
US10977858B2 (en) | 2017-03-30 | 2021-04-13 | Magic Leap, Inc. | Centralized rendering |
US10871934B2 (en) * | 2017-05-04 | 2020-12-22 | Microsoft Technology Licensing, Llc | Virtual content displayed with shared anchor |
GB201709199D0 (en) * | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
US10685456B2 (en) | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
US20190180506A1 (en) | 2017-12-11 | 2019-06-13 | Tsunami VR, Inc. | Systems and methods for adding annotations to virtual objects in a virtual environment |
US10559133B2 (en) | 2018-02-07 | 2020-02-11 | Dell Products L.P. | Visual space management across information handling system and augmented reality |
US10403047B1 (en) | 2018-03-01 | 2019-09-03 | Dell Products L.P. | Information handling system augmented reality through a virtual object anchor |
WO2019199569A1 (en) | 2018-04-09 | 2019-10-17 | Spatial Inc. | Augmented reality computing environments |
US11049322B2 (en) | 2018-06-18 | 2021-06-29 | Ptc Inc. | Transferring graphic objects between non-augmented reality and augmented reality media domains |
US11087538B2 (en) | 2018-06-26 | 2021-08-10 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality images at display locations that do not obstruct user's view |
US10977868B2 (en) | 2018-06-29 | 2021-04-13 | Factualvr, Inc. | Remote collaboration methods and systems |
JP7499749B2 (ja) | 2018-07-24 | 2024-06-14 | マジック リープ, インコーポレイテッド | アプリケーション共有 |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
US10854006B2 (en) * | 2018-11-15 | 2020-12-01 | Palo Alto Research Center Incorporated | AR-enabled labeling using aligned CAD models |
US11335070B2 (en) | 2020-02-10 | 2022-05-17 | Magic Leap, Inc. | Dynamic colocation of virtual content |
CN118276683A (zh) | 2020-02-14 | 2024-07-02 | 奇跃公司 | 工具桥 |
JP7539478B2 (ja) | 2020-02-14 | 2024-08-23 | マジック リープ, インコーポレイテッド | セッションマネージャ |
EP4104002A4 (en) | 2020-02-14 | 2023-08-09 | Magic Leap, Inc. | 3D OBJECT ANNOTATION |
-
2021
- 2021-02-10 US US17/173,125 patent/US11335070B2/en active Active
- 2021-02-10 WO PCT/US2021/017508 patent/WO2021163224A1/en unknown
- 2021-02-10 CN CN202180027133.6A patent/CN115699157A/zh active Pending
- 2021-02-10 JP JP2022548434A patent/JP2023513250A/ja active Pending
- 2021-02-10 EP EP21753609.3A patent/EP4104165A4/en active Pending
-
2022
- 2022-04-18 US US17/723,245 patent/US12079938B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220245905A1 (en) | 2022-08-04 |
US12079938B2 (en) | 2024-09-03 |
US11335070B2 (en) | 2022-05-17 |
EP4104165A4 (en) | 2023-07-12 |
US20210248827A1 (en) | 2021-08-12 |
CN115699157A (zh) | 2023-02-03 |
EP4104165A1 (en) | 2022-12-21 |
WO2021163224A1 (en) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11763559B2 (en) | 3D object annotation | |
US11861803B2 (en) | Session manager | |
US12079938B2 (en) | Dynamic colocation of virtual content | |
JP7464694B2 (ja) | 複合現実における空間命令およびガイド | |
JP2023515886A (ja) | 没入型のオーディオプラットフォーム | |
US11477599B2 (en) | Delayed audio following | |
US11961194B2 (en) | Non-uniform stereo rendering | |
US12096204B2 (en) | Delayed audio following | |
JP2023514571A (ja) | 遅延オーディオ追従 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240205 |