JP2023513747A - 3dオブジェクト注釈 - Google Patents
3dオブジェクト注釈 Download PDFInfo
- Publication number
- JP2023513747A JP2023513747A JP2022548905A JP2022548905A JP2023513747A JP 2023513747 A JP2023513747 A JP 2023513747A JP 2022548905 A JP2022548905 A JP 2022548905A JP 2022548905 A JP2022548905 A JP 2022548905A JP 2023513747 A JP2023513747 A JP 2023513747A
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual
- data
- input
- session
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 73
- 238000006073 displacement reaction Methods 0.000 claims abstract description 38
- 230000004044 response Effects 0.000 claims abstract description 34
- 230000002085 persistent effect Effects 0.000 description 63
- 210000003128 head Anatomy 0.000 description 21
- 230000009466 transformation Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 230000000007 visual effect Effects 0.000 description 15
- 230000005236 sound signal Effects 0.000 description 12
- 230000009286 beneficial effect Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 239000013598 vector Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 201000003152 motion sickness Diseases 0.000 description 4
- 230000002688 persistence Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241000219357 Cactaceae Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 241000153282 Theope Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008045 co-localization Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 208000004209 confusion Diseases 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 206010013395 disorientation Diseases 0.000 description 1
- 210000003027 ear inner Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 150000003014 phosphoric acid esters Chemical class 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本明細書に開示されるものは、仮想コンテンツを提示し、それに注釈を付けるためのシステムおよび方法である。例示的方法によると、仮想オブジェクトが、ウェアラブルデバイスの透過型ディスプレイを介して、第1の位置において、第1のユーザに提示される。第1の入力が、第1のユーザから受信される。第1の入力の受信に応答して、仮想注釈が、透過型ディスプレイを介して、第1の位置から第1の変位において提示される。第1のデータが、第2のユーザに伝送され、第1のデータは、仮想注釈および第1の変位と関連付けられる。第2の入力が、第2のユーザから受信される。第2の入力の受信に応答して、仮想注釈は、透過型ディスプレイを介して、第1の位置から第2の変位において、第1のユーザに提示される。第2のデータが、遠隔サーバに伝送され、第2のデータは、仮想オブジェクト、仮想注釈、第2の変位、および第1の位置と関連付けられる。
Description
(関連出願の相互参照)
本願は、それらの内容が、参照することによってその全体として本明細書に組み込まれる、2020年2月14日に出願された、米国仮出願第62/977,073号の利益を請求する。
本願は、それらの内容が、参照することによってその全体として本明細書に組み込まれる、2020年2月14日に出願された、米国仮出願第62/977,073号の利益を請求する。
本開示は、一般に、仮想コンテンツを提示し、注釈を付けるためのシステムおよび方法に関し、特に、複合現実環境内で仮想コンテンツを提示し、注釈を付けるためのシステムおよび方法に関する。
仮想環境は、コンピューティング環境において普遍的であって、ビデオゲーム(仮想環境が、ゲーム世界を表し得る)、マップ(仮想環境が、ナビゲートされるべき地形を表し得る)、シミュレーション(仮想環境が、実環境をシミュレートし得る)、デジタルストーリーテリング(仮想キャラクタが、仮想環境内で相互に相互作用し得る)、および多くの他の用途において使用を見出している。現代のコンピュータユーザは、概して、快適に仮想環境を知覚し、それと相互作用する。しかしながら、仮想環境を伴うユーザの体験は、仮想環境を提示するための技術によって限定され得る。例えば、従来のディスプレイ(例えば、2Dディスプレイ画面)およびオーディオシステム(例えば、固定スピーカ)は、人を引き付け、現実的で、かつ没入型の体験を作成するように、仮想環境を実現することが不可能であり得る。
仮想現実(「VR」)、拡張現実(「AR」)、複合現実(「MR」)、および関連技術(集合的に、「XR」)は、XRシステムのユーザにコンピュータシステム内のデータによって表される仮想環境に対応する感覚情報を提示する能力を共有する。本開示は、VR、AR、およびMRシステム間の特異性を考慮する(但し、いくつかのシステムは、一側面(例えば、視覚的側面)では、VRとしてカテゴリ化され、同時に、別の側面(例えば、オーディオ側面)では、ARまたはMRとしてカテゴリ化され得る)。本明細書で使用されるように、VRシステムは、少なくとも1つの側面においてユーザの実環境を置換する、仮想環境を提示する。例えば、VRシステムは、ユーザに、仮想環境のビューを提示し得る一方、同時に、光遮断頭部搭載型ディスプレイ等を用いて、実環境のそのビューを不明瞭にする。同様に、VRシステムは、ユーザに、仮想環境に対応するオーディオを提示し得る一方、同時に、実環境からのオーディオを遮断する(減衰させる)。
VRシステムは、ユーザの実環境を仮想環境と置換することから生じる、種々の短所を被り得る。1つの短所は、仮想環境内のユーザの視野が、(仮想環境ではなく)実環境内におけるその平衡および配向を検出する、その内耳の状態にもはや対応しなくなるときに生じ得る、乗り物酔いを感じることである。同様に、ユーザは、自身の身体および四肢(そのビューは、ユーザが実環境内において「地に足が着いている」と感じるために依拠するものである)が直接可視ではない場合、VR環境内において失見当識を被り得る。別の短所は、特に、ユーザを仮想環境内に没入させようとする、リアルタイム用途において、完全3D仮想環境を提示しなければならない、VRシステムに課される算出負担(例えば、記憶、処理力)である。同様に、そのような環境は、ユーザが、仮想環境内のわずかな不完全性にさえ敏感である傾向にあって、そのいずれも、仮想環境内のユーザの没入感を破壊し得るため、没入していると見なされるために、非常に高水準の現実性に到達する必要があり得る。さらに、VRシステムの別の短所は、システムのそのような用途が、実世界内で体験する、種々の光景および音等の実環境内の広範囲の感覚データを利用することができないことである。関連短所は、実環境内の物理的空間を共有するユーザが、仮想環境内で直接見る、または相互に相互作用することが不可能であり得るため、VRシステムが、複数のユーザが相互作用し得る、共有環境を作成することに苦戦し得ることである。
本明細書で使用されるように、ARシステムは、少なくとも1つの側面において実環境に重複またはオーバーレイする、仮想環境を提示する。例えば、ARシステムは、表示される画像を提示する一方、光が、ディスプレイを通してユーザの眼の中に通過することを可能にする、透過性頭部搭載型ディスプレイ等を用いて、ユーザに、実環境のユーザのビュー上にオーバーレイされる仮想環境のビューを提示し得る。同様に、ARシステムは、ユーザに、仮想環境に対応するオーディオを提示し得る一方、同時に、実環境からのオーディオを混合させる。同様に、本明細書で使用されるように、MRシステムは、ARシステムと同様に、少なくとも1つの側面において実環境に重複またはオーバーレイする、仮想環境を提示し、加えて、MRシステム内の仮想環境が、少なくとも1つの側面において実環境と相互作用し得ることを可能にし得る。例えば、仮想環境内の仮想キャラクタが、実環境内の照明スイッチを切り替え、実環境内の対応する電球をオンまたはオフにさせてもよい。別の実施例として、仮想キャラクタが、実環境内のオーディオ信号に反応してもよい(顔の表情等を用いて)。実環境の提示を維持することによって、ARおよびMRシステムは、VRシステムの前述の短所のうちのいくつかを回避し得る。例えば、ユーザにおける乗り物酔いは、実環境からの視覚的キュー(ユーザ自身の身体を含む)が、可視のままであり得、そのようなシステムが、没入型であるために、ユーザに、完全に実現された3D環境を提示する必要がないため、低減される。さらに、ARおよびMRシステムは、実世界感覚入力(例えば、景色、オブジェクト、および他のユーザのビューおよび音)を利用して、その入力を拡張させる、新しい用途を作成することができる。
XRシステムは、人々の間のより優れた協働を有効にするように一意に位置付けられ得る。仮想コンテンツを持続および3次元様式において提示する能力は、人々が、より自然に、仮想コンテンツと相互作用することを可能にすることができる。例えば、仮想オブジェクトを3次元空間内に配列することは、2次元画面がもたらし得るものよりはるかに自然な場所の想起を有効にし得る。2次元画面のユーザが、40個の開かれたタブのうちの1つを捜し回り、所望のアプリケーションを再び開く必要がある場合、XRシステムのユーザは、机上に表示される所望の仮想オブジェクトを正確に示すことが可能であり得る(机上に設置された実フォルダを取り上げるように)。さらに、XRシステムは、ユーザに、他のユーザの仮想アバタが見え、他の人々のライブ存在をシミュレートすることを可能にし得る。これは、電話またはさらにビデオ会議がもたらし得るものより自然な協働を有効にし得る。したがって、深層ユーザ協働をXRシステム上で有効にするためのシステムおよび方法を開発することが望ましくあり得る。
XRシステムは、仮想視覚的およびオーディオキューと実光景および音を組み合わせることによって、一意に増大した没入感および現実性をもたらすことができる。故に、いくつかのXRシステムでは、対応する実環境を向上させる、改良する、または改変する、仮想環境を提示することが望ましい。本開示は、複数のXRシステムを横断して仮想オブジェクトの一貫した設置を有効にする、XRシステムに関する。
本開示の実施例は、仮想コンテンツを提示し、それに注釈を付けるためのシステムおよび方法を説明する。例示的方法によると、仮想オブジェクトが、ウェアラブルデバイスの透過型ディスプレイを介して、第1の位置において、第1のユーザに提示される。第1の入力が、第1のユーザから受信される。第1の入力の受信に応答して、仮想注釈が、透過型ディスプレイを介して、第1の位置から第1の変位において提示される。第1のデータが、第2のユーザに伝送され、第1のデータは、仮想注釈および第1の変位と関連付けられる。第2の入力が、第2のユーザから受信される。第2の入力の受信に応答して、仮想注釈が、透過型ディスプレイを介して、第1の位置から第2の変位において、第1のユーザに提示される。第2のデータが、遠隔サーバに伝送され、第2のデータは、仮想オブジェクト、仮想注釈、第2の変位、および第1の位置と関連付けられる。
詳細な説明
実施例の以下の説明では、本明細書の一部を形成し、例証として、実践され得る具体的実施例が示される、付随の図面を参照する。他の実施例も、使用されることができ、構造変更が、開示される実施例の範囲から逸脱することなく、行われることができることを理解されたい。
実施例の以下の説明では、本明細書の一部を形成し、例証として、実践され得る具体的実施例が示される、付随の図面を参照する。他の実施例も、使用されることができ、構造変更が、開示される実施例の範囲から逸脱することなく、行われることができることを理解されたい。
複合現実環境
全ての人々と同様に、複合現実システムのユーザは、実環境内に存在する、すなわち、「実世界」の3次元部分と、そのコンテンツの全てとが、ユーザによって知覚可能である。例えば、ユーザは、通常の人間の感覚、すなわち、視覚、聴覚、触覚、味覚、嗅覚を使用して、実環境を知覚し、実環境内で自身の身体を移動させることによって、実環境と相互作用する。実環境内の場所は、座標空間内の座標として説明されることができる。例えば、座標は、緯度、経度、および海抜に対する高度、基準点から3つの直交次元における距離、または他の好適な値を含むことができる。同様に、ベクトルは、座標空間内の方向および大きさを有する、量を説明することができる。
コンピューティングデバイスは、例えば、デバイスと関連付けられるメモリ内に、仮想環境の表現を維持することができる。本明細書で使用されるように、仮想環境は、3次元空間の算出表現である。仮想環境は、任意のオブジェクトの表現、アクション、信号、パラメータ、座標、ベクトル、またはその空間と関連付けられる他の特性を含むことができる。いくつかの実施例では、コンピューティングデバイスの回路(例えば、プロセッサ)は、仮想環境の状態を維持および更新することができる。すなわち、プロセッサは、第1の時間t0において、仮想環境と関連付けられるデータおよび/またはユーザによって提供される入力に基づいて、第2の時間t1における仮想環境の状態を決定することができる。例えば、仮想環境内のオブジェクトが、時間t0において、第1の座標に位置し、あるプログラムされた物理的パラメータ(例えば、質量、摩擦係数)を有し、ユーザから受信された入力が、力がある方向ベクトルにおいてオブジェクトに印加されるべきであることを示す場合、プロセッサは、運動学の法則を適用し、基本力学を使用して、時間t1におけるオブジェクトの場所を決定することができる。プロセッサは、仮想環境について既知の任意の好適な情報および/または任意の好適な入力を使用して、時間t1における仮想環境の状態を決定することができる。仮想環境の状態を維持および更新する際、プロセッサは、仮想環境内の仮想オブジェクトの作成および削除に関連するソフトウェア、仮想環境内の仮想オブジェクトまたはキャラクタの挙動を定義するためのソフトウェア(例えば、スクリプト)、仮想環境内の信号(例えば、オーディオ信号)の挙動を定義するためのソフトウェア、仮想環境と関連付けられるパラメータを作成および更新するためのソフトウェア、仮想環境内のオーディオ信号を生成するためのソフトウェア、入力および出力をハンドリングするためのソフトウェア、ネットワーク動作を実装するためのソフトウェア、アセットデータ(例えば、仮想オブジェクトを経時的に移動させるためのアニメーションデータ)を適用するためのソフトウェア、または多くの他の可能性を含む、任意の好適なソフトウェアを実行することができる。
ディスプレイまたはスピーカ等の出力デバイスは、仮想環境のいずれかまたは全ての側面をユーザに提示することができる。例えば、仮想環境は、ユーザに提示され得る、仮想オブジェクト(無生物オブジェクト、人々、動物、光等の表現を含み得る)を含んでもよい。プロセッサは、仮想環境のビュー(例えば、原点座標、視軸、および錐台を伴う、「カメラ」に対応する)を決定し、ディスプレイに、そのビューに対応する仮想環境の視認可能場面をレンダリングすることができる。任意の好適なレンダリング技術が、本目的のために使用されてもよい。いくつかの実施例では、視認可能場面は、仮想環境内のいくつかの仮想オブジェクトのみを含み、ある他の仮想オブジェクトを除外してもよい。同様に、仮想環境は、ユーザに1つまたはそれを上回るオーディオ信号として提示され得る、オーディオ側面を含んでもよい。例えば、仮想環境内の仮想オブジェクトは、オブジェクトの場所座標から生じる音を生成してもよい(例えば、仮想キャラクタが、発話する、または音効果を生じさせ得る)、または仮想環境は、特定の場所と関連付けられる場合とそうではない場合がある、音楽キューまたは周囲音と関連付けられてもよい。プロセッサは、「聴取者」座標に対応するオーディオ信号、例えば、仮想環境内の音の合成に対応し、聴取者座標において聴取者によって聞こえるであろうオーディオ信号をシミュレートするように混合および処理される、オーディオ信号を決定し、ユーザに、1つまたはそれを上回るスピーカを介して、オーディオ信号を提示することができる。
仮想環境は、算出構造としてのみ存在するため、ユーザは、直接、通常の感覚を使用して、仮想環境を知覚することができない。代わりに、ユーザは、例えば、ディスプレイ、スピーカ、触覚的出力デバイス等によって、ユーザに提示されるように、間接的にのみ、仮想環境を知覚することができる。同様に、ユーザは、直接、仮想環境に触れる、それを操作する、または別様に、それと相互作用することができないが、入力データを、入力デバイスまたはセンサを介して、デバイスまたはセンサデータを使用して、仮想環境を更新し得る、プロセッサに提供することができる。例えば、カメラセンサは、ユーザが仮想環境のオブジェクトを移動させようとしていることを示す、光学データを提供することができ、プロセッサは、そのデータを使用して、仮想環境内において、適宜、オブジェクトを応答させることができる。
複合現実システムは、ユーザに、例えば、透過型ディスプレイおよび/または1つまたはそれを上回るスピーカ(例えば、ウェアラブル頭部デバイスの中に組み込まれ得る)を使用して、実環境および仮想環境の側面を組み合わせる、複合現実環境(「MRE」)を提示することができる。いくつかの実施形態では、1つまたはそれを上回るスピーカは、頭部搭載型ウェアラブルユニットの外部にあってもよい。本明細書で使用されるように、MREは、実環境および対応する仮想環境の同時表現である。いくつかの実施例では、対応する実および仮想環境は、単一座標空間を共有する。いくつかの実施例では、実座標空間および対応する仮想座標空間は、変換行列(または他の好適な表現)によって相互に関連する。故に、単一座標(いくつかの実施例では、変換行列とともに)は、実環境内の第1の場所と、また、仮想環境内の第2の対応する場所とを定義し得、その逆も同様である。
MREでは、(例えば、MREと関連付けられる仮想環境内の)仮想オブジェクトは、(例えば、MREと関連付けられる実環境内の)実オブジェクトに対応し得る。例えば、MREの実環境が、実街灯柱(実オブジェクト)をある場所座標に含む場合、MREの仮想環境は、仮想街灯柱(仮想オブジェクト)を対応する場所座標に含んでもよい。本明細書で使用されるように、実オブジェクトは、その対応する仮想オブジェクトとともに組み合わせて、「複合現実オブジェクト」を構成する。仮想オブジェクトが対応する実オブジェクトに完璧に合致または整合することは、必要ではない。いくつかの実施例では、仮想オブジェクトは、対応する実オブジェクトの簡略化されたバージョンであることができる。例えば、実環境が、実街灯柱を含む場合、対応する仮想オブジェクトは、実街灯柱と概ね同一高さおよび半径の円筒形を含んでもよい(街灯柱が略円筒形形状であり得ることを反映する)。仮想オブジェクトをこのように簡略化することは、算出効率を可能にすることができ、そのような仮想オブジェクト上で実施されるための計算を簡略化することができる。さらに、MREのいくつかの実施例では、実環境内の全ての実オブジェクトが、対応する仮想オブジェクトと関連付けられなくてもよい。同様に、MREのいくつかの実施例では、仮想環境内の全ての仮想オブジェクトが、対応する実オブジェクトと関連付けられなくてもよい。すなわち、いくつかの仮想オブジェクトが、任意の実世界対応物を伴わずに、MREの仮想環境内にのみ存在し得る。
いくつかの実施例では、仮想オブジェクトは、時として著しく、対応する実オブジェクトのものと異なる、特性を有してもよい。例えば、MRE内の実環境は、緑色の2本の枝が延びたサボテン、すなわち、とげだらけの無生物オブジェクトを含み得るが、MRE内の対応する仮想オブジェクトは、人間の顔特徴および無愛想な態度を伴う、緑色の2本の腕の仮想キャラクタの特性を有してもよい。本実施例では、仮想オブジェクトは、ある特性(色、腕の数)において、その対応する実オブジェクトに類似するが、他の特性(顔特徴、性格)において、実オブジェクトと異なる。このように、仮想オブジェクトは、創造的、抽象的、誇張された、または架空の様式において、実オブジェクトを表す、または挙動(例えば、人間の性格)をそうでなければ無生物である実オブジェクトに付与する潜在性を有する。いくつかの実施例では、仮想オブジェクトは、実世界対応物を伴わない、純粋に架空の創造物(例えば、おそらく、実環境内の虚空に対応する場所における、仮想環境内の仮想モンスタ)であってもよい。
ユーザに、実環境を不明瞭にしながら、仮想環境を提示する、VRシステムと比較して、MREを提示する、複合現実システムは、仮想環境が提示される間、実環境が知覚可能なままであるという利点をもたらす。故に、複合現実システムのユーザは、実環境と関連付けられる視覚的およびオーディオキューを使用して、対応する仮想環境を体験し、それと相互作用することが可能である。実施例として、VRシステムのユーザは、上記に述べられたように、ユーザが、直接、仮想環境を知覚する、またはそれと相互作用することができないため、仮想環境内に表示される仮想オブジェクトを知覚する、またはそれと相互作用することに苦戦し得るが、MRシステムのユーザは、その自身の実環境内の対応する実オブジェクトが見え、聞こえ、触れることによって、仮想オブジェクトと相互作用することが直感的および自然であると見出し得る。本レベルの相互作用は、ユーザの仮想環境との没入感、つながり、および関与の感覚を向上させ得る。同様に、実環境および仮想環境を同時に提示することによって、複合現実システムは、VRシステムと関連付けられる負の心理学的感覚(例えば、認知的不協和)および負の物理的感覚(例えば、乗り物酔い)を低減させることができる。複合現実システムはさらに、実世界の我々の体験を拡張または改変し得る用途に関する多くの可能性をもたらす。
図1Aは、ユーザ110が複合現実システム112を使用する、例示的実環境100を図示する。複合現実システム112は、ディスプレイ(例えば、透過型ディスプレイ)および1つまたはそれを上回るスピーカと、例えば、下記に説明されるような1つまたはそれを上回るセンサ(例えば、カメラ)とを含んでもよい。示される実環境100は、その中にユーザ110が立っている、長方形の部屋104Aと、実オブジェクト122A(ランプ)、124A(テーブル)、126A(ソファ)、および128A(絵画)とを含む。部屋104Aはさらに、場所座標106を含み、これは、実環境100の原点と見なされ得る。図1Aに示されるように、その原点を点106(世界座標)に伴う、環境/世界座標系108(x-軸108X、y-軸108Y、およびz-軸108Zを備える)は、実環境100のための座標空間を定義し得る。いくつかの実施形態では、環境/世界座標系108の原点106は、複合現実システム112の電源がオンにされた場所に対応し得る。いくつかの実施形態では、環境/世界座標系108の原点106は、動作の間、リセットされてもよい。いくつかの実施例では、ユーザ110は、実環境100内の実オブジェクトと見なされ得る。同様に、ユーザ110の身体部分(例えば、手、足)は、実環境100内の実オブジェクトと見なされ得る。いくつかの実施例では、その原点を点115(例えば、ユーザ/聴取者/頭部座標)に伴う、ユーザ/聴取者/頭部座標系114(x-軸114X、y-軸114Y、およびz-軸114Zを備える)は、その上に複合現実システム112が位置する、ユーザ/聴取者/頭部のための座標空間を定義し得る。ユーザ/聴取者/頭部座標系114の原点115は、複合現実システム112の1つまたはそれを上回るコンポーネントに対して定義されてもよい。例えば、ユーザ/聴取者/頭部座標系114の原点115は、複合現実システム112の初期較正等の間、複合現実システム112のディスプレイに対して定義されてもよい。行列(平行移動行列および四元数行列または他の回転行列を含み得る)または他の好適な表現が、ユーザ/聴取者/頭部座標系114空間と環境/世界座標系108空間との間の変換を特性評価することができる。いくつかの実施形態では、左耳座標116および右耳座標117が、ユーザ/聴取者/頭部座標系114の原点115に対して定義されてもよい。行列(平行移動行列および四元数行列または他の回転行列を含み得る)または他の好適な表現が、左耳座標116および右耳座標117とユーザ/聴取者/頭部座標系114空間との間の変換を特性評価することができる。ユーザ/聴取者/頭部座標系114は、ユーザの頭部または頭部搭載型デバイスに対する、例えば、環境/世界座標系108に対する場所の表現を簡略化することができる。同時位置特定およびマッピング(SLAM)、ビジュアルオドメトリ、または他の技法を使用して、ユーザ座標系114と環境座標系108との間の変換が、リアルタイムで決定および更新されることができる。
図1Bは、実環境100に対応する、例示的仮想環境130を図示する。示される仮想環境130は、実長方形部屋104Aに対応する仮想長方形部屋104Bと、実オブジェクト122Aに対応する仮想オブジェクト122Bと、実オブジェクト124Aに対応する仮想オブジェクト124Bと、実オブジェクト126Aに対応する仮想オブジェクト126Bとを含む。仮想オブジェクト122B、124B、126Bと関連付けられるメタデータは、対応する実オブジェクト122A、124A、126Aから導出される情報を含むことができる。仮想環境130は、加えて、仮想モンスタ132を含み、これは、実環境100内の任意の実オブジェクトに対応しない。実環境100内の実オブジェクト128Aは、仮想環境130内の任意の仮想オブジェクトに対応しない。その原点を点134(持続的座標)に伴う、持続的座標系133(x-軸133X、y-軸133Y、およびz-軸133Zを備える)は、仮想コンテンツのための座標空間を定義し得る。持続的座標系133の原点134は、実オブジェクト126A等の1つまたはそれを上回る実オブジェクトと相対的に/それに対して定義されてもよい。行列(平行移動行列および四元数行列または他の回転行列を含み得る)または他の好適な表現は、持続的座標系133空間と環境/世界座標系108空間との間の変換を特性評価することができる。いくつかの実施形態では、仮想オブジェクト122B、124B、126B、および132はそれぞれ、持続的座標系133の原点134に対するその自身の持続的座標点を有してもよい。いくつかの実施形態では、複数の持続的座標系が存在してもよく、仮想オブジェクト122B、124B、126B、および132はそれぞれ、1つまたはそれを上回る持続的座標系に対するその自身の持続的座標点を有してもよい。
持続座標データは、物理的環境に対して存続する、座標データであってもよい。持続座標データは、MRシステム(例えば、MRシステム112、200)によって使用され、持続仮想コンテンツを設置してもよく、これは、その上に仮想オブジェクトが表示されている、ディスプレイの移動に結び付けられなくてもよい。例えば、2次元画面は、画面上の位置に対してのみ仮想オブジェクトを表示してもよい。2次元画面が移動するにつれて、仮想コンテンツは、画面とともに移動してもよい。いくつかの実施形態では、持続仮想コンテンツは、部屋の角に表示されてもよい。MRユーザが、角を見ると、仮想コンテンツが見え、角から眼を逸らし(仮想コンテンツは、仮想コンテンツが、ユーザの頭部の運動に起因して、ユーザの視野内からユーザの視野の外側の場所に移動している場合があるため、もはや可視ではなくなり得る)、視線を戻すと、仮想コンテンツが角に見え得る(実オブジェクトが挙動し得る方法に類似する)。
いくつかの実施形態では、持続座標データ(例えば、持続座標系および/または持続座標フレーム)は、原点と、3つの軸とを含むことができる。例えば、持続座標系は、MRシステムによって、部屋の中心に割り当てられてもよい。いくつかの実施形態では、ユーザが、部屋を動き回り、部屋から出て、部屋に再進入する等し得るが、持続座標系は、部屋の中心に留まり得る(例えば、物理的環境に対して存続するため)。いくつかの実施形態では、仮想オブジェクトは、持続座標データへの変換を使用して、表示されてもよく、これは、持続仮想コンテンツを表示することを有効にし得る。いくつかの実施形態では、MRシステムは、同時位置特定およびマッピングを使用して、持続座標データを生成してもよい(例えば、MRシステムは、持続座標系を空間内の点に割り当ててもよい)。いくつかの実施形態では、MRシステムは、持続座標データを規則的インターバルで生成することによって、環境をマッピングしてもよい(例えば、MRシステムは、持続座標系を、持続座標系が少なくとも、別の持続座標系の5フィート以内にあり得る、グリッド内に割り当ててもよい)。
いくつかの実施形態では、持続座標データは、MRシステムによって生成され、遠隔サーバに伝送されてもよい。いくつかの実施形態では、遠隔サーバは、持続座標データを受信するように構成されてもよい。いくつかの実施形態では、遠隔サーバは、複数の観察インスタンスからの持続座標データを同期させるように構成されてもよい。例えば、複数のMRシステムは、同一部屋と持続座標データをマッピングし、そのデータを遠隔サーバに伝送してもよい。いくつかの実施形態では、遠隔サーバは、本観察データを使用して、規準持続座標データを生成してもよく、これは、1つまたはそれを上回る観察に基づいてもよい。いくつかの実施形態では、規準持続座標データは、持続座標データの単一観察より正確および/または信頼性があり得る。いくつかの実施形態では、規準持続座標データは、1つまたはそれを上回るMRシステムに伝送されてもよい。例えば、MRシステムは、画像認識および/または場所データを使用して、対応する規準持続座標データを有する、部屋内に位置することを認識してもよい(例えば、他のMRシステムが、その部屋を以前にマッピングしているため)。いくつかの実施形態では、MRシステムは、その場所に対応する規準持続座標データを遠隔サーバから受信してもよい。
図1Aおよび1Bに関して、環境/世界座標系108は、実環境100および仮想環境130の両方のための共有座標空間を定義する。示される実施例では、座標空間は、その原点を点106に有する。さらに、座標空間は、同一の3つの直交軸(108X、108Y、108Z)によって定義される。故に、実環境100内の第1の場所および仮想環境130内の第2の対応する場所は、同一座標空間に関して説明されることができる。これは、同一座標が両方の場所を識別するために使用され得るため、実および仮想環境内の対応する場所を識別および表示することを簡略化する。しかしながら、いくつかの実施例では、対応する実および仮想環境は、共有座標空間を使用する必要がない。例えば、いくつかの実施例では(図示せず)、行列(平行移動行列および四元数行列または他の回転行列を含み得る)または他の好適な表現は、実環境座標空間と仮想環境座標空間との間の変換を特性評価することができる。
図1Cは、同時に、実環境100および仮想環境130の側面をユーザ110に複合現実システム112を介して提示する、例示的MRE150を図示する。示される実施例では、MRE150は、同時に、ユーザ110に、実環境100からの実オブジェクト122A、124A、126A、および128A(例えば、複合現実システム112のディスプレイの透過性部分を介して)と、仮想環境130からの仮想オブジェクト122B、124B、126B、および132(例えば、複合現実システム112のディスプレイのアクティブディスプレイ部分を介して)とを提示する。上記のように、原点106は、MRE150に対応する座標空間のための原点として作用し、座標系108は、座標空間のためのx-軸、y-軸、およびz-軸を定義する。
示される実施例では、複合現実オブジェクトは、座標空間108内の対応する場所を占有する、対応する対の実オブジェクトおよび仮想オブジェクト(すなわち、122A/122B、124A/124B、126A/126B)を含む。いくつかの実施例では、実オブジェクトおよび仮想オブジェクトは両方とも、同時に、ユーザ110に可視であってもよい。これは、例えば、仮想オブジェクトが対応する実オブジェクトのビューを拡張させるように設計される情報を提示する、インスタンスにおいて望ましくあり得る(仮想オブジェクトが古代の損傷された彫像の欠けた部分を提示する、博物館用途等)。いくつかの実施例では、仮想オブジェクト(122B、124B、および/または126B)は、対応する実オブジェクト(122A、124A、および/または126A)をオクルードするように、表示されてもよい(例えば、ピクセル化オクルージョンシャッタを使用する、アクティブピクセル化オクルージョンを介して)。これは、例えば、仮想オブジェクトが対応する実オブジェクトのための視覚的置換として作用する、インスタンスにおいて望ましくあり得る(無生物実オブジェクトが「生きている」キャラクタとなる、双方向ストーリーテリング用途等)。
いくつかの実施例では、実オブジェクト(例えば、122A、124A、126A)は、必ずしも、仮想オブジェクトを構成するとは限らない、仮想コンテンツまたはヘルパデータと関連付けられてもよい。仮想コンテンツまたはヘルパデータは、複合現実環境内の仮想オブジェクトの処理またはハンドリングを促進することができる。例えば、そのような仮想コンテンツは、対応する実オブジェクトの2次元表現、対応する実オブジェクトと関連付けられるカスタムアセットタイプ、または対応する実オブジェクトと関連付けられる統計的データを含み得る。本情報は、不必要な算出オーバーヘッドを被ることなく、実オブジェクトに関わる計算を可能にする、または促進することができる。
いくつかの実施例では、上記に説明される提示はまた、オーディオ側面を組み込んでもよい。例えば、MRE150では、仮想モンスタ132は、モンスタがMRE150の周囲を歩き回るにつれて生成される、足音効果等の1つまたはそれを上回るオーディオ信号と関連付けられ得る。下記にさらに説明されるように、複合現実システム112のプロセッサは、MRE150内の全てのそのような音の混合および処理された合成に対応するオーディオ信号を算出し、複合現実システム112内に含まれる1つまたはそれを上回るスピーカおよび/または1つまたはそれを上回る外部スピーカを介して、オーディオ信号をユーザ110に提示することができる。
例示的複合現実システム
例示的複合現実システム112は、ディスプレイ(接眼ディスプレイであり得る、左および右透過型ディスプレイと、ディスプレイからの光をユーザの眼に結合するための関連付けられるコンポーネントとを含み得る)と、左および右スピーカ(例えば、それぞれ、ユーザの左および右耳に隣接して位置付けられる)と、慣性測定ユニット(IMU)(例えば、頭部デバイスのつるのアームに搭載される)と、直交コイル電磁受信機(例えば、左つる部品に搭載される)と、ユーザから離れるように配向される、左および右カメラ(例えば、深度(飛行時間)カメラ)と、ユーザに向かって配向される、左および右眼カメラ(例えば、ユーザの眼移動を検出するため)とを備える、ウェアラブル頭部デバイス(例えば、ウェアラブル拡張現実または複合現実頭部デバイス)を含むことができる。しかしながら、複合現実システム112は、任意の好適なディスプレイ技術および任意の好適なセンサ(例えば、光学、赤外線、音響、LIDAR、EOG、GPS、磁気)を組み込むことができる。加えて、複合現実システム112は、ネットワーキング特徴(例えば、Wi-Fi能力)を組み込み、他の複合現実システムを含む、他のデバイスおよびシステムと通信してもよい。複合現実システム112はさらに、バッテリ(ユーザの腰部の周囲に装着されるように設計されるベルトパック等の補助ユニット内に搭載されてもよい)と、プロセッサと、メモリとを含んでもよい。複合現実システム112のウェアラブル頭部デバイスは、ユーザの環境に対するウェアラブル頭部デバイスの座標セットを出力するように構成される、IMUまたは他の好適なセンサ等の追跡コンポーネントを含んでもよい。いくつかの実施例では、追跡コンポーネントは、入力をプロセッサに提供し、同時位置特定およびマッピング(SLAM)および/またはビジュアルオドメトリアルゴリズムを実施してもよい。いくつかの実施例では、複合現実システム112はまた、ハンドヘルドコントローラ300、および/または下記にさらに説明されるように、ウェアラブルベルトパックであり得る、補助ユニット320を含んでもよい。
図2A-2Dは、MRE(MRE150に対応し得る)または他の仮想環境をユーザに提示するために使用され得る、例示的複合現実システム200(複合現実システム112に対応し得る)のコンポーネントを図示する。図2Aは、例示的複合現実システム200内に含まれるウェアラブル頭部デバイス2102の斜視図を図示する。図2Bは、ユーザの頭部2202上に装着されるウェアラブル頭部デバイス2102の上面図を図示する。図2Cは、ウェアラブル頭部デバイス2102の正面図を図示する。図2Dは、ウェアラブル頭部デバイス2102の例示的接眼レンズ2110の縁視図を図示する。図2A-2Cに示されるように、例示的ウェアラブル頭部デバイス2102は、例示的左接眼レンズ(例えば、左透明導波管セット接眼レンズ)2108と、例示的右接眼レンズ(例えば、右透明導波管セット接眼レンズ)2110とを含む。各接眼レンズ2108および2110は、それを通して実環境が可視となる、透過性要素と、実環境に重複するディスプレイ(例えば、画像毎に変調された光を介して)を提示するためのディスプレイ要素とを含むことができる。いくつかの実施例では、そのようなディスプレイ要素は、画像毎に変調された光の流動を制御するための表面回折光学要素を含むことができる。例えば、左接眼レンズ2108は、左内部結合格子セット2112と、左直交瞳拡張(OPE)格子セット2120と、左出射(出力)瞳拡張(EPE)格子セット2122とを含むことができる。同様に、右接眼レンズ2110は、右内部結合格子セット2118と、右OPE格子セット2114と、右EPE格子セット2116とを含むことができる。画像毎に変調された光は、内部結合格子2112および2118、OPE2114および2120、およびEPE2116および2122を介して、ユーザの眼に転送されることができる。各内部結合格子セット2112、2118は、光をその対応するOPE格子セット2120、2114に向かって偏向させるように構成されることができる。各OPE格子セット2120、2114は、光をその関連付けられるEPE2122、2116に向かって下方に漸次的に偏向させ、それによって、形成されている射出瞳を水平に延在させるように設計されることができる。各EPE2122、2116は、その対応するOPE格子セット2120、2114から受信された光の少なくとも一部を、接眼レンズ2108、2110の背後に定義される、ユーザアイボックス位置(図示せず)に外向きに漸次的に再指向し、アイボックスに形成される射出瞳を垂直に延在させるように構成されることができる。代替として、内部結合格子セット2112および2118、OPE格子セット2114および2120、およびEPE格子セット2116および2122の代わりに、接眼レンズ2108および2110は、ユーザの眼への画像毎に変調された光の結合を制御するための格子および/または屈折および反射性特徴の他の配列を含むことができる。
いくつかの実施例では、ウェアラブル頭部デバイス2102は、左つるのアーム2130と、右つるのアーム2132とを含むことができ、左つるのアーム2130は、左スピーカ2134を含み、右つるのアーム2132は、右スピーカ2136を含む。直交コイル電磁受信機2138は、左こめかみ部品またはウェアラブル頭部ユニット2102内の別の好適な場所に位置することができる。慣性測定ユニット(IMU)2140は、右つるのアーム2132またはウェアラブル頭部デバイス2102内の別の好適な場所に位置することができる。ウェアラブル頭部デバイス2102はまた、左深度(例えば、飛行時間)カメラ2142と、右深度カメラ2144とを含むことができる。深度カメラ2142、2144は、好適には、ともにより広い視野を網羅するように、異なる方向に配向されることができる。
図2A-2Dに示される実施例では、画像毎に変調された光の左源2124は、左内部結合格子セット2112を通して、左接眼レンズ2108の中に光学的に結合されることができ、画像毎に変調された光の右源2126は、右内部結合格子セット2118を通して、右接眼レンズ2110の中に光学的に結合されることができる。画像毎に変調された光の源2124、2126は、例えば、光ファイバスキャナ、デジタル光処理(DLP)チップまたはシリコン上液晶(LCoS)変調器等の電子光変調器を含む、プロジェクタ、または側面あたり1つまたはそれを上回るレンズを使用して、内部結合格子セット2112、2118の中に結合される、マイクロ発光ダイオード(μLED)またはマイクロ有機発光ダイオード(μOLED)パネル等の発光型ディスプレイを含むことができる。入力結合格子セット2112、2118は、画像毎に変調された光の源2124、2126からの光を、接眼レンズ2108、2110のための全内部反射(TIR)に関する臨界角を上回る角度に偏向させることができる。OPE格子セット2114、2120は、伝搬する光をTIRによってEPE格子セット2116、2122に向かって下方に漸次的に偏向させる。EPE格子セット2116、2122は、ユーザの眼の瞳孔を含む、ユーザの顔に向かって、光を漸次的に結合する。
いくつかの実施例では、図2Dに示されるように、左接眼レンズ2108および右接眼レンズ2110はそれぞれ、複数の導波管2402を含む。例えば、各接眼レンズ2108、2110は、複数の個々の導波管を含むことができ、それぞれ、個別の色チャネル(例えば、赤色、青色、および緑色)専用である。いくつかの実施例では、各接眼レンズ2108、2110は、複数のセットのそのような導波管を含むことができ、各セットは、異なる波面曲率を放出される光に付与するように構成される。波面曲率は、例えば、ユーザの正面のある距離(例えば、波面曲率の逆数に対応する距離)に位置付けられる仮想オブジェクトを提示するように、ユーザの眼に対して凸面であってもよい。いくつかの実施例では、EPE格子セット2116、2122は、各EPEを横断して出射する光のPoyntingベクトルを改変することによって凸面波面曲率をもたらすために、湾曲格子溝を含むことができる。
いくつかの実施例では、表示されるコンテンツが3次元である知覚を作成するために、立体視的に調節される左および右眼画像は、画像毎に光変調器2124、2126および接眼レンズ2108、2110を通して、ユーザに提示されることができる。3次元仮想オブジェクトの提示の知覚される現実性は、仮想オブジェクトが立体視左および右画像によって示される距離に近似する距離に表示されるように、導波管(したがって、対応する波面曲率)を選択することによって向上されることができる。本技法はまた、立体視左および右眼画像によって提供される深度知覚キューと人間の眼の自動遠近調節(例えば、オブジェクト距離依存焦点)との間の差異によって生じ得る、一部のユーザによって被られる乗り物酔いを低減させ得る。
図2Dは、例示的ウェアラブル頭部デバイス2102の右接眼レンズ2110の上部からの縁視図を図示する。図2Dに示されるように、複数の導波管2402は、3つの導波管の第1のサブセット2404と、3つの導波管の第2のサブセット2406とを含むことができる。導波管の2つのサブセット2404、2406は、異なる波面曲率を出射する光に付与するために異なる格子線曲率を特徴とする、異なるEPE格子によって区別されることができる。導波管のサブセット2404、2406のそれぞれ内において、各導波管は、異なるスペクトルチャネル(例えば、赤色、緑色、および青色スペクトルチャネルのうちの1つ)をユーザの右眼2206に結合するために使用されることができる。(図2Dには図示されないが、左接眼レンズ2108の構造は、右接眼レンズ2110の構造に類似する。)
図3Aは、複合現実システム200の例示的ハンドヘルドコントローラコンポーネント300を図示する。いくつかの実施例では、ハンドヘルドコントローラ300は、把持部分346と、上部表面348に沿って配置される、1つまたはそれを上回るボタン350とを含む。いくつかの実施例では、ボタン350は、例えば、カメラまたは他の光学センサ(複合現実システム200の頭部ユニット(例えば、ウェアラブル頭部デバイス2102)内に搭載され得る)と併せて、ハンドヘルドコントローラ300の6自由度(6DOF)運動を追跡するための光学追跡標的として使用するために構成されてもよい。いくつかの実施例では、ハンドヘルドコントローラ300は、ウェアラブル頭部デバイス2102に対する位置または配向等の位置または配向を検出するための追跡コンポーネント(例えば、IMUまたは他の好適なセンサ)を含む。いくつかの実施例では、そのような追跡コンポーネントは、ハンドヘルドコントローラ300のハンドル内に位置付けられてもよく、および/またはハンドヘルドコントローラに機械的に結合されてもよい。ハンドヘルドコントローラ300は、ボタンの押下状態、またはハンドヘルドコントローラ300の位置、配向、および/または運動(例えば、IMUを介して)のうちの1つまたはそれを上回るものに対応する、1つまたはそれを上回る出力信号を提供するように構成されることができる。そのような出力信号は、複合現実システム200のプロセッサへの入力として使用されてもよい。そのような入力は、ハンドヘルドコントローラの位置、配向、および/または移動(さらに言うと、コントローラを保持するユーザの手の位置、配向、および/または移動)に対応し得る。そのような入力はまた、ユーザがボタン350を押下したことに対応し得る。
図3Bは、複合現実システム200の例示的補助ユニット320を図示する。補助ユニット320は、エネルギーを提供し、システム200を動作するためのバッテリを含むことができ、プログラムを実行し、システム200を動作させるためのプロセッサを含むことができる。示されるように、例示的補助ユニット320は、補助ユニット320をユーザのベルトに取り付ける等のためのクリップ2128を含む。他の形状因子も、補助ユニット320のために好適であって、ユニットをユーザのベルトに搭載することを伴わない、形状因子を含むことも明白となるであろう。いくつかの実施例では、補助ユニット320は、例えば、電気ワイヤおよび光ファイバを含み得る、多管式ケーブルを通して、ウェアラブル頭部デバイス2102に結合される。補助ユニット320とウェアラブル頭部デバイス2102との間の無線接続もまた、使用されることができる。
いくつかの実施例では、複合現実システム200は、1つまたはそれを上回るマイクロホンを含み、音を検出し、対応する信号を複合現実システムに提供することができる。いくつかの実施例では、マイクロホンは、ウェアラブル頭部デバイス2102に取り付けられる、またはそれと統合されてもよく、ユーザの音声を検出するように構成されてもよい。いくつかの実施例では、マイクロホンは、ハンドヘルドコントローラ300および/または補助ユニット320に取り付けられる、またはそれと統合されてもよい。そのようなマイクロホンは、環境音、周囲雑音、ユーザまたは第三者の音声、または他の音を検出するように構成されてもよい。
図4は、上記に説明される複合現実システム200(図1に関する複合現実システム112に対応し得る)等の例示的複合現実システムに対応し得る、例示的機能ブロック図を示す。図4に示されるように、例示的ハンドヘルドコントローラ400B(ハンドヘルドコントローラ300(「トーテム」)に対応し得る)は、トーテム/ウェアラブル頭部デバイス6自由度(6DOF)トーテムサブシステム404Aを含み、例示的ウェアラブル頭部デバイス400A(ウェアラブル頭部デバイス2102に対応し得る)は、トーテム/ウェアラブル頭部デバイス6DOFサブシステム404Bを含む。実施例では、6DOFトーテムサブシステム404Aおよび6DOFサブシステム404Bは、協働し、ウェアラブル頭部デバイス400Aに対するハンドヘルドコントローラ400Bの6つの座標(例えば、3つの平行移動方向におけるオフセットおよび3つの軸に沿った回転)を決定する。6自由度は、ウェアラブル頭部デバイス400Aの座標系に対して表されてもよい。3つの平行移動オフセットは、そのような座標系内におけるX、Y、およびZオフセット、平行移動行列、またはある他の表現として表されてもよい。回転自由度は、ヨー、ピッチ、およびロール回転のシーケンスとして、回転行列として、四元数として、またはある他の表現として表されてもよい。いくつかの実施例では、ウェアラブル頭部デバイス400A、ウェアラブル頭部デバイス400A内に含まれる、1つまたはそれを上回る深度カメラ444(および/または1つまたはそれを上回る非深度カメラ)、および/または1つまたはそれを上回る光学標的(例えば、上記に説明されるようなハンドヘルドコントローラ400Bのボタン350またはハンドヘルドコントローラ400B内に含まれる専用光学標的)は、6DOF追跡のために使用されることができる。いくつかの実施例では、ハンドヘルドコントローラ400Bは、上記に説明されるようなカメラを含むことができ、ウェアラブル頭部デバイス400Aは、カメラと併せた光学追跡のための光学標的を含むことができる。いくつかの実施例では、ウェアラブル頭部デバイス400Aおよびハンドヘルドコントローラ400Bはそれぞれ、3つの直交して配向されるソレノイドのセットを含み、これは、3つの区別可能な信号を無線で送信および受信するために使用される。受信するために使用される、コイルのそれぞれ内で受信される3つの区別可能な信号の相対的大きさを測定することによって、ハンドヘルドコントローラ400Bに対するウェアラブル頭部デバイス400Aの6DOFが、決定され得る。加えて、6DOFトーテムサブシステム404Aは、改良された正確度および/またはハンドヘルドコントローラ400Bの高速移動に関するよりタイムリーな情報を提供するために有用である、慣性測定ユニット(IMU)を含むことができる。
いくつかの実施例では、例えば、座標系108に対するウェアラブル頭部デバイス400Aの移動を補償するために、座標をローカル座標空間(例えば、ウェアラブル頭部デバイス400Aに対して固定される座標空間)から慣性座標空間(例えば、実環境に対して固定される座標空間)に変換することが必要になり得る。例えば、そのような変換は、ウェアラブル頭部デバイス400Aのディスプレイが、ディスプレイ上の固定位置および配向(例えば、ディスプレイの右下角における同一位置)ではなく仮想オブジェクトを実環境に対する期待される位置および配向に提示し(例えば、ウェアラブル頭部デバイスの位置および配向にかかわらず、前方に面した実椅子に着座している仮想人物)、仮想オブジェクトが実環境内に存在する(かつ、例えば、ウェアラブル頭部デバイス400Aが偏移および回転するにつれて、実環境内に不自然に位置付けられて現れない)という錯覚を保存するために必要であり得る。いくつかの実施例では、座標空間間の補償変換が、座標系108に対するウェアラブル頭部デバイス400Aの変換を決定するために、SLAMおよび/またはビジュアルオドメトリプロシージャを使用して、深度カメラ444からの画像を処理することによって決定されることができる。図4に示される実施例では、深度カメラ444は、SLAM/ビジュアルオドメトリブロック406に結合され、画像をブロック406に提供することができる。SLAM/ビジュアルオドメトリブロック406実装は、本画像を処理し、次いで、頭部座標空間と別の座標空間(例えば、慣性座標空間)との間の変換を識別するために使用され得る、ユーザの頭部の位置および配向を決定するように構成される、プロセッサを含むことができる。同様に、いくつかの実施例では、ユーザの頭部姿勢および場所に関する情報の付加的源が、IMU409から取得される。IMU409からの情報は、SLAM/ビジュアルオドメトリブロック406からの情報と統合され、改良された正確度および/またはユーザの頭部姿勢および位置の高速調節に関する情報をよりタイムリーに提供することができる。
いくつかの実施例では、深度カメラ444は、ウェアラブル頭部デバイス400Aのプロセッサ内に実装され得る、手のジェスチャトラッカ411に、3D画像を供給することができる。手のジェスチャトラッカ411は、例えば、深度カメラ444から受信された3D画像を手のジェスチャを表す記憶されたパターンに合致させることによって、ユーザの手のジェスチャを識別することができる。ユーザの手のジェスチャを識別する他の好適な技法も、明白となるであろう。
いくつかの実施例では、1つまたはそれを上回るプロセッサ416は、ウェアラブル頭部デバイスの6DOFヘッドギヤサブシステム404B、IMU409、SLAM/ビジュアルオドメトリブロック406、深度カメラ444、および/または手のジェスチャトラッカ411からのデータを受信するように構成されてもよい。プロセッサ416はまた、制御信号を6DOFトーテムシステム404Aに送信し、そこから受信することができる。プロセッサ416は、ハンドヘルドコントローラ400Bがテザリングされない実施例等では、無線で、6DOFトーテムシステム404Aに結合されてもよい。プロセッサ416はさらに、オーディオ/視覚的コンテンツメモリ418、グラフィカル処理ユニット(GPU)420、および/またはデジタル信号プロセッサ(DSP)オーディオ空間化装置422等の付加的コンポーネントと通信してもよい。DSPオーディオ空間化装置422は、頭部関連伝達関数(HRTF)メモリ425に結合されてもよい。GPU420は、画像毎に変調された光の左源424に結合される、左チャネル出力と、画像毎に変調された光の右源426に結合される、右チャネル出力とを含むことができる。GPU420は、例えば、図2A-2Dに関して上記に説明されるように、立体視画像データを画像毎に変調された光の源424、426に出力することができる。DSPオーディオ空間化装置422は、オーディオを左スピーカ412および/または右スピーカ414に出力することができる。DSPオーディオ空間化装置422は、プロセッサ419から、ユーザから仮想音源(例えば、ハンドヘルドコントローラ320を介して、ユーザによって移動され得る)への方向ベクトルを示す入力を受信することができる。方向ベクトルに基づいて、DSPオーディオ空間化装置422は、対応するHRTFを決定することができる(例えば、HRTFにアクセスすることによって、または複数のHRTFを補間することによって)。DSPオーディオ空間化装置422は、次いで、決定されたHRTFを仮想オブジェクトによって生成された仮想音に対応するオーディオ信号等のオーディオ信号に適用することができる。これは、複合現実環境内の仮想音に対するユーザの相対的位置および配向を組み込むことによって、すなわち、その仮想音が実環境内の実音である場合に聞こえるであろうもののユーザの期待に合致する仮想音を提示することによって、仮想音の信憑性および現実性を向上させることができる。
図4に示されるようないくつかの実施例では、プロセッサ416、GPU420、DSPオーディオ空間化装置422、HRTFメモリ425、およびオーディオ/視覚的コンテンツメモリ418のうちの1つまたはそれを上回るものは、補助ユニット400C(上記に説明される補助ユニット320に対応し得る)内に含まれてもよい。補助ユニット400Cは、バッテリ427を含み、そのコンポーネントを給電し、および/または電力をウェアラブル頭部デバイス400Aまたはハンドヘルドコントローラ400Bに供給してもよい。そのようなコンポーネントを、ユーザの腰部に搭載され得る、補助ユニット内に含むことは、ウェアラブル頭部デバイス400Aのサイズおよび重量を限定することができ、これは、ひいては、ユーザの頭部および頸部の疲労を低減させることができる。
図4は、例示的複合現実システムの種々のコンポーネントに対応する要素を提示するが、これらのコンポーネントの種々の他の好適な配列も、当業者に明白となるであろう。例えば、補助ユニット400Cと関連付けられているような図4に提示される要素は、代わりに、ウェアラブル頭部デバイス400Aまたはハンドヘルドコントローラ400Bと関連付けられ得る。さらに、いくつかの複合現実システムは、ハンドヘルドコントローラ400Bまたは補助ユニット400Cを完全に無くしてもよい。そのような変更および修正は、開示される実施例の範囲内に含まれるものとして理解されるべきである。
セッションマネージャ
MRシステムは、ユーザの間の双方向仮想協働を有効にするように一意に位置付けられ得る。MRシステムは、仮想コンテンツを、3次元で、ユーザの物理的環境内に提示し得るため、MR協働システムおよび方法は、少なくとも、ローカル協働と同程度に効果的であり得る、遠隔協働を有効にし得る。いくつかの実施形態では、MR協働は、ユーザに、3次元空間内の仮想コンテンツが見え、および/またはそれを操作することを可能にすることができる。例えば、第1のユーザが、MR協働セッションを立ち上げてもよく、2つの仮想3Dモデル、テキストドキュメント、およびメッセージングインターフェースが見えてもよい。第2のユーザが、セッションにローカルで加わってもよく(例えば、第2のユーザは、第1のユーザと同一部屋に歩いて入ってもよい)、第2のユーザには、同一の2つの仮想3Dモデル、テキストドキュメント、およびメッセージングインターフェースが第1のユーザと同一場所において見えてもよい。いくつかの実施形態では、第3のユーザが、セッションに遠隔で加わってもよく(例えば、第3のユーザは、第1および第2のユーザと同一部屋内に存在しなくてもよい)、第3のユーザには、2つの仮想3Dモデル、テキストドキュメント、およびメッセージングインターフェースが第3のユーザの環境内に見えてもよい。いくつかの実施形態では、仮想コンテンツは、全てのセッションユーザのために、空間関係を相互に共有してもよい(例えば、仮想コンテンツは、同一方法で配列されてもよい)。いくつかの実施形態では、MR協働は、ユーザが、同一物理的空間内において、共有物理的コンテキストを活用し、仮想コンテンツを伴うより有意義な共有体験を享受することを可能にしてもよい。
いくつかの実施形態では、複数のMRシステムを横断して、仮想コンテンツを表示および/または同期させることは、課題を呈し得る。例えば、各MRシステムが、セッション内の他のMRシステムと一致する様式において、共有仮想コンテンツを表示することを確実にするためのシステムおよび方法を開発することが、有益であり得る。また、アプリケーション間協働(例えば、異なる開発者によって作成されたアプリケーションを使用して生成され得る、仮想コンテンツ)を有効にし得る、システムおよび方法を開発することが、有益であり得る。いくつかの実施形態では、相互にローカルで存在するユーザ(例えば、同一部屋内に存在するユーザ)が、相互に、かつ遠隔(例えば、異なる部屋内)に存在するユーザと協働することを可能にし得る、システムおよび方法を開発することが、有益であり得る。いくつかの実施形態では、セッションユーザが後の時間に協働を継続し得るように、協働セッションが経時的に存続することを可能にし得る、システムおよび方法を開発することが、有益であり得る。いくつかの実施形態では、コンテンツ持続、例えばセッションユーザが、他のユーザとライブ協働しなくても、仮想コンテンツイベント上で作業を継続することを有効にし得る、システムおよび方法を開発することが、有益であり得る。
いくつかの実施形態では、セッションは、広義には、協働し、一連の体験を時間および空間にわたって共有し得る、(識別子を伴う)ユーザのグループとして定義され得る。いくつかの実施形態では、セッションは、ネットワークコネクティビティ、共通空間基準、および他のMRユーザとチャットし、プリズムを共有するための一元型ユーザインターフェースを提供する、通信および協働体験を含むことができる。セッション参加者は、遠隔で、または同一物理的場所内でローカルで存在することができる。いくつかの実施形態では、セッションマネージャは、セッション内のいくつかまたは全てのアクティビティを管理する、一元型バックエンドサービスを含むことができる。いくつかの実施形態では、セッションマネージャは、セッションマネージャを表し、および/またはユーザ入力を受信するように構成される、1つまたはそれを上回るユーザに面したフロントエンド制御および/または表現(例えば、メニューおよび/またはセッションハンドル)を含むことができる。いくつかの実施形態では、セッションマネージャは、種々のセッション状態を通して、種々のセッションイベントを連携および管理する、背景サービスおよび/またはデーモンを含むことができる。セッションマネージャはまた、ユーザが、発見され、他のユーザと接続されることを可能にすることによって、ユーザ体験を駆動してもよい。いくつかの実施形態では、セッションマネージャはまた、メニューおよび/またはセッションUI関連状態等の種々のUIコンポーネントを管理してもよい。
いくつかの実施形態では、協働は、仮想コンテンツを協働セッション内に構成し、協働セッション内の実オブジェクトと同様に挙動させることによって、促進されることができる。例えば、「実」協働セッションでは、ユーザは、ドキュメントおよび/またはオブジェクトとともに、テーブルの周囲に着座し得る。ユーザは、特定のドキュメントをポイントすることによって、「この」ドキュメントおよび/または「あの」ドキュメントを指し得る。いくつかの実施形態では、実協働セッションにおけるユーザは、関係用語(例えば、右のあのオブジェクト)を使用して、オブジェクトを指し得る。本挙動は、他の人々との長年にわたる物理的条件付けおよび作業の結果として、ユーザに自然に生じ得る。したがって、ユーザとそれに対して彼らが協働するコンテンツとの間の自然な相互作用を有効にするために、MR協働のためのシステムおよび方法を開発することが望ましくあり得る。いくつかの実施形態では、MR協働セッションは、ユーザが、ユーザの物理的環境内に存在する実コンテンツであるかのように、併置された仮想コンテンツ(例えば、実環境内の同一位置において複数のユーザに現れ得る、仮想コンテンツ)を指すことを可能にすることができる。いくつかの実施形態では、MR協働セッションは、存続することができる。例えば、全てのユーザが、セッションから退出し得、ユーザが、同一セッションを数週間後に立ち上げ得る。いくつかの実施形態では、ユーザには、ユーザが以前にセッションから退出したときに存在していた状態において(例えば、同一相対的位置において、および/または同一編集を伴って)、全ての仮想コンテンツが見え得る。
いくつかの実施形態では、セッションは、複合現実協働セッション内で使用される仮想コンテンツを提示、同期、管理、および/または記憶するためのプラットフォームを含むことができる。例えば、セッションユーザは、その中で仮想コンテンツ(例えば、ワードドキュメント、3Dモデル、プレゼンテーションスライド、会話履歴等)が、議論および/または作業される、毎週繰り返される会議を開いてもよい。いくつかの実施形態では、ユーザは、仮想コンテンツ(異なる開発者によって作成されてもよい)を、経時的に存続し得る、単一仮想空間の中に集結するために、セッションのプラットフォームを活用してもよい。例えば、単一セッションインスタンスをロードすることは、ユーザに、3Dモデル(第1の開発者によって作成された第1のアプリケーションを使用して生成される)、3Dモデル(第2の開発者によって作成された第2のアプリケーションを使用して生成される)に対する目標および/または変更を説明するテキストドキュメント、および本セッションに関連するセッションユーザ間の会話履歴を提示してもよい。本仮想コンテンツは、同一ユーザまたは異なるセッションユーザが、セッションをロードし、任意の他のセッションユーザと同一セッションコンテンツが見え得るように、時間を横断して、およびセッションユーザを横断して、存続し得る。いくつかの実施形態では、セッションは、ユーザの存在柔軟性を有効にしてもよい(例えば、ローカルユーザは、そのローカル空間内で仮想コンテンツ設置を共有し得るが、遠隔ユーザにもまた、その遠隔空間内で同一空間関係を伴う仮想コンテンツが見え得る)。いくつかの実施形態では、セッションは、能力柔軟性を有効にしてもよい。例えば、能力(例えば、第三者アプリケーションに対応する)は、一元型セッションプラットフォームから離れずに、相互作用/有効に/無効にされることができる。いくつかの実施形態では、アプリケーション(例えば、第三者アプリケーション)は、セッションプラットフォームを活用し、他のアプリと互換性がない場合がある、プロプライエタリシェアリングプラットフォームを構築しないようにしてもよい。いくつかの実施形態では、セッションは、時間的柔軟性を有効にしてもよい。例えば、ユーザは、異なる時間にセッションにアクセスしてもよく、他のユーザとのライブコールは、必要なくてもよい。いくつかの実施形態では、ユーザによって行われる変更は、変更が他のセッションユーザのために反映されるように同期されることができる(彼が、現在セッション内に存在する、またはセッションに後の時間に参入するかどうかにかかわらず)。
いくつかの実施形態では、セッションは、1人またはそれを上回るユーザと経時的に共有される、仮想コンテンツを含んでもよい。セッションは、1人またはそれを上回る所有者を有してもよく、いくつかの実施形態では、セッションを作成したユーザが、セッション所有者と見なされ得る。セッションは、セッションへのアクセスを有し得る、1人またはそれを上回る参加者を有してもよい。いくつかの実施形態では、セッション所有者は、参加者がセッションに加わり得る内容を制御してもよい。いくつかの実施形態では、セッションは、セッション識別子を有してもよい。いくつかの実施形態では、各ユーザ(例えば、所有者または参加者)は、ユーザ識別子を有してもよい。いくつかの実施形態では、セッションは、1つまたはそれを上回るユーザアバタを含んでもよく、これは、セッション内の他のオブジェクトに対する遠隔ユーザの位置付けを表し得る。いくつかの実施形態では、セッションは、場所データ(例えば、各ユーザに対応する、場所データ、セッションが開かれている場所に対応する、場所データ等)を含んでもよい。場所データは、持続座標データを含んでもよい。いくつかの実施形態では、場所データは、1つまたはそれを上回る変換(例えば、1つまたはそれを上回る変換行列)を含んでもよく、これは、位置を持続座標データに関連させ得る。
いくつかの実施形態では、セッションは、1つまたはそれを上回る能力を含むことができる。セッション能力は、ユーザがセッション内で選択および/または有効にし得る、1つまたはそれを上回る特徴を含んでもよい。例えば、仮想オブジェクト共有は、セッション能力と見なされ得る。いくつかの実施形態では、ユーザが他のユーザにローカルであるかどうかを決定することは、セッション能力と見なされ得る。いくつかの実施形態では、ユーザアバタを投影することは、セッション能力と見なされ得る。いくつかの実施形態では、ユーザの画面を他のユーザに投射することは、セッション能力と見なされ得る。いくつかの実施形態では、能力は、1つまたはそれを上回る能力インスタンスを有することができる(例えば、能力は、同時に起動される、複数のインスタンスを有することができる)。例えば、2つの仮想オブジェクトが、セッション内でユーザと共有されてもよく、各仮想オブジェクトは、別個の能力インスタンスと見なされ得る。
いくつかの実施形態では、セッションは、持続的であってもよい。例えば、セッションは、全てのユーザがセッションから退出した後も、存在し続けてもよい。いくつかの実施形態では、セッションは、使用されるセッション能力(例えば、仮想オブジェクト、仮想オブジェクトがあった位置等を共有する)、ユーザ場所、ユーザ識別等のセッション情報を記憶し続けてもよい。持続セッションは、ユーザ間の長期協働を促進し得る。例えば、ユーザは、その仮想作業空間をその選好に対して再配列する必要なく、彼らが中断した場所から継続してもよい。いくつかの実施形態では、セッション持続は、異なるユーザが、セッションに後の時間に参入し、前のユーザがセッションから退出したときにあったように配列される、仮想コンテンツが見えることを可能にしてもよい。
図5A-5Cは、いくつかの実施形態による、例示的MR協働セッションを図示する。図5Aは、例示的複合現実協働セッションを図示し、ユーザ508a、508b、および508cが、第1の場所(例えば、第1の部屋)にともに存在し得る。図5Bは、例示的複合現実協働セッションを図示し、ユーザ508dおよび508eが、第2の場所(例えば、第2の部屋)にともに存在し得る。図5Cは、例示的複合現実協働セッションを図示し、セッションハンドルが移動されている。
いくつかの実施形態では、ユーザ508a、508b、508c、508d、および508eは全て、同一複合現実協働セッション500の一部であってもよい。いくつかの実施形態では、協働セッションは、セッションハンドル502a(仮想オブジェクトであってもよい)を含むことができる。セッションハンドル502aは、セッションに関するローカルアンカとしての役割を果たし得る。例えば、同一場所内の全てのセッションユーザ(例えば、ユーザ508a、508b、および508cは、彼らが共通持続座標データを共有する場合、同一場所に存在すると見なされ得る)は、セッションハンドル502aに対して位置付けられる、仮想コンテンツを提示されてもよく、これは、仮想コンテンツに、実/物理的オブジェクトと同様に、実世界内の特定の場所および配向に位置している外観を与え得る。いくつかの実施形態では、セッションハンドル502aは、持続座標データに対して位置付けられてもよい(例えば、変換を使用して)。いくつかの実施形態では、ユーザ508a、508b、および508cは、規準持続座標データを使用してもよく、これは、各ユーザのMRシステム内におけるセッションハンドル502aの一貫した設置を有効にし得る。いくつかの実施形態では、ユーザ508a、508b、および508c全てに、セッションハンドル502aが同一場所に見え得る(例えば、ユーザ全てに、セッションハンドル502aが同一場所における床上に見え得る)。
いくつかの実施形態では、ユーザが、相互にローカルであると見なされ得るかどうかは、持続座標データを使用して決定されてもよい。例えば、ユーザ508aのためのMRシステムは、ユーザ508aに関する識別された環境に基づいて、規準持続座標データを受信してもよい(例えば、1つまたはそれを上回る遠隔サーバから)。ユーザ508aのためのMRシステムは、場所データ(例えば、GPS、WiFi、および/またはセルラーデータ)および/または画像認識データ(例えば、捕捉された画像と既知の環境の画像を比較することによって、既知の環境を認識する)を使用して、ユーザ508aに関する環境を識別してもよい。いくつかの実施形態では、ユーザ508aのためのMRシステムは、その受信された持続座標データをセッション内の他のMRシステム(例えば、ユーザ508bのためのMRシステム)に伝送してもよい。いくつかの実施形態では、セッション内の他のMRシステムは、規準持続座標データを受信し、他のMRシステムから受信された伝送データとすでに使用されている規準持続座標(および/または1つまたはそれを上回る遠隔サーバから受信された規準持続座標データ)を比較してもよい。規準持続座標データの1つまたはそれを上回るインスタンスが、セッション内のMRシステム間で共有されることが決定される(例えば、一意の識別子を使用して)場合、MRシステムは、相互にローカルであることが決定されることができる。いくつかの実施形態では、MRシステムが、規準持続座標データのインスタンスを共有しない場合、MRシステムは、相互から遠隔にあることが決定され得る。いくつかの実施形態では、セッションハンドル(例えば、セッションハンドル502a)は、持続規準持続座標データの1つまたはそれを上回る共有インスタンスに関連して表示されてもよく、これは、セッションハンドル502aが同一場所においてユーザ508a、508b、および508cに提示されることを可能にし得る。
いくつかの実施形態では、セッション500は、共有仮想オブジェクト504aを含むことができる。共有仮想オブジェクト504aは、セッション能力インスタンスと見なされ得る。いくつかの実施形態では、ユーザ508a、508b、および508c全てに、仮想オブジェクト504aが同一場所において見え得る(例えば、ユーザ全てに、仮想オブジェクト504aが実テーブルの端部に見え得る)。いくつかの実施形態では、共有仮想オブジェクト504aは、セッションハンドル502aに対して位置付けられてもよい(例えば、変換を使用して)。いくつかの実施形態では、共有仮想オブジェクト504aは、持続座標データ(例えば、規準持続座標データ)に対して位置付けられてもよい。いくつかの実施形態では、ユーザ(例えば、ユーザ508c)は、共有仮想オブジェクト504aを操作してもよい。例えば、ユーザ508cは、オブジェクト504aをテーブルの縁からテーブルの中心に移動させてもよい。いくつかの実施形態では、ユーザ508aおよび508bにもまた、テーブルの縁からテーブルの中心に移動するオブジェクト504aが見え得る。いくつかの実施形態では、ユーザ(例えば、ユーザ508b)が、オブジェクト504a(例えば、ヘルメット)の一部をポイントする場合、他のユーザ(例えば、508aおよび508c)にもまた、ユーザ508bがオブジェクト504aの同一部分をポイントしているように見え得る。
いくつかの実施形態では、セッションハンドル502aはまた、移されてもよい。例えば、図5Cでは、ユーザ508aは、セッションハンドル502aを左に移動させてもよい。いくつかの実施形態では、セッションの一部として表示される、任意の仮想コンテンツもまた、移動し、それによって、セッションハンドル502aに対する同一位置付けを維持してもよい。例えば、セッションハンドル502aが、左に移動されるにつれて、オブジェクト504aはまた、同一量だけ左移動されてもよい。いくつかの実施形態では、ある場所におけるセッションハンドル(例えば、セッションハンドル502a)を移動させることは、異なる場所におけるセッションハンドル(例えば、セッションハンドル502b)を移動させなくてもよい。ローカルユーザの各グループが、その独自のセッションハンドル設置を管理することを可能にすることが、有益であり得る。例えば、仮想コンテンツは、セッションハンドルに対して位置付けられ得るため、各ローカルグループは、その個別のローカル物理的環境に関するその仮想コンテンツのための最適場所を決定してもよい。
セッション500は、同一場所を共有し得ない、ユーザを伴うこともできる。例えば、図5Bでは、ユーザ508dおよび508eはまた、セッション500の一部であってもよい。いくつかの実施形態では、ユーザ508dおよび508eは、ユーザ508a、508b、および508cに遠隔であると見なされ得る(例えば、ユーザ508d/508eと508a/508b/508cとの間に共通持続座標データが存在し得ないため)。いくつかの実施形態では、ユーザ508dおよび508eには、第2のセッションハンドル502bが見え得る。いくつかの実施形態では、他のユーザ(またはユーザのグループ)との共通持続座標データを有していない、各ユーザ(またはユーザのグループ)には、その独自のセッションハンドルが見え得る。ユーザ508dおよび508eに表示される、共有仮想コンテンツは、セッションハンドル502bに対して表示されてもよい。例えば、共有仮想オブジェクト504bは、オブジェクト504aに対応し得る。いくつかの実施形態では、オブジェクト504bは、セッションハンドル502aに対して位置付けられる、オブジェクト504aと同一である、セッションハンドル502bに対するスポットに位置付けられてもよい。いくつかの実施形態では、オブジェクト504aが、セッションハンドル502aに対して移動される場合、オブジェクト504bもまた、セッションハンドル502bに対して移動してもよい(その逆も同様である)。いくつかの実施形態では、セッションハンドル502bは、セッションハンドル502aが移動される場合、移動しなくてもよい。これは、ローカルユーザが、セッションコンテンツがユーザのローカルグループに提示される方法を管理することを可能にし得る。
いくつかの実施形態では、セッション500は、ユーザアバタ506eを含むことができる。いくつかの実施形態では、ユーザアバタ506eは、セッション内の他のユーザに遠隔であり得る、セッション500内のユーザを表すことができる。例えば、ユーザ508a、508b、および508cは、相互にローカルであると見なされ得(例えば、彼らが持続座標データを共有し得るため)、ユーザ508eは、ユーザ508a、508b、および508cから遠隔であると見なされ得る(例えば、ユーザ508eが持続座標データを他のユーザと共有し得ないため)。いくつかの実施形態では、(図5Bにおける)ユーザ508eもまた、セッション500の一部であってもよく、ユーザアバタ506eは、ユーザ508eに対応し得る。
いくつかの実施形態では、ユーザアバタ506eは、ユーザ508eが、ユーザ508a、508b、および508cと協働することを可能にしてもよい。いくつかの実施形態では、アバタ506eは、ユーザ508eの1つまたはそれを上回る移動を鏡映してもよい。例えば、ユーザ508eが、セッションハンドル502bに接近するにつれて、ユーザアバタ506eは、セッションハンドル502aに接近し、それによって、ユーザ508eとセッションハンドル502bとの間の同一の相対的位置付けを維持してもよい。いくつかの実施形態では、ユーザ508eは、オブジェクト504bをポイントしてもよく、アバタ506eは、対応して、同一場所におけるオブジェクト504aをポイントしてもよい。同様に、アバタ506bは、ユーザ508bを表し得、アバタ506aは、ユーザ508aを表し得る。ユーザ508aが、オブジェクト504aに接近するにつれて、アバタ506aもまた、適宜、オブジェクト504bに接近してもよい。いくつかの実施形態では、遠隔ユーザは、アバタを他のユーザにブロードキャストしなくてもよい。例えば、ユーザ508dは、ユーザ508a、508b、および508cに遠隔であり得るが、ユーザ508dは、セッションハンドル502aのために対応するアバタを投影しなくてもよい。
いくつかの実施形態では、セッション持続は、ユーザが、異なるセッション場所に対して動的に位置特定することを可能にし得る。例えば、ユーザ508a、508b、および508cは、第1の部屋内に存在してもよく、ユーザ508dおよび508eは、第1の部屋から出て廊下の先にあり得る、第2の部屋内に存在してもよい。いくつかの実施形態では、ユーザ508aは、第1の部屋から退出し、廊下を進み、第2の部屋に進入してもよく、仮想コンテンツは、セッションハンドル502bに対して、ユーザ508aに表示されてもよい。いくつかの実施形態では、ユーザによって使用される、各MRシステムは、周期的に、ユーザの場所をポーリングしてもよい(例えば、GPSデータおよび/または画像認識を使用して)。いくつかの実施形態では、MRシステムは、新しい場所クエリをトリガしてもよい(例えば、ジオフェンシングを使用することによって)。
図6は、いくつかの実施形態による、例示的セッションマネージャアーキテクチャを図示する。いくつかの実施形態では、セッションマネージャ604は、MRシステム602上で起動されてもよく、これは、1つまたはそれを上回るコンピュータシステムを含んでもよく、MRシステム112、200に対応することができる。いくつかの実施形態では、セッションマネージャ604は、プロセス、サブプロセス、スレッド、および/またはサービスを含むことができる。いくつかの実施形態では、セッションマネージャ604は、情報を記憶するように構成される、1つまたはそれを上回るデータ構造を含むことができる。いくつかの実施形態では、セッションマネージャ604は、サービス(例えば、バックグラウンドオペレーティングシステムサービス)を含むことができる。いくつかの実施形態では、セッションマネージャ604のプロセス、サブプロセス、スレッド、および/またはサービスは、ホストシステムのオペレーティングシステムが起動している間、継続的に起動するように構成されることができる(例えば、バックグラウンドで)。いくつかの実施形態では、セッションマネージャ604は、親バックグラウンドサービスのインスタンス化を含むことができ、これは、1つまたはそれを上回るバックグラウンドプロセスおよび/またはサブプロセスに対するホストプロセスとしての役割を果たし得る。いくつかの実施形態では、セッションマネージャ604は、親プロセスのサブプロセスを含むことができる。いくつかの実施形態では、セッションマネージャ604は、親プロセスのスレッドを含むことができる。
セッションマネージャ604は、1つまたはそれを上回るセッションインスタンス606aおよび/または606bを含んでもよい。いくつかの実施形態では、セッションインスタンスは、MR協働セッション(例えば、セッション500)に対応し得る。いくつかの実施形態では、セッションインスタンスは、MR協働セッション内で使用される情報を管理してもよい。いくつかの実施形態では、セッションインスタンスは、情報を記憶するように構成される、1つまたはそれを上回るデータ構造を含んでもよい。いくつかの実施形態では、セッションインスタンスは、1つまたはそれを上回るプロセス、サブプロセス、スレッド、および/またはサービスを含んでもよい。いくつかの実施形態では、1つまたはそれを上回るセッションインスタンスは、1つまたはそれを上回る遠隔サーバに記憶されてもよい。いくつかの実施形態では、セッションインスタンスは、(MRデバイスにローカルで、または1つまたはそれを上回る遠隔サーバに)記憶される前に、暗号化されてもよい。
いくつかの実施形態では、セッションインスタンスは、1つまたはそれを上回る能力インスタンスと通信するように構成されてもよい。例えば、セッションインスタンス606bは、能力インスタンス608bおよび608cと通信するように構成されてもよい。能力インスタンスは、1つまたはそれを上回るセッション能力に対応し得る。例えば、能力インスタンス608bは、共有オブジェクト504aに対応し得る。いくつかの実施形態では、能力インスタンスは、情報を記憶するように構成される、1つまたはそれを上回るデータ構造を含んでもよい。いくつかの実施形態では、能力インスタンスは、1つまたはそれを上回るプロセス、サブプロセス、スレッド、および/またはサービスを含んでもよい。
いくつかの実施形態では、能力インスタンスは、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610b等の1つまたはそれを上回るコネクティビティサービスと通信するように構成されることができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610bは、プロセス、サブプロセス、スレッド、および/またはサービスを含むことができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610bは、情報を記憶するように構成される、1つまたはそれを上回るデータ構造を含むことができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610bは、サービス(例えば、バックグラウンドオペレーティングシステムサービス)を含むことができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610bのプロセス、サブプロセス、スレッド、および/またはサービスは、ホストシステムのオペレーティングシステムが起動している間、継続的に起動するように構成されることができる(例えば、バックグラウンドで)。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610bは、親バックグラウンドサービスのインスタンス化を含むことができ、これは、1つまたはそれを上回るバックグラウンドプロセスおよび/またはサブプロセスに対するホストプロセスとしての役割を果たし得る。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610bは、親プロセスのサブプロセスを含むことができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610bは、親プロセスのスレッドを含むことができる。
いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aは、併置セッション内のMRシステム間の短待ち時間通信経路を提供し、リアルタイム仮想オブジェクト併置を有効にすることができる。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aは、ウェブリアルタイム通信(「WebRTC」)の1つまたはそれを上回る実装を含むことができる。例えば、いくつかの実施形態では、データは、短待ち時間通信のために、1つまたはそれを上回るTwilioトラックを介して、伝送されてもよい。いくつかの実施形態では、能力インスタンスは、アプリケーションコネクティビティプラットフォーム610aを利用して、短待ち時間データ(例えば、共有仮想オブジェクトが移動するにつれた関係変換データ)をセッション内のMRシステムに送信する、および/またはそこから受信してもよい。いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aは、他のMRシステム上で起動する、他のアプリケーションコネクティビティプラットフォームと通信するように構成されることができる。
いくつかの実施形態では、協働コア610bは、同時編集のために、データ同期サービスを提供することができる。いくつかの実施形態では、協働コア610bは、編集データを1つまたはそれを上回る能力インスタンスから受信するように構成されることができる。いくつかの実施形態では、協働コア610bは、外部同期サービス(例えば、Firebase)と通信し、セッション内の仮想コンテンツに対する同時編集を同期させるように構成されることができる。
いくつかの実施形態では、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610bは、セッションマネージャ604と通信してもよい。いくつかの実施形態では、セッションマネージャ604は、権限が付与された情報を、直接、アプリケーションコネクティビティプラットフォーム610aおよび/または協働コア610bに提供してもよい(例えば、ユーザ識別データ)。能力インスタンスが、セキュリティリスクを権限が付与されたデータに曝し得る、未知の開発者によって開発され得るため、権限が付与された情報を能力インスタンスから遮蔽することが、有益であり得る。
アプリケーションコネクティビティプラットフォーム610aおよび協働コア610bは、別個のサービスとして描写されるが、また、それぞれによって提供される機能が、単一サービスとして、または2つまたはそれを上回るサービスとして提供され得ることも検討される。
いくつかの実施形態では、セッションマネージャ604は、1つまたはそれを上回る遠隔サーバおよび/または1つまたはそれを上回るMRシステムと通信し、セッションインスタンスを同期させてもよい。例えば、第2のMRシステムが、セッションを開始し、MRシステム602をセッションに参加するように招待してもよい。いくつかの実施形態では、セッションマネージャ604は、新しく加わったセッションに対応する、新しいセッションインスタンスを作成してもよい。いくつかの実施形態では、新しいセッションインスタンスは、第2のMRシステム上のセッションインスタンスのコピーであってもよい。いくつかの実施形態では、セッションインスタンスは、1つまたはそれを上回る遠隔サーバから受信されてもよい。いくつかの実施形態では、セッションインスタンスデータは、1つまたはそれを上回る遠隔サーバに伝送されてもよい(例えば、能力インスタンスが、更新されている場合、更新を他のセッションユーザに伝送することが望ましくあり得る)。いくつかの実施形態では、セッションインスタンスデータは、セッションデータが、保存され、後の時間に再アクセスされ得るように、セッションの終了時(例えば、最後のユーザがセッションから退出するとき)、1つまたはそれを上回る遠隔サーバに伝送されることができる。いくつかの実施形態では、セッションマネージャおよび/またはセッションインスタンスは、1つまたはそれを上回るサービス(例えば、アプリケーションコネクティビティプラットフォーム610aによって提供される1つまたはそれを上回るサービス)と通信し、セッションインスタンスデータを他のセッションインスタンス(別のMRシステムまたは遠隔サーバに記憶され得る)と同期させてもよい。いくつかの実施形態では、セッションマネージャおよび/またはセッションインスタンスは、1つまたはそれを上回るサービスと通信し、リアルタイムおよび/または短待ち時間通信リンクを1つまたはそれを上回る遠隔エンドポイント(例えば、セッション内の他のMRシステム)と確立してもよい。
図7は、いくつかの実施形態による、例示的セッションインスタンスアーキテクチャを図示する。いくつかの実施形態では、セッションインスタンス702は、セッションインスタンス604aおよび/または604bに対応し得る。いくつかの実施形態では、セッションインスタンス702は、1つまたはそれを上回るデータ構造を含むことができ、これは、1つまたはそれを上回る付加的データ構造(例えば、能力モジュール704、参加者モジュール708、場所モジュール712、および/または存在モジュール716)を記憶するように構成されることができる。能力モジュール704は、セッション内の1つまたはそれを上回る能力インスタンスに対応する、データおよび/またはデータ構造を管理してもよい。例えば、インスタンス706aは、仮想オブジェクトに対応し得る。いくつかの実施形態では、インスタンス706aは、変換データを含んでもよく、これは、仮想オブジェクトの位置を持続座標データおよび/または1つまたはそれを上回るセッションハンドル場所に関連させてもよい。いくつかの実施形態では、インスタンス706aは、協働コアサービスへの1つまたはそれを上回る参照を含んでもよい。いくつかの実施形態では、協働コアサービスへの参照は、変更がユーザによってインスタンス706aに行われる場合、インスタンス706aが、適切に通知および/または更新されることを可能にし得る。いくつかの実施形態では、インスタンス706aは、アプリケーションコネクティビティプラットフォームデータ(例えば、データが送信されるべき場所、使用されるべきパイプ等)を含んでもよい。いくつかの実施形態では、能力モジュール704は、1つまたはそれを上回る能力インスタンス(例えば、能力インスタンス608a)と通信するように構成されてもよい。
いくつかの実施形態では、セッションインスタンス702は、参加者モジュール708を含んでもよい。参加者モジュール708は、セッション内の1人またはそれを上回るユーザに対応する、データおよび/またはデータ構造を管理してもよい。例えば、ユーザ710aは、ユーザによって使用されるMRシステムに関する識別子を含んでもよい。いくつかの実施形態では、ユーザ710aは、アバタデータ(例えば、外観、サイズ、色等)を含んでもよい。いくつかの実施形態では、ユーザ710aは、場所データを含んでもよい。いくつかの実施形態では、場所データは、GPSデータ、WiFiデータ、セルラーデータ、持続座標データ等を含むことができる。
いくつかの実施形態では、セッションインスタンス702は、場所モジュール712を含んでもよい。場所モジュール712は、セッション内の1つまたはそれを上回る場所に対応する、データおよび/またはデータ構造を管理してもよい。例えば、場所714aは、持続座標データ、変換データ、床平面に対応するデータ等を含んでもよい。いくつかの実施形態では、場所714aは、ユーザ場所に対応し得る。いくつかの実施形態では、場所714aは、セッションハンドル場所に対応し得る。
いくつかの実施形態では、セッションインスタンス702は、存在モジュール716を含んでもよい。存在モジュール716は、1人またはそれを上回るユーザのローカルおよび/または遠隔ステータスに対応する、データおよび/またはデータ構造を管理してもよい。例えば、インスタンス718aは、第1のユーザが、第2のユーザから遠隔であって、第3のユーザが、第2のユーザにローカルであることを示し得る。いくつかの実施形態では、インスタンス718aは、(例えば、アプリケーションコネクティビティプラットフォーム610aを使用する)ユーザ間の通信のために使用される、データを含んでもよい。
3Dオブジェクト注釈
MR協働は、特に、3D仮想コンテンツ作成のために有用であり得る。仮想オブジェクト持続性を活用することによって、MRシステムは、ユーザに、仮想コンテンツが実際のものであるかのように、仮想コンテンツが見えることを可能にし得る。例えば、仮想オブジェクトは、実テーブル上に静置されるように表示されてもよい。いくつかの実施形態では、ユーザは、仮想オブジェクトが実際にテーブル上に鎮座しているかのように、テーブルの周囲を歩き回り、仮想オブジェクトを異なる角度から観察し得る。仮想コンテンツを自然に視認および/またはそれと相互作用する、本能力は、他の方法より優れ得る。例えば、3Dモデルを2D画面上で視認することは、いくつかの次善策を要求し得る。ユーザは、コンピュータマウスを使用して、3Dモデルをドラッグし、異なる視認角度を表示する必要があり得る。しかしながら、3Dコンテンツを2D画面上に表示することの本質に起因して、そのような体験は、3Dコンテンツが意図するものではない方法でビューを変更させ得るため、煩わしくあり得る。いくつかの実施形態では、MRシステムはまた、複数のユーザが、3Dコンテンツ上で協働することを可能にしてもよい。例えば、同一3Dコンテンツ上で作業する、2人のユーザが、MRシステムを使用して、3次元空間内に投影された3Dコンテンツを視認してもよい。いくつかの実施形態では、3Dコンテンツは、MRシステムの両方のユーザのために同一方法で同期され、および/または位置付けられてもよい。ユーザは、次いで、3Dコンテンツの側面を参照し、動き回り、異なる角度で視認すること等によって、協働してもよい。いくつかの実施形態では、仮想コンテンツへの注釈は、リアルタイムで協働するユーザに利用可能にされることができる。例えば、第1のユーザは、仮想マークアップおよび/または注解を仮想コンテンツに追加してもよく、第2のユーザには、第1のユーザがそれらを作成するにつれて、仮想マークアップおよび/または注解が見え得る。したがって、3Dオブジェクト上でのリアルタイム協働を有効にするためのシステムおよび方法を開発することが有益であり得る。
図8は、いくつかの実施形態による、例示的複合現実協働セッションを図示する。いくつかの実施形態では、ユーザ802および804は、1つまたはそれを上回るMRシステム(例えば、MRシステム806であって、これは、MRシステム112、200に対応し得る)を使用して、3D仮想コンテンツ上で協働してもよい。いくつかの実施形態では、ユーザ802および804は、セッションを利用して、仮想コンテンツを表示および/またはその上で協働してもよい。例えば、仮想モデル808は、ユーザ802および804に提示されてもよい。いくつかの実施形態では、仮想モデル808は、同一位置(例えば、場所および/または配向)において、ユーザ802および804に提示されることができる。いくつかの実施形態では、仮想モデル808が、同一セッションハンドルを使用して、ユーザ802および804に提示されることができる。いくつかの実施形態では、仮想モデル808は、能力インスタンスによって管理されてもよい。いくつかの実施形態では、仮想モデル808の性質は、能力インスタンス内に記憶され、および/またはそれによって管理されることができる。いくつかの実施形態では、能力インスタンスは、セッションインスタンス内に記憶され、および/またはそれによって管理されることができる。
いくつかの実施形態では、ユーザ802は、仮想モデル808に注釈を付けてもよい(例えば、仮想マークアップを作成し、および/または仮想注解を追加することによって)。例えば、ユーザ802は、仮想マークアップ812を作成してもよく、これは、カフェが仮想モデル808内のある場所に設置され得ることを示し得る。いくつかの実施形態では、ユーザ804には、仮想マークアップ812が見え得る。いくつかの実施形態では、ユーザ804には、ユーザ802が仮想マークアップ812を作成するにつれて、仮想マークアップ812が見え得る。いくつかの実施形態では、ユーザ804には、ユーザ802に仮想マークアップ812が見える場所と同一場所において、仮想マークアップ812が見え得る。いくつかの実施形態では、ユーザ802は、1つまたはそれを上回る仮想注解を作成することができる。いくつかの実施形態では、仮想注解は、場所インジケータ814および/または注解吹き出し816を含むことができる。いくつかの実施形態では、注解吹き出し816は、場所インジケータ814に対応する、視覚的インジケータを含むことができる(例えば、注解吹き出し816および場所インジケータ814は、数を共有することができる)。いくつかの実施形態では、場所インジケータ814は、ユーザ802に提示される場所と同一位置において(例えば、実世界に対して、および/または他の仮想コンテンツに対して)、ユーザ804に提示されてもよい。いくつかの実施形態では、注解吹き出し816は、異なるユーザのために異なる位置に提示されることができる。例えば、注解吹き出し816は、ユーザ802に面するように、ユーザ802に提示されてもよく、注解吹き出し816は、ユーザ804に面するように、ユーザ804に提示されてもよい。いくつかの実施形態では、注解吹き出し816は、ユーザが異なる場所を見るにつれて、ユーザに継続的に面するように構成されてもよい。いくつかの実施形態では、注解吹き出し816は、セッションの複数のユーザ(例えば、全てのローカルユーザ)のために、同一位置に提示されることができる。
いくつかの実施形態では、仮想注釈に対応する、データが、能力インスタンス(例えば、能力インスタンス608c)からセッションインスタンス(例えば、セッションインスタンス606b)に伝送されてもよい。いくつかの実施形態では、仮想注釈に対応する、データが、能力インスタンスから協働コア610bに伝送されてもよい。いくつかの実施形態では、協働コア610bは、仮想注釈に対応する、データを、1つまたはそれを上回る遠隔サーバ(例えば、データ同期および/または同期競合をハンドリングするように構成される、1つまたはそれを上回る遠隔サーバ)に伝送してもよい。いくつかの実施形態では、1つまたはそれを上回る遠隔サーバは、仮想注釈に対応する、データを、他のセッションユーザに伝送してもよい。いくつかの実施形態では、仮想注釈に対応する、データは、セッションインスタンス内に記憶されることができる。いくつかの実施形態では、セッションインスタンスは、閉じられ、再び開かれることができ、1つまたはそれを上回る能力インスタンス(例えば、仮想モデル808および/または仮想マークアップ812)は、ユーザにロードおよび/または表示されることができる。
いくつかの実施形態では、ユーザ802は、ユーザ804から遠隔に存在してもよい。例えば、ユーザ802は、第1の部屋内に存在してもよく、ユーザ804は、第1の部屋と異なる、第2の部屋内に存在してもよい。いくつかの実施形態では、ユーザ802および804は、セッションインスタンスを使用して、仮想モデル808上で協働してもよい。いくつかの実施形態では、ユーザ802には、第1の部屋内の仮想モデル808が見え得、ユーザ804には、第2の部屋内の仮想モデル808が見え得る。いくつかの実施形態では、仮想モデル808は、ユーザ802のための第1のセッションハンドルに対して提示されてもよく、仮想モデル808は、ユーザ804のための第2のセッションハンドルに対して提示されてもよい。いくつかの実施形態では、1人のユーザ(例えば、ユーザ802)によって行われる仮想注釈は、全てのセッションユーザ(例えば、ユーザ804)に可視であってもよい。
図9は、いくつかの実施形態による、例示的注釈メニューを図示する。いくつかの実施形態では、ユーザ902は、MRシステム904を使用して、仮想オブジェクト906を視認してもよい。いくつかの実施形態では、MRシステム904は、注釈メニュー908を表示してもよく、これは、ユーザ902が、仮想オブジェクト906に注釈を付けることを可能にしてもよい。いくつかの実施形態では、MRシステム904は、ユーザ902が面しているその方向にかかわらず、ユーザ902に面するように、注釈メニュー908を動的に表示してもよい。例えば、ユーザ902が、オブジェクト906の周囲を動き回るにつれて、注釈メニュー908は、完全メニューがユーザ902に可視であり得るように、回転してもよい。注釈メニュー908がユーザ902に対して角度を付けられて表示される場合、ユーザ902が注釈メニュー908上のオプションを選択することが困難であり得るため(例えば、注釈メニュー908上のボタン有効可視面積が、小さすぎて、ユーザ902が、識別および/または選択することができない場合があり得るため)、注釈メニュー908を動的に配向することが望ましくあり得る。いくつかの実施形態でが、メニュー908のための所望される配向は、ユーザ902の頭部の位置(例えば、場所および/または配向)を決定することによって決定されることができる。いくつかの実施形態では、メニュー908は、メニュー908の法線ベクトルがユーザ902に指向されるように、配向されることができる。いくつかの実施形態では、MRシステム904は、対応する仮想オブジェクト(例えば、仮想オブジェクト906)に近接して、注釈メニュー908を表示してもよい。
いくつかの実施形態では、MRシステム904は、注釈メニュー908が仮想オブジェクト906によってオクルードされ得ないように、注釈メニュー908を表示してもよい。例えば、注釈メニュー908が、オブジェクト906の正面に表示され、ユーザ902が、オブジェクト906の対向側に移動する場合、注釈メニュー908は、全体的または部分的に、オブジェクト906によってオクルードされ得る。対応する仮想オブジェクト(例えば、メニュー908を使用して注釈が付けられている、仮想オブジェクト)が、注釈メニュー908をオクルードし得ないように、注釈メニュー908を動的に再位置付けすることが望ましくあり得る(例えば、対応する仮想オブジェクトによってオクルードされる場合、ユーザ902がメニュー908と相互作用することが不可能である場合があるため)。いくつかの実施形態では、オクルージョンは、仮想オブジェクト906(および/または仮想オブジェクト906と関連付けられるプリズム)がユーザ902と注釈メニュー908との間の直接経路と交差するかどうかを決定することによって決定されてもよい。
注釈メニュー908は、仮想オブジェクトに注釈を付けるためのいくつかの特徴を有することができる。例えば、注釈メニュー908は、仮想描画ボタンを含むことができる。いくつかの実施形態では、仮想描画ボタンは、描画モードをトグルすることができ、これは、ユーザが、仮想マークアップを仮想オブジェクト上および/またはその周囲に作成することを可能にしてもよい。いくつかの実施形態では、描画モードにおいて作成された仮想マークアップは、他のセッションユーザに可視であってもよい。いくつかの実施形態では、注釈メニュー908は、仮想削除ボタンを含むことができる。いくつかの実施形態では、仮想削除ボタンは、選択された仮想オブジェクトおよび/または仮想マークアップを削除してもよい。いくつかの実施形態では、注釈メニュー908は、仮想注解ボタンを含むことができる。いくつかの実施形態では、仮想注解ボタンは、ユーザが、仮想注解のための場所インジケータを設置し、および/または仮想注解を追加することを可能にしてもよい。いくつかの実施形態では、注釈メニュー908は、仮想色選定ボタンを含むことができる。いくつかの実施形態では、仮想色選定ボタンを選択することは、ユーザが、仮想マークアップのための色を選択することを可能にしてもよい。いくつかの実施形態では、注釈メニュー908は、仮想サイズトグルボタンを含むことができる。いくつかの実施形態では、仮想サイズトグルボタンを選択することは、仮想オブジェクトが実物大で表示されるかどうかをトグルすることができる。例えば、3Dモデルは、寸法等のパラメータを含んでもよい。いくつかの実施形態では、MRシステムは、3Dモデルを修正されたサイズに表示し、3Dモデルを容易に視認可能にしてもよい。例えば、建物の3Dモデルが、最初に、ユーザに3Dモデルの全体が容易に見え得るように、その真の寸法よりはるかに小さいようにユーザに提示され得る。いくつかの実施形態では、注釈メニュー908は、仮想注釈可視性ボタンを含むことができる。いくつかの実施形態では、仮想注釈可視性ボタンを選択することは、仮想オブジェクトに対応する、注釈(例えば、仮想マークアップおよび/または仮想注解)の可視性をトグルしてもよい(例えば、ディスプレイは、表示する場合とそうではない場合がある)。いくつかの実施形態では、注釈メニュー908は、仮想クリアボタンを含むことができる。いくつかの実施形態では、仮想クリアボタンを選択することは、仮想オブジェクトに対応する、全ての仮想注釈を除去することができる。
いくつかの実施形態では、ユーザ902は、仮想オブジェクト906を移動させてもよい。例えば、ユーザ902は、ハンドヘルドコントローラ910(ハンドヘルドコントローラ300に対応し得る)および仮想選択ビーム912を使用して、仮想オブジェクト906を選択し、仮想オブジェクト906を新しい位置にドラッグしてもよい。いくつかの実施形態では、注釈メニュー908は、仮想オブジェクト906とともに移動し、仮想オブジェクト906に対する相対的位置を維持してもよい。
図10は、いくつかの実施形態による、複合現実注釈の実施例を図示する。いくつかの実施形態では、仮想オブジェクト1002は、プリズムであってもよく、1つまたはそれを上回る仮想オブジェクト(例えば、仮想オブジェクト1004)をその中に含んでもよい。いくつかの実施形態では、プリズムは、含まれる仮想オブジェクトの境界体積および/またはパラメータを含んでもよい。いくつかの実施形態では、仮想オブジェクト1012は、プリズムを含むことができ、これは、注釈メニュー(注釈メニュー908に対応し得る)を含んでもよい。いくつかの実施形態では、仮想オブジェクト1012は、プリズム1002と交差しなくてもよい(例えば、オブジェクト1004は、注釈メニュー1012のビューを不明瞭にし得、これが、ユーザが注釈メニュー1012と相互作用することを妨害し得るため)。
いくつかの実施形態では、ユーザは、場所インジケータ1008を選択してもよく、これは、仮想オブジェクト1002および/または1004上および/またはその近傍に表示されてもよい。いくつかの実施形態では、場所インジケータ1008を選択することは、仮想オブジェクト1010をユーザに表示させてもよい。仮想オブジェクト1010は、プリズムを含むことができ、これは、仮想注解吹き出しを含んでもよい。いくつかの実施形態では、仮想オブジェクト1010は、場所インジケータ1008の近傍に表示されることができる。いくつかの実施形態では、仮想オブジェクト1010は、仮想オブジェクト1002と交差しなくてもよい(例えば、仮想注解吹き出しのビューを不明瞭にし得るため)。いくつかの実施形態では、仮想オブジェクト1012および/または1010は、ユーザが環境を動き回るにつれて、ユーザに継続的に面してもよい。いくつかの実施形態では、仮想オブジェクト1012および/または1010は、そのビューが遮られた状態になる場合(例えば、仮想オブジェクト1002がユーザから仮想オブジェクト1010に対するビューを遮るように、ユーザが移動する場合)、自ら再位置付けしてもよい。
図11は、いくつかの実施形態による、複合現実注釈の実施例を図示する。いくつかの実施形態では、仮想オブジェクト1108(プリズムを含んでもよい)は、非常に大きくあることができる(例えば、含まれる仮想オブジェクト1102が非常に大きいため)。いくつかの実施形態では、仮想オブジェクト1104は、別の仮想オブジェクト(例えば、仮想オブジェクト1108)内に表示されてもよい。例えば、仮想オブジェクト1108は、仮想オブジェクト1102の境界プリズムを含んでもよいが、仮想オブジェクト1102のサイズのため、有意な空間が、仮想オブジェクト1102が他の仮想オブジェクトの視覚を遮らない場所に存在し得る。いくつかの実施形態では、仮想オブジェクト1104は、仮想注解吹き出しを含むことができ、これに対して、ユーザは、テキストをその中に打ち込んでもよい。いくつかの実施形態では、仮想キーボード1106が、ユーザが仮想注解吹き出しを編集する際に表示されてもよい。いくつかの実施形態では、仮想キーボード1106は、対応する仮想注解吹き出しに近接して表示されてもよい。例えば、ユーザは、注解吹き出し1104を編集してもよく、仮想キーボード1106は、吹き出し1104の近傍に表示されてもよい(例えば、注解吹き出し1106の代わりに)。ユーザが編集している仮想注解吹き出しを視覚的に示すことが、有益であり得る(例えば、キーボードを対応する注解吹き出しの近くに表示することによって)。
例示的システム、方法、およびコンピュータ可読媒体が、開示される。いくつかの実施例によると、システムは、透過型ディスプレイを備える、ウェアラブルデバイスと、ウェアラブルデバイスの透過型ディスプレイを介して、第1の位置において、仮想オブジェクトを第1のユーザを提示することと、第1の入力を第1のユーザから受信することと、第1の入力の受信に応答して、透過型ディスプレイを介して、第1の位置から第1の変位において、仮想注釈を提示することと、第1のデータを第2のユーザに伝送することであって、第1のデータは、仮想注釈および第1の変位と関連付けられる、ことと、第2の入力を第2のユーザから受信することと、第2の入力の受信に応答して、透過型ディスプレイを介して、第1の位置から第2の変位において、仮想注釈を第1のユーザに提示することと、第2のデータを遠隔サーバに伝送することであって、第2のデータは、仮想オブジェクト、仮想注釈、第2の変位、および第1の位置と関連付けられる、こととを含む、方法を実行するように構成される、1つまたはそれを上回るプロセッサとを備える。いくつかの実施例では、仮想オブジェクトは、ウェアラブルデバイス上で起動されるように構成される、第1のアプリケーションに基づいて提示され、仮想注釈は、プラグインライブラリからのデータに基づいて提示され、プラグインライブラリは、ウェアラブルデバイス上で起動されるように構成される、複数のアプリケーションによってアクセスされるように構成される。いくつかの実施例では、第2のデータは、第1の時間に伝送され、本方法はさらに、セッションインスタンスから退出することであって、セッションインスタンスは、第2のデータを記憶するように構成される、ことと、第3の入力を第1のユーザから受信することと、第3の入力の受信に応答して、第2のデータを要求することと、第1の時間より後の第2の時間において、第1の位置に、仮想オブジェクトを第1のユーザに提示することと、第2の時間において、第1の位置からの第2の変位において、仮想注釈を第1のユーザに提示することとを含む。いくつかの実施例では、注釈は、仮想マークアップを備える。いくつかの実施例では、仮想オブジェクトは、第1のサイズで提示され、仮想オブジェクトは、標的寸法データを備え、本方法はさらに、第3の入力を第1のユーザから受信することと、第3の入力の受信に応答して、第2のサイズにおいて、仮想オブジェクトを第1のユーザに提示することであって、第2のサイズは、標的寸法データと関連付けられる、ことと、第3のデータを第2のユーザに伝送することであって、第3のデータは、第2のサイズと関連付けられる、こととを含む。いくつかの実施例では、本方法はさらに、第3の入力を第1のユーザから受信することと、第3の入力の受信に応答して、仮想場所インジケータを第1のユーザに提示することであって、仮想場所インジケータは、仮想注解と関連付けられる、ことと、第3のデータを第2のユーザに伝送することであって、第3のデータは、仮想場所インジケータと関連付けられる、こととを含む。いくつかの実施例では、本方法はさらに、透過型ディスプレイを介して、仮想注釈メニューを第1のユーザに提示することと、仮想注釈メニューが仮想オブジェクトによってオクルードされないように、仮想注釈メニューを再位置付けすることとを含む。
いくつかの実施例によると、方法は、ウェアラブルデバイスの透過型ディスプレイを介して、第1の位置において、仮想オブジェクトを第1のユーザを提示することと、第1の入力を第1のユーザから受信することと、第1の入力の受信に応答して、透過型ディスプレイを介して、第1の位置から第1の変位において、仮想注釈を提示することと、第1のデータを第2のユーザに伝送することであって、第1のデータは、仮想注釈および第1の変位と関連付けられる、ことと、第2の入力を第2のユーザから受信することと、第2の入力の受信に応答して、透過型ディスプレイを介して、第1の位置から第2の変位において、仮想注釈を第1のユーザに提示することと、第2のデータを遠隔サーバに伝送することであって、第2のデータは、仮想オブジェクト、仮想注釈、第2の変位、および第1の位置と関連付けられる、こととを含む。いくつかの実施例では、仮想オブジェクトは、ウェアラブルデバイス上で起動されるように構成される、第1のアプリケーションに基づいて提示され、仮想注釈は、プラグインライブラリからのデータに基づいて提示され、プラグインライブラリは、ウェアラブルデバイス上で起動されるように構成される、複数のアプリケーションによってアクセスされるように構成される。いくつかの実施例では、第2のデータは、第1の時間に伝送され、本方法はさらに、セッションインスタンスから退出することであって、セッションインスタンスは、第2のデータを記憶するように構成される、ことと、第3の入力を第1のユーザから受信することと、第3の入力の受信に応答して、第2のデータを要求することと、第1の時間より後の第2の時間において、第1の位置に、仮想オブジェクトを第1のユーザに提示することと、第2の時間において、第1の位置からの第2の変位において、仮想注釈を第1のユーザに提示することとを含む。いくつかの実施例では、注釈は、仮想マークアップを備える。いくつかの実施例では、仮想オブジェクトは、第1のサイズで提示され、仮想オブジェクトは、標的寸法データを備え、本方法はさらに、第3の入力を第1のユーザから受信することと、第3の入力の受信に応答して、第2のサイズにおいて、仮想オブジェクトを第1のユーザに提示することであって、第2のサイズは、標的寸法データと関連付けられる、ことと、第3のデータを第2のユーザに伝送することであって、第3のデータは、第2のサイズと関連付けられる、こととを含む。いくつかの実施例では、本方法はさらに、第3の入力を第1のユーザから受信することと、第3の入力の受信に応答して、仮想場所インジケータを第1のユーザに提示することであって、仮想場所インジケータは、仮想注解と関連付けられる、ことと、第3のデータを第2のユーザに伝送することであって、第3のデータは、仮想場所インジケータと関連付けられる、こととを含む。いくつかの実施例では、本方法はさらに、透過型ディスプレイを介して、仮想注釈メニューを第1のユーザに提示することと、仮想注釈メニューが仮想オブジェクトによってオクルードされないように、仮想注釈メニューを再位置付けすることとを含む。
いくつかの実施例によると、非一過性コンピュータ可読媒体は、1つまたはそれを上回るプロセッサによって実行されると、1つまたはそれを上回るプロセッサに、ウェアラブルデバイスの透過型ディスプレイを介して、第1の位置において、仮想オブジェクトを第1のユーザを提示することと、第1の入力を第1のユーザから受信することと、第1の入力の受信に応答して、透過型ディスプレイを介して、第1の位置から第1の変位において、仮想注釈を提示することと、第1のデータを第2のユーザに伝送することであって、第1のデータは、仮想注釈および第1の変位と関連付けられる、ことと、第2の入力を第2のユーザから受信することと、第2の入力の受信に応答して、透過型ディスプレイを介して、第1の位置から第2の変位において、仮想注釈を第1のユーザに提示することと、第2のデータを遠隔サーバに伝送することであって、第2のデータは、仮想オブジェクト、仮想注釈、第2の変位、および第1の位置と関連付けられる、こととを含む、方法を実行させる、命令を記憶する。いくつかの実施例では、仮想オブジェクトは、ウェアラブルデバイス上で起動されるように構成される、第1のアプリケーションに基づいて提示され、仮想注釈は、プラグインライブラリからのデータに基づいて提示され、プラグインライブラリは、ウェアラブルデバイス上で起動されるように構成される、複数のアプリケーションによってアクセスされるように構成される。いくつかの実施例では、第2のデータは、第1の時間に伝送され、本方法はさらに、セッションインスタンスから退出することであって、セッションインスタンスは、第2のデータを記憶するように構成される、ことと、第3の入力を第1のユーザから受信することと、第3の入力の受信に応答して、第2のデータを要求することと、第1の時間より後の第2の時間において、第1の位置に、仮想オブジェクトを第1のユーザに提示することと、第2の時間において、第1の位置からの第2の変位において、仮想注釈を第1のユーザに提示することとを含む。いくつかの実施例では、注釈は、仮想マークアップを備える。いくつかの実施例では、仮想オブジェクトは、第1のサイズで提示され、仮想オブジェクトは、標的寸法データを備え、本方法はさらに、第3の入力を第1のユーザから受信することと、第3の入力の受信に応答して、第2のサイズにおいて、仮想オブジェクトを第1のユーザに提示することであって、第2のサイズは、標的寸法データと関連付けられる、ことと、第3のデータを第2のユーザに伝送することであって、第3のデータは、第2のサイズと関連付けられる、こととを含む。いくつかの実施例では、本方法はさらに、第3の入力を第1のユーザから受信することと、第3の入力の受信に応答して、仮想場所インジケータを第1のユーザに提示することであって、仮想場所インジケータは、仮想注解と関連付けられる、ことと、第3のデータを第2のユーザに伝送することであって、第3のデータは、仮想場所インジケータと関連付けられる、こととを含む。いくつかの実施例では、本方法はさらに、透過型ディスプレイを介して、仮想注釈メニューを第1のユーザに提示することと、仮想注釈メニューが仮想オブジェクトによってオクルードされないように、仮想注釈メニューを再位置付けすることとを含む。
開示される実施例は、付随の図面を参照して完全に説明されたが、種々の変更および修正が、当業者に明白となるであろうことに留意されたい。例えば、1つまたはそれを上回る実装の要素は、組み合わせられ、削除され、修正され、または補完され、さらなる実装を形成してもよい。そのような変更および修正は、添付の請求項によって定義されるような開示される実施例の範囲内に含まれるものとして理解されるべきである。
Claims (20)
- システムであって、
透過型ディスプレイを備えるウェアラブルデバイスと、
1つまたはそれを上回るプロセッサであって、
前記ウェアラブルデバイスの前記透過型ディスプレイを介して、第1の位置において、仮想オブジェクトを第1のユーザを提示することと、
第1の入力を前記第1のユーザから受信することと、
前記第1の入力の受信に応答して、前記透過型ディスプレイを介して、前記第1の位置から第1の変位において、仮想注釈を提示することと、
第1のデータを第2のユーザに伝送することであって、前記第1のデータは、前記仮想注釈および前記第1の変位と関連付けられる、ことと、
第2の入力を前記第2のユーザから受信することと、
前記第2の入力の受信に応答して、前記透過型ディスプレイを介して、前記第1の位置から第2の変位において、前記仮想注釈を前記第1のユーザに提示することと、
第2のデータを遠隔サーバに伝送することであって、前記第2のデータは、前記仮想オブジェクト、前記仮想注釈、前記第2の変位、および前記第1の位置と関連付けられる、ことと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。 - 前記仮想オブジェクトは、前記ウェアラブルデバイス上で起動されるように構成される第1のアプリケーションに基づいて提示され、前記仮想注釈は、プラグインライブラリからのデータに基づいて提示され、前記プラグインライブラリは、前記ウェアラブルデバイス上で起動されるように構成される複数のアプリケーションによってアクセスされるように構成される、請求項1に記載のシステム。
- 前記第2のデータは、第1の時間に伝送され、前記方法はさらに、
セッションインスタンスから退出することであって、前記セッションインスタンスは、前記第2のデータを記憶するように構成される、ことと、
第3の入力を前記第1のユーザから受信することと、
前記第3の入力の受信に応答して、前記第2のデータを要求することと、
前記第1の時間より後の第2の時間において、前記第1の位置に、前記仮想オブジェクトを前記第1のユーザに提示することと、
前記第2の時間において、前記第1の位置からの前記第2の変位において、前記仮想注釈を前記第1のユーザに提示することと
を含む、請求項1に記載のシステム。 - 前記注釈は、仮想マークアップを備える、請求項1に記載のシステム。
- 前記仮想オブジェクトは、第1のサイズで提示され、前記仮想オブジェクトは、標的寸法データを備え、前記方法はさらに、
第3の入力を前記第1のユーザから受信することと、
前記第3の入力の受信に応答して、第2のサイズにおいて、前記仮想オブジェクトを前記第1のユーザに提示することであって、前記第2のサイズは、前記標的寸法データと関連付けられる、ことと、
第3のデータを前記第2のユーザに伝送することであって、前記第3のデータは、前記第2のサイズと関連付けられる、ことと
を含む、請求項1に記載のシステム。 - 前記方法はさらに、
第3の入力を前記第1のユーザから受信することと、
前記第3の入力の受信に応答して、前記仮想場所インジケータを前記第1のユーザに提示することであって、前記仮想場所インジケータは、仮想注解と関連付けられる、ことと、
第3のデータを前記第2のユーザに伝送することであって、前記第3のデータは、前記仮想場所インジケータと関連付けられる、ことと
を含む、請求項1に記載のシステム。 - 前記方法はさらに、
前記透過型ディスプレイを介して、仮想注釈メニューを前記第1のユーザに提示することと、
前記仮想注釈メニューが前記仮想オブジェクトによってオクルードされないように、前記仮想注釈メニューを再位置付けすることと
を含む、請求項1に記載のシステム。 - 方法であって、
ウェアラブルデバイスの透過型ディスプレイを介して、第1の位置において、仮想オブジェクトを第1のユーザを提示することと、
第1の入力を前記第1のユーザから受信することと、
前記第1の入力の受信に応答して、前記透過型ディスプレイを介して、前記第1の位置から第1の変位において、仮想注釈を提示することと、
第1のデータを第2のユーザに伝送することであって、前記第1のデータは、前記仮想注釈および前記第1の変位と関連付けられる、ことと、
第2の入力を前記第2のユーザから受信することと、
前記第2の入力の受信に応答して、前記透過型ディスプレイを介して、前記第1の位置から第2の変位において、前記仮想注釈を前記第1のユーザに提示することと、
第2のデータを遠隔サーバに伝送することであって、前記第2のデータは、前記仮想オブジェクト、前記仮想注釈、前記第2の変位、および前記第1の位置と関連付けられる、ことと
を含む、方法。 - 前記仮想オブジェクトは、前記ウェアラブルデバイス上で起動されるように構成される第1のアプリケーションに基づいて提示され、前記仮想注釈は、プラグインライブラリからのデータに基づいて提示され、前記プラグインライブラリは、前記ウェアラブルデバイス上で起動されるように構成される複数のアプリケーションによってアクセスされるように構成される、請求項8に記載の方法。
- 前記第2のデータは、第1の時間に伝送され、前記方法はさらに、
セッションインスタンスから退出することであって、前記セッションインスタンスは、前記第2のデータを記憶するように構成される、ことと、
第3の入力を前記第1のユーザから受信することと、
前記第3の入力の受信に応答して、前記第2のデータを要求することと、
前記第1の時間より後の第2の時間において、前記第1の位置に、前記仮想オブジェクトを前記第1のユーザに提示することと、
前記第2の時間において、前記第1の位置からの前記第2の変位において、前記仮想注釈を前記第1のユーザに提示することと
を含む、請求項8に記載の方法。 - 前記注釈は、仮想マークアップを備える、請求項8に記載の方法。
- 前記仮想オブジェクトは、第1のサイズで提示され、前記仮想オブジェクトは、標的寸法データを備え、前記方法はさらに、
第3の入力を前記第1のユーザから受信することと、
前記第3の入力の受信に応答して、第2のサイズにおいて、前記仮想オブジェクトを前記第1のユーザに提示することであって、前記第2のサイズは、前記標的寸法データと関連付けられる、ことと、
第3のデータを前記第2のユーザに伝送することであって、前記第3のデータは、前記第2のサイズと関連付けられる、ことと
を含む、請求項8に記載の方法。 - 第3の入力を前記第1のユーザから受信することと、
前記第3の入力の受信に応答して、前記仮想場所インジケータを前記第1のユーザに提示することであって、前記仮想場所インジケータは、仮想注解と関連付けられる、ことと、
第3のデータを前記第2のユーザに伝送することであって、前記第3のデータは、前記仮想場所インジケータと関連付けられる、ことと
をさらに含む、請求項8に記載の方法。 - 前記透過型ディスプレイを介して、仮想注釈メニューを前記第1のユーザに提示することと、
前記仮想注釈メニューが前記仮想オブジェクトによってオクルードされないように、前記仮想注釈メニューを再位置付けすることと
をさらに含む、請求項8に記載の方法。 - 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ウェアラブルデバイスの透過型ディスプレイを介して、第1の位置において、仮想オブジェクトを第1のユーザを提示することと、
第1の入力を前記第1のユーザから受信することと、
前記第1の入力の受信に応答して、前記透過型ディスプレイを介して、前記第1の位置から第1の変位において、仮想注釈を提示することと、
第1のデータを第2のユーザに伝送することであって、前記第1のデータは、前記仮想注釈および前記第1の変位と関連付けられる、ことと、
第2の入力を前記第2のユーザから受信することと、
前記第2の入力の受信に応答して、前記透過型ディスプレイを介して、前記第1の位置から第2の変位において、前記仮想注釈を前記第1のユーザに提示することと、
第2のデータを遠隔サーバに伝送することであって、前記第2のデータは、前記仮想オブジェクト、前記仮想注釈、前記第2の変位、および前記第1の位置と関連付けられる、ことと
を含む方法を実行させる、非一過性コンピュータ可読媒体。 - 前記仮想オブジェクトは、前記ウェアラブルデバイス上で起動されるように構成される第1のアプリケーションに基づいて提示され、前記仮想注釈は、プラグインライブラリからのデータに基づいて提示され、前記プラグインライブラリは、前記ウェアラブルデバイス上で起動されるように構成される複数のアプリケーションによってアクセスされるように構成される、請求項15に記載の非一過性コンピュータ可読媒体。
- 前記第2のデータは、第1の時間に伝送され、前記方法はさらに、
セッションインスタンスから退出することであって、前記セッションインスタンスは、前記第2のデータを記憶するように構成される、ことと、
第3の入力を前記第1のユーザから受信することと、
前記第3の入力の受信に応答して、前記第2のデータを要求することと、
前記第1の時間より後の第2の時間において、前記第1の位置に、前記仮想オブジェクトを前記第1のユーザに提示することと、
前記第2の時間において、前記第1の位置からの前記第2の変位において、前記仮想注釈を前記第1のユーザに提示することと
を含む、請求項15に記載の非一過性コンピュータ可読媒体。 - 前記注釈は、仮想マークアップを備える、請求項15に記載の非一過性コンピュータ可読媒体。
- 前記仮想オブジェクトは、第1のサイズで提示され、前記仮想オブジェクトは、標的寸法データを備え、前記方法はさらに、
第3の入力を前記第1のユーザから受信することと、
前記第3の入力の受信に応答して、第2のサイズにおいて、前記仮想オブジェクトを前記第1のユーザに提示することであって、前記第2のサイズは、前記標的寸法データと関連付けられる、ことと、
第3のデータを前記第2のユーザに伝送することであって、前記第3のデータは、前記第2のサイズと関連付けられる、ことと
を含む、請求項15に記載の非一過性コンピュータ可読媒体。 - 前記方法はさらに、
第3の入力を前記第1のユーザから受信することと、
前記第3の入力の受信に応答して、前記仮想場所インジケータを前記第1のユーザに提示することであって、前記仮想場所インジケータは、仮想注解と関連付けられる、ことと、
第3のデータを前記第2のユーザに伝送することであって、前記第3のデータは、前記仮想場所インジケータと関連付けられる、ことと
を含む、請求項15に記載の非一過性コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062977073P | 2020-02-14 | 2020-02-14 | |
US62/977,073 | 2020-02-14 | ||
PCT/US2021/017718 WO2021163373A1 (en) | 2020-02-14 | 2021-02-11 | 3d object annotation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023513747A true JP2023513747A (ja) | 2023-04-03 |
JPWO2021163373A5 JPWO2021163373A5 (ja) | 2024-02-20 |
Family
ID=77272629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022548905A Pending JP2023513747A (ja) | 2020-02-14 | 2021-02-11 | 3dオブジェクト注釈 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11763559B2 (ja) |
EP (1) | EP4104002A4 (ja) |
JP (1) | JP2023513747A (ja) |
CN (1) | CN115398316A (ja) |
WO (1) | WO2021163373A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4366337A3 (en) | 2018-07-24 | 2024-07-10 | Magic Leap, Inc. | Application sharing |
CN111949112A (zh) * | 2019-05-14 | 2020-11-17 | Oppo广东移动通信有限公司 | 对象交互方法及装置、系统、计算机可读介质和电子设备 |
WO2021163224A1 (en) | 2020-02-10 | 2021-08-19 | Magic Leap, Inc. | Dynamic colocation of virtual content |
US11763559B2 (en) | 2020-02-14 | 2023-09-19 | Magic Leap, Inc. | 3D object annotation |
EP4104000A4 (en) | 2020-02-14 | 2023-07-12 | Magic Leap, Inc. | TOOL BRIDGE |
CN115698818B (zh) | 2020-02-14 | 2024-01-23 | 奇跃公司 | 会话管理器 |
US11763477B2 (en) * | 2020-03-17 | 2023-09-19 | Apple Inc. | Person height estimation |
US11481177B2 (en) * | 2020-06-30 | 2022-10-25 | Snap Inc. | Eyewear including multi-user, shared interactive experiences |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
KR20230144042A (ko) | 2021-02-08 | 2023-10-13 | 사이트풀 컴퓨터스 리미티드 | 생산성을 위한 확장 현실 |
JP2024507749A (ja) | 2021-02-08 | 2024-02-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるコンテンツ共有 |
US11651541B2 (en) * | 2021-03-01 | 2023-05-16 | Roblox Corporation | Integrated input/output (I/O) for a three-dimensional (3D) environment |
US11676348B2 (en) * | 2021-06-02 | 2023-06-13 | Meta Platforms Technologies, Llc | Dynamic mixed reality content in virtual reality |
US11521361B1 (en) | 2021-07-01 | 2022-12-06 | Meta Platforms Technologies, Llc | Environment model with surfaces and per-surface volumes |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US12056268B2 (en) | 2021-08-17 | 2024-08-06 | Meta Platforms Technologies, Llc | Platformization of mixed reality objects in virtual reality environments |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US12093447B2 (en) | 2022-01-13 | 2024-09-17 | Meta Platforms Technologies, Llc | Ephemeral artificial reality experiences |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US12026527B2 (en) | 2022-05-10 | 2024-07-02 | Meta Platforms Technologies, Llc | World-controlled and application-controlled augments in an artificial-reality environment |
US12079442B2 (en) | 2022-09-30 | 2024-09-03 | Sightful Computers Ltd | Presenting extended reality content in different physical environments |
CN118689297A (zh) * | 2023-03-21 | 2024-09-24 | 北京字跳网络技术有限公司 | 交互方法、装置、设备、介质和程序 |
Family Cites Families (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6130670A (en) | 1997-02-20 | 2000-10-10 | Netscape Communications Corporation | Method and apparatus for providing simple generalized conservative visibility |
US6456285B2 (en) | 1998-05-06 | 2002-09-24 | Microsoft Corporation | Occlusion culling for complex transparent scenes in computer generated graphics |
US6771264B1 (en) | 1998-08-20 | 2004-08-03 | Apple Computer, Inc. | Method and apparatus for performing tangent space lighting and bump mapping in a deferred shading graphics processor |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US9811237B2 (en) | 1999-04-06 | 2017-11-07 | Iii Holdings 2, Llc | Visual navigation of virtual environments through logical processes |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
US7050955B1 (en) | 1999-10-01 | 2006-05-23 | Immersion Corporation | System, method and data structure for simulated interaction with graphical objects |
US6731304B2 (en) | 2000-12-06 | 2004-05-04 | Sun Microsystems, Inc. | Using ancillary geometry for visibility determination |
CA2348135A1 (en) | 2001-05-17 | 2002-11-17 | Cedara Software Corp. | 3-d navigation for x-ray imaging system |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (de) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Kopfmontiertes optisches Durchsichtssystem |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
US7064766B2 (en) | 2001-10-18 | 2006-06-20 | Microsoft Corporation | Intelligent caching data structure for immediate mode graphics |
US7443401B2 (en) | 2001-10-18 | 2008-10-28 | Microsoft Corporation | Multiple-level graphics processing with animation interval generation |
AU2003239385A1 (en) | 2002-05-10 | 2003-11-11 | Richard R. Reisman | Method and apparatus for browsing using multiple coordinated device |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
JP2004199496A (ja) | 2002-12-19 | 2004-07-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7088374B2 (en) | 2003-03-27 | 2006-08-08 | Microsoft Corporation | System and method for managing visual structure, timing, and animation in a graphics processing system |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
US8434027B2 (en) | 2003-12-15 | 2013-04-30 | Quantum Matrix Holdings, Llc | System and method for multi-dimensional organization, management, and manipulation of remote data |
US7290216B1 (en) | 2004-01-22 | 2007-10-30 | Sun Microsystems, Inc. | Method and apparatus for implementing a scene-graph-aware user interface manager |
US7800614B2 (en) | 2004-02-17 | 2010-09-21 | Oracle America, Inc. | Efficient communication in a client-server scene graph system |
CN102670163B (zh) | 2004-04-01 | 2016-04-13 | 威廉·C·托奇 | 控制计算装置的系统及方法 |
US7450130B2 (en) | 2005-09-14 | 2008-11-11 | Microsoft Corporation | Adaptive scheduling to maintain smooth frame rate |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8275031B2 (en) | 2005-12-15 | 2012-09-25 | Broadcom Corporation | System and method for analyzing multiple display data rates in a video system |
US8244051B2 (en) | 2006-03-15 | 2012-08-14 | Microsoft Corporation | Efficient encoding of alternative graphic sets |
US7911950B2 (en) | 2006-07-03 | 2011-03-22 | Cisco Technology, Inc. | Adapter and method to support long distances on existing fiber |
US20080122838A1 (en) | 2006-09-27 | 2008-05-29 | Russell Dean Hoover | Methods and Systems for Referencing a Primitive Located in a Spatial Index and in a Scene Index |
US20130073978A1 (en) | 2011-09-16 | 2013-03-21 | Social Communications Company | Capabilities based management of virtual areas |
US20090278852A1 (en) | 2008-05-09 | 2009-11-12 | Production Resource Group L.L.C | Control of 3D objects in a light displaying device |
US8368705B2 (en) | 2008-07-16 | 2013-02-05 | Google Inc. | Web-based graphics rendering system |
US8253730B1 (en) | 2008-08-29 | 2012-08-28 | Adobe Systems Incorporated | System and method for construction of data structures for ray tracing using bounding hierarchies |
CA2734332A1 (en) | 2008-09-24 | 2010-04-01 | The Bakery | Method and system for rendering or interactive lighting of a complex three dimensional scene |
US8441496B1 (en) | 2008-09-30 | 2013-05-14 | Adobe Systems Incorporated | Method and system for modifying and rendering scenes via display lists |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
CN102934105B (zh) * | 2010-04-12 | 2016-10-05 | 谷歌公司 | 在驻留的文字处理器中的协作光标 |
JP5764556B2 (ja) | 2010-06-15 | 2015-08-19 | 株式会社Adeka | 内燃機関用潤滑油組成物 |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US8860760B2 (en) * | 2010-09-25 | 2014-10-14 | Teledyne Scientific & Imaging, Llc | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
KR20160084502A (ko) | 2011-03-29 | 2016-07-13 | 퀄컴 인코포레이티드 | 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들 |
FR2974474B1 (fr) | 2011-04-19 | 2017-11-17 | Prologue | Procedes et appareils de production et de traitement de representations de scenes multimedias |
US20130127849A1 (en) | 2011-05-26 | 2013-05-23 | Sebastian Marketsmueller | Common Rendering Framework and Common Event Model for Video, 2D, and 3D Content |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US20130077147A1 (en) | 2011-09-22 | 2013-03-28 | Los Alamos National Security, Llc | Method for producing a partially coherent beam with fast pattern update rates |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US20150199788A1 (en) | 2012-04-12 | 2015-07-16 | Google Inc. | Accelerating graphical rendering through legacy graphics compilation |
US9122321B2 (en) * | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
US9751011B2 (en) | 2012-05-25 | 2017-09-05 | Electronics Arts, Inc. | Systems and methods for a unified game experience in a multiplayer game |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US9069554B2 (en) | 2012-09-24 | 2015-06-30 | Qualcomm Innovation Center, Inc. | Systems and methods to coordinate resource usage in tightly sandboxed environments |
CN103023872B (zh) | 2012-11-16 | 2016-01-06 | 杭州顺网科技股份有限公司 | 一种云游戏服务平台 |
CN104903818B (zh) | 2012-12-06 | 2018-12-14 | 谷歌有限责任公司 | 眼睛跟踪佩戴式设备和使用方法 |
AU2014204252B2 (en) | 2013-01-03 | 2017-12-14 | Meta View, Inc. | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
US9230294B2 (en) | 2013-03-15 | 2016-01-05 | Dreamworks Animation Llc | Preserving and reusing intermediate data |
US20140267234A1 (en) | 2013-03-15 | 2014-09-18 | Anselm Hook | Generation and Sharing Coordinate System Between Users on Mobile |
EP2793127B1 (en) | 2013-04-19 | 2021-11-17 | Huawei Technologies Co., Ltd. | Method for displaying a 3D scene graph on a screen |
EP3005195A4 (en) | 2013-05-24 | 2017-05-24 | Awe Company Limited | Systems and methods for a shared mixed reality experience |
US9799127B2 (en) | 2014-03-03 | 2017-10-24 | Deep Node, Inc. | Displaying a live stream of events using a dynamically-constructed three-dimensional data tree |
US11570114B2 (en) | 2014-03-04 | 2023-01-31 | Mobophiles, Inc. | System and method of adaptive rate control and traffic management |
US10572215B1 (en) * | 2014-03-31 | 2020-02-25 | Amazon Technologies, Inc. | Extendable architecture for augmented reality system |
US9519481B2 (en) | 2014-06-27 | 2016-12-13 | International Business Machines Corporation | Branch synthetic generation across multiple microarchitecture generations |
EP3183653A4 (en) | 2014-08-20 | 2018-07-04 | Landmark Graphics Corporation | Optimizing computer hardware resource utilization when processing variable precision data |
CN107077753A (zh) * | 2014-08-26 | 2017-08-18 | 霍尼韦尔国际公司 | 对三维显示进行注释 |
KR102244619B1 (ko) | 2014-09-30 | 2021-04-26 | 삼성전자 주식회사 | 가속 구조를 생성 및 탐색하는 방법 |
US10062354B2 (en) | 2014-10-10 | 2018-08-28 | DimensionalMechanics, Inc. | System and methods for creating virtual environments |
US10810797B2 (en) | 2015-05-22 | 2020-10-20 | Otoy, Inc | Augmenting AR/VR displays with image projections |
EP3104271A1 (en) | 2015-06-08 | 2016-12-14 | Hans-Henry Sandbaek | Running remote java applications through a local, plugin-free web browser |
WO2017142977A1 (en) | 2016-02-15 | 2017-08-24 | Meta Company | Apparatuses, methods and systems for tethering 3-d virtual elements to digital content |
EP3329466A4 (en) | 2016-06-10 | 2019-03-13 | DIRTT Environmental Solutions, Ltd. | ARCHITECTURAL DESIGN ENVIRONMENT WITH MIXED REALITY |
WO2017214576A1 (en) | 2016-06-10 | 2017-12-14 | Dirtt Environmental Solutions, Inc. | Mixed-reality and cad architectural design environment |
US10417803B2 (en) | 2016-06-17 | 2019-09-17 | The Boeing Company | Multiple-pass rendering of a digital three-dimensional model of a structure |
US20180114368A1 (en) | 2016-10-25 | 2018-04-26 | Adobe Systems Incorporated | Three-dimensional model manipulation and rendering |
US10147243B2 (en) * | 2016-12-05 | 2018-12-04 | Google Llc | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment |
US10937391B2 (en) | 2016-12-05 | 2021-03-02 | Case Western Reserve University | Systems, methods, and media for displaying interactive augmented reality presentations |
TWI615776B (zh) * | 2016-12-23 | 2018-02-21 | 李雨暹 | 移動物件的虛擬訊息建立方法、搜尋方法與應用系統 |
EP3340012A1 (en) | 2016-12-26 | 2018-06-27 | CaptoGlove International Limited | Haptic interaction method, tool and system |
US20180255285A1 (en) | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
WO2018175335A1 (en) | 2017-03-24 | 2018-09-27 | Pcms Holdings, Inc. | Method and system for discovering and positioning content into augmented reality space |
US10977858B2 (en) | 2017-03-30 | 2021-04-13 | Magic Leap, Inc. | Centralized rendering |
CN110476188B (zh) | 2017-03-30 | 2024-03-22 | 奇跃公司 | 集中式渲染 |
US10871934B2 (en) | 2017-05-04 | 2020-12-22 | Microsoft Technology Licensing, Llc | Virtual content displayed with shared anchor |
GB201709199D0 (en) | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
US10685456B2 (en) | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
US20190130656A1 (en) * | 2017-11-01 | 2019-05-02 | Tsunami VR, Inc. | Systems and methods for adding notations to virtual objects in a virtual environment |
US20190180506A1 (en) * | 2017-12-11 | 2019-06-13 | Tsunami VR, Inc. | Systems and methods for adding annotations to virtual objects in a virtual environment |
US10559133B2 (en) | 2018-02-07 | 2020-02-11 | Dell Products L.P. | Visual space management across information handling system and augmented reality |
US10403047B1 (en) | 2018-03-01 | 2019-09-03 | Dell Products L.P. | Information handling system augmented reality through a virtual object anchor |
EP3776146A1 (en) * | 2018-04-09 | 2021-02-17 | Spatial Inc. | Augmented reality computing environments |
US11049322B2 (en) | 2018-06-18 | 2021-06-29 | Ptc Inc. | Transferring graphic objects between non-augmented reality and augmented reality media domains |
US11087538B2 (en) * | 2018-06-26 | 2021-08-10 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality images at display locations that do not obstruct user's view |
US10977868B2 (en) | 2018-06-29 | 2021-04-13 | Factualvr, Inc. | Remote collaboration methods and systems |
EP4366337A3 (en) | 2018-07-24 | 2024-07-10 | Magic Leap, Inc. | Application sharing |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
US10854006B2 (en) | 2018-11-15 | 2020-12-01 | Palo Alto Research Center Incorporated | AR-enabled labeling using aligned CAD models |
WO2021163224A1 (en) | 2020-02-10 | 2021-08-19 | Magic Leap, Inc. | Dynamic colocation of virtual content |
EP4104000A4 (en) | 2020-02-14 | 2023-07-12 | Magic Leap, Inc. | TOOL BRIDGE |
CN115698818B (zh) | 2020-02-14 | 2024-01-23 | 奇跃公司 | 会话管理器 |
US11763559B2 (en) | 2020-02-14 | 2023-09-19 | Magic Leap, Inc. | 3D object annotation |
-
2021
- 2021-02-11 US US17/174,141 patent/US11763559B2/en active Active
- 2021-02-11 JP JP2022548905A patent/JP2023513747A/ja active Pending
- 2021-02-11 WO PCT/US2021/017718 patent/WO2021163373A1/en unknown
- 2021-02-11 EP EP21754096.2A patent/EP4104002A4/en active Pending
- 2021-02-11 CN CN202180028424.7A patent/CN115398316A/zh active Pending
-
2022
- 2022-08-12 US US17/887,255 patent/US12100207B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220383634A1 (en) | 2022-12-01 |
US11763559B2 (en) | 2023-09-19 |
CN115398316A (zh) | 2022-11-25 |
US12100207B2 (en) | 2024-09-24 |
EP4104002A4 (en) | 2023-08-09 |
WO2021163373A1 (en) | 2021-08-19 |
EP4104002A1 (en) | 2022-12-21 |
US20210256261A1 (en) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12100207B2 (en) | 3D object annotation | |
JP7539478B2 (ja) | セッションマネージャ | |
US12079938B2 (en) | Dynamic colocation of virtual content | |
CN115516364B (zh) | 工具桥 | |
JP2022544116A (ja) | 複合現実における空間命令およびガイド | |
JP7558268B2 (ja) | 非均一ステレオレンダリング | |
JP2023514571A (ja) | 遅延オーディオ追従 | |
JP7481446B2 (ja) | 環境音響持続性 | |
US20240371116A1 (en) | Dynamic colocation of virtual content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240209 |