JP2023514572A - セッションマネージャ - Google Patents
セッションマネージャ Download PDFInfo
- Publication number
- JP2023514572A JP2023514572A JP2022548903A JP2022548903A JP2023514572A JP 2023514572 A JP2023514572 A JP 2023514572A JP 2022548903 A JP2022548903 A JP 2022548903A JP 2022548903 A JP2022548903 A JP 2022548903A JP 2023514572 A JP2023514572 A JP 2023514572A
- Authority
- JP
- Japan
- Prior art keywords
- user
- session
- location
- virtual
- receiving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 145
- 230000002085 persistent effect Effects 0.000 claims abstract description 79
- 230000008569 process Effects 0.000 claims description 51
- 230000004044 response Effects 0.000 claims description 35
- 230000009466 transformation Effects 0.000 claims description 28
- 230000004807 localization Effects 0.000 claims description 4
- 210000003128 head Anatomy 0.000 description 20
- 230000000007 visual effect Effects 0.000 description 14
- 230000005236 sound signal Effects 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 201000003152 motion sickness Diseases 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002688 persistence Effects 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241000219357 Cactaceae Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 241000153282 Theope Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008045 co-localization Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 208000004209 confusion Diseases 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 206010013395 disorientation Diseases 0.000 description 1
- 210000003027 ear inner Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 150000003014 phosphoric acid esters Chemical class 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本願は、その内容が、参照することによってその全体として本明細書に組み込まれる、2020年2月14日に出願された、米国仮出願第62/977,079号の利益を請求する。
実施例の以下の説明では、本明細書の一部を形成し、例証として、実践され得る具体的実施例が示される、付随の図面を参照する。他の実施例も、使用されることができ、構造変更が、開示される実施例の範囲から逸脱することなく、行われることができることを理解されたい。
Claims (39)
- システムであって、
透過型ディスプレイを備えるウェアラブルデバイスと、
1つまたはそれを上回るプロセッサであって、
持続座標データを受信することと、
ウェアラブルデバイスの前記透過型ディスプレイを介して、第1の仮想セッションハンドルを第1のユーザに第1の位置において提示することであって、前記第1の位置は、前記持続座標データに基づいて決定される、ことと、
前記透過型ディスプレイを介して、仮想オブジェクトを前記第1のユーザに第2の位置において提示することであって、前記第2の位置は、前記第1の位置に基づいて決定される、ことと、
場所データを第2のユーザから受信することであって、前記場所データは、前記第2のユーザの位置を第2の仮想セッションハンドルの位置に関連させる、ことと、
前記透過型ディスプレイを介して、仮想アバタを前記第1のユーザに第3の位置において提示することであって、前記仮想アバタは、前記第2のユーザに対応し、前記第3の位置は、前記場所データに基づいて決定され、前記第3の位置はさらに、前記第1の位置に基づいて決定される、ことと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。 - 前記方法はさらに、
入力を前記第2のユーザから受信することと、
前記第2のユーザからの入力の受信に応答して、前記透過型ディスプレイを介して、前記仮想オブジェクトを前記第1のユーザに第4の位置において提示することと
を含む、請求項1に記載のシステム。 - 前記仮想オブジェクトは、前記第1のユーザからの入力に応答して、前記第1のユーザに前記第2の位置において提示され、前記方法はさらに、前記第1のユーザからの入力を前記第2のユーザに伝送することを含む、請求項1に記載のシステム。
- 前記方法はさらに、
入力を前記第1のユーザから受信することと、
前記第1のユーザからの入力の受信に応答して、前記第1のセッションハンドルを前記第1のユーザに第4の位置において提示することと、
前記透過型ディスプレイを介して、前記仮想オブジェクトを前記第1のユーザに第5の位置において提示することであって、前記第5の位置は、前記第4の位置に基づいて決定される、ことと
を含む、請求項1に記載のシステム。 - 前記方法はさらに、前記第1のユーザからの入力を前記第2のユーザに伝送することを含む、請求項4に記載のシステム。
- 前記方法はさらに、
メモリ内に、第1の時間におけるセッションインスタンスと関連付けられる前記第1の位置、前記第2の位置、および前記第3の位置を記憶することと、
前記メモリから、前記第1の時間より後の第2の時間において、前記第1の位置、前記第2の位置、および前記第3の位置を受信することと
を含む、請求項1に記載のシステム。 - 方法であって、
持続座標データを受信することと、
ウェアラブルデバイスの透過型ディスプレイを介して、第1の仮想セッションハンドルを第1のユーザに第1の位置において提示することであって、前記第1の位置は、前記持続座標データに基づいて決定される、ことと
前記透過型ディスプレイを介して、仮想オブジェクトを前記第1のユーザに第2の位置において提示することであって、前記第2の位置は、前記第1の位置に基づいて決定される、ことと、
場所データを第2のユーザから受信することであって、前記場所データは、前記第2のユーザの位置を第2の仮想セッションハンドルの位置に関連させる、ことと、
前記透過型ディスプレイを介して、仮想アバタを前記第1のユーザに第3の位置において提示することであって、前記仮想アバタは、前記第2のユーザに対応し、前記第3の位置は、前記場所データに基づいて決定され、前記第3の位置はさらに、前記第1の位置に基づいて決定される、ことと
を含む、方法。 - 入力を前記第2のユーザから受信することと、
前記第2のユーザからの入力の受信に応答して、前記透過型ディスプレイを介して、前記仮想オブジェクトを前記第1のユーザに第4の位置において提示することと
をさらに含む、請求項7に記載の方法。 - 前記仮想オブジェクトは、前記第1のユーザからの入力に応答して、前記第1のユーザに前記第2の位置において提示され、前記方法はさらに、前記第1のユーザからの入力を前記第2のユーザに伝送することを含む、請求項7に記載の方法。
- 入力を前記第1のユーザから受信することと、
前記第1のユーザからの入力の受信に応答して、前記第1のセッションハンドルを前記第1のユーザに第4の位置において提示することと、
前記透過型ディスプレイを介して、前記仮想オブジェクトを前記第1のユーザに第5の位置において提示することであって、前記第5の位置は、前記第4の位置に基づいて決定される、ことと
をさらに含む、請求項7に記載の方法。 - 前記第1のユーザからの入力を前記第2のユーザに伝送することをさらに含む、請求項10に記載の方法。
- メモリ内に、第1の時間におけるセッションインスタンスと関連付けられる前記第1の位置、前記第2の位置、および前記第3の位置を記憶することと、
前記メモリから、前記第1の時間より後の第2の時間において、前記第1の位置、前記第2の位置、および前記第3の位置を受信することと
をさらに含む、請求項7に記載の方法。 - 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
持続座標データを受信することと、
ウェアラブルデバイスの透過型ディスプレイを介して、第1の仮想セッションハンドルを第1のユーザに第1の位置において提示することであって、前記第1の位置は、前記持続座標データに基づいて決定される、ことと、
前記透過型ディスプレイを介して、仮想オブジェクトを前記第1のユーザに第2の位置において提示することであって、前記第2の位置は、前記第1の位置に基づいて決定される、ことと、
場所データを第2のユーザから受信することであって、前記場所データは、前記第2のユーザの位置を第2の仮想セッションハンドルの位置に関連させる、ことと、
前記透過型ディスプレイを介して、仮想アバタを前記第1のユーザに第3の位置において提示することであって、前記仮想アバタは、前記第2のユーザに対応し、前記第3の位置は、前記場所データに基づいて決定され、前記第3の位置はさらに、前記第1の位置に基づいて決定される、ことと
を含む方法を実行させる、非一過性コンピュータ可読媒体。 - 前記方法はさらに、
入力を前記第2のユーザから受信することと、
前記第2のユーザからの入力の受信に応答して、前記透過型ディスプレイを介して、前記仮想オブジェクトを前記第1のユーザに第4の位置において提示することと
を含む、請求項13に記載の非一過性コンピュータ可読媒体。 - 前記仮想オブジェクトは、前記第1のユーザからの入力に応答して、前記第1のユーザに前記第2の位置において提示され、前記方法はさらに、前記第1のユーザからの入力を前記第2のユーザに伝送することを含む、請求項13に記載の非一過性コンピュータ可読媒体。
- 前記方法はさらに、
入力を前記第1のユーザから受信することと、
前記第1のユーザからの入力の受信に応答して、前記第1のセッションハンドルを前記第1のユーザに第4の位置において提示することと、
前記透過型ディスプレイを介して、前記仮想オブジェクトを前記第1のユーザに第5の位置において提示することであって、前記第5の位置は、前記第4の位置に基づいて決定される、ことと
を含む、請求項13に記載の非一過性コンピュータ可読媒体。 - 前記方法はさらに、前記第1のユーザからの入力を前記第2のユーザに伝送することを含む、請求項16に記載の非一過性コンピュータ可読媒体。
- 前記方法はさらに、
メモリ内に、第1の時間におけるセッションインスタンスと関連付けられる前記第1の位置、前記第2の位置、および前記第3の位置を記憶することと、
前記メモリから、前記第1の時間より後の第2の時間において、前記第1の位置、前記第2の位置、および前記第3の位置を受信することと
を含む、請求項13に記載の非一過性コンピュータ可読媒体。 - システムであって、
第1の透過型ディスプレイおよび1つまたはそれを上回るセンサを備える第1のウェアラブルデバイスと、
1つまたはそれを上回るプロセッサであって、
第1の入力を前記第1のウェアラブルデバイスと関連付けられる第1のセッションユーザから受信することと、
前記第1の入力の受信に応答して、セッションインスタンスを生成することであって、前記セッションインスタンスは、1つまたはそれを上回る能力インスタンスに対応するデータを記憶するように構成され、前記セッションインスタンスはさらに、1つまたはそれを上回るセッションユーザに対応するデータを記憶するように構成される、ことと、
前記第1のウェアラブルデバイスの第1の透過型ディスプレイを介して、仮想セッションハンドルを前記第1のセッションユーザに第1のセッションハンドル位置において提示することと、
第2の入力を前記第1のセッションユーザから受信することと、
前記第2の入力の受信に応答して、
プロセスと関連付けられる第1の能力インスタンスを生成することであって、前記プロセスは、仮想オブジェクトを投影することを含む、ことと、
前記第1の透過型ディスプレイを介して、前記仮想オブジェクトを前記第1のセッションユーザに第1のオブジェクト位置において提示することと、
第2のウェアラブルデバイスの第2の透過型ディスプレイを介して、前記仮想オブジェクトを第2のセッションユーザに第2のオブジェクト位置において提示することと、
前記第1のセッションハンドル位置、前記第1のオブジェクト位置、前記第2のオブジェクト位置、第1のセッションユーザ位置、および第2のセッションユーザ位置に対応するデータを、前記セッションインスタンス内に記憶することであって、前記第1のセッションユーザ位置は、前記第1のウェアラブルデバイスの1つまたはそれを上回るセンサを介して決定され、前記第2のセッションユーザ位置は、前記第2のウェアラブルデバイスの1つまたはそれを上回るセンサを介して決定される、ことと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。 - 前記第1のオブジェクト位置は、変換データを使用して、前記第1のセッションハンドル位置に関連される、請求項19に記載のシステム。
- 前記変換データは、前記セッションインスタンス内に記憶される、請求項20に記載のシステム。
- 前記方法はさらに、位置特定ステータスに対応するデータを記憶することを含み、前記位置特定ステータスは、前記第1のセッションユーザ位置および前記第2のセッションユーザ位置に基づく、請求項19に記載のシステム。
- 前記第2の入力は、第1の時間に受信され、前記方法はさらに、
前記第1の時間より後の第2の時間において、第3の入力を前記第1のセッションユーザから受信することと、
前記第3の入力の受信に応答して、
前記第1のオブジェクト位置および前記第1のセッションユーザ位置に対応するデータを受信することと、
前記仮想オブジェクトを前記第1のセッションユーザに前記第1のオブジェクト位置において提示することと
を含む、請求項19に記載のシステム。 - 前記方法はさらに、
第2の能力インスタンスを生成することであって、前記第2の能力インスタンスは、第2のプロセスと関連付けられ、前記第2のプロセスは、前記第2のセッションユーザの仮想アバタを投影することを含む、ことと、
前記第1の透過型ディスプレイを介して、前記仮想アバタを前記第1のセッションユーザに提示することと、
前記仮想アバタに対応するデータを前記セッションインスタンス内に記憶することと
を含む、請求項19に記載のシステム。 - 前記方法はさらに、第2の能力インスタンスを生成することを含み、前記第2の能力インスタンスは、第2のプロセスと関連付けられ、前記第2のプロセスは、前記第1のセッションユーザと関連付けられるビューを前記第2のセッションユーザに投射することを含む、請求項19に記載のシステム。
- 方法であって、
第1の入力を第1のセッションユーザから受信することと、
前記第1の入力の受信に応答して、セッションインスタンスを生成することであって、前記セッションインスタンスは、1つまたはそれを上回る能力インスタンスに対応するデータを記憶するように構成され、前記セッションインスタンスはさらに、1つまたはそれを上回るセッションユーザに対応するデータを記憶するように構成される、ことと、
第1のウェアラブルデバイスの第1の透過型ディスプレイを介して、仮想セッションハンドルを前記第1のセッションユーザに第1のセッションハンドル位置において提示することと、
第2の入力を前記第1のセッションユーザから受信することと、
前記第2の入力の受信に応答して、
プロセスと関連付けられる第1の能力インスタンスを生成することであって、前記プロセスは、仮想オブジェクトを投影することを含む、ことと、
前記第1の透過型ディスプレイを介して、前記仮想オブジェクトを前記第1のセッションユーザに第1のオブジェクト位置において提示することと、
第2のウェアラブルデバイスの第2の透過型ディスプレイを介して、前記仮想オブジェクトを第2のセッションユーザに第2のオブジェクト位置において提示することと、
前記第1のセッションハンドル位置、前記第1のオブジェクト位置、前記第2のオブジェクト位置、第1のセッションユーザ位置、および第2のセッションユーザ位置に対応するデータを、前記セッションインスタンス内に記憶することであって、前記第1のセッションユーザ位置は、前記第1のウェアラブルデバイスの1つまたはそれを上回るセンサを介して決定され、前記第2のセッションユーザ位置は、前記第2のウェアラブルデバイスの1つまたはそれを上回るセンサを介して決定される、ことと
を含む、方法。 - 前記第1のオブジェクト位置は、変換データを使用して、前記第1のセッションハンドル位置に関連される、請求項26に記載の方法。
- 前記変換データは、前記セッションインスタンス内に記憶される、請求項27に記載の方法。
- 位置特定ステータスに対応するデータを記憶することをさらに含み、前記位置特定ステータスは、前記第1のセッションユーザ位置および前記第2のセッションユーザ位置に基づく、請求項26に記載の方法。
- 前記第2の入力は、第1の時間に受信され、前記方法はさらに、
前記第1の時間より後の第2の時間において、第3の入力を前記第1のセッションユーザから受信することと、
前記第3の入力の受信に応答して、
前記第1のオブジェクト位置および前記第1のセッションユーザ位置に対応するデータを受信することと、
前記仮想オブジェクトを前記第1のセッションユーザに前記第1のオブジェクト位置において提示することと
を含む、請求項26に記載の方法。 - 第2の能力インスタンスを生成することであって、前記第2の能力インスタンスは、第2のプロセスと関連付けられ、前記第2のプロセスは、前記第2のセッションユーザの仮想アバタを投影することを含む、ことと、
前記第1の透過型ディスプレイを介して、前記仮想アバタを前記第1のセッションユーザに提示することと、
前記仮想アバタに対応するデータを前記セッションインスタンス内に記憶することと
をさらに含む、請求項26に記載の方法。 - 第2の能力インスタンスを生成することをさらに含み、前記第2の能力インスタンスは、第2のプロセスと関連付けられ、前記第2のプロセスは、前記第1のセッションユーザと関連付けられるビューを前記第2のセッションユーザに投射することを含む、請求項26に記載の方法。
- 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
第1の入力を第1のセッションユーザから受信することと、
前記第1の入力の受信に応答して、セッションインスタンスを生成することであって、前記セッションインスタンスは、1つまたはそれを上回る能力インスタンスに対応するデータを記憶するように構成され、前記セッションインスタンスはさらに、1つまたはそれを上回るセッションユーザに対応するデータを記憶するように構成される、ことと、
第1のウェアラブルデバイスの第1の透過型ディスプレイを介して、仮想セッションハンドルを前記第1のセッションユーザに第1のセッションハンドル位置において提示することと、
第2の入力を前記第1のセッションユーザから受信することと、
前記第2の入力の受信に応答して、
プロセスと関連付けられる第1の能力インスタンスを生成することであって、前記プロセスは、仮想オブジェクトを投影することを含む、ことと、
前記第1の透過型ディスプレイを介して、前記仮想オブジェクトを前記第1のセッションユーザに第1のオブジェクト位置において提示することと、
第2のウェアラブルデバイスの第2の透過型ディスプレイを介して、前記仮想オブジェクトを第2のセッションユーザに第2のオブジェクト位置において提示することと、
前記第1のセッションハンドル位置、前記第1のオブジェクト位置、前記第2のオブジェクト位置、第1のセッションユーザ位置、および第2のセッションユーザ位置に対応するデータを、前記セッションインスタンス内に記憶することであって、前記第1のセッションユーザ位置は、前記第1のウェアラブルデバイスの1つまたはそれを上回るセンサを介して決定され、前記第2のセッションユーザ位置は、前記第2のウェアラブルデバイスの1つまたはそれを上回るセンサを介して決定される、ことと
を含む方法を実行させる、非一過性コンピュータ可読媒体。 - 前記第1のオブジェクト位置は、変換データを使用して、前記第1のセッションハンドル位置に関連される、請求項33に記載の非一過性コンピュータ可読媒体。
- 前記変換データは、前記セッションインスタンス内に記憶される、請求項34に記載の非一過性コンピュータ可読媒体。
- 前記方法はさらに、位置特定ステータスに対応する、データを記憶することを含み、前記位置特定ステータスは、前記第1のセッションユーザ位置および前記第2のセッションユーザ位置に基づく、請求項33に記載の非一過性コンピュータ可読媒体。
- 前記第2の入力は、第1の時間に受信され、前記方法はさらに、
前記第1の時間より後の第2の時間において、第3の入力を前記第1のセッションユーザから受信することと、
前記第3の入力の受信に応答して、
前記第1のオブジェクト位置および前記第1のセッションユーザ位置に対応する、データを受信することと、
前記仮想オブジェクトを前記第1のセッションユーザに前記第1のオブジェクト位置において提示することと
を含む、請求項33に記載の非一過性コンピュータ可読媒体。 - 前記方法はさらに、
第2の能力インスタンスを生成することであって、前記第2の能力インスタンスは、第2のプロセスと関連付けられ、前記第2のプロセスは、前記第2のセッションユーザの仮想アバタを投影することを含む、ことと、
前記透過型ディスプレイを介して、前記仮想アバタを前記第1のセッションユーザに提示することと、
前記仮想アバタに対応するデータを前記セッションインスタンス内に記憶することと
を含む、請求項33に記載の非一過性コンピュータ可読媒体。 - 前記方法はさらに、第2の能力インスタンスを生成することを含み、前記第2の能力インスタンスは、第2のプロセスと関連付けられ、前記第2のプロセスは、前記第1のセッションユーザと関連付けられるビューを前記第2のセッションユーザに投射することを含む、請求項33に記載の非一過性コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062977079P | 2020-02-14 | 2020-02-14 | |
US62/977,079 | 2020-02-14 | ||
PCT/US2021/018037 WO2021163626A1 (en) | 2020-02-14 | 2021-02-12 | Session manager |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023514572A true JP2023514572A (ja) | 2023-04-06 |
JPWO2021163626A5 JPWO2021163626A5 (ja) | 2024-02-19 |
Family
ID=77272757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022548903A Pending JP2023514572A (ja) | 2020-02-14 | 2021-02-12 | セッションマネージャ |
Country Status (5)
Country | Link |
---|---|
US (3) | US11475644B2 (ja) |
EP (1) | EP4103999A4 (ja) |
JP (1) | JP2023514572A (ja) |
CN (2) | CN117827004A (ja) |
WO (1) | WO2021163626A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11201953B2 (en) | 2018-07-24 | 2021-12-14 | Magic Leap, Inc. | Application sharing |
WO2021163224A1 (en) | 2020-02-10 | 2021-08-19 | Magic Leap, Inc. | Dynamic colocation of virtual content |
WO2021163626A1 (en) | 2020-02-14 | 2021-08-19 | Magic Leap, Inc. | Session manager |
WO2021163373A1 (en) | 2020-02-14 | 2021-08-19 | Magic Leap, Inc. | 3d object annotation |
US11494528B2 (en) | 2020-02-14 | 2022-11-08 | Magic Leap, Inc. | Tool bridge |
US11522945B2 (en) * | 2020-10-20 | 2022-12-06 | Iris Tech Inc. | System for providing synchronized sharing of augmented reality content in real time across multiple devices |
US20220343132A1 (en) * | 2021-04-26 | 2022-10-27 | Iview Displays (Shenzhen) Company Ltd. | Method for controlling virtual pets, and smart projection device |
EP4142285A4 (en) * | 2021-05-17 | 2023-11-15 | Qingdao Pico Technology Co., Ltd. | HEAD-MOUNTED DISPLAY DEVICE AND HEAD-MOUNTED DISPLAY SYSTEM |
US12008717B2 (en) | 2021-07-07 | 2024-06-11 | Meta Platforms Technologies, Llc | Artificial reality environment control through an artificial reality environment schema |
US20230410435A1 (en) * | 2022-06-20 | 2023-12-21 | International Business Machines Corporation | Contextual positioning in virtual space |
US11947862B1 (en) * | 2022-12-30 | 2024-04-02 | Meta Platforms Technologies, Llc | Streaming native application content to artificial reality devices |
Family Cites Families (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US9811237B2 (en) | 1999-04-06 | 2017-11-07 | Iii Holdings 2, Llc | Visual navigation of virtual environments through logical processes |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (de) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Kopfmontiertes optisches Durchsichtssystem |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
US7899915B2 (en) | 2002-05-10 | 2011-03-01 | Richard Reisman | Method and apparatus for browsing using multiple coordinated device sets |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
US8434027B2 (en) | 2003-12-15 | 2013-04-30 | Quantum Matrix Holdings, Llc | System and method for multi-dimensional organization, management, and manipulation of remote data |
US7800614B2 (en) | 2004-02-17 | 2010-09-21 | Oracle America, Inc. | Efficient communication in a client-server scene graph system |
CN1960670B (zh) | 2004-04-01 | 2011-02-23 | 威廉·C·托奇 | 用于监控眼睛运动的生物传感器、通信器、和控制器及其使用方法 |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US20130073707A1 (en) * | 2011-09-16 | 2013-03-21 | Social Communications Company | Capabilities based management of virtual areas |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US8860760B2 (en) | 2010-09-25 | 2014-10-14 | Teledyne Scientific & Imaging, Llc | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
KR101591579B1 (ko) | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
FR2974474B1 (fr) | 2011-04-19 | 2017-11-17 | Prologue | Procedes et appareils de production et de traitement de representations de scenes multimedias |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US9122321B2 (en) | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
US9873045B2 (en) | 2012-05-25 | 2018-01-23 | Electronic Arts, Inc. | Systems and methods for a unified game experience |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
JP6498606B2 (ja) | 2012-12-06 | 2019-04-10 | グーグル エルエルシー | ウエアラブル視線計測デバイス及び使用方法 |
CA2896985A1 (en) | 2013-01-03 | 2014-07-10 | Meta Company | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
US20140267234A1 (en) | 2013-03-15 | 2014-09-18 | Anselm Hook | Generation and Sharing Coordinate System Between Users on Mobile |
WO2014188393A1 (en) | 2013-05-24 | 2014-11-27 | Awe Company Limited | Systems and methods for a shared mixed reality experience |
US9799127B2 (en) | 2014-03-03 | 2017-10-24 | Deep Node, Inc. | Displaying a live stream of events using a dynamically-constructed three-dimensional data tree |
US10572215B1 (en) | 2014-03-31 | 2020-02-25 | Amazon Technologies, Inc. | Extendable architecture for augmented reality system |
US9519481B2 (en) | 2014-06-27 | 2016-12-13 | International Business Machines Corporation | Branch synthetic generation across multiple microarchitecture generations |
US10810797B2 (en) | 2015-05-22 | 2020-10-20 | Otoy, Inc | Augmenting AR/VR displays with image projections |
US9898864B2 (en) * | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
US10665020B2 (en) | 2016-02-15 | 2020-05-26 | Meta View, Inc. | Apparatuses, methods and systems for tethering 3-D virtual elements to digital content |
US10722800B2 (en) * | 2016-05-16 | 2020-07-28 | Google Llc | Co-presence handling in virtual reality |
US10467814B2 (en) | 2016-06-10 | 2019-11-05 | Dirtt Environmental Solutions, Ltd. | Mixed-reality architectural design environment |
US10699484B2 (en) | 2016-06-10 | 2020-06-30 | Dirtt Environmental Solutions, Ltd. | Mixed-reality and CAD architectural design environment |
US10147243B2 (en) | 2016-12-05 | 2018-12-04 | Google Llc | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment |
KR20240033136A (ko) | 2016-12-05 | 2024-03-12 | 케이스 웨스턴 리저브 유니버시티 | 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들 |
EP3340012A1 (en) | 2016-12-26 | 2018-06-27 | CaptoGlove International Limited | Haptic interaction method, tool and system |
US20180255285A1 (en) | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
WO2018175335A1 (en) | 2017-03-24 | 2018-09-27 | Pcms Holdings, Inc. | Method and system for discovering and positioning content into augmented reality space |
US10871934B2 (en) | 2017-05-04 | 2020-12-22 | Microsoft Technology Licensing, Llc | Virtual content displayed with shared anchor |
GB201709199D0 (en) | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
US10685456B2 (en) * | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
US10559133B2 (en) | 2018-02-07 | 2020-02-11 | Dell Products L.P. | Visual space management across information handling system and augmented reality |
US10403047B1 (en) * | 2018-03-01 | 2019-09-03 | Dell Products L.P. | Information handling system augmented reality through a virtual object anchor |
WO2019199569A1 (en) | 2018-04-09 | 2019-10-17 | Spatial Inc. | Augmented reality computing environments |
US11049322B2 (en) | 2018-06-18 | 2021-06-29 | Ptc Inc. | Transferring graphic objects between non-augmented reality and augmented reality media domains |
US11087538B2 (en) | 2018-06-26 | 2021-08-10 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality images at display locations that do not obstruct user's view |
US10977868B2 (en) | 2018-06-29 | 2021-04-13 | Factualvr, Inc. | Remote collaboration methods and systems |
US11201953B2 (en) | 2018-07-24 | 2021-12-14 | Magic Leap, Inc. | Application sharing |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
US10854006B2 (en) | 2018-11-15 | 2020-12-01 | Palo Alto Research Center Incorporated | AR-enabled labeling using aligned CAD models |
WO2021163224A1 (en) | 2020-02-10 | 2021-08-19 | Magic Leap, Inc. | Dynamic colocation of virtual content |
WO2021163626A1 (en) | 2020-02-14 | 2021-08-19 | Magic Leap, Inc. | Session manager |
WO2021163373A1 (en) | 2020-02-14 | 2021-08-19 | Magic Leap, Inc. | 3d object annotation |
US11494528B2 (en) | 2020-02-14 | 2022-11-08 | Magic Leap, Inc. | Tool bridge |
-
2021
- 2021-02-12 WO PCT/US2021/018037 patent/WO2021163626A1/en unknown
- 2021-02-12 JP JP2022548903A patent/JP2023514572A/ja active Pending
- 2021-02-12 EP EP21753304.1A patent/EP4103999A4/en active Pending
- 2021-02-12 CN CN202410024972.8A patent/CN117827004A/zh active Pending
- 2021-02-12 US US17/175,547 patent/US11475644B2/en active Active
- 2021-02-12 CN CN202180028398.8A patent/CN115698818B/zh active Active
-
2022
- 2022-09-13 US US17/944,079 patent/US11861803B2/en active Active
-
2023
- 2023-11-17 US US18/513,443 patent/US20240087261A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4103999A4 (en) | 2023-08-02 |
US20230017752A1 (en) | 2023-01-19 |
CN115698818A (zh) | 2023-02-03 |
EP4103999A1 (en) | 2022-12-21 |
US20210256769A1 (en) | 2021-08-19 |
US11861803B2 (en) | 2024-01-02 |
CN117827004A (zh) | 2024-04-05 |
WO2021163626A1 (en) | 2021-08-19 |
US11475644B2 (en) | 2022-10-18 |
CN115698818B (zh) | 2024-01-23 |
US20240087261A1 (en) | 2024-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11763559B2 (en) | 3D object annotation | |
US11861803B2 (en) | Session manager | |
US11335070B2 (en) | Dynamic colocation of virtual content | |
JP7464694B2 (ja) | 複合現実における空間命令およびガイド | |
CN115516364B (zh) | 工具桥 | |
JP2022554200A (ja) | 非均一ステレオレンダリング | |
JP2023514571A (ja) | 遅延オーディオ追従 | |
JP7481446B2 (ja) | 環境音響持続性 | |
WO2023064870A1 (en) | Voice processing for mixed reality | |
WO2023183054A1 (en) | Optimized mixed reality audio rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240208 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240208 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240502 |