JP7464694B2 - 複合現実における空間命令およびガイド - Google Patents
複合現実における空間命令およびガイド Download PDFInfo
- Publication number
- JP7464694B2 JP7464694B2 JP2022507405A JP2022507405A JP7464694B2 JP 7464694 B2 JP7464694 B2 JP 7464694B2 JP 2022507405 A JP2022507405 A JP 2022507405A JP 2022507405 A JP2022507405 A JP 2022507405A JP 7464694 B2 JP7464694 B2 JP 7464694B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- location
- time
- virtual content
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002085 persistent effect Effects 0.000 claims description 104
- 238000000034 method Methods 0.000 claims description 69
- 230000033001 locomotion Effects 0.000 claims description 31
- 230000004044 response Effects 0.000 claims description 12
- 230000004886 head movement Effects 0.000 claims description 5
- 210000003128 head Anatomy 0.000 description 20
- 230000000007 visual effect Effects 0.000 description 19
- 230000005236 sound signal Effects 0.000 description 15
- 230000008878 coupling Effects 0.000 description 12
- 238000010168 coupling process Methods 0.000 description 12
- 238000005859 coupling reaction Methods 0.000 description 12
- 239000003550 marker Substances 0.000 description 11
- 230000009466 transformation Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 210000001747 pupil Anatomy 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 201000003152 motion sickness Diseases 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000153282 Theope Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- FDQGNLOWMMVRQL-UHFFFAOYSA-N Allobarbital Chemical compound C=CCC1(CC=C)C(=O)NC(=O)NC1=O FDQGNLOWMMVRQL-UHFFFAOYSA-N 0.000 description 1
- 241000219357 Cactaceae Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 208000004209 confusion Diseases 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 206010013395 disorientation Diseases 0.000 description 1
- 210000003027 ear inner Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 150000003014 phosphoric acid esters Chemical class 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000007474 system interaction Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/024—Guidance services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Navigation (AREA)
- Stereophonic System (AREA)
Description
本特許出願は、参照することによってその全体として本明細書に組み込まれる、2019年8月7日に出願された米国仮特許出願第62/884,153号および2019年8月30日に出願された米国仮特許出願第62/894,448号の優先権を請求する。
本開示は、概して、オーディオおよび視覚的信号を提示するためのシステムおよび方法に関し、特に、複合現実環境内のユーザ生成コンテンツに対応するオーディオおよび視覚的信号を提示するためのシステムおよび方法に関する。
仮想環境は、コンピューティング環境において普遍的であって、ビデオゲーム(仮想環境が、ゲーム世界を表し得る)、マップ(仮想環境が、ナビゲートされるべき地形を表し得る)、シミュレーション(仮想環境が、実環境をシミュレートし得る)、デジタルストーリーテリング(仮想キャラクタが、仮想環境内で相互に相互作用し得る)、および多くの他の用途において使用を見出している。現代のコンピュータユーザは、概して、快適に仮想環境を知覚し、それと相互作用する。しかしながら、仮想環境を伴うユーザの体験は、仮想環境を提示するための技術によって限定され得る。例えば、従来のディスプレイ(例えば、2Dディスプレイ画面)およびオーディオシステム(例えば、固定スピーカ)は、人を引き付け、現実的で、かつ没入型の体験を作成するように、仮想環境を実現することが不可能であり得る。
本開示の実施例は、複合現実環境内で空間命令およびガイドを作成するためのシステムおよび方法を説明する。ある例示的方法では、第1の入力が、第1の時間において、第1のユーザから受信される。座標空間内の第1の時間における第1のユーザの位置は、第1のウェアラブル頭部デバイスのセンサを使用して決定される。第1の入力に対応する持続的仮想コンテンツが、生成される。持続的仮想コンテンツは、第1の時間における第1のユーザの位置と関連付けられる。第1のユーザの場所が、決定される。第1のユーザの場所は、持続的仮想コンテンツと関連付けられる。第2の時間において、座標空間内の第2の時間における第2のユーザの位置が、決定される。持続的仮想コンテンツは、ディスプレイを介して、第2のユーザに表示される。持続的仮想コンテンツを第2のユーザに提示することは、第1の時間における第1のユーザの位置に対応する座標空間内の位置において、持続的仮想コンテンツを提示することを含む。第2のユーザの場所が、決定される。第2のユーザの場所は、持続的仮想コンテンツと関連付けられる。新しい場所が、決定され、新しい場所は、第1のユーザの場所および第2のユーザの場所に基づく。新しい場所は、持続的仮想コンテンツと関連付けられる。
本発明は、例えば、以下を提供する。
(項目1)
方法であって、
第1の時間において、第1の入力を第1のユーザから受信することと、
第1のウェアラブル頭部デバイスのセンサを使用して、前記第1の時間において、座標空間内の前記第1のユーザと関連付けられる場所を決定することと、
前記第1の入力に対応する持続的仮想コンテンツを生成することであって、前記持続的仮想コンテンツは、前記第1の時間における前記第1のユーザと関連付けられる場所と関連付けられる、ことと、
第2の時間において、前記座標空間内の前記第2の時間における第2のユーザの場所を決定することと、
前記第1の時間における前記第1のユーザと関連付けられる場所および前記第2の時間における前記第2のユーザの場所に基づいて、前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することと、
前記持続的仮想コンテンツを前記第2のユーザに提示することの決定に従って、ディスプレイを介して、前記持続的仮想コンテンツを前記第2のユーザに提示することと、
前記持続的仮想コンテンツを前記第2のユーザに提示しないことの決定に従って、前記持続的仮想コンテンツを前記第2のユーザに提示しないことと
を含み、
前記持続的仮想コンテンツを前記第2のユーザに提示することは、前記第1の時間における前記第1のユーザと関連付けられる場所に対応する前記座標空間内の場所において、前記持続的仮想コンテンツを提示することを含む、方法。
(項目2)
前記第1の入力は、前記第1のユーザの頭部の移動、前記第1のユーザの手の移動、およびハンドヘルドコントローラ入力のうちの少なくとも1つを含む、項目1に記載の方法。
(項目3)
前記センサは、位置センサおよびカメラのうちの少なくとも1つを含む、項目1に記載の方法。
(項目4)
前記仮想コンテンツは、仮想マーキングを備える、項目1に記載の方法。
(項目5)
前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することは、第2のウェアラブル頭部デバイスのセンサを使用して、前記第2のユーザの視野が前記第1の時間における前記第1のユーザと関連付けられる場所を含むかどうかを決定することを含む、項目1に記載の方法。
(項目6)
フィルタ選択を前記第2のユーザから受信することをさらに含み、前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することは、前記持続的仮想コンテンツが前記フィルタ選択と関連付けられるかどうかを決定することを含む、項目1に記載の方法。
(項目7)
新しい場所を決定することであって、前記新しい場所は、前記第1のユーザと関連付けられる場所および前記第2のユーザの場所に基づく、ことと、
前記新しい場所と前記持続的仮想コンテンツを関連付けることと
をさらに含む、項目1に記載の方法。
(項目8)
第3の時間において、前記第3の時間における第3のユーザの場所を決定することと、
前記第3のユーザの場所が前記新しい場所にあることの決定に従って、前記持続的仮想コンテンツを前記第3のユーザに提示することと
をさらに含む、項目7に記載の方法。
(項目9)
前記新しい場所はさらに、前記第1のユーザと関連付けられる場所の正確度および前記第2のユーザの場所の正確度に基づく、項目7に記載の方法。
(項目10)
前記持続的仮想コンテンツを前記第2のユーザに提示しないことの決定に従って、前記方法はさらに、
前記第2のユーザの視野が前記第1の時間における前記第1のユーザと関連付けられる場所を含むかどうかを決定することと、
前記第2のユーザの視野が前記第1の時間における前記第1のユーザと関連付けられる場所を含むことの決定に従って、前記持続的仮想コンテンツと関連付けられる第2のコンテンツを提示することと
を含む、項目1に記載の方法。
(項目11)
前記持続的仮想コンテンツが前記第2のユーザに提示される間、
第3の時間において、前記座標空間内の前記第3の時間における第3のユーザの場所を決定することと、
前記第3のユーザの場所が前記第2の場所にあることの決定に従って、
入力を前記第3のユーザから受信することと、
第1の入力の受信に応答して、前記持続的仮想コンテンツを、前記持続的仮想コンテンツの開始から、前記第3のユーザに提示することと、
第2の入力の受信に応答して、前記第2のユーザと並行して、前記持続的仮想コンテンツを前記第3のユーザに提示することと
をさらに含む、項目1に記載の方法。
(項目12)
前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの物理的場所である、項目1に記載の方法。
(項目13)
前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの仮想場所であり、前記仮想場所は、前記第1のウェアラブル頭部デバイスの物理的場所と異なる、項目1に記載の方法。
(項目14)
システムであって、
センサと、
1つまたはそれを上回るプロセッサと
を備え、前記1つまたはそれを上回るプロセッサは、方法を実行するように構成されており、前記方法は、
第1の時間において、第1の入力を第1のユーザから受信することと、
前記センサを使用して、座標空間内の前記第1の時間における前記第1のユーザと関連付けられる場所を決定することと、
前記第1の入力に対応する持続的仮想コンテンツを生成することであって、前記持続的仮想コンテンツは、前記第1の時間における前記第1のユーザと関連付けられる場所と関連付けられる、ことと、
第2の時間において、前記座標空間内の前記第2の時間における第2のユーザの場所を決定することと、
前記第1の時間における前記第1のユーザと関連付けられる場所および前記第2の時間における前記第2のユーザの場所に基づいて、前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することと、
前記持続的仮想コンテンツを前記第2のユーザに提示することの決定に従って、ディスプレイを介して、前記持続的仮想コンテンツを前記第2のユーザに提示することと、
前記持続的仮想コンテンツを前記第2のユーザに提示しないことの決定に従って、前記持続的仮想コンテンツを前記第2のユーザに提示しないことと
を含み、
前記持続的仮想コンテンツを前記第2のユーザに提示することは、前記第1の時間における前記第1のユーザと関連付けられる場所に対応する前記座標空間内の場所において、前記持続的仮想コンテンツを提示することを含む、システム。
(項目15)
前記方法はさらに、
新しい場所を決定することであって、前記新しい場所は、前記第1のユーザと関連付けられる場所および前記第2のユーザの場所に基づく、ことと、
前記新しい場所と前記持続的仮想コンテンツを関連付けることと
を含む、項目14に記載のシステム。
(項目16)
前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの物理的場所である、項目14に記載のシステム。
(項目17)
前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの仮想場所であり、前記仮想場所は、前記第1のウェアラブル頭部デバイスの物理的場所と異なる、項目14に記載のシステム。
(項目18)
コンピュータ可読媒体であって、前記コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、方法を実行させ、前記方法は、
第1の時間において、第1の入力を第1のユーザから受信することと、
第1のウェアラブル頭部デバイスのセンサを使用して、前記第1の時間において、座標空間内の前記第1のユーザと関連付けられる場所を決定することと、
前記第1の入力に対応する持続的仮想コンテンツを生成することであって、前記持続的仮想コンテンツは、前記第1の時間における前記第1のユーザと関連付けられる場所と関連付けられる、ことと、
第2の時間において、前記座標空間内の前記第2の時間における第2のユーザの場所を決定することと、
前記第1の時間における前記第1のユーザと関連付けられる場所および前記第2の時間における前記第2のユーザの場所に基づいて、前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することと、
前記持続的仮想コンテンツを前記第2のユーザに提示することの決定に従って、ディスプレイを介して、前記持続的仮想コンテンツを前記第2のユーザに提示することと、
前記持続的仮想コンテンツを前記第2のユーザに提示しないことの決定に従って、前記持続的仮想コンテンツを前記第2のユーザに提示しないことと
を含み、
前記持続的仮想コンテンツを前記第2のユーザに提示することは、前記第1の時間における前記第1のユーザと関連付けられる場所に対応する前記座標空間内の場所において、前記持続的仮想コンテンツを提示することを含む、コンピュータ可読媒体。
(項目19)
前記方法はさらに、
新しい場所を決定することであって、前記新しい場所は、前記第1のユーザと関連付けられる場所および前記第2のユーザの場所に基づく、ことと、
前記新しい場所と前記持続的仮想コンテンツを関連付けることと
を含む、項目18に記載のコンピュータ可読媒体。
(項目20)
前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの物理的場所である、項目18に記載のコンピュータ可読媒体。
実施例の以下の説明では、本明細書の一部を形成し、例証として、実践され得る具体的実施例が示される、付随の図面を参照する。他の実施例も、使用されることができ、構造変更が、開示される実施例の範囲から逸脱することなく、行われることができることを理解されたい。
Claims (17)
- 方法であって、
第1の時間における記録セッションにおいて、第1の入力を第1のユーザから受信することであって、前記第1の入力は、前記記録セッション中の前記第1のユーザの運動を示す、ことと、
第1のウェアラブル頭部デバイスのセンサを使用して、仮想環境の座標空間内の前記第1の時間における前記第1のユーザと関連付けられる場所を決定することと、
前記第1の入力に対応する持続的仮想コンテンツを生成することであって、前記持続的仮想コンテンツは、前記第1のユーザの前記運動のビデオを備え、前記持続的仮想コンテンツは、前記第1の時間における前記第1のユーザと関連付けられる場所と関連付けられる、ことと、
第2の時間において、前記座標空間内の前記第2の時間における第2のユーザの第1の場所を決定することと、
前記第1の時間における前記第1のユーザと関連付けられる場所および前記第2の時間における前記第2のユーザの前記第1の場所に基づいて、前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することと、
前記持続的仮想コンテンツを前記第2のユーザに提示することの決定に従って、ディスプレイを介して、前記持続的仮想コンテンツを前記第2のユーザに提示することであって、前記持続的仮想コンテンツを前記第2のユーザに提示することは、前記第1の時間より後の再生セッションにおいて、前記第1の時間における前記第1のユーザと関連付けられる場所に対応する前記座標空間内の場所において、前記第1のユーザの前記運動の前記ビデオを提示することを含む、ことと、
前記持続的仮想コンテンツを前記第2のユーザに提示しないことの決定に従って、前記持続的仮想コンテンツを前記第2のユーザに提示しないことと、
第3の時間において、前記座標空間内の前記第3の時間における前記第2のユーザの第2の場所が前記第2のユーザの前記第1の場所から閾値距離内にあるかどうかを決定することと、
前記第2のユーザの前記第2の場所が前記閾値距離内にないことの決定に従って、前記持続的仮想コンテンツの提示を一時停止することと、
前記第2のユーザの前記第2の場所が前記閾値距離内にあることの決定に従って、前記持続的仮想コンテンツの提示を一時停止しないことと、
新しい場所を決定することであって、前記新しい場所は、前記第1の時間における前記第1のユーザと関連付けられる場所に基づき、前記第2の時間における前記第2のユーザの前記第1の場所にさらに基づく、ことと、
前記新しい場所と前記持続的仮想コンテンツを関連付けることと
を含む、方法。 - 前記第1の入力は、前記第1のユーザの頭部の移動、前記第1のユーザの手の移動、およびハンドヘルドコントローラ入力のうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記センサは、位置センサおよびカメラのうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記持続的仮想コンテンツは、仮想マーキングを備える、請求項1に記載の方法。
- 前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することは、第2のウェアラブル頭部デバイスのセンサを使用して、前記第2のユーザの視野が前記第1の時間における前記第1のユーザと関連付けられる場所を含むかどうかを決定することを含む、請求項1に記載の方法。
- フィルタ選択を前記第2のユーザから受信することをさらに含み、前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することは、前記持続的仮想コンテンツが前記フィルタ選択と関連付けられるかどうかを決定することを含む、請求項1に記載の方法。
- 第4の時間において、前記第4の時間における第3のユーザの場所を決定することと、
前記第3のユーザの場所が前記新しい場所にあることの決定に従って、第2の再生セッションにおいて、前記持続的仮想コンテンツを前記第3のユーザに提示することと
をさらに含む、請求項1に記載の方法。 - 前記新しい場所は、前記第1の時間における前記第1のユーザと関連付けられる場所の正確度および前記第2の時間における前記第2のユーザの前記第1の場所の正確度にさらに基づく、請求項1に記載の方法。
- 前記方法は、前記持続的仮想コンテンツを前記第2のユーザに提示しないことの決定に従って、
前記第2のユーザの視野が前記第1の時間における前記第1のユーザと関連付けられる場所を含むかどうかを決定することと、
前記第2のユーザの視野が前記第1の時間における前記第1のユーザと関連付けられる場所を含むことの決定に従って、前記再生セッションにおいて、前記持続的仮想コンテンツと関連付けられる第2のコンテンツを提示することと
をさらに含む、請求項1に記載の方法。 - 前記再生セッションにおいて、前記持続的仮想コンテンツが前記第2のユーザに提示される間、
第4の時間において、前記座標空間内の前記第4の時間における第3のユーザの場所を決定することと、
前記第3のユーザの場所が前記第2の時間における前記第2のユーザの前記第1の場所にあることの決定に従って、
入力を前記第3のユーザから受信することと、
前記第3のユーザから前記入力を受信したことに応答して、前記再生セッションにおいて、前記持続的仮想コンテンツを前記第2のユーザに提示することと並行して、第2の再生セッションにおいて、前記持続的仮想コンテンツを前記第3のユーザに提示することと
をさらに含む、請求項1に記載の方法。 - 前記第1の時間における前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの物理的場所である、請求項1に記載の方法。
- 前記第1の時間における前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの仮想場所であり、前記仮想場所は、前記第1のウェアラブル頭部デバイスの物理的場所と異なる、請求項1に記載の方法。
- システムであって、
センサと、
1つまたはそれを上回るプロセッサと
を備え、
前記1つまたはそれを上回るプロセッサは、方法を実行するように構成されており、前記方法は、
第1の時間における記録セッションにおいて、第1の入力を第1のユーザから受信することであって、前記第1の入力は、前記記録セッション中の前記第1のユーザの運動を示す、ことと、
前記センサを使用して、仮想環境の座標空間内の前記第1の時間における前記第1のユーザと関連付けられる場所を決定することと、
前記第1の入力に対応する持続的仮想コンテンツを生成することであって、前記持続的仮想コンテンツは、前記第1のユーザの前記運動のビデオを備え、前記持続的仮想コンテンツは、前記第1の時間における前記第1のユーザと関連付けられる場所と関連付けられる、ことと、
第2の時間において、前記座標空間内の前記第2の時間における第2のユーザの第1の場所を決定することと、
前記第1の時間における前記第1のユーザと関連付けられる場所および前記第2の時間における前記第2のユーザの前記第1の場所に基づいて、前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することと、
前記持続的仮想コンテンツを前記第2のユーザに提示することの決定に従って、ディスプレイを介して、前記持続的仮想コンテンツを前記第2のユーザに提示することであって、前記持続的仮想コンテンツを前記第2のユーザに提示することは、前記第1の時間より後の再生セッションにおいて、前記第1の時間における前記第1のユーザと関連付けられる場所に対応する前記座標空間内の場所において、前記第1のユーザの前記運動の前記ビデオを提示することを含む、ことと、
前記持続的仮想コンテンツを前記第2のユーザに提示しないことの決定に従って、前記持続的仮想コンテンツを前記第2のユーザに提示しないことと、
第3の時間において、前記座標空間内の前記第3の時間における前記第2のユーザの第2の場所が前記第2のユーザの前記第1の場所から閾値距離内にあるかどうかを決定することと、
前記第2のユーザの前記第2の場所が前記閾値距離内にないことの決定に従って、前記持続的仮想コンテンツの提示を一時停止することと、
前記第2のユーザの前記第2の場所が前記閾値距離内にあることの決定に従って、前記持続的仮想コンテンツの提示を一時停止しないことと、
新しい場所を決定することであって、前記新しい場所は、前記第1の時間における前記第1のユーザと関連付けられる場所に基づき、前記第2の時間における前記第2のユーザの前記第1の場所にさらに基づく、ことと、
前記新しい場所と前記持続的仮想コンテンツを関連付けることと
を含む、システム。 - 前記第1の時間における前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの物理的場所である、請求項13に記載のシステム。
- 前記センサは、第1のウェアラブル頭部デバイスのセンサであり、前記第1の時間における前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの仮想場所であり、前記仮想場所は、前記第1のウェアラブル頭部デバイスの物理的場所と異なる、請求項13に記載のシステム。
- 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、方法を実行させ、前記方法は、
第1の時間における記録セッションにおいて、第1の入力を第1のユーザから受信することであって、前記第1の入力は、前記記録セッション中の前記第1のユーザの運動を示す、ことと、
第1のウェアラブル頭部デバイスのセンサを使用して、仮想環境の座標空間内の前記第1の時間における前記第1のユーザと関連付けられる場所を決定することと、
前記第1の入力に対応する持続的仮想コンテンツを生成することであって、前記持続的仮想コンテンツは、前記第1のユーザの前記運動のビデオを備え、前記持続的仮想コンテンツは、前記第1の時間における前記第1のユーザと関連付けられる場所と関連付けられる、ことと、
第2の時間において、前記座標空間内の前記第2の時間における第2のユーザの第1の場所を決定することと、
前記第1の時間における前記第1のユーザと関連付けられる場所および前記第2の時間における前記第2のユーザの前記第1の場所に基づいて、前記持続的仮想コンテンツを前記第2のユーザに提示するかどうかを決定することと、
前記持続的仮想コンテンツを前記第2のユーザに提示することの決定に従って、ディスプレイを介して、前記持続的仮想コンテンツを前記第2のユーザに提示することであって、前記持続的仮想コンテンツを前記第2のユーザに提示することは、前記第1の時間より後の再生セッションにおいて、前記第1の時間における前記第1のユーザと関連付けられる場所に対応する前記座標空間内の場所において、前記第1のユーザの前記運動の前記ビデオを提示することを含む、ことと、
前記持続的仮想コンテンツを前記第2のユーザに提示しないことの決定に従って、前記持続的仮想コンテンツを前記第2のユーザに提示しないことと、
第3の時間において、前記座標空間内の前記第3の時間における前記第2のユーザの第2の場所が前記第2のユーザの前記第1の場所から閾値距離内にあるかどうかを決定することと、
前記第2のユーザの前記第2の場所が前記閾値距離内にないことの決定に従って、前記持続的仮想コンテンツの提示を一時停止することと、
前記第2のユーザの前記第2の場所が前記閾値距離内にあることの決定に従って、前記持続的仮想コンテンツの提示を一時停止しないことと、
新しい場所を決定することであって、前記新しい場所は、前記第1の時間における前記第1のユーザと関連付けられる場所に基づき、前記第2の時間における前記第2のユーザの前記第1の場所にさらに基づく、ことと、
前記新しい場所と前記持続的仮想コンテンツを関連付けることと
を含む、非一過性コンピュータ可読媒体。 - 前記第1の時間における前記第1のユーザと関連付けられる場所は、前記座標空間内の前記第1のユーザの物理的場所である、請求項16に記載の非一過性コンピュータ可読媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023109116A JP2023130426A (ja) | 2019-08-07 | 2023-07-03 | 複合現実における空間命令およびガイド |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962884153P | 2019-08-07 | 2019-08-07 | |
US62/884,153 | 2019-08-07 | ||
US201962894448P | 2019-08-30 | 2019-08-30 | |
US62/894,448 | 2019-08-30 | ||
PCT/US2020/045496 WO2021026500A1 (en) | 2019-08-07 | 2020-08-07 | Spatial instructions and guides in mixed reality |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023109116A Division JP2023130426A (ja) | 2019-08-07 | 2023-07-03 | 複合現実における空間命令およびガイド |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022544116A JP2022544116A (ja) | 2022-10-17 |
JPWO2021026500A5 JPWO2021026500A5 (ja) | 2023-07-11 |
JP7464694B2 true JP7464694B2 (ja) | 2024-04-09 |
Family
ID=74498940
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022507405A Active JP7464694B2 (ja) | 2019-08-07 | 2020-08-07 | 複合現実における空間命令およびガイド |
JP2023109116A Pending JP2023130426A (ja) | 2019-08-07 | 2023-07-03 | 複合現実における空間命令およびガイド |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023109116A Pending JP2023130426A (ja) | 2019-08-07 | 2023-07-03 | 複合現実における空間命令およびガイド |
Country Status (5)
Country | Link |
---|---|
US (2) | US11704874B2 (ja) |
EP (1) | EP4010660A4 (ja) |
JP (2) | JP7464694B2 (ja) |
CN (1) | CN114502921A (ja) |
WO (1) | WO2021026500A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019237085A1 (en) | 2018-06-08 | 2019-12-12 | Vulcan Inc. | Session-based information exchange |
US20190378334A1 (en) * | 2018-06-08 | 2019-12-12 | Vulcan Inc. | Augmented reality portal-based applications |
US11704874B2 (en) | 2019-08-07 | 2023-07-18 | Magic Leap, Inc. | Spatial instructions and guides in mixed reality |
US11302077B2 (en) | 2020-05-29 | 2022-04-12 | Snap Inc. | Augmented reality guidance that generates guidance markers |
WO2022046674A1 (en) * | 2020-08-24 | 2022-03-03 | Sterling Labs Llc | Devices and methods for motion planning of computer characters |
US11880738B1 (en) * | 2021-08-17 | 2024-01-23 | Scandit Ag | Visual odometry for optical pattern scanning in a real scene |
CN113630593A (zh) * | 2021-08-17 | 2021-11-09 | 宁波未知数字信息技术有限公司 | 一种多模态高精度全空间混合定位系统 |
CN113727274B (zh) * | 2021-08-20 | 2023-03-24 | 中国联合网络通信集团有限公司 | 一种用户移动性确定方法、装置、设备及存储介质 |
US11863596B2 (en) | 2021-12-07 | 2024-01-02 | Snap Inc. | Shared augmented reality session creation |
CN117170504B (zh) * | 2023-11-01 | 2024-01-19 | 南京维赛客网络科技有限公司 | 在虚拟人物交互场景中带人观看的方法、系统及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001312745A (ja) | 2000-04-28 | 2001-11-09 | Sony Corp | 情報処理装置および方法、並びに格納媒体 |
JP2009271750A (ja) | 2008-05-08 | 2009-11-19 | Ntt Docomo Inc | 仮想空間提供装置、プログラム及び仮想空間提供システム |
JP2016533565A (ja) | 2013-06-18 | 2016-10-27 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 仮想オブジェクトの方向付け及び可視化 |
US20190098291A1 (en) | 2016-10-04 | 2019-03-28 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
WO2020174554A1 (ja) | 2019-02-26 | 2020-09-03 | マクセル株式会社 | 映像表示装置及び映像表示方法 |
Family Cites Families (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (de) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Kopfmontiertes optisches Durchsichtssystem |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
RU2395228C2 (ru) | 2004-04-01 | 2010-07-27 | Уилльям С. ТОРЧ | Биосенсоры, коммуникаторы и контроллеры для мониторинга движения глаз и способы их применения |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US9658473B2 (en) | 2005-10-07 | 2017-05-23 | Percept Technologies Inc | Enhanced optical and perceptual digital eyewear |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US20130077147A1 (en) | 2011-09-22 | 2013-03-28 | Los Alamos National Security, Llc | Method for producing a partially coherent beam with fast pattern update rates |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US10025379B2 (en) | 2012-12-06 | 2018-07-17 | Google Llc | Eye tracking wearable devices and methods for use |
WO2014106823A2 (en) | 2013-01-03 | 2014-07-10 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9524588B2 (en) | 2014-01-24 | 2016-12-20 | Avaya Inc. | Enhanced communication between remote participants using augmented and virtual reality |
US20170243403A1 (en) | 2014-11-11 | 2017-08-24 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
IL267052B1 (en) * | 2016-12-05 | 2024-05-01 | Univ Case Western Reserve | Systems, methods and media for presenting augmented reality interactive presentations |
WO2019055703A2 (en) | 2017-09-13 | 2019-03-21 | Magical Technologies, Llc | VIRTUAL DISPLAY PANEL, FACILITATION OF COLLABORATION, AND MESSAGE OBJECTS FOR FACILITATING COMMUNICATION SESSIONS IN AN INCREASED REALITY ENVIRONMENT |
US10467809B2 (en) * | 2018-01-03 | 2019-11-05 | Verizon Patent And Licensing Inc. | Methods and systems for presenting a video stream within a persistent virtual reality world |
GB201804383D0 (en) * | 2018-03-19 | 2018-05-02 | Microsoft Technology Licensing Llc | Multi-endpoint mixed reality meetings |
EP3746869A1 (en) * | 2018-05-07 | 2020-12-09 | Google LLC | Systems and methods for anchoring virtual objects to physical locations |
US10665028B2 (en) * | 2018-06-04 | 2020-05-26 | Facebook, Inc. | Mobile persistent augmented-reality experiences |
US10580218B1 (en) * | 2018-07-12 | 2020-03-03 | Facebook, Inc. | Augmented-reality image processing |
US10375009B1 (en) | 2018-10-11 | 2019-08-06 | Richard Fishman | Augmented reality based social network with time limited posting |
US11854148B2 (en) * | 2018-11-16 | 2023-12-26 | Microsoft Technology Licensing, Llc | Virtual content display opportunity in mixed reality |
US11704874B2 (en) | 2019-08-07 | 2023-07-18 | Magic Leap, Inc. | Spatial instructions and guides in mixed reality |
-
2020
- 2020-08-06 US US16/987,144 patent/US11704874B2/en active Active
- 2020-08-07 JP JP2022507405A patent/JP7464694B2/ja active Active
- 2020-08-07 WO PCT/US2020/045496 patent/WO2021026500A1/en unknown
- 2020-08-07 EP EP20849667.9A patent/EP4010660A4/en active Pending
- 2020-08-07 CN CN202080070151.8A patent/CN114502921A/zh active Pending
-
2023
- 2023-05-26 US US18/324,824 patent/US12020391B2/en active Active
- 2023-07-03 JP JP2023109116A patent/JP2023130426A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001312745A (ja) | 2000-04-28 | 2001-11-09 | Sony Corp | 情報処理装置および方法、並びに格納媒体 |
JP2009271750A (ja) | 2008-05-08 | 2009-11-19 | Ntt Docomo Inc | 仮想空間提供装置、プログラム及び仮想空間提供システム |
JP2016533565A (ja) | 2013-06-18 | 2016-10-27 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 仮想オブジェクトの方向付け及び可視化 |
US20190098291A1 (en) | 2016-10-04 | 2019-03-28 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
WO2020174554A1 (ja) | 2019-02-26 | 2020-09-03 | マクセル株式会社 | 映像表示装置及び映像表示方法 |
Also Published As
Publication number | Publication date |
---|---|
US20230326153A1 (en) | 2023-10-12 |
US20210043005A1 (en) | 2021-02-11 |
WO2021026500A1 (en) | 2021-02-11 |
US11704874B2 (en) | 2023-07-18 |
EP4010660A1 (en) | 2022-06-15 |
US12020391B2 (en) | 2024-06-25 |
CN114502921A (zh) | 2022-05-13 |
JP2023130426A (ja) | 2023-09-20 |
EP4010660A4 (en) | 2022-10-05 |
JP2022544116A (ja) | 2022-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7464694B2 (ja) | 複合現実における空間命令およびガイド | |
JP7445720B2 (ja) | 拡張現実のためのシステムおよび方法 | |
US11763559B2 (en) | 3D object annotation | |
US11861803B2 (en) | Session manager | |
US11335070B2 (en) | Dynamic colocation of virtual content | |
US20210375257A1 (en) | Surface appropriate collisions | |
US11477599B2 (en) | Delayed audio following | |
EP4158615A1 (en) | Determining angular acceleration | |
US20230396948A1 (en) | Delayed audio following | |
JP2022554200A (ja) | 非均一ステレオレンダリング | |
JP2023514571A (ja) | 遅延オーディオ追従 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230703 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7464694 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |