JP7503542B2 - 任意の場所における場所特有の仮想コンテンツのレンダリング - Google Patents
任意の場所における場所特有の仮想コンテンツのレンダリング Download PDFInfo
- Publication number
- JP7503542B2 JP7503542B2 JP2021518536A JP2021518536A JP7503542B2 JP 7503542 B2 JP7503542 B2 JP 7503542B2 JP 2021518536 A JP2021518536 A JP 2021518536A JP 2021518536 A JP2021518536 A JP 2021518536A JP 7503542 B2 JP7503542 B2 JP 7503542B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- scene
- saved
- virtual
- virtual content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 title claims description 59
- 238000000034 method Methods 0.000 claims description 202
- 230000000007 visual effect Effects 0.000 claims description 155
- 238000003860 storage Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 10
- 230000001960 triggered effect Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 description 90
- 230000003287 optical effect Effects 0.000 description 37
- 238000004422 calculation algorithm Methods 0.000 description 32
- 238000003384 imaging method Methods 0.000 description 29
- 230000003190 augmentative effect Effects 0.000 description 28
- 238000012545 processing Methods 0.000 description 28
- 238000013461 design Methods 0.000 description 27
- 230000003993 interaction Effects 0.000 description 25
- 210000001747 pupil Anatomy 0.000 description 24
- 230000008859 change Effects 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 15
- 210000003128 head Anatomy 0.000 description 15
- 230000004308 accommodation Effects 0.000 description 12
- 230000004438 eyesight Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 239000000463 material Substances 0.000 description 8
- 238000003825 pressing Methods 0.000 description 8
- 239000000835 fiber Substances 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000002085 persistent effect Effects 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 230000014616 translation Effects 0.000 description 6
- 230000002350 accommodative effect Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000009432 framing Methods 0.000 description 5
- 230000035807 sensation Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 241000196324 Embryophyta Species 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000005266 casting Methods 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000001902 propagating effect Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 241000271566 Aves Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000245654 Gladiolus Species 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 241000208818 Helianthus Species 0.000 description 1
- 235000003222 Helianthus annuus Nutrition 0.000 description 1
- 235000008331 Pinus X rigitaeda Nutrition 0.000 description 1
- 235000011613 Pinus brutia Nutrition 0.000 description 1
- 241000018646 Pinus brutia Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 244000305267 Quercus macrolepis Species 0.000 description 1
- 240000007651 Rubus glaucus Species 0.000 description 1
- 208000036366 Sensation of pressure Diseases 0.000 description 1
- 241000219793 Trifolium Species 0.000 description 1
- 241000722921 Tulipa gesneriana Species 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 210000000081 body of the sternum Anatomy 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002939 deleterious effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002570 electrooculography Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000013488 ordinary least square regression Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本願は、参照することによってその全体として本願に組み込まれる、2018年10月5日に出願され、「RENDERING LOCATION SPECIFIC VIRTUAL CONTENT IN ANY LOCATION」と題された、米国仮特許出願第62/742,061号の利益を35 U.S.C. § 119の下で主張する。
本発明は、例えば、以下を提供する。
(項目1)
物理的世界に関連してユーザに現れるようにレンダリングするために構成される仮想コンテンツを備える前記ユーザのための環境を維持するタイプの複合現実システムを動作させる方法であって、前記方法は、少なくとも1つのプロセッサを用いて、
前記環境内の仮想コンテンツを選択することと、
保存された場面データを不揮発性コンピュータ記憶媒体内に記憶することであって、前記保存された場面データは、
前記選択された仮想コンテンツを表すデータと、
保存された場面アンカノードに対する前記選択された仮想コンテンツの位置を示す位置情報と
を備える、ことと
を含む、方法。
(項目2)
前記複合現実システムは、前記物理的世界内のオブジェクトに基づいて、1つ以上の座標フレームを識別し、
前記方法はさらに、前記1つ以上の識別された座標フレームのうちの1つに前記保存された場面アンカノードを設置することを含む、
項目1に記載の複合現実システムを動作させる方法。
(項目3)
前記環境内の仮想コンテンツを選択することは、
表示エリアを備えるカメラアイコンを選択するユーザ入力を受信することと、
前記表示エリア内で、前記環境の一部内の仮想コンテンツの表現をレダリングすることと、
前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することと
を含む、項目1に記載の複合現実システムを動作させる方法。
(項目4)
ユーザ入力に基づいて、前記環境内の前記カメラアイコンの位置または配向を変化させることと、
前記カメラアイコンの位置および配向に基づいて、前記表示エリア内にレンダリングされる前記仮想コンテンツを動的に更新することと
をさらに含む、項目3に記載の複合現実システムを動作させる方法。
(項目5)
前記方法はさらに、ユーザ入力に基づいて、前記表示内にレンダリングされる仮想コンテンツを表す画像を捕捉することを含み、
仮想コンテンツを選択することは、前記捕捉された画像に表される前記仮想コンテンツを選択することを含む、
項目4に記載の複合現実システムを動作させる方法。
(項目6)
開くために利用可能な保存された場面のメニュー内で、前記保存された場面データと関連付けられるアイコンを生成することをさらに含み、前記アイコンは、前記捕捉された画像を備える、項目5に記載の複合現実システムを動作させる方法。
(項目7)
前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することは、ユーザ入力に基づいてトリガされる、項目3に記載の複合現実システムを動作させる方法。
(項目8)
前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することは、場面が前記表示エリア内でフレームに入れられていることを検出することに基づいて、自動的にトリガされる、項目3に記載の複合現実システムを動作させる方法。
(項目9)
前記環境内の仮想コンテンツを選択することは、前記ユーザの視野内の仮想オブジェクトを選択することを含む、項目1に記載の複合現実システムを動作させる方法。
(項目10)
前記環境内の仮想コンテンツを選択することは、前記ユーザの動眼視野内の仮想オブジェクトを選択することを含む、項目1に記載の複合現実システムを動作させる方法。
(項目11)
前記方法はさらに、前記環境内に包含するための複数の事前構築されたサブコンポーネントを示すユーザ入力を受信することによって、前記環境内の場面を作成することを含み、
前記環境内の仮想コンテンツを選択することは、前記場面の少なくとも一部を示すユーザ入力を受信することを含む、
項目1に記載の複合現実システムを動作させる方法。
(項目12)
前記環境内の仮想コンテンツを選択することは、
前記環境の少なくとも一部を示すユーザ入力を受信することと、
前記環境内の1つ以上の物理的オブジェクトの仮想表現を算出することと
を含む、項目1に記載の複合現実システムを動作させる方法。
(項目13)
仮想コンテンツを備えるユーザのための環境を維持するように、かつ物理的世界に関連して前記ユーザに現れるようにディスプレイデバイス上で前記コンテンツをレンダリングするように構成される複合現実システムであって、前記システムは、
少なくとも1つのプロセッサと、
不揮発性コンピュータ記憶媒体と、
コンピュータ実行可能命令を伴ってエンコードされた非一過性のコンピュータ可読媒体であって、前記コンピュータ実行可能命令は、前記少なくとも1つのプロセッサによって実行されると、
前記環境内の仮想コンテンツを選択することと、
保存された場面データを前記不揮発性コンピュータ記憶媒体内に記憶することであって、前記保存された場面データは、
前記選択された仮想コンテンツを表すデータと、
保存された場面アンカノードに対する前記選択された仮想コンテンツの位置を示す位置情報と
を備える、ことと
を行う、非一過性のコンピュータ可読媒体と
を備える、システム。
(項目14)
前記複合現実システムはさらに、前記物理的世界についての情報を入手するように構成される1つ以上のセンサを備え、
前記コンピュータ実行可能命令はさらに、
前記入手された情報に基づいて、1つ以上の座標フレームを識別することと、
前記1つ以上の識別された座標フレームのうちの1つに前記保存された場面アンカノードを設置することと
を行うように構成される、項目13に記載の複合現実システム。
(項目15)
前記環境内の仮想コンテンツを選択することは、
表示エリアを備えるカメラアイコンを選択するユーザ入力を受信することと、
前記表示エリア内で、前記環境の一部内の仮想コンテンツの表現をレダリングすることと、
前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することと
を含む、項目13に記載の複合現実システム。
(項目16)
前記コンピュータ実行可能命令はさらに、
ユーザ入力に基づいて、前記環境内の前記カメラアイコンの位置または配向を変化させることと、
前記カメラアイコンの位置および配向に基づいて、前記表示エリア内にレンダリングされる前記仮想コンテンツを動的に更新することと
を行うように構成される、項目13に記載の複合現実システム。
(項目17)
前記コンピュータ実行可能命令はさらに、ユーザ入力に基づいて、前記表示内にレンダリングされる仮想コンテンツを表す画像を捕捉するように構成され、
仮想コンテンツを選択することは、前記捕捉された画像に表される前記仮想コンテンツを選択することを含む、
項目16に記載の複合現実システム。
(項目18)
前記コンピュータ実行可能命令はさらに、開くために利用可能な保存された場面のメニュー内で、前記保存された場面データと関連付けられるアイコンを生成するように構成され、前記アイコンは、前記捕捉された画像を備える、項目17に記載の複合現実システム。
(項目19)
前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することは、ユーザ入力に基づいてトリガされる、項目15に記載の複合現実システム。
(項目20)
前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することは、場面が前記表示エリア内でフレームに入れられていることを検出することに基づいて、自動的にトリガされる、項目15に記載の複合現実システム。
(項目21)
複合現実システムであって、
物理的世界を視認するユーザに仮想コンテンツをレンダリングするように構成されるディスプレイと、
少なくとも1つのプロセッサと、
コンピュータ実行可能命令を記憶するコンピュータメモリであって、前記コンピュータ実行可能命令は、前記少なくとも1つのプロセッサによって実行されると、
保存された場面ライブラリの中の保存された場面を選択する前記ユーザからの入力を受信することであって、各保存された場面は、仮想コンテンツを備える、ことと、
前記ユーザの視野内で前記物理的世界内のオブジェクトに対する前記仮想コンテンツの場所を決定することと、
前記ディスプレイを制御し、前記決定された場所で前記仮想コンテンツをレンダリングすることと
を行うように構成される、コンピュータメモリと
を備える、複合現実システム。
(項目22)
前記システムは、ネットワークインターフェースを備え、
前記コンピュータ実行可能命令は、前記ネットワークインターフェースを介して、遠隔サーバから前記仮想コンテンツを読み出すように構成される、
項目21に記載の複合現実システム。
(項目23)
前記システムは、ネットワークインターフェースを備え、
前記コンピュータ実行可能命令は、前記ディスプレイを制御し、前記保存された場面ライブラリの中の保存された場面を表す複数のアイコンを備えるメニューをレンダリングするように構成され、
前記保存された場面を選択する前記ユーザからの入力を受信することは、前記複数のアイコンのうちのアイコンのユーザ選択を備える、
項目21に記載の複合現実システム。
(項目24)
前記コンピュータ実行可能命令はさらに、前記少なくとも1つのプロセッサによって実行されると、仮想ユーザインターフェースをレンダリングするように構成され、
前記ユーザからの入力を受信するように構成される前記コンピュータ実行可能命令は、前記仮想ユーザインターフェースを介してユーザ入力を受信するように構成される、
項目21に記載の複合現実システム。
(項目25)
前記コンピュータ実行可能命令はさらに、前記少なくとも1つのプロセッサによって実行されると、前記ライブラリの中の保存された場面を表す複数のアイコンのメニューを備える仮想ユーザインターフェースをレンダリングするように構成され、
保存された場面ライブラリの中の保存された場面を選択する前記ユーザからの入力を受信することは、仮想インターフェースを介してユーザ入力を受信することを含み、前記ユーザ入力は、前記メニュー内のアイコンを選択し、移動させる、
項目21に記載の複合現実システム。
(項目26)
前記コンピュータ実行可能命令は、視覚アンカノードを移動させ、前記視覚アンカノードの位置によって示される場所において前記場面のプレビュー表現を表示するユーザ入力に基づいて、前記ユーザの視野内で物理的世界内のオブジェクトに対する前記仮想コンテンツの場所を決定するように構成され、
前記コンピュータ実行可能命令はさらに、ユーザ入力に応答して、前記場面のプレビュー表現を、前記プレビュー表現内のオブジェクトに対応するが、それと異なる外観および性質を有する仮想オブジェクトと置換するように構成される、
項目21に記載の複合現実システム。
AR/MR環境では、ユーザが、新しい仮想オブジェクトを作成、構築、および/または設計することを所望し得る。ユーザは、作業プロジェクトのためのプロトタイプを作成する必要がある技師であり得る、またはユーザは、複雑なLEGO(登録商標)キットおよびパズルの中の物理的要素を用いて構築し得る人物等の遊びで構築および作成することを楽しむ10代の高校生であり得る。いくつかの状況では、ユーザは、例えば、数日、数ヶ月、または数年にさえもわたって、構築するためにしばらく時間がかかり得る、複雑な構造を伴う仮想オブジェクトを構築する必要があり得る。いくつかの実施形態では、複雑な構造を伴う仮想オブジェクトは、異なる方法で配列または使用される繰り返しコンポーネントを備えてもよい。結果として、ユーザが、時として、事前構築されたサブコンポーネントから、コンポーネントを構築し、構築されたコンポーネントのうちの1つ以上のものを別個の保存された場面として保存し、次いで、1つ以上の前もって保存された場面を利用して種々の設計を構築することを所望し得る、状況が存在する。
(ウェアラブルシステムの3Dディスプレイの実施例)
(導波管スタックアセンブリ)
(ウェアラブルシステムの他のコンポーネント)
(例示的ウェアラブルシステム、環境、およびインターフェース)
(持続的座標フレーム)
(世界メッシュ)
(ユーザ操作プロセス)
(場面を保存するためのプロセス)
(保存された場面をロードするためのプロセス)
(保存された場面をロードするためのプロセス-共有経路)
(保存された場面をロードするためのプロセス-分割経路)
(例示的実施形態)
(他の考慮点)
Claims (31)
- 物理的世界に関連してユーザに現れるようにレンダリングするために構成される仮想コンテンツを備える前記ユーザのための環境を維持するタイプの複合現実システムを動作させる方法であって、前記方法は、少なくとも1つのプロセッサを用いて、
前記環境内の仮想コンテンツを選択することと、
保存された場面データを不揮発性コンピュータ記憶媒体内に記憶することであって、前記保存された場面データは、
前記選択された仮想コンテンツを表すデータと、
保存された場面アンカノードに対する前記選択された仮想コンテンツの位置を示す位置情報と
を備える、ことと、
前記保存された場面データが後の時間に開かれることに基づいて、前記物理的世界に対する前記保存された場面アンカノードのための場所を識別し、前記保存された場面アンカノードに対して前記選択された仮想コンテンツをレンダリングすることと
を行うことを含む、方法。 - 前記複合現実システムは、前記物理的世界内のオブジェクトに基づいて、1つ以上の座標フレームを識別し、
前記方法は、前記1つ以上の識別された座標フレームのうちの1つに前記保存された場面アンカノードを設置することをさらに含む、請求項1に記載の複合現実システムを動作させる方法。 - 前記環境内の仮想コンテンツを選択することは、
表示エリアを備えるカメラアイコンを選択するユーザ入力を受信することと、
前記表示エリア内で、前記環境の一部内の仮想コンテンツの表現をレンダリングすることと、
前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することと
を含む、請求項1に記載の複合現実システムを動作させる方法。 - ユーザ入力に基づいて、前記環境内の前記カメラアイコンの位置または配向を変化させることと、
前記カメラアイコンの位置および配向に基づいて、前記表示エリア内にレンダリングされる前記仮想コンテンツを動的に更新することと
をさらに含む、請求項3に記載の複合現実システムを動作させる方法。 - 前記方法は、ユーザ入力に基づいて、前記表示エリア内にレンダリングされる仮想コンテンツを表す画像を捕捉することをさらに含み、
前記仮想コンテンツを選択することは、前記捕捉された画像に表される前記仮想コンテンツを選択することを含む、請求項4に記載の複合現実システムを動作させる方法。 - 開くために利用可能な保存された場面のメニュー内で、前記保存された場面データと関連付けられるアイコンを生成することをさらに含み、前記アイコンは、前記捕捉された画像を備える、請求項5に記載の複合現実システムを動作させる方法。
- 前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することは、ユーザ入力に基づいてトリガされる、請求項3に記載の複合現実システムを動作させる方法。
- 前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することは、場面が前記表示エリア内でフレームに入れられていることを検出することに基づいて、自動的にトリガされる、請求項3に記載の複合現実システムを動作させる方法。
- 前記環境内の仮想コンテンツを選択することは、前記ユーザの視野内の仮想オブジェクトを選択することを含む、請求項1に記載の複合現実システムを動作させる方法。
- 前記環境内の仮想コンテンツを選択することは、前記ユーザの動眼視野内の仮想オブジェクトを選択することを含む、請求項1に記載の複合現実システムを動作させる方法。
- 前記方法は、前記環境内に包含するための複数の事前構築されたサブコンポーネントを示すユーザ入力を受信することによって、前記環境内の場面を作成することをさらに含み、
前記環境内の仮想コンテンツを選択することは、前記場面の少なくとも一部を示すユーザ入力を受信することを含む、請求項1に記載の複合現実システムを動作させる方法。 - 前記環境内の仮想コンテンツを選択することは、
前記環境の少なくとも一部を示すユーザ入力を受信することと、
前記環境内の1つ以上の物理的オブジェクトの仮想表現を算出することと
を含む、請求項1に記載の複合現実システムを動作させる方法。 - 仮想コンテンツを備えるユーザのための環境を維持するように、かつ物理的世界に関連して前記ユーザに現れるようにディスプレイデバイス上で前記コンテンツをレンダリングするように構成される複合現実システムであって、前記システムは、
少なくとも1つのプロセッサと、
不揮発性コンピュータ記憶媒体と、
コンピュータ実行可能命令を伴ってエンコードされた非一過性のコンピュータ可読媒体であって、前記コンピュータ実行可能命令は、前記少なくとも1つのプロセッサによって実行されると、
前記環境内の仮想コンテンツを選択することと、
保存された場面データを前記不揮発性コンピュータ記憶媒体内に記憶することであって、前記保存された場面データは、
前記選択された仮想コンテンツを表すデータと、
保存された場面アンカノードに対する前記選択された仮想コンテンツの位置を示す位置情報と
を備える、ことと、
前記保存された場面データが後の時間に開かれることに基づいて、前記物理的世界に対する前記保存された場面アンカノードのための場所を識別し、前記保存された場面アンカノードに対して前記選択された仮想コンテンツをレンダリングすることと
を行う、非一過性のコンピュータ可読媒体と
を備える、システム。 - 前記複合現実システムは、前記物理的世界についての情報を入手するように構成される1つ以上のセンサをさらに備え、
前記コンピュータ実行可能命令は、
前記入手された情報に基づいて、1つ以上の座標フレームを識別することと、
前記1つ以上の識別された座標フレームのうちの1つに前記保存された場面アンカノードを設置することと
を行うようにさらに構成される、請求項13に記載の複合現実システム。 - 前記環境内の仮想コンテンツを選択することは、
表示エリアを備えるカメラアイコンを選択するユーザ入力を受信することと、
前記表示エリア内で、前記環境の一部内の仮想コンテンツの表現をレンダリングすることと、
前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することと
を含む、請求項13に記載の複合現実システム。 - 前記コンピュータ実行可能命令は、
ユーザ入力に基づいて、前記環境内の前記カメラアイコンの位置または配向を変化させることと、
前記カメラアイコンの位置および配向に基づいて、前記表示エリア内にレンダリングされる前記仮想コンテンツを動的に更新することと
を行うようにさらに構成される、請求項15に記載の複合現実システム。 - 前記コンピュータ実行可能命令は、ユーザ入力に基づいて、前記表示エリア内にレンダリングされる仮想コンテンツを表す画像を捕捉するようにさらに構成され、
前記仮想コンテンツを選択することは、前記捕捉された画像に表される前記仮想コンテンツを選択することを含む、請求項16に記載の複合現実システム。 - 前記コンピュータ実行可能命令は、開くために利用可能な保存された場面のメニュー内で、前記保存された場面データと関連付けられるアイコンを生成するようにさらに構成され、前記アイコンは、前記捕捉された画像を備える、請求項17に記載の複合現実システム。
- 前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することは、ユーザ入力に基づいてトリガされる、請求項15に記載の複合現実システム。
- 前記環境の一部内の少なくとも仮想コンテンツを表す保存された場面データを生成することは、場面が前記表示エリア内でフレームに入れられていることを検出することに基づいて、自動的にトリガされる、請求項15に記載の複合現実システム。
- 複合現実システムであって、
物理的世界を視認するユーザに仮想コンテンツをレンダリングするように構成されるディスプレイと、
少なくとも1つのプロセッサと、
コンピュータ実行可能命令を記憶するコンピュータメモリであって、前記コンピュータ実行可能命令は、前記少なくとも1つのプロセッサによって実行されると、
保存された場面ライブラリの中の保存された場面を選択する前記ユーザからの入力を受信することであって、各保存された場面は、仮想コンテンツを備える、ことと、
視覚アンカノードを示すユーザ入力に基づいて前記ユーザの視野内で前記物理的世界内のオブジェクトに対する前記仮想コンテンツの場所を決定することと、
前記ディスプレイを制御し、前記決定された場所で前記選択された保存された場面の前記仮想コンテンツをレンダリングすることと
を行うように構成される、コンピュータメモリと
を備える、複合現実システム。 - 前記システムは、ネットワークインターフェースを備え、
前記コンピュータ実行可能命令は、前記ネットワークインターフェースを介して、遠隔サーバから前記仮想コンテンツを読み出すように構成される、請求項21に記載の複合現実システム。 - 前記システムは、ネットワークインターフェースを備え、
前記コンピュータ実行可能命令は、前記ディスプレイを制御し、前記保存された場面ライブラリの中の保存された場面を表す複数のアイコンを備えるメニューをレンダリングするように構成され、
前記保存された場面を選択する前記ユーザからの入力を受信することは、前記複数のアイコンのうちのアイコンのユーザ選択を備える、請求項21に記載の複合現実システム。 - 前記コンピュータ実行可能命令は、前記少なくとも1つのプロセッサによって実行されると、仮想ユーザインターフェースをレンダリングするようにさらに構成され、
前記ユーザからの入力を受信するように構成される前記コンピュータ実行可能命令は、前記仮想ユーザインターフェースを介してユーザ入力を受信するように構成される、請求項21に記載の複合現実システム。 - 前記コンピュータ実行可能命令は、前記少なくとも1つのプロセッサによって実行されると、前記ライブラリの中の保存された場面を表す複数のアイコンのメニューを備える仮想ユーザインターフェースをレンダリングするようにさらに構成され、
保存された場面ライブラリの中の保存された場面を選択する前記ユーザからの入力を受信することは、仮想インターフェースを介してユーザ入力を受信することを含み、前記ユーザ入力は、前記メニュー内のアイコンを選択し、移動させる、請求項21に記載の複合現実システム。 - 前記コンピュータ実行可能命令は、前記視覚アンカノードを移動させ、前記視覚アンカノードの位置によって示される場所において前記場面のプレビュー表現を表示するユーザ入力に基づいて、前記ユーザの視野内で物理的世界内のオブジェクトに対する前記仮想コンテンツの場所を決定するように構成され、
前記コンピュータ実行可能命令は、ユーザ入力に応答して、前記場面のプレビュー表現を、前記プレビュー表現内のオブジェクトに対応するが、それと異なる外観および性質を有する仮想オブジェクトと置換するようにさらに構成される、請求項21に記載の複合現実システム。 - 前記物理的世界内の第1の場所において、前記環境内の仮想コンテンツを選択することを含み、前記仮想コンテンツは、複数の仮想オブジェクトを含む、請求項1に記載の複合現実システムを動作させる方法。
- 前記保存された場面データは、保存された場面アンカノードに対する前記複数の仮想オブジェクトの各々の位置を示す位置情報を含む、請求項27に記載の複合現実システムを動作させる方法。
- 前記保存された場面データが前記第1の場所において後の時間に開かれることに基づいて、前記保存された場面アンカノードに対して、前記複数の仮想オブジェクトの各々に関する位置情報を使用して、前記複数の仮想オブジェクトをレンダリングすることと、
前記保存された場面アンカノードに対して前記複数の仮想オブジェクトをレンダリングすることに先立って、前記保存された場面データが前記第1の場所と異なる第2の場所において後の時間に開かれることに基づいて、前記第2の場所に対する前記保存された場面アンカノードのための場所を識別することと
をさらに含む、請求項28に記載の複合現実システムを動作させる方法。 - 前記コンピュータ実行可能命令は、前記物理的世界内の第1の場所において、前記環境内の仮想コンテンツを選択するように構成され、前記仮想コンテンツは、複数の仮想オブジェクトを含む、請求項13に記載の複合現実システム。
- 前記保存された場面データは、保存された場面アンカノードに対する前記複数の仮想オブジェクトの各々の位置を示す位置情報をさらに含み、前記第1の場所における後続のレンダリングに基づいて、前記複数の仮想オブジェクトは、前記保存された場面アンカノードに対して設置され、前記複数の仮想オブジェクト間で一貫した空間相対性を維持し、前記第1の場所と異なる第2の場所における後続のレンダリングに基づいて、前記第2の場所に対する前記保存された場面アンカノードのための場所が、前記複数の仮想オブジェクトが前記保存された場面アンカノードに対して設置されることに先立って、識別される、請求項30に記載の複合現実システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024093652A JP2024113153A (ja) | 2018-10-05 | 2024-06-10 | 任意の場所における場所特有の仮想コンテンツのレンダリング |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862742061P | 2018-10-05 | 2018-10-05 | |
US62/742,061 | 2018-10-05 | ||
PCT/US2019/054836 WO2020072985A1 (en) | 2018-10-05 | 2019-10-04 | Rendering location specific virtual content in any location |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024093652A Division JP2024113153A (ja) | 2018-10-05 | 2024-06-10 | 任意の場所における場所特有の仮想コンテンツのレンダリング |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022512600A JP2022512600A (ja) | 2022-02-07 |
JPWO2020072985A5 JPWO2020072985A5 (ja) | 2022-10-11 |
JP7503542B2 true JP7503542B2 (ja) | 2024-06-20 |
Family
ID=70052292
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021518536A Active JP7503542B2 (ja) | 2018-10-05 | 2019-10-04 | 任意の場所における場所特有の仮想コンテンツのレンダリング |
JP2024093652A Pending JP2024113153A (ja) | 2018-10-05 | 2024-06-10 | 任意の場所における場所特有の仮想コンテンツのレンダリング |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024093652A Pending JP2024113153A (ja) | 2018-10-05 | 2024-06-10 | 任意の場所における場所特有の仮想コンテンツのレンダリング |
Country Status (5)
Country | Link |
---|---|
US (3) | US11232635B2 (ja) |
EP (1) | EP3861387A4 (ja) |
JP (2) | JP7503542B2 (ja) |
CN (1) | CN113196209A (ja) |
WO (1) | WO2020072985A1 (ja) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
EP3837674A4 (en) | 2018-08-13 | 2022-05-18 | Magic Leap, Inc. | CROSS REALITY SYSTEM |
JP7503542B2 (ja) | 2018-10-05 | 2024-06-20 | マジック リープ, インコーポレイテッド | 任意の場所における場所特有の仮想コンテンツのレンダリング |
JP2022533207A (ja) | 2019-05-21 | 2022-07-21 | マジック リープ, インコーポレイテッド | 稠密3d再構築データのキャッシュおよび更新 |
US11270505B2 (en) * | 2019-05-22 | 2022-03-08 | Streem, Inc | Capture of raw augmented reality data and subsequent 3D mesh generation |
EP4010771A1 (en) * | 2019-08-07 | 2022-06-15 | Boston Dynamics, Inc. | Navigating a mobile robot |
JP2022551734A (ja) | 2019-10-15 | 2022-12-13 | マジック リープ, インコーポレイテッド | 複数のデバイスタイプをサポートするクロスリアリティシステム |
JP2022551735A (ja) | 2019-10-15 | 2022-12-13 | マジック リープ, インコーポレイテッド | 無線フィンガプリントを用いたクロスリアリティシステム |
WO2021076754A1 (en) | 2019-10-15 | 2021-04-22 | Magic Leap, Inc. | Cross reality system with localization service |
EP4052086A4 (en) | 2019-10-31 | 2023-11-15 | Magic Leap, Inc. | EXTENDED REALITY SYSTEM PROVIDING QUALITY INFORMATION ABOUT PERSISTENT COORDINATE FRAMES |
WO2021096931A1 (en) | 2019-11-12 | 2021-05-20 | Magic Leap, Inc. | Cross reality system with localization service and shared location-based content |
US11521189B1 (en) * | 2019-11-15 | 2022-12-06 | Worldpay Limited | Methods and systems for collecting and releasing virtual objects between disparate augmented reality environments |
US11347371B2 (en) * | 2019-11-25 | 2022-05-31 | Unity Technologies ApS | Automatic translation of user interface elements from wireframe tools to production augmented reality framework |
JP2023504570A (ja) | 2019-12-09 | 2023-02-03 | マジック リープ, インコーポレイテッド | 仮想コンテンツの簡略化されたプログラミングを伴うクロスリアリティシステム |
US11393176B2 (en) * | 2020-02-07 | 2022-07-19 | Krikey, Inc. | Video tools for mobile rendered augmented reality game |
CN115398484A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 具有用于定位的地理定位信息优先级的交叉现实系统 |
WO2021163300A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with map processing using multi-resolution frame descriptors |
CN115427758A (zh) | 2020-02-13 | 2022-12-02 | 奇跃公司 | 具有精确共享地图的交叉现实系统 |
CN115461787A (zh) | 2020-02-26 | 2022-12-09 | 奇跃公司 | 具有快速定位的交叉现实系统 |
US11900547B2 (en) | 2020-04-29 | 2024-02-13 | Magic Leap, Inc. | Cross reality system for large scale environments |
CN111667590B (zh) * | 2020-06-12 | 2024-03-22 | 上海商汤智能科技有限公司 | 一种互动合影方法、装置、电子设备及存储介质 |
US12024919B2 (en) | 2020-07-01 | 2024-07-02 | Cmech (Guangzhou) Ltd. | Latch bolt installation structure and door lock using such structure |
SE2030252A1 (en) * | 2020-08-13 | 2022-02-14 | Nagoon AB | Method performed by a computer system for creation of augmented reality experiences and connection of these to the real world |
CN115989527A (zh) * | 2020-08-27 | 2023-04-18 | 三星电子株式会社 | 用于对增强现实媒体对象执行基于锚点的渲染的方法和装置 |
CN112037314A (zh) * | 2020-08-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 图像显示方法、装置、显示设备及计算机可读存储介质 |
WO2022074294A1 (en) | 2020-10-06 | 2022-04-14 | Nokia Technologies Oy | Network-based spatial computing for extended reality (xr) applications |
US11875462B2 (en) * | 2020-11-18 | 2024-01-16 | Adobe Inc. | Systems for augmented reality authoring of remote environments |
US20220198764A1 (en) * | 2020-12-18 | 2022-06-23 | Arkh, Inc. | Spatially Aware Environment Relocalization |
JP2024506630A (ja) | 2021-02-08 | 2024-02-14 | サイトフル コンピューターズ リミテッド | 生産性のためのエクステンデッド・リアリティ |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
JP2024507749A (ja) | 2021-02-08 | 2024-02-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるコンテンツ共有 |
WO2023009112A1 (en) * | 2021-07-28 | 2023-02-02 | Innopeak Technology, Inc. | Augmented reality content rendering |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
CN113680067B (zh) * | 2021-08-19 | 2024-10-18 | 网易(杭州)网络有限公司 | 游戏中控制虚拟道具的方法、装置、设备及存储介质 |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
CN116777965A (zh) * | 2022-03-11 | 2023-09-19 | 纬创资通股份有限公司 | 虚拟视窗配置装置、方法及系统 |
US11822939B2 (en) | 2022-03-24 | 2023-11-21 | Oracle International Corporation | Collaborative analysis system for analyzing logs |
US11914563B2 (en) * | 2022-03-24 | 2024-02-27 | Oracle International Corporation | Data structure generation system for analyzing logs |
CN115097997B (zh) * | 2022-05-23 | 2024-07-26 | 广东虚拟现实科技有限公司 | 标记图案的部署方法、装置、电子设备及存储介质 |
CN115086368B (zh) * | 2022-05-31 | 2024-08-30 | 福州华纳信息科技有限公司 | 一种基于虚拟展厅的多模式展陈的控制方法、系统及设备 |
US12079442B2 (en) | 2022-09-30 | 2024-09-03 | Sightful Computers Ltd | Presenting extended reality content in different physical environments |
CN116302296B (zh) * | 2023-05-23 | 2023-08-15 | 腾讯科技(深圳)有限公司 | 资源预览方法、装置、设备及存储介质 |
DE102023003005A1 (de) | 2023-07-24 | 2023-09-07 | Mercedes-Benz Group AG | Verfahren zum individuellen Gestalten eines Anzeigeinhaltes einer Anzeigeeinheit |
CN118071953B (zh) * | 2024-03-06 | 2024-09-24 | 辽宁科技学院 | 三维地理信息模型渲染方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016522463A (ja) | 2013-03-11 | 2016-07-28 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
WO2018125428A1 (en) | 2016-12-29 | 2018-07-05 | Magic Leap, Inc. | Automatic control of wearable display device based on external conditions |
Family Cites Families (232)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7032185B1 (en) | 1995-12-29 | 2006-04-18 | Microsoft Corporation | Graphical method and system for accessing information on a communications network |
KR100483806B1 (ko) | 2002-07-18 | 2005-04-20 | 한국과학기술원 | 예제동작을 이용한 영상기반 동작복원방법 |
US7467356B2 (en) | 2003-07-25 | 2008-12-16 | Three-B International Limited | Graphical user interface for 3d virtual display browser using virtual display windows |
ITTO20030640A1 (it) * | 2003-08-19 | 2005-02-20 | Luigi Giubbolini | Apparato d'interfaccia uomo- macchina mediante |
US20050228849A1 (en) | 2004-03-24 | 2005-10-13 | Tong Zhang | Intelligent key-frame extraction from a video |
US10809071B2 (en) | 2017-10-17 | 2020-10-20 | AI Incorporated | Method for constructing a map while performing work |
US7542034B2 (en) | 2004-09-23 | 2009-06-02 | Conversion Works, Inc. | System and method for processing video images |
US7583858B2 (en) | 2004-10-12 | 2009-09-01 | Eastman Kodak Company | Image processing based on direction of gravity |
US20080303787A1 (en) | 2005-10-21 | 2008-12-11 | Zheng Yu Brian | Touch Screen Apparatus And Methods |
CA2659672A1 (en) * | 2006-06-26 | 2008-01-03 | Icosystem Corporation | Methods and systems for interactive customization of avatars and other animate or inanimate items in video games |
US8781162B2 (en) | 2011-01-05 | 2014-07-15 | Ailive Inc. | Method and system for head tracking and pose estimation |
US20080090659A1 (en) | 2006-10-12 | 2008-04-17 | Maximino Aguilar | Virtual world event notification from a persistent world game server in a logically partitioned game console |
US8306348B2 (en) | 2007-04-24 | 2012-11-06 | DigitalOptics Corporation Europe Limited | Techniques for adjusting the effect of applying kernels to signals to achieve desired effect on signal |
JP4292426B2 (ja) | 2007-05-15 | 2009-07-08 | ソニー株式会社 | 撮像装置および撮像データ補正方法 |
US7779161B2 (en) | 2007-07-24 | 2010-08-17 | Hiconversion, Inc. | Method and apparatus for general virtual application enabling of websites |
SG183690A1 (en) | 2007-08-06 | 2012-09-27 | Trx Systems Inc | Locating, tracking, and/or monitoring personnel and/or assets both indoors and outdoors |
US9812096B2 (en) | 2008-01-23 | 2017-11-07 | Spy Eye, Llc | Eye mounted displays and systems using eye mounted displays |
US8231465B2 (en) * | 2008-02-21 | 2012-07-31 | Palo Alto Research Center Incorporated | Location-aware mixed-reality gaming platform |
US8605863B1 (en) | 2008-03-18 | 2013-12-10 | Avaya Inc. | Method and apparatus for providing state indication on a telephone call |
GB0818561D0 (en) | 2008-10-09 | 2008-11-19 | Isis Innovation | Visual tracking of objects in images, and segmentation of images |
US9064023B2 (en) | 2008-12-29 | 2015-06-23 | Avaya Inc. | Providing web content in the context of a virtual environment |
US20100208033A1 (en) * | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
US8839121B2 (en) | 2009-05-06 | 2014-09-16 | Joseph Bertolami | Systems and methods for unifying coordinate systems in augmented reality applications |
KR20100138806A (ko) | 2009-06-23 | 2010-12-31 | 삼성전자주식회사 | 자동 3차원 영상 포맷 변환 방법 및 그 장치 |
KR20100138725A (ko) | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
US20130162481A1 (en) | 2009-10-01 | 2013-06-27 | Parviz Parvizi | Systems and methods for calibration of indoor geolocation |
US9119027B2 (en) | 2009-10-06 | 2015-08-25 | Facebook, Inc. | Sharing of location-based content item in social networking service |
US8514491B2 (en) | 2009-11-20 | 2013-08-20 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8185596B2 (en) * | 2010-02-22 | 2012-05-22 | Samsung Electronics Co., Ltd. | Location-based communication method and system |
US8600803B1 (en) | 2010-05-18 | 2013-12-03 | Google Inc. | Incentivizing behavior to address pricing, tax, and currency issues in an online marketplace for digital goods |
KR101686171B1 (ko) | 2010-06-08 | 2016-12-13 | 삼성전자주식회사 | 영상 및 거리 데이터를 이용한 위치 인식 장치 및 방법 |
WO2012006578A2 (en) | 2010-07-08 | 2012-01-12 | The Regents Of The University Of California | End-to-end visual recognition system and methods |
WO2012126500A1 (en) | 2011-03-18 | 2012-09-27 | C3 Technologies Ab | 3d streets |
JP5960796B2 (ja) * | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
US8526368B2 (en) | 2011-05-17 | 2013-09-03 | Qualcomm Incorporated | Wi-Fi access point characteristics database |
US20120314031A1 (en) | 2011-06-07 | 2012-12-13 | Microsoft Corporation | Invariant features for computer vision |
US9082214B2 (en) * | 2011-07-01 | 2015-07-14 | Disney Enterprises, Inc. | 3D drawing system for providing a real time, personalized, and immersive artistic experience |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
WO2013029674A1 (en) | 2011-08-31 | 2013-03-07 | Metaio Gmbh | Method of matching image features with reference features |
US9268406B2 (en) * | 2011-09-30 | 2016-02-23 | Microsoft Technology Licensing, Llc | Virtual spectator experience with a personal audio/visual apparatus |
US8243102B1 (en) | 2011-10-12 | 2012-08-14 | Google Inc. | Derivative-based selection of zones for banded map display |
US20130141419A1 (en) | 2011-12-01 | 2013-06-06 | Brian Mount | Augmented reality with realistic occlusion |
US8977021B2 (en) | 2011-12-30 | 2015-03-10 | Mako Surgical Corp. | Systems and methods for customizing interactive haptic boundaries |
US9530221B2 (en) | 2012-01-06 | 2016-12-27 | Pelco, Inc. | Context aware moving object detection |
US9041739B2 (en) * | 2012-01-31 | 2015-05-26 | Microsoft Technology Licensing, Llc | Matching physical locations for shared virtual experience |
US9310882B2 (en) * | 2012-02-06 | 2016-04-12 | Sony Computer Entertainment Europe Ltd. | Book object for augmented reality |
US9386297B2 (en) | 2012-02-24 | 2016-07-05 | Casio Computer Co., Ltd. | Image generating apparatus generating reconstructed image, method, and computer-readable recording medium |
KR20130110907A (ko) | 2012-03-30 | 2013-10-10 | 삼성전자주식회사 | 가상 현실과 증강 현실을 이용한 원격 제어 장치 및 방법 |
US9293118B2 (en) | 2012-03-30 | 2016-03-22 | Sony Corporation | Client device |
US8965741B2 (en) * | 2012-04-24 | 2015-02-24 | Microsoft Corporation | Context aware surface scanning and reconstruction |
CN102682091A (zh) | 2012-04-25 | 2012-09-19 | 腾讯科技(深圳)有限公司 | 基于云服务的视觉搜索方法和系统 |
US9122321B2 (en) | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
WO2013167864A1 (en) | 2012-05-11 | 2013-11-14 | Milan Momcilo Popovich | Apparatus for eye tracking |
US11089247B2 (en) | 2012-05-31 | 2021-08-10 | Apple Inc. | Systems and method for reducing fixed pattern noise in image data |
US9743057B2 (en) | 2012-05-31 | 2017-08-22 | Apple Inc. | Systems and methods for lens shading correction |
US9311750B2 (en) | 2012-06-05 | 2016-04-12 | Apple Inc. | Rotation operations in a mapping application |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9310559B2 (en) | 2012-06-11 | 2016-04-12 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
US8798357B2 (en) | 2012-07-09 | 2014-08-05 | Microsoft Corporation | Image-based localization |
EP2875471B1 (en) | 2012-07-23 | 2021-10-27 | Apple Inc. | Method of providing image feature descriptors |
GB2506338A (en) | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
US9088787B1 (en) * | 2012-08-13 | 2015-07-21 | Lockheed Martin Corporation | System, method and computer software product for providing visual remote assistance through computing systems |
US8829409B2 (en) | 2012-10-10 | 2014-09-09 | Thermo Fisher Scientific Inc. | Ultra-high speed imaging array with orthogonal readout architecture |
CN102932582B (zh) | 2012-10-26 | 2015-05-27 | 华为技术有限公司 | 实现运动检测的方法及装置 |
KR102052605B1 (ko) | 2012-11-13 | 2019-12-06 | 네이버 주식회사 | 모바일 어플리케이션을 통한 바탕화면에 바로가기 설치 방법 및 그 시스템 |
US9596481B2 (en) | 2013-01-30 | 2017-03-14 | Ati Technologies Ulc | Apparatus and method for video data processing |
US9349072B2 (en) | 2013-03-11 | 2016-05-24 | Microsoft Technology Licensing, Llc | Local feature based image compression |
US10025486B2 (en) | 2013-03-15 | 2018-07-17 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
US20140267234A1 (en) | 2013-03-15 | 2014-09-18 | Anselm Hook | Generation and Sharing Coordinate System Between Users on Mobile |
KR101380854B1 (ko) | 2013-03-21 | 2014-04-04 | 한국과학기술연구원 | 웹 정보구조에 기반한 증강현실 콘텐츠 제공장치 및 방법 |
WO2014169238A1 (en) | 2013-04-11 | 2014-10-16 | Digimarc Corporation | Methods for object recognition and related arrangements |
US9154919B2 (en) | 2013-04-22 | 2015-10-06 | Alcatel Lucent | Localization systems and methods |
EP2808842B1 (en) | 2013-05-31 | 2017-08-16 | Technische Universität München | An apparatus and method for tracking and reconstructing three-dimensional objects |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9406137B2 (en) | 2013-06-14 | 2016-08-02 | Qualcomm Incorporated | Robust tracking using point and line features |
US9329682B2 (en) * | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
WO2014202258A1 (en) | 2013-06-21 | 2014-12-24 | National University Of Ireland, Maynooth | A method for mapping an environment |
US9779548B2 (en) * | 2013-06-25 | 2017-10-03 | Jordan Kent Weisman | Multiuser augmented reality system |
WO2015006784A2 (en) | 2013-07-12 | 2015-01-15 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9952042B2 (en) | 2013-07-12 | 2018-04-24 | Magic Leap, Inc. | Method and system for identifying a user location |
US9646384B2 (en) | 2013-09-11 | 2017-05-09 | Google Technology Holdings LLC | 3D feature descriptors with camera pose information |
CN110542938B (zh) | 2013-11-27 | 2023-04-18 | 奇跃公司 | 虚拟和增强现实系统与方法 |
CN106171012B (zh) | 2013-12-20 | 2020-01-17 | 英特尔公司 | 用于低功率室内定位的Wi-Fi扫描调度和功率适应 |
US10586395B2 (en) | 2013-12-30 | 2020-03-10 | Daqri, Llc | Remote object detection and local tracking using visual odometry |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9830679B2 (en) | 2014-03-25 | 2017-11-28 | Google Llc | Shared virtual reality |
US20150281869A1 (en) | 2014-03-31 | 2015-10-01 | Google Inc. | Native web-based application |
WO2015155628A1 (en) | 2014-04-07 | 2015-10-15 | Eyeways Systems Ltd. | Apparatus and method for image-based positioning, orientation and situational awareness |
US9728009B2 (en) * | 2014-04-29 | 2017-08-08 | Alcatel Lucent | Augmented reality based management of a representation of a smart environment |
GB2526263B (en) * | 2014-05-08 | 2019-02-06 | Sony Interactive Entertainment Europe Ltd | Image capture method and apparatus |
CN112651288B (zh) | 2014-06-14 | 2022-09-20 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
US10068373B2 (en) | 2014-07-01 | 2018-09-04 | Samsung Electronics Co., Ltd. | Electronic device for providing map information |
CN104143212A (zh) * | 2014-07-02 | 2014-11-12 | 惠州Tcl移动通信有限公司 | 基于穿戴设备的增强现实方法及系统 |
US10198865B2 (en) | 2014-07-10 | 2019-02-05 | Seiko Epson Corporation | HMD calibration with direct geometric modeling |
US9596411B2 (en) | 2014-08-25 | 2017-03-14 | Apple Inc. | Combined optical and electronic image stabilization |
US20190347865A1 (en) * | 2014-09-18 | 2019-11-14 | Google Inc. | Three-dimensional drawing inside virtual reality environment |
KR102276847B1 (ko) | 2014-09-23 | 2021-07-14 | 삼성전자주식회사 | 가상 오브젝트 제공 방법 및 그 전자 장치 |
US20200252233A1 (en) | 2014-09-24 | 2020-08-06 | James Thomas O'Keeffe | System and method for user profile enabled smart building control |
US10719727B2 (en) | 2014-10-01 | 2020-07-21 | Apple Inc. | Method and system for determining at least one property related to at least part of a real environment |
US9754419B2 (en) | 2014-11-16 | 2017-09-05 | Eonite Perception Inc. | Systems and methods for augmented reality preparation, processing, and application |
US20160147408A1 (en) * | 2014-11-25 | 2016-05-26 | Johnathan Bevis | Virtual measurement tool for a wearable visualization device |
US10139471B2 (en) | 2014-12-04 | 2018-11-27 | Here Global B.V. | Supporting a collaborative collection of data |
US10335677B2 (en) | 2014-12-23 | 2019-07-02 | Matthew Daniel Fuchs | Augmented reality system with agent device for viewing persistent content and method of operation thereof |
US9685005B2 (en) | 2015-01-02 | 2017-06-20 | Eon Reality, Inc. | Virtual lasers for interacting with augmented reality environments |
US9852546B2 (en) * | 2015-01-28 | 2017-12-26 | CCP hf. | Method and system for receiving gesture input via virtual control objects |
US9697796B2 (en) | 2015-03-26 | 2017-07-04 | Intel Corporation | Adaptive linear luma domain video pipeline architecture |
US20160300389A1 (en) | 2015-04-08 | 2016-10-13 | Exactigo, Inc. | Correlated immersive virtual simulation for indoor navigation |
US9467718B1 (en) * | 2015-05-06 | 2016-10-11 | Echostar Broadcasting Corporation | Apparatus, systems and methods for a content commentary community |
US20160335275A1 (en) | 2015-05-11 | 2016-11-17 | Google Inc. | Privacy-sensitive query for localization area description file |
US10373366B2 (en) | 2015-05-14 | 2019-08-06 | Qualcomm Incorporated | Three-dimensional model generation |
KR101725478B1 (ko) | 2015-05-21 | 2017-04-11 | 주식회사 맥스트 | 3d 점군 인식 기반의 증강 현실 출력 방법과 이를 수행하기 위한 장치 및 시스템 |
US20160358383A1 (en) * | 2015-06-05 | 2016-12-08 | Steffen Gauglitz | Systems and methods for augmented reality-based remote collaboration |
US20160381118A1 (en) | 2015-06-23 | 2016-12-29 | Microsoft Technology Licensing, Llc | Extracting and formatting content from web-resources |
US10492981B1 (en) | 2015-07-17 | 2019-12-03 | Bao Tran | Systems and methods for computer assisted operation |
US10335572B1 (en) | 2015-07-17 | 2019-07-02 | Naveen Kumar | Systems and methods for computer assisted operation |
WO2017039308A1 (en) | 2015-08-31 | 2017-03-09 | Samsung Electronics Co., Ltd. | Virtual reality display apparatus and display method thereof |
ES2920837T3 (es) | 2015-09-10 | 2022-08-10 | Oriient New Media Ltd | Navegar, seguir y posicionar los dispositivos móviles en zonas sin GPS o con GPS inexacto con la generación automática de mapas |
CA2941893C (en) * | 2015-09-14 | 2020-02-25 | The Toronto-Dominion Bank | Connected device-based property evaluation |
US20170094227A1 (en) * | 2015-09-25 | 2017-03-30 | Northrop Grumman Systems Corporation | Three-dimensional spatial-awareness vision system |
JP6944441B2 (ja) | 2015-09-25 | 2021-10-06 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム |
GB201517101D0 (en) | 2015-09-28 | 2015-11-11 | Univ Essex Entpr Ltd | Mixed-reality system |
US10471355B2 (en) | 2015-10-21 | 2019-11-12 | Sharp Kabushiki Kaisha | Display system, method of controlling display system, image generation control program, and computer-readable storage medium |
US9706366B2 (en) | 2015-11-06 | 2017-07-11 | International Business Machines Corporation | WiFi-fingerprint based indoor localization map |
US10254845B2 (en) | 2016-01-05 | 2019-04-09 | Intel Corporation | Hand gesture recognition for cursor control |
US10523865B2 (en) | 2016-01-06 | 2019-12-31 | Texas Instruments Incorporated | Three dimensional rendering for surround view using predetermined viewpoint lookup tables |
US10397320B2 (en) * | 2016-01-20 | 2019-08-27 | International Business Machines Corporation | Location based synchronized augmented reality streaming |
JP2019505926A (ja) | 2016-02-05 | 2019-02-28 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実のためのシステムおよび方法 |
WO2017143303A1 (en) | 2016-02-17 | 2017-08-24 | Meta Company | Apparatuses, methods and systems for sharing virtual elements |
US10373380B2 (en) | 2016-02-18 | 2019-08-06 | Intel Corporation | 3-dimensional scene analysis for augmented reality operations |
JP6776609B2 (ja) | 2016-02-22 | 2020-10-28 | デクセリアルズ株式会社 | 異方性導電フィルム |
US20180122143A1 (en) | 2016-03-15 | 2018-05-03 | Sutherland Cook Ellwood, JR. | Hybrid photonic vr/ar systems |
US10115234B2 (en) * | 2016-03-21 | 2018-10-30 | Accenture Global Solutions Limited | Multiplatform based experience generation |
US10802147B2 (en) | 2016-05-18 | 2020-10-13 | Google Llc | System and method for concurrent odometry and mapping |
US10217231B2 (en) * | 2016-05-31 | 2019-02-26 | Microsoft Technology Licensing, Llc | Systems and methods for utilizing anchor graphs in mixed reality environments |
US10586391B2 (en) | 2016-05-31 | 2020-03-10 | Accenture Global Solutions Limited | Interactive virtual reality platforms |
US10607408B2 (en) | 2016-06-04 | 2020-03-31 | Shape Labs Inc. | Method for rendering 2D and 3D data within a 3D virtual environment |
US10338392B2 (en) * | 2016-06-13 | 2019-07-02 | Microsoft Technology Licensing, Llc | Identification of augmented reality image display position |
US11201981B1 (en) | 2016-06-20 | 2021-12-14 | Pipbin, Inc. | System for notification of user accessibility of curated location-dependent content in an augmented estate |
US10504008B1 (en) | 2016-07-18 | 2019-12-10 | Occipital, Inc. | System and method for relocalization and scene recognition |
CA3033344A1 (en) | 2016-08-11 | 2018-02-15 | Magic Leap, Inc. | Automatic placement of a virtual object in a three-dimensional space |
IL307594A (en) | 2016-08-22 | 2023-12-01 | Magic Leap Inc | Virtual, augmented and mixed reality systems and methods |
US10162362B2 (en) | 2016-08-29 | 2018-12-25 | PerceptIn, Inc. | Fault tolerance to provide robust tracking for autonomous positional awareness |
US10007868B2 (en) | 2016-09-19 | 2018-06-26 | Adobe Systems Incorporated | Font replacement based on visual similarity |
RU2016138608A (ru) | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | Нейронная сеть для сегментации изображения глаза и оценки качества изображения |
US10452133B2 (en) | 2016-12-12 | 2019-10-22 | Microsoft Technology Licensing, Llc | Interacting with an environment using a parent device and at least one companion device |
WO2018125812A1 (en) | 2017-01-02 | 2018-07-05 | Gauss Surgical, Inc. | Tracking surgical items with prediction of duplicate imaging of items |
US10354129B2 (en) | 2017-01-03 | 2019-07-16 | Intel Corporation | Hand gesture recognition for virtual reality and augmented reality devices |
US10812936B2 (en) | 2017-01-23 | 2020-10-20 | Magic Leap, Inc. | Localization determination for mixed reality systems |
WO2018139773A1 (ko) | 2017-01-25 | 2018-08-02 | 한국과학기술연구원 | 무선 환경 변화에 강인한 slam 방법 및 장치 |
US10534964B2 (en) | 2017-01-30 | 2020-01-14 | Blackberry Limited | Persistent feature descriptors for video |
WO2018146558A2 (en) | 2017-02-07 | 2018-08-16 | Mindmaze Holding Sa | Systems, methods and apparatuses for stereo vision and tracking |
US10664993B1 (en) | 2017-03-13 | 2020-05-26 | Occipital, Inc. | System for determining a pose of an object |
US10460489B2 (en) * | 2017-03-15 | 2019-10-29 | Facebook, Inc. | Visual editor for designing augmented-reality effects and configuring scaling parameters |
EP3596542B1 (en) | 2017-03-17 | 2024-01-17 | Magic Leap, Inc. | Technique for recording augmented reality data |
US11017592B2 (en) | 2017-03-30 | 2021-05-25 | Magic Leap, Inc. | Centralized rendering |
US10600252B2 (en) | 2017-03-30 | 2020-03-24 | Microsoft Technology Licensing, Llc | Coarse relocalization using signal fingerprints |
US10466953B2 (en) * | 2017-03-30 | 2019-11-05 | Microsoft Technology Licensing, Llc | Sharing neighboring map data across devices |
US9754397B1 (en) * | 2017-04-07 | 2017-09-05 | Mirage Worlds, Inc. | Systems and methods for contextual augmented reality sharing and performance |
AU2018256365A1 (en) | 2017-04-19 | 2019-10-31 | Magic Leap, Inc. | Multimodal task execution and text editing for a wearable system |
CN111133365B (zh) | 2017-05-01 | 2023-03-31 | 奇跃公司 | 内容到空间3d环境的匹配 |
WO2018222756A1 (en) | 2017-05-30 | 2018-12-06 | Ptc Inc. | Object initiated communication |
CN109145927A (zh) | 2017-06-16 | 2019-01-04 | 杭州海康威视数字技术股份有限公司 | 一种对形变图像的目标识别方法及装置 |
JP6585665B2 (ja) | 2017-06-29 | 2019-10-02 | ファナック株式会社 | 仮想オブジェクト表示システム |
US10929945B2 (en) | 2017-07-28 | 2021-02-23 | Google Llc | Image capture devices featuring intelligent use of lightweight hardware-generated statistics |
US10503955B2 (en) | 2017-08-29 | 2019-12-10 | Synaptics Incorporated | Device with improved circuit positioning |
WO2019046774A1 (en) | 2017-09-01 | 2019-03-07 | Memorial Sloan Kettering Cancer Center | SYSTEMS AND METHODS FOR GENERATING 3D MEDICAL IMAGES BY SCANNING A WHOLE TISSUE BLOCK |
US10546387B2 (en) | 2017-09-08 | 2020-01-28 | Qualcomm Incorporated | Pose determination with semantic segmentation |
US10685456B2 (en) | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
CN111344716B (zh) | 2017-11-14 | 2024-07-19 | 奇跃公司 | 经由单应性变换适应的全卷积兴趣点检测和描述 |
WO2019118886A1 (en) | 2017-12-15 | 2019-06-20 | Magic Leap, Inc. | Enhanced pose determination for display device |
US10630857B2 (en) | 2017-12-21 | 2020-04-21 | Ricoh Company, Ltd. | Electronic apparatus and method to update firmware of the electronic apparatus when adding a web application to the electronic apparatus |
CN111684495A (zh) | 2017-12-22 | 2020-09-18 | 奇跃公司 | 用于在混合现实系统中管理和显示虚拟内容的方法和系统 |
US20190206258A1 (en) | 2018-01-04 | 2019-07-04 | nuTonomy Inc. | Augmented reality vehicle interfacing |
US11014242B2 (en) * | 2018-01-26 | 2021-05-25 | Microsoft Technology Licensing, Llc | Puppeteering in augmented reality |
US10403047B1 (en) * | 2018-03-01 | 2019-09-03 | Dell Products L.P. | Information handling system augmented reality through a virtual object anchor |
US11237004B2 (en) | 2018-03-27 | 2022-02-01 | Uatc, Llc | Log trajectory estimation for globally consistent maps |
US11086474B2 (en) * | 2018-04-09 | 2021-08-10 | Spatial Systems Inc. | Augmented reality computing environments—mobile device join and load |
US10838574B2 (en) * | 2018-04-09 | 2020-11-17 | Spatial Systems Inc. | Augmented reality computing environments—workspace save and load |
US10803671B2 (en) * | 2018-05-04 | 2020-10-13 | Microsoft Technology Licensing, Llc | Authoring content in three-dimensional environment |
US10812711B2 (en) | 2018-05-18 | 2020-10-20 | Samsung Electronics Co., Ltd. | Semantic mapping for low-power augmented reality using dynamic vision sensor |
CN110515452B (zh) | 2018-05-22 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
US11010977B2 (en) | 2018-05-31 | 2021-05-18 | Jido, Inc. | Method for establishing a common reference frame amongst devices for an augmented reality session |
US10706629B2 (en) | 2018-06-15 | 2020-07-07 | Dell Products, L.P. | Coordinate override in virtual, augmented, and mixed reality (xR) applications |
US10964053B2 (en) | 2018-07-02 | 2021-03-30 | Microsoft Technology Licensing, Llc | Device pose estimation using 3D line clouds |
US11182614B2 (en) | 2018-07-24 | 2021-11-23 | Magic Leap, Inc. | Methods and apparatuses for determining and/or evaluating localizing maps of image display devices |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
EP3837674A4 (en) | 2018-08-13 | 2022-05-18 | Magic Leap, Inc. | CROSS REALITY SYSTEM |
KR101985703B1 (ko) | 2018-08-24 | 2019-06-04 | 주식회사 버넥트 | 증강현실 서비스형 소프트웨어 기반의 증강현실운영시스템 |
CN112889118A (zh) | 2018-09-04 | 2021-06-01 | 阿克提雅有限公司 | 用于确定一个或多个用户的血压的系统 |
EP3629290B1 (en) | 2018-09-26 | 2023-01-04 | Apple Inc. | Localization for mobile devices |
JP7503542B2 (ja) | 2018-10-05 | 2024-06-20 | マジック リープ, インコーポレイテッド | 任意の場所における場所特有の仮想コンテンツのレンダリング |
US10984601B2 (en) * | 2018-10-21 | 2021-04-20 | Oracle International Corporation | Data visualization objects in a virtual environment |
US10839556B2 (en) | 2018-10-23 | 2020-11-17 | Microsoft Technology Licensing, Llc | Camera pose estimation using obfuscated features |
US10937191B2 (en) | 2018-10-23 | 2021-03-02 | Dell Products, Lp | Predictive simultaneous localization and mapping system using prior user session positional information |
US10854007B2 (en) | 2018-12-03 | 2020-12-01 | Microsoft Technology Licensing, Llc | Space models for mixed reality |
US20200211290A1 (en) | 2018-12-26 | 2020-07-02 | Lg Electronics Inc. | Xr device for providing ar mode and vr mode and method for controlling the same |
US11030812B2 (en) | 2019-01-02 | 2021-06-08 | The Boeing Company | Augmented reality system using enhanced models |
EP3895416A4 (en) | 2019-03-27 | 2022-03-02 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | THREE-DIMENSIONAL LOCATION USING LIGHT DEPTH IMAGERY |
US11074706B2 (en) | 2019-04-12 | 2021-07-27 | Intel Corporation | Accommodating depth noise in visual slam using map-point consensus |
CN111815755B (zh) | 2019-04-12 | 2023-06-30 | Oppo广东移动通信有限公司 | 虚拟物体被遮挡的区域确定方法、装置及终端设备 |
US11151792B2 (en) | 2019-04-26 | 2021-10-19 | Google Llc | System and method for creating persistent mappings in augmented reality |
US10748302B1 (en) | 2019-05-02 | 2020-08-18 | Apple Inc. | Multiple user simultaneous localization and mapping (SLAM) |
US20200364937A1 (en) | 2019-05-16 | 2020-11-19 | Subvrsive, Inc. | System-adaptive augmented reality |
US11010921B2 (en) | 2019-05-16 | 2021-05-18 | Qualcomm Incorporated | Distributed pose estimation |
US11145083B2 (en) | 2019-05-21 | 2021-10-12 | Microsoft Technology Licensing, Llc | Image-based localization |
US10854012B1 (en) | 2019-05-29 | 2020-12-01 | Dell Products, L.P. | Concealing loss of distributed simultaneous localization and mapping (SLAM) data in edge cloud architectures |
US20200380263A1 (en) | 2019-05-29 | 2020-12-03 | Gyrfalcon Technology Inc. | Detecting key frames in video compression in an artificial intelligence semiconductor solution |
US20200401617A1 (en) | 2019-06-21 | 2020-12-24 | White Raven Ltd | Visual positioning system |
US10852828B1 (en) | 2019-07-17 | 2020-12-01 | Dell Products, L.P. | Automatic peripheral pairing with hand assignments in virtual, augmented, and mixed reality (xR) applications |
US10936874B1 (en) | 2019-08-13 | 2021-03-02 | Dell Products, L.P. | Controller gestures in virtual, augmented, and mixed reality (xR) applications |
KR20190104928A (ko) | 2019-08-22 | 2019-09-11 | 엘지전자 주식회사 | Xr 디바이스 및 xr 디바이스 제어 방법 |
US11270515B2 (en) | 2019-09-04 | 2022-03-08 | Qualcomm Incorporated | Virtual keyboard |
CN114222960A (zh) | 2019-09-09 | 2022-03-22 | 苹果公司 | 用于计算机生成现实的多模态输入 |
US12079638B2 (en) | 2019-10-03 | 2024-09-03 | Magic Leap, Inc. | Management framework for mixed reality devices |
US11425220B2 (en) | 2019-10-08 | 2022-08-23 | Magic Leap, Inc. | Methods, systems, and computer program products for implementing cross-platform mixed-reality applications with a scripting framework |
WO2021076754A1 (en) | 2019-10-15 | 2021-04-22 | Magic Leap, Inc. | Cross reality system with localization service |
JP2022551734A (ja) | 2019-10-15 | 2022-12-13 | マジック リープ, インコーポレイテッド | 複数のデバイスタイプをサポートするクロスリアリティシステム |
JP2022551735A (ja) | 2019-10-15 | 2022-12-13 | マジック リープ, インコーポレイテッド | 無線フィンガプリントを用いたクロスリアリティシステム |
US11494995B2 (en) | 2019-10-29 | 2022-11-08 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
EP4052086A4 (en) | 2019-10-31 | 2023-11-15 | Magic Leap, Inc. | EXTENDED REALITY SYSTEM PROVIDING QUALITY INFORMATION ABOUT PERSISTENT COORDINATE FRAMES |
WO2021096931A1 (en) | 2019-11-12 | 2021-05-20 | Magic Leap, Inc. | Cross reality system with localization service and shared location-based content |
JP2023504570A (ja) | 2019-12-09 | 2023-02-03 | マジック リープ, インコーポレイテッド | 仮想コンテンツの簡略化されたプログラミングを伴うクロスリアリティシステム |
CN115398484A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 具有用于定位的地理定位信息优先级的交叉现实系统 |
WO2021163300A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with map processing using multi-resolution frame descriptors |
EP4104144A4 (en) | 2020-02-13 | 2024-06-05 | Magic Leap, Inc. | MIXED REALITY SYSTEM FOR LARGE-SCALE ENVIRONMENTS |
CN115427758A (zh) | 2020-02-13 | 2022-12-02 | 奇跃公司 | 具有精确共享地图的交叉现实系统 |
US11593951B2 (en) | 2020-02-25 | 2023-02-28 | Qualcomm Incorporated | Multi-device object tracking and localization |
CN115461787A (zh) | 2020-02-26 | 2022-12-09 | 奇跃公司 | 具有快速定位的交叉现实系统 |
US11900322B2 (en) | 2020-03-20 | 2024-02-13 | Procore Technologies, Inc. | Presence and collaboration tools for building information models |
US11900547B2 (en) | 2020-04-29 | 2024-02-13 | Magic Leap, Inc. | Cross reality system for large scale environments |
-
2019
- 2019-10-04 JP JP2021518536A patent/JP7503542B2/ja active Active
- 2019-10-04 CN CN201980080535.5A patent/CN113196209A/zh active Pending
- 2019-10-04 EP EP19868676.8A patent/EP3861387A4/en active Pending
- 2019-10-04 US US16/593,227 patent/US11232635B2/en active Active
- 2019-10-04 WO PCT/US2019/054836 patent/WO2020072985A1/en active Application Filing
-
2021
- 2021-12-10 US US17/547,773 patent/US11789524B2/en active Active
-
2023
- 2023-09-05 US US18/460,873 patent/US20240069628A1/en active Pending
-
2024
- 2024-06-10 JP JP2024093652A patent/JP2024113153A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016522463A (ja) | 2013-03-11 | 2016-07-28 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
WO2018125428A1 (en) | 2016-12-29 | 2018-07-05 | Magic Leap, Inc. | Automatic control of wearable display device based on external conditions |
Also Published As
Publication number | Publication date |
---|---|
US20220101607A1 (en) | 2022-03-31 |
WO2020072985A1 (en) | 2020-04-09 |
EP3861387A1 (en) | 2021-08-11 |
EP3861387A4 (en) | 2022-05-25 |
CN113196209A (zh) | 2021-07-30 |
JP2024113153A (ja) | 2024-08-21 |
US11232635B2 (en) | 2022-01-25 |
US20200111255A1 (en) | 2020-04-09 |
JP2022512600A (ja) | 2022-02-07 |
US11789524B2 (en) | 2023-10-17 |
US20240069628A1 (en) | 2024-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7503542B2 (ja) | 任意の場所における場所特有の仮想コンテンツのレンダリング | |
JP7492558B2 (ja) | 視野周辺の視覚的背光 | |
JP7186913B2 (ja) | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 | |
US11954243B2 (en) | Mapping and localization of a passable world | |
JP2024054287A (ja) | 3次元モデル共有のための方法およびシステム | |
JP2022549853A (ja) | 共有空間内の個々の視認 | |
US11669218B2 (en) | Real-time preview of connectable objects in a physically-modeled virtual space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7503542 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |