CN109804334B - 用于三维空间中虚拟对象的自动放置的系统和方法 - Google Patents
用于三维空间中虚拟对象的自动放置的系统和方法 Download PDFInfo
- Publication number
- CN109804334B CN109804334B CN201780062338.1A CN201780062338A CN109804334B CN 109804334 B CN109804334 B CN 109804334B CN 201780062338 A CN201780062338 A CN 201780062338A CN 109804334 B CN109804334 B CN 109804334B
- Authority
- CN
- China
- Prior art keywords
- virtual object
- user
- target virtual
- virtual
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 162
- 230000033001 locomotion Effects 0.000 claims abstract description 74
- 230000003190 augmentative effect Effects 0.000 claims abstract description 25
- 230000005484 gravity Effects 0.000 claims description 35
- 230000008859 change Effects 0.000 claims description 29
- 239000013598 vector Substances 0.000 claims description 29
- 230000001133 acceleration Effects 0.000 claims description 25
- 230000004044 response Effects 0.000 claims description 22
- 230000036461 convulsion Effects 0.000 claims description 19
- 230000003993 interaction Effects 0.000 claims description 18
- 230000005291 magnetic effect Effects 0.000 claims description 17
- 238000009877 rendering Methods 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 9
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 239000000853 adhesive Substances 0.000 claims description 3
- 230000001070 adhesive effect Effects 0.000 claims description 3
- 230000000704 physical effect Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 description 34
- 238000003384 imaging method Methods 0.000 description 32
- 210000003128 head Anatomy 0.000 description 30
- 230000008569 process Effects 0.000 description 28
- 238000004422 calculation algorithm Methods 0.000 description 26
- 210000001747 pupil Anatomy 0.000 description 24
- 238000012545 processing Methods 0.000 description 23
- 210000000695 crystalline len Anatomy 0.000 description 19
- 238000013507 mapping Methods 0.000 description 18
- 230000004308 accommodation Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 14
- 238000000605 extraction Methods 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 13
- 238000009826 distribution Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 239000000835 fiber Substances 0.000 description 7
- 238000002347 injection Methods 0.000 description 7
- 239000007924 injection Substances 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 238000005266 casting Methods 0.000 description 4
- 230000004438 eyesight Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000002350 accommodative effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 206010021403 Illusion Diseases 0.000 description 2
- 206010028347 Muscle twitching Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000007799 cork Substances 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 230000005483 Hooke's law Effects 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 208000036366 Sensation of pressure Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013488 ordinary least square regression Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000001846 repelling effect Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000004470 vergence movement Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0189—Sight systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/34—Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/388—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
- H04N13/395—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Mechanical Optical Scanning Systems (AREA)
- Mechanical Light Control Or Optical Switches (AREA)
Abstract
公开了用于在用户的三维(3D)环境中相对于目的对象自动重新定位虚拟对象的增强现实系统和方法。该系统和方法可以基于虚拟对象或目的对象的功能可见性自动将目标虚拟对象附到目的对象并且重新定向目标虚拟对象。当用户的移动超过阈值条件时,该系统和方法还可以跟踪用户的移动并从目的对象分离虚拟对象。
Description
相关申请的交叉引用
本申请要求依据35U.S.C.§119(e)的2016年8月11日提交的名称为“AUTOMATICPLACEMENT OF VIRTUAL OBJECTS IN A 3D ENVIRONMENT(在3D环境中虚拟对象的自动放置)”的美国临时申请No.62/373693和2016年8月11日提交的名称为“VIRTUAL OBJECT USERINTERFACE WITH GRAVITY(具有重力的虚拟对象用户界面)”的美国临时申请No.62/373692的优先权,其公开内容通过引用整体并入本文。
技术领域
本公开涉及虚拟现实和增强现实成像以及可视化系统,更特别地,涉及在三维(3D)空间中自动重新定位虚拟对象。
背景技术
现代计算和显示技术促进了用于所谓的“虚拟现实”、“增强现实”或“混合现实”体验的系统的开发,其中数字再现图像或其部分以它们看起来或可能被感知为真实的方式呈现给用户。虚拟现实或“VR”场景通常涉及呈现数字或虚拟图像信息而对其他实际的真实世界视觉输入不透明;增强现实或“AR”场景通常涉及呈现数字或虚拟图像信息,作为对用户周围的真实世界的可视化的增强;混合现实或“MR”涉及将真实世界和虚拟世界融合,以产生物理和虚拟对象共存并实时交互的新环境。事实证明,人类视觉感知系统非常复杂,并且产生有助于连同其它虚拟或真实世界的图像元素一起的虚拟图像元素的舒适、自然、丰富呈现的AR技术是具有挑战性的。本文公开的系统和方法解决了与AR和VR技术相关的各种挑战。
发明内容
描述了用于自动重新定位虚拟对象的增强现实系统的各种实施例。
在一个示例实施例中,公开了一种用于在三维(3D)环境中自动重新定位虚拟对象的增强现实(AR)系统。该AR系统包括被配置为在3D视图中呈现虚拟内容AR显示器和与AR显示器通信的硬件处理器。该硬件处理器被编程为:识别用户的3D环境中的目标虚拟对象,其中向目标虚拟对象分配表示第一位置和第一取向的一个向量;接收将目标虚拟对象附到目的对象的指示,其中向目的对象分配表示第二位置和第二取向的至少一个向量;至少部分地基于第一位置和第二位置计算目标虚拟对象与目的对象之间的轨迹;沿着轨迹朝向目的对象移动目标虚拟对象;跟踪目标虚拟对象的当前位置;至少部分地基于目标虚拟对象的当前位置和第二位置来计算目标虚拟对象与目的对象之间的距离;确定目标虚拟对象与目的虚拟对象的距离是否小于阈值距离;响应于距离小于或等于阈值距离的比较,自动将目标虚拟对象附到目的对象并将目标虚拟对象定向到第二取向;以及通过AR显示器在第二位置处渲染具有第二取向的目标虚拟对象,其中在第二取向下目标虚拟对象覆盖在目的对象上。
在另一示例实施例中,公开了一种用于在三维(3D)环境中自动重新定位虚拟对象的方法。该方法包括可以在包括计算机硬件的增强现实(AR)系统的控制下被执行,AR系统被配置为允许用户与3D环境中的对象的交互。该方法包括:识别用户的3D环境中的目标虚拟对象,目标虚拟对象具有第一位置和第一取向;接收相对于目的对象重新定位目标虚拟对象的指示;识别用于重新定位目标虚拟对象的参数;分析与3D环境、目标虚拟对象和目的对象中的至少一个相关联的功能可见性(affordance);基于功能可见性计算用于重新定位目标虚拟对象的参数的值;基于用于重新定位目标虚拟对象的参数的值来确定目标虚拟对象的第二位置和第二取向以及目标虚拟对象的移动;以及以第二位置和第二取向以及从第一位置和第一取向到达第二位置和第二取向的目标虚拟对象的移动来渲染目标虚拟对象。
此说明书所述主题的一个或多个实施方式的细节在下面的附图和描述中阐述。从描述、附图和权利要求中,其他特征、方面以及优势将变得显而易见。本发明内容和之后的具体实施方式都不旨在限定或限制本发明主题的范围。
附图说明
图1描绘了具有由人观看到的某些虚拟现实对象和某些物理对象的混合现实场景的图示。
图2示意性地示出了可穿戴显示系统的示例。
图3示意性地示出了使用多个深度平面模拟三维图像的方法的方面。
图4示意性地示出了用于将图像信息输出给用户的波导堆叠的示例。
图5示出了可以由波导输出的示例性出射光束。
图6是示出了光学系统的示意图,该光学系统包括波导设备、用于将光光学耦合到波导设备或光学耦合来自波导设备的光的光学耦合器子系统、以及用于产生多焦点体积显示、图像或光场的控制子系统。
图7是可穿戴系统的示例的框图。
图8是渲染与识别的对象有关的虚拟内容的方法的示例的过程流程图。
图9是可穿戴系统的另一示例的框图。
图10是用于确定到可穿戴系统的用户输入的方法的示例的过程流程图。
图11是用于与虚拟用户界面交互的方法的示例的过程流程图。
图12A和12B示出了将虚拟对象自动附到桌子的示例。
图13A、13B、13C和13D示出了当虚拟对象的一部分接触墙壁时自动定向虚拟对象的示例。
图14A、14B、14C和14D示出了将虚拟对象从桌子移动到墙壁的示例。
图15A、15B和15C示出了从侧视图附接和定向虚拟对象的示例。
图15D和15E示出了从墙壁分离虚拟对象的示例。
图15F、15G和15H示出了从侧视图附接和定向虚拟对象的附加示例。
图16是用于附接和定向虚拟对象的示例方法。
图17是用于从用户环境中的另一对象分离虚拟对象的示例方法。
在整个附图中,可以重复使用附图标记来指示所引用的元件之间的对应关系。提供附图是为了说明本文描述的示例实施例,而不是为了限制本公开的范围。
具体实施方式
概述
在AR/MR环境中,用户可能想要通过改变虚拟对象的位置或取向来重新定位虚拟对象。作为一个示例,用户可以在三维(3D)空间中移动虚拟对象并将虚拟对象附到用户环境中的物理对象。虚拟对象可以是二维(2D)或3D对象。例如,虚拟对象可以是平面2D电视显示器或3D虚拟咖啡壶。用户可以沿轨迹移动虚拟对象并且通过使用用户输入设备(例如,图腾(totem))和/或通过改变用户的姿势将虚拟对象附到物理对象。例如,用户可以移动用户输入设备以使虚拟电视(TV)屏幕从桌子移动到墙壁。类似地,AR系统可以允许用户利用头部姿势来选择并移动虚拟对象。当用户移动他的头部时,虚拟对象也移动并相应地定位和定向。
然而,3D空间中的虚拟对象的移动有时对于用户来说可能是有问题的,因为移动可能产生视错觉,这可能导致用户对其当前位置的混淆。例如,用户可能会对物体是否远离他或向他移动感到困惑。当用户与AR系统交互时,这些视错觉可能导致认知疲劳。
此外,当用户试图将虚拟对象放置在目的对象的表面上或目的对象的内部时,用户经常需要进行精细的移动以在3D空间中在多个方向上定向和定位虚拟对象,以使虚拟对象与目的对象对齐。例如,当用户将虚拟电视屏幕从桌子移动到墙壁时,用户可能需要定向虚拟屏幕,使得电视屏幕的表面法线面向用户(例如,由电视屏幕显示的内容面向用户而不是墙壁)。用户可以进一步定向虚拟屏幕,使得用户在观看虚拟TV屏幕时不必转动他的头部。另外,为了使虚拟TV屏幕看起来位于墙壁的顶部(而不是看起来嵌入到墙壁中),用户可能需要对虚拟TV屏幕的位置进行小的调整。这些操作可能是耗时的并且难以使用户精确地执行,并且可能导致用户的身体疲劳。
为了解决这些问题中的一些或全部,AR系统可以被配置为通过改变目标虚拟对象的位置或取向来自动重新定位目标虚拟对象。作为一个示例,当虚拟对象与目标对象之间的距离小于阈值距离时,AR系统可以定向目标虚拟对象并将目标虚拟对象附到目的对象。AR系统还可以通过就好像目标虚拟对象受到物理力(例如,诸如胡克定律的弹力、重力、粘合力、电磁力等)一样来移动虚拟对象以自动地重新定位目标虚拟对象。例如,当虚拟对象和目标对象在阈值距离内时,AR系统可以自动地将虚拟对象“捕捉(snap)”到目标对象上,就好像虚拟对象和目标对象由于吸引力而被吸引在一起(例如,模仿磁吸引或重力)。因此,AR系统可以在对象之间施加虚拟力,其中虚拟力模拟或充当对象之间的物理力。虽然在许多情况下虚拟(或模拟的物理)力可能是吸引的,但这不是限制,并且在其他情况下,虚拟(或模拟的物理)力可能是排斥的,倾向于使对象彼此远离。当放置目标虚拟对象使得其他附近的虚拟对象被从目标对象排斥(至少稍微地)时,排斥虚拟力可能是有利的,从而稍微移动以在其他附近的对象当中为目标虚拟对象的放置提供空间。
AR系统可以进一步定向虚拟对象以使虚拟对象的表面法线与用户的凝视方向对准。作为示例,虚拟对象最初可以在用户的环境中浮动。用户可以指示意图(例如,通过身体姿势或用户输入设备的激活)以将虚拟对象移动到水平表面,例如桌面或地板。一旦虚拟对象足够靠近水平表面,AR系统可以模拟重力的效果并自动地将虚拟对象落到水平表面上而无需额外的用户努力。
在一些情况下,用户可能想要从虚拟对象所附到的对象来分离虚拟对象。AR系统可以模拟虚拟对象和对象之间的吸引力(例如,模拟磁体如何粘附到诸如冰箱的磁性表面或书如何位于水平桌子上),使得用户可能无法立即从对象中分离虚拟对象,除非用户提供了应该分离虚拟对象的充分指示。例如,用户可以用他的手或虚拟指示器“抓住”虚拟对象并“猛拉”对象(例如,通过用户的手位置或虚拟指示器位置的足够快速的改变)。分离虚拟对象的指示可以通过大于阈值条件的移动来指示(例如当移动超过阈值距离、阈值速度、阈值加速度或加速度的阈值变化率或其组合等时)。这可能是特别有利的,因为它降低了用户在与虚拟对象交互时意外地分离虚拟对象的可能性。作为示例,当用户使用附到墙壁的虚拟屏幕来玩游戏时,用户可能需要移动他的图腾以找到朋友或敌人或者与朋友或敌人交互。这种类型的游戏移动可以与用于使虚拟对象从墙壁分离的移动类型一致。通过仅在用户的移动足够高于合适的阈值的情况下从墙壁分离虚拟对象,在玩游戏期间不会无意地分离虚拟屏幕。另外,用户通常不能持续长时间段保持他的姿势或用户输入设备静止。结果,当用户不旨向分离虚拟对象时,虚拟对象可能由于用户的微小移动而被意外地分离。因此,通过仅在用户的移动足够高于合适的阈值的情况下分离虚拟对象,用户的轻微移动或抽动将不会无意地将虚拟对象从其预期位置或取向分离。
可穿戴系统的3D显示的示例
可穿戴系统(本文也称为增强现实(AR)系统)可以被配置为向用户呈现2D或3D虚拟图像。图像可以是静止图像、视频的帧或视频以及其组合等。可穿戴系统可以包括可穿戴设备,该可穿戴设备可以单独或组合地呈现VR、AR或MR环境以用于用户交互。可穿戴设备可以是可互换地用作AR设备(ARD)的头戴式设备(HMD)。此外,为了本公开的目的,术语“AR”可与术语“MR”交换地使用。
图1描绘了具有某些虚拟现实对象以及由人观看的某些物理对象的混合现实场景的示例。在图1中,描绘了MR场景100,其中MR技术的用户看到以人、树木、背景中的建筑物和混凝土平台120为特征的真实世界公园状设置110。除了这些项目之外,MR技术的用户同样感知到他“看到”站在真实世界平台120上的机器人雕像130,以及飞过的卡通式化身角色140,该化身角色140看起来是大黄蜂的化身,即使这些元素在真实世界中不存在。
为了使3D显示产生真实的深度感,更具体地,产生模拟的表面深度感,可能期望显示器视场中的每个点产生与其虚拟深度对应的调节(accommodative)响应。如果对显示点的调节响应未与该点的虚拟深度对应,如通过会聚和立体视觉的双目深度提示所确定的,则人眼可能经历调节冲突,导致不稳定的成像、有害的眼睛疲劳、头痛,以及在缺乏调节信息的情况下,几乎完全缺少表面深度。
VR、AR和MR体验可以由具有显示器的显示系统提供,在显示器中,与多个深度平面对应的图像被提供给观看者。对于每个深度平面,图像可以是不同的(例如,提供场景或对象的略微不同的呈现),并且该图像可以由观看者的眼睛单独聚焦,从而有助于基于需要被聚焦到位于不同深度平面上的场景的不同图像特征的眼睛的调节或基于观察离焦的不同深度平面上的不同图像特征,为用户提供深度提示。如本文其他地方所讨论的,这种深度提示提供了可靠的深度感知。
图2示出了可穿戴系统200的示例。显示系统200包括显示器62、以及支持该显示器220的功能的各种机械和电子模块和系统。显示器220可以与框架230耦接,该框架可以由用户、佩戴者或观看者210佩戴。可以将显示器220定位在用户210的眼睛前方。显示器220可以向用户呈现AR/VR/MR内容。显示器220可以包括佩戴在用户的头部上的头戴式显示器。在一些实施例中,扬声器240被耦接到框架230并且位于用户的耳道附近(在一些实施例中,另一扬声器(未示出)位于用户的另一耳道附近以提供立体声/可塑形声音控制)。显示器220可以包括音频传感器(例如,麦克风),用于检测来自环境的音频流,其中语音识别要在该环境上执行。
可穿戴系统200可以包括观察用户周围的环境中的世界的面向外的成像系统464(如图4所示)。可穿戴系统200还可以包括能够跟踪用户的眼睛运动的面向内的成像系统462(如图4所示)。面向内的成像系统可以跟踪一只眼睛的运动或两只眼睛的运动。面向内的成像系统462可以附到框架230并且可以与处理模块260或270电通信,处理模块260或270可以处理由面向内的成像系统获取的图像信息以确定例如眼睛的瞳孔直径或取向、用户210的眼睛运动或眼睛姿态。
作为示例,可穿戴系统200可以使用面向外的成像系统464或面向内的成像系统462来获取用户姿态的图像。图像可以是静止图像、视频的帧或视频以及其组合等。
显示器220可以可操作地(诸如通过有线引线或无线连接)被耦接250到本地数据处理和模块260,本地数据处理和模块260可以以各种配置安装,诸如被固定地附到框架230上、被固定地附到由用户佩戴的头盔或帽子上、被嵌入头戴耳机内、或者其它的可拆卸地附到用户210(例如,以背包式配置、以带耦接式配置)。
本地处理和数据模块260可以包括硬件处理器以及诸如非易失性存储器(例如,闪速存储器)的数字存储器,这两者都可用于辅助处理、高速缓存和存储数据。该数据可以包括:a)从传感器(其例如可以可操作地耦接到框架230或者其它的可操作地附到用户210)捕捉的数据,所述传感器例如为图像捕捉设备(例如,面向内的成像系统或面向外的成像系统中的相机)、音频传感器(例如,麦克风)、惯性测量单元(IMU)、加速度计、罗盘、全球定位系统(GPS)单元、无线电设备或陀螺仪;或b)使用远程处理模块270或远程数据储存库280获取和/或处理的数据,这些数据可以在这样的处理或检索之后被传送到显示器220。本地处理和数据模块260可以诸如经由有线或无线通信链路可操作地通过通信链路262或264耦接到远程处理模块270或远程数据储存库280,使得这些远程模块可用作本地处理和数据模块260的资源。此外,远程处理模块280和远程数据储存库280可以可操作地彼此耦接。
在一些实施例中,远程处理模块270可以包括一个或多个处理器,这些硬件处理器被配置为分析和处理数据或图像信息。在一些实施例中,远程数据储存库280可以包括数字数据存储设施,该设施可以通过因特网或“云”资源配置中的其它网络配置而可用。在一些实施例中,在本地处理和数据模块中存储所有数据并且执行所有计算,从而允许从远程模块完全自主的使用。
人类视觉系统是复杂的并且提供对深度的真实感知是具有挑战性的。不受理论的限制,据信对象的观看者可能由于聚散和调节的组合而将对象感知为三维的。两只眼睛相对于彼此的聚散运动(即,瞳孔向着彼此或远离彼此以会聚眼睛的视线来注视对象的转动动作)与眼睛的晶状体的聚焦(或“调节”)紧密相关。在正常情况下,改变眼睛的晶状体的聚焦或者使眼睛调节以将聚焦从一个对象改变到位于不同距离处的另一对象,将会在被称为“调节-聚散度反射(accommodation-vergence reflex)”的关系下自动导致到相同距离的聚散度的匹配变化。同样,在正常情况下,聚散度的变化将引发调节的匹配变化。提供调节与聚散度之间的更好匹配的显示系统可以形成更逼真和更舒适的三维图像模拟。
图3示出了示出了使用多个深度平面模拟三维图像的方法的方面。参考图3,在z轴上距眼睛302和304的不同距离处的对象由眼睛302和304调节,以使得那些对象对焦(infocus)。眼睛302和304呈现特定的调节状态,以使沿着z轴的不同距离处的对象进入焦点。因此,可以说特定的调节状态与深度平面306中的特定一个深度平面相关联,该特定深度平面具有相关联的焦距,以使得当眼睛处于该深度平面的调节状态时,特定深度平面中的对象或对象的部分对焦。在一些实施例中,可以通过为眼睛302和304中的每一者提供图像的不同呈现来模拟三维图像,并且还可以通过提供与深度平面中每一个深度平面对应的图像的不同呈现来模拟三维图像。尽管为了清楚说明而示出为分离的,但应理解的是,例如,随着沿着z轴的距离增加,眼睛302和304的视场可以重叠。另外,虽然为了便于说明而示出为平坦的,但应理解的是,深度平面的外形可以在物理空间中是弯曲的,使得深度平面中的所有特征在特定的调节状态下与眼睛对焦。不受理论的限制,据信人类眼睛通常可以解释有限数量的深度平面以提供深度感知。因此,通过向眼睛提供与这些有限数量的深度平面中的每一个深度平面对应的图像的不同呈现,可以实现方式高度可信的感知深度模拟。
波导堆叠组件
图4示出了示出了用于向用户输出图像信息的波导堆叠的示例。可穿戴系统400包括可以用于采用多个波导432b、434b、436b、438b、4400b向眼睛/大脑提供三维感知的波导堆叠或堆叠波导组件480。在一些实施例中,可穿戴系统400可对应于图2的可穿戴系统200,其中图4更详细地示意性地示出了该可穿戴系统200的一些部分。例如,在一些实施例中,波导组件480可以集成到图2的显示器220。
继续参考图4,波导组件480可以还包括位于波导之间的多个特征458、456、454、452。在一些实施例中,特征458、456、454、452可以是透镜。在其他实施例中,特征458、456、454、452可以不是透镜。然而,它们可以简单地是隔离物(例如,用于形成气隙的覆层或结构)。
波导432b、434b、436b、438b、440b或多个透镜458、456、454、452可以被配置为以各种级别的波前曲率或光线发散向眼睛发送图像信息。每个波导级别可以与特定的深度平面相关联,并且可以被配置为输出与该深度平面对应的图像信息。图像注入设备420、422、424、426、428可以用于将图像信息注入到波导440b、438b、436b、434b、432b中,其中的每个波导可以被配置为分配入射光穿过每个相应的波导,用于向眼睛410输出。光离开图像注入设备420、422、424、426、428的输出表面并被注入到波导440b、438b、436b、434b、432b的相应输入边缘。在一些实施例中,可以将单个光束(例如,准直光束)注入到每个波导中,以便以与特定波导相关联的深度平面对应的特定角度(和发散量)输出朝向眼睛410定向的克隆准直光束的整个视场。
在一些实施例中,图像注入设备420、422、424、426、428是分立的显示器,每个显示器产生用于分别注入到相应波导440b、438b、436b、434b、432b中的图像信息。在一些其它实施例中,图像注入设备420、422、424、426、428是单个复用显示器的输出端,其可以例如经由一个或多个光导管(诸如,光纤线缆)向图像注入设备420、422、424、426、428中的每一个图像注入设备用管输送图像信息。
控制器460控制堆叠波导组件480和图像注入设备420、422、424、426、428的操作。在一些实施例中,控制器460包括编程(例如,非暂时性计算机可读介质中的指令),该编程调整图像信息到波导440b、438b、436b、434b、432b的定时和提供。在一些实施例中,控制器460可以是单个整体设备,或者是通过有线或无线通信通道连接的分布式系统。在一些实施例中,控制器460可以是处理模块260或270(在图2中示出)的部分。
波导440b、438b、436b、434b、432b可以被配置为通过全内反射(TIR)在每个相应的波导内传播光。波导440b、438b、436b、434b、432b可以各自是平面的或具有其它形状(例如,曲面的),其具有顶部主表面和底部主表面以及在这些顶部主表面与底部主表面之间延伸的边缘。在所示的配置中,波导440b、438b、436b、434b、432b可以各自包括光提取学元件440a、438a、436a、434a、432a,这些耦出光学元件被配置为通过将每一个相应波导内传播的光重新定向到波导外而将光提取到波导外,以向眼睛410输出图像信息。所提取的光也可以被称为耦出光,并且光提取光学元件也可以被称为耦出光学元件。所提取的光束在波导中传播的光照射到光重新定向元件。光提取光学元件(440a、438a、436a、434a、432a)可以例如为反射或衍射光学特征。虽然为了便于描述和清晰绘图起见而将其图示为设置在波导440b、438b、436b、434b、432b的底部主表面处,但是在一些实施例中,光提取光学元件440a、438a、436a、434a、432a可以设置在顶部和/或底部主表面处和/或可以直接设置在波导440b、438b、436b、434b、432b的体积中。在一些实施例中,光提取光学元件440a、438a、436a、434a、432a可以形成在被附到透明基板的材料层中以形成波导440b、438b、436b、434b、432b。在一些其它实施例中,波导440b、438b、436b、434b、432b可以是单片材料,并且光提取光学元件440a、438a、436a、434a、432a可以形成在该片材料的表面上或该片材料的内部中。
继续参考图4,如本文所讨论的,每个波导440b、438b、436b、434b、432b被配置为输出光以形成与特定深度平面对应的图像。例如,最接近眼睛的波导432b可以被配置为将如注入到这种波导432b中的准直光传送到眼睛410。准直光可以代表光学无限远焦平面。下一个上行波导434b可以被配置为将穿过第一透镜452(例如,负透镜)的准直光在其可以到达眼睛410之前发送出。第一透镜452可以被配置为产生轻微凸面的波前曲率,使得眼睛/大脑将来自下一个上行波导434b的光解释为来自第一焦平面,该第一焦平面从光学无限远处更靠近向内朝向眼睛410。类似地,第三上行波导436b使其输出光在到达眼睛410之前穿过第一透镜452和第二透镜454;第一和第二透镜452和454的组合光焦度(optical power)可被配置为产生另一增量的波前曲率,以使得眼睛/大脑将来自第三波导436b的光解释为来自第二焦平面,该第二焦平面从光学无穷远比来自下一个上行波导434b的光更靠近向内朝向人。
其它波导层(例如,波导438b、440b)和透镜(例如,透镜456、458)被类似地配置,其中堆叠中的最高波导440b通过它与眼睛之间的所有透镜发送其输出,用于代表最靠近人的焦平面的聚合焦度(aggregate focal power)。当在堆叠波导组件480的另一侧上观看/解释来自世界470的光时,为了补偿透镜458、456、454、452的堆叠,补偿透镜层430可以设置在堆叠的顶部处以补偿下面的透镜堆叠458、456、454、452的聚合焦度。这种配置提供了与可用波导/透镜配对一样多的感知焦平面。波导的光提取光学元件和透镜的聚焦方面可以是静态的(例如,不是动态的或电活性的)。在一些替代实施例中,两者之一或两者都可以是使用电活性特征而动态的。
继续参考图4,光提取光学元件440a、438a、436a、434a、432a可以被配置为将光重新定向到它们相应的波导之外并且针对与该波导相关联的特定深度平面输出具有适当的发散量或准直量的该光。结果,具有不同相关联深度平面的波导可具有不同的光提取光学元件的配置,这些耦出光学元件依赖于相关联的深度平面而输出具有不同发散量的光。在一些实施例中,如本文所讨论的,光提取光学元件440a、438a、436a、434a、432a可以是体积或表面特征,其可以被配置为以特定角度输出光。例如,光提取光学元件440a、438a、436a、434a、432a可以是体积全息图、表面全息图和/或衍射光栅。诸如衍射光栅光提取光学元件在2015年6月25日公开的美国专利公开No.2015/0178939中有所描述,该专利公开的全部内容通过引用合并于此。
在一些实施例中,光提取光学元件440a、438a、436a、434a、432a是形成衍射图案的衍射特征,或者说“衍射光学元件”(在此也称为“DOE”)。优选地,DOE具有相对低的衍射效率,以使得光束的仅一部分光通过DOE的每一个交点而偏转向眼睛410,而其余部分经由全内反射而继续移动通过波导。携带图像信息的光可以因此被分成多个相关的出射光束,这些出射光束在多个位置处离开波导,并且结果对于在波导内反弹的该特定准直光束是朝向眼睛304的相当均匀图案的出射发射。
在一些实施例中,一个或多个DOE可以在它们活跃地衍射的“开”状态与它们不显著衍射的“关”状态之间可切换。例如,可切换的DOE可以包括聚合物分散液晶层,其中微滴在主体介质中包含衍射图案,并且微滴的折射率可以被切换为基本上匹配主体材料的折射率(在这种情况下,图案不会明显地衍射入射光),或者微滴可以被切换为与主体介质的折射率不匹配的折射率(在这种情况下,该图案活跃地衍射入射光)。
在一些实施例中,深度平面或景深的数量和分布可以基于观看者的眼睛的瞳孔尺寸或取向动态地改变。景深可以与观看者的瞳孔尺寸成反比地改变。结果,随着观看者眼睛的瞳孔的尺寸减小,景深增加使得一个平面不可辨别,因为该平面的位置超出眼睛的焦深,随着瞳孔尺寸的减少和相应的景深增加,该平面可能变得可辨别并且看起来更加对焦。同样地,用于向观看者呈现不同图像的间隔开的深度平面的数量可以随着瞳孔尺寸的减小而减小。例如,在不调节眼睛离开一个深度平面并到另一个深度平面的调节的情况下,观看者可能无法以一个瞳孔尺寸清楚地感知第一深度平面和第二深度平面的细节。然而,这两个深度平面可以在不改变调节的情况下以另一瞳孔尺寸同时充分地对焦于用户。
在一些实施例中,显示系统可以基于瞳孔尺寸或取向的确定或者在接收到指示特定瞳孔尺寸或取向的电信号之后,改变接收图像信息的波导的数量。例如,如果用户的眼睛不能区分与两个波导相关联的两个深度平面,则控制器460(其可以是本地处理和数据模块260的实施例)可以被配置或编程为停止向这些波导中的一个提供图像信息。有利地,这可以减少系统上的处理负担,从而增加系统的响应性。在用于波导的DOE可在接通和断开状态之间切换的实施例中,当波导确实接收图像信息时,DOE可以切换到断开状态。
在一些实施例中,可以期望使出射光束满足直径小于观看者眼睛直径的条件。然而,考虑到观看者瞳孔尺寸的变化,满足这种条件可能是具有挑战性的。在一些实施例中,通过响应于观看者瞳孔的尺寸的确定而改变出射光束的尺寸,在宽范围的瞳孔尺寸上满足该条件。例如,随着瞳孔尺寸减小,出射光束的尺寸也可能减小。在一些实施例中,可以使用可变孔径来改变出射光束尺寸。
可穿戴系统400可包括对世界470的一部分成像的面向外的成像系统464(例如,数码相机)。世界470的该部分可被称为世界相机的视场(FOV),并且成像系统464有时被称为FOV相机。可供观看者观看或成像的整个区域可被称为注视场(field of regard)(FOR)。FOR可以包括围绕可穿戴系统400的4π球面度(steradian)立体角,因为佩戴者可以移动他的身体、头部或眼睛以基本上感知空间中的任何方向。在其他背景下,佩戴者的运动可能更加狭窄,因此佩戴者的FOR可以对着较小的立体角。从面向外的成像系统464获得的图像可用于跟踪用户做出的手势(例如,手或手指手势)、检测用户前方的世界470中的对象等等。
可穿戴系统400还可包括面向内的成像系统466(例如,数码相机),其观察用户的运动,诸如眼睛运动和面部运动。面向内的成像系统466可用于捕捉眼睛410的图像以确定眼睛410的瞳孔的尺寸和/或取向。面向内的成像系统466可用于获得用于确定用户正在看的方向的图像(例如,眼睛姿态)或用于用户的生物辨识的图像(例如,经由虹膜辨识)。在一些实施例中,每只眼睛可以利用至少一个相机,以分别单独地确定每只眼睛的瞳孔尺寸和眼睛姿态,从而允许向每只眼睛呈现图像信息以动态地为该眼睛设计。在一些其他实施例中,仅确定单个眼睛410的瞳孔直径或取向(例如,每对眼睛仅使用单个相机)并且假设用户的双眼是类似的。可以分析由面向内的成像系统466获得的图像以确定用户的眼睛姿态或情绪,这可以被可穿戴系统400使用来决定应该向用户呈现哪个音频或视觉内容。可穿戴系统400还可以使用诸如IMU、加速度计、陀螺仪等的传感器来确定头部姿态(例如,头部位置或头部取向)。
可穿戴系统400可以包括用户输入设备466,用户可以通过该用户输入设备466向控制器460输入命令以与系统400交互。例如,用户输入设备466可以包括轨迹垫(trackpad)、触摸屏、操纵杆、多自由度(DOF)控制器、电容感应设备、游戏控制器、键盘、鼠标、方向垫(D-pad)、棒(wand)、触觉设备、图腾(例如,用作虚拟用户输入设备)等等。多DOF控制器可以感测控制器的一些或全部可能的平移(例如,左/右、前/后或上/下)或旋转(例如,偏航(yaw)、俯仰(pitch)或滚转(roll))中的用户输入。支持平移运动的多DOF控制器可以被称为3DOF,而支持平移和旋转的多DOF控制器可以被称为6DOF。在一些情况下,用户可以使用手指(例如,拇指)在触控敏感输入设备上按压或滑动以向可穿戴系统400提供输入(例如,向可穿戴系统400提供的用户界面提供用户输入)。在使用可穿戴系统400期间,用户输入设备466可以由用户的手握持。用户输入设备466可以与可穿戴系统400进行有线或无线通信。
图5示出了由波导输出的出射光束的示例。示出了一个波导,但是应该理解,波导组件480中的其它波导可以类似地起作用,其中波导组件480包括多个波导。光520在波导432b的输入边缘432c处被注入到波导432b中,并且通过TIR在波导432b内传播。在光5200照射在DOE 432a上的点处,一部分光如出射光束510离开波导。出射光束510被示出为基本上平行,但是依赖于与波导432b相关联的深度平面,出射光束510也可以以一角度(例如,形成发散的出射光束)被重新定向以传播到眼睛410。应该理解,基本上平行的出射光束可以指示具有光提取光学元件的波导,所述耦出光学元件将光耦出以形成看起来被设置在距眼睛410较大距离(例如,光学无穷远)处的深度平面上的图像。其它波导或者其它光提取光学元件组可以输出更加发散的出射光束图案,这将需要眼睛410调节更近距离以将其聚焦在视网膜上并且将被大脑解释为来自比光学无穷远更接近眼睛410的距离的光。
图6是示出光学系统的示意图,该光学系统包括波导设备、将光光学耦合到波导设备或光学耦合来自波导设备的光的光学耦合器子系统以及控制子系统,用于产生多焦点体积显示、图像或光场。光学系统可以包括波导设备、将光光学耦合到波导设备或光学耦合来自波导设备的光的光学耦合器子系统以及控制子系统。光学系统可用于产生多焦点体积、图像或光场。光学系统可以包括一个或多个主平面波导632a(图6中仅示出一个)和与至少一些主波导632a中的每一个相关联的一个或多个DOE 632b。平面波导632b可以类似于参考图4讨论的波导432b、434b、436b、438b、440b。光学系统可采用分布波导设备,以沿第一轴(图6的视图中的垂直或Y轴)中继(relay)光并沿第一轴(例如,Y轴)扩展光的有效出射光瞳。分布波导设备可以例如包括分布平面波导622b和与分布平面波导622b相关联的至少一个DOE 622a(由双点划线示出)。分布平面波导3在至少一些方面可以与主平面波导1相似或相同,具有与其不同的取向。同样地,所述至少一个DOE 622a在至少一些方面可以与DOE632a相似或相同。例如,分布平面波导622b或DOE 622a可以分别由与主平面波导632b或DOE632a相同的材料构成。图6所示的光学显示系统600的实施例可以集成到图2所示的可穿戴系统200中。
中继和出射光瞳扩展光可以被从分布波导设备光学耦合到一个或多个主平面波导632b中。主平面波导632b可以沿第二轴中继光,该第二轴优选地与第一轴正交,(例如,考虑图6的水平或X轴)。值得注意的是,第二轴可以是与第一轴的非正交轴。主平面波导632b沿着第二轴(例如,X轴)扩展光的有效出射光瞳。例如,分布平面波导622b可以沿垂直或Y轴中继和扩展光,并将该光传递到可以沿水平或X轴中继和扩展光的主平面波导632b。
光学系统可以包括一个或多个彩色光源(例如,红色、绿色和蓝色激光)610,其可以光学耦合到单模光纤640的近端。光纤640的远端可以通过压电材料的中空管642穿过或接收。远端作为固定的自由柔性悬臂644从管642突出。压电管642可以与四个象限电极(未示出)相关联。例如,电极可以镀在管642的外部、外表面或外周或直径上。芯电极(未示出)也可以位于管642的芯、中心、内周或内径中。
例如经由导线660电耦合的驱动电子器件650驱动相对的电极对以独立地在两个轴上弯曲压电管642。光纤644的突出远端尖端具有机械共振模式。共振频率可以取决于光纤644的直径、长度和材料特性。通过在光纤悬臂644的第一机械共振模式附近振动压电管642,可以使光纤悬臂644振动,并且可以扫过(sweep)大的偏转(deflection)。
通过在两个轴上刺激共振,在面积填充二维(2D)扫描中双轴扫描光纤悬臂644的尖端。通过与光纤悬臂644的扫描同步地调制光源610的强度,从光纤悬臂644出射的光可以形成图像。在美国专利公开No.2014/0003762中提供了对这种设置的描述,该公开的全部内容通过引用合并于此。
光耦合器子系统的部件可以使从扫描光纤悬臂644射出的光准直。准直光可以被镜面648反射到包含至少一个衍射光学元件(DOE)622a的窄分布平面波导622b中。准直光可以通过TIR沿着分布平面波导622b垂直地(相对于图6的视图)传播,由此与DOE 622a重复交叉。DOE 622a优选地具有低衍射效率。这导致光的部分(例如,10%)在与DOE 622a的每个交叉点处朝向较大的主平面波导632b的边缘衍射,并且光的部分经由TIR继续在其原始轨迹上向下行进分布平面波导622b的长度。
在与DOE 622a的每个交叉点处,附加光可以朝向主波导632b的入口衍射。通过将入射光分成多个耦出(outcouple)组,光的出射光瞳可以在分布平面波导622b中被DOE622a垂直扩展。这种从分布平面波导622b耦出的垂直扩展的光可以进入主平面波导632b的边缘。
进入主波导632b的光可以经由TIR沿着主波导632b水平传播(相对于图6的视图)。由于光在多个点处与DOE 632a相交,它经由TIR沿着主波导632b的至少部分长度水平传播。DOE 632a可以有利地被设计或被配置为具有相位轮廓,该相位轮廓是线性衍射图案和径向对称衍射图案的总和,以产生光的偏转和聚焦。DOE 632a可以有利地具有低衍射效率(例如,10%),使得在DOE 632a的每个交叉点处光束的仅部分光朝向视图的眼睛偏转,而其余的光继续经由TIR传播通过主波导632b。
在传播光和DOE 632a之间的每个交叉点处,部分光朝向允许光从TIR逸出的主波导632b的相邻面衍射,并从主波导632b的面出射。在一些实施例中,DOE 632a的径向对称衍射图案另外赋予衍射光的聚焦水平,使单个光束的光波前成形(例如,赋予曲率)以及以与设计的聚焦水平相匹配的角度操纵光束。
因此,这些不同的路径可以使光通过多个DOE 632a从主平面波导632b耦出,所述多个DOE 632a具有不同的角度、聚焦水平或在出射光瞳处产生不同的填充图案。出射光瞳处的不同填充图案可以有利地用于创建具有多个深度平面的光场显示。波导组件中的每个层或堆叠中的一组层(例如,3层)可用于产生相应的颜色(例如,红色、蓝色、绿色)。由此,例如,可以采用第一组三个相邻层在第一焦深处分别产生红色、蓝色和绿色光。可以采用第二组三个相邻层在第二焦深处分别产生红色、蓝色和绿色光。可以采用多个组来生成具有各种焦深的全3D或4D彩色图像光场。
可穿戴系统的其他组件
在许多实现方式中,可穿戴系统可以包括除上述可穿戴系统的组件之外或作为其替代的其他组件。可穿戴系统可以例如包括一个或多个触觉设备或组件。触觉设备或组件可用于向用户提供触感。例如,当触摸虚拟内容(例如,虚拟对象、虚拟工具、其他虚拟构造)时,触觉设备或组件可以提供压力或纹理的触感。触感可以复制虚拟对象所代表的物理对象的感觉或者可以复制虚拟内容所代表的想象的对象或角色(例如,龙)的感觉。在一些实现方式中,用户可以佩戴触觉设备或组件(例如,用户可穿戴的手套)。在一些实现方式中,触觉设备或组件可以由用户持有。
可穿戴系统可以例如包括一个或多个物理对象,这些物理对象可由用户操纵以允许与可穿戴系统的输入或交互。这些物理对象在此可以称为图腾。一些图腾可以采用无生命对象的形式,诸如例如,一件金属或塑料、墙壁、桌子的表面。在某些实现方式中,图腾实际上可能不具有任何物理输入结构(例如,键、触发器、操纵杆、轨迹球、摇杆开关)。相反,图腾可以仅提供物理表面,并且可穿戴系统可以渲染用户界面,以使用户看起来在图腾的一个或多个表面上。例如,可穿戴系统可以使计算机键盘和触控板的图像渲染为看起来位于图腾的一个或多个表面上。例如,可穿戴系统可以使虚拟计算机键盘和虚拟触控板渲染为看起来在用作图腾的矩形薄铝板的表面上。该矩形板本身没有任何物理键或触控板或传感器。然而,由于经由虚拟键盘和/或虚拟触控板进行选择或输入,因此可穿戴系统可以借助该矩形板检测到用户操纵或交互或触摸。用户输入设备466(图4中所示)可以是图腾的实施例,其可以包括触控板、触摸板、触发器、操纵杆、轨迹球、摇杆或虚拟开关、鼠标、键盘、多自由度控制器或其他物理输入设备。用户可以单独或与姿态组合使用图腾来与可穿戴系统或其他用户交互。
在美国专利公开No.2015/0016777中描述了可与本公开的可穿戴设备、HMD和显示系统一起使用的触觉设备和图腾的示例,其全部内容通过引用并入此文。
示例可穿戴系统、环境和界面
可穿戴系统可以采用各种映射相关技术,以便在渲染的光场中实现方式高景深。在映射出虚拟世界时,了解真实世界中的所有特征和点以准确地描绘与真实世界相关的虚拟对象是有利的。为此,通过包括传送关于真实世界的各种点和特征的信息的新图片,可以将从可穿戴系统的用户捕捉的FOV图像添加到世界模型。例如,可穿戴系统可以收集映射点的组(诸如2D点或3D点)并找到新的映射点以渲染世界模型的更准确的版本。可以将第一用户的世界模型(例如,通过诸如云网络的网络)传送给第二用户,使得第二用户可以体验第一用户周围的世界。
图7是MR环境700的示例的框图。MR环境700可以被配置为接收来自一个或多个用户可穿戴系统(例如,可穿戴系统200或显示系统220)或固定室内系统(例如,室内相机等)的输入(例如,来自用户的可穿戴系统的视觉输入702、诸如室内相机的固定输入704、来自各种传感器的感觉输入706、手势(gesture)、图腾、眼睛跟踪、来自用户输入设备466的用户输入等)。可穿戴系统可以使用各种传感器(例如,加速度计、陀螺仪、温度传感器、运动传感器、深度传感器、GPS传感器、面向内的成像系统、面向外的成像系统等)来确定用户的环境的位置和各种其他属性。该信息可以进一步被补充有来自室内中的固定相机的信息,其可以从不同的视点提供图像或各种提示。由相机(诸如室内相机和/或面向外的成像系统的相机)获取的图像数据可以被减少为映射点的组。
一个或多个对象识别器708可以爬行通过所接收的数据(例如,点的集合)并且在映射数据库710的帮助下识别或映射点、标记图像、将语义信息附到对象。映射数据库710可以包括随时间收集的各种点及其对应的对象。各种设备和映射数据库可以通过网络(例如,LAN、WAN等)彼此连接以访问云。
基于该信息和映射数据库中的点的集合,对象识别器708a至708n可以识别环境中的对象。例如,对象识别器可以识别面部、人、窗、墙壁、用户输入设备、电视、文件(例如,本文安全性示例中描述的旅行票、驾驶执照、护照)、用户环境中的其他对象等。一个或多个对象识别器可以专用于具有某些特性的对象。例如,对象识别器708a可以用于识别面部,而另一个对象识别器可以用于识别文件。
可以使用各种计算机视觉技术来执行对象识别。例如,可穿戴系统可以分析由面向外的成像系统464(图4中所示)获取的图像以执行场景重建、事件检测、视频跟踪、对象识别(例如,人或文件)、对象姿态估计、面部识别(例如,来自环境中的人或文件上的图像)、学习、索引、运动估计或图像分析(例如,辨识文件内的记号(indicia),诸如照片、签名、身份证明信息、旅行信息等)等等。可以使用一个或多个计算机视觉算法来执行这些任务。计算机视觉算法的非限制性示例包括:标度(scale)不变特征变换(SIFT)、加速稳健(robust)特征(SURF)、定向(orient)FAST和旋转BRIEF(ORB)、二进制稳健不变可缩放关键点(BRISK)、快速视网膜关键点(FREAK)、维奥拉-琼斯(Viola-Jones)算法、特征脸(Eigenfaces)方法、卢卡斯-堪纳德(Lucas-Kanade)算法、霍恩-申克(Horn-Schunk)算法、均值平移(Mean-shift)算法、视觉同步定位和映射(vSLAM)技术、序贯(sequential)贝叶斯估计器(例如,卡尔曼滤波器、扩展卡尔曼滤波器等)、束调整、自调节阈值(和其他阈值技术)、迭代最近点(ICP)、半全局匹配(SGM)、半全局块匹配(SGBM)、特征点直方图、各种机器学习算法(诸如,支持向量机、k-最近邻算法、朴素贝叶斯、神经网络(包括卷积或深度神经网络)、或其他有监督/无监督模型等)等等。
附加地或可选地,对象识别可以通过各种机器学习算法来执行。一旦经过训练,机器学习算法就可以由HMD存储。机器学习算法的一些示例可以包括监督或非监督机器学习算法,其包括回归算法(例如,普通最小二乘回归)、基于实例的算法(例如,学习向量量化)、决策树算法(例如,分类和回归树)、贝叶斯算法(例如,朴素贝叶斯)、聚类算法(例如,k均值聚类)、关联规则学习算法(例如,先验(a-priori)算法)、人工神经网络算法(例如,感知器)、深度学习算法(例如,深度玻尔兹曼机或深度神经网络)、维数减少算法(例如,主成分分析)、集成算法(例如,层叠泛化)和/或其他机器学习算法。在一些实施例中,可以针对各个数据组定制各个模型。例如,可穿戴设备可以产生或存储基础模型。基本模型可以用作起点以产生特定于数据类型(例如,遥现会话中的特定用户)、数据组(例如,遥现会话中的用户的获得的附加图像的组)、条件情况或其他变体的附加模型。在一些实施例中,可穿戴HMD可以被配置为利用多种技术来产生用于分析聚合数据的模型。其他技术可包括使用预限定的阈值或数据值。
基于该信息和映射数据库中的点的集合,对象识别器708a至708n可以识别对象并用语义信息补充对象以赋予对象生命。例如,如果对象识别器将点的组识别为门,则系统可以附加一些语义信息(例如,门具有铰链并且具有围绕铰链的90度运动)。如果对象识别器将点的组识别为镜子,则系统可以附加该镜子具有可以反射室内对象的图像的反射表面的语义信息。语义信息可以包括如本文所述的对象的功能可见性。例如,语义信息可以包括对象的法线。系统可以分配向量,该向量的方向指示对象的法线。随着时间的推移,映射数据库随着系统(可以驻留在本地或可以通过无线网络访问)累积来自世界的更多数据而增长。一旦识别出对象,就可以将信息发送到一个或多个可穿戴系统。例如,MR环境700可以包括关于在加利福尼亚发生的场景的信息。环境700可以被发送到纽约的一个或多个用户。基于从FOV相机和其他输入接收的数据,对象识别器和其他软件组件可以映射从各种图像收集的点、识别对象等,使得场景可以被准确地“传递”给可能位于世界的不同地方的第二用户。环境700也可以使用拓扑图来用于本地化的目的。
图8是渲染与识别的对象相关的虚拟内容的方法800的示例的过程流程图。方法800描述了如何将虚拟场景呈现给可穿戴系统的用户。用户可能在地理上远离场景。例如,用户可能位于纽约,但可能想要查看当前正在加利福尼亚进行的场景或者可能想要与居住在加利福尼亚的朋友一起散步。
在框810处,可穿戴系统可以从用户和其他用户接收关于用户的环境的输入。这可以通过各种输入设备和映射数据库中已经拥有的知识来实现方式。在框810处,用户的FOV相机、传感器、GPS、眼睛跟踪等将信息传送给系统。在框820处,系统可以基于该信息确定稀疏点。稀疏点可以用于确定姿态数据(例如,头部姿态、眼睛姿态、身体姿态或手姿势),以可用于显示和理解用户周围环境中各种对象的取向和位置。在框830处,对象识别器708a-708n可以爬行通过这些收集的点并使用映射数据库识别一个或多个对象。然后,在框840处,可以将该信息传送给用户的个人可穿戴系统,以及在框850处,可以相应地将期望的虚拟场景显示给用户。例如,可以相对于各种对象和纽约的用户的其他周围环境以适当的取向、位置等显示期望的虚拟场景(例如,CA中的用户)。
图9是可穿戴系统的另一示例的框图。在该示例中,可穿戴系统900包括映射,该映射可以包括关于世界的映射数据。该映射可以部分地本地驻留在可穿戴系统上,并且可以部分地驻留在可由有线或无线网络访问的网络存储位置(例如,在云系统中)。姿态过程910可以在可穿戴计算架构(例如,处理模块260或控制器460)上执行,并利用来自映射的数据以确定可穿戴计算硬件或用户的位置和取向。可以从用户正在体验系统并在世界中操作时即时收集的数据中计算姿态数据。数据可以包括图像、来自传感器(诸如惯性测量单元,其通常包括加速度计和陀螺仪组件)的数据和与真实或虚拟环境中的对象相关的表面信息。
稀疏点表示可以是同时定位和映射(例如,SLAM或vSLAM,指的是其中输入仅是图像/视觉的配置)过程的输出。该系统可以被配置为不仅可以找出世界上各种组件的位置,而且还可以找出世界由什么组成。姿态可以是实现方式许多目标的构建块,包括填充(populate)映射和使用映射中的数据。
在一个实施例中,稀疏点位置本身可能不完全足够,并且可能需要进一步的信息来产生多焦点AR、VR或MR体验。通常表示为深度映射信息的密集表示可以用于至少部分地填充该间隙。可以从称为立体940的过程计算这样的信息,其中使用诸如三角测量或飞行时间感测的技术来确定深度信息。图像信息和活动图案(诸如使用活动投影仪创建的红外图案)可以用作立体过程940的输入。可以将大量深度映射信息融合在一起,并且可以用表面表示来概括其中的一些。例如,数学上可限定的表面可以是有效的(例如,相对于大点云)并且可以是对诸如游戏引擎的其他处理设备的可消化的输入。因此,立体过程的输出(例如,深度映射)940可以在融合过程930中组合。姿态950也可以是该融合过程930的输入,并且融合930的输出成为填充映射过程920的输入。子表面可以彼此连接,诸如在地形映射中,以形成更大的表面,并且映射变成点和表面的大混合。
为了解决混合现实过程960中的各个方面,可以使用各种输入。例如,在图9所示的实施例中,游戏参数可以是输入以确定系统的用户正在与各个位置处的一个或多个怪物、在各种条件下死亡或逃跑(诸如如果用户射击怪物)的怪物、墙壁或者在不同位置处的其他对象等玩怪物战斗游戏。世界映射可以包括关于这些对象相对于彼此的位置的信息,以作为混合现实的另一个有价值的输入。相对于世界的姿态也成为输入,并且几乎对任何交互系统起着关键作用。
来自用户的控制或输入是到可穿戴系统900的另一输入。如本文所述,用户输入可包括视觉输入、手势、图腾、音频输入、感官输入等。为了在周围移动或玩游戏,例如,用户可能需要向可穿戴系统900指示关于他或她想要做什么。除了在空间中移动自己之外,还可以使用各种形式的用户控制。在一个实施例中,图腾(例如,用户输入设备)或诸如玩具枪的对象可由用户握持并由系统跟踪。该系统优选地将被配置为知道用户正在握持物品并且理解用户与物品进行何种交互(例如,如果图腾或对象是枪,则系统可以被配置为理解位置和取向以及用户是否正在点击触发器或其他可能配备有例如IMU的传感器的感测按钮或元件,这可能有助于确定正在发生的事情,即使此类活动不在任何相机的视场之内)。
手姿势跟踪或识别也可以提供输入信息。可穿戴系统900可以被配置为跟踪和解释用于按钮按压、用于向左或向右作出手势、停止、抓取、握持等的手姿势。例如,在一种配置中,用户可能想要在非游戏环境中翻阅电子邮件或日历或者与其他人或玩家做“拳头碰撞”。可穿戴系统900可以被配置为利用最小量的手姿势,其可以是动态的,也可以不是动态的。例如,手姿势可以是简单的静态姿势,例如,用于停止的张开手、用于表示好(ok)的拇指向上、用于表示不好的拇指向下、或者用于方向命令的用手向右或向左或向上/向下翻转。
眼睛跟踪是另一输入(例如,跟踪用户正在看的位置以控制显示技术以在特定深度或范围渲染)。在一个实施例中,可以使用三角测量来确定眼睛的聚散,然后使用为该特定人物开发的聚散/调节模型,可以确定调节。眼睛跟踪可以由眼睛相机执行以确定眼睛注视(例如,一只或两只眼睛的方向或取向)。其他技术可用于眼睛跟踪,诸如例如通过放置在眼睛附近的电极测量电位(例如,电眼图)。
语音识别可以是另一输入,其可以单独使用或与其他输入(例如,图腾跟踪、眼睛跟踪、手势跟踪等)组合使用。系统900可以包括从环境接收音频流的音频传感器(例如,麦克风)。可以处理所接收的音频流(例如,通过处理模块260、270或中央服务器1650)以(从其他语音或背景音频)识别用户的语音,以从音频流中提取命令、参数等。例如,系统900可以从音频流中辨识出已说出短语“示出你的身份证明”、辨识出该短语是由系统900的佩戴者说的(例如,安全检查员而不是检查员的环境中的另一个人)、以及从短语和情境的背景(例如,安全检查点)中提取其中存在要被执行的可执行命令(例如,对佩戴者的FOV中的某些事物的计算机视觉分析)以及该命令要在什么对象(“你的身份证明”)上执行。系统900可以结合说话者识别技术以确定谁在说话(例如,语音是否来自ARD的佩戴者或者来自另一个人或语音(例如,由环境中的扬声器发送的被记录的语音)),以及可以结合语音识别技术以确定所说的内容。语音识别技术可以包括频率估计、隐马尔可夫模型、高斯混合模型、模式匹配算法、神经网络、矩阵表示、向量量化,说话者分类(diarisation)、决策树和动态时间规整(DTW)技术。语音识别技术还可以包括反说话者(anti-speaker)技术,诸如群组模型和世界模型。频谱特征可用于表示说话者特性。
关于相机系统,图9中所示的示例性可穿戴系统900包括三对相机:相对宽的FOV或被动SLAM相机对,其布置在用户的脸部的侧面;定向在用户的前方的不同的相机对以处理立体成像过程940并且还用于捕捉在用户面部的前方的手姿势和图腾/对象跟踪。FOV相机和用于立体过程940的相机对可以是面向外的成像系统464(如图4所示)的一部分。可穿戴系统900可包括定向朝向用户的眼睛的眼睛跟踪相机(其可以是图4中所示的面向内的成像系统462的一部分),以便对眼睛向量和其他信息进行三角测量。可穿戴系统900还可以包括一个或多个纹理光投影仪(诸如红外(IR)投影仪)以将纹理注入场景中。
图10是用于确定到可穿戴系统的用户输入的方法1000的示例的过程流程图。在该示例中,用户可以与图腾交互。用户可能具有多个图腾。例如,用户可能已经指定了用于社交媒体应用的一个图腾以及用于玩游戏的另一个图腾等。在框1010处,可穿戴系统可以检测图腾的运动。可以通过面向外的成像系统识别图腾的运动,或者可以通过传感器(例如,触觉手套、图像传感器、手跟踪设备、眼睛跟踪相机、头部姿态传感器等)来检测图腾的运动。
在框1020处,至少部分地基于检测到的手势、眼睛姿态、头部姿态或通过图腾的输入,可穿戴系统检测图腾(或用户的眼睛或头部或手势)相对于参考帧的位置、取向或运动。参考帧(reference frame)可以是映射点的组,可穿戴系统基于该映射点的组将图腾(或用户)的运动转换为动作或命令。在框1030处,映射用户与图腾的交互。基于用户交互相对于参考帧1020的映射,系统在框1040处确定用户输入。
例如,用户可以来回移动图腾或物理对象以表示翻起虚拟页面并移动到下一页面或从一个用户界面(UI)显示屏幕移动到另一UI屏幕。作为另一示例,用户可移动他们的头部或眼睛以查看用户的FOR中的不同真实或虚拟对象。如果用户对特定真实或虚拟对象的注视长于阈值时间,则可以选择该真实或虚拟对象作为用户输入。在一些实现方式中,可以跟踪用户眼睛的聚散度,并且可以使用调节/聚散模型来确定用户眼睛的调节状态,这提供关于用户正在聚焦的深度平面上的信息。在一些实现方式中,可穿戴系统可以使用射线投射技术来确定哪个真实或虚拟对象沿着用户的头部姿态或眼睛姿态的方向。在各种实现方式中,射线投射技术可以包括投射具有显著小的横向宽度的薄的、笔形射线或投射具有显著大的横向宽度的射线(例如,锥体或平截头体(frustum))。
用户界面可以由显示系统投影,如本文所述(诸如图2中的显示器220)。它还可以使用各种其他技术显示,诸如一个或多个投影仪。投影仪可以将图像投影到诸如帆布或球状物的物理对象上。可以使用对于系统为外部的或对于系统的一部分为外部的一个或多个相机(诸如例如使用面向内的成像系统462或面向外的成像系统464)来跟踪与用户界面的交互。
图11是用于与虚拟用户界面交互的方法1100的示例的过程流程图。方法1100可以由本文描述的可穿戴系统执行。可穿戴系统可以使用方法1100的实施例来检测可穿戴系统的FOV中的人或文件。
在框1110处,可穿戴系统可辨识特定UI。UI的类型可以由用户预先确定。可穿戴系统可以基于用户输入(例如,手势、视觉数据、音频数据、感觉数据、直接命令等)辨识需要被填充的特定UI。该UI可以专用于安全场景,在该场景中,系统的佩戴者正在观察向佩戴者提供文件的用户(例如,在旅行检查点处)。在框1120处,可穿戴系统可以产生用于虚拟UI的数据。例如,可以产生与限制、一般结构、UI的形状等相关联的数据。另外,可穿戴系统可以确定用户的物理位置的映射坐标,使得可穿戴系统可以显示与用户的物理位置相关的UI。例如,如果UI是以身体为中心的,则可穿戴系统可以确定用户的身体立姿(stance)、头部姿态或眼睛姿态的坐标,使得可以在用户周围显示环形UI或者可以在墙壁上或在用户前方显示平面UI。在本文描述的安全性背景中,UI可以被显示为好像UI围绕正在向系统的佩戴者提供文件的旅行者,使得佩戴者可以在查看旅行者和旅行者的文件的同时容易地观看UI。如果UI是以手中心的,则可以确定用户的手的映射坐标。这些映射点可以通过借助FOV相机接收的数据、感觉输入或任何其他类型的收集的数据而被导出。
在框1130处,可穿戴系统可以从云向显示器发送数据或者数据可以被从本地数据库发送到显示组件。在框1140处,基于发送的数据向用户显示UI。例如,光场显示器可以将虚拟UI投影到用户眼睛中的一个或两个中。一旦创建了虚拟UI,在框1150处,可穿戴系统可以简单地等待来自用户的命令以在虚拟UI上产生更多虚拟内容。例如,UI可以是围绕用户身体或者用户环境中的人(例如,旅行者)的身体的以身体为中心的环。然后,可穿戴系统可等待命令(手势、头部或眼睛运动、语音命令、来自用户输入设备的输入等),并且如果被识别出(框1160),则与该命令相关联的虚拟内容可以被显示给用户(框1170)。
可穿戴系统、UI和用户体验(UX)的附加示例在公开号为No.2015/0016777的美国专利公开中描述,其通过引用整体并入本文。
用户环境中的示例对象
如参考图4所述,增强现实设备(ARD)的用户可以具有注视场(FOR),其包括能够被用户经由AR系统感知的位于用户周围的环境的一部分。对于头戴式ARD,FOR可以包括围绕佩戴者的基本上全部4π球面度立体角,因为佩戴者可以移动她的身体、头部或眼睛以基本上感知空间中的任何方向。在其他背景下,佩戴者的运动可能更加狭窄,因此佩戴者的FOR可以对着较小的立体角。
FOR可以包含能够由用户经由ARD感知的一组对象。对象可以是虚拟和/或物理对象。虚拟对象可以包括操作系统对象,例如用于删除的文件的回收站、用于输入命令的终端、用于访问文件或目录的文件管理器、图标、菜单、用于音频或视频流的应用、来自操作系统的通知等。虚拟对象还可以包括应用中的对象,例如化身、小部件(例如,时钟的虚拟表示)、游戏中的虚拟对象、图形或图像等。一些虚拟对象可以是操作系统对象和应用中的对象。
虚拟对象可以是三维(3D)、二维(2D)或一维(1D)对象。例如,虚拟对象可以是3D咖啡杯(其可以代表实体咖啡机的虚拟控制)。虚拟对象还可以是向用户显示当前时间的时钟的2D图形表示。在一些实现方式中,可以在另一虚拟对象内(或与另一虚拟对象相关联)显示一个或多个虚拟对象。例如,虚拟咖啡杯可以显示在用户界面平面内,尽管虚拟咖啡杯看起来是3D的而用户界面平面可能看起来是2D的。
在一些实施例中,虚拟对象可以与物理对象相关联。例如,如图12B所示,虚拟书1220可以看起来位于桌子1242的顶部。用户可以与虚拟书1220交互(例如,阅读和翻动页面),就像它是桌子1242上的实体书一样。作为另一示例,虚拟立柜应用可以与用户的FOR中的镜子相关联。当用户位于镜子附近时,用户可以能够与虚拟立柜应用交互,该虚拟立柜应用允许用户使用ARD模拟不同服装的外观。
用户的FOR中的对象可以是参考图1描述的世界模型的一部分。与对象相关联的数据(例如,位置、语义信息、属性等)可以以例如阵列、列表、树、散列、图形等的各种数据结构存储。在适用的情况下,每个存储对象的索引可以例如通过对象的位置来确定。例如,数据结构可以通过例如对象距基准位置的距离(例如,到基准位置的左侧(或右侧)有多远、距基准位置的顶部(或底部)有多远或距基准位置多远的深度方向)的单个坐标来索引对象。在ARD包括能够在相对于用户的不同深度平面处显示虚拟对象的光场显示器的情况下,虚拟对象可以被组织成位于不同的固定深度平面的多个阵列。在一些实现方式中,环境中的对象可以以向量形式表示,其可以用于计算虚拟对象的位置和移动。例如,对象可以具有原点、重力方向上的向下向量和对象的表面法线方向上的前向向量。例如,显示器(例如,虚拟TV)的表面法线可以指示能够沿其观看显示图像的方向(而不是能够沿其看到显示器背面的方向)。AR系统可以计算两个向量的分量之间的差异,从而确定与两个向量相关联的对象之间的空间关系。AR系统还可以使用该差异来计算一个对象要位于其他对象的顶部(或内部)需要的移动量。
移动虚拟对象的示例
用户可以与用户的FOR中的对象的子集交互。该对象的子集有时可被称为可交互对象。用户可以通过执行用户界面操作来与可交互对象交互,该用户界面操作例如为选择或移动可交互对象、致动与可交互对象相关联的菜单、选择要使用可交互对象执行的操作等。如在AR/VR/MR世界中显然的,虚拟对象的移动不涉及虚拟对象的实际物理移动,因为虚拟对象是计算机生成的图像而不是物理对象。
用户可以单独或组合地在用户输入设备上使用头部姿势、眼睛姿势、身体姿势、语音命令或手势来执行各种用户界面操作。例如,用户可以通过使用手势来致动用户输入设备(参见例如图4中的用户输入设备466)而与可交互对象交互,例如,单独或组合地通过点击鼠标、轻敲触摸板、在触摸屏上滑动、在触摸电容式按钮之上悬停或触摸电容式按钮、按键盘或游戏控制器上的键(例如,5向(way)方向垫)、将操纵杆、杖或图腾指向对象、按下遥控控制上的按钮或与用户输入设备的其他交互。用户还可以使用头部、眼睛或身体姿势与可交互对象交互,例如,凝视或指向对象持续时间段、摆动(title)头部、在对象处挥动等。
在一些实现方式中,AR系统可以提供指示目标对象的位置的焦点指示符(诸如图14A-14D和图15A-15H中所示的焦点指示符1450)(参见例如图14A中的焦点指示符)。焦点指示符还可以用于显示用户输入设备的当前位置或用户的姿势(参见例如图15D中的焦点指示符)。除了提供位置指示或作为其替代,焦点指示符还可以提供目标对象、用户输入设备或用户姿势的取向的指示。例如,焦点指示符可以包括光晕、颜色、感知到的大小或深度变化(例如,使得目标对象在被选择时看起来更接近和/或更大)、光标的图形表示(诸如标线)或引起用户注意的其他听觉、触觉或视觉效果。焦点指示符可以表现示为可以包括静止帧图像或动画的1D、2D或3D图像。
作为由AR系统呈现焦点指示符的示例,当用户正盯着空白墙壁时,AR系统可以在墙壁上投射虚拟锥形或光线,指示用户当前的凝视方向。作为另一示例,用户可以致动用户输入设备以指示他想要与他的环境中的对象交互。AR系统可以将焦点指示符分配给该对象,使得用户可以更容易地感知该对象。当用户改变他的姿势或致动用户输入设备时,AR系统可以将焦点指示符从一个位置传送到另一个位置。
捕捉和定向虚拟对象的示例
如本文所述,因为用户可以在多个方向上移动和旋转虚拟对象,所以用户有时可能发现难以精确地定位和定向虚拟对象。为了减少用户疲劳并提供用户与之交互的改进的AR设备(ARD),ARD可以相对于环境中的目的对象自动重新定位虚拟对象。例如,当虚拟对象在距虚拟或物理对象的阈值距离内时,ARD可以自动地将虚拟对象附接(也称为“捕捉”)到环境中的另一虚拟或物理对象。除了将虚拟对象捕捉到目的对象之外或作为其替代,当虚拟对象在目的对象附近时,ARD可以自动地改变位置或定向虚拟对象。例如,ARD可以旋转虚拟对象,使得虚拟对象的法线面向用户。作为另一示例,ARD可以将虚拟图像的边界与实体书的边界对齐,使得虚拟对象看起来可以是实体书的一部分。
AR系统可以基于虚拟对象或目标对象的功能可见性来将虚拟对象重新定位到适当的位置或取向。功能可见性包括对象与对象的环境之间的关系,其为与对象相关联的动作或用途提供机会。可以基于例如虚拟对象或目的对象的功能、取向、类型、位置、形状或尺寸来确定功能可见性。功能可见性也可以基于虚拟对象或目的对象所处的环境。虚拟对象的功能可见性可被编程为虚拟对象的一部分并被存储在远程数据储存库280中。例如,虚拟对象可被编程为包括指示虚拟对象的法线的向量。
例如,虚拟显示屏幕(例如,虚拟TV)的功能可见性是可以从由屏幕的法线指示的方向观看显示屏幕。垂直墙壁的功能可见性是对象可以放置在墙壁上(例如,“悬挂”在墙壁上),其中对象的表面法线平行于墙壁的法线。用户可以使用AR系统将虚拟显示器移动到靠近墙壁的位置,当足够靠近墙壁时,在没有进一步的用户输入的情况下,AR系统可以使虚拟显示器自动地捕捉到墙壁上,其中显示器法线垂直于墙壁法线。虚拟显示器和墙壁的附加功能可见性可以是每个都具有顶部或底部。当将虚拟显示器捕捉到墙壁上时,AR系统可以自动定向虚拟显示器,使得虚拟显示器的底部朝向墙壁的底部定位(或者显示器的顶部朝向墙壁的顶部定位),从而确保虚拟显示器不呈现倒置的图像。
在一些情况下,为了重新定位虚拟对象,ARD还可以改变虚拟对象的其他特性。例如,虚拟图像的尺寸或形状可能与实体书不同。结果,ARD可以改变虚拟图像的尺寸或形状以匹配实体书的尺寸或形状,以使虚拟图像的边界与实体书的边界对齐。ARD可以(附加地或替代地)重新定位其他附近的虚拟对象以为重新定位的虚拟对象提供足够的空间。
实际上,AR系统考虑物理和虚拟对象的功能可见性并且至少部分地基于他们各自的功能可见性来相对于其他物理或虚拟对象定位或定向虚拟对象。关于这些特征的更多细节描述如下。
自动将虚拟对象附到物理对象的示例
图12A和12B示出了将虚拟对象附到桌子的示例。如图12A所示,虚拟书1220最初在房间1200a中的桌子1242上方浮动。用户可能先前已将书1220从初始位置移动到桌子上方的位置(如图12A所示)。用户可以通过致动用户输入设备来提供将虚拟书1220放置在桌子1242上的指示。例如,用户可以通过点击他的图腾并将他的图腾指向桌子1242来选择虚拟书1220,从而指示需要将虚拟书1220放置在桌子1242上。AR系统可以将虚拟书1220移动到桌子上而不需要用户将书拖到桌子1220上。作为另一示例,用户可以看向桌子上书应被放置的目的位置,AR系统可以基于头部姿势或眼睛凝视来确定目的位置,其中AR系统可以使用IMU来获取关于头部姿势的数据或使用眼睛跟踪相机来确定用户的凝视方向。当用户致动图腾时,AR系统可以自动将虚拟书1220放置在桌子1242上的目的位置。在一些实现方式中,用户不需要指示其中目标对象被移动到例如桌子1242或墙壁1210的目的对象,因为AR系统可以模拟用于将虚拟对象拉到目标对象上的吸引力。例如,当用户选择虚拟书1220时,AR系统可以模拟用于虚拟书1220的重力效果,其中虚拟书1220在向下方向1232上移动。AR系统可以自动将桌子1242识别为目的对象,因为它是在向下的移动(如箭头1232所示)中在虚拟书1220的路径上的第一个对象。因此,虚拟书可以看起来就好像它是实体书一样被落放到桌子1242上。
AR系统可以确定用于虚拟书1220的重新定位的参数,并基于虚拟书、环境(例如,房间1200a)或目的对象的功能可见性来计算参数的值。移动的一些示例参数可以包括移动量(例如,行进的距离或轨迹)、移动的速度、移动的加速度或其他物理参数。
AR系统可以基于虚拟书1220的位置和桌子1242的位置来计算用于虚拟书1220的移动量。例如,AR系统可以将向量附到房间中的物理对象和虚拟对象。向量可以包括物理和虚拟对象的位置和方向信息。用于虚拟书1220的向量可以具有重力方向(例如,方向1232)上的分量。类似地,用于桌子1242的表面的向量也可以具有指示其在重力方向上的当前位置的分量。AR系统可以获得在重力方向上桌子1242的表面的位置与虚拟书1220的位置之间的差异。AR系统可以使用该差异来确定虚拟书1220应该向下移动多远。向量还可以包括关于重力大小的信息。重力的幅值(例如,重力加速度)可以基于用户的物理或虚拟环境而改变。例如,当用户在家时,重力可以被设置为9.8m/s2(1“g”)的地球的值。然而,用户可以使用能够在游戏中呈现虚拟环境的AR系统来玩游戏。作为示例,如果虚拟环境是月球,则重力加速度的幅值可以是1/6“g”,并且如果虚拟环境是木星,则重力加速度的幅值可以是2.5“g”。
为了提供AR系统的改进的用户体验,AR系统可以使用各种物理定律就好像虚拟书1220是物理对象一样来模拟虚拟书1220从图12A至12B的移动。例如,虚拟书1220的向下移动(如箭头1232所示)可以基于自由落体运动。自由落体运动可以与用户环境中的其他力(例如空气阻力)组合以提供真实的用户体验。作为另一示例,房间1200a可以具有打开的窗口。当一阵风吹进房间1200a时,AR系统可以通过自动翻动虚拟书1220的页面来模拟风的效果。
继续图12A和12B中的该示例,桌子的功能可见性是它可以支撑位于其表面上的对象,因此虚拟书1220落到桌子1242的顶部上。因此,当模拟重力的效果时,AR系统不显示位于地板1230上的虚拟书1220,因为AR系统考虑桌子的功能可见性,该功能可见性为对象不穿过桌子。桌子1242将就像虚拟书1242是实体书一样来阻止虚拟书1220继续在重力方向上移动。
在一些情况下,只有桌子1242的一部分位于虚拟书1220的向下移动的路径上。结果,虚拟书1220的一部分可以延伸超出桌子1242的表面。AR系统可以确定虚拟书1220的重心是否在桌子1242的表面上。如果虚拟书1220的重心停留在桌子1242的表面上,则AR系统可以显示位于虚拟书1220的表面上的虚拟书1220。如果虚拟书1220的重心在桌子1242表面之外,则AR系统可以确定虚拟书1220将不会停留在桌子1242上并且替代地可能显示位于地板上的虚拟书1220。
作为另一示例,虚拟对象可以是虚拟网球,其功能可见性包括从硬表面弹开。因此,当虚拟网球击中桌子1242时,AR系统可以显示虚拟网球从桌子1242弹开并落在地板1230上。
虚拟对象(例如,书)和桌子的附加功能可见性是对象的法线应该与桌子的法线平行(例如,虚拟书平放在桌子上)。AR系统可以适当地自动定向虚拟书1220,使得它被用户看起来是如图12B所示的平躺在桌子1242上。
除了在重力方向上移动虚拟对象之外,AR系统还可以在其他方向上移动虚拟对象。例如,用户可能想要将笔记移动到墙壁上。用户可以指向墙壁1210的方向(例如,用手或图腾)。基于用户指示的方向,AR系统可以使用面向外的成像系统和/或世界模型来识别墙壁1210的表面并自动将笔记“飞”到墙壁上(参见例如图13A-13D中所示的示例场景1300a、1300b、1300c和1300d)。在其他实现方式中,墙壁上的对象可具有使得它们可以吸引笔记的功能可见性。例如,墙壁上的对象可以表示通常附接有笔记的表面(例如,可以附接磁性笔记的磁性笔记板或可以钉住笔记的软木笔记板)。AR系统可以识别到墙壁对象具有“粘性”功能可见性(例如,磁性或软木笔记板),并且虚拟笔记具有对应的粘性功能可见性(例如,笔记是磁性的或可钉的)。AR系统可以自动将虚拟笔记附到墙壁对象。
如参考图7所述,语义信息可以附到物理对象、虚拟对象、物理环境和虚拟环境。语义信息可以包括功能可见性。例如,AR系统可以将物理属性分配给虚拟对象,例如,以下非排他性的示例性属性:质量、密度、直径、硬度(或柔软度)、弹性、粘性、电磁属性(例如,电荷、电导率、磁性属性)、相(例如,固体,液体或气体)等。AR系统还可以将物理属性分配给虚拟环境,例如重力、空气阻力等。所分配的属性的值可以用于使用各种物理定律来模拟与虚拟对象的交互。例如,虚拟对象的移动可以基于施加到虚拟对象的力。参考图12A和12B,虚拟书1220的移动可以基于使用房间1200a的重力和空气阻力以及虚拟书1220的质量计算的力来确定。
虚拟复制和粘贴的示例
在一些实施例中,AR系统可以复制虚拟对象并将复制的虚拟对象移动到环境中的目的对象或位置,而不是将虚拟对象重新定位到目标目的对象。作为一个示例,AR系统可以向用户呈现虚拟菜单,通过该虚拟菜单,用户可以从虚拟菜单中选择一个或多个项(例如,使用图腾或者头部或眼睛姿势)。AR系统可以基于所选择的项和用户环境中的对象的功能可见性来自动地将从虚拟菜单中选择的项放置在适当的位置。例如,虚拟菜单可以向用户呈现包括虚拟TV、虚拟音频播放器、虚拟游戏等的项。用户可以选择虚拟TV。AR系统可以将菜单中的虚拟TV复制到剪贴板中。用户可以环顾环境以找到用户希望AR系统放置虚拟TV的目标位置。当用户找到目标位置时,用户可以致动用户输入设备(例如,图腾)以确认目标位置的选择,并且AR系统可以自动在期望位置处显示虚拟TV。AR系统可以基于TV和目标位置的功能可见性来显示虚拟TV。例如,如果期望的位置是位于垂直墙壁上,则AR系统可以就好像虚拟TV平着悬挂在墙壁上一样而显示虚拟TV。作为另一示例,如果目标位置是位于水平桌子上,则AR系统可以就好像虚拟TV平躺在桌子上一样而显示虚拟TV。在这两个示例中,AR系统定向虚拟TV(其具有指示可以观看TV的方向的法线),使得虚拟TV的法线与目标位置的法线(即,墙壁法线或桌子法线)对齐。
在一些情况下,虚拟对象可能无法别放置在用户选择的目标位置处。例如,用户可以选择桌面来放置虚拟笔记。然而,桌面可能已经被其他文档覆盖,因此虚拟笔记不能被放置在桌面上。AR系统可以模拟排斥力,例如排斥弹簧力,这将阻止虚拟笔记被放置在桌面上。
因此,AR系统的这些实施例可以以最小的用户交互复制虚拟对象并将其粘贴在期望的位置,因为AR系统知道虚拟对象的功能可见性以及用户环境中的其他对象的功能可见性。AR系统可以利用这些功能可见性来将虚拟对象放置在用户环境中的自然位置和/或取向上。
自动绕枢轴转动(pivot)虚拟对象的示例
图13A-13D示出当虚拟对象1320靠近墙壁1210时自动调整虚拟对象1320的位置和取向。虚拟对象1320具有4个角1326、1328、1322和1324。一旦AR系统确定虚拟对象1320接触墙壁1210(例如,如图13B所示的角1322接触墙壁),AR系统可以重新定向虚拟对象1320,使得虚拟对象1320看起来与墙壁1210的取向对齐,例如,如图13D所示,对象法线1355变得平行于壁墙壁法线1350。用于重新定向虚拟对象1320的移动可以沿着3D空间中的多个轴。例如,如图13B和13C所示,AR系统可以在1330a的方向上绕枢轴转动虚拟对象1320,结果,如图13C所示,角1324也接触墙壁1210。为了进一步将虚拟对象1320与墙壁1210对齐,AR系统可以使虚拟对象1320在图13C所示的1330b方向上绕枢轴转动。因此,如图13D所示,虚拟物体1320的顶角1326和1328也接触墙壁。在一些情况下,虚拟对象1320也可以具有其在墙壁1210上的自然取向是水平悬挂(例如,虚拟画)的功能可见性。AR系统可以使用该功能可见性来将虚拟对象1320适当地定向在墙壁1210上(例如,使得虚拟画看起来是从墙壁而不是以一定角度被适当地悬挂)。
AR系统可以通过使虚拟对象1320的表面法线1355平行于墙壁1210的表面法线1350而不是反向平行于法线1350来重新定向虚拟对象1320。例如,虚拟TV屏幕的仅一侧可以被配置为显示视频,或者虚拟画的仅一侧可以被配置为显示画。因此,AR系统可能需要翻转虚拟对象,使得具有内容的一侧面向用户(而不是面向墙壁)。
当虚拟对象在另一对象的阈值距离内时捕捉和重新定向的示例
用户可以例如通过使用用户输入设备466拖动虚拟对象来将虚拟对象移动到另一位置。当虚拟对象靠近目的对象时,AR系统可以自动捕捉和定向虚拟对象,以便用户不必做出微小调整来使虚拟对象与目的对象对齐。
在图14A-14D中,ARD的用户正在将虚拟对象从桌子移动到墙壁。虚拟对象1430可以是虚拟TV屏幕。在图14A中,房间1200b中的虚拟TV屏幕1430最初位于桌子1242的顶部(如桌子1242上的虚线所示)并且正被移动到墙壁1210。用户可以选择虚拟屏幕1430并在方向1440a(例如,朝向墙壁1210上的期望目的位置)上移动虚拟屏幕1430。AR系统可以在虚拟屏幕1430上显示可见焦点指示符1450,其指示虚拟屏幕1430的当前位置并指示用户已经选择了屏幕1430。
当用户移动虚拟屏幕1430时,AR系统可以监视虚拟屏幕1430的位置。当虚拟屏幕1430与墙壁1210之间的距离小于分开的阈值距离时,AR系统可以开始自动捕捉和定向虚拟屏幕1430。AR系统可以设置阈值距离,使得AR系统可以在虚拟屏幕的至少一部分接触墙壁1210时开始自动附接和定向虚拟屏幕1430,如参考图13A-13D所述。在一些实现方式中,阈值距离可以足够大,使得AR系统在虚拟屏幕1430的任何部分接触墙壁之前开始自动地将虚拟屏幕1430附接和/或定向到墙壁1210。在这些实现方式中,AR系统可以模拟墙壁与虚拟对象之间的磁效应。例如,当虚拟屏幕1430足够靠近(例如小于阈值距离)时,物体自动地被吸引到墙壁而无需用户的进一步努力。
虚拟屏幕1430与墙壁1210之间的距离可以以各种方式测量。例如,可以基于虚拟屏幕1430的重心和墙壁1210的表面之间的位移来计算它。在一些实施例中,当对象与描述对象的位置的向量相关联时,AR系统可以使用用于虚拟屏幕1430的向量和用于墙壁1210的向量来计算欧几里德距离。还可以基于向量的分量来计算距离。例如,ARD可以计算向量与水平轴上的虚拟屏幕1430之间的位置差异作为距离。
阈值距离可以依赖于与虚拟对象有关的功能可见性。例如,虚拟屏幕1430与尺寸(例如,水平尺寸、垂直尺寸、厚度、对角线尺寸等)相关联,并且阈值距离可以是尺寸的小部分。作为示例,如果阈值距离近似等于屏幕的垂直尺寸,则当屏幕变得位于距墙壁的垂直尺寸距离内时,AR系统可以开始朝向其目的位置和取向定向屏幕。作为另一示例,如果阈值距离小于屏幕的垂直尺寸,则AR系统可能不开始定向虚拟屏幕1430,直到虚拟屏幕1430更接近墙壁。在各种实现方式中,阈值距离可以由用户设置或者可以设置为默认值(例如,诸如对象的尺寸)。阈值距离可以基于用户对AR系统的体验而改变。例如,如果用户发现小的阈值距离导致虚拟对象的快速重新定向并且是分散注意力的,则用户可以将阈值距离重置为更大,使得重新定向在更大的距离上更加逐渐地发生。
当虚拟屏幕1430不平行于墙壁时,AR系统可以使用虚拟屏幕1430的最靠近墙壁的部分(诸如图14B中所示的虚拟屏幕1430的底部部分)作为计算距离时的终点。使用该方法,当距离变得足够小或为零时,AR系统可以检测到虚拟屏幕1430的至少一部分已接触墙壁1210。然而,如果基于墙壁1210与虚拟屏幕1430的重心之间的位移来计算距离,则当AR系统检测到碰撞时,该距离可以大于0(参见图14B)。这是因为当虚拟屏幕1430不平行于墙壁1210时,虚拟屏幕1430的一部分可以在虚拟屏幕1430的重心到达墙壁1210之前到达墙壁1210。
在各种实现方式中,虚拟对象可以具有功能可见性,该功能可见性为虚拟对象的仅一个表面显示内容(例如,TV屏幕或画)或具有被设计为对用户可见的纹理。例如,对于虚拟TV对象,对象的仅一个表面可以充当屏幕并向用户显示内容。结果,AR系统可以定向虚拟对象,使得具有内容的表面面向用户而不是墙壁。例如,参考14A、14B和14C,虚拟屏幕1430的表面法线可以最初面向天花板(而不是桌子),使得当用户站在桌子前面时,用户可以看到虚拟屏幕1430的内容。然而,如果用户仅仅提起虚拟屏幕1430并将其附到墙壁1210,则表面法线可能面向墙壁而不是用户。结果,用户能够看到虚拟屏幕1430的后表面而不能看到内容。为了确保当虚拟屏幕1430移动到墙壁1210时用户仍然可以观看到内容,AR系统可以围绕轴将虚拟屏幕1430旋转180度,使得具有内容的表面可以面向用户(不是墙壁)。通过该旋转,作为图14B中的虚拟屏幕1430的底侧的侧1434变为图14C中的顶侧,而作为图14B中的虚拟屏幕1430的顶侧的侧1432变为图14C中底侧。
除了如参考图14C所述的那样沿着轴翻转虚拟对象之外或作为其替代,AR系统也可以围绕其他轴旋转虚拟对象,使得虚拟对象保持与移动到目的位置之前相同的取向。参考图14A和14D,虚拟TV屏幕1430(及其内容)最初可以在桌子1242上处于竖向取向。然而,如图14B和14C所示,在虚拟TV屏幕1430移动到墙壁1210之后,虚拟TV屏幕以横向取向定向。为了保持与虚拟屏幕1430位于桌子1242上时相同的用户体验,AR系统可以将虚拟TV屏幕1430旋转90度,使得虚拟TV屏幕1430看起来处于竖向取向(如图14D所示)。通过该旋转,作为在图14C中被示出为屏幕1430的顶部的侧1434变为图14D中的屏幕1430的左侧,而作为在图14C中被示出为屏幕1430的底侧的侧1432变为图14D中的屏幕1430的右侧。
图15A、15B和15C示出了附接和定向虚拟对象的示例的侧视图。在该示例中,出于说明的目的,虚拟对象被描绘为平面对象(例如,虚拟屏幕),但是虚拟对象不限于平面形状。与图14A类似,图15A中的虚拟屏幕1430在1440a方向上朝向墙壁1210移动。AR系统可以显示焦点指示符1450以指示与用户相关联的位置(例如,诸如用户的凝视方向或用户的用户输入设备466的位置)。在该示例中,焦点指示符1450位于虚拟屏幕1430上,其可以指示虚拟屏幕1430的选择。虚拟屏幕1430与墙壁1210成角度1552(如图15B所示)。当如图15B所示虚拟屏幕1430接触墙壁1210的表面1510a时,AR系统可以在角度方向1440b上旋转虚拟屏幕1430。结果,如图15C所示,虚拟屏幕1430与墙壁1210的表面1510a之间形成的角度从角度1552减小到角度1554,并且在图15D中,角度1552已经减小到零,因为屏幕1430相对于墙壁1210是平坦的。在该示例中,即使在用户远离墙壁1210稍微移动之后,屏幕1430仍保留在墙壁上(由于墙壁的“粘性”)(其中焦点指示符1450不再位于虚拟对象1430上)。
尽管本文描述的示例图示出虚拟对象的重新定向发生在虚拟对象接触墙壁之后,但是应当注意,这里的示例是出于说明的目的而不是限制性的。重新定向可以在虚拟对象接触物理对象之前发生。例如,AR系统可以计算墙壁和虚拟对象的表面法线,并且可以在虚拟对象朝向墙壁移动时定向虚拟对象。另外,尽管本文提供的示例示出了虚拟对象的底部首先接触墙壁,但是应该注意,对象的任何其他部分也可以首先接触墙壁。例如,当虚拟对象平行于墙壁时,整个虚拟对象可能同时与墙壁碰撞。作为另一示例,当对象是3D杯子时,杯架可以在杯子的任何其他部分之前与墙壁碰撞。
虚拟对象与物理对象之间的模拟的吸引效果
如本文所述,AR系统可以模拟虚拟对象与物理或虚拟对象(例如墙壁或桌子)之间的吸引力的效果(例如,图12A-12B中的重力或如图13A-13D或14A-14D所示的磁吸引力或“粘性”)。当虚拟对象与物理对象之间的距离变得小于阈值时,AR系统可以自动地就好像两个对象由于吸引力(例如,磁铁的相反磁极的吸引或重力的向下拉力)而被吸引在一起一样将虚拟对象附到物理对象。
在一些情况下,AR系统可以利用多个吸引力,其可以更准确地表示物理对象的轨迹。例如,参考图14A-14B,想要将虚拟屏幕1430从桌子1242移动到墙壁1210的用户可以做出将虚拟屏幕1430扔到墙壁1210上的手势。如上所述,AR系统可以利用磁吸引力将屏幕1430附到墙壁1210。另外,AR系统可以利用向下的重力来表示屏幕1430朝向墙壁1210移动时的弧形轨迹。AR系统对一个或多个吸引力的使用可以使虚拟物体看起来以更自然的方式在用户环境中移动并与其他对象交互,因为虚拟对象与物理对象的移动有些类似地来动作。这可以有利地导致更自然和真实的用户体验。
在其他情况下,用户可能想要将虚拟对象移动远离虚拟对象当前所附到的对象。然而,有时,当虚拟对象附到墙壁时,AR系统可能无法区分用户的移动是否指示从虚拟对象的用户交互中分离虚拟对象的意图。作为示例,当用户使用附到墙壁的虚拟屏幕来玩游戏时,用户可能需要移动他的图腾以找到朋友或敌人或者与朋友或敌人交互。这种类型的游戏移动可能与用于将虚拟对象从墙壁分离的移动类型一致。通过仅在用户的移动足够高于合适的阈值的情况下分离虚拟对象,在玩游戏期间不会无意地分离虚拟屏幕。另外,用户通常不能持续长时间段保持他的姿势或用户输入设备静止。结果,当用户不旨向分离虚拟对象时,虚拟对象可能由于用户的微小移动而被意外地分离。因此,通过仅在用户的移动足够高于合适的阈值的情况下分离虚拟对象,用户的轻微移动或抽动将不会无意地将虚拟对象从其预期位置或取向分离。
为了解决这些问题并改进AR系统,AR系统可以模拟虚拟对象与物理对象之间的吸引力,使得用户可以不立即将虚拟对象从其他对象分离,除非用户位置的改变大于阈值。例如,如图15D所示,屏幕1430附到墙壁1210。用户可以移动他的用户输入设备,使得焦点指示符1450远离墙壁移动。然而,由于屏幕与墙壁之间的模拟的吸引效果,虚拟屏幕1430仍然可以附到表面1510a。随着焦点指示符移动得更远并超过屏幕1430与焦点指示符1450之间的阈值距离,AR系统可以将虚拟屏幕1430从墙壁1210分离,如图15E所示。AR系统提供的这种交互就好像在焦点指示符1450与屏幕1430之间存在不可见的虚拟弦。当焦点指示符1450与屏幕1430之间的距离超过虚拟弦的长度时,虚拟弦变得拉紧并将屏幕从墙壁1210分离。虚拟弦的长度表示阈值距离。
除了阈值距离之外或者作为其替代,AR系统还可以使用其他因素来确定是否分离虚拟对象。例如,AR系统可以测量用户移动的加速度或速度。AR系统可以使用参考图2和图4描述的IMU来测量加速度和速度。如果加速度或速度超过阈值,则AR系统可以将虚拟对象从物理对象分离。在一些情况下,可以测量加速度的变化率(称为“加加速度”),并且如果用户提供的加加速度大于加加速度阈值,则分离虚拟对象。利用加速度阈值或加加速度阈值的AR系统的实现方式可以更自然地表示用户如何从其他对象分离对象。例如,为了移除粘在墙壁上的物理对象,用户可以抓住物理对象的一部分并将其从墙壁上猛拉。可以使用加速度和/或加加速度阈值来模型化虚拟世界中该猛拉的表示。
在另一实现方式中,AR系统可以模拟其他物理力,例如摩擦力或弹力。例如,AR系统可以就好像存在连接焦点指示符1450与屏幕1430的虚拟橡皮带一样模拟焦点指示符1450与屏幕1430之间的交互。随着焦点指示符1450与屏幕1430之间的距离增加,虚拟橡皮带的虚拟拉力增加,并且当虚拟拉力大于表示墙壁1210的粘性的力阈值时,从墙壁1210分离屏幕1430。在另一示例中,当虚拟对象出现在物理对象的水平表面上时,AR系统可以就好像在虚拟对象与水平表面之间存在虚拟摩擦力一样模拟焦点指示符与虚拟对象之间的交互。用户可以沿着水平表面拖动焦点指示符,而AR系统仅可以在用户施加的力足以克服虚拟摩擦力时开始移动虚拟对象。
因此,在各种实现方式中,AR系统可以利用具有对应阈值的距离、速度、加速度和/或加加速度测量来确定是否从另一对象分离虚拟对象。同样地,AR系统可以利用对象之间的吸引力(其表示粘性、重力或磁吸引力)的阈值来确定虚拟对象附到其他对象的强度。例如,旨在不可移动地放置在另一对象上的虚拟对象可以与非常高的吸引阈值相关联,使得用户很难分离虚拟对象。与物理对象的属性由其重量等设置的物理世界不同,在虚拟世界中,可以改变虚拟对象的属性。例如,如果用户有意想要移动“不可移动的”虚拟对象,则用户可以指示AR系统临时改变虚拟对象的设置,使得其相关阈值低得多。在将虚拟对象移动到新位置之后,用户可以指示AR系统重置虚拟对象的阈值,使其再次不可移动。
当从物理对象分离虚拟对象时,虚拟对象的取向可以保持与将虚拟对象附到物理对象时的取向相同。例如,在图15D中,当虚拟屏幕1430附到墙壁时,虚拟屏幕1430平行于墙壁的表面1510a。因此,当虚拟屏幕1430远离图15E中的墙壁移动时,虚拟屏幕1430可以保持与墙壁1430平行。
在一些实施例中,当从墙壁分离虚拟对象时,AR系统可以将虚拟对象的取向改变回在虚拟对象附到墙壁之前的原始取向。例如,如图15F所示,当从墙壁1210分离虚拟屏幕1430时,AR系统可以将虚拟屏幕1430的取向恢复到与图15A和15B中所示的取向相同的取向。
一旦从墙壁1210分离虚拟屏幕1430,用户就可以移动对象1430并将其重新附到墙壁(或另一对象)。如图15G和15H所示,当用户将虚拟屏幕1430移回到墙壁1210时,虚拟对象1430可以在1440c的方向上定向并且被附到墙壁1210的表面1510b。因此,如图15D所示,用户可以将对象1430重新附到墙壁1210的左手侧(例如,比较图15D中的虚拟屏幕1430的位置与其在图15H中的位置)。
尽管参考自动将虚拟对象附到墙壁来描述图14A-14D和15A-15H的示例,也可以应用相同的技术自动将虚拟对象附到诸如桌子的另一对象。例如,当虚拟书靠近桌子时,AR系统可以模拟向下的重力的效果并且自动地定位虚拟书并在桌子的顶部上显示虚拟书而无需用户进一步的努力。作为另一示例,用户可以使用手势将虚拟画移动到地板上并将其落到地板上(通过虚拟重力)。用户的当前位置可以由焦点指示符指示。当用户将画移动到地板时,焦点指示符可以跟随用户的位置。然而,当虚拟画靠近用户环境中的桌子时,虚拟画可能会意外地附到桌子上,因为桌子可能位于地板的顶部。用户可以用他的手、头部或眼睛姿势继续在地板的方向上移动焦点指示符。当焦点指示符与桌子的位置之间的距离足够大时,AR系统可以从桌子分离虚拟图片并将其移动到焦点指示符的位置。然后,用户可以继续移动虚拟图片直到它接近地板,其中AR系统可以在虚拟重力下将其落到位置上。
附加地或替代地,本文描述的技术还可以用于将虚拟对象放入另一对象的内部。例如,用户可以具有包含用户的照片的虚拟盒。当AR系统接收到将照片放入虚拟盒的指示时,AR系统可以自动地将照片移动到虚拟盒内部并且使照片与虚拟盒对齐。
用于自动捕捉和定向虚拟对象的示例方法
图16是用于附接和定向虚拟对象的示例方法。图16中所示的过程1600可以由参考图2描述的AR系统200执行。
在框1610处,AR系统可以识别用户环境中的用户想要与之交互的虚拟对象。该虚拟对象也可以称为目标虚拟对象。AR系统可以基于用户的姿势识别目标虚拟对象。例如,当AR系统与用户的凝视方向相交时,AR系统可以选择虚拟对象作为目标虚拟对象。当用户致动用户输入设备时,AR系统也可以识别目标虚拟对象。例如,当用户点击用户输入设备时,AR系统可以基于用户输入设备的当前位置自动指定目标虚拟对象。
目标虚拟对象可以具有第一位置和第一取向。在一些实施例中,目标虚拟对象的位置和取向可以以向量形式表示。当目标虚拟对象在周围移动时,可以相应地更新向量中的值。
在框1620处,AR系统可以接收将目标虚拟对象移动到目的对象的指示。例如,用户可以指向桌子并且致动用户输入设备,该用户输入设备指示将目标虚拟对象移动到桌子的意图。作为另一示例,用户可以在墙壁的方向上拖动虚拟对象以将虚拟对象放置到墙壁上。目的对象可以具有位置和取向。在一些实现方式中,与目标虚拟对象类似,目的对象的位置和取向也可以以向量形式表示。
在框1630处,AR系统可以基于目标虚拟对象的位置和目的对象的位置来计算目标虚拟对象与目的对象之间的距离。AR系统可以将计算的距离与阈值距离进行比较。如果距离小于阈值距离,则如框1640所示,AR系统可以自动地定向目标虚拟对象并将其附到目的对象。
在一些实现方式中,AR系统可以包括多个阈值距离(或速度、加速度或加加速度),其中每个阈值距离与一种类型的动作相关联。例如,AR系统可以设置第一阈值距离,其中如果目标虚拟对象与目的对象之间的距离小于或等于阈值距离,则AR系统可以自动旋转虚拟对象。AR系统还可以设置第二阈值距离,其中在距离小于第二阈值距离时,AR系统可以自动将目标虚拟对象附到目的对象。在该示例中,如果第一阈值距离与第二阈值距离相同,则在满足阈值距离时,AR系统可以同时开始附接和定向目标虚拟对象。如果第一阈值距离大于第二阈值距离,则在AR系统开始自动将目标虚拟对象附到目的对象之前,AR系统可以开始定向目标虚拟对象。另一方面,如果第一阈值距离小于第二阈值距离,则AR系统可以首先将目标虚拟对象附到目的对象,然后定向目标虚拟对象(例如当目标虚拟对象的一部分已附到目的对象时)。作为另一示例,如果用户移动超过对应的速度、加速度或加加速度阈值,则AR系统可以分离虚拟对象。
当定向目标虚拟对象时,AR系统可以沿多个轴定向目标虚拟对象。例如,AR系统可以旋转虚拟对象,使得虚拟对象的表面法线面向用户(而不是面向目的对象的表面)。AR系统还可以定向虚拟对象,使得虚拟对象看起来与目的对象处于相同的取向。AR系统可以进一步调整虚拟对象的取向,使得用户不会以不舒适的角度观看虚拟对象的内容。在一些实施例中,AR系统可以在将两个对象附在一起时模拟磁吸引力和/或重力的效果。例如,AR系统可以在虚拟TV屏幕靠近墙壁时显示将虚拟TV屏幕吸引到墙壁的效果。作为另一示例,AR系统可以在用户指示将虚拟书放在桌子上的意图时模拟自由落体运动。
除了磁吸引力、粘性和重力效果之外,AR系统还可以就像虚拟对象是物理对象一样模拟其他物理效果。例如,AR系统可以将质量分配给虚拟对象。当两个虚拟对象碰撞时,AR系统可以模拟动量的效果,使得两个虚拟对象可以在碰撞之后一起移动一定距离。
用于分离虚拟对象的示例方法
图17是用于从用户环境中的另一对象分离虚拟对象的示例方法。图17中所示的过程1700可以由参考图2描述的AR系统执行。
在框1710处,AR系统可以识别位于用户的注视场(FOR)中的目标虚拟对象。FOR包括能够被用户经由AR系统感知的用户周围的环境的一部分。目标虚拟对象可以附到FOR中的另一对象。当目标对象被附到另一对象时,AR系统可以将第一位置分配给目标对象。
在框1720处,AR系统可以接收将目标虚拟对象移动到用户的FOR中的第二位置的指示。该指示可以是用户的姿势(诸如移动他的手)、用户输入设备的移动(诸如移动图腾)或者用户输入设备上的手势(诸如在触摸板上沿轨迹移动)的变化。
在框1730处,AR系统可以确定移动的指示是否满足用于从另一对象分离目标虚拟对象的阈值条件。如果满足阈值条件,则如框1742所示,AR系统可以分离虚拟对象并将其移动到用户的位置(例如,如焦点指示符所示)。阈值条件可以基于移动的速度/加速度和/或位置变化。例如,当用户想要从墙壁分离虚拟对象时,AR系统可以计算用户将他的图腾从墙壁移动了多远。如果AR系统确定图腾与墙壁之间的距离满足阈值距离,则AR系统可以分离虚拟对象。作为示例,当用户满足阈值速度和/或阈值加速度来足够快地移动其图腾时,AR系统也可以从墙壁分离虚拟对象。
如果AR系统确定不满足阈值条件,则AR系统可以不分离虚拟对象,如框1744所示。在一些实施例中,AR系统可以提供示出用户的当前位置的焦点指示符。例如,当不满足阈值条件时,AR系统可以在用户的当前位置显示焦点指示符,同时将虚拟对象显示为仍然附到环境中的另一对象。
尽管本文描述的示例是关于移动一个虚拟对象,但是应该注意,这些示例不是限制性的。例如,AR系统可以使用本文描述的技术来自动地定向一组虚拟对象、附接一组虚拟对象和从环境中的另一对象分离一组虚拟对象。
附加实施例
在第1方面,一种用于在用户的三维(3D)环境中自动地将目标虚拟对象捕捉到目的对象的方法,该方法包括:在包括计算机硬件的增强现实(AR)系统的控制下,AR系统被配置为允许用户与用户的3D环境中的对象交互,包括用户输入设备的AR系统:识别用户的3D环境中的目标虚拟对象和目的对象,其中目标虚拟对象与第一取向和第一位置相关联,并且其中目的对象与第二取向和第二位置相关联;至少部分地基于第一位置和第二位置计算目标虚拟对象与目的对象之间的距离;将距离与阈值距离进行比较;响应于距离小于或等于阈值距离的比较,自动将目标虚拟对象附到目的对象的表面;以及至少部分地基于第一取向和第二取向自动地定向目标虚拟对象以使目标虚拟对象与目的对象对齐。
在第2方面,根据方面1所述的方法,其中识别目标虚拟对象和目的对象是基于以下中的至少一个:头部姿势、眼睛姿势、身体姿势或手势。
在第3方面,根据方面1-2中任一方面所述的方法,其中目的对象包括以下中的至少一个:物理对象或虚拟对象。
在第4方面,根据方面3所述的方法,其中目的对象包括墙壁或桌子。
在第5方面,根据方面1-4中任一方面所述的方法,其中第一取向或第二取向包括以下中的至少一个:垂直方向或水平方向。
在第6方面,根据方面1-5中任一方面所述的方法,其中计算距离包括计算目标虚拟对象与目的对象之间的位移。
在第7方面,根据方面1-6中任一方面所述的方法,其中阈值距离为零。
在第8方面,根据方面1-7中任一方面所述的方法,其中自动定向目标虚拟对象以使目标虚拟对象与目的对象对齐包括以下中的至少一个:自动定向目标虚拟对象以使目标虚拟对象的表面法线面向AR系统;自动定向目标虚拟对象以使目标虚拟对象的表面法线垂直于目的对象的表面;或者自动定向目标虚拟对象以使目标虚拟对象的表面法线平行于目的对象的法线。
在第9方面,根据方面1-8中任一方面所述的方法,还包括为以下中的至少一个分配焦点指示符:目标虚拟对象或目的对象。
在第10方面,一种增强现实系统,包括计算机硬件和用户输入设备,该增强现实系统被配置为执行权利要求1-9中的方法中的任一项。
在第11方面,一种用于在用户的三维(3D)环境中自动地将目标虚拟对象捕捉到目的对象的方法,该方法包括:在包括计算机硬件的增强现实(AR)系统的控制下,AR系统被配置为允许用户与用户的3D环境中的对象交互,包括用户输入设备和被配置为测量用户的姿势的姿势传感器的AR系统:识别用户的3D环境中的目标虚拟对象,其中目标虚拟对象与第一位置和第一取向相关联;使用姿势传感器接收来自用户的将目标虚拟对象移动到目的对象的指示,其中目的对象与第二位置和第二取向相关联;至少部分地基于第一位置和第二位置计算目标虚拟对象与目的对象之间的轨迹;沿着轨迹朝向目的对象移动目标虚拟对象;至少部分地基于目标虚拟对象的当前位置和第二位置计算目标虚拟对象与目的对象之间的距离;将距离与阈值距离进行比较;响应于距离小于或等于阈值距离的比较,自动将目标虚拟对象附到目的对象;以及至少部分地基于第一取向和第二取向自动地定向目标虚拟对象以使目标虚拟对象与目的对象对齐。
在第12方面,根据方面11所述的方法,其中姿势传感器包括以下中的至少一个:面向外的成像系统、惯性测量单元或面向内的成像系统。
在第13方面,根据方面12所述的方法,还包括:将焦点指示符分配给用户的当前位置,其中至少部分地基于用户的姿势或者与用户输入设备相关联的位置来确定用户的当前位置。
在第14方面,根据方面13所述的方法,其中姿势包括头部姿势、眼睛姿势或身体姿势中的至少一个。
在第15方面中,根据方面14所述的方法,其中从用户接收将目标虚拟对象移动到目的对象的指示包括:使用姿势传感器识别用户姿势的变化;至少部分地基于用户的姿势识别目的对象;以及接收来自用户的将目标虚拟对象移动到目的对象的确认。
在第16方面,根据方面13所述的方法,其中从用户接收将目标虚拟对象移动到目的对象的指示包括以下中的至少一个:从用户输入设备接收目的对象的指示;或者从用户接收将目标虚拟对象移动到目的对象的确认。
在第17方面,根据方面15-16中任一方面所述的方法,其中所述确认包括用户的姿势或用户输入设备上的手势的变化中的至少一个。
在第18方面,一种增强现实系统,包括计算机硬件、用户输入设备和姿势传感器,该增强现实系统被配置为执行方面11-17中的方法中的任何一个。
在第19方面,一种用于在用户的三维(3D)环境中将目标虚拟对象捕捉到目的对象的方法,该方法包括:在包括计算机硬件的增强现实(AR)系统的控制下,被配置为允许用户与用户的3D环境中的对象交互AR系统:识别用户的3D环境中的目标虚拟对象和目的对象;接收将目标虚拟对象附到目的对象的指示;确定与目标虚拟对象或目的对象中的至少一个相关联的功能可见性;至少部分地基于功能可见性来自动定向目标虚拟对象;以及自动将目标虚拟对象附到目的对象。
在第20方面,根据方面19所述的方法,其中识别目标虚拟对象和目的对象是基于以下中的至少一个:头部姿势、眼睛姿势、身体姿势、手势或来自用户输入设备的输入。
在第21方面,根据方面19-20中任一方面所述的方法,其中目的对象包括以下中的至少一个:物理对象或虚拟对象。
在第22方面,根据方面21所述的方法,其中目的对象包括垂直表面或水平表面。
在第23方面,根据方面19-22中任一方面所述的方法,其中接收将目标虚拟对象附到目的对象的指示包括以下中的一个或多个:检测用户的姿势的变化;或者从用户输入设备接收目的对象的指示。
在第24方面,根据方面23所述的方法,其中所述姿势包括以下中的至少一个:头部姿势、眼睛姿势或身体姿势。
在第25方面,根据方面19-24中任一方面所述的方法,其中基于以下中的一个或多个来确定功能可见性:目标虚拟对象或目的对象的功能、取向、类型、位置、形状、尺寸或环境。
在第26方面中,根据方面19-25中任一方面所述的方法,其中自动定向目标虚拟对象包括以下中的一个或多个:自动定向目标虚拟对象以使目标虚拟对象的表面法线面向AR系统;自动定向目标虚拟对象以使目标虚拟对象的表面法线垂直于目的对象的表面;或者自动定向目标虚拟对象以使目标虚拟对象的表面法线平行于目的对象的法线。
在第27方面中,根据方面19-26中任一方面所述的方法,其中通过模拟目标虚拟对象与目的对象之间的吸引力来执行自动将目标虚拟对象附到目的对象。
在第28方面,根据方面27所述的方法,其中吸引力包括以下中的一个或多个:重力或磁吸引力。
在第29方面,一种包括计算机硬件的增强现实系统,该增强现实系统被配置为执行方面19-28中的方法中的任何一个。
在第30方面,一种用于在三维(3D)环境中从另一对象分离目标虚拟对象的方法,该方法包括:在包括计算机硬件的增强现实(AR)系统的控制下,AR系统被配置为允许用户与用户的注视场(FOR)中的对象的交互,FOR包括能够被用户经由AR系统感知的用户周围的环境的一部分,AR系统:接收用户关于目标虚拟对象的选择,其中目标虚拟对象与用户的FOR中的第一位置相关联;向用户显示与目标虚拟对象相关联的焦点指示符;从用户接收移动目标虚拟对象的指示;至少部分地基于该指示在更新位置处向用户显示焦点指示符;计算目标虚拟对象的第一位置与焦点指示符的更新位置之间的距离;将距离与阈值距离进行比较;响应于距离大于或等于阈值距离的比较,将目标虚拟对象从第一位置移动到与焦点指示符的更新位置相关联的第二位置;以及在第二位置处向用户显示目标虚拟对象。
在第31方面,根据方面30所述的方法,其中接收用户的关于目标虚拟对象的选择包括以下中的至少一个:检测用户的姿势的变化;或者从用户输入设备接收输入。
在第32方面,根据方面30-31中任一方面所述的方法,其中所述其他对象包括以下中的至少一个:物理对象或虚拟对象。
在第33方面,根据方面32所述的方法,其中其他对象包括墙壁或桌子。
在第34方面中,根据方面30-33中任一方面所述的方法,其中接收移动目标虚拟对象的指示包括以下中的至少一个:检测用户输入设备的移动;检测用户输入设备上的手势;或者检测用户的姿势的变化。
在第35方面,根据方面31-34中任一方面所述的方法,其中用户的姿势包括:头部姿势、眼睛姿势或身体姿势。
在第36方面,根据方面30-35中任一方面所述的方法,其中计算距离包括计算第一位置与更新位置之间的位移。
在第37方面,根据方面30-36中任一方面所述的方法,其中阈值距离由用户指定。
在第38方面中,根据方面30-37中任一方面所述的方法,其中在第二位置处向用户显示目标虚拟对象包括:在目标虚拟对象接触其他对象之前确定与目标虚拟对象相关联的取向;以及在第二位置处向用户显示具有该取向的目标虚拟对象。
在第39方面中,根据方面1-38中任一方面所述的方法,其中在第二位置处向用户显示目标虚拟对象包括:确定与第一位置处的目标虚拟对象相关联的取向;以及在第二位置处向用户显示具有该取向的目标虚拟对象。
在第40方面,一种用于在三维(3D)环境中从另一对象分离目标虚拟对象的方法,该方法包括:在包括计算机硬件的增强现实(AR)系统的控制下,AR系统被配置为允许用户与用户的注视场(FOR)中的对象的交互,FOR包括能够被用户经由AR系统感知的用户周围的环境的一部分,AR系统:接收对目标虚拟对象的选择,其中目标虚拟对象与用户的FOR中的第一位置相关联,并且目标虚拟对象的至少一部分接触另一对象;向用户显示与目标虚拟对象相关联的焦点指示符;从用户接收从其他对象分离目标虚拟对象的指示;至少部分地基于该指示在更新位置处向用户显示焦点指示符;确定该指示是否满足用于从其他对象分离目标虚拟对象的阈值条件;响应于满足阈值条件的确定,在与焦点指示符的更新位置相关联的第二位置处向用户显示目标虚拟对象;以及响应于不满足阈值条件的确定,在第一位置处向用户显示目标虚拟对象。
在第41方面,根据方面40所述的方法,其中接收对目标虚拟对象的选择包括以下中的至少一个:检测用户的姿势的变化;或者从用户输入设备接收输入。
在第42方面,根据方面40-41中任一方面所述的方法,其中所述其他对象包括以下中的至少一个:物理对象或虚拟对象。
在第43方面,根据方面42所述的方法,其中所述其他对象包括墙壁或桌子。
在第44方面,根据方面40-43中任一方面所述的方法,其中接收分离目标虚拟对象的指示包括以下中的至少一个:检测用户输入设备的移动;检测用户输入设备上的手势;或者检测用户的姿势的变化。
在第45方面,根据方面41-44中任一方面所述的方法,其中用户的姿势包括:头部姿势、眼睛姿势或身体姿势。
在第46方面,根据方面41-45中任一方面所述的方法,其中用于从其他对象分离目标虚拟对象的阈值条件包括以下中的至少一个:第一位置与更新位置之间的距离大于或等于阈值距离;从第一位置移动到更新位置的速度大于或等于阈值速度;用于远离第一位置移动的加速度大于或等于阈值加速度;或者用于远离第一位置移动的加加速度大于或等于阈值加加速度。
在第47方面,根据方面41-46中任一方面所述的方法,其中在第二位置处向用户显示目标虚拟对象包括:在目标虚拟对象接触其他对象之前确定与目标虚拟对象相关联的取向;以及在第二位置处向用户显示具有该取向的目标虚拟对象。
在第48方面,根据权利要求方面41-47中任一方面所述的方法,其中在所述第二位置处向所述用户显示所述目标虚拟对象包括:在所述第一位置处确定与所述目标虚拟对象相关联的取向;以及在第二位置处向用户显示具有该取向的目标虚拟对象。
在第49方面,一种用于在用户的三维(3D)环境中从另一对象分离目标虚拟对象的方法,该方法包括:在包括计算机硬件的增强现实(AR)系统的控制下,被配置为允许用户与用户的3D环境中的对象交互的AR系统:接收对目标虚拟对象的选择,其中目标虚拟对象在初始位置被附到3D环境中的另一对象;向用户显示与初始位置处的目标虚拟对象相关联的焦点指示符;从用户接收从其他对象分离目标虚拟对象的指示;至少部分地基于该指示在更新位置处向用户显示焦点指示符;确定该指示是否满足用于从其他对象分离目标虚拟对象的阈值条件;响应于满足阈值条件的确定,至少部分地基于该指示分离目标虚拟对象;以及响应于不满足阈值条件的确定,在初始位置处向用户显示目标虚拟对象。
在第50方面,根据方面49所述的方法,其中接收对目标虚拟对象的选择包括以下中的至少一个:检测用户的姿势的变化;或者从用户输入设备接收输入。
在第51方面,根据方面49-50中任一方面所述的方法,其中所述其他对象包括以下中的至少一个:物理对象或虚拟对象。
在第52方面,根据方面51所述的方法,其中所述其他对象包括垂直表面或水平表面。
在第53方面,根据方面49-52中任一方面所述的方法,其中接收从其他对象分离目标虚拟对象的指示包括以下中的至少一个:检测用户输入设备的移动;检测用户输入设备上的手势;或者检测用户的姿势的变化。
在第54方面,根据方面49-53中任一方面所述的方法,其中用于从其他对象分离目标虚拟对象的阈值条件包括以下中的至少一个:初始位置与更新位置之间的距离大于或者等于阈值距离;从初始位置移动到更新位置的速度大于或等于阈值速度;用于远离初始位置移动的加速度大于或等于阈值加速度;或者用于远离初始位置移动的加加速度大于或等于阈值加加速度。
在第55方面,根据方面49-54中任一方面所述的方法,其中通过模拟物理力来执行分离目标虚拟对象。
在第56方面,根据方面55所述的方法,其中物理力包括以下中的至少一个:重力、磁吸引力、摩擦力或弹力。
在第57方面,一种包括计算机硬件的增强现实系统,该增强现实系统被配置为执行方面30-56中的方法中的任何一个。
在第58方面中,一种用于在三维(3D)环境中自动重新定位虚拟对象的增强现实(AR)系统,该AR系统包括:AR显示器,其被配置为在3D视图中呈现虚拟内容;与AR显示器通信的硬件处理器,该硬件处理器被编程为:识别用户的3D环境中的目标虚拟对象,其中向目标虚拟对象分配表示第一位置和第一取向的一个向量;接收将目标虚拟对象附到目的对象的指示,其中向目的对象分配表示第二位置和第二取向的至少一个向量;至少部分地基于第一位置和第二位置计算目标虚拟对象与目的对象之间的轨迹;沿着轨迹朝向目的对象移动目标虚拟对象;跟踪目标虚拟对象的当前位置;至少部分地基于目标虚拟对象的当前位置和第二位置来计算目标虚拟对象与目的对象之间的距离;确定目标虚拟对象与目的虚拟对象的距离是否小于阈值距离;响应于距离小于或等于阈值距离的比较,自动将目标虚拟对象附到目的对象并将目标虚拟对象定向到第二取向;以及通过AR显示器在第二位置处渲染具有第二取向的目标虚拟对象,其中在第二取向下目标虚拟对象覆盖在目的对象上。
在第59方面,根据方面58所述的AR系统,其中硬件处理器还被编程为:分析目标虚拟对象、目的对象或环境中的至少一个的功能可见性;以及为了自动定向目标虚拟对象,硬件处理器被编程为旋转目标虚拟对象以使目标虚拟对象的第一法线与目的对象的第二法线对齐。
在第60方面,根据方面59所述的AR系统,其中功能可见性包括以下中的至少一个:功能、取向、类型、位置、形状或尺寸。
在第61方面,根据方面58-60中任一方面所述的AR系统,其中为了自动附接目标虚拟对象,硬件处理器被编程为:模拟目标虚拟对象与目的对象之间的吸引力,其中吸引力包括重力、弹力、粘合力或磁吸引力中的至少一个。
在第62方面,根据方面58-61中任一方面所述的AR系统,其中为了计算距离,硬件处理器被编程为计算目标虚拟对象的当前位置和与目的对象相关联的第二位置之间的位移。
在第63方面,根据方面62所述的AR系统,其中阈值距离为零。
在第64方面,根据方面58-63中任一方面所述的AR系统,其中附接目标虚拟对象的指示是根据以下中的至少一个确定的:用户输入设备的致动或用户的姿势。
在第65方面,根据方面64所述的AR系统,其中硬件处理器还被编程为:将焦点指示符分配给用户的当前位置,其中至少部分地基于用户的姿势或与用户输入设备相关联的位置来确定用户的当前位置。
在第66方面,根据方面58-65中任一方面所述的AR系统,其中硬件处理器还被编程为:接收从目的对象分离目标虚拟对象的指示,其中该指示与用户的当前位置的变化相关联;至少部分地基于接收的指示来确定是否满足用于分离目标虚拟对象的阈值条件;响应于满足阈值条件的确定:从目的对象分离目标虚拟对象;将目标虚拟对象从与目的对象相关联的第二位置移动到第三位置;以及在第三个位置处渲染目标虚拟对象。
在第67方面,根据方面66所述的AR系统,其中响应于满足阈值条件的确定,硬件处理器还被编程为:在将目标虚拟对象移动到第三位置的同时保持目标虚拟对象的第二取向。
在第68方面,根据方面67所述的AR系统,其中第三位置对应于焦点指示符的位置,该焦点指示符的位置对应于用户的当前位置。
在第69方面,根据方面68所述的AR系统,其中用于从其他对象分离目标虚拟对象的阈值条件包括以下中的至少一个:目标虚拟对象附到目的对象的第二位置与焦点指示符的位置之间的第二距离大于或等于第二阈值距离;用于从第二位置移动到焦点指示符的位置的速度大于或等于阈值速度;用于远离第二位置移动的加速度大于或等于阈值加速度;或者用于远离第二位置移动的加加速度大于或等于阈值加加速度。
在第70方面,根据方面69所述的AR系统,其中硬件处理器被编程为在从目的对象分离目标虚拟对象时模拟物理力,其中物理力包括摩擦力或弹力中的至少一个。
在第71方面,一种用于在三维(3D)环境中自动重新定位虚拟对象的方法,该方法包括:在包括计算机硬件的增强现实(AR)系统的控制下,被配置为允许用户与3D环境中的对象的交互的AR系统:识别用户的3D环境中的目标虚拟对象,目标虚拟对象具有第一位置和第一取向;接收相对于目的对象重新定位目标虚拟对象的指示;识别用于重新定位目标虚拟对象的参数;分析与3D环境、目标虚拟对象和目的对象中的至少一个相关联的功能可见性;基于功能可见性计算用于重新定位目标虚拟对象的参数的值;基于用于重新定位目标虚拟对象的参数的值来确定目标虚拟对象的第二位置和第二取向以及目标虚拟对象的移动;以及以第二位置和第二取向以及从第一位置和第一取向到达第二位置和第二取向的目标虚拟对象的移动来渲染目标虚拟对象。
在第72方面中,根据方面71所述的方法,其中重新定位目标对象包括将目标对象附到目的对象、重新定向目标对象或从目的对象分离目标对象中的至少一个。
在第73方面,根据方面71-72和权利要求14的方法中任一个所述的方法,其中目的对象是物理对象。
在第74方面,根据方面71-73中任一方面所述的方法,还包括确定重新定位目标虚拟对象的指示是否满足阈值条件;响应于该指示满足阈值条件的确定,执行所述计算、确定和渲染。
在第75方面,根据方面74中任一方面所述的方法,其中阈值条件包括目标虚拟对象与目的对象之间的距离。
在第76方面,根据方面71-75中任一方面所述的方法,其中将一个或多个物理属性分配给目标虚拟对象,并且基于目标虚拟对象的物理属性通过模拟目标虚拟对象、目的对象和环境的交互来确定目标虚拟对象的移动。
在第77方面,根据方面76所述的方法,其中分配给目标虚拟对象的一个或多个物理属性包括质量、大小、密度、相、硬度、弹力或电磁属性中的至少一个。
其他考虑因素
本文描述的和/或附图描绘的过程、方法以及算法中的每一者可体现在以下项中并通过以下项被全部或部分自动化:代码模块,其由一个或多个物理计算系统、硬件计算机处理器、专用电路执行;和/或电子硬件,其被配置为执行具体和特定计算机指令。例如,计算系统能包括用具体计算机指令或专用计算机编程的通用计算机(例如服务器)、专用电路等。代码模块可被编译并链接到可执行程序中,安装在动态链接库中,或可用解释性编程语言编写。在一些实施方式中,特定操作和方法可由特定于给定功能的电路来执行。
此外,本公开的功能的特定实施方式在数学上、计算上或技术上都足够复杂,以至于为了执行所述功能(例如由于所涉及的计算量或复杂性)或为了基本实时地提供结果,专用硬件或者一个或多个物理计算设备(利用适当的专有可执行指令)可以是必需的。例如,视频可包括多个帧,每帧具有数百万个像素,为了处理视频数据以在商业合理的时间量内提供期望的图像处理任务或应用,专用编程计算机硬件是必需的。
代码模块或任何类型的数据可被存储在任何类型的非暂时性计算机可读介质上,诸如物理计算机存储器,包括硬盘驱动器、固态存储器、随机存取存储器(RAM)、只读存储器(ROM)、光盘、易失性或非易失性存储器以及相同和/或相似元件的组合。方法和模块(或数据)也可在各种计算机可读传输介质上作为生成的数据信号(例如,作为载波或其他模拟或数字传播信号的一部分)传输,所述传输介质包括基于无线的介质和基于有线/电缆的介质,且可采取多种形式(例如,作为单一或多路复用模拟信号的一部分,或者作为多个离散数字数据包或帧)。所公开的过程或处理步骤的结果可持久地或以其他方式存储在任何类型的非暂时性实体计算机存储器中,或可经由计算机可读传输介质进行传送。
本文所描述和/或附图所描绘的流程图中的任何过程、框、状态、步骤或功能应当被理解为潜在地表示代码模块、代码段或代码部分,它们包括在过程中实现具体功能(例如逻辑功能或算术功能)或步骤的一个或多个可执行指令。各种过程、框、状态、步骤或功能能够根据本文提供的说明性示例进行组合、重新排列、添加、删除、修改或其他改变。在一些实施例中,额外或不同的计算系统或代码模块可执行本文所述的一些或全部功能。本文所述方法和过程也不限于任何具体的顺序,且与其相关的框、步骤或状态能以适当的其他顺序来执行,例如以串行、并行或某种其他方式。可向所公开的示例实施例添加或从中移除任务或事件。此外,本文所述的实施方式中的分离各种系统组件是出于说明的目的,且不应被理解为在所有实施方式中都需要这样的分离。应该理解,所描述的程序组件、方法以及系统一般能一起集成在单个计算机产品中或封装到多个计算机产品中。许多实施方式变体是可行的。
过程、方法以及系统可在网络(或分布式)计算环境中实施。网络环境包括企业范围的计算机网络、内联网、局域网(LAN)、广域网(WAN)、个人区域网络(PAN)、云计算网络、众包计算网络、因特网以及万维网。网络可以是有线或无线网络或者任何其他类型的通信网络。
本公开的系统和方法各自具有若干创新性方面,这些方面中的任一单个方面不单独负责本文所公开的期望待性或不是本文所公开的期望待性所必需的。上述各种特征和过程可彼此独立使用或可以以各种方式组合使用。所有可能的组合和子组合均旨在落入此公开的范围内。对此公开所述的实施方式的各种修改对于本领域技术人员而言可以是显而易见的,且在不脱离此公开的精神或范围的情况下,可将本文中限定的一般原理应用于其他实施方式。因此,权利要求不旨在限于本文所示的实施方式,而是应被赋予与本文所公开的此公开、原理和新颖特征一致的最宽范围。
在单独实施方式的上下文中在此说明书所述的某些特征也能在单个实施方式中组合实现。相反,在单个实施方式的上下文中所述的各种特征也能在多个实施方式中单独地或以任何合适的子组合实现。此外,尽管上文可将特征描述为以某些组合执行,甚至最初这样要求保护,但在一些情况下,来自所要求保护的组合的一个或多个特征能被从该组合中删除,且所要求保护的组合可涉及子组合或子组合的变体。任何单个特征或特征组对于每个实施例都不是必需或不可或缺的。
本文中使用的条件语,诸如(除其他项外)“能”、“能够”、“可能”、“可以”、“例如”等一般旨在表达某些实施例包括而其他实施例不包括某些特征、元素和/或步骤,另有具体说明或在上下文中另有理解除外。因此,这样的条件语一般不旨在暗示特征、元素和/或步骤以任何方式对于一个或多个实施例是必需的,或者一个或多个实施例必然包括用于在具有或没有程序设计者输入或提示的情况下决定这些特征、元素和/或步骤是否包括在或者是否将在任何具体实施例中执行的逻辑。术语“包括”、“包含”、“具有”等是同义词,且以开放式的方式包含性地使用,且不排除额外的元素、特征、动作、操作等。此外,术语“或”以其包含性含义(而不是其专有性含义)使用,因此,当被用于例如连接元素列表时,术语“或”意味着列表中的一个、一些或全部元素。另外,本申请和所附权利要求书中使用的冠词“一”、“一个”和“所述”应被解释为意味着“一个或多个”或“至少一个”,另有具体说明除外。
如本文所使用的,涉及项目列表的“至少一个”的短语指这些项目的任何组合,包括单个成员。作为示例,“A、B或C中的至少一个”旨在覆盖:A、B、C、A和B、A和C、B和C以及A、B和C。诸如短语“X、Y以及Z中的至少一个”的连接语(除非另有声明)以通常使用的上下文来理解,以表达项目、术语等可以是X、Y或Z中的至少一个。因此,这样的连接语一般并不旨在暗示某些实施例要求X中的至少一个、Y中的至少一个以及Z中的至少一个中的每个都存在。
类似地,虽然操作在附图中可以以特定顺序描绘,但应认识到,这样的操作不需要以所述特定顺序或以相继顺序执行,或执行所有例示的操作以实现期望的结果。此外,附图可以以流程图的形式示意性地描绘一个或多个示例过程。然而,未示出的其他操作能并入示意性地示出的示例方法和过程中。例如,能在任何所示操作之前、之后、同时或期间执行一个或多个附加操作。另外,在其他实施方式中,操作可被重新排列或重新排序。在某些情况下,多任务和并行处理可具有优势。此外,上述实施方式描述的各种系统组件的分离不应被理解为在所有实施方式中都需要这种分离,且应该理解,所述程序组件和系统一般能被一起集成在单个软件产品中或封装到多个软件产品中。另外,其他实施方式处于以下权利要求的范围内。在一些情况下,权利要求中列举的动作能以不同的顺序执行,且仍实现期望的结果。
Claims (20)
1.一种用于在三维3D环境中自动重新定位虚拟对象的增强现实AR系统,所述AR系统包括:
AR显示器,其被配置为显示虚拟内容;
与所述AR显示器通信的硬件处理器,所述硬件处理器被编程为:
识别用户的所述3D环境中的目标虚拟对象,其中向所述目标虚拟对象分配表示第一位置和第一取向的一个向量;
接收将所述目标虚拟对象附到目的对象的指示,其中向所述目的对象分配表示第二位置和第二取向的至少一个向量;
至少部分地基于所述第一位置和所述第二位置计算所述目标虚拟对象与所述目的对象之间的轨迹;
沿着所述轨迹朝向所述目的对象移动所述目标虚拟对象;
跟踪所述目标虚拟对象的当前位置;
至少部分地基于所述目标虚拟对象的所述当前位置和所述第二位置来计算所述目标虚拟对象与所述目的对象之间的距离;
响应于确定计算的所述距离小于第一阈值距离,自动地相对于所述目的对象来定向所述目标虚拟对象,其中所述第一阈值距离基于与定向速度相关联的用户偏好;以及
响应于确定计算的所述距离小于第二阈值距离,自动将所述目标虚拟对象附到所述目的对象,其中所述第一阈值距离大于所述第二阈值距离。
2.根据权利要求1所述的AR系统,其中所述硬件处理器还被编程为:
分析所述目标虚拟对象、所述目的对象或所述环境中的至少一个的功能可见性;以及
为了自动定向所述目标虚拟对象,所述硬件处理器被编程为旋转所述目标虚拟对象以使所述目标虚拟对象的第一法线与所述目的对象的第二法线对齐。
3.根据权利要求2所述的AR系统,其中所述功能可见性包括以下中的至少一个:功能、取向、类型、位置、形状或尺寸。
4.根据权利要求1所述的AR系统,其中为了自动附接所述目标虚拟对象,所述硬件处理器被编程为:模拟所述目标虚拟对象与所述目的对象之间的吸引力,其中所述吸引力包括重力、弹力、粘合力或磁吸引力中的至少一个。
5.根据权利要求1所述的AR系统,其中为了计算所述距离,所述硬件处理器被编程为计算所述目标虚拟对象的所述当前位置和与所述目的对象相关联的所述第二位置之间的位移。
6.根据权利要求5所述的AR系统,其中所述第二阈值距离为零。
7.根据权利要求1所述的AR系统,其中附接所述目标虚拟对象的所述指示是根据以下中的至少一个确定的:用户输入设备的致动或用户的姿势。
8.根据权利要求7所述的AR系统,其中所述硬件处理器还被编程为:将焦点指示符分配给所述用户的当前位置,其中至少部分地基于所述用户的所述姿势或者与所述用户输入设备相关联的位置确定所述用户的所述当前位置。
9.根据权利要求1所述的AR系统,其中所述硬件处理器还被编程为:
接收从所述目的对象分离所述目标虚拟对象的指示,其中所述指示与所述用户的当前位置的变化相关联;
至少部分地基于所述接收的指示来确定是否满足用于分离所述目标虚拟对象的阈值条件;
响应于满足所述阈值条件的确定:
从所述目的对象分离所述目标虚拟对象;
将所述目标虚拟对象从与所述目的对象相关联的所述第二位置移动到第三位置;以及
在所述第三位置处渲染所述目标虚拟对象。
10.根据权利要求9所述的AR系统,其中响应于满足所述阈值条件的确定,所述硬件处理器还被编程为:在将所述目标虚拟对象移动到所述第三位置的同时保持所述目标虚拟对象的所述第二取向。
11.根据权利要求9所述的AR系统,其中所述第三位置对应于焦点指示符的位置,所述焦点指示符的所述位置对应于所述用户的所述当前位置。
12.根据权利要求11所述的AR系统,其中用于从其他对象分离所述目标虚拟对象的所述阈值条件包括以下中的至少一个:
所述目标虚拟对象附到所述目的对象处的所述第二位置与所述焦点指示符的所述位置之间的第二距离大于或等于第二阈值距离;
用于从所述第二位置移动到所述焦点指示符的所述位置的速度大于或等于阈值速度;
用于远离所述第二位置移动的加速度大于或等于阈值加速度;或者
用于远离所述第二位置移动的加加速度大于或等于阈值加加速度。
13.根据权利要求9所述的AR系统,其中所述硬件处理器被编程为在从所述目的对象分离所述目标虚拟对象时模拟物理力,其中所述物理力包括摩擦力或弹力中的至少一个。
14.一种用于在三维3D环境中自动重新定位虚拟对象的方法,所述方法包括:
在包括计算机硬件的增强现实AR系统的控制下,被配置为允许用户与3D环境中的对象交互的所述AR系统:
识别所述用户的3D环境中的目标虚拟对象,所述目标虚拟对象具有第一位置和第一取向;
接收相对于目的对象重新定位所述目标虚拟对象的指示;
识别用于重新定位所述目标虚拟对象的参数;
分析与所述3D环境、所述目标虚拟对象和所述目的对象中的至少一个相关联的功能可见性;
基于所述功能可见性计算用于重新定位所述目标虚拟对象的所述参数的值;
基于用于重新定位所述目标虚拟对象的所述参数的所述值来确定所述目标虚拟对象的第二位置和第二取向以及所述目标虚拟对象的移动;
根据确定的所述移动朝向所述目的对象移动所述目标虚拟对象;
跟踪所述目标虚拟对象的当前位置;
响应于确定所述目标虚拟对象的所述当前位置与所述目的对象之间的距离小于第一阈值距离,自动地相对于所述目的对象来定向所述目标虚拟对象,其中所述第一阈值距离基于与定向速度相关联的用户偏好;以及
响应于确定所述目标虚拟对象的所述当前位置与所述目的对象之间的距离小于第二阈值距离,自动将所述目标虚拟对象附到所述目的对象,其中所述第一阈值距离大于所述第二阈值距离。
15.根据权利要求14所述的方法,其中重新定位所述目标虚拟对象包括将所述目标虚拟对象附到所述目的对象、重新定向所述目标虚拟对象或从所述目的对象分离所述目标虚拟对象中的至少一个。
16.根据权利要求14所述的方法,其中所述目的对象是物理对象。
17.根据权利要求14所述的方法,还包括确定重新定位所述目标虚拟对象的所述指示是否满足阈值条件;以及响应于所述指示满足所述阈值条件的确定,执行所述计算、确定和渲染。
18.根据权利要求17所述的方法,其中所述阈值条件包括所述目标虚拟对象与所述目的对象之间的距离。
19.根据权利要求14所述的方法,其中将一个或多个物理属性分配给所述目标虚拟对象,并且基于所述目标虚拟对象的所述物理属性通过模拟所述目标虚拟对象、所述目的对象和所述环境的交互来确定所述目标虚拟对象的所述移动。
20.根据权利要求19所述的方法,其中分配给所述目标虚拟对象的所述一个或多个物理属性包括质量、大小、密度、相、硬度、弹力或电磁属性中的至少一个。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210849094.4A CN115202482A (zh) | 2016-08-11 | 2017-08-09 | 用于三维空间中虚拟对象的自动放置的系统和方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662373693P | 2016-08-11 | 2016-08-11 | |
US201662373692P | 2016-08-11 | 2016-08-11 | |
US62/373,693 | 2016-08-11 | ||
US62/373,692 | 2016-08-11 | ||
PCT/US2017/046034 WO2018031621A1 (en) | 2016-08-11 | 2017-08-09 | Automatic placement of a virtual object in a three-dimensional space |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210849094.4A Division CN115202482A (zh) | 2016-08-11 | 2017-08-09 | 用于三维空间中虚拟对象的自动放置的系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109804334A CN109804334A (zh) | 2019-05-24 |
CN109804334B true CN109804334B (zh) | 2022-07-15 |
Family
ID=61160256
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780062338.1A Active CN109804334B (zh) | 2016-08-11 | 2017-08-09 | 用于三维空间中虚拟对象的自动放置的系统和方法 |
CN202210849094.4A Pending CN115202482A (zh) | 2016-08-11 | 2017-08-09 | 用于三维空间中虚拟对象的自动放置的系统和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210849094.4A Pending CN115202482A (zh) | 2016-08-11 | 2017-08-09 | 用于三维空间中虚拟对象的自动放置的系统和方法 |
Country Status (9)
Country | Link |
---|---|
US (5) | US10627625B2 (zh) |
EP (2) | EP3497676B1 (zh) |
JP (4) | JP6795683B2 (zh) |
KR (1) | KR102195352B1 (zh) |
CN (2) | CN109804334B (zh) |
AU (2) | AU2017311296B2 (zh) |
CA (1) | CA3033344A1 (zh) |
IL (4) | IL310337A (zh) |
WO (1) | WO2018031621A1 (zh) |
Families Citing this family (176)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
KR20240132105A (ko) | 2013-02-07 | 2024-09-02 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
KR20230098927A (ko) | 2016-03-31 | 2023-07-04 | 매직 립, 인코포레이티드 | 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들 |
US20180046352A1 (en) * | 2016-08-09 | 2018-02-15 | Matthew Johnson | Virtual cursor movement |
IL310337A (en) | 2016-08-11 | 2024-03-01 | Magic Leap Inc | Automatic positioning of a virtual object in 3D space |
US10678397B2 (en) * | 2016-09-26 | 2020-06-09 | Htc Corporation | Method for providing demonstration information in simulation environment, and associated simulation system |
US20180150204A1 (en) * | 2016-11-30 | 2018-05-31 | Google Inc. | Switching of active objects in an augmented and/or virtual reality environment |
US11841917B2 (en) * | 2017-03-07 | 2023-12-12 | Enemy Tree LLC | Digital multimedia pinpoint bookmark device, method, and system |
US10627895B2 (en) * | 2017-03-21 | 2020-04-21 | Lenovo (Singapore) Pte Ltd | Providing a virtual control |
KR102652922B1 (ko) | 2017-04-19 | 2024-03-29 | 매직 립, 인코포레이티드 | 웨어러블 시스템을 위한 멀티모달 임무 실행 및 텍스트 편집 |
JP6744990B2 (ja) | 2017-04-28 | 2020-08-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
CA3060209A1 (en) | 2017-05-01 | 2018-11-08 | Magic Leap, Inc. | Matching content to a spatial 3d environment |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
DK180470B1 (en) * | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
GB2567172A (en) * | 2017-10-04 | 2019-04-10 | Nokia Technologies Oy | Grouping and transport of audio objects |
CA3078420A1 (en) | 2017-10-17 | 2019-04-25 | Magic Leap, Inc. | Mixed reality spatial audio |
US10712899B2 (en) * | 2017-10-17 | 2020-07-14 | Microsoft Technology Licensing, Llc | Human-machine interface tethered to a user position in a three-dimensional VR or AR environment |
US10777006B2 (en) * | 2017-10-23 | 2020-09-15 | Sony Interactive Entertainment Inc. | VR body tracking without external sensors |
US11164088B2 (en) * | 2017-10-27 | 2021-11-02 | International Business Machines Corporation | Interactive feedback and assessment experience |
US10671238B2 (en) * | 2017-11-17 | 2020-06-02 | Adobe Inc. | Position-dependent modification of descriptive content in a virtual reality environment |
CN108022301B (zh) * | 2017-11-23 | 2020-05-19 | 腾讯科技(上海)有限公司 | 一种图像处理方法、装置以及存储介质 |
CA3084149A1 (en) | 2017-12-22 | 2019-06-27 | Magic Leap, Inc. | Methods and system for managing and displaying virtual content in a mixed reality system |
US10665023B2 (en) * | 2017-12-26 | 2020-05-26 | Disney Enterprises, Inc. | System and method for providing improved augmented reality content |
US11014242B2 (en) * | 2018-01-26 | 2021-05-25 | Microsoft Technology Licensing, Llc | Puppeteering in augmented reality |
US11567627B2 (en) | 2018-01-30 | 2023-01-31 | Magic Leap, Inc. | Eclipse cursor for virtual content in mixed reality displays |
US10540941B2 (en) | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
IL276510B2 (en) * | 2018-02-15 | 2024-02-01 | Magic Leap Inc | Virtual reverberation in mixed reality |
EP4213104A1 (en) | 2018-02-22 | 2023-07-19 | Magic Leap, Inc. | Browser for mixed reality systems |
CN111801641A (zh) * | 2018-02-22 | 2020-10-20 | 奇跃公司 | 采用物理操纵的对象创建 |
EP3547704A1 (en) | 2018-03-30 | 2019-10-02 | Thomson Licensing | Method, apparatus and stream for volumetric video format |
US11182964B2 (en) | 2018-04-30 | 2021-11-23 | Apple Inc. | Tangibility visualization of virtual objects within a computer-generated reality environment |
US10916065B2 (en) * | 2018-05-04 | 2021-02-09 | Facebook Technologies, Llc | Prevention of user interface occlusion in a virtual reality environment |
US20190340821A1 (en) * | 2018-05-04 | 2019-11-07 | Microsoft Technology Licensing, Llc | Multi-surface object re-mapping in three-dimensional use modes |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
WO2019222255A1 (en) * | 2018-05-14 | 2019-11-21 | Sri International | Computer aided inspection system and methods |
EP3797345A4 (en) | 2018-05-22 | 2022-03-09 | Magic Leap, Inc. | TRANSMODAL INPUT FUSION FOR A BODY WEARABLE SYSTEM |
US10818093B2 (en) | 2018-05-25 | 2020-10-27 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US10984600B2 (en) | 2018-05-25 | 2021-04-20 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
JP7136931B2 (ja) | 2018-06-05 | 2022-09-13 | マジック リープ, インコーポレイテッド | 空間3d環境へのコンテンツのマッチング |
US11157159B2 (en) | 2018-06-07 | 2021-10-26 | Magic Leap, Inc. | Augmented reality scrollbar |
JP7421505B2 (ja) | 2018-06-08 | 2024-01-24 | マジック リープ, インコーポレイテッド | 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア |
US10747302B2 (en) * | 2018-06-08 | 2020-08-18 | Facebook Technologies, Llc | Artificial reality interaction plane |
US10748346B2 (en) | 2018-06-08 | 2020-08-18 | Microsoft Technology Licensing, Llc | Placing and solving constraints on a 3D environment |
US10549186B2 (en) * | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
US10872474B2 (en) * | 2018-06-29 | 2020-12-22 | Dentsply Sirona Inc. | Method and system for dynamic adjustment of a model |
US10909772B2 (en) | 2018-07-31 | 2021-02-02 | Splunk Inc. | Precise scaling of virtual objects in an extended reality environment |
US10692299B2 (en) * | 2018-07-31 | 2020-06-23 | Splunk Inc. | Precise manipulation of virtual object position in an extended reality environment |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
US10957112B2 (en) | 2018-08-13 | 2021-03-23 | Magic Leap, Inc. | Cross reality system |
WO2020037312A1 (en) * | 2018-08-17 | 2020-02-20 | Matrix Analytics Corporation | System and method for fabricating decorative surfaces |
US11094079B2 (en) | 2018-08-28 | 2021-08-17 | Facebook Technologies, Llc | Determining a pose of an object from RGB-D images |
US11348316B2 (en) * | 2018-09-11 | 2022-05-31 | Apple Inc. | Location-based virtual element modality in three-dimensional content |
JP7148624B2 (ja) * | 2018-09-21 | 2022-10-05 | 富士フイルム株式会社 | 画像提案装置、画像提案方法及び画像提案プログラム |
US10573019B1 (en) * | 2018-09-25 | 2020-02-25 | Ebay Inc. | Augmented reality digital content search and sizing techniques |
US11308716B1 (en) * | 2018-09-27 | 2022-04-19 | Apple Inc. | Tailoring a computer-generated reality experience based on a recognized object |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
WO2020072985A1 (en) | 2018-10-05 | 2020-04-09 | Magic Leap, Inc. | Rendering location specific virtual content in any location |
KR20200052540A (ko) * | 2018-11-07 | 2020-05-15 | (주)리얼감 | 밀도를 이용한 포스 피드백 방법 및 시스템, 기계로 읽을 수 있는 저장 매체 |
US11032607B2 (en) * | 2018-12-07 | 2021-06-08 | At&T Intellectual Property I, L.P. | Methods, devices, and systems for embedding visual advertisements in video content |
US10778953B2 (en) * | 2018-12-10 | 2020-09-15 | Universal City Studios Llc | Dynamic convergence adjustment in augmented reality headsets |
US10902685B2 (en) * | 2018-12-13 | 2021-01-26 | John T. Daly | Augmented reality remote authoring and social media platform and system |
JP2020098381A (ja) * | 2018-12-17 | 2020-06-25 | 未來市股▲ふん▼有限公司 | 測位方法及び現実感提示装置 |
KR20210111821A (ko) * | 2019-02-08 | 2021-09-13 | 애플 인크. | 3 차원 콘텐츠 내에서의 객체 위치설정 및 이동 |
US10852906B2 (en) | 2019-02-15 | 2020-12-01 | Microsoft Technology Licensing, Llc | System and method for identifying locations for virtual items within a physical environment |
KR102653252B1 (ko) * | 2019-02-21 | 2024-04-01 | 삼성전자 주식회사 | 외부 객체의 정보에 기반하여 시각화된 인공 지능 서비스를 제공하는 전자 장치 및 전자 장치의 동작 방법 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US10846898B2 (en) * | 2019-03-28 | 2020-11-24 | Nanning Fugui Precision Industrial Co., Ltd. | Method and device for setting a multi-user virtual reality chat environment |
US11263457B2 (en) * | 2019-04-01 | 2022-03-01 | Houzz, Inc. | Virtual item display simulations |
WO2020206313A1 (en) | 2019-04-03 | 2020-10-08 | Magic Leap, Inc. | Managing and displaying webpages in a virtual three-dimensional space with a mixed reality system |
US11804014B1 (en) | 2019-04-22 | 2023-10-31 | Apple Inc. | Context-based application placement |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DE102019206749A1 (de) * | 2019-05-09 | 2020-11-12 | Volkswagen Aktiengesellschaft | Mensch-Maschine-Interaktion in einem Kraftfahrzeug |
WO2020243056A1 (en) * | 2019-05-29 | 2020-12-03 | Raitonsa Dynamics Llc | Generating content for physical elements |
CN110118974B (zh) * | 2019-05-31 | 2021-05-25 | 哈尔滨工业大学(深圳) | 一种基于三维激光增稠机构的多帧融合方法 |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
CN110264818B (zh) * | 2019-06-18 | 2021-08-24 | 国家电网有限公司 | 一种基于增强现实的机组进水阀拆装训练方法 |
US11029805B2 (en) * | 2019-07-10 | 2021-06-08 | Magic Leap, Inc. | Real-time preview of connectable objects in a physically-modeled virtual space |
US11107291B2 (en) * | 2019-07-11 | 2021-08-31 | Google Llc | Traversing photo-augmented information through depth using gesture and UI controlled occlusion planes |
US11244516B2 (en) * | 2019-09-16 | 2022-02-08 | Magic Leap, Inc. | Object interactivity in virtual space |
US11568605B2 (en) | 2019-10-15 | 2023-01-31 | Magic Leap, Inc. | Cross reality system with localization service |
JP2022551735A (ja) | 2019-10-15 | 2022-12-13 | マジック リープ, インコーポレイテッド | 無線フィンガプリントを用いたクロスリアリティシステム |
CN114586071A (zh) | 2019-10-15 | 2022-06-03 | 奇跃公司 | 支持多设备类型的交叉现实系统 |
EP4049466A4 (en) | 2019-10-25 | 2022-12-28 | Magic Leap, Inc. | REVERBER FOOTPRINT ESTIMATION |
JP2023501952A (ja) | 2019-10-31 | 2023-01-20 | マジック リープ, インコーポレイテッド | 持続座標フレームについての品質情報を伴うクロスリアリティシステム |
JP7525603B2 (ja) | 2019-11-12 | 2024-07-30 | マジック リープ, インコーポレイテッド | 位置特定サービスおよび共有場所ベースのコンテンツを伴うクロスリアリティシステム |
US11830460B2 (en) * | 2019-11-14 | 2023-11-28 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
CN113243000B (zh) * | 2019-12-04 | 2024-08-27 | 谷歌有限责任公司 | 用于增强现实对象的捕捉范围 |
EP4073763A4 (en) | 2019-12-09 | 2023-12-27 | Magic Leap, Inc. | CROSS-REALLY SYSTEM WITH SIMPLIFIED PROGRAMMING OF VIRTUAL CONTENT |
WO2021137349A1 (ko) * | 2019-12-31 | 2021-07-08 | 엔센스코리아주식회사 | 환경 기반 실-가상 정합 사물 배치를 위한 3차원 공간인식과 2차원 인지적 영역분할의 결합 방법 및 시스템 |
WO2021137348A1 (ko) * | 2019-12-31 | 2021-07-08 | 엔센스코리아주식회사 | 복수의 단말에서 3차원 공간정보를 공유하기 위한 공간맵 생성과 명령실행점 독출방법 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
US11340695B2 (en) | 2020-01-24 | 2022-05-24 | Magic Leap, Inc. | Converting a 2D positional input into a 3D point in space |
US11055925B1 (en) * | 2020-01-31 | 2021-07-06 | Splunk Inc. | Techniques for placement of extended reality objects relative to physical objects in an extended reality environment |
CN115087905A (zh) | 2020-02-10 | 2022-09-20 | 奇跃公司 | 在混合现实环境中相对于三维容器的以身体为中心的内容定位 |
CN115398314A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 使用多分辨率帧描述符进行地图处理的交叉现实系统 |
US11410395B2 (en) | 2020-02-13 | 2022-08-09 | Magic Leap, Inc. | Cross reality system with accurate shared maps |
WO2021163295A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with prioritization of geolocation information for localization |
US11551430B2 (en) | 2020-02-26 | 2023-01-10 | Magic Leap, Inc. | Cross reality system with fast localization |
US11354869B2 (en) | 2020-03-17 | 2022-06-07 | Apple Inc. | XR preferred movement along planes |
JP7425641B2 (ja) * | 2020-03-25 | 2024-01-31 | 鹿島建設株式会社 | 測距装置およびプログラム |
KR20210125656A (ko) * | 2020-04-08 | 2021-10-19 | 삼성전자주식회사 | 오브젝트들을 배치하는 이미지를 생성하는 방법 및 장치 |
CN111273450B (zh) * | 2020-04-14 | 2020-12-08 | 湖南翰坤实业有限公司 | 一种vr体验头盔及其平衡调节方法 |
JP2023524446A (ja) | 2020-04-29 | 2023-06-12 | マジック リープ, インコーポレイテッド | 大規模環境のためのクロスリアリティシステム |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11325043B2 (en) | 2020-05-15 | 2022-05-10 | Microsoft Technology Licensing, Llc | Utilizing multiple input sources for generating gameplay locations |
CN111627106B (zh) * | 2020-05-29 | 2023-04-28 | 北京字节跳动网络技术有限公司 | 人脸模型重构方法、装置、介质和设备 |
GB2595860B (en) * | 2020-06-08 | 2024-05-15 | Advanced Risc Mach Ltd | Augmented reality system |
WO2021263018A1 (en) * | 2020-06-25 | 2021-12-30 | The Regents Of The University Of California | Contextual augmentation using scene graphs |
CN111984160B (zh) * | 2020-06-28 | 2021-12-10 | 中国科学院软件研究所 | 一种基于人工势能场的目标选择方法及电子装置 |
CN111880652B (zh) * | 2020-07-16 | 2024-08-13 | 北京悉见科技有限公司 | 用于移动ar对象位置的方法、装置及存储介质 |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
JP7528621B2 (ja) | 2020-08-05 | 2024-08-06 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
WO2022055822A1 (en) * | 2020-09-11 | 2022-03-17 | Sterling Labs Llc | Method of interacting with objects in an environment |
CN116917850A (zh) * | 2020-09-23 | 2023-10-20 | 苹果公司 | 布置虚拟对象 |
US11816759B1 (en) * | 2020-09-24 | 2023-11-14 | Apple Inc. | Split applications in a multi-user communication session |
CN117555417B (zh) | 2020-09-25 | 2024-07-19 | 苹果公司 | 用于调节和/或控制与用户界面相关联的沉浸度的方法 |
WO2022066438A1 (en) * | 2020-09-25 | 2022-03-31 | Sterling Labs Llc | Asymmetric presentation of an environment |
KR20220045799A (ko) * | 2020-10-06 | 2022-04-13 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
US11733861B2 (en) * | 2020-11-20 | 2023-08-22 | Trimble Inc. | Interpreting inputs for three-dimensional virtual spaces from touchscreen interface gestures to improve user interface functionality |
US12008152B1 (en) * | 2020-12-31 | 2024-06-11 | Snap Inc. | Distance determination for mixed reality interaction |
EP4295314A1 (en) | 2021-02-08 | 2023-12-27 | Sightful Computers Ltd | Content sharing in extended reality |
JP2024506630A (ja) | 2021-02-08 | 2024-02-14 | サイトフル コンピューターズ リミテッド | 生産性のためのエクステンデッド・リアリティ |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
CN112991551A (zh) * | 2021-02-10 | 2021-06-18 | 深圳市慧鲤科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
US11995230B2 (en) | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
US11836871B2 (en) * | 2021-03-22 | 2023-12-05 | Apple Inc. | Indicating a position of an occluded physical object |
AU2022258962A1 (en) * | 2021-04-13 | 2023-10-19 | Apple Inc. | Methods for providing an immersive experience in an environment |
US12069209B2 (en) * | 2021-04-15 | 2024-08-20 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium that determine whether a current value of a non-position attribute value on which an operation of changing is being performed is within a predefined range |
US11861315B2 (en) * | 2021-04-21 | 2024-01-02 | Meta Platforms, Inc. | Continuous learning for natural-language understanding models for assistant systems |
US12118790B2 (en) | 2021-04-21 | 2024-10-15 | Meta Platforms, Inc. | Auto-capture of interesting moments by assistant systems |
US11670045B2 (en) * | 2021-05-07 | 2023-06-06 | Tencent America LLC | Method and apparatus for constructing a 3D geometry |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US20230040610A1 (en) * | 2021-08-06 | 2023-02-09 | Apple Inc. | Object placement for electronic devices |
EP4343516A4 (en) | 2021-08-23 | 2024-04-24 | Samsung Electronics Co., Ltd. | PORTABLE ELECTRONIC DEVICE HAVING AUGMENTED REALITY OBJECT DISPLAYED THEREOF AND METHOD OF OPERATING THE SAME |
JPWO2023037626A1 (zh) * | 2021-09-10 | 2023-03-16 | ||
KR102625729B1 (ko) * | 2021-10-05 | 2024-01-16 | 가온그룹 주식회사 | 클론객체를 이용하는 ar 콘텐츠 렌더링 처리 방법 |
KR102570735B1 (ko) * | 2021-11-01 | 2023-09-04 | 국민대학교산학협력단 | 주변 환경 구조와 사용자 선호도를 반영한 인공지능 기반의 증강현실 아바타 포즈 제안 장치 및 방법 |
US12067159B2 (en) | 2021-11-04 | 2024-08-20 | Microsoft Technology Licensing, Llc. | Multi-factor intention determination for augmented reality (AR) environment control |
EP4392939A1 (en) * | 2021-11-10 | 2024-07-03 | Samsung Electronics Co., Ltd. | Method and system for virtual object positioning in an augmented reality or virtual reality environment |
US11682180B1 (en) * | 2021-12-09 | 2023-06-20 | Qualcomm Incorporated | Anchoring virtual content to physical surfaces |
US11928783B2 (en) * | 2021-12-30 | 2024-03-12 | Snap Inc. | AR position and orientation along a plane |
US11887260B2 (en) | 2021-12-30 | 2024-01-30 | Snap Inc. | AR position indicator |
US11954762B2 (en) | 2022-01-19 | 2024-04-09 | Snap Inc. | Object replacement system |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US12062145B2 (en) * | 2022-02-01 | 2024-08-13 | Samsung Electronics Co., Ltd. | System and method for three-dimensional scene reconstruction and understanding in extended reality (XR) applications |
CN114363557B (zh) * | 2022-03-04 | 2022-06-24 | 西安电子科技大学 | 一种面向语义保真的虚拟会议方法及三维虚拟会议系统 |
CN116777965A (zh) * | 2022-03-11 | 2023-09-19 | 纬创资通股份有限公司 | 虚拟视窗配置装置、方法及系统 |
US11868583B2 (en) * | 2022-03-28 | 2024-01-09 | Google Llc | Tangible six-degree-of-freedom interfaces for augmented reality |
CN114849239A (zh) * | 2022-03-28 | 2022-08-05 | 联想(北京)有限公司 | 数据处理方法及电子设备 |
US20230377279A1 (en) * | 2022-05-19 | 2023-11-23 | Disney Enterprises, Inc. | Space and content matching for augmented and mixed reality |
US12112441B2 (en) | 2022-06-30 | 2024-10-08 | Apple Inc. | Content transformations based on reflective object recognition |
WO2024029784A1 (ko) * | 2022-08-04 | 2024-02-08 | 삼성전자 주식회사 | 가상 오브젝트를 표시하는 웨어러블 전자 장치 및 이의 제어 방법 |
US20240046576A1 (en) * | 2022-08-05 | 2024-02-08 | Samsung Electronics Co., Ltd. | Video See-Through Augmented Reality |
CN115129163B (zh) * | 2022-08-30 | 2022-11-11 | 环球数科集团有限公司 | 一种虚拟人行为交互系统 |
US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
US12099696B2 (en) | 2022-09-30 | 2024-09-24 | Sightful Computers Ltd | Displaying virtual content on moving vehicles |
US20240281107A1 (en) * | 2023-02-22 | 2024-08-22 | Woofy, Inc. | Augmented reality media timeline management and interaction system and method |
US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
US12099695B1 (en) | 2023-06-04 | 2024-09-24 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104067316A (zh) * | 2011-11-23 | 2014-09-24 | 奇跃公司 | 三维虚拟和增强现实显示系统 |
CN105264461A (zh) * | 2013-05-13 | 2016-01-20 | 微软技术许可有限责任公司 | 虚拟对象与表面的交互 |
CN105324736A (zh) * | 2013-07-23 | 2016-02-10 | 英特尔公司 | 触摸式和非触摸式用户交互输入的技术 |
Family Cites Families (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
FR2861858B1 (fr) | 2003-10-29 | 2014-09-05 | Snecma Moteurs | Deplacement d'un objet articule virtuel dans un environnement virtuel en evitant les collisions entre l'objet articule et l'environnement |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
JP5305561B2 (ja) | 2006-02-22 | 2013-10-02 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
EP2333651B1 (en) * | 2009-12-11 | 2016-07-20 | Dassault Systèmes | Method and system for duplicating an object using a touch-sensitive display |
KR101114750B1 (ko) | 2010-01-29 | 2012-03-05 | 주식회사 팬택 | 다차원 영상을 이용한 사용자 인터페이스 장치 |
JP2012058968A (ja) * | 2010-09-08 | 2012-03-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
EP2656135B1 (en) | 2010-12-24 | 2022-05-04 | Magic Leap, Inc. | Freeform waveguide prism |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
JP5799521B2 (ja) * | 2011-02-15 | 2015-10-28 | ソニー株式会社 | 情報処理装置、オーサリング方法及びプログラム |
US8736583B2 (en) | 2011-03-29 | 2014-05-27 | Intel Corporation | Virtual links between different displays to present a single virtual object |
KR101591579B1 (ko) * | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
CA2835120C (en) | 2011-05-06 | 2019-05-28 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
US20130104085A1 (en) | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
CA3207408A1 (en) | 2011-10-28 | 2013-06-13 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US20130215109A1 (en) * | 2012-02-22 | 2013-08-22 | Silka Miesnieks | Designating Real World Locations for Virtual World Control |
NZ700887A (en) | 2012-04-05 | 2016-11-25 | Magic Leap Inc | Wide-field of view (fov) imaging devices with active foveation capability |
CN115494654A (zh) | 2012-06-11 | 2022-12-20 | 奇跃公司 | 使用波导反射器阵列投射器的多深度平面三维显示器 |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
JP2015534108A (ja) | 2012-09-11 | 2015-11-26 | マジック リープ, インコーポレイテッド | 人間工学的な頭部搭載型ディスプレイデバイスおよび光学システム |
US10503359B2 (en) * | 2012-11-15 | 2019-12-10 | Quantum Interface, Llc | Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same |
US20140152558A1 (en) | 2012-11-30 | 2014-06-05 | Tom Salter | Direct hologram manipulation using imu |
US20140168261A1 (en) * | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
KR102507206B1 (ko) | 2013-01-15 | 2023-03-06 | 매직 립, 인코포레이티드 | 초고해상도 스캐닝 섬유 디스플레이 |
US20140258942A1 (en) | 2013-03-05 | 2014-09-11 | Intel Corporation | Interaction of multiple perceptual sensing inputs |
KR20230173231A (ko) | 2013-03-11 | 2023-12-26 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US20140267228A1 (en) * | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Mapping augmented reality experience to various environments |
KR102560629B1 (ko) | 2013-03-15 | 2023-07-26 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9367136B2 (en) * | 2013-04-12 | 2016-06-14 | Microsoft Technology Licensing, Llc | Holographic object feedback |
US9245387B2 (en) * | 2013-04-12 | 2016-01-26 | Microsoft Technology Licensing, Llc | Holographic snap grid |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
CN105960622B (zh) | 2013-10-01 | 2021-02-12 | 量子界面有限责任公司 | 选择吸引式接口、包括该接口的系统和装置及其制造和使用方法 |
AU2014337171B2 (en) | 2013-10-16 | 2018-11-15 | Magic Leap, Inc. | Virtual or augmented reality headsets having adjustable interpupillary distance |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
CN107329259B (zh) | 2013-11-27 | 2019-10-11 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US20150193982A1 (en) | 2014-01-03 | 2015-07-09 | Google Inc. | Augmented reality overlays using position and orientation to facilitate interactions between electronic devices |
CN111552079B (zh) | 2014-01-31 | 2022-04-15 | 奇跃公司 | 多焦点显示系统和方法 |
EP3712680B1 (en) | 2014-01-31 | 2022-07-13 | Magic Leap, Inc. | Multi-focal display system and method |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10620700B2 (en) | 2014-05-09 | 2020-04-14 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
CN106662754B (zh) | 2014-05-30 | 2021-05-25 | 奇跃公司 | 用于采用虚拟或增强现实装置生成虚拟内容显示的方法和系统 |
WO2016077798A1 (en) * | 2014-11-16 | 2016-05-19 | Eonite Perception Inc. | Systems and methods for augmented reality preparation, processing, and application |
US9778814B2 (en) * | 2014-12-19 | 2017-10-03 | Microsoft Technology Licensing, Llc | Assisted object placement in a three-dimensional visualization system |
US9911232B2 (en) * | 2015-02-27 | 2018-03-06 | Microsoft Technology Licensing, Llc | Molding and anchoring physically constrained virtual environments to real-world environments |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
US9824499B2 (en) * | 2015-06-23 | 2017-11-21 | Microsoft Technology Licensing, Llc | Mixed-reality image capture |
US9766713B2 (en) * | 2015-09-08 | 2017-09-19 | Unity IPR ApS | System and method for providing user interface tools |
US9984510B1 (en) * | 2016-03-02 | 2018-05-29 | Meta Company | System and method for modifying virtual elements in a virtual environment using hierarchical anchors incorporated into virtual elements |
US10373381B2 (en) * | 2016-03-30 | 2019-08-06 | Microsoft Technology Licensing, Llc | Virtual object manipulation within physical environment |
IL310337A (en) | 2016-08-11 | 2024-03-01 | Magic Leap Inc | Automatic positioning of a virtual object in 3D space |
-
2017
- 2017-08-09 IL IL310337A patent/IL310337A/en unknown
- 2017-08-09 EP EP17840184.0A patent/EP3497676B1/en active Active
- 2017-08-09 CN CN201780062338.1A patent/CN109804334B/zh active Active
- 2017-08-09 IL IL292911A patent/IL292911B2/en unknown
- 2017-08-09 US US15/673,135 patent/US10627625B2/en active Active
- 2017-08-09 WO PCT/US2017/046034 patent/WO2018031621A1/en unknown
- 2017-08-09 IL IL264690A patent/IL264690B/en unknown
- 2017-08-09 AU AU2017311296A patent/AU2017311296B2/en active Active
- 2017-08-09 KR KR1020197006686A patent/KR102195352B1/ko active IP Right Grant
- 2017-08-09 JP JP2019507143A patent/JP6795683B2/ja active Active
- 2017-08-09 CA CA3033344A patent/CA3033344A1/en active Pending
- 2017-08-09 EP EP24178132.7A patent/EP4398566A3/en active Pending
- 2017-08-09 CN CN202210849094.4A patent/CN115202482A/zh active Pending
- 2017-08-09 IL IL303843A patent/IL303843B2/en unknown
-
2020
- 2020-03-17 US US16/821,653 patent/US10921599B2/en active Active
- 2020-06-08 JP JP2020099143A patent/JP7049393B2/ja active Active
-
2021
- 2021-01-08 US US17/144,574 patent/US11287659B2/en active Active
-
2022
- 2022-02-24 US US17/679,774 patent/US11808944B2/en active Active
- 2022-03-14 AU AU2022201747A patent/AU2022201747A1/en not_active Abandoned
- 2022-03-25 JP JP2022049399A patent/JP7407219B2/ja active Active
-
2023
- 2023-09-22 US US18/473,017 patent/US20240012252A1/en active Pending
- 2023-12-18 JP JP2023212872A patent/JP2024029008A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104067316A (zh) * | 2011-11-23 | 2014-09-24 | 奇跃公司 | 三维虚拟和增强现实显示系统 |
CN105264461A (zh) * | 2013-05-13 | 2016-01-20 | 微软技术许可有限责任公司 | 虚拟对象与表面的交互 |
CN105324736A (zh) * | 2013-07-23 | 2016-02-10 | 英特尔公司 | 触摸式和非触摸式用户交互输入的技术 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109804334B (zh) | 用于三维空间中虚拟对象的自动放置的系统和方法 | |
JP7186913B2 (ja) | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 | |
KR102668725B1 (ko) | 증강 현실 시스템들에 대한 가상 레티클 | |
JP7118007B2 (ja) | 視野周辺の視覚的背光 | |
US20240329796A1 (en) | Real-time preview of connectable objects in a physically-modeled virtual space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |