CN103493106A - 使用骨骼跟踪来选择性地将手遮蔽在物理表面上的虚拟投影之上 - Google Patents
使用骨骼跟踪来选择性地将手遮蔽在物理表面上的虚拟投影之上 Download PDFInfo
- Publication number
- CN103493106A CN103493106A CN201280016317.3A CN201280016317A CN103493106A CN 103493106 A CN103493106 A CN 103493106A CN 201280016317 A CN201280016317 A CN 201280016317A CN 103493106 A CN103493106 A CN 103493106A
- Authority
- CN
- China
- Prior art keywords
- virtual objects
- body part
- processor
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 claims abstract description 27
- 238000009877 rendering Methods 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 296
- 230000004044 response Effects 0.000 claims description 29
- 230000001052 transient effect Effects 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 23
- 238000002224 dissection Methods 0.000 claims description 21
- 210000000988 bone and bone Anatomy 0.000 claims description 13
- 230000005764 inhibitory process Effects 0.000 claims description 2
- 230000000903 blocking effect Effects 0.000 claims 1
- 230000036544 posture Effects 0.000 description 198
- 230000008569 process Effects 0.000 description 80
- 230000000875 corresponding effect Effects 0.000 description 64
- 230000000007 visual effect Effects 0.000 description 57
- 238000004891 communication Methods 0.000 description 51
- 230000006854 communication Effects 0.000 description 51
- 210000003811 finger Anatomy 0.000 description 51
- 230000008859 change Effects 0.000 description 43
- 238000012545 processing Methods 0.000 description 43
- 230000033001 locomotion Effects 0.000 description 40
- 238000010586 diagram Methods 0.000 description 37
- 210000003128 head Anatomy 0.000 description 25
- 238000012790 confirmation Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 19
- 239000013598 vector Substances 0.000 description 16
- 230000003321 amplification Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 210000004247 hand Anatomy 0.000 description 14
- 230000009471 action Effects 0.000 description 12
- 238000004873 anchoring Methods 0.000 description 12
- 238000010295 mobile communication Methods 0.000 description 12
- 238000003199 nucleic acid amplification method Methods 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 11
- 238000013507 mapping Methods 0.000 description 10
- 230000008878 coupling Effects 0.000 description 9
- 238000010168 coupling process Methods 0.000 description 9
- 238000005859 coupling reaction Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 8
- 238000007667 floating Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 8
- 210000003484 anatomy Anatomy 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000001755 vocal effect Effects 0.000 description 6
- 241001269238 Data Species 0.000 description 5
- 230000000712 assembly Effects 0.000 description 5
- 238000000429 assembly Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000013589 supplement Substances 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000003414 extremity Anatomy 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 210000005224 forefinger Anatomy 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005538 encapsulation Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000035515 penetration Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 244000020551 Helianthus annuus Species 0.000 description 1
- 235000003222 Helianthus annuus Nutrition 0.000 description 1
- 208000030984 MIRAGE syndrome Diseases 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000000916 dilatatory effect Effects 0.000 description 1
- 230000007340 echolocation Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- TVLSRXXIMLFWEO-UHFFFAOYSA-N prochloraz Chemical compound C1=CN=CN1C(=O)N(CCC)CCOC1=C(Cl)C=C(Cl)C=C1Cl TVLSRXXIMLFWEO-UHFFFAOYSA-N 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3173—Constructional details thereof wherein the projection device is specially adapted for enhanced portability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Studio Devices (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
一种头戴式设备提供用于观看数据和使得能在多个用户间进行协作的身临其境的虚拟或扩增现实体验。在虚拟或扩增现实系统中渲染图像可包括执行用于捕捉要在其中显示虚拟对象的场景的图像、识别出现在捕捉到的图像中的身体部位、以及基于所识别出的身体部位来调整虚拟对象的显示的操作。这些渲染操作还可包括用身佩式相机来捕捉图像,用身佩式传感器阵列来捕捉空间数据,识别捕捉到的图像内的物体,确定到捕捉到的图像内的识别出的物体的距离,以及在头戴式显示器上显示虚拟对象。
Description
相关专利申请的交叉引用
本专利申请要求于2011年3月29日提交的题为“Systems and Methods forGesture Driven Interaction for Digitally Augmented Physical Spaces(用于数字扩增物理空间的姿势驱动式交互的系统和方法)”的美国临时专利申请S/N.:61/468,937的优先权权益,其全部内容通过援引纳入于此以用于所有目的。
发明领域
本申请涉及使用头戴式显示器、或诸如智能电话或平板计算机之类的其他移动设备的扩增或虚拟现实系统,其可将虚拟对象或界面置于所选物理表面上,以使得单个用户或多个用户能进行协作以观看该物理表面上的虚拟对象或者与之交互。背景
发明概述
各个实施例包括用于在扩增现实系统中渲染图像的方法,这些方法包括捕捉要在其中显示虚拟对象的场景的图像,识别出现在捕捉到的图像中的身体部位,以及基于所识别出的身体部位来调整虚拟对象的显示。在一实施例中,调整虚拟对象的显示可包括标识该虚拟对象与识别出的身体部位交叠的部分,以及抑制所标识出的部分以使得所识别出的身体部位显现为遮蔽该虚拟对象的所标识出的部分。在一进一步的实施例中,调整虚拟对象的显示可包括标识该虚拟对象与识别出的身体部位交叠的部分,以及将虚拟对象叠加在此识别出的身体部位上以使得该虚拟对象的所标识出的部分显现为遮蔽所识别出的身体部位。在一进一步的实施例中,调整所显示的虚拟对象可包括调整该虚拟对象与所识别出的身体部位交叠的所显示部分,以使得该虚拟对象是透过所识别出的身体部位可见的并使得所识别出的身体部位显现为半透明的。
在一进一步的实施例中,该方法可包括在身佩式半透明显示器上显示该虚拟对象,该身佩式半透明显示器配置成使得佩戴该身佩式半透明显示器的个人能透过该显示器观看场景。在一进一步的实施例中,捕捉要在其中显示虚拟对象的场景的图像可包括用由第一个人佩戴的身佩式相机来捕捉图像,该方法进一步包括用由第一个人佩戴的身佩式传感器阵列来捕捉空间数据,识别捕捉到的图像内的物体,以及确定距捕捉到的图像内的识别出的物体的距离。
在一进一步的实施例中,该方法可包括在头戴式显示器上显示虚拟对象和捕捉到的图像,以使得该场景对于佩戴身佩式半透明显示器的个人是可见的。在一进一步的实施例中,识别出现在所捕捉到的图像中的身体部位可包括对所捕捉到的图像应用解剖分析。在一进一步的实施例中,对图像应用解剖分析可包括识别所捕捉到的图像内的各物体,将所识别出的物体与存储在存储器中的骨骼模型作比较,所存储着的骨骼模型包括关于人类骨骼的关键关节、骨和肢的相对位置信息,以及响应于将所识别出的物体与骨骼模型作比较来确定是否有任何识别出的物体匹配于骨骼模型的一部分。
在一进一步的实施例中,该方法可包括响应于识别出出现在所捕捉到的图像中的身体部位而确定该身体部位属于第一个人还是属于第二个人,确定虚拟对象的位置和所包围区域,以及确定所识别出的身体部位是否与被该虚拟对象所包围的区域的至少一部分交叠。在一进一步的实施例中,确定身体部位是属于第一个人还是属于第二个人可包括基于所识别出的身体部位的取向来确定该身体部位是属于第一个人还是第二个人。在一进一步的实施例中,确定身体部位是属于第一个人还是属于第二个人可包括基于所识别出的身体部位距身佩式相机的距离来确定该身体部位是属于第一个人还是第二个人。
在一进一步的实施例中,确定身体部位是属于第一个人还是第二个人可包括基于确定在所捕捉到的图像中的身体部位的数目来确定该身体部位是属于第一个人还是第二个人。在一进一步的实施例中,调整虚拟对象的显示可包括当确定该身体部位属于第二个人时将该虚拟对象显示为叠加在所识别出的第二个人的身体部位之上,并且当确定该身体部位属于第一个人时显示该虚拟对象以使得该虚拟对象看起来位于所识别出的身体部位之下。在一进一步的实施例中,显示虚拟对象以使得该虚拟对象显现为位于所识别出的身体部位之下可包括不渲染该虚拟对象的与所识别出的身体部位交叠的部分。在一进一步的实施例中,该方法可包括显示所识别出的第二个人的身体部位与被虚拟对象包围的显示区域交叠的部分的轮廓,以使得在显示器中该轮廓在虚拟对象之上可见。
进一步的实施例包括系统,该系统可包括第一头戴式或身佩式设备和第二头戴式或身佩式设备,其中第一头戴式或身佩式设备可包括第一头戴式或身佩式相机、第一头戴式或身佩式显示器、第一收发机、以及耦合到该第一相机、第一显示器和第一收发机的第一头戴式或身佩式设备处理器;第二头戴式或身佩式设备包括第二头戴式或身佩式相机、第二头戴式或身佩式显示器、第二收发机、以及耦合到该第二相机、第二显示器和第二收发机的第二头戴式或身佩式设备处理器。在进一步的实施例中,该第一和第二头戴式或身佩式设备可用处理器可执行指令配置成执行与以上讨论的方法操作相对应的各种操作。更进一步的实施例可包括服务器,该服务器可包括存储器以及耦合到该存储器的服务器处理器,该服务器处理器用服务器可执行指令配置成执行与以上讨论的各种方法相对应的操作和/或用于经由网络将信息传送给该第一或第二头戴式或身佩式设备的操作。
进一步的实施例包括计算设备,该计算设备可包括用处理器可执行指令配置成执行与以上讨论的方法相对应的各种操作的处理器。进一步的实施例包括计算设备,该计算设备可包括用于执行与以上讨论的方法操作相对应的功能的各种装置。
进一步的实施例包括非瞬态处理器可读存储介质,其上存储有处理器可执行指令,这些处理器可执行指令配置成使处理器执行与以上讨论的方法相对应的各种操作。
附图简述
纳入于此且构成本说明书一部分的附图解说了本发明的示例性实施例,并与以上给出的概括描述和下面给出的详细描述一起用来解释本发明的特征。
图1是适合与各种实施例联用的头戴式设备的解说,其中有虚拟对象被锚定在物理表面上。
图2是两个用户彼此并排站在桌边并佩戴着用于与虚拟对象交互的两个头戴式设备的解说。
图3是两个用户彼此坐在桌子对面并佩戴着用于与虚拟对象交互的两个头戴式设备且该虚拟对象为每一用户均正确取向的解说。
图4是在两个不同远程位置处的两个用户佩戴着两个头戴式设备并进行协作且研究为每一用户均正确取向的相同虚拟对象的解说。
图5A是头戴式设备的数个用于与虚拟对象交互以及生成虚拟对象的组件的高级组件框图。
图5B是根据另一实施例的使佩戴头戴式设备的用户能与服务器通信的系统的高级组件框图。
图6是用于使用头戴式设备来将虚拟对象锚定在锚表面上的实施例方法的过程流程图,其中该虚拟对象在头戴式显示器上保持固定于该锚表面。
图7A是用于将虚拟对象锚定在头戴式设备的显示器中可见的物理表面上的实施例方法的过程流程图。
图7B是用于藉由输入命令使虚拟对象在至少两个不同锚点或表面之间移动的实施例方法的过程流程图。
图8A是由头戴式设备来投影虚拟对象以使其看起来锚定在物理表面上、并在第二头戴式设备上投影第二虚拟对象以使其对于第二用户而言看起来锚定在一不同物理表面上的实施例方法的过程流程图。
图8B是渲染对于每个用户的视点而言均取向正确的共享虚拟对象的实施例方法的过程流程图。
图9A和9B是用于使用坐标地图来将虚拟对象锚定在物理表面上并用于使用第二设备来使用坐标地图将第二虚拟对象锚定在一不同的物理表面上的实施例方法的过程流程图。
图10是用于发现其他头戴式设备来链接和共享数据的实施例方法的过程流程图。
图11是用于识别来自用户的姿势和音频两者作为用于控制头戴式设备的经确认输入命令的实施例方法的过程流程图。
图12是用于使用头戴式设备的捕捉用户的图像以识别姿势来作为输入命令的实施例方法的过程流程图。
图13是用于控制某些对象在图像内的渲染的实施例方法的过程流程图。
图14是用于使用头戴式设备来捕捉与用户相关联的图像并检测该用户的以及其他个人的特征、并且当检测到这些其他个人的特征时将虚拟对象叠加在这些其他个人的特征之上以便不遮蔽该虚拟对象的实施例方法的过程流程图。
图15是示出虚拟对象的头戴式显示器输出的俯视图,其中用户的手以及其他个人的手遮蔽了该虚拟对象,并且该虚拟对象显示为叠加在这些其他个人的手之上以使这些其他个人的手看起来是透明的。
图16是头戴式设备的侧视图,其中该头戴式设备经由高速无线数据链路来与移动通信设备通信,从而在该头戴式设备处的传感器捕捉数据时在该移动通信设备上执行软件。
图17是用于使用头戴式设备来无线地链接到移动通信设备以交换数据的实施例方法的过程流程图。
图18是用于使用头戴式设备来扫描区域、计算区域的参数、以及将所计算出的该区域的参数上传至共享存储器以供另一设备访问的实施例方法的过程流程图。
图19是使用头戴式设备来生成区域的三维模型、用位置数据来给该数据作标签、并上传该模型以与其他设备共享该数据的实施例方法的过程流程图。
图20是使用头戴式设备来在服务器上执行应用并与其他设备共享该数据的实施例方法的过程流程图。
图21是使用头戴式设备藉由目录来发现其他头戴式设备以与其他设备共享数据并进行协作的实施例方法的过程流程图。
图22–23解说了两个头戴式设备访问共享服务或共享存储器以交换扫描的数据并与彼此协作。
图24是使用头戴式设备来扫描区域、渲染虚拟对象、用位置数据来给计算出的参数作标签、以及将作了标签的参数上传到共享存储器以惠及其他头戴式设备的实施例方法的过程流程图。
图25A是若干移动设备与云服务器通信以向该云服务器提供共享数据并允许新的设备利用该共享数据来扫描区域并对其进行地图绘制的高级解说。
图25B是将作了标签且扫描的参数存储在云服务器中以供第二头戴式设备用来渲染虚拟对象的方法的过程流程图。
图26–28B是使用头戴式设备在显示器上渲染虚拟对象并在该显示器上将该虚拟对象叠加在身体部位之上的实施例方法的过程流程图。
图29是使用头戴式设备和云服务器来与若干其他头戴式设备共享扫描的和计算出的数据参数的实施例方法的过程流程图。
图30是使用两个不同的头戴式设备以及服务器来通过使用两个用到虚拟对象输入设备的不同软件应用来共享数据和协作的实施例方法的过程流程图,藉由该方法,在这两个不同软件应用之间的冲突得以解决。
图31是若干用户使用不同软件应用来共享数据并进行协作的高级框图。
图32是使用两个不同的计算设备以使用两个不同的文字处理应用来共享数据并进行协作的实施例方法的过程流程图。
图33-34是使用头戴式设备来识别姿势和音频命令两者、并在相继检测到第一命令和第二命令时将这些命令作为经确认的输入命令来处理的实施例方法的过程流程图。
图35-36是使用头戴式设备来识别姿势命令以在所生成的虚拟对象上渲染“虚拟对象输入设备”以使用户可使用该虚拟输入设备来控制该虚拟对象的实施例方法的过程流程图。
图37是使用姿势跟踪相机和/或RGB和距离测量相机(或若干此类相机)来提供“虚拟对象输入设备”的实施例的高级框图,该“虚拟对象输入设备”是受用户的手指控制以选择虚拟对象上的图标的虚拟指针设备。
图38-39示出使用头戴式设备和服务器来共享数据并使用户能够协作的基于对等的系统和基于中央云配置的系统的高级框图。
图40A是使用姿势跟踪相机及一相机来提供形成虚拟指针设备的“虚拟对象输入设备”的实施例系统的高级框图,其中虚拟对象可在头戴式显示器上被渲染得很大。
图40B-40C示出使用模块化微微型投影仪来渲染虚拟对象的另一实施例,该模块化微微型投影仪可检测姿势并为用户输出投影。
图40D示出通过检测一个或多个姿势用微微型投影仪来为用户在适宜的位置上投影图像的实施例方法的过程流程图。
图41是适于与各个实施例联用的移动计算设备的组件框图。
图42是适于与各个实施例联用的服务器计算设备的组件框图。
详细描述
将参照附图详细描述各种实施例。在任何可能的地方,相同附图标记用于在附图中通篇指代相同或类似部分。对特定示例和实现所作的引用是用于解说性的目的,而无意限定本发明或权利要求的范围。
措辞“示例性”在本文中用于表示“用作示例、实例或解说”。本文中描述为“示例性”的任何实现不必然被解释为优于或胜过其它实现。
如本文中所使用的,术语“移动电话”和“手持式设备”是指以下设备中的任何一个:蜂窝电话、智能电话、平板计算机、个人数据助理(PDA)、无线电子邮件接收机、有因特网能力的多媒体蜂窝电话、全球定位系统(GPS)接收机、无线游戏控制器、上网本、以及包括可编程处理器和存储器、并配置成与无线通信网络通信、且具有web浏览器的类似个人电子设备。
如本文中所使用的,术语“计算机”、“个人计算机”和“计算设备”是指已知的或者将来将被开发的任何可编程计算机系统。在优选实施例中,计算机将被耦合至诸如本文中所描述的网络。计算机系统可被配置有处理器可执行软件指令以执行本文中所描述的各过程。
如本文中所使用的,术语“组件”、“模块”、以及“系统”旨在指代计算机相关实体,无论该计算机相关实体是硬件、硬件与软件的组合、软件、还是执行中的软件。例如,组件可以是但不限于在处理器上运行的进程、处理器、对象、可执行件、执行的线程、程序、和/或计算机。作为解说,运行在服务器上的应用和该服务器两者都可以是组件。一个或多个组件可驻留在进程和/或执行的线程内,并且组件可局部化在一台计算机上和/或分布在两台或更多台计算机之间。
如本文中所使用的,术语“头戴式设备”(HMD)是指捕捉距离传感器数据并具有链接到移动处理器的显示能力的设备,该移动处理器可以是相对于该头戴式设备而言分开的设备,并如图16中所示。在一实施例中,头戴式设备10可以是用于移动设备CPU(例如蜂窝电话、平板计算机、智能电话等的处理器)的配件,其中头戴式设备控制系统1610(附图中的“VIRT(虚拟)控制系统”)的主处理在移动设备1605的处理器上执行。在另一个实施例中,头戴式设备可包括处理器、存储器、显示器和相机。在一实施例中,头戴式设备10可以是包括用于从环境(例如房间等)扫描或收集信息的一个或多个传感器(例如深度传感器、相机等)以及用于向另一个设备(例如服务器、第二移动设备等)传送所收集到的信息的电路系统的移动设备(例如智能电话等)。
在另一个实施例中,头戴式设备可包括用于与因特网、局部无线网络、或另一计算设备连接的无线接口。在另一个实施例中,微微型投影仪可以被关联在头戴式设备中以使得能够将图像投影到表面上。头戴式设备优选地为轻质的且被构造为避免使用重组件,重组件可能使得该设备佩戴起来不舒适。头戴式设备还可以能操作用于从用户接收音频/姿势输入。此类姿势或音频输入可以是说出的语音命令或识别出的用户姿势,其在由计算设备识别出时可使得该设备执行对应的命令。
术语“对等网络”旨在涵盖任何形式的已知的或将来可被开发的对等网络技术。尽管一些实施例提及使用超文本传输协议(HTTP)消息接发的对等网络,但是此类参引仅仅旨在用作示例,而并不意图将权利要求的范围限定到任何特定联网技术。
为了便于参引,解说各种实施例的功能运作的各示例可将网络称为第一网络和第二网络或第一和第二用户,或者称为网络A和网络B以及用户A和用户B。例如,第一用户可被称为“用户A”,并且第二用户可被称为“用户B”。附图和说明书中的此类参引是任意的并被用来简化网络和用户参引,由此并不旨在将权利要求的范围限定到仅仅两个网络或者仅仅两个用户,或者将特定用户限定到特定网络,因为各种实施例支持任何数目的网络和用户。
各种实施例将以可包括数个组件以及模块的系统的形式来呈现。应该理解并领会,各种系统可包括附加组件、模块等,并且可以并不包括结合附图讨论的组件、模块等的全部。也可以使用这些办法的组合。
转到图1,各种实施例使得头戴式设备10能够渲染显示在锚定表面16上的虚拟对象14以提供扩增现实体验,扩增现实体验能促成与计算设备的交互以及与其他用户的协作。各种实施例可包括用头戴式或者身佩式(例如佩戴在用户的颈部、肩膀或手臂上的、或者手持的)相机来捕捉图像。为了便于参引,如本文中和权利要求中所使用的术语“身佩式”涵盖头戴式。在一个实施例中,该相机可以是头戴式或者身佩式立体相机,其可生成图像数据,处理器能分析该图像数据以通过对立体图像进行三角分析来估计距图像中的物体的距离。替换地或附加地,头戴式设备可包括能测量距图像内各个表面的距离的一个或多个距离测量传感器(例如激光或声波测距仪)。如以下更详细讨论的,在各种实施例中,各式各样的不同类型的距离测量传感器和算法可被用于要测量的所成像场景以测量距用户观看的场景内的各物体的距离。而且,头戴式设备中可使用不止一个传感器和不止一种类型的传感器。因此,为了便于描述和前后一致,头戴式设备上可包括的各种集合和类型的距离测量传感器在本文中被共同地或个体地称为“距离传感器”。
此外,头戴式设备10可包括取向传感器,诸如加速计、陀螺仪、磁性传感器、光学传感器、机械或电子水平传感器、和惯性传感器,这些传感器单独或组合起来可向设备的处理器提供关于该设备的上/下/水平取向的数据(例如通过感测重力取向)以及由此提供用户的头部位置/取向(以及从中提供视角)。此外,头戴式设备可包括旋转取向传感器,诸如电子罗盘和加速计,这些旋转取向传感器能向设备的处理器提供关于左/右取向和移动的数据。配置成提供关于头戴式设备的上/下和旋转取向的数据(以及由此提供用户的视角)的传感器(包括加速计、陀螺仪、磁性传感器、光学传感器、机械或电子水平传感器、惯性传感器、和电子罗盘)在本文中被共同地称为“取向传感器”。
系统可被配置成识别用户输入,并且标识表面或位置以用于在所成像场景内放置虚拟对象,其中用户输入可以通过可由相机成像的姿势做出。距图像内识别出的物体的距离可以根据从立体图像和/或距离传感器汇集的数据来确定。头戴式设备10可向移动处理器提供图像和距离传感器数据以及从移动处理器接收显示信息,该移动处理器可以是与头戴式设备分开的,诸如在智能电话或其他移动设备中,如以下参照图16更详细讨论的。相对于周围环境对头戴式设备进行取向、并确定距各种表面的距离以及各种表面的取向的该过程可由数个用户佩戴着的每个设备来完成,从而每个用户从对每个用户而言合适的视角看到所显示的虚拟对象。此外,该过程可被持续地贯彻,从而每个头戴式设备能随着它在空间中移动通过不断地参照所扫描的三维(3D)环境的地形移位来对其自己的位置和观看角度作三角测量,由此执行同步定位和地图绘制(SLAM)操作。
在一实施例中,头戴式设备10可接收指示所捕捉到的图像中的第一锚表面16的第一用户输入。该输入可以是各式各样的用户输入中的任何输入,诸如是按钮按压、在头戴式相机的视野中执行的可识别姿势、用户目光集中的凝视(其识别为保持相对静止达预定时期的图像)、或者其他可识别输入的形式。第一锚表面16可以对应于位于由头戴式设备10的相机所获得的图像中的第一表面。耦合至头戴式设备10或者在其内的处理器可生成虚拟对象14并计算与显示相关的参数,包括与虚拟对象14的显示位置相对应的、相对于头戴式或身佩式相机的距离和取向。当用户选择显示锚定到指定锚表面的虚拟对象14时,耦合至头戴式设备10或者在其内的处理器可在显示器上(或通过投影仪)渲染该虚拟对象14,从而在通过该显示器观看该虚拟对象时,该虚拟对象看起来是在第一锚表面16上。虚拟对象14可以是任何虚拟对象14,包括例如文本、图形、图像和3D形状。当以此方式来呈现时,放置在周围环境内的指定位置处/上的虚拟对象的投影能创建虚拟现实的体验并使得用户能够与该虚拟对象进行交互。各个实施例使得能够与虚拟对象和数字资产(文档、图片、视频等)进行自然的交互。与虚拟对象和数字资产的此类自然交互可包括对该虚拟对象的姿势控制、触摸操纵、对其被触摸的部分的高亮强调等。可识别姿势可以用可由头戴式设备访问的姿势字典的形式来存储或组织。此类姿势字典可存储用于识别姿势的运动数据或模式,这些姿势可包括戳、轻拍、叩击、推、指引、弹拂、转向、旋转、抓和拉、两手的手掌打开以摇摄图像、绘图(例如手指绘画)、用手指形成形状(例如“OK”手势)、以及挥击,所有这些姿势可以在所生成显示中的虚拟对象的视在位置上、紧邻该视在位置、或往该视在位置的方向(相对于用户而言)来完成。以此方式,各种实施例使得能够与虚拟对象进行自然的交互,这些交互可包括姿势控制或者其他合适的控制输入方法。
可使用不同类型的头戴式显示器来实现各种实施例。一些头戴式显示器可以是半透明的,以使得用户能够观看到越过显示器外的场景,其中所投影的图像显现为被叠加在背景场景上。在其他实施例中,头戴式显示器完全阻挡用户看到房间。在此实施例中,头戴式显示器提供虚拟或扩增现实体验。为了看到房间中的物体,由用户佩戴的一个或多个相机所获得的图像可被用来将房间的视图投影到头戴式显示器上。在该实施例中,虚拟对象可被添加到投影在头戴式显示器上的图像,由此显现为与由相机获得的实际图像一样真实。
在头戴式显示器为不透明(即,完全遮蔽)的实施例中,头戴式设备10可以显示用户前面的场景的图像,且14处的各虚拟对象被包括在显示器中,以使得它们显现为锚定到所选锚表面16上。在该实施例中,成像传感器和头戴式设备将用户前面的场景的图像投影到不透明显示器上。为由用户对该场景进行导航,用户在头戴式显示器上观看从头戴式相机获得的图像。这可包括将用户的手的图像渲染到显示器中,尤其是在该用户正在移动他或她的手作为控制姿势的一部分时。如果虚拟对象14被锚定到特定表面,则当用户从锚表面移开目光时,该虚拟对象将不显现在显示器中。由于头戴式显示器呈现由头戴式设备生成的图像(包括从身佩式相机获得的图像),因此该系统可以显示场景的各个部分,以使虚拟对象显现在背景的前面。因此,在该实现中,如果虚拟图像在头戴式显示器上被呈现在用户的手前面,则用户的手对于该用户将是不可见的。结果,该虚拟对象可显现为实体的且不透明的。该实施例提供了虚拟或扩增现实体验,其包括将用户佩戴的相机获得的真实图像与呈现在相同显示器上的虚拟对象相结合地显示。
在头戴式显示器为半透明(即,用户能透过该显示器看到背景场景)的实施例中,头戴式设备10可显示所生成的虚拟对象,以使该虚拟对象显现为锚定到由用户透过该显示器看到的第一锚表面16。以此方式,用户可以用部分透明的头戴式显示器来观看场景,其中真实世界物体(像是书桌、桌子和墙壁)透过头戴式显示器是部分可见的,该头戴式显示器还将虚拟对象放置在该可见场景内。可见虚拟对象14可被锚定到或连接到真实世界物体16。该实施例提供了扩增现实体验,其中显示器是穿透式的或视频穿透式的,以允许用户透过该显示器看到真实世界,且虚拟对象显现为固定在真实位置中或真实表面上。
举例而言,虚拟对象14可以仿效平板屏幕电视并且可连接到或“锚定”到真实世界物体或真实世界墙壁16,如图1中所解说的。随着用户移动他或她的头,虚拟对象14通常会随着用户的视域而在显示器10上移动。然而,在该实施例中,虚拟对象14显现为保持在锚表面16上,类似于真实世界的平板显示在用户转动他或她的头的情况下会保持在表面上的样子。
在一实施例中,用户可按与用户如何选择了第一锚表面类似的方式来移动锚表面16。用户可能发现对于某个任务而言,一不同的锚表面将会更好。头戴式设备10可以接收指示该图像内的不同于第一锚表面16的一新的或第二锚表面16的第二输入(姿势、音频、来自输入设备的等等)。第二锚表面16可以与位于该图像中的第二不同表面相对应。此外,第一和第二锚表面可以不毗邻,并且当指定第二/替换表面时,第一表面可以不在头戴式设备相机的视野中。例如,一个表面可能是如图2中所示的桌面16,而另一个表面可以是如图1中所示的横向墙壁16或天花板。例如,第一用户可以选择第一锚表面16供个人使用,并且随后为处于一不同地理位置的第二用户选择第二锚表面16。在一实施例中,用户输入可以是语音输入、使用有形输入设备(键盘或鼠标)提供的输入、所检测到的姿势,或者可由各不同用户提供。头戴式设备10内或耦合至头戴式设备10的处理器可以计算参数,包括与第二锚表面16相对应的、相对于头戴式或身佩式相机的距离和取向。头戴式设备10内或耦合至头戴式设备10的处理器可以随后显示所生成的虚拟对象14,以使得该虚拟对象对用户显现为被锚定到所选第二锚表面16。在另一个实施例中,作为头戴式设备10的替代或补充,微微型投影仪可被用来将虚拟对象14投影到所选锚表面16上。该微微型投影仪可以是分开的模块化设备,并且或者可以被包括在头戴式设备10内。
图1解说了用户使用头戴式设备10。头戴式设备10可以使得用户能够将近旁的表面(诸如墙壁12)指定为虚拟“平板屏幕”16。用户可使用输入命令来标识近旁的表面16。当多个用户装备有连接到共用网络或数据库的头戴式设备10时,那些用户中的一些或全部可以同时看到相同的虚拟对象14,这使得能够进行关于该虚拟对象的协作和群讨论,就像它是真实世界物体一样。
驱动头戴式设备10上的显示器的处理器可以持续地更新所生成的虚拟对象14的所显示图像,从而在用户转动他/她的头和相对于所选锚表面16移动时,虚拟对象14显现为锚定到锚表面16。因此,当用户在房间中四处移动和走动时,虚拟对象14可以显现为保持固定在物理表面16上。作为维持该印象的一部分,处理器可以修改虚拟对象14的外观,从而它的形状、大小和取向与用户对该锚表面的视角相匹配。调整虚拟对象的形状、大小和取向可以帮助提供身临其境的虚拟或扩增现实体验。除非用户输入了预定义的特定输入以将虚拟对象14移至另一个锚表面,否则虚拟对象14可以保持静止并且看似被附着到该锚表面。这对于在用户群当中进行协作会是有益的,因为虚拟对象14可以是会话的协作焦点,而不论每个用户的位置和视角如何。例如,第一用户可以阅读另一锚表面上的媒体或者观看由第二用户给出的演示。这将给予第一用户该虚拟对象14是类似于平板屏幕的真实世界或物理物体的观感,只不过第一用户可以在无需中断的情况下将锚表面16改变成房间中的一不同表面或物体。
在非限定示例中,虚拟对象14可以是旨在用于协作的软件应用的显示输出。举例而言,虚拟对象14可包括文本、媒体、电视频道、电影、文档文字处理应用、电子邮件、视频、电话呼叫、社交网络张贴、RSS内容源等。此类对象可以呈现在显示器上以显现为固定到锚表面或固定在锚表面上,类似于这些对象在常规平板显示器上所会显现的那样,只不过任何表面均可用作显示器。附加地,锚定到所选表面的虚拟对象的大小可由用户控制以使得所显示的对象能够被放大或缩小。在另一个实施例中,虚拟对象14可以具有不同的外观,诸如被渲染在非平面和非矩形表面上、或者渲染为具有球形或看似三维的形状。虚拟对象14在头戴式显示器上的呈现允许用户观看该对象和与该对象交互,就好像它是物理环境的一部分一样。在一实施例中,虚拟对象14可以对每个用户而言看起来不同。
在一个实施例中,虚拟对象14可以是不锚定到物理表面16的三维模型。在该实施例中,虚拟对象14可以是显现为漂浮在空间中的三维模型。在该实施例中,用户可以观看自由空间中的所显示的虚拟对象14,其中虚拟对象14被锚定到自由空间中可相对于墙壁、地板、家具等而言的所选三维位置。在该实施例中,当虚拟对象14被锚定到空间中的特定位置时,在用户移动他/她的头和围绕锚位置并由此围绕虚拟对象移动时,该对象将不会显现为在移动。例如,虚拟对象14可以被呈现在部分透明的显示器上,从而它显现为在自由空间中锚定在预定的3-D坐标处。在该实施例中,显示器可以显示提示以使用户输入该系统应当将虚拟对象14显示为自由漂浮在何处的地方或坐标。处理器可以经由所检测到的姿势(例如指向空间中的点的手指)来识别输入命令或者可以识别音频命令以将虚拟对象14放置为自由漂浮在自由空间中。处理器可以将虚拟对象14显示为锚定到所指示空间点,或者可以将虚拟对象14连接到头戴式显示器的位置,以使得虚拟对象14具有在空间中漂浮的幻象。当用户在自由空间中相对于虚拟对象14移动时,虚拟对象14的视角、大小、和取向也可相应地改变。例如,虚拟对象14可以被锚定到位于毗邻于墙壁的空白空间或者在外面漂浮于地面上方和窗户外。以此方式,用户可以通过在房间中围绕自由漂浮的虚拟对象14走动来查看虚拟对象14的所有侧面。
在各种实施例中,将虚拟对象14锚定在空间中的所选锚表面或锚点上的输入可以用数种不同方式来提供。举例而言,与头戴式设备10相关联的相机、或者操作地连接到头戴式设备10的第二相机也可跟踪用户的运动。处理器可接收图像并可向所跟踪到的运动应用检测算法以检测由用户作出的预定姿势。例如,用户可以指向表面,系统可将此解读为对处理器的特定输入。
例如,用户可以用姿势指示旨在使房间中的特定真实世界表面成为锚表面。当检测到预定姿势时,处理器可以执行与该预定姿势相对应的命令。例如,处理器可以检测到用户正指向特定表面。处理器可以检测该表面并且确定该表面相对于用户视线的角度,并且将虚拟对象14锚定在该特定表面上用户所指之处,且其取向和视角与该表面的所确定角度一致。
例如,用户可指向桌面。处理器可以跟踪用户的移动并且可以向所跟踪到的图像应用检测算法。当系统成像出用户的手臂伸出以食指进行指点并且剩余手指形成拳头,则处理器可将此类图像识别为用户姿势并应用对应命令以将虚拟对象14锚定在桌面上用户正指点之处。例如,如果用户的指尖接触表面以将其标识为锚表面,则头戴式设备可以将虚拟对象14显示为锚定到该表面。
在另一个示例中,用户可能期望移动虚拟对象14以将其“放置”在一不同的锚表面16上。为了完成此目的,用户可以提供或执行耦合到头戴式设备10的处理器可识别的第二预定姿势。第二预定姿势可以与用来指定第一锚表面的姿势相同,诸如将所捕捉到的图像内的表面指定为锚表面16的通用命令,或者可以是一不同的姿势。可作出许多不同的姿势,并且在本公开的范围内。例如,所检测到的预定姿势可以是“OK”手势、拳头、打开的手、用一个手指进行指点、用两个手指进行指点、用三个或四个手指进行指点、向外伸出的手、手旋转、挥手、一个或多个手指的移动、身体部位的移动(例如脚的移动)、或者其他任意的移动。
而且,对锚表面16的指定以及其他输入或命令可以用由话筒所接收到的输入来口头地提供,该话筒在头戴式设备10上或与之耦合、或者耦合至处理器,该处理器进而耦合到头戴式设备。头戴式设备内或与之耦合的处理器可以从话筒接收音频信号,并且可使用语音识别过程来处理此类信号。处理器可以将所接收到的音频信号与存储器中所存储的一个或多个命令的音频模式作比较以识别所说出的命令。例如,处理器可以监视音频输入以发现几个预定的命令单词。以此方式,用户可以与同事以及其他联网用户说话以诸如讨论虚拟对象,而不说命令关键字。处理器可以向收到音频应用检测算法,以使得它仅仅响应于特定的预定义音频命令、或者跟在预定义的注意命令(例如,“计算机”或“执行”等)后的命令。例如,用户可以说“将图像锚定在书桌上”以使得处理器将虚拟对象锚定到头戴式设备相机的视野内的书桌。头戴式设备10内或者耦合到头戴式设备10的处理器可以将这些说出的单词识别为命令输入,并且实现对应的动作以将虚拟对象14锚定在书桌或锚表面16“上”。
在另一个实施例中,处理器可被编程以检测命令输入,但随后在实现任何命令之前等待确认。该确认可以有利地避免在关于虚拟对象14进行群协作期间因无意的姿势或者因不经意的音频命令而不经意地移动该虚拟对象14。在该实施例中,虚拟对象14将不会响应于命令被放置、移动或锚定到表面,除非接收到确认或确认命令。例如,处理器可以处理来自相机的图像以标识姿势命令和/或处理从话筒接收到的音频信号以标识说出的命令,诸如单个单词或句子。当识别出姿势或者所说出的命令时,处理器可以提示用户确认该命令并等待确认输入,该确认输入可以是按钮按压、说出的单词、物理姿势、或者其组合的形式。当处理器识别出合适的确认或确认命令时,它可执行与第一识别出的姿势或可听命令相关联的命令。如果未接收到确认命令,则处理器可以忽略所检测到的姿势或可听命令。
在另一实施例中,移动计算设备(诸如带相机的智能电话)可以为并未佩戴头戴式显示器的用户起到“魔术镜头”的作用。在该实施例中,具有经由无线数据链路连接到系统的计算设备的用户可以在该设备的显示器上观看虚拟对象。这允许那些没有头戴式设备的用户观看虚拟对象和图像中的结构(诸如锚表面),其观看方式类似于它在头戴式显示器上显现的方式。举例而言,第一用户可以在头戴式显示器上观看连接到墙壁的虚拟对象14,该头戴式显示器将此图像数据传达给第二用户的智能电话或PDA显示器,从而第二用户可观看到该虚拟对象14显现为锚定在墙壁或其他表面上的样子。在另一实施例中,模块化微微型投影仪可被链接到移动设备并被用来投影虚拟对象的图像。
在各种实施例中,头戴式设备10包括无线通信能力,其使得能够在两个或更多个设备之间交换数据以使得两个或更多个用户能与文档、文件和虚拟对象交互以及针对文档、文件和虚拟对象进行协作。以此方式,头戴式设备10能促成多个用户在各虚拟对象上的协作,诸如提供使得用户能够与三维虚拟对象交互并从各种视角观看这些三维虚拟对象的虚拟或扩增现实体验。为能实现这种协作体验,头戴式设备10可向彼此传送三维虚拟对象模型和/或数据集以供在它们各自的显示器上进行渲染。头戴式设备10还可从其他计算设备(诸如网络服务器)接收数据文件,诸如坐标地图和三维虚拟对象模型和/或数据集。此外,由参与协作的头戴式设备中的一个或多个所生成的图像数据可被传送给非参与方所使用的头戴式设备或其他移动设备(诸如智能电话或平板计算机)并在其上显示,以使得其他人能够观看虚拟或扩增现实体验中的协作。佩戴头戴式设备或使用另一移动设备(诸如智能电话或平板计算机)来观看协作会话的其他人可以不仅仅看到虚拟对象以及用户与这些虚拟对象的交互,而且还能具有有限的与由这些头戴式设备用户之一看到的虚拟扩增进行交互的能力。该有限的交互可包括触摸该扩增以产生影响,定义物理表面上的交互区域或锚点(有效地向共享体验添加新扩增),和经由姿势和/或音频输入与共享的混合现实场景进行交互。虚拟体验中的任何此类改变可反映在由其他用户佩戴的头戴式显示器中。
图2解说了两个用户使用第一和第二头戴式设备10a、10b来观看锚定到表面(诸如书桌桌面16)的虚拟对象。在所解说的示例中,锚表面16对应于桌面表面16,其位于由第一头戴式设备10a所显示的图像内。头戴式设备10a可生成虚拟对象14a(其在该图解中示为虚拟屏幕),并且显示虚拟对象14a,就像它被连接到桌面表面16一样。如果第一用户看向左边、看向右边或后面,则虚拟对象14a将不会在头戴式设备10a的视野内游弋,而是代之以将保持显示在桌面表面16上锚定于原位。举例而言,如果第一用户的目光从锚表面16移开,则虚拟对象14a将不再显现在头戴式设备屏幕内。此外,虚拟对象14a可以按就像它在锚表面16为平板显示器的情况下所将显现的那样的取向、形状和大小被呈现给第一用户。因此,虚拟对象14a可以按从该用户的视角将该对象的形状投影到锚表面上所得到的形状和大小来被显示。为完成此目的,头戴式设备10a内或耦合到头戴式设备10a的处理器可计算形状参数,包括相对于头戴式或身佩式相机10a和距离传感器的距离和取向,以在锚表面处或锚表面上生成虚拟对象图像。此类计算可实现众所周知的矢量投影算法以得出呈现在头戴式显示器中的图像。通过对图像应用与正常体验一致的矢量处理(例如,常规欧几里得几何投影)并在半透明显示器上呈现结果所得的虚拟对象14b(该半透明显示器还使得用户能够看到越过该显示器外的物体),其结果就能混淆用户的感官,使得虚拟对象的行为看起来就像真实物体那样。
为了协作目的,第二用户可佩戴第二头戴式设备10b以在相同物理空间内观看相同虚拟对象。第二头戴式设备10b内或耦合到第二头戴式设备10b的处理器可在用户选定的锚表面16上渲染该虚拟对象。第二头戴式设备10b可在与为第一头戴式设备10a所指定的相同的锚表面或位置上显示虚拟对象14b。第二用户也可指定不同的位置或锚表面用来渲染如通过第二头戴式设备10b所看到的虚拟对象14b。为了使第二头戴式设备10b能从第二用户的视角正确地在锚表面上渲染虚拟对象14b,从第一头戴式设备向第二头戴式设备传送的数据可包括形状或对象数据。此数据可使得第二头戴式设备处理器能渲染该虚拟对象的与第二用户的视角相对应的所显示图像。该虚拟对象数据可以是几何模型、坐标和填充数据、或可用在第二头戴式设备10b内的处理器中所实现的三维对象渲染模块中的类似渲染数据的形式。
在一些实现或境况中,第二头戴式设备10b可从第一头戴式设备10a接收示出该虚拟对象锚定到锚表面16的图像数据。在此类情形中,第二头戴式设备10a内或耦合到第二头戴式设备10a的处理器可经由无线数据链路接收由第一头戴式设备10a生成的视频数据,并简单地将收到的视频数据作为输出视频图像来显示。在此应用中,第二用户在第二头戴式显示器上观看到从第一用户的视角来看的场景和锚定的虚拟对象14a。由此,在此实现中,第二用户可体验到第一用户的观看体验,就像电影或电视视频那样。此第一用户视角在一些境况中可能是非常有用的,诸如当第一用户正在为进行训练而向第二用户展示如何做某件事、或者第二用户正在监督第一用户的活动时。在此境况中,在数据链路之上发送的数据可以是简单的视频和音频流,并且第二头戴式设备可简单地将收到的图像投影到头戴式显示器上并进一步进行虚拟对象的处理和渲染。如以下所描述,来自第一头戴式设备的视频和图像数据还可(例如,经由网络、服务器或对等无线数据链路)被传送到其他计算设备,诸如智能电话、平板计算机、膝上型计算机或大型视频显示器,以使其他人能观看并分享第一用户的虚拟/扩增现实体验。
第二头戴式设备10b可在桌面表面16上显示虚拟对象14b。替换地,第二用户可指定应在上面显示虚拟对象14的另一锚表面。当虚拟对象14a显示在第一锚表面16上时,第二头戴式设备10b可修改该对象的大小和形状,以使其看起来适合于第二用户的视角。例如,如果两个用户正在桌子或书桌的两侧观看相同对象,则该对象对其中一个用户可能显现为颠倒的,就像它是真实物体一样。替换地,这两个用户可以按相同方式观看到相同对象,从而双方都观看到该对象正面朝上。
例如,如果第二用户10b移到离桌面锚表面16越近,则虚拟对象14b可变得越大。如果第二用户10b移到离桌面锚表面16越远,则虚拟对象14b可变得越小。此外,如果第二用户10b相对于水平面旋转了显示器,则虚拟对象14b可类似地补偿该旋转以显现为锚定于该桌面锚表面16。作为进一步的示例,用户可以按看起来与对象14b交互的方式移动他/她的手臂和手以将其关闭或从显示器移走,诸如扫动手臂就像要把虚拟对象拂到旁边去、围着虚拟对象合拢手指、或猛击虚拟对象14b。作为进一步的示例,第二用户10b可执行试图拖拉或推动虚拟对象14b的姿势,并且此拖拉或推动可被解读为输入命令。如以上所提及,可识别的姿势可被存储在姿势字典中,姿势字典可存储用于识别姿势的运动数据或模式,这些姿势可包括戳、轻拍、叩击、推、指引、弹拂、转向、旋转、抓和拉、两手的手掌打开以摇摄图像、绘图(例如手指绘画)、用手指形成形状(例如“OK”手势)、以及挥扫,所有这些姿势可以在所生成显示中的虚拟对象的视在位置上或紧邻该视在位置地来完成。以此方式,用户可使用将适合于真实世界物体的姿势来与锚定到表面16的虚拟对象14b交互,由此使得与虚拟对象的交互是直观的且易于学会。
在以下更详细地描述的实施例中,这些头戴式显示器可被投影仪所替代,由此图像被投影到表面上。在此类实施例中,用户的操作和体验可与如上讨论的使用头戴式显示器的操作和体验类似。而且,随着新的图像呈现技术被开发出来,此类技术可与各种实施例一起实现以协同真实世界锚表面来渲染虚拟对象,并由用户从其视角来观看。
图3解说了向两个佩戴头戴式设备10a、10b的用户呈现虚拟对象14a,以使得尽管这两个用户彼此面对,但该虚拟对象对每个用户看起来均是正面向上的(即,不是颠倒的)。虚拟对象的这种自取向允许这两个用户均能正确地观看对象数据(例如,柱状图)。
如上文所提及,虚拟对象14a、14b的这种呈现可由利用头戴式或身佩式相机来捕捉桌子16的图像的头戴式设备10a来完成。该图像可显示在头戴式显示器10a中,或者可透过半透明显示器来观看该桌子。第一用户的虚拟对象14a可显示在头戴式设备10a上。第一用户可使用第一头戴式设备10a来编制指示应为第二用户生成第二虚拟对象14b的信号。第一用户还可提供指示捕捉到的图像中的锚表面16的输入。头戴式设备10a内或耦合至头戴式设备10a的处理器可以计算参数,这些参数包括与第一用户所选择的锚桌面表面16相对应的、相对于头戴式或身佩式相机10a的距离和取向。头戴式设备10a显示所生成的虚拟对象14a,以使得该虚拟对象14a被锚定到该锚表面16并包括该第一取向。第一虚拟对象14a随后可由该显示器显示在第一头戴式显示器10a上,就像连接到第一锚表面16a那样。
在图3中,佩戴第二头戴式设备10b的第二用户坐在第一用户对面。第二头戴式设备10b可接收输入以选择该桌面作为锚表面16,或可从第一头戴式设备10a接收标识所选锚表面16的数据。使用此信息,第二头戴式设备10b就可生成该虚拟对象14b的重取向成看起来正面朝上且具有对第二用户而言正确的视角的显示。为了生成此显示,第二头戴式设备10b可接收与要被渲染的虚拟对象有关的数据,诸如其内容以及与其大体形状和取向有关的数据。第二头戴式设备10b可使用由第一用户所选择的锚表面(或由第二用户所选择的另一锚表面)来决定用于显示该虚拟对象的位置、取向和视角。这可包括确定该对象的正确顶部以及该对象的投影角度以匹配于锚表面,其结果得到所渲染对象的正确视角。由此,如图3中所解说的,第二用户观看到锚定于桌面表面16的、但是从第二用户的视角来看正面向上的相同虚拟对象14b。
在一替换实施例中,第一头戴式设备10a或另一与这两个头戴式设备处于通信中的计算设备可为第二头戴式设备10b确定虚拟对象14b的正确取向和视角。在此情形中,第一头戴式设备10a可接收足以使该设备能确定第二用户或第二头戴式设备10b的取向的信息。例如,第二用户的图像可由第一头戴式设备上的相机捕捉,并使用解剖学模型来处理以确定第二用户的位置和视角。第一头戴式设备10a可随后按照基于所确定的用户取向为第二用户10b对虚拟对象14b进行正确取向的方式向第二头戴式设备传送虚拟对象数据。
在各种实施例中,第二用户可向第二头戴式设备10b提供输入以控制或改变虚拟对象14b的取向、大小以及形状(例如,视角)。例如,利用检测到的姿势输入命令的第二用户可拖曳虚拟对象14b的角以使其更大或更小。作为另一示例,第二用户可使虚拟对象10b最小化并打开新的应用或虚拟对象。
如图4中所解说的,观看相同虚拟对象的两个用户无需在相同房间中。例如,身处第一位置(例如,英国剑桥)佩戴第一头戴式设备10a的第一用户可观看锚定在第一锚表面16a(例如,墙壁)上的虚拟对象14a(例如,演示或图表)并且与身处第二位置(例如,加州圣地亚哥)佩戴第二头戴式设备10b的第二用户关于该虚拟对象进行协作,而第二用户可观看到锚定到一极不相同的锚表面16b(诸如桌面)的该虚拟对象14b。头戴式设备10a可经由本领域中所知的任何计算机网络来与第二头戴式设备10b通信,该计算机网络将设备10a和10b互连并允许用户通过有线和无线通信链路来共享资源。
例如,第一头戴式设备10a可经由通信网络传送为第二头戴式设备10b正确地对第二虚拟对象14b取向的信号、以及为第二用户10b生成经取向的第二虚拟对象14b的信号。第二头戴式设备10b可从该通信网络接收该信号并可为第二用户10b生成第二虚拟对象14b。
在另一实施例中,可由头戴式或身佩式相机随时间推移来捕捉第一和/或第二用户的图像并使用其来确定虚拟对象的恰适取向。可向捕捉到的图像应用解剖学分析以确定用户的当前姿态和取向,诸如相对于指定的锚表面的姿态和取向。例如,可将这些图像与存储在存储器中的解剖学数据进行比较以检测这些图像内的身体部位并确定用户的取向。第二头戴式设备10b的第二虚拟对象14b可基于在这些图像中检测到的第一用户(即,以按该图像向第一用户所显现的方式向第二用户呈现该图像)或第二用户(即,以按适合于第二用户的姿态的方式来呈现该图像)的身体部位来正确地取向。例如,第二用户的图像可被捕捉、跟踪并与存储在存储器中的解剖学数据进行比较,其中第二用户的头、肩、手臂、躯干、腿或任何其他身体部位或其部分可被检测。第二头戴式设备10b可基于检测到的身体部位来对虚拟对象进行取向。第二虚拟对象14b可被取向在第一取向上并被显示。
一段时间以后,第二用户可能移动了,并且基于此不同的取向以及该用户的新位置,第一取向可能不合适了。例如,可以计算参数,包括与第二锚表面16b(其具有位于该图像中的所识别出的物体)相对应的、相对于第二头戴式或身佩式相机10b的距离和取向。可以确定图像大小和取向,其与所确定的第二虚拟对象14b在此类移动之后的取向相对应。第二头戴式设备10b可随后显示所生成的第二虚拟对象14b,从而第二虚拟对象14b显现为锚定于并连接到第二锚表面16b。例如,可利用所检测到的身体部位来确定第二用户正看着哪里,并且可基于第二用户所看之处来正确地对第二虚拟对象14b进行取向。
在另一实施例中,可以利用所检测到的身体部位来确定第二用户是正坐着还是站着。基于此确定,可将第二虚拟对象14b生成为锚定到并取向于毗邻第二用户的平面表面上。如果基于所检测到的身体部位确定了第二用户正站着,则可将第二虚拟对象14b生成在毗邻第二用户的纵向表面上。
在图4的解说中,锚表面16a是位于由头戴式设备10a显示的图像内的墙壁。对于第一用户,头戴式设备10a可生成虚拟对象14a并将虚拟对象14a显示为就像固定在或连接到墙壁表面16a那样,并取向成使其对于第一用户而言是正面朝上的。头戴式设备10a处理器可计算用于渲染该虚拟对象的参数,包括从头戴式设备10a到被第一用户选为锚表面的墙壁16的距离和取向。头戴式设备10a可包括或被耦合到移动CPU,该移动CPU被耦合到收发机,该收发机配置成与路由器通信以经由网络(诸如因特网)将数据传达给第二头戴式设备10b。类似地,第二头戴式设备10b也可包括收发机以与网络通信,从而经由网络(诸如因特网、内联网、无线网络或任何其他合适的电信网络)来发送/接收数据。
第一和第二头戴式设备10a、10b中任一者均可发起协作会话,并经由网络(诸如因特网)向另一方发送对此类会话的请求(诸如通过向与该另一头戴式设备相关联的IP地址发送消息)。在另一实施例中,头戴式设备10a可经由服务器来与第二头戴式设备10b通信,该服务器包括程序指令以执行服务来在这两个设备10a和10b间共享资源。
作为示例,双方均装备有头戴式设备的第一和第二用户之间的协作会话可如下进行。当一个用户将资产或虚拟对象添加或锚定到表面时,该用户的头戴式设备可向另一用户的头戴式设备传送消息,该消息以相对于已显示在先前选定的锚表面上的现有资产或虚拟对象的方式指示该新资产或对象的优选摆放。如果在原始锚表面上没有足够空间给这两个对象,则该新资产或对象的此优选摆放可随后被系统自动地或被用户通过用户输入(例如,所识别出的运动姿势)来忽略。同样地或替换地,这两个用户之一或其两者可执行输入或姿势以手动地将该新资产或虚拟对象重定位到其所偏好的位置或表面。
在另一实施例中,第一头戴式设备10a可向第二头戴式设备10b递送消息数据,其指示虚拟对象14b的优选或建议摆放。例如,第一用户可指示虚拟对象14b的优选摆放应发生在书桌16b上或墙壁上。例如,可从第一头戴式设备10a向第二头戴式设备10b发送指示“优选墙壁表面”或“优选桌面表面”的消息。第二头戴式设备10b可在显示器上生成第二虚拟对象14b该消息还可包括用于为第二用户正确地对虚拟对象14进行取向的一个或多个程序指令。第二头戴式设备10b可接收输入以选择该桌面作为锚表面16b,或可从第一头戴式设备10a接收锚表面16被选为墙壁的数据。在后一替换方案的情形中,第二头戴式设备10b内或耦合到第二头戴式设备10b的处理器可在由该设备上的相机获得的图像内检测可匹敌的墙壁。还可向该处理器传达程序指令,以由用户来接受或拒绝由另一用户所建议的锚表面。头戴式显示器10b可从第二用户接收所说出的音频信号形式的、接受或拒绝所建议的锚表面的输入命令。第二头戴式设备10b可接收指示第二虚拟对象14b的优选摆放的消息,并且第二用户可向第二头戴式设备10b提供确认或拒绝第二虚拟对象14b的该优选摆放的输入。例如,第二用户可提供指示旋转并重取向第二虚拟对象14b的愿望的输入。该处理器可基于该输入来为第二虚拟对象14确定距离和取向,并可用期望的取向来生成第二虚拟对象14b。
第二头戴式设备10b可将虚拟对象14b显示在桌面表面16b上第二位置处。第二用户可进一步提供输入以改变虚拟对象10b的取向、大小、以及形状来适应于锚表面16b。虚拟对象14b与虚拟对象14a看起来一样,并且协作可得以在这些用户之间进行。由一个用户在一个位置处所作的改变可在第一和第二位置两者处更新并被示出,即,对在一个位置的虚拟对象14a的改变将被反映在显示在另一位置的虚拟对象14b上。例如,第二用户可删除虚拟对象14b上的一柱状图,并且虚拟对象10a上的相同柱状图可在第一位置同样被删除。
在又一实施例中,佩戴第三头戴式设备的第三用户可加入协作,并且将所显示的虚拟对象锚定在由第三用户所选择的或由第一或第二用户任一者所建议的表面上。同样,如以上所描述,由参与协作的这些头戴式设备中的一者或多者所生成的图像数据可被传送到其他头戴式设备或其他计算设备(诸如由非参与者所使用的智能电话或平板计算机)并在其上显示。此实施例使得其他人能观看虚拟或扩增现实体验中的该协作。佩戴头戴式设备或使用另一移动设备(诸如智能电话或平板计算机)来观看协作会话的其他人可以不仅仅看到虚拟对象以及用户与这些虚拟对象的交互,而且还可具有有限的与由这些头戴式设备用户之一看到的虚拟扩增进行交互的能力。该有限的交互可包括触摸该扩增以产生影响,定义物理表面上的交互区域或锚点(有效地向共享体验添加新扩增),和经由姿势和/或音频输入与共享混合现实场景进行交互。虚拟体验中的任何此类改变可反映在由其他用户佩戴的头戴式显示器中。
在一实施例中,佩戴第二头戴式设备10b的第二用户可提供输入以从个人数据空间(例如,云或移动设备)召唤一新的虚拟对象,并将该新的虚拟对象添加到共享显示中,从而第一用户也在第一头戴式设备10a中看到该新的虚拟对象。在一实施例中,第一头戴式设备10a可接收通知该用户有一第三虚拟对象在场并请求接受并显示该第三虚拟对象的用户输入或命令的提示。该用户可选择新的物理表面来将该新的虚拟对象锚定到该新的物理表面,或可接受由第二用户所选择的锚表面。
在一实施例中,头戴式设备10a内或耦合到头戴式设备10a的处理器可接收指示虚拟对象14的待命位置的输入。该待命位置可以是可将虚拟对象14的初始状态显示为未锚定或固定到真实世界表面的一位置。该待命位置可以是虚拟对象14在该显示上“自由漂浮”而未连接到真实世界物体的位置。替换地,该待命位置可以是位于该图像中的一不同锚表面16,例如,在天花板上、或在反复且为用户所熟悉的位置上。该待命位置可以是对象可被“存储”直至用户采取将虚拟对象14锚定到锚表面的进一步行动的位置或表面。头戴式设备10a内或耦合到头戴式设备10a的处理器可计算参数,包括与该待命位置相对应的、相对于头戴式或身佩式相机的距离和取向,并且该处理器可用对于该待命位置而言正确的视角来显示该虚拟对象14。该待命位置可被显示为自由漂浮,并且可随着用户转动他/她的头以及在房间里四处移动而显现为可移动的且未连接到图像中的表面。
在一实施例中,头戴式设备10a内或耦合到头戴式设备10a的处理器可用一个或多个头戴式或身佩式相机(其可为全彩摄像机)来捕捉图像。距被成像场景内的物体的距离可经由对经立体相机组装件获得的两幅(或更多幅)图像的三角法处理来确定。替换地或补充地,头戴式设备可使用测量从该设备到图像中的物体和表面的距离的距离传感器来获得空间数据(即,距图像中的物体的距离)。在一实施例中,该距离传感器可以是红外光发射器(例如,激光器或二极管)以及红外传感器。在此实施例中,头戴式设备可投影呈脉冲或结构化光图案形式的红外光,这些脉冲或结构化光图案从该设备的相机的视野内的物体反射。反射的红外激光可在传感器中被接收,并且可基于测得的在发射与收到光之间的时间或相移来计算空间数据。在另一实施例中,距离传感器可以是超声发射器和接收器。在此实施例中,头戴式设备可发射超声脉冲,这些超声脉冲从该设备的相机的视野内的物体反射。超声接收器感测反射的超声,并基于测得的在声音发射与收到的反射超声之间的时间来计算空间数据。在第三实施例中,可通过测量视频流中的后续图像中随着用户的头移动而发生的角度改变并对该图像序列应用三角法分析来估计距物体的距离。通过在头戴式设备中包括运动和/或相对位置传感器,就可将观看角度变化与相机位置变化进行相关,从中可使用三角法算法来计算物体/表面距离和位置。这些距离测量方法的任何组合可被组合以进一步细化由头戴式设备所获得的距离测量。
在一实施例中,头戴式设备10内或耦合到头戴式设备10的处理器可将空间数据存储在存储器中,并可基于捕捉到的视频以及测得或计算出的空间数据来构建在该设备邻域内的物体和表面的三维地图。可与在邻域内或经由网络连接的其他头戴式设备共享与此三维地图,和/或可将其上传至服务器。共享此类三维地图数据可协助其他头戴式设备10b(或更具体而言是这些其他头戴式设备内或耦合到这些其他头戴式设备的处理器)在无需对房间进行成像和处理的情况下渲染锚定到指定的锚表面的虚拟对象。此类三维地图数据的共享还可使得多个头戴式设备能协作地创建这多个用户的邻域的整体地图,并通过避免需要扫描相同环境多次(即,该三维地图仅需生成一次即可)来减少强加于任一个头戴式设备的工作负荷。在一进一步的应用中,图像和空间数据(诸如在第一用户的邻域中的物体的三维地图)的共享可使得其他用户即便在位于很远处时也能观看到与第一用户所观看的相同的图像。例如,第二设备可利用该地图,其中与所捕捉到的空间数据相对应的数据可被传送,从而佩戴第二头戴式设备的另一用户可以与第一用户相同的方式来显示虚拟对象14。
如以上所解释的,与头戴式设备10a或10b相关联的显示器可以是部分透明的或可以基本上遮蔽用户视野的全部或部分。在另一实施例中,头戴式设备10a显示器可被定位在仅一只眼睛之上,从而其仅遮蔽用户视线的一部分,诸如呈单目显示器的形式,以使得用户的一只眼睛能够无遮挡地观看房间。在另一实施例中,头戴式设备10a或10b可向计算设备显示器输出虚拟对象14a或14b,从而由头戴式或身佩式相机所获得的图像以及任何虚拟对象可一起在常规计算机显示器上被观看。
如上文所提及,这些头戴式显示器可由将图像投影到表面上的投影仪、或由可被开发出来的其他图像生成技术所替代。在此类实施例中,用户的操作和体验可与如上讨论的使用头戴式显示器的操作和体验类似。
图5A解说可被包括在头戴式设备10的实施例中的组件。图5B解说头戴式设备10如何可作为系统的一部分来操作,在该系统中,传感器阵列500可向移动处理器507提供数据,移动处理器507执行本文中所描述的各种实施例的操作,并向/从服务器564传达和接收数据。应当注意到,处理器507头戴式设备10可包括不止一个处理器(或多核处理器),其中核心处理器可执行整体控制功能,而协处理器(有时称为应用处理器)执行应用。核心处理器和应用处理器可配置在相同微芯片封装中(诸如多核处理器),或配置在分别的芯片中。同样,处理器507可与关联于其他功能的处理器(诸如关联于无线通信的处理器(即,调制解调器处理器)、关联于导航的处理器(例如,GPS接收机内的处理器)、以及关联于图形处理的处理器(例如,图形处理单元或称“GPU”))封装在相同微芯片封装中。
头戴式设备10可与通信系统或网络通信,该通信系统或网络可包括其他计算设备,诸如可访问因特网的个人计算机和移动设备之类。此类个人计算机和移动设备可包括耦合到处理器507的天线551、发射机/接收机或收发机552、以及模数转换器553,以使得该处理器能经由无线通信网络发送和接收数据。例如,移动设备(诸如蜂窝电话)可经由无线通信网络(例如,Wi-Fi或蜂窝电话数据通信网络)来访问因特网。此类无线通信网络可包括耦合到网关或因特网访问服务器的多个基站,而该网关或因特网访问服务器耦合到因特网。个人计算机可按任何常规方式耦合到因特网,诸如由有线连接经由因特网网关(未示出)或由无线通信网络来耦合到因特网。
参见图5A,头戴式设备10可包括耦合到控制系统处理器507的场景传感器500和音频传感器505,其中控制系统处理器507可配置成具有数个软件模块510–550。在一实施例中,处理器507或场景传感器500可对图像应用解剖特征识别算法以检测一个或多个解剖特征。与该控制系统相关联的处理器507可审阅所检测到的解剖特征以识别一个或多个姿势并将所识别出的姿势作为输入命令来处理。例如,如以下更详细讨论的,用户可执行与一输入命令对应的运动姿势,诸如用手指指着虚拟对象以关闭该虚拟对象。响应于识别出此示例姿势,处理器507可将该虚拟对象从显示中移除。作为另一示例,用户可将一个手的食指与拇指相触以形成“OK”手势,以确认呈现在显示器上的指令或选项。
可包括立体相机、取向传感器(例如,加速计和电子罗盘)以及距离传感器的场景传感器500可向实现在处理器507内的场景管理器510提供场景有关数据(例如,图像),其中场景管理器510可被配置成解读三维场景信息。在各种实施例中,场景传感器500可包括立体相机(如以下所描述)以及距离传感器,其可包括用于为红外相机进行场景照明的红外光发射器。例如,在图5A中所解说的实施例中,场景传感器500可包括用于搜集立体图像的立体红绿蓝(RGB)相机503a、以及配置成在红外光下对场景进行成像的红外相机503b,其中红外光可由结构化红外光发射器503c提供。如以下所讨论的,结构化红外光发射器可配置成发射红外光脉冲,这些红外光脉冲可由红外相机503b成像,其中收到像素的时间被记录并用来通过使用渡越时间计算来确定距图像元素的距离。立体RGB相机503a、红外相机503b以及红外发射器503c可合称为RGB-D(D代表距离)相机503。
场景管理器模块510可扫描由场景传感器500提供的距离测量和图像以产生该图像内的各物体的三维重构,包括距立体相机的距离以及表面取向信息。在一实施例中,场景传感器500(并且更具体而言是RGB-D相机503)可指向与用户和头戴式设备10的视野对准的方向。场景传感器500可提供全身三维动作捕捉和姿势识别。场景传感器500可以具有与红外相机503c(诸如单目CMOS传感器)相组合的红外光发射器503c。场景传感器500可进一步包括捕捉三维视频数据的立体相机503a。场景传感器500可在环境光、日光或完全黑暗的情况下工作并可包括如本文中所描述的RGB-D相机。场景传感器500可包括近红外(NIR)脉冲照明组件、以及具有快速闸选机构的图像传感器。可为每个像素收集脉冲信号,并且其对应于反射该脉冲的位置,并可被用来计算距捕捉到的主体上的对应点的距离。
在另一实施例中,场景传感器500可使用其他距离测量技术(即,不同类型的距离传感器)来捕捉图像内的物体的距离,例如可使用超声回波定位、雷达、对立体景深图像的三角测量等等。如以上所讨论的,在一实施例中,场景传感器500可包括测距相机、闪光LIDAR相机、渡越时间(ToF)相机、和/或RGB-D相机503,其可使用距离闸选式ToF感测、RF调制式ToF感测、脉冲光ToF感测、以及投影光立体感测中的至少一者来确定距物体的距离。在另一实施例中,场景传感器500可使用立体相机503a来捕捉场景的立体图像,并基于该图像内所包含的捕捉到的像素的辉度来确定距离。如以上所提及,为一致性,这些类型的距离测量传感器和技术中的任一者或全部在本文中统称为“距离传感器”。可以有多个不同能力和分辨率的场景传感器以辅助对物理环境进行地图绘制、以及对用户在该环境内的位置进行准确跟踪。
头戴式设备10还可包括音频传感器505,诸如话筒或话筒阵列。音频传感器505使头戴式设备10能记录音频,并实行声源定域和环境噪声抑制。音频传感器505可捕捉音频并将这些音频信号转换成音频数字信号。与控制系统相关联的处理器可审阅该音频数字数据并应用语音识别算法来将该数据转换成可搜索的文本数据。该处理器还可审阅所生成的文本数据以寻找某些识别出的命令或关键字,并将所识别出的命令或关键字用作输入命令来执行一个或多个任务。例如,用户可说出诸如“锚定虚拟对象”之类的命令来将所显示的虚拟对象锚定到选定的表面上。例如,用户可说出“关闭应用”来关闭显示在显示器上的应用。
头戴式设备10还可包括显示器540。显示器540可显示由场景传感器500内的相机所获得的或由头戴式设备10内或耦合到头戴式设备10的处理器所生成的图像。在一实施例中,显示器540可以是微型显示器。该显示器540可以是完全遮蔽式显示器。在另一实施例中,显示器540可以是半透明显示器,其可在屏幕上显示图像,而用户能透过该屏幕观看到周围房间。显示器540可被配置成单目或立体(即,双目)配置。替换地,头戴式设备10可以是戴在头上、或作为头盔的一部分的头盔搭载式显示器设备,其可在一只眼睛的前方具有小型显示器540光学器件(单目)或在两只眼睛的前方均具有小型显示器540光学器件(即,双目或立体显示器)。替换地,头戴式设备10还可包括两个显示单元540,它们是小型化的且可以是阴极射线管(CRT)显示器、液晶显示器(LCD)、液晶覆硅(LCos)显示器、有机发光二极管(OLED)显示器、基于干涉测量调制器(IMOD)元件(其为简单的微机电系统(MEMS)器件)的Mirasol(向日葵)显示器、光导显示器和波导显示器、以及已存在的和可能被开发出来的其他显示技术中的任何一者或多者。在另一实施例中,显示器540可包括多个微型显示器540以提高总的整体分辨率以及增大视野。
头戴式设备10还可包括音频输出设备550以输出音频,其可以是合起来示为参考标号550的头戴式受话器和/或扬声器。头戴式设备10还可以包括一个或多个处理器,其可向头戴式设备10提供控制功能以及生成图像,诸如虚拟对象14的图像。例如,设备10可包括核心处理器、应用处理器、图形处理器以及导航处理器。替换地,头戴式显示器10可耦合到单独的处理器,诸如智能电话或其他移动计算设备中的处理器之类。视频/音频输出可由该处理器或由(经由有线或无线网络)连接到头戴式设备10的移动CPU来处理。头戴式设备10还可包括场景管理器块510、用户控制块515、表面管理器块520、音频管理器块525、以及信息访问块530,它们可以是分开的电路模块或以软件模块的形式实现在该处理器内。头戴式设备10可进一步包括本地存储器以及用于与其他设备或本地无线或有线网络通信以从远程存储器555接收数字数据的无线或有线接口。使用系统中的远程存储器555可通过减少头戴式设备10中的存储器芯片和电路板来使该设备能被制作得更为轻质。
控制器的场景管理器块510可从场景传感器500接收数据并构造物理环境的虚拟表示。例如,可以使用激光器来发射激光,该激光从房间中的物体反射并在相机中被捕捉到,其中该光的往返行程时间被用来计算距该房间中的各个物体和表面的距离。此类距离测量可被用来确定房间中的物体的位置、大小和形状,并用来生成该场景的地图。一旦编制出地图,场景管理器块510就可将该地图链接到其他所生成的地图以形成预定区域的更大的地图。在一实施例中,该场景和距离数据可被传送给服务器或其他计算设备,该服务器或其他计算设备可基于接收自数个头戴式设备(且随着时间推移当用户在该场景内四处移动所得到)的图像、距离以及地图数据来生成合并的或整合的地图。经由无线数据链路来使此类整合的地图数据可供头戴式设备处理器获得。其他地图可以是由当下的设备或由其他头戴式设备所扫描的地图,或可从云服务接收。场景管理器510可基于来自场景传感器500的数据来标识各表面并跟踪用户的当前位置。用户控制块515可搜集用户对该系统的控制输入,例如音频命令、姿势、以及输入设备(例如,键盘、鼠标)。在一实施例中,用户控制块515可包括姿势词典或被配置成访问姿势词典以解读由场景管理器510所标识出的用户身体部位运动。如以上所讨论的,姿势字典可存储用于识别姿势的运动数据或模式,这些姿势可包括戳、轻拍、叩击、推、指引、弹拂、转向、旋转、抓和拉、两手的手掌打开以摇摄图像、绘图(例如手指绘画)、用手指形成形状(例如“OK”手势)、以及挥扫,所有这些姿势可以在所生成显示中的虚拟对象的视在位置上或紧邻该视在位置来完成。用户控制块515还可识别复合命令。这可包括两个或更多个命令。例如,姿势与声音(例如,拍手)或者语音控制命令(例如,检测到的结合语音命令或说出的单词所做的“OK”手势以确认一操作)。当用户控制515被标识出时,控制器可向该设备10的另一子组件提供请求。
头戴式设备10还可包括表面管理器块520。表面管理器块520可基于捕捉到的图像(如由场景管理器块510所管理)和来自距离传感器的测量来持续地跟踪场景内各表面的位置。表面管理器块520还可持续地更新锚定到所捕捉到的图像内的各表面上的虚拟对象的位置。表面管理器块520可负责有效的表面和窗口。音频管理器块525可提供针对音频输入和音频输出的控制指令。音频管理器块525可构造递送给头戴式受话器和扬声器550的音频流。
信息访问块530可提供控制指令以仲裁对数字信息的访问。数据可被存储在头戴式设备10上的本地存储器存储介质上。数据也可被存储在可访问的数字设备上的远程数据存储介质555上,或者数据可被存储在可由头戴式设备10访问的分布式云存储存储器上。信息访问块530与数据存储555通信,数据存储555可以是存储器、盘、远程存储器、云计算资源、或集成存储器555。
图6解说了用于基于用户输入在锚定表面上渲染虚拟对象的实施例方法600。方法600可在具有用处理器可执行指令配置成执行方法600的操作的处理器的计算设备中实现。在方法600中,处理器可在框610中着手从头戴式设备传感器接收与头戴式设备的取向有关的数据。在框602中,处理器可从头戴式设备上或用户的肩膀或身体上的立体相机接收数据。在框603中,处理器可计算收到的立体图像内的各物体的距离和取向数据。在框604中,处理器可使用来自距离和取向传感器、以及相机的数据来处理用于显示的内容。
在确定框605中,处理器可审阅用户输入或姿势命令以决定是否要在该图像中锚定虚拟对象。例如,可从输入设备(诸如按键板或触摸屏输入)接收用户输入。作为另一示例,可接收在图像序列中识别出的检测到的姿势的形式的用户输入,诸如指示将虚拟对象锚定在位于该图像内的所指示表面上的愿望的姿势。用户输入的第三示例可以是可由头戴式设备上的话筒接收的音频命令。用户输入可以是指示应从第二用户的头戴式设备接收用于将虚拟对象锚定到特定位置的输入的命令。例如,该输入可在协作会话期间从第二头戴式设备10b接收。
如果处理器确定其已接收到要将该虚拟对象锚定在特定位置(例如,锚表面16)的输入(即,确定框605=“是”),则处理器可在框606中确定从该用户的位置来看该虚拟对象相对于该锚表面的距离和取向。例如,头戴式设备10可确定锚表面16包括轮廓以及距用户的某一距离。一般而言,虚拟对象14可以是三维虚拟对象,诸如是三维数学模型(例如,球体、圆锥体、圆柱体等)、三维数据集(例如,定义顶点、纬度、以及其他坐标和素材数据的数据表)、或两者的组合的形式,处理器可用其来生成该对象的图像。为了使得处理器能够将虚拟对象14显示成连接在锚表面16上,虚拟对象14可被调整到将该虚拟对象叠加在锚表面16上的大小、视角、以及取向。例如,三维虚拟对象将需要被渲染为二维图像才能被呈现在常规显示器上,或需要被渲染为两个稍有不同的二维图像才能被呈现在头戴式设备的3D显示器上。
在框607,处理器可处理虚拟对象以将该虚拟对象放置在虚拟空间中并具有使其看起来连接到锚定表面的视角、取向和大小。在框608,处理器可在头戴式设备显示器上渲染该虚拟对象。
例如,该显示器可以是半透明显示器,其中图像的某些特征是透过该显示器可见的。虚拟对象14可被叠加于或添加到显示器上的图像的特征上,从而使虚拟对象14随用户移动而保持锚定到或固定到期望的锚定表面。替换地,虚拟对象14a可以被锚定在自由空间中。例如,虚拟对象14a可位于窗户外,或者虚拟对象14a可被悬挂在半空中或地面上方的一定距离处。
如果处理器确定其没有接收到要锚定虚拟对象的输入(即,确定框605=“否”)(这可指示该用户未准备好或不想要将该虚拟对象锚定到锚表面),则处理器可将该虚拟对象渲染在待命位置上。替换地,用户可在框609中选择不渲染该虚拟对象14。
在场景内(诸如在锚表面上)渲染虚拟对象的这些过程可被持续地执行,从而即使在用户转动他/她的头以及四处移动时该虚拟对象仍显现为驻定的。如以上所提及的,相对于周围环境来对头戴式设备进行取向、并确定距各个表面的距离以及各个表面的相对取向的过程可藉由监视取向传感器(例如,加速计和陀螺仪)、并随着该设备在空间中移动通过不断参照所扫描的三维(3D)环境的地形移位来对其自己的位置和观看角度进行三角测量来持续地完成,由此执行同步定位和地图绘制(SLAM)操作。
图7A解说了用于渲染带有锚定的虚拟对象的图像的实施例方法700。方法700可在具有带有处理器可执行指令以执行方法700的操作的处理器的计算设备中实现。在方法700中,虚拟对象14可以是随用户的位置在一区域(诸如房间)内到处移动而呈锚定的。例如,用户可在房间中四处行走和移动,但是该虚拟对象在该房间中的一表面上的所显示位置可保持固定。在方法700中,在框701,处理器可通过接收用户位置数据来着手进行操作,该用户位置数据诸如是用户位置的坐标、与用户在房间内的位置有关的信息(例如,距各个表面的距离)、以及与用户头部的取向有关的信息。在框701接收到的位置数据可以是从各种各样的传感器数据计算出来的,包括距离传感器(例如,红外发射器/接收器,配置成用快速闸选机构来计算所发射的红外信号从用户的视角内的各表面反弹的往返行程时间)。替换地或补充地,位置数据可由GPS接收机单元(其可返回地理坐标)、对来自处于已知位置处的发射机(例如,蜂窝电话塔台)的RF信号的三角测量、接收自第二头戴式设备的输入(例如,提供这两个用户的分隔距离和/或与这两个用户的相对位置有关的信息)等来提供。位置数据还可基于场景图像和距离传感器数据来计算,或从云计算布局中的服务器下载。替换地或补充地,用户可输入该用户的位置的坐标,诸如通过键入物理地址和/或房间号、或者触摸或点击地图显示以指示该用户在该地图上的位置。在框702中,处理器可计算收到的相机图像内的各物体的距离和取向数据。在框703中,处理器可计算该用户相对于锚定的虚拟对象的位置。
图5A的场景传感器500可以具有近红外(NIR)脉冲照明组件。场景传感器500还可具有带有快速闸选机构的图像传感器。还可在场景传感器500内实现其他图像传感器,正如本文中所描述的。基于红外脉冲的已知速度、这些坐标、以及来自照明器的红外脉冲波发射的定时连同传感器500的闸选,从期望距离范围以内反射的信号就被捕捉到。在此实施例中,可为每个像素收集红外脉冲的抵达时间,并将其用来计算从该传感器到该图像中的每个点的距离。对图像的此类处理可使用经由计算机网络连接到场景传感器500的远程处理器来执行。方法700不限于实现在头戴式显示器上,并且可与其他计算设备联用,诸如与头戴式显示器或身佩式传感器处于通信中的移动通信设备(例如,智能电话)或固定的计算设备(例如,个人计算机或服务器)。
在确定框704中,处理器可确定用户或锚表面的位置是否已改变。例如,用户可将图像锚定在表面(诸如墙壁)上或锚定在自由空间中,并且该用户可能在与另一用户协作期间从该墙壁走开,由此改变了位置。如果位置已改变了(即,确定框704=“是”)(这指示了用户已从锚定的虚拟对象走开,或者锚表面已经移动了),则处理器可在框705基于此新位置来确定并计算锚定的虚拟对象的改变。在框706,处理器可在头戴式显示器上渲染带有此锚定的虚拟对象的该图像。如果处理器确定该虚拟对象未曾移动(即,确定框704=“否”),则此锚定的虚拟对象可被没有改变地渲染。处理器可在框706在头戴式显示器上针对此当前位置在图像中渲染该虚拟对象。
图7B解说用于在各锚表面之间移动虚拟对象的实施例方法720。方法720可在具有用处理器可执行指令配置成执行方法720的操作的处理器的计算设备中实现。可提供将虚拟对象锚定在第一锚表面上的第一输入。此后,处理器可接收将该虚拟对象锚定在一不同的第二锚表面上的第二输入。在方法720中,处理器可在框707中通过捕捉图像来着手进行操作。在框708中,处理器可捕捉空间数据并识别该图像内的各物体。在框709,处理器可确定该图像中的这些物体的距离参数。在框710,处理器可接收指示该图像内的锚表面的输入。
例如,该处理器可从输入设备接收输入、或可检测姿势输入、或可接收语音命令,以在该图像内锚定虚拟对象14。在框711,处理器可生成虚拟对象14,该虚拟对象是诸如通过使用对象模型和/或对象图像数据集来显示的。在框712中,处理器可计算包括对应于该锚表面的距离和取向之类的参数,并可将该虚拟对象的图像调整为与那些参数相符以与观看者的视角一致。在框713,处理器可在头戴式显示器上显示该虚拟对象,以使得该虚拟对象显现为连接到该锚表面。
用户可因偏好或与其他用户进行协作过程的需要而选择改变锚表面。各种实施例使得每个用户能选择相同或不同的锚表面来在其上观看虚拟对象14。因此,在确定框714中,处理器可监视用户输入(例如,按钮、识别出的运动姿势和/或所说出的命令),并确定是否接收到为虚拟对象14指示了一不同的第二锚表面的第二输入。如果没有接收到第二输入(即,确定框714=“否”),则处理器可返回到框711以继续在该图像中生成连接到该第一锚表面的虚拟对象。
如果接收到第二输入(即,确定框714=“是”),则在框715中,处理器可检测一个或多个指示新的锚表面的输入。当指示了新的锚表面时,处理器可计算包括对应于在框715中所选择的新的锚表面的距离和取向,并且在框716中,处理器可生成呈现在该头戴式显示器上的图像,以使得虚拟对象14显现为从第一锚表面移到了此新的第二锚表面。在框717,处理器可修改虚拟对象的图像以对应于用户的位置改变,并因此对应于用户视角的改变。例如,如果用户走近虚拟对象,则图像大小可增大。如果用户从虚拟对象走开一定距离,则该虚拟对象的图像大小可减小。框717中修改虚拟对象的图像以匹配于用户的视角变化、以及确定框714中监视用户输入的这些过程可在整个协作会话期间继续在持续的过程中被执行。
图8A解说用于为在一区域(诸如举例而言,一房间)中的两个用户渲染带有锚定的虚拟对象的图像的实施例方法800。在此实施例中,所显示的锚定的虚拟对象14保持锚定到所选的锚表面。方法800可在具有用处理器可执行指令配置成执行方法800的操作的处理器的计算设备中实现。
在方法800中,处理器可通过在框801中使用来自距离传感器的数据、相机数据和计算出的距离数据处理图像来着手进行操作。在框802,处理器可计算参数并可将虚拟对象固定到锚表面并将该虚拟对象固定到呈现在头戴式显示器上的图像中。在框803中,处理器可渲染带有该虚拟对象的用于显示的图像。在框804中,处理器可控制发射机/接收机或收发机向第二头戴式显示器传送图像和/或虚拟对象数据。在框804中,第一头戴式设备可向第二头戴式设备传送定义该虚拟对象的三维模型和/或三维数据集,该三维模型和/或三维数据集是以使第二设备能生成相同虚拟对象的图像的格式。同样在框804中,处理器可向第二头戴式设备传送包括位置坐标信息的地图。头戴式设备可向/从服务器上传和/或下载房间坐标地图,或可直接向第二头戴式设备传送地图。在框805中,第二处理器可渲染该虚拟对象的图像以供投影在第二头戴式显示器上。该图像可包括锚定到或固定到锚表面的虚拟对象,该锚表面是由第一用户在框802中选择的。例如,第一用户可将该虚拟对象锚定在桌面表面上。在框805中,处理器可渲染该图像。在所渲染的图像中,该虚拟对象将显现在该桌面表面上,因为第一用户在框802中通过输入选择了该桌面表面。
在各种实施例中,第二头戴式设备可显示锚定到如由第一头戴式设备的用户所指定的相同锚表面、或锚定到由第二用户标识的一不同锚表面的该虚拟对象的图像。在框806中,对于第二头戴式设备,第二处理器可确定第二用户正看着的位置和取向(其与该头戴式设备的取向有关),以确定在所显示的图像内,锚定的虚拟对象应被渲染在何处。例如,如果第二用户正看着由第一用户所指定的锚表面,则第二头戴式设备可在该头戴式显示器中渲染该虚拟对象的图像。然而,如果第二用户的目光从该锚表面移开,则第二头戴式设备将不渲染该虚拟对象的图像,因为该锚表面将落在呈现在该头戴式显示器上的该用户的视野之外。
确定用户头部和头戴式设备的取向可通过由第二用户所佩戴的各相机捕捉图像并捕捉来自第二用户的头戴式设备的取向传感器(例如,倾度计、陀螺仪和/或加速计)的数据、并处理此信息以推断第二用户的观看角度和视角来完成。如以上所讨论,该过程可被持续地贯彻,从而每个头戴式设备能随着它在空间中移动通过不断地参照所扫描的三维(3D)环境的地形移位来对其自己的位置和观看角度作三角测量,由此执行同步定位和地图绘制(SLAM)操作。同样,如果第二用户的解剖结构的一部分在来自第二用户的头戴式或身佩式相机的图像中被捕捉到,则这也可以包括向所捕捉到的图像应用检测算法以识别身体部位,并从中推断该身体部位的视野位于何处。
在框807中,处理器可处理虚拟对象数据以生成可供在渲染该对象的图像时使用的图像数据。在此操作中,处理器可从该第二用户的视角恰当地渲染该虚拟对象,并且由此第二用户可舒适地读取内容并观看该虚拟对象。在框808中,处理器可基于该锚表面相对于该用户的位置和取向在第二头戴式显示器中生成图像。
在确定框809中,处理器可确定第二用户是否想要确定一新的锚表面。此确定可来源于接收到指示想要在该图像中锚定虚拟对象14的愿望的输入信号。例如,第二用户可能希望将该图像锚定在与当前锚表面不同的一表面上。例如,该图像可在与多个用户的协作过程期间被固定于墙壁,并且然后被移到桌面。
如上文所提及,第二头戴式设备的用户可选择改变锚表面,并由此将虚拟对象的图像移到由第二用户所指定的另一表面。如果头戴式设备处理器接收到指示要将虚拟对象锚定到新的表面的愿望的用户输入(即,确定框809=“是”)(这指示该第二用户想要为虚拟对象14确定新的锚),则该处理器可在框810确定该虚拟对象在第二预定表面上的新锚的距离和取向参数。在框811,处理器可将该虚拟对象改变或修改到该新锚表面的参数。在框812中,处理器可基于距离和取向来处理虚拟对象14。在框813中,第二处理器可在第二头戴式显示器上渲染该图像,其中锚定的虚拟对象固定在该第二锚表面上。
如果处理器没有接收到指示想要将虚拟对象锚定在新的表面上的愿望的用户输入(即,确定框809=“否”),则处理器可处理框807中的用于渲染的虚拟对象使其在锚位置上没有变化,但却是针对第二用户的视角来渲染的。以类似方式,第一或第二用户可添加另一虚拟对象并将该附加虚拟对象锚定在第三锚表面上。
图8B解说用于在第一用户的显示器上所输出的图像中从第一用户的视点来看正确地对锚定的虚拟对象进行取向,并且在另一显示器上针对第二用户的视点来正确地对锚定的虚拟对象进行取向的实施例方法815。方法815可在具有用处理器可执行指令配置成执行该方法的操作的处理器的计算设备中实现。在方法815中,在框820中,处理器可随着用户扫描房间而接收到图像数据,并且处理该图像数据以标识/识别各表面,包括适合为虚拟对象用作锚的各表面。例如,处理器可从头戴式或身佩式设备捕捉图像。此类头戴式或身佩式设备的处理器还可从其他类型的传感器(诸如距离传感器)接收关于房间内的各物体的距离和取向的信息。在框822中,处理器可选择虚拟对象以供在头戴式显示器上显示,诸如从生成虚拟对象以供渲染的另一计算机来选择虚拟对象。在框824中,处理器可从用户接收指示要在框824中将该虚拟对象锚定在其上的表面的输入。处理器可在框826对虚拟对象进行取向以将其锚定到第一锚表面,并在框828中在第一头戴式显示器上生成该虚拟对象的图像。处理器还可在框830中更新虚拟对象的位置和取向以补偿用户的运动,诸如补偿或容适用户头部的运动。
在确定框832中,第一头戴式设备的处理器可确定由第一头戴式设备选择或渲染的内容是否将被传送给第二设备。如果为否(即,确定框832=“否”),则处理器可返回到框820以重复该过程,以便生成连续显示,其中即使用户移动或转动他/她的头,该虚拟对象仍看起来保持锚定到相同表面。
如果处理器确定应将由第一头戴式设备生成的选定内容与第二头戴式设备共享(即,确定框832=“是”),则在任选框834中第一头戴式设备的处理器可从第二用户接收指示第二锚表面的第二输入。在任选框836中,处理器可任选地执行计算以确定显示位置和取向,以将该虚拟对象锚定到所标识出的第二锚表面。在任选框838中,第一或第二头戴式设备的处理器可确定第二用户的视觉取向,诸如通过本文中所描述的基于传感器数据和所获得图像的方法来确定。如以上所提及的,相对于周围环境来对头戴式设备进行取向、并确定距各个表面的距离以及各个表面的相对取向的过程可藉由监视取向传感器(例如,加速计和陀螺仪)、并随着该设备在空间中移动通过不断参照所扫描的三维(3D)环境的地形移位来对其自己的位置和观看角度进行三角测量来持续地完成,由此执行同步定位和地图绘制(SLAM)操作。
在进一步的实施例中,第一头戴式设备内的处理器可基于由其自己的立体相机所获得的第二用户的图像并使用解剖模型来确定第二用户的取向。在任选框840中,第一头戴式设备可将关于该虚拟对象的数据传送给第二头戴式设备,其中该虚拟对象是处于基于框838中确定的第二用户的取向的取向上。第二头戴式设备可随后如本文中所描述地在第二头戴式显示器上渲染该虚拟对象的图像。此确定用户取向并生成显示的过程可按循环方式继续,从而在第一和第二用户移动并转动他们的头部时,该图像持续显现为锚定到所选表面。
在各种实施例中,任一头戴式设备可执行使得能在对于第二用户而言正确的视角中渲染该虚拟对象的计算。例如,第一头戴式设备的处理器可向第二头戴式设备传送数据,该数据按照为第二用户正确地对第二虚拟对象取向的方式来提供虚拟对象数据。由第一头戴式设备来对该虚拟对象取向的过程可基于从第二头戴式设备向第一头戴式设备传送的所确定的第二用户的取向。换言之,第二头戴式设备可向第一头戴式设备作出关于其位置和取向的通知,并且第一头戴式设备可使用此信息来对虚拟对象数据进行取向。替换地,第一头戴式设备可基于第二用户的图像来确定第二头戴式设备的取向,并使用此确定来对虚拟对象数据进行取向。例如,处理器可通过随时间推移捕捉第二用户的图像并对这些图像应用解剖分析以检测这些图像内的身体部位来为该虚拟对象确定正确的取向。使用此信息,第一头戴式设备的处理器可将与虚拟对象有关的数据传送给第二头戴式设备,以使其处理器能渲染该虚拟对象的位于第二锚表面的与第二用户的视角一致的图像。
处理器还可基于视野中检测到的身体部位和结构来对第二虚拟对象进行取向。例如,可能在由第一头戴式设备捕捉到的图像中检测到第二用户的头部、颈部和躯干,并且第一头戴式设备的处理器可能确定在第二用户近旁有一正被或已被第二用户选为锚表面的横向墙壁或纵向桌子。作为另一实例,第一头戴式设备的处理器可能在所获得的图像中识别出第二用户的头部、颈部和躯干,并且从这些身体部位的位置确定虚拟对象应当如何被取向以使第二用户能阅读与该虚拟对象相关联的文本。例如,第二用户的头部和躯干的图像可被分析以定义横向(例如,从肩到肩)以及纵向(例如,从躯干到头部)坐标轴,这些坐标轴随后可被用来确定用于渲染该虚拟对象的正确取向。补充地,可以确定虚拟对象图像的观看角度,诸如是如呈现在头戴式显示器上的该虚拟对象的每个像素距第二用户的头部和躯干的距离的形式。该处理可包括变化对象亮度使之与从第二用户的视角来看该虚拟对象上的各个表面的观看角度一致。
在另一实施例中,处理器可随时间推移捕捉第二用户的图像,并可对这些图像应用解剖分析以在这些图像内检测身体部位。例如,可能检测到第二用户的一双眼睛(或头戴式设备)以及鼻子。处理器可利用该身体部位并确定第二用户正在看着的位置,并基于第二用户正看着何处来对第二虚拟对象进行取向。在又一实施例中,处理器可从捕捉到的图像确定第二用户是正坐着还是站着。如果是站着,则处理器可将第二虚拟对象生成为锚定到毗邻于第二用户的平面表面。如果是坐着,则处理器可将第二虚拟对象生成为看起来锚定到毗邻于第二用户的近旁表面。
如果处理器在框832中确定不从第一用户向第二用户递送内容(即,确定框832=“否”),则处理器可在框838为第一用户显示虚拟对象并可在框840中针对第一用户的运动来更新该虚拟对象。
在一实施例中,处理器可传达为第二用户正确地对第二虚拟对象取向的信号。处理器还可传达为第二用户生成经取向的第二虚拟对象的信号。这些信号可被传达给通信网络。该通信网络可接收该信号,并且可为在离第一用户一定距离处的第二用户生成第二虚拟对象。例如,第一和第二用户可位于相同房间或不同城市。在又一实施例中,第二用户可藉由检测到的姿势或音频命令来提供附加输入以移动或重新取向该虚拟对象。处理器还可从第二用户接收指示是要确认还是拒绝第二虚拟对象的优选摆放的输入。第二用户还可提供按需旋转和重取向该虚拟对象的输入。
除了使得能在佩戴头戴式设备的两个或更多个用户之间实现共享体验之外,由参与协作的这些头戴式设备中的一者或多者所生成的图像数据还可被传送给由非参与者使用的头戴式设备或其他移动设备(诸如智能电话或平板计算机)并在其上显示,以使得其他人能观看虚拟或扩增现实体验中的协作。如以上所描述,佩戴头戴式设备或使用另一移动设备(诸如智能电话或平板计算机)来观看协作会话的其他人可以不仅仅看到虚拟对象以及用户与这些虚拟对象的交互,而且还能具有有限的与由这些头戴式设备用户之一看到的虚拟扩增进行交互的能力。该有限的交互可包括触摸该扩增以产生影响,定义物理表面上的交互区域或锚点(有效地向共享体验添加新扩增),和经由姿势和/或音频输入与共享混合现实场景进行交互。虚拟体验中的任何此类改变可反映在由其他用户佩戴的头戴式显示器中。
图9A解说了用于为在分隔很远的位置上的两个用户渲染一锚定的虚拟对象的图像的实施例方法900。例如,一位用户可能位于加州圣地亚哥,并且第二用户可能位于第二位置,诸如举例而言英国剑桥。然而,在这两个位置上,所显示的锚定的虚拟对象14均保持锚定于每个位置上的固定到图像的预定区域的锚表面。在一些实施例中,一位用户可为多位其他用户选择用于一虚拟对象的锚表面。图9A中解说的方法900可在具有用处理器可执行指令配置成执行方法900的操作的处理器的计算设备中实现。在方法900的框901中,处理器可通过使用来自距离传感器的数据、相机数据和计算出的距离数据处理图像来着手进行操作。
以上参考图5A描述的场景传感器500可包括近红外(NIR)脉冲发射器503c和红外相机503b,其具有能够确定反射的红外脉冲的渡越时间信息的快速闸选机构。基于光速以及来自照明器503c的红外发射脉冲的定时以及红外相机503b的闸选,就可基于收到脉冲的定时来确定距捕捉到的图像内的各物体的距离。可为图像中的每个像素或各像素群收集脉冲信号,并将其用来确定从距离传感器到该场景中的各物体的距离,该距离可被记录并存储在存储介质中。
在框902中,处理器可计算用于在该图像中显示锚定的虚拟对象的参数。该虚拟对象可能旨在要在处理器接收到输入之后才被固定于预定表面,并且所计算出的参数可与期望表面有关。在框903中,处理器可渲染带有该虚拟对象的用于显示的图像。在框904中,处理器可控制发射机/接收机或收发机以向/从服务器上传和/或下载房间坐标地图。此类坐标地图可以是任何形式的位置定义信息,其使得这些头戴式设备能在适宜的坐标系中确定该房间内的各结构的位置。例如,为了此类房间坐标地图的目的,可用笛卡尔坐标的形式来定义正方形房间,其中X和Y维对应于地板的主轴,而Z坐标对应于纵向维(即,地板到天花板)。由于头戴式设备内的相机和其他传感器(和/或身佩式相机)可定位到房间的主结构维(诸如墙壁、地板和天花板),因此可容易地将房间坐标的取向对准到该房间的墙壁和地板。以此方式,这些系统无需关心地理坐标(例如,来自GPS传感器)或罗盘坐标。另一方面,当用户在户外或在缺乏便利的笛卡尔参考系的空间内时,可将笛卡尔坐标对准到GPS和罗盘坐标。
在标识出了参考坐标系的情况下,就可通过使用来自用户的(例如,来自距离传感器和/或对立体图像的处理)对到各种定义坐标的表面(例如,墙壁、地板和天花板)以及到在头戴式显示器的视野中的各种物体和表面的距离测量,来将在各用户的视野内的结构和表面标识或链接到该坐标系。然后可使用简单的几何坐标变换算法来将物体和表面的用户相对坐标变换到通用房间坐标地图。由此,此处理的结果可以是在通用参考系内为房间内的每个物体或表面生成坐标矢量(例如,3个坐标距离)的数据集。头戴式设备可使用此坐标数据库来确定其自己在该房间内的位置。在得知其自己在该房间的坐标数据库内的位置的情况下,处理器随即可使用简单的笛卡尔坐标变换算法来计算从该头戴式设备到该房间内的所有物体和表面的距离和方向。在用户身处室外的境况中,通用参考系可基于地理坐标,其可被任意性地选择并联系到GPS系统测量或从GPS系统测量来确定。
在另一实施例中,可将房间坐标地图存储在头戴式设备可访问的本地存储器中,诸如存储在耦合到该设备的处理器的存储器中,或存储在无线地耦合到该头戴式设备的移动计算设备(例如,智能电话)中。在框916中,该虚拟对象可在显示器上被渲染在第一锚定表面上,并且处理器可随着用户移动以及转动头戴式显示器而继续将该虚拟对象渲染在该第一锚定表面上。在框917中,可在第一和第二头戴式音频设备之间建立音频链路以用于通信和协作。
转到图9B,在框905中,可位于离第一用户有一定地理距离处的第二头戴式设备中的处理器可确定第二用户的位置和观看取向。这可通过使用本文中所描述的任何定位方法来完成,包括获得坐标位置数据、罗盘数据、以及加速计数据来确定该头戴式设备的位置和观看角度。在一些情形中,第二头戴式设备可通过识别出现在图像内的用户身体部位来确定其观看角度,并使用解剖模型来从中推断有可能的视角。在另一实施例中,第二用户可提供指定要在其上渲染虚拟对象的表面、并指示用户视角的输入。在框906中,处理器可处理该虚拟对象以从第二用户的视角来恰当地渲染该虚拟对象以供显示。在框907中,处理器可基于第二用户的位置和取向在第二头戴式显示器中生成图像。
在确定框908中,第二头戴式设备的处理器可确定第二用户是否想要在所显示的图像中选择一新的锚表面来锚定该虚拟对象。例如,第二用户可能希望将该图像锚定在所显示的图像中的在协作期间可能便利的表面(诸如物理桌面)上。在一实施例中,该虚拟对象可被锚定在可显现在所渲染的图像内的虚拟物理表面(诸如举例而言,虚拟桌子)上。
如果处理器确定第二用户想要改变用于该虚拟对象的锚表面(例如,经由输入)(即,确定框908=“是”),处理器可在框909确定此新指定的锚表面的距离和取向参数。在框910中,处理器可基于该锚表面(桌面)的参数来改变该虚拟对象的渲染,并在框911中基于第二预定表面的锚表面的距离和取向来处理该虚拟对象。在框912中,第二处理器可在第二头戴式设备的显示器中渲染该图像,其中锚定的虚拟对象在该锚表面上。
在框913中,可将从佩戴第二头戴式显示器的用户接收的对该虚拟对象的更新传送给第一头戴式显示器以用于渲染。以此方式,这两个头戴式显示器的用户可在协作会话期间协作地与该虚拟对象进行交互。这些更新可在这两个头戴式设备之间传送,以使得每个设备显示反映由任一方用户所作的所有改变的经更新虚拟图像。例如,在文字处理应用中,该虚拟对象可按协作方式反映来自双方用户的改变。在框914中,可在第二和第一头戴式设备之间建立音频链路。这些用户可利用该音频链路以音频会议格式来与彼此以及其他用户讲话。此会议可发生于在两个不同的地理位置上的显示器上观看该虚拟对象的同时。在一实施例中,头戴式设备可使用视频和音频会议软件。
如果处理器确定第二用户不希望将虚拟对象锚定在新位置上(即,确定框908=“否”),则处理器可在框915中渲染该虚拟对象。例如,第二用户可仅简单地选择在该头戴式显示器上在原始锚表面上、或以自由漂浮布局来显示该虚拟对象。例如,处理器可在框915中以“待命模式”来显示该虚拟对象。
图10解说用于发起第一头戴式设备和第二头戴式设备之间的对等发现的实施例方法1000。方法1000可在具有用处理器可执行指令配置成执行方法1000的操作的处理器的计算设备中实现。一旦两个头戴式设备通过对等通信链路被链接起来,这两个头戴式设备就可共享资源并可在这些设备之间共享和交换数据。方法1000不限于将头戴式设备链接在一起,并且还可应用于可与一个或多个头戴式设备链接的其他计算设备。在一实施例中,头戴式设备10可以能作为具有CPU的移动设备(例如,电话、平板计算机等)的配件,并且方法1000中的一部分操作可由该移动设备的CPU来执行而头戴式设备可执行较少操作,其中该头戴式设备用作“终端”并可经由无线接口接收来自该移动设备的输出。例如,处理可在第一移动设备上执行,并且可将显示输出递送给头戴式显示器,由头戴式显示器生成锚定的虚拟对象的可视图象。
在方法1000的框1002中,处理器可从与头戴式设备相关联的定位设备(诸如全球定位单元(GPS)或任何其他基于空间的全球导航卫星系统(GNSS)接收机)、或与该头戴式设备相关联的导航设备接收位置数据。例如,该定位设备可以是从无线电网络基站来确定位置的设备。在另一实施例中,头戴式设备可从本地设备(诸如云服务器)、或从无线通信网络基站接收本地位置数据。在进一步的实施例中,用户可提供指示该头戴式设备正在进入新位置和/或开始新的协作会话的输入(例如,语音命令或按钮按压)。在一进一步的实施例中,头戴式设备可接收来自其他设备的对等网络通告,并且从新的通告确定该设备已进入了新位置。
在确定框1004,处理器可基于位置数据或其他指示来确定第一头戴式设备是否已进入了新位置。若是如此(即,确定框1004=“是”),则该头戴式设备可在框1006发起对等发现,以确定是否有其他计算设备或头戴式设备在附近并且能经由无线数据连接来链接。框1006中发起对等发现的过程可继续直至从能被链接的设备接收到响应(即,只要确定框1008=“否”,框1006就继续)。当能够建立对等通信链路的设备被标识出(即,确定框1008=“是”)时,可在框1010中协商对等通信链路,并且在框1012中在这两个设备之间建立双向通信。
在框1014中,头戴式设备可从该头戴式设备已与之建立了通信链路的计算设备接收地图数据。在此操作中,头戴式设备可下载已存储在该另一计算设备(例如,另一头戴式设备、另一计算设备或远处服务器等)上的任何地图数据,从而该头戴式设备能立即在此新位置内对自己进行取向。例如,如果头戴式设备已与之建立了通信链路的计算设备能访问网络或因特网,则可从远程服务器(例如,从“云”)下载地图数据。头戴式设备还可扫描其自己的内部存储器以确定此新位置的地图数据是否已存储在存储器中。如果地图数据已存储在存储器中,则作为框1014中的操作的一部分,头戴式设备可与该头戴式设备已与之建立了通信链路的计算设备共享该地图数据中的一些数据。同样,在交换地图数据之前,这些在通信的头戴式设备可确定它们是否彼此靠近,并且仅在它们足够近地靠近在一起从而使得共享地图数据将减少一方或双方设备处理器的处理负担的情况下才交换地图、距离和取向数据。由此,如果头戴式设备和链接着的计算设备不在相同房间中,则共享将与另一方设备不相关的位置、地图或取向数据可能是没有意义的。
在框1016中,处理器可接收来自头戴式或身佩式立体相机的数据、以及可由距离传感器获得的距离测量。在框1018中,处理器可使用在框1014中接收的任何地图数据协同相机图像以及任何距离测量来在该地图和场景内对该设备进行取向。任选地,在框1018,处理器可为在这些图像中所见的、未显现在收到的地图数据内的任何物品或结构生成或更新三维地图数据。如果没有从另一计算设备接收到地图数据,并且该设备在存储器中没有该位置的地图,则处理器可在框1018生成新地图。
在框1020中,头戴式设备处理器可使用来自各种传感器(包括距离传感器和取向传感器)的数据来处理由相机获得的图像。此处理可使得该设备能在地图数据内的坐标或位置内定位自己。此处理还可包括确定到锚表面的距离及锚表面的取向以在渲染虚拟对象时使用。
在框1022中,头戴式设备处理器可与链接着的计算设备交换显示和虚拟对象数据,以使得这些设备能生成可在协作中使用的显示。在框1024中,头戴式设备可开始支持用户进行协作,诸如通过在锚服务上显示虚拟对象,检测并响应于用户命令姿势,以及将改变和输入传达给其他耦合着的计算设备,如本文中关于各个实施例所描述的。
图11解说用于将所识别出的姿势和检测到的音频作为输入命令来处理的实施例方法1100。这些姿势和检测到的音频可在头戴式显示器上执行任务和指令。方法1100可在具有用处理器可执行指令配置成执行方法1100的操作的处理器的计算设备中实现。
在此实施例方法中,以一种形式(诸如所识别出的用户姿势)接收到的用户输入命令可由另一种形式(诸如由话筒接收到的口头命令)的用户输入来确认。例如,如果头戴式设备的处理器识别出第一命令(诸如通过处理图像数据来识别姿势),则处理器可监视短时期里其他的用户输入以寻找是否有确认所识别出的第一命令的第二命令。在此实施例中,处理器可能并不实现与第一识别出的用户输入对应的动作或执行与第一识别出的用户输入对应的任务,除非该动作或任务得到第二用户输入的确认。第二用户输入可以是由话筒接收的语音命令、或在由身佩式相机搜集的图像内识别出的第二姿势。此实施例可以是很有用的,因为数个正常的用户运动可能被误读为命令姿势;从而要求在姿势命令被执行之前由用户确认这些姿势命令并防止非有意的命令被执行。等待确认性用户输入的过程可于在图像内识别出由用户作出的姿势时、或者在处理器相信其已接收到口头命令时被调用。一般而言,该双命令确认过程可避免头戴式设备无意地对杂散姿势或不经意地说出的命令采取行动的境况。取而代之的是,头戴式设备将等待第二命令才采取行动。此双命令过程还可基于所识别出的命令的类型来实现,诸如当与所识别出的命令相关联的动作涉及可能非愿望或不可逆的操作(像是删除一条内容)时。
在方法1100的框1101中,处理器可通过接收与头戴式设备的取向有关的传感器数据来着手进行操作。在框1102中,处理器可从相机接收与捕捉到的图像有关的数据。在框1103中,处理器可计算图像内的各物体的距离和取向。在框1104中,处理器可使用传感器数据、相机数据和距离传感器数据来处理该图像。在框1105,处理器可在显示器上渲染该图像,其中虚拟对象被包含在该图像中。
在框1106中,相机数据可被处理以用于确定是否有任何解剖特征包含在该相机的视野内。一般而言,可向捕捉到的相机图像数据应用解剖特征检测算法以确定是否有任何特征被识别为是人体部位。例如,解剖识别算法可扫描从身佩式相机接收到的图像以确定是否识别出解剖特征,诸如具有五指的手以及手臂。此识别解剖特征的过程还可确定这些特征在捕捉到的图像内的取向,诸如用户的手臂的角度之类。可在一时段上在图像中跟踪所识别出的解剖特征的位置和取向,并将其与用户姿势的数据库或字典作比较以确定所跟踪到的解剖特征的运动对应于所识别出的姿势。如果识别出了用户姿势,则处理器可响应于检测到的姿势来输出命令。例如,该命令可以打开软件应用,或可向软件应用提供信号或输入。
在确定框1107中,处理器识别用户姿势可通过将所识别出的解剖特征的运动与预定义解剖运动的数据库(诸如可在姿势字典中维护)作比较来完成。例如,可在捕捉到的图像中识别出身体部位(诸如手),并在预定时间区间上跟踪其运动。例如,如果处理器使用解剖模型识别出用户的手和手指位于身佩式相机的前面,其中两个手指向外伸出并且三个手指朝着用户的手掌向下收起,则处理器可通过将用户的手和手指的这一取向与姿势字典作比较来确定该用户正在表达要处理器采取一行动的愿望。处理器可通过将图像模式和运动与存储在姿势字典中的运动数据或模式作比较来识别身体部位的姿势布局。此类姿势字典可存储关于运动的姿势数据,这些运动可包括戳、轻拍、叩击、推、指引、弹拂、转向、旋转、抓和拉、两手的手掌打开以摇摄图像、绘图(例如手指绘画)、用手指形成形状(例如“OK”手势)、以及挥扫,所有这些运动可以在所生成显示中的虚拟对象的视在位置上或紧邻该视在位置来完成。如果头戴式显示器在相机图像数据中识别出匹配于姿势字典内的条目的姿势(即,确定框1107=“是”),则处理器可在框1108中处理与所识别出的姿势相对应的输入命令。在框1109中,该输入命令可由处理器来执行。此输入还可以是传达给软件应用、或计算设备的任何信号或数据,或者是要提供指示的信号。
同样,如以上所讨论的,基于识别出的姿势对命令的执行可以不被完成,直至接收到第二确认用户输入。由此,在此类实施例中,处理器不是执行该命令,而是可代之以在框1109中显示(或生成)要用户确认所识别出的姿势命令的提示(或音调)。在确定框1110,处理器可确定在姿势命令的识别之后是否在短时期里从话筒接收到任何音频(或其他用户输入)。如果在该时期内接收到音频,则处理器可处理该音频以确定是否说出了确认所检测出的姿势的确认性命令。为此目的,接收自话筒的音频输入可被数字化,并且将结果所得的数据与语音命令识别数据库作比较以寻找与一个或多个输入命令对应的单词。当处理器确定音频输入匹配于与命令确认相对应的语音命令模式(即,确定框1110=“是”)时,处理器可在框1111中处理输入命令,其结果导致与该音频对应的行动。在框1112中,处理器可执行所识别出的命令,并且在框1113中可在头戴式显示器上显示指示或所识别出的任务。
例如,用户可通过指点来作出要将虚拟对象14锚定在物理表面上的姿势。一旦识别出此姿势,处理器即可生成请求用户确认该命令的提示(诸如可听的音调或呈现在头戴式显示器中的消息)。为此,用户可说出像是“OK(好)”、“确认”、或“就这么做”之类的单词来确认由头戴式设备所识别出的姿势命令应被执行。由此,当处理器检测到确认性或可听命令时,处理器可在头戴式显示器中呈现示出该虚拟对象锚定在用户正指向的物理表面上的图像。
如果没有接收到被识别为对应于说出的音频命令的音频(即,确定框1110=“否”),则处理器可确定所检测到的姿势是无意的,并且处理器可忽略所识别出的姿势和输入命令,并可继续处理相机数据以在框1107寻找解剖姿势。
返回到确定框1107,如果处理器没有在图像数据内识别出姿势(即,确定框1107=“否”),则处理器可在框1106中继续处理相机数据以寻找解剖姿势持续进一步的附加时间区间。处理器可在框1113中在头戴式显示器上显示指示未曾识别出姿势的任务标识符或图标。替换地,一接收到姿势命令,处理器即可显示任务标识符或图标,其可用作要用户发出确认性命令(诸如口头命令或“OK”姿势命令)的提示。
在另一实施例中,可以使用不同的第一和第二命令。在另一实施例中,处理器可被配置成首先检测音频命令,并在接收到的图像内寻找确认性姿势命令,这在实效上调换了确认框1107和1110中执行的操作。在进一步的实施例中,可能需要不止一种类型的确认性输入,诸如可听命令与按钮按压相组合,等等。
图12解说用于将识别出的姿势作为输入命令来处理以在头戴式设备上执行软件任务的实施例方法1200。方法1200可在具有用处理器可执行指令配置成执行方法1200的操作的处理器的计算设备中实现。
在方法1200中,处理器可在框1201中通过接收与头戴式设备10的取向有关的传感器数据来着手进行操作。在框1202中,处理器可如上所描述地接收来自立体相机的立体图像数据、以及来自头戴式设备10中所包括的任何距离传感器的数据。由此,在框1202中,处理器可获得由头戴式设备搜集的关于图像以及距在(诸)相机的视野内的表面的距离的所有信息。在框1203中,处理器可计算所捕捉到的图像中的各物体的距离和取向数据。这些计算可使用众所周知的三角测量方法(当在框1202中提供了立体图像时),使用直接测量(当使用了距离传感器来提供距离数据时),以及使用从传感器获得的以及从立体图像计算出的距离信息的组合。在框1204中,处理器可使用距离传感器数据、相机数据以及距离和取向数据来处理该图像。在框1205,处理器可在头戴式显示器上渲染带有虚拟对象的该图像。在框1206中,可由处理器跟踪相机数据。所捕捉到的图像可被处理,并且处理器可确定在这些捕捉到的图像内是否包含有解剖特征。处理器可对捕捉到的图像应用解剖特征检测算法来确定是否有任何特征或至少一个身体部位位于该数据内。处理器可在一时间区间上跟踪该身体部位以确定是否识别出预定姿势。
在确定框1207中,处理器可确定是否在所捕捉到的图像中识别出任何姿势。若是如此(即,确定框1207=“是”)(这指示处理器已在该图像中识别出姿势),则处理器可在框1208中将所确定的姿势与存储在存储器中的输入命令基本匹配。处理器可在框1209中执行与检测到的姿势相对应的输入命令。在框1210中,处理器可执行与该输入命令相对应的任务。如果处理器得出没有识别出的姿势的判定(即,确定框1207=“否”),则处理器可在框1211中继续跟踪所捕捉到的图像,并对所捕捉到的图像应用检测算法以跟踪输入。
图13解说用于在立体景深图像中检测物体并基于此检测以及对所检测到的物体的解读来提供有趣的视觉虚拟现实效果的实施例方法1300。方法1300可在头戴式显示器上显示“据信必不可少的物体”,而方法1300可在头戴式显示器上将其他“非必不可少的物体”渲染为透明的。方法1300可在具有用处理器可执行指令配置成执行方法1300的操作的处理器的计算设备中实现。在方法1300中,处理器可通过在框1301中接收与相机和头戴式设备的取向有关的传感器数据来着手进行操作。在框1302中,处理器可捕捉图像并从相机接收数据。在框1303中,处理器可计算图像内的各物体的距离和取向。在框1304中,处理器可使用距离传感器数据、相机数据、取向、以及距离数据来处理该图像。
在框1305中,该过程可在显示器上渲染带有虚拟对象14的图像。在确定框1306中,处理器可确定是否在这些图像内识别出任何物体。例如,可对所检测到的图像和数据应用解剖检测算法以确定是否在这些图像中检测到身体部位。例如,可对所捕捉到的图像应用解剖或骨骼检测算法来检测身体部位(诸如手臂或手),其可被渲染为可见或渲染为透明的。如果处理器确定检测到其他物体(即,确定框1306=“是”)(这指示检测到了物体),则处理器可确定是否要通过将虚拟对象叠加在该物体上以使得该物体看似就像已从该图像中被略去那样来将该物体渲染为透明的。
在各种实施例中,可用各种透明性特性来呈现各虚拟对象。在一些实施例中,虚拟对象可被显示为出现在真实世界物体(手臂、手、手指、和脸)的轮廓之上。在此类实施例中,可在形状上改变虚拟对象以与真实世界物体匹配或覆盖在真实世界物体之上。以此方式,真实世界物体就在头戴式显示器上的图像输出中显现为“穿透”的。在一实施例中,如果有不必要的物体在墙壁或桌子前面,则可生成仿效该墙壁和/或桌子的虚拟对象并将该虚拟墙壁/桌子覆盖在此不必要的物体之上。如果处理器确定没有检测到其他物体(即,确定框1306=“否”),则在框1310处理器可继续工作并渲染带有该虚拟对象的该图像。
在确定框1307中,处理器可确定在这些图像内识别出的任何物体是否是必要的。例如,据信“必要的物体”可被显示,而其他据信“不必要的物体”可被渲染为透明的以从该图像中略去该物体。例如,据信必要的物体可以是图像中用户自己的手,但另一据信不必要的物体可以是位于该虚拟对象之上的第二个人的手。不必要的物体可以用轮廓形式来显示,而虚拟对象叠加在此不必要的物体之上。术语必要和不必要可由用户利用下拉菜单或任何受支持的由用户指示偏好的姿势或方法(诸如凝视检测、可被头戴式或身佩式相机识别的手指点姿势、等等)来任意性地编程和选择。用户可将头戴式设备编程为将“其他用户的特征”显示为透明的并总是显示出“我的特征”,或者反之。如果处理器确定这些物体是必要的(即,确定框1307=“是”),则处理器可提供程序指令以在框1310渲染具有该必要物体和该虚拟对象的该图像。例如,用户自己的手可被认为是必要的并且显示在图像中。术语必要的和不必要的是任意性的参数,并且可由用户来确定。例如,用户在建立操作规程时可指示必要的物体以及不必要的且应被渲染为透明的物体。例如,用户可使用下拉菜单和输入设备来确定该用户的手是必要的,并且图像中其他用户的身体部位不是必要的。例如,许多不同的用户可能出现在该图像中并且在锚定的虚拟对象之上进行协作。该场景可能充斥着许多用户和许多虚拟对象。因此,其中一些用户可被渲染为透明的,以便减轻拥挤以增强协作。
如果处理器确定这些物体是不必要的(即,确定框1307=“否”),则在框1308处理器可渲染使该物体为透明的图像。在框1309中,处理器还可以按将不必要的物体渲染为透明的或将虚拟对象显示在不必要的物体之上的方式来显示虚拟对象。在另一实施例中,可仅在该物体遮挡了虚拟对象14时才将该物体渲染为部分透明的,并可在该物体并不遮挡虚拟对象14时将其渲染为实体的。
图14解说用于在头戴式显示器上渲染图像的实施例方法1400,其将可能出现在图像场景中的手、手臂和其他人类特征(例如,用户和另一个人的那些特征)考虑在内。在此实施例中,头戴式设备处理器可捕捉要在其中要显示虚拟对象的场景的图像,识别出现在所捕捉到的图像中的身体部位(诸如通过使用解剖模型来处理该图像),并基于所识别出的身体部位来调整该虚拟对象的显示。对显示的调整可涉及在所识别出的身体部位的前面、后面、或与之混在一起地渲染虚拟对象。例如,处理器可在用户的特征(例如,手和手臂)遮蔽了虚拟对象之处将虚拟对象渲染为部分透明的,并在用户的特征并不遮蔽虚拟对象之处将虚拟对象渲染为非透明的。以此方式,用户可看见他/她的手在虚拟对象的图像附近,而该虚拟对象的其余部分看起来就像真实的那样是实体的。替换地,处理器可渲染虚拟对象以使得该用户自己的特征显现在虚拟对象的前面或上方(即,实体的),而另一个人的手和手臂(以及其他身体部位)被渲染为透明的,从而虚拟对象的图像会使得它们不可见(即,虚拟对象遮挡了用户对该另一人的手/手臂的视线),或使得该虚拟对象能透过该另一人的手和手臂被观看。
例如,头戴式或身佩式相机可捕捉场景的图像,其包括该用户和另一个人的手和手臂。该设备的处理器可对所捕捉到的图像数据应用解剖算法以识别在所捕捉到的图像内的身体部位。例如,处理器可通过将图像形状与解剖模型作比较来在所捕捉到的图像中检测用户的手和第二个人的手。
这两组手都可能遮挡虚拟对象。例如,可为该图像审阅五个手指和手的大小数据。处理器可推断捕捉到的图像上取向为自顶向下的手是此第二个人的手,而捕捉到的图像内取向为自底向上的其他手则是该用户的手。附加地,处理器可捕捉所识别出的物体的距离数据以编制推断。例如,当处理器确定解剖特征(例如,手臂和手)离该用户至少有预定距离(十二英尺)时,则处理器可从此信息推断出那些特征属于另一个人。附加的感测到的参数也是可行的并且在本公开的范围之内。例如,物体的高度、物体的取向、以及物体的大小全都可被利用。
在方法1400中,处理器可在框1401中通过接收与这些相机的取向有关的传感器数据来着手进行操作。在框1402中,处理器可从这些相机接收数据。在框1403中,处理器可计算图像内的各物体的距离和取向。在框1404中,处理器可使用距离传感器数据、相机数据、图像的取向、以及距离数据来处理所捕捉到的图像。在确定框1405中,处理器可确定在该图像内是否识别出与用户的特征(例如,用户的手、手臂、腿、躯干等)相对应的物体。此确定可涉及通过识别捕捉到的图像内的物体、将所识别出的物体与存储在存储器中的骨骼模型作比较、以及响应于将所识别出的物体与该骨骼模型作比较来确定是否有任何识别出的物体匹配于该骨骼模型的一部分来对该图像应用解剖分析。该骨骼模型可包括关于人类骨骼的关键关节、骨、和肢的相对位置信息。
如果在图像中识别出人的特征(即,确定框1405=“是”),则在框1409,处理器可渲染该图像,其中该虚拟对象和该用户的特征在该图像中。如果在图像内没有检测到用户的特征(即,确定框1405=“否”),则处理器可在确定框1406中确定该特征是否为第二个人的特征。
在确定框1406中,处理器可确定是否检测到第二个人的特征。此确定可涉及响应于识别出出现在所捕捉到的图像中的身体部位而确定该身体部位属于第一个人还是属于第二个人,确定虚拟对象的位置和所包围区域、以及确定所识别出的身体部位是否与被该虚拟对象所包围的区域的至少一部分交叠。这些特征可被处理器渲染成透明的。处理器可通过生成虚拟对象并将其叠加在所检测到的特征上来略去该(诸)物体。例如,处理器可在显示器上将虚拟对象渲染在第二个人的手之上。若是如此(即,确定框1406=“是”)(这指示第二个人的手在图像中被检测到且其不是必要的),则处理器可在框1407中将虚拟对象渲染为在该图像中叠加在第二个人的手之上。
如果处理器不能确定该物体是否为第二个人的手(即,确定框1406=“否”),则处理器可在框1408中渲染带有该虚拟对象的该图像。处理器可确定该图像中对应于期望物体的数个像素,并且随后将期望物体的轮廓保留为显示的,但用虚拟对象14来替换该图像中的像素。轮廓大小可以变化,并且可包括物体图像长度的约1个百分点。
图15解说头戴式设备10的显示输出的解说的高级俯视图。该显示输出示出虚拟对象14。虚拟对象14被解说为输出数据的虚拟平板屏幕。在此实施例中,虚拟屏幕输出具有数个柱状图的图形表。多个用户可在虚拟现实框架中在该虚拟对象之上协作,其中虚拟对象14仅出现在该显示的输出中,但对观看者而言看起来是有形的真实物体。
在所解说的示例中,处理器在立体景深图像内检测到用户的特征或手1502,并且检测到另外两个人的特征或手1500和1501在虚拟对象14之上。如图15中所解说的,处理器允许该用户的手作为该显示中的必不可少的元素而被显示。用户的手将显现在虚拟对象14之上并将遮挡虚拟对象14。另外,其他两个人的特征可被渲染为在虚拟对象14的各部分上仿佛是透明的,因为这些元素被认为不是必不可少的,并且会分散或充斥头戴式设备10的用户的视线。虚拟对象14可由处理器显示为叠加并覆在手1500和1501之上,由此手1500和1501并不遮蔽所生成的虚拟对象14。
在所解说的示例中,第二用户的手1501被处理器渲染为“透明的”,并且如由第二个人的手1501的轮廓所示地渲染在虚拟对象14之上。虚拟对象14正常情况下应被遮蔽的部分可被直接渲染在第二个人的手1501上。在所解说的示例中,第二用户的手1501看起来是透明的,只有手1501的轮廓被示出。另一用户的手1502在所解说的示例中被渲染为“实体物体”,其中那些手1502被渲染在虚拟对象14之上并遮蔽了虚拟对象14。在所解说的示例中,手1502看起来是实体的并且底下的虚拟对象14可能不可见。在一实施例中,其他人的手可被检测到并与手1500和1501的轮廓一起渲染。手1500和1501的其余部分被解说为被渲染在虚拟对象14之下。
头戴式或身佩式相机可捕捉图像并对捕捉到的图像数据应用解剖模型来识别身体部位。例如,这可以是在虚拟对象14之上的用户的手1502、以及第二个人的手1500和第三个人的手1501。例如,可以审阅五个手指、手大小数据、手臂的一部分、手的取向、手指的取向、距离数据以及取向数据。处理器可推断取向为从图像的顶部向着图像的底部延伸的手是第二个人的手1500。处理器还可推断取向为从图像的右侧离相机1501有一定距离的手是另一个人的手1501。处理器还可推断取向成从图像的底部向上延伸的第三组手1502如果在一定距离范围以内并且在该图像中相对于头戴式设备10的取向定位成与解剖模型一致则是该用户的手。附加的感测到的参数也可被处理器用来识别身体部位。例如,当该用户的手或手臂已被跟踪到时,处理器可推断所显示的图像中所有其他的手属于其他用户,并且因此该处理器可在呈现在头戴式显示器中的图像中将那些其余的手渲染为轮廓或透明的。
图16解说跨高速数据链路与移动设备1605通信以利用处理资源的头戴式设备1600的另一实施例。图16解说头戴式设备1600的数个子组件。头戴式设备1600可作为移动CPU(电话、平板计算机等)的配件来工作,其中主处理在移动CPU上执行。一般而言,可将头戴式设备1600制作得尽可能轻质以便舒适地佩戴在用户的头周围。头戴式设备1600可利用移动设备1605的处理和数据存储资源,并且VIRT控制系统1610可被实现在移动设备1605上运行着的软件应用内。移动设备1605可通过在移动设备1605处执行处理来提供处理功能,增加存储器,以及节约头戴式设备1600的电池寿命。
头戴式设备1600包括连接到处理器的场景传感器(RGB-D相机)1615。头戴式设备1600还可包括音频传感器(话筒)1620和立体景深显示器1625。显示器1625可以是半透明OLED视频显示器1625。头戴式设备1600还可包括纳入扬声器的耳塞,或可替换地包括一对头戴式受话器1630。在另一实施例中,头戴式设备1600可包括裸机设备1600以便使其轻质。设备1600可包括无线接口、场景传感器1615、电池以及显示器1625。无线接口可向移动设备1605中的处理器传达数据,该移动设备可被配置成运行VIRT控制系统1610以使得头戴式装置保持轻质并且用户佩戴舒适。如以下参考图41更详细地描述的,移动设备1605包括处理器和存储器,并且在一实施例中,处理器可配置成具有VIRT控制软件模块1610,该模块可配置成与头戴式设备1600互操作。移动设备1605和头戴式设备1600可使用高速数据链路1612来通信,该链路可以是有线的或无线的。例如,高速数据链路1612可以是选自以下任何一项或多项的短程无线数据链路1612: 高通的以及无线协议。
例如,可利用传感器1615、1620和1630来捕捉传感器数据并将其转换成数字数据。可将该数字数据传达给无线设备,并且可将该数字数据沿链路传达给能在移动设备1605上操作的控制系统1610。控制系统1610可处理感测到的数据并可渲染显示数据。例如,控制系统1610可接收该区域的扫描图像和距离数据,并在房间中的至少一个表面上生成虚拟对象。显示数据可沿该链路被传回,并且在头戴式显示器1625上输出。
图17解说使用移动设备与头戴式设备之间的高速链路来使得能够将传感器数据处理卸载到移动设备的实施例方法1700。方法1700可在具有用处理器可执行指令配置成执行方法1700的操作的处理器的计算设备中实现。在框1701中,处理器可接收与头戴式设备及其相机的取向有关的传感器数据。在框1702中,处理器可从该设备的各相机接收图像数据。在确定框1704中,处理器可确定是否有无线地与头戴式设备通信、并且能够协助进行处理和存储器存储的移动设备在场。若非如此(即,确定框=“否”),则在框1710中,这些图像可由头戴式设备处理,正如在其他实施例中所描述的。
如果有无线地与头戴式设备通信、并且能够协助进行处理和存储器存储的移动设备在场(即确定框=“是”),则在框1705中该头戴式设备可向移动设备发送传感器数据以供由移动设备处理器来处理。在框1706中,移动设备处理器可基于收到的数据来计算图像内各物体的距离和取向数据。在框1707中,移动设备处理器可使用接收自头戴式设备的传感器和相机数据来处理该图像数据。在框1708中,移动设备处理器可使用接收自头戴式设备的传感器和图像数据来生成虚拟对象的显示数据,并将所生成的显示数据传送给头戴式设备。在框1709中,头戴式设备可使用接收自移动设备的显示数据在头戴式显示器上渲染图像。此过程可通过返回到框1701来继续进行,尽管一旦头戴式设备确定了有移动设备在场(即,确定框1704=“是”),对于当前会话就可以不重复进行确定。
图18解说用于向共享用户存储器传达数据以使得第二头戴式设备可访问共享数据的方法1800。方法1800可减少用于渲染图像的处理时间或者可减少用于在正确地取向的显示器上生成虚拟对象的处理时间。例如,在一些实施例中,处理器可处理图像数据并且还可从存储介质接收图像数据或位置数据以更快地渲染虚拟对象。方法1800可在具有用处理器可执行指令配置成执行方法1800的操作的处理器的计算设备中实现。
在方法1800中,处理器可通过接收与这些相机的取向有关的传感器数据来着手进行操作。在框1802中,可捕捉图像并且处理器可从各相机接收立体图像数据。在框1803中,处理器可计算图像内的各物体的距离和取向。在框1804中,处理器可处理来自各传感器的图像数据。在框1805中,可渲染带有虚拟对象的该图像。在框1806中,可作出关于是否要将数据共享到远程存储介质以使得其他头戴式设备可接收此共享数据并利用此共享数据的决定。例如,其他头戴式设备可获得位置数据,或者可使用此共享数据来渲染该图像和虚拟对象。
如果处理器决定要将数据共享到远程存储介质(即,确定1806=“是”),则在框1807可将数据传达到共享存储器。如果处理器决定不要将数据共享到远程存储介质(即,确定框1812=“否”),则处理器可继续前行至框1801以继续捕捉数据。第二头戴式设备10b可在框1808中从该存储介质访问数据并可在框1809中接收该数据。在框1810中,可计算距离数据,并且在框1811可处理图像。在确定框1812可得出要共享由第二头戴式设备10b聚集的数据的决定。例如,该数据可以是扫描的传感器数据或其他要协作的数据。此数据可由处理器传送并存储在存储介质处。如果处理器决定要共享由第二头戴式设备聚集的数据(即,确定框1812=“是”),则在框1813中可将数据传达到共享存储器。如果处理器决定不要共享第二头戴式设备所聚集的数据(即,确定框1812=“否”),则处理器可继续前行至框1809以继续接收关于图像的数据。
图19解说用于在通信网络上共享数据并供多个设备使用的实施例方法1900。头戴式设备10可与第二移动通信设备10b共享资源。方法1900可在具有用处理器可执行指令配置成执行方法1900的操作的处理器的计算设备中实现。
在方法1900中,处理器可通过接收与各相机的取向有关的传感器数据来着手进行操作。在框1902中,处理器可从相机接收立体图像数据。在框1903中,处理器可计算图像内的各物体的距离和取向。处理器可转换图像数据以及位置和取向数据。数据可用位置数据作标签以供第二头戴式设备使用。第二头戴式设备可接收该距离、图像、以及作了标签的位置数据。第二头戴式设备可利用该数据以用最小限度的处理来渲染图像,其中有该虚拟对象在该图像中。
在框1904中,处理器可对图像中的各物体作标签以将作了标签的信息存储在几何三维模型中。该标签可包括可从GPS设备获得的地理位置数据。在一实施例中,该位置数据可描述房间中的物体以及各物体相对于彼此的相对位置。在另一实施例中,每个物体可被指派包括物体取向的GPS坐标。在一实施例中,该标签可包括至少四个分开的位置坐标。在一进一步的实施例中,与虚拟对象相关联的数据也可用位置数据作标签。在框1905中,处理器可使用传感器数据、相机数据、图像的取向、以及距离数据来处理图像。在框1906中,处理器可将物理环境渲染在模型中。该模型可由处理器上传并传送到存储介质,该存储介质可由其他头戴式设备、或连接到其他头戴式设备的各单独的处理器访问。如本文中所提及的,通过利用外部处理器和存储介质(例如,智能电话、个人计算机、或经由本地无线网络可访问的服务器),头戴式设备可被配置成轻质的。第二头戴式设备可确定其位置并可向存储介质形成访问与当前位置有关的扫描数据的请求。该存储介质可接收该请求。该存储介质可基于该位置将数据传达给头戴式设备。
在确定框1907中,处理器可决定是否要共享该数据。若是如此(即,确定框1907=“是”),则处理器可共享该数据并将该数据传达给与第二用户相关联的移动设备(框1908),或传达给存储介质(其中计算设备可向该存储介质请求数据)。例如,该存储介质可包括另一计算设备、服务器、或网络分布式计算设备。如果处理器决定不要共享该数据(即,确定框1907=“否”),则处理器可继续前行到框1901以继续从各传感器接收与相机的取向有关的数据并在框1902中捕捉图像。在框1908中,第二头戴式设备可访问该共享数据。在框1909中处理器可利用该共享数据来显示虚拟对象,同时减少用于渲染该虚拟对象的处理量。
图20解说使用服务器来在至少两个头戴式设备之间共享位置坐标数据和扫描数据以渲染虚拟对象的实施例方法2000。例如,处理器可在通信网络上共享数据以供多个设备使用,从而这些设备可通过获得共享数据来处理图像数据、位置数据、取向数据、距离数据,以及更迅速地在图像中渲染虚拟对象,或可在软件应用之间共享其他对于协作目的而言有用的数据。例如,一位用户或许能够访问存储在存储器中的另一用户的文件。方法2000使得处理器能够与其他设备协作和共享资源。方法2000可在具有用处理器可执行指令配置成执行方法2000的操作的处理器的计算设备中实现。在框2001中,处理器可通过执行与第一头戴式设备相关联的应用来着手进行操作。
在框2002中,处理器可打开与该头戴式设备相关联的输入/输出信道。处理器可在框2003用第二头戴式设备来执行应用,并在框2004中打开该信道以在该信道上通信。在框2005中处理器可在共享服务器上执行应用。在框2007中,处理器可使用RF信道来创建至服务器以及这两个头戴式设备的连接。在框2008中处理器可使用第一和第二头戴式设备以及服务器来协作。在框2009中,处理器可共享音频数据。在框2010中,处理器可在服务器处共享数据文件并同步文档。在框2011中,处理器可在各移动设备处检测音频姿势以发现新命令。
同样,如以上所描述的,将由其中一个或多个头戴式设备所生成的图像和音频数据与服务器共享可使得其他人能通过佩戴从该服务器接收图像和音频数据的头戴式设备来看到和听到与参与者相同的事物来观察虚拟或扩增现实体验中的协作。通过使得能在观察者的头戴式设备之间以及在服务器与参与者头戴式设备之间进行双向通信,佩戴头戴式设备的观察者还能具有与在头戴式显示器中看见的虚拟对象进行交互的能力。观察者与虚拟对象的交互可包括触摸该扩增以产生影响,定义物理表面上的交互区域或锚点(有效地向共享体验添加新扩增),和经由姿势和/或音频输入与共享混合现实场景进行交互。可使得虚拟体验中由观察者作出的任何此类改变都反映在由参与者和其他观察者佩戴的头戴式显示器中。
图21解说使用服务器来经由可标识目录在至少两个设备之间共享数据的实施例方法2100。该目录可标识在预定区域中的其他有能力的设备和头戴式设备。一旦一头戴式设备进入一区域,该头戴式设备就可注册并可在目录上存储地址信息,该目录可与其他头戴式设备共享。在替换实施例中或在这些实施例的可能实现中,可由附连的处理器单元(诸如智能电话)来执行扫描功能。使用由分开的设备对区域进行的扫描在使用轻质的头戴式设备时可能尤为合适。以此方式,头戴式设备可从集中位置迅速确定是否有其他头戴式设备可用以进行协作以及共享扫描资源。方法2100可在具有用处理器可执行指令配置成执行方法2100的操作的处理器的计算设备中实现。该目录可以是提供关于可用设备的信息的计算机可读数据。这促成了在通信网络上共享数据以供多个设备使用。例如,该目录可包括关于建筑物中的各扫描区域的信息,其中有地理标签与该目录相关联,由此知道自己位置的设备10可查看该目录以获得用于渲染虚拟对象14的扫描数据。例如,该数据可包括关于虚拟对象14的数据,可包括关于该区域中的一个或多个表面的数据、取向数据、物体位置数据、或任何其他有用的或处理器密集型数据,这些数据能被迅速获得。
实施例方法2100使得能够协作并共享资源,以使得由头戴式设备自身执行的处理量最小化。在方法2100中,处理器可通过在框2101中从可能正在运行应用的第一头戴式设备接收要进行协作的输入请求来着手进行操作。在框2102中,处理器可发起对附近设备的对等搜索以进行协作。在确定框2103中,处理器可决定是否要与所发现的设备协作。若是如此(即,确定框2103=“是”),则处理器可创建这些设备之间的连接。处理器可使用双向通信链路来进行协作。在框2104中,可在第一和第二头戴式设备10和10b之间形成通信链路。
处理器可访问服务器中的目录。在框2105中,利用该目录的处理器可通过扫描该目录来确定是否有其他用户可用于进行协作。在确定框2106中,处理器可决定是否要选择新用户。处理器可基于输入或基于决策规则引擎来决定是否要选择可基于一个或多个预定义的关系规则进行协作的新用户。如果处理器决定要选择新用户(即,确定框2106=“是”),则处理器可行进至确定框2107以确定是否要创建至该新用户的连接以用于进行协作。在确定框2107中,处理器可决定是否要与该新用户协作。如果处理器决定要与该新用户协作(即,确定框2107=“是”),则在框2108中处理器可创建到各相关设备的连接,并可使用第一和第二头戴式设备来进行协作。
如果处理器决定不要与该新用户进行协作(即,确定框2106=“否”),则处理器将向用户输出预期没有更多用户的消息,并且在框2019中与现有参与者着手进行协作。如果处理器决定不要选择新用户(即,确定框2107=“否”),则处理器将假定该协作被拒绝。处理器可输出预期没有更多用户的消息,并在框2109中与现有参与者着手进行协作。
图22示出第一头戴式设备2205和第二头戴式设备2210位于两个不同地理位置的高级解说。图22解说第一和第二头戴式设备2205、2210的数个组件,并且还解说可提供头戴式设备2205、2210之间的数据交换功能的VIRT服务组件2265。第一和第二头戴式设备2205和2210可共享包括扫描区域的三维地图在内的数字资产,以减少进入新位置的新头戴式设备处的处理。此共享可延长电池寿命,并可协助以迅速的方式来渲染图像。在另一实施例中,一个用户的扫描三维地图可补充第二用户的地图。在另一实施例中,一个用户的地图可替换第二用户的地图。在一进一步的实施例中,一个用户的地图可被参考并用来检查另一用户的扫描数据。例如,此参考可发生在预定时间范围内。
在该时间范围期满时或在处理约束繁重的情况下,第二用户可利用第一用户的地图。在另一实施例中,第一头戴式设备2205和第二头戴式设备2210可位于两个相对于彼此而言遥远的地理位置处,并且可能不会扫描相似区域。因此,尽管将在头戴式设备2205和2210之间共享数字资产和虚拟对象,但是可能没有必要共享地图数据,因为此类信息对于协作而言将是无关的。取而代之的是,在头戴式设备2205和2210被要求扫描一区域时,三维地图的共享对于位于近旁或在相同建筑物中的用户可能是最有用的。
第一用户操作第一头戴式显示设备2205,该设备可具有显示器2215、扬声器2220、图像场景传感器2225以及音频传感器2230。第一头戴式设备2205还可包括无线或有线接口2260以及包括数个控制组件的控制器。在另一实施例中,头戴式设备可包括显示器2215、无线接口2260、电池(未示出)、扬声器2220、以及话筒/音频传感器2230。各组件包括场景管理器块2235、用户控制块2240、表面管理器块2245、音频管理器块2250、以及信息访问块2255。
第二用户还操作第二头戴式设备2210,其包括类似组件。第二设备2210可具有显示器2215a、扬声器2220a、图像场景传感器2225a以及音频传感器2230a。第二设备2210还可包括无线或有线接口2240a和控制器。控制器包括数个控制组件,包括场景管理器2235a、用户控制块2240a、表面管理器块2245a、音频管理器块2250a、以及信息访问块2255a。
设备2205和2210各自与控制提供器2265通信,控制提供器2265可为设备2205和2210每一者提供服务功能性。控制提供器2265可辅助这两个设备2205和2210,并可代表这些设备来提供服务,从而设备2205和2210保持轻质并且未必需要在本地执行计算密集型处理。就像任何两个连接着因特网的设备一样,控制提供器2265可能不得不实现防火墙2285和2285a来保护这些设备防止黑客攻击以及恶意软件(例如,防火墙可由本地软件、因特网服务供应商和/或企业服务供应商提供)。防火墙2285和2285a限制对控制提供器2265的访问。在另一实施例中,防火墙2285和2285a是任选的并且是缺失的。
控制提供器2265可包括目录2280,该目录包含与许多设备有关的数据,这些数据包括对于设备2205和2210的标识和路由信息。控制提供器2265还可包括场景存储块2270。场景存储块2270处理与扫描图像的表面和轮廓信息有关的数据。此表面和轮廓数据可包括距离、形状以及取向数据。场景存储块2270可准许第一用户对第一区域进行地图绘制,并存储该数据以惠及第二用户的头戴式设备以更迅速地渲染场景或验证扫描的数据参数。控制提供器2265促成共享数字资产。控制提供器2265可提供无线接口2260与2260a之间的数据链路,该数据链路可被最优化。控制提供器2265还可促成由不同网络拓扑、防火墙和IP寻址架构来实现的连通性。
每个设备2205和2210可将位置数据内嵌到所收集的与地图绘制和扫描的图像以及扫描的表面有关的数据中。例如,第一头戴式设备2205可扫描一房间,包括该房间中的各物体。此扫描可导致对各物体的位置数据、各物体的轮廓数据、从物体到头戴式设备的距离数据、以及头戴式设备和各物体的取向数据的聚集和收集。此扫描可得到数据,该数据可被传达给路由器2275。与此数据一起地,第一头戴式设备2205处理器可将位置数据嵌入在所扫描的数据中。该位置数据可以是经度、纬度、以及海拔形式的坐标。第一通信设备2205指定本地物理环境中的每个表面。处理器可以能够标识哪个共享数据可被摆放在每个表面上从而使得另一设备可迅速地能够定位到并利用该数据。
第一头戴式设备2205可将数据写到基于云的服务2265。此类服务2265可为头戴式设备提供计算、软件、数据访问、以及存储服务。头戴式设备不要求最终用户知晓服务2265的物理位置和配置。基于云的服务2265上可能存储有查找目录2280。服务2265驻留在服务器上。服务2265资源可经由能在头戴式设备上执行的web应用/web服务在因特网上在细粒度的自助的基础上被动态地置备给头戴式设备。服务2265可位于场外第三方供应商上。目录2280协助第一设备2205并促成远程用户2205、2210之间经由路由器2275的连通性。以此方式,第二头戴式设备2210可确定头戴式设备2210处于特定位置并可将此位置传达给路由器2275。服务2265可涉及动态可伸缩资源的置备。头戴式设备可加载有基于web的工具或应用,其可由用户通过web浏览器来访问和使用,就好像该程序是本地安装在他们自己的头戴式设备上那样。服务2265可经由因特网来递送应用,这些应用是从web浏览器来访问的,而软件和数据存储在远程位置处的服务器上。服务2265可通过共享数据中心来传送,并且对头戴式设备而言看起来像是单个访问点。响应于此,来自场景存储2270的从第一头戴式设备2205生成的数据可被传送给场景管理器和表面管理器块2235a和2245a,以避免要用额外的计算处理来渲染图像。第二头戴式设备2210可验证由场景传感器块2225a所生成的数据,或可利用从场景存储块2270传送而来的数据在显示器2215a上渲染图像,以避免要用额外的计算处理来渲染图像。
图23解说第一头戴式设备2205的高级图示。第一头戴式设备2205可位于第二头戴式设备2210近处。头戴式设备2205和2210可经由一个或多个快速无线数据链路来交换数据。第一头戴式显示设备2205可具有显示器2215、扬声器2220、图像场景传感器2225以及音频传感器2230。第一头戴式设备2205还可包括至用户数据存储2301的有线接口连接,在用户数据存储2301处,数据可被写入以供访问。第一设备2205还可包括至共享数据存储2302的有线或无线连接,该共享数据存储2302可以是第二移动通信设备可访问的存储器。第一设备2205还可具有控制器,该控制器包括数个控制组件,包括场景管理器2235、用户控制块2240、表面管理器块2245、音频管理器块2250、以及信息访问块2255。
第二用户还操作第二头戴式设备2210,其包括与第一头戴式设备2205类似的组件。第二设备2210可具有显示器2215a、扬声器2220a、图像场景传感器2225a以及音频传感器2230a。第二设备2210还可包括无线或有线接口。第二设备2210可向/从用户数据存储存储器2303读取/写入数据。第二设备2210还可从/向可由第一设备2205访问的共享数据存储存储器2302读取和写入数据。第二设备2210还可具有包括数个控制组件或模块的控制器。第二设备2210可包括场景管理器块2235a、用户控制块2240a、表面管理器块2245a、音频管理器块2250a、以及信息访问块2255a。
鉴于此,各用户可共享已被指定的扫描表面数据集合。各用户可与作为虚拟对象摆放在这些表面上的虚拟资产进行交互。第一和第二设备2205和2210可在本地快速无线数据载体(例如, 短程通信标准、以及 )上通信。如果有更多用户在场,则设备2205、2210可进一步经由对等连接或广播、单播、或多播来通信。
图24解说使用服务器来用位置信息对数据作标签并经由目录在至少两个头戴式设备之间共享作了标签的数据的实施例方法2400。方法2400可在具有用处理器可执行指令配置成执行方法2400的操作的处理器的计算设备中实现。该目录可提供关于扫描的三维地图的信息。例如,头戴式设备可发射红外光并经由快速闸选机构来计算该红外光的渡越时间,并可存储这些计算以确定某些物体距该头戴式设备10的距离。另外,头戴式设备10可扫描一区域以确定各物体的取向、确定各表面、以及各物体的结构信息及高度、宽度、长度和距离信息。
在方法2400的框2401中,处理器可通过从头戴式设备接收数据来着手进行操作。在框2402中,处理器可接收图像数据。在框2403中,处理器可计算距离和取向。在框2404中,处理器可处理该内容以供显示。在框2405中,处理器可渲染该图像,其中有虚拟对象包含在所显示的图像内。在确定框2406中,处理器可决定是否要用位置信息来对该图像作标签,从而使得另一头戴式设备可利用该图像数据。
第二设备可包括第二处理器,该第二处理器可计算图像数据并可利用第一设备扫描能力作为资源来验证所扫描的参数以作为参考。在另一实施例中,第二设备可导入扫描的数据。使用此导入的数据,第二设备可渲染所显示的图像,其中有虚拟对象锚定在所显示的图像中的至少一个表面上。这可发生在第二头戴式设备10b进入一位置时。第二头戴式设备10b可确定其在一区域(例如,房间)中的位置,并且然后传达该位置数据以藉此形成对第一头戴式设备10的扫描数据的请求。
如果处理器决定要用位置信息来对图像作标签(即,确定框2406=“是”),则在框2407中处理器可用位置信息来为该目录对扫描的数据作标签,并将该数据存储在服务器上,从而另一头戴式设备10b可访问此扫描的数据。在替换方案中,在框2407中不是将数据存储在服务器上,而是可将数据存储在共享存储器中,诸如存储在经由共享网络可访问的存储器中。如果处理器决定不要用位置信息对图像作标签(即,确定框2406=“否”),则在框2408中处理器可确定没有其他设备可用于利用该共享数据并且将继续扫描该区域来为当下的用户渲染该虚拟对象。
图25A解说具有三个移动设备2501、2502和2503以及服务器2504的系统2500的实施例。设备2501–2503以及服务器2054交换扫描的数据以及地图信息。该地图可包括房间的扫描参数。该地图可包括图像中各表面(诸如平板屏幕显示器2530和桌子2532)的标识,包括图像中各物体的形状和大小。该地图还可包括从该设备来看各物体所位于的距离和角度、或是在链接到房间的参考系内的坐标位置、或是任意坐标。例如,该地图可以用从原点出发沿三条垂直坐标轴(诸如沿定义该房间的特定一角的三条轴(例如,长度、宽度、高度))的米数的形式来标识各物体的位置。该地图可包括与这些物体被捕捉时该设备的三维位置和场所有关的标题。地图数据可从该设备扫描图像数据的每个位置被上传到服务器2504,并且该服务器可使用来自所有头戴式设备以及来自所有位置的距离测量和图像来构建基于链接到该房间的参考系的地图。为此,服务器2504可对所有收到的位置数据执行坐标变换,以将距离测量从以头戴式设备为中心的球面坐标(即,从该头戴式设备出发到每一物体的距离和角度)变换到任意直线坐标系,诸如相对于房间长度、宽度和高度坐标来定位各物体。用于完成此类坐标变换的数学和算法是本领域众所周知的。
系统2500的此实施例不限于头戴式设备而是可进一步应用于不同的计算设备。替换地,头戴式设备10可以是移动CPU(电话、平板计算机等)的配件,其中主处理在移动CPU上执行,而数据是由移动电话和头戴式设备(未示出)并在其间交换的。图25A解说可如何使用集中式数据库服务器2504来进行协作以迅速扫描以及渲染图像。例如,设备2501、2502和2503可包括用于发射和感测光或超声以经由渡越时间计算来测量距房间中各物体和表面的距离的设备。在另一实施例中,RGB-D相机可捕捉图像数据。设备2501、2502和2503可利用扫描的数据来生成虚拟对象并将该虚拟对象锚定在该图像的至少一个表面上,并将该虚拟对象与所捕捉到的图像一起渲染以提供虚拟或扩增现实体验。
第一设备2501可创建局部地图并将该地图上传到服务器2504。该局部地图可包括与针对位置52.23.0.14的图像中的第一和第二物体有关的数据。该地图可包括标识该位置的标题。该地图还可包括关于所扫描的图像的大量数据,包括距设备2501的距离、物体长度、物体宽度以及物体高度、各物体的取向、以及各物体离墙壁、天花板、门道的距离等。每个物体的个体坐标和位置数据也可被记录并存储在地图中。
第二设备2502可经由坐标(52.23.0.14)将其位置报告给服务器2504,该坐标对应于预定位置,该预定位置可能已被第一设备2501扫描过。第二设备2502可将该位置数据上传到服务器2504。服务器2504可接收该位置数据。第二设备2502可接收有局部地图可用的消息。第二设备2502可下载由第一设备2501形成的局部地图。基本同时地,第二设备2502可能正在扫描该房间的一不同部分。例如,第二设备2502可扫描该房间中毗邻第一桌子的部分。第二设备2502可利用所扫描的数据并将所扫描的数据与下载的地图融合以渲染带有虚拟对象的所显示图像。第二设备2502还可将经更新的地图上传到服务器2504。
第三设备2503还可以用请求的形式来提供其位置数据52.23.0.14。服务器2504可接收该位置数据52.23.0.14以及坐标,并且选择恰当的数据集并将该扫描数据的数据集以地图的形式传送给第三设备2503。第三设备2503可下载包括第一设备2501所扫描的数据以及第二设备2502所扫描的数据(其可补充第一设备2501所扫描的数据)的地图数据。在另一实施例中,该数据可能并不是用来补充的,而是第二设备2502可扫描以确定第一数据集是否准确并可验证该数据集。在另一实施例中,如果该数据不准确,则第二设备2502可替换第一设备2501所扫描的数据。
第三设备2503可利用该地图以渲染带有虚拟对象的所显示图像。如图所示,第三设备2503可利用经更新的地图来迅速确定该图像中各物体(包括平板屏幕电视2530和桌子2532)的位置。第三设备2503可进一步捕捉图像数据,并可扫描该房间的新区域,并且还可将与对地图的更新相对应的数据上传到服务器2504。以此方式,设备2501、2502和2503中的每一者并不需要在本地处理整个图像,而是可获得服务以更迅速地渲染虚拟对象和所显示的图像。
设备2501、2502和2503中的每一者以及服务器2504可被彼此优化以迅速接收地图并将所扫描的数据与地图组成部分拼凑在一起以迅速地渲染该场景。例如,如果设备2501在新位置上,并且没有扫描的图像被记录过,则设备2501可扫描整个区域。例如,设备2501可替换地确定扫描数据是旧的并且是在一段时间前被记录的。设备2501可确定扫描数据是陈旧的,并且决定扫描整个区域。
替换地,设备2501可将扫描数据的新旧程度与阈值作比较并可作出是否要扫描整个区域的决定。例如,设备2501可计算扫描整个房间所要的时间,并且如果扫描整个房间所要的时间高于预定限度,则可基于处理要求来接受或拒绝陈旧的地图。替换地,设备2501可监视其他设备2502、2503的位置并形成要接收基于所监视位置的扫描图像的请求。例如,设备2501可确定设备2502、2503正处在位于远处的一不同的远区域中,并且对地图的请求很有可能渲染出不相关的数据(没有用)并且编制请求是不必要的。在又一实施例中,如果有若干设备2501、2502和2503在场,则每个设备可扫描该房间中的不同区域以用更迅速的方式来扫描房间。
图25B解说用于云存储以及检索用来在头戴式显示器上生成虚拟对象的数据的实施例方法2506。方法2506可在具有用处理器可执行指令配置成执行方法2506的操作的处理器的计算设备中实现。生成虚拟对象可能要求对房间中的各表面进行密集的扫描以确定各物体的距离、各物体的形状、以及各物体的取向以便将虚拟图像锚定到该房间中的一个或多个表面。一些头戴式设备可将它们的位置下载到云并立即接收到准确数据以协助在一表面上渲染虚拟对象,以避免在本地处理该数据并验证扫描数据。在方法2506中,处理器可在框2508中通过用头戴式或身佩式相机捕捉用户的图像来着手进行操作。在框2510中,处理器可提供程序指令以用传感器阵列扫描一房间的区域来捕捉空间数据。这可通过用红外光发射设备进行扫描并测量从各表面反射的红外光的渡越时间来完成。
此数据还可被提供给处理器,该处理器可生成该房间的三维地图。在框2512中处理器可识别所捕捉到的图像中的各物体,并可确定所捕捉到的图像中的各物体的距离参数,并且还可确定图像内所包含的各表面的取向。在框2514中处理器可生成虚拟对象。在一实施例中,虚拟对象14可仿效发射内容的协作式平面屏幕三维对象14。该虚拟对象14可被锚定到图像中的表面16并且用户可在房间中四处移动,但该虚拟对象显示参数改变以使得该虚拟对象保持锚定到期望的锚表面。处理器可在框2516中计算包括距离和取向的参数以显示虚拟对象并可在框2518中对计算出的参数作标签并将计算出的参数上传到云服务器。处理器可用位置标签(其可为地理标签)来对计算出的参数作标签。在另一实施例中,该地理标签可包括纬度坐标、经度坐标、海拔坐标、方位坐标、距离坐标、以及准确性数据。地理坐标给所上传的各种参数添加地理标识元数据。地理标签可帮助用户在已扫描区域的三维地图中找到各种各样的因位置而异的信息。
在确定框2520中,处理器可确定第二头戴式设备是否已进入了要为其接收补充共享数据以便为特定位置更快地生成虚拟对象的位置。例如,第二头戴式设备可在相同房间中,并且可向第一头戴式设备发射信号,或可向云服务器发射信号,云服务器确定第二设备已进入了特定位置。处理图像对于一些设备而言可能是繁重的。同样,扫描房间也可能是耗时的。因此,第二头戴式设备可对第一头戴式设备已经完成的工作加以利用,并接收与房间中的各物体及各表面有关的计算出的参数来为第二用户更快地生成虚拟对象。
如果处理器确定其已进入了新房间(即,确定框2520=“是”),则在框2522,第二头戴式设备可传送其来自导航设备的位置数据并可从服务器下载作了标签的计算出的参数。在框2524中,第二头戴式设备的处理器可使用所访问到的并且加了标签的计算出的参数来生成虚拟对象。如果处理器确定其没有改变位置(即,确定框2520=“否”),则处理器在有另一第三头戴式设备已扫描过该区域并且生成了锚定的虚拟对象的情况下可执行操作以验证这些计算出的参数是正确的。在框2526中,第一头戴式设备可传送其来自导航设备的位置并可从服务器下载计算出的参数。在框2528中,处理器可用从服务器下载的计算出的参数来验证计算出的参数。
在另一实施例中,三维地图可以不是由包括各物体的距离和取向的计算出的参数来形成,而是代之以由特定区域来形成并被上传到云服务器。标签或位置数据可以用标题的形式嵌入在三维地图消息中,并且该三维地图可被传送并存储在云服务器中以供第二头戴式设备访问。例如,当第二头戴式设备进入一区域时,第二头戴式设备可上传其位置坐标,并可下载房间或预定区域的三维地图。第二头戴式设备可识别该图像内的各物体并可利用三维地图来确定该图像内的各物体的距离参数。这可以用对在第二头戴式计算设备处捕捉到的空间数据和图像的最低限度的处理来进行。在另一实施例中,元数据可被存储到云服务器。该元数据可包括所捕捉到的各物体的距离和取向,其可由不同的头戴式设备来访问。该元数据还可包括与房间中的各物体的位置有关的室内位置数据、以及能被处理器用来确定该数据是否陈旧的指示。
图26解说用于显示叠加在检测到的身体部位之上的虚拟对象的实施例方法2600,此检测到的身体部位是通过对所跟踪的图像应用解剖模型并将解剖模型与所跟踪的图像作比较来在所跟踪的图像中检测到的。方法2600可在具有用处理器可执行指令配置成执行方法2600的操作的处理器的计算设备中实现。在方法2600的框2601中,处理器可通过从头戴式设备接收数据来着手进行操作,该头戴式设备包括提供关于该设备的取向的数据的传感器(例如,加速计、陀螺仪、电子罗盘、等等)。在框2602中,处理器可接收图像数据。在框2603中,处理器可计算距离和取向并在框2604中利用距离传感器数据、相机数据、取向数据和距离数据来处理内容以供显示。在框2605中处理器可渲染带有虚拟对象的该图像。
在确定框2606处,可得出关于是否要在头戴式显示器的所显示图像内所包含的检测到的身体部位的表面之上叠加虚拟对象的决定。如果处理器决定要在检测到的身体部位的表面之上叠加虚拟对象(即,确定框2606=“是”),则在框2607中处理器可在身体部位之上叠加虚拟对象。如果处理器决定不要在检测到的身体部位的表面之上叠加虚拟对象(即,确定框2606=“否”),则处理器在框2608中将不把该对象叠加在该身体部位上,并且可允许该身体部位遮蔽该虚拟对象或可将该虚拟对象渲染在该显示的一不同位置上。例如,该虚拟对象可根据处理器所接收的由用户所作的输入来被叠加。
图27解说了其中可通过跟踪图像并对所跟踪的图像应用解剖模型来检测该图像中所包含的身体部位来将用户的手遮蔽在虚拟对象之上的实施例方法2700。在方法2700的框2701中,处理器可通过从头戴式设备接收数据来着手进行操作,该头戴式设备包括提供关于取向的数据的传感器。在框2702中,处理器可跟踪图像。在框2703中,处理器可对跟踪到的图像应用解剖模型。在框2704中,处理器可标识用户的手,并在框2706中渲染图像。例如,处理器可将在跟踪到的图像中自底向上出现的手指、手和手臂标识为用户的手。而与此同时,可应用解剖或骨骼跟踪算法来检测第二身体部位。该第二身体部位也可包括手指、手和手臂。处理器可推断在图像中从顶部出现并且向下延伸的第二身体部位可能是另一个用户的身体部位。另外,处理器可推断基于在图像中的大小和取向来看离用户太远(有预定距离)的手臂和手可能是确定为另一用户的身体部位。
在确定框2706中,可得出关于是否要将用户的手遮蔽在虚拟对象之上的决定。如果处理器决定要在虚拟对象之上渲染用户的手(即,确定框2706=“是”),则在框2707中,处理器可以用使用户的手选择性地遮蔽在虚拟对象之上的方式来渲染虚拟对象。例如,该用户的手可将虚拟对象从观看者遮挡掉。在框2708中,可由处理器更新图像。如果处理器决定不要在虚拟对象之上渲染用户的手(即,确定框2706=“否”),则在框2709中,处理器将把虚拟对象显示成叠加在用户的身体部位之上,以使得该身体部位看起来是透明的。例如,用户可将他的手拂过虚拟对象。然而,该虚拟对象可被显示在身体部位之上并且叠加在手的表面之上,以使得该虚拟对象的内容保持可见,尽管事实上用户的手应遮挡住该虚拟对象。在框2709中,一旦检测到命令并通过检测到的姿势或输入命令来从用户得到确认,则此输入导致检测到的命令的任务和行动被执行,并且虚拟对象内容可被更新。
图28A解说其中第二个人的手可被渲染为透明或不在虚拟对象之上的实施例方法2800。方法2800可在具有用处理器可执行指令配置成执行方法2800的操作的处理器的计算设备中实现。在方法2800中,在框2801中,处理器可通过从头戴式设备接收数据来着手进行操作,该头戴式设备包括提供关于取向的数据的传感器。在框2802中,处理器可跟踪捕捉到的图像。在框2803中,处理器可对跟踪到的图像应用解剖模型。例如,解剖模型可以是骨骼跟踪算法,其将跟踪到的物体与骨骼模型作比较以确定是否有任何身体部位包含在该图像内。如果一物体没有被处理器检测为是身体部位,则处理器可忽略该物体。
在框2804中,处理器可标识用户的手以及第二个人的手。处理器可在框2805中在图像中所包含的锚表面上(例如,在桌面或在墙壁上)渲染图像。在确定框2806中,处理器可确定是否要将虚拟对象叠加在身体部位上。如果处理器确定要将虚拟对象叠加在身体部位上(即,确定框2806=“是”),则在框2807中,处理器可将第二个人的手渲染为透明的或不在虚拟对象之上,或者当该身体部位遮挡该虚拟对象时,该虚拟对象可被显示在该身体部位的顶表面之上以使得该身体部位显现为透明的。在另一实施例中,在虚拟对象叠加在身体部位表面之上的情况下,身体部位的轮廓可仍保持可见。在框2808中,虚拟对象的所显示图像可由处理器更新以将内容变化和身体部位移动考虑在内。如果处理器决定不要将虚拟对象叠加在身体部位之上(即,确定框2806=“否”),则处理器将在框2809中显示该虚拟对象并为用户的移动对虚拟对象进行更新。
图28B解说其中处理器可推断哪些手是用户的手以及哪些手是其他用户的手并且处理器可在其他用户的手遮蔽虚拟对象时将其他用户的手渲染为透明的或不显现的实施例方法2810。方法2810可在具有用处理器可执行指令配置成执行方法2810的操作的处理器的计算设备中实现。在方法2810中,在框2811中,处理器可通过从头戴式设备接收数据来着手进行操作,该数据包括捕捉到的图像数据。在框2812中,处理器可用传感器阵列来捕捉空间数据。在框2813中,处理器可识别图像中的各物体并确定该图像中各物体的距离参数。在框2814中,处理器可处理图像以跟踪物体,并且处理器可对所跟踪的图像应用经由骨骼模型实现的解剖分析。在相机搭载在用户身上时或在另一用户在传感器的视野中只是局部可见的场合,这可包括对局部解剖的标识。例如,解剖模型可以是骨骼跟踪算法,其将跟踪到的物体与骨骼模型作比较以确定是否有任何身体部位包含在该图像内。如果一物体没有被处理器检测为是身体部位,则处理器可忽略该物体。例如,处理器可对图像应用解剖分析以确定是否有身体部位在该图像内。处理器可参考存储器内存储着的解剖或骨骼模型,并将其与视频图像中跟踪到的物体作比较。存储着的骨骼模型可包括解剖数据,例如人类骨骼中的关键关节、骨和肢的相对位置、以及其他数据。处理器可将图像中所跟踪到的物体与存储着的骨骼模型作比较以确定是否有身体部位在图像中。
例如,处理器可通过检测在第一取向上的手臂以及从手延伸出的数个手指、或以从图像的底部向上逐步展现的手臂、手腕和手指来检测用户的手臂。处理器可通过检测在第二不同取向上的第二手臂以及从第二只手延伸出的第二数个手指、或以从图像的顶部向下逐步展现的手臂、手腕和手指来检测第二个人的手臂。在另一实施例中,处理器可通过审阅所跟踪的图像中的取向、物体大小、离用户的距离,或通过对图像内的身体部位的数目进行计数来在用户与另一人的身体部位之间加以区分。
在框2815中,处理器可渲染图像,其中在该图像中有锚定的虚拟对象。在确定框2816中,处理器可确定检测到的身体部位是属于用户还是属于另一个人。处理器可将虚拟对象叠加在另一个用户的身体部位之上。在所显示的图像中,只有用户的手遮蔽虚拟对象,而其他的手、手臂和身体部位将不会遮蔽该虚拟对象,而是将显现为透明的。
用户可看到虚拟对象是叠加在其他用户的身体部位之上的,从而其他用户的身体部位被渲染为透明的。处理器可确定图像中与其他个人的身体部位有关的区域,并可仅在其他个人的身体部位遮蔽锚定的虚拟对象时才将虚拟对象显示在该图像之上。如果处理器确定检测到的身体部位属于用户(即,确定框2816=“是”),则在框2818中,处理器可在框2817中在用户的身体部位遮蔽该图像时将用户的身体部位渲染为实体的。如果处理器确定检测到的身体部位属于另一个人(即,确定框2816=“否”),则在框2819中当所检测到的身体部位遮蔽虚拟对象时处理器将把虚拟对象或其部分显示为叠加在该身体部位之上。
例如,处理器可确定图像中定义为在其他个人的身体部位之上的区域(以像素计)的区域。处理器可在该区域之上形成叠加的虚拟对象而不将该虚拟对象渲染在身体部位的周界之上。当该身体部位位于锚定的虚拟对象之上时,第二个人的该身体部位的轮廓可仍被示出并渲染。因此,在锚定的虚拟对象之上,此轮廓可以是可见的,而其余部分则可被渲染为透明的。在框2819中,处理器可针对用户移动来更新虚拟对象以将内容变化和身体部位移动考虑在内。例如,处理器可在一表面上将锚定的虚拟对象显示为矩形的虚拟显示。如以上所描述,处理器可分析捕捉到的图像以检测用户姿势。可由第二个人和该用户与锚定的虚拟对象发生仿佛虚拟的现实交互。在另一实施例中,处理器可能检测到第三个人的身体部位。处理器可在该第三个人的身体部位位于锚定的虚拟对象之上时在该第三个人的该身体部位之上显示叠加的虚拟对象。在第三个人的身体部位被确定为位于离开锚定的虚拟对象之处且并不遮蔽虚拟对象时,处理器也可不在第三个人的身体部位之上显示叠加的虚拟对象,并允许该身体部位被显示。
图29解说其中可从服务器向多个设备传送数据以提供服务并减轻头戴式设备处的处理的实施例方法2900。方法2900可实现在像是以上参考图25A所描述的那样的系统内,该系统可包括用处理器可执行指令配置成执行方法2900的操作的服务器以及一个或多个头戴式设备。在方法2900中,服务器2504可在框2901中从头戴式设备接收图像和位置数据,该头戴式设备包括提供关于谱数据和图像的数据的传感器。在框2902中,处理器可将数据上传到服务器,其中该数据带有与该数据被扫描时的位置有关的位置信息。服务器可将扫描数据输出至数个不同的头戴式设备。在框2903中,处理器可将数据输出至第二头戴式显示器以作为参考。
在框2904中,处理器可将数据输出至第三头戴式设备以补充第三头戴式设备扫描的数据并验证所捕捉到的扫描数据。在框2905中,服务器可将数据输出至第四头戴式设备以增强该设备上存在的数据,并且在框2906中,服务器可上传数据以节约电池电量及处理。基本同时地,上述每个头戴式设备可进行它们自己对该区域的扫描以确定关于该区域中的各物体的信息。例如,头戴式设备可扫描该区域以确定图像中的各物体的形状和维度,并且可扫描该区域以确定图像中各物体的取向以及图像中各表面的相对位置,这可以有助于锚定虚拟对象以便实现身临其境的虚拟或扩增现实体验。在确定框2907中,处理器可确定是否要从各设备向服务器上传经更新的扫描位置数据以供存储在该服务器上。如果处理器确定要将扫描位置数据上传到服务器(即,确定框2907=“是”),则处理器可上传经更新的数据,并且将各头戴式设备扫描的数据与存储在服务器上的数据融合并组合。如果处理器决定不要将扫描位置数据上传到服务器(即,确定框2907=“否”),则处理器可在框2908中显示该虚拟对象并针对用户移动对虚拟对象进行更新。
在另一替换性实施例中,图29的处理器可起到“魔术镜头”的作用。以此方式,显示在房间中的物理表面上的虚拟对象可在常规智能电话或计算设备上被观看。此类智能电话可向服务器输出数据并可进一步链接到服务器。没有头戴式设备而是使用移动通信设备的用户可使用该移动通信设备或智能电话来与佩戴头戴式设备的用户进行协作。例如,用户可通过看智能电话显示器来观看锚定在物理表面上的虚拟对象的输出,并可经由无线音频链路来与利用头戴式显示器的用户通信。
智能电话可经由无线RF链路(诸如蜂窝数据链路(例如,3G、4G、LTE、UTMS等))被可操作地连接到服务器。智能电话可在该智能电话的显示器上输出图像。该图像可完全对应于另一用户的头戴式显示器输出。观看智能电话上的显示的用户可观看到在各物理表面上示出的扩增和虚拟对象。在智能电话的显示器上,此显示可以两维或三维来发生。该智能电话还可以能操作用于与使用移动通信设备和无线接口从服务器接收信号的头戴式设备10进行协作。替换地,智能电话可使用短程通信协议来直接从头戴式设备10接收RF数据信号。以此方式,用户可拿起智能电话并观看头戴式显示器的用户的虚拟或扩增现实体验以进行协作。在此实施例中,智能电话可操纵图像以通过使用与本文中所描述的类似的方法来针对该智能电话自身相对于近旁表面的位置和取向来进行校正。
图30解说其中用户可使用两个头戴式设备来进行协作的实施例方法3000。这两个头戴式设备可正在运行来自两个不同的软件供应商的不同的不兼容的软件应用。一般而言,使用第一文字处理器的第一用户不能以协作式方式与同时使用第二不同的不兼容文字处理器的另一用户一起工作。在方法3000中,处理器可调和并转译数据以使得使用第一软件应用的第一用户与使用第二软件应用的第二用户能彼此协作并输入实时可见的数据。
方法3000不限于头戴式设备,而是可实现在其他类型的计算设备中。在方法3000中,处理器可通过在框3001中打开第一应用并在框3002中打开第二应用来着手进行操作。在确定框3003中,处理器可决定是否要与其他设备协作。如果处理器决定要与其他设备协作(即,确定框3003=“是”),则在框3004中,处理器可协作并提供这些设备之间的双向通信。如果处理器决定不要与其他设备协作(即,确定框3003=“否”),则处理器将在框3010中显示虚拟对象并针对用户移动对虚拟对象进行更新。
在框3005中,处理器将渲染虚拟屏幕作为虚拟对象。该虚拟屏幕可提供软件应用的显示输出。该虚拟屏幕针对由至少两个不同用户输入的改变而进行更新。在框3006中,处理器将应用针对两个不同的软件应用的冲突解决程序。该冲突解决可提供这两个不兼容的软件程序的输入和输出向普适格式的转译,该普适格式可被加载到第三普适软件程序,该第三普适软件程序以该普适格式来调和改变,并将经调和的数据转译回到第一和第二不兼容格式。第三软件程序可提供普适格式回到第一和第二软件程序的转译以便渲染这些改变,并且这些改变可由各用户在原始的本机程序中观看。
例如,可从第一软件程序收集与第一用户的输入有关的数据,并将其传达给普适格式,并传达给第三软件程序。接着,可从第二软件程序收集与第二用户的输入有关的数据,并将其传达给普适格式,并传达给第三软件程序。
第三软件程序可调和这些改变并可将这些改变存储在存储器中。现在,每个用户将想要实时观看彼此对文档所作的改变。第三软件程序可将这些改变转译成第一和第二软件程序各自所理解的格式。第三软件程序可将经转译的改变输出回到第一和第二软件程序以使得每个用户均可以按其本机程序的格式化来观看到整体的改变。在框3007中,处理器还可标识这些改变的作者。在框3008中,处理器将更新文档地图并在框3009中将渲染文档图像作为虚拟对象,并且在框3005中处理器可更新虚拟屏幕。
图31示出三个不同用户操作示为参考标号3100、3101和3102的计算设备的高级框图。每个人可正在使用一不同的软件应用。来自每个软件程序的数据可被存储在服务器3103上。例如,各第一本地改变可在相关的软件程序中作出,正如常规所知的那样。还可作出各第二远程改变并将其写到共享存储介质3106。例如,各第二远程数据改变可被传达给库3104。库3104可将来自每个应用的源于各远程改变的输入数据和输出数据转换成能由普适软件程序来输入和读取的普适格式。该普适格式可存储在库3104上,并且可被写到存储介质3106上的共享文档格式。
存储在存储介质3106上的共享文档格式可将各改变聚集到单个普适程序中。该单个普适程序还可将由每个用户渲染的改变以可因相关软件应用而异且为其所理解的格式转译并在单个数据流中输出回到每个软件应用,以使得每个用户3100、3101和3102能观看由其他用户作出的改变。
例如,共享文档格式3106可包括冲突解决功能性,其可提供各软件程序的输入和输出向普适格式的转译,该普适格式可被加载到第三独立软件程序3106。在那里,来自所有用户的改变被输入并存储。数个不同软件文字处理程序的转译可被存储在服务器3103上。处理器可提供具有所有改变的普适格式回到第一、第二和第三软件程序3100、3101和3102的转译以便在其中渲染和图解这些改变。
图32解说其中用户可使用两个计算机系统来进行协作的实施例方法3200。这些用户可利用来自两个不同的软件供应商的不同的不兼容软件程序来彼此协作。方法3200可调和数据的输入和输出,由此任何以及所有改变均能由利用多个不同的不兼容计算机软件应用的用户来观看。
在方法3200中,处理器可通过在框3201中打开第一应用并在框3202中打开第二应用来着手进行操作。在确定框3203中,可得出关于是否要从各设备向服务器进行协作的决定。如果处理器决定要与服务器协作(即,确定框3203=“是”),则处理器输出用于进行协作的程序指令并提供这些设备之间的双向通信(框3204)。例如,在每个不兼容软件应用上的改变可在本地被渲染并且还被传送到远程位置,在那里这些改变可被聚集并输入到第三软件程序中。如果处理器决定不要与服务器协作(即,确定框3203=“否”),则处理器将不在各设备之间建立双向通信,并且在框3210中渲染屏幕并更新以非协作式方式作出的改变。
在框3205中,处理器将渲染屏幕并针对改变更新该屏幕。例如,在每个软件应用上的改变可被传送到该远程位置,在那里这些改变被聚集并输入到第三兼容软件程序中。在框3206中,处理器将应用针对两个不同的软件应用的冲突解决程序。这些改变随后被转译成本机格式,并且随后以本机格式被传送给每个用户以用于在各自的应用上显示。在框3207中,处理器将标识这些改变的作者。在框3208中,处理器将更新文档图像并渲染文档图像。在框3209中,处理器将更新文档图像。
图33解说其中可使用检测到的姿势来处理和确认音频命令的实施例方法3300。方法3300可在具有用处理器可执行指令配置成执行方法3300的操作的处理器的计算设备中实现。在方法3300中,处理器可在框3301中通过从传感器接收扫描数据来着手进行操作,这些传感器提供关于头戴式设备的取向的数据。在框3302中,处理器可从相机接收关于图像的图像数据。在框3303中,处理器可计算图像内的各物体的距离和取向。在框3304中,处理器可使用来自各传感器的数据、相机数据和距离数据来处理该图像,并且在框3305中,处理器可渲染带有虚拟对象的该图像。另外,在框3305中,处理器可跟踪用户的运动以确定是否有要被执行的姿势输入命令。在框3306中,处理器可接收音频信号。
在确定框3307中,处理器可确定是否识别出由用户说出的音频命令。例如,用户可能想要将虚拟对象的大小放大到渲染在显示器上的更大的虚拟对象,并可说出单词“放大虚拟对象”。例如,用户可替换地希望将虚拟对象的形状从矩形改变为一不同形状,并可说出单词“将虚拟对象改变为椭圆形”。其他类似命令也是可预见的并且是可行的,且落在本公开的范围之内。如果处理器识别出由用户说出的音频命令(即,确定框3307=“是”),则在框3308中,处理器可跟踪视频数据达预定时期以寻找姿势。可利用姿势命令来确认第一音频命令。例如,用户可正在说话并且可能只是在向第二用户所说的句子中不经意地提及了“放大”和“虚拟对象”,这可能被话筒接收到并传达给处理器。此后,不是盲目地执行该命令,而是可等待检测到的姿势形式的确认。例如,用户可指向一方向或者用户可用拇指和食指作圈并且其余手指向外伸出来给出“OK”手势。此第二命令将确认该第一命令。在确定框3309中,处理器可确定是否识别出确认音频命令的姿势。如果处理器识别出一姿势是确认该音频命令的(即,确认框3309=“是”),则处理器可在框3310中执行该任务。
如果处理器没有识别出由用户说出的音频命令(即,确定框3307=“否”),则处理器可继续接收音频。如果处理器没有识别出有一姿势是确认音频命令的(即,确定框3309=“否”),则处理器可继续接收和分析音频数据。例如,如果用户可能正在说话并且可能只是在向第二用户说出的句子里不经意地提到了“放大”和“虚拟对象”。然而,如果没有检测到有检测到的姿势(指点、OK手势、向外伸出的手)形式的确认,则处理器将不会执行第一命令并且可只是简单地继续监视音频以寻找更多的新命令。许多姿势可提供确认并且不限于本文中所公开的任何内容。而且,可由处理器接受并处理口头命令(例如,经由语音识别)和通过用户按钮按压(例如,在键盘上)输入的命令。例如,可接受口头命令以确认或表达与姿势命令相同的信息,藉此使头戴式设备和系统能更准确地解读用户的意图。
图34解说其中姿势命令可被处理并使用检测到的音频命令来确认的实施例方法3400,这可以是与以上所公开的不同的操作次序。方法3400可在具有用处理器可执行指令配置成执行方法3400的操作的处理器的计算设备中实现。在方法3400中,在框3401中,处理器可通过从头戴式设备接收数据来着手进行操作,该头戴式设备包括提供关于取向的数据的传感器。在框3402中,处理器可从相机接收关于图像的数据。
在框3403中,处理器可计算图像内的各物体的距离和取向。在框3404中,处理器可使用来自取向传感器的数据、相机数据、以及距离数据来处理图像。在框3405中,处理器可渲染带有虚拟对象的该图像并且在框3406中处理器可控制相机以跟踪用户的运动。
在确定框3407中,可得出关于是否识别出姿势命令的决定,例如通过识别包括以下一个或多个选定姿势:指点、拍手、打响指、通过将拇指与手指连起来作出“OK手势”。这可使用可应用于所跟踪的视频数据的解剖模型来执行。如果检测到姿势(即,确定框3407=“是”),则处理器可在框3408中跟踪音频数据一时段以寻找命令来确认所检测到的姿势命令。
在确定框3409中,可得出关于是否识别出音频命令作为对姿势命令的确认的决定。如果接收到确认(即,确定框3409=“是”),则处理器可在框3410中执行该任务。
如果没有识别出姿势(即,确定框3407=“否”)(这可在姿势是不经意被检测到时发生),则处理器可继续跟踪捕捉到的视频图像以寻找新的姿势命令。而且,如果没有识别出音频确认(即,确认框3409=“否”),则处理器可继续接收视频并跟踪该视频,并忽略该姿势命令,因为没有检测到确认。而且,如以上所提及的,口头命令和由用户按钮按压输入的命令可单独地或与姿势命令协同地被处理器接受并处理,以使得头戴式设备和系统能更准确地解读用户的意图。
图35解说其中可处理和识别姿势命令的实施例方法3500。响应于姿势命令,处理器可在虚拟对象上渲染“虚拟输入设备”,以使得用户可利用该虚拟输入设备来操纵该虚拟对象。该虚拟输入设备可以是所生成的可通过跟踪用户的运动来控制的虚拟对象。例如,该虚拟对象可以是虚拟指针、或图标或任何其他被用户选择的可控虚拟对象。
方法3500可在具有用处理器可执行指令配置成执行方法3500的操作的处理器的计算设备中实现。例如,该输入设备可以是虚拟现实指针对象。该指针可在从姿势/跟踪相机和连接到锚表面的虚拟对象测量到的视线上自动生成。在方法3500中,在框3501中,处理器可通过从头戴式设备接收数据来着手进行操作,该头戴式设备包括提供关于取向的数据的传感器。在框3502中,处理器可从相机接收关于立体图像的捕捉到的图像数据。
在框3503中,处理器可计算图像内的各物体的距离和取向。在框3504中,处理器可使用来自取向传感器的数据、相机数据、以及距离数据来处理图像。在框3505中,处理器可渲染带有虚拟对象的该图像并且在框3506中处理器可控制相机以跟踪用户的运动。
在确定框3507中,处理器可确定是否识别出姿势命令,诸如通过对所跟踪的图像应用解剖识别算法。处理器可在该图像内识别出一个或多个选定姿势,包括指点、拍手、打响指、通过将拇指与手指连起来作出“OK手势”等。如果处理器识别出姿势(即,确定框3507=“是”),则在框3508中处理器可得到要执行虚拟指针任务的指示。
该指针可以是“输入设备相关虚拟对象”(鼠标图标、激光笔虚拟对象、箭头输入设备),其以三维显示在显示器上并且摆放在虚拟对象上且可允许用户将文本设为高亮、选择、作出输入命令并向头戴式设备的处理器提供输入。在确定框3508,可得出关于是否要执行指针任务的决定。如果处理器决定要执行指针任务(即,确定框3508=“是”),则在框3509中处理器可执行该任务并且可从多个不同的虚拟输入设备中选择指针类型。在框3510上,可计算从头戴式或身佩式相机到用户的手指以及到虚拟对象的矢量。该矢量可被用来在框3511中在虚拟对象上渲染指针。在框3512中,虚拟对象和虚拟输入设备的显示可被更新。
如果处理器没有识别出姿势(即,确定框3507=“否”),则处理器可继续处理视频图像以识别预定姿势。而且,如果处理器决定不要执行指针任务(即,确定框3508=“否”),则处理器可继续跟踪视频并忽略姿势命令,因为没有任务将被执行。
图36解说其中可识别和处理姿势命令并且可在虚拟对象上渲染三维虚拟现实类型的输入设备以提供输入命令的实施例方法3600。另外,处理器可识别个人的特征,在这些特征/身体部位遮蔽虚拟对象时这些特征可被渲染为透明的。方法3600可在具有用处理器可执行指令配置成执行方法3600的操作的处理器的计算设备中实现。例如,输入设备可以是虚拟现实指针对象,其仅显示在头戴式显示器上。该对象可被显示在显示器上,并且可在视线上或在可从姿势/跟踪相机至连接在锚表面上的虚拟对象来测量的矢量上生成。例如,可形成从相机/或用户的手指到显示器上的虚拟对象的矢量。该虚拟指针对象可被摆放并显示为连接到该矢量。用户可藉由一个或多个检测到的姿势、音频命令、藉由输入设备、或藉由另一输入命令来控制虚拟指针对象。在方法3600中,在框3601中处理器可通过从相机接收关于立体图像的数据来着手进行操作。
在框3602中,处理器可计算图像内的各物体的距离和取向。在框3603中,处理器可使用来自取向传感器的数据、相机数据、以及距离数据来处理该图像。在框3604中,处理器可渲染带有虚拟对象的该图像。在框3605中,处理器可提供控制相机的指令以通过对所跟踪到的图像应用解剖算法以检测身体部位来跟踪用户的运动,并可在预定的时间区间上跟踪该身体部位。
在确定框3606处,处理器可决定是否识别出姿势命令,这可发生在当在姿势字典中的一个或多个姿势与跟踪到的图像内的形状和运动之间有匹配之时,处理器可将检测到的姿势与输入命令相关以执行软件应用、或采取某个预定义的行动。如果处理器识别出姿势命令(即,确定框3606=“是”),则在框3607中处理器可执行指针任务。
该指针可以是显示在头戴式显示器上的虚拟输入设备(鼠标图标、激光笔虚拟对象)。可将该虚拟输入设备与虚拟对象相关联,这可允许用户将文本设为高亮,选择超链接,编制输入命令,以及形成相对于虚拟对象的输入。例如,虚拟输入设备可以是显示在头戴式显示器上的三维虚拟现实箭头。在此类实施例中,该箭头可在该显示器上响应于用户姿势在自由空间中可移动。例如,响应于用于将手移向左边,该系统可在头戴式显示器上渲染该箭头移向左边的图像。作为另一示例,用户可输入命令并且该箭头可解说该命令得到执行。例如,用户可在该箭头毗邻于虚拟对象上的文本时说出单词“选择”,并且该箭头可指示该文本被选中。
在确定框3607中,处理器可决定是否要执行指针任务以及是否要从数个预定义的替换物(例如,箭头、指针设备、或各种虚拟图标)中选择虚拟输入设备对象。若是如此(即,确定框3607=“是”),则在框3608中处理器可执行该任务并且可从存储在存储器中的一批不同指针类型中选择虚拟输入设备。在框3609中,可计算从相机到用户的手以及到虚拟对象的矢量。该虚拟输入设备可被渲染并直接摆放在演算出的矢量上,并且可以通过跟踪用户的手的运动而在显示器上可移动,以提供虚拟或扩增现实体验。在框3610中,可使用该虚拟现实输入设备/指针来移动、选择、放大或高亮显示该显示器上的虚拟对象的一部分。
在框3611中,任选地,用户的特征可能与虚拟对象发生接触并且可能遮蔽了虚拟对象。例如,用户的手可能掠过虚拟对象之上并且可能从用户的视点来看遮蔽或遮挡了虚拟对象被观看,这可能是不可取的。处理器可将虚拟对象叠加在用户的身体部位上,以使得该虚拟对象可保持对用户可见,即使该用户的身体部位应当正遮挡着显示器上的该虚拟对象。以此方式,身体部位可被渲染为仿佛透明的,而仅是该身体部位的轮廓被示出。在框3612中,矢量可被用来在虚拟对象上渲染指针。在框3613中,该虚拟输入设备可被更新。在框3614中,该虚拟输入设备可随该虚拟对象一起被显示。
如果没有识别出姿势命令(即,确认框3606=“否”),处理器可继续跟踪视频以确定处理器是否识别出姿势。而且,如果处理器决定不要执行或使用指针(即,确定框3607=“否”),则处理器可继续跟踪视频并将不生成和显示虚拟输入设备。
图37解说包括在头戴式显示器3704上可见的虚拟对象现实输入设备或虚拟指针3706的系统3700的高级解说、以及虚拟对象14的高级图示。头戴式显示器3704可包括处理器以及含天线(未示出)的无线通信设备。如以上参考图5A所讨论的,头戴式设备3704可包括核心处理器,其可包括用于执行应用的协处理器,有时称为应用处理器。
头戴式设备3704还可包括与重要设备能力相关联的多个对等处理器,这些能力包括通信(例如,无线调制解调器处理器)、导航(例如,GPS接收机处理器)、以及图形(例如,图形处理器单元(GPU))。头戴式设备3704还可包括蜂窝收发机或调制解调器(未示出),其在许多情形中包括主要任务是管理无线通信的一个或多个处理器。头戴式设备3704还可包括用于在其他类型的无线通信网络上通信的其他无线收发机,诸如可以是单独的收发机芯片的Wi-Fi调制解调器(未示出),在此情形中其还可包括单独的可编程处理器。具有嵌入式可编程处理器的其他无线收发机(未示出)可被包括以连接到其他类型的无线通信链路,诸如近场通信(NFC)链路、链路、以及基于其他无线协议的链路。
除了通信处理器以外,头戴式设备3704还可包括GPS接收机(未示出),其可具有专用处理器。而且,图形处理器可被包括以提供高分辨率图形。头戴式设备3704还可包括与有线通信相关联的处理器,诸如USB端口。如以上参考图5A所描述的,头戴式显示器3701可包括RGB-D相机系统,其本身可将RGB相机3704a与红外相机3704b以及结构化红外光红外发射器3704c相组合。
处理器测量可从头戴式或身佩式相机3701至用户的手指3705以及从手指3705至虚拟对象14捕捉的矢量。使用该矢量,输入设备虚拟对象3706可被生成并可被摆放在该矢量上。该虚拟输入设备3706可被生成,且该虚拟输入设备3706的取向可被计算。该虚拟输入设备3706可被生成为连接到锚表面3703,该锚表面可以是虚拟对象14所连接之处。在此实施例中,虚拟对象14可被渲染以显示为非常大的大小,例如,如显示在头戴式显示器上的建筑物的大小。使用虚拟输入设备3706的用户可选择虚拟对象或随其虚拟对象14显示的内容的文本或部分。
图38解说第一和第二头戴式设备系统3800和3800a的高级图示,其解说第二头戴式设备如何可提供可供第一头戴式设备实现的定点坐标和姿势控制。主头戴式设备系统3800可包括第一头戴式或身佩式相机阵列3801以及能以基于对等的布局来操作的第一处理器3804。第一处理器3804可以能作为宿主处理器来操作并且第二处理器3805可作为副系统来操作。第二头戴式设备系统3800a可充当从主系统3800接收所生成的图像以供显示的系统。第二头戴式设备系统3800a可包括头戴式或身佩式相机阵列3802和第二处理器3805。还可设有显示器系统3803供用户观看三维图像。头戴式或身佩式相机阵列3801可将图像和距离数据提供给第一处理器3804,第一处理器生成图像数据并将其提供给显示器系统3803。主处理器3804可将该图像提供给第二处理器3805,并且第二头戴式设备可向主处理器3804提供点坐标和姿势控制。图像和距离数据被提供给处理器3804和3805,藉此主处理器生成虚拟对象并在显示器系统3803上显示该图像,并且还将该图像传达给第二处理器3805以供显示。第二处理器3805可检测用户姿势作为用户输入,诸如指向用作锚表面的位置,或移动对象及控制命令,并将这些点和姿势控制提供给第一处理器,在那里这些输入可得到处理。
图39解说在云配置中操作的系统3900,其中点和姿势控制和图像数据信息可被存储在云服务器3906上并由其(例如,在多播中)中继到其他各方。此系统使得能够将虚拟对象和显示数据无线地传达给正在进行协作的头戴式显示器系统3900a和3900b。系统3900还使得其他计算设备(包括其他头戴式设备)能监视在正在进行协作的头戴式显示器系统3900a和3900b之间发生的数据交换。以此方式,此协作可被更广泛的观众所观看。
系统3900可包括能在中央服务器3906上操作的中央处理器。第一头戴式设备3900a可包括头戴式或身佩式相机3902和第一处理器3903。第二头戴式设备3900b可包括头戴式或身佩式相机3904和第二处理器3905。还可设有显示器系统3901。可从服务器3906向显示器系统3901提供图像。还可将图像提供给第一处理器3903。第一处理器3903向服务器3906传送数据,包括姿势、点坐标、距离数据、图像数据、取向数据、以及感测到的参数。还可将图像提供给第二处理器3905。第二处理器3905也可向服务器3906提供数据,包括姿势、点坐标、距离数据、图像数据、取向数据、以及感测到的参数。能在中央服务器3906上操作的中央处理器可向头戴式设备提供服务以减轻第一和第二处理器3903和3905上用于渲染虚拟指针对象和虚拟对象的计算处理。
例如,第一用户系统3900a可用红外光扫描一区域,并可测量反射的红外光到闸选机构的渡越时间。可利用此方式来确定预定区域中各物体的形状,并且还可利用此方式来确定各物体的距离参数。第一用户系统3900a可向服务器3906无线地传达距离参数。云服务器3906可利用扫描数据来生成包括虚拟对象的图像。可在图像中生成虚拟对象并将其与预定区域的扫描数据一起无线地传达给显示器系统3901和第二头戴式设备3900b。
回到图37,可由头戴式设备跟踪的姿势的一示例是指示或选择虚拟对象的指点姿势。例如,用户可用手指3705指向虚拟对象14,并且头戴式显示器的相机系统可确定从头戴式或身佩式相机3708到用户的手指3705以及从手指3705到虚拟对象14的矢量。使用此矢量,处理器可生成输入设备虚拟对象。
例如,可以确定虚拟对象14的取向以用于在头戴式显示器上显示。虚拟输入设备对象14可被连接到锚表面3704并可连接到虚拟对象14以使得用户可控制虚拟输入设备对象14。在渲染在头戴式显示器上的图像内,虚拟对象14可被锚定在锚表面3703上。在此实施例中,虚拟对象14可被渲染以供显示,并且使用虚拟对象输入设备,用户可选择虚拟对象14的文本或部分,这些文本或部分是用利用姿势跟踪相机3708所跟踪的视频以及捕捉到的姿势来识别的。在此实施例中,虚拟输入设备对象14可被显示为在用户周围的、或用户能围绕其行走的可移动三维对象。虚拟对象14可在所显示的图像中被渲染为非常大的虚拟对象,诸如是建筑物的大小。用户可利用虚拟输入设备在所显示的图像中的非常大的虚拟对象14上指定空间中的位置。
图40A–40B解说另一实施例,其中图1中示出的头戴式显示器设备10可用微微型投影仪4005来替换或补充,该微微型投影仪4005可被无线地连接到移动智能电话4010并可在一表面上生成投影图像,其中可以利用用户的姿势来提供输入命令。在此实施例中,用户不佩戴任何头戴式装置,并且仅可在横向或纵向表面上观看投影图像。可将手持式投影仪4005(亦称为口袋投影仪4005、移动投影仪或微微型投影仪)与手持式设备4010联用以输出如图40A和40B中所示的虚拟对象14a。手持式投影仪4005可包括小型化的硬件和软件,其能将数字图像14a投影到任何近旁的观看表面16上,诸如图1中所示的墙壁16或是图40B中所示的桌面16a。
微微型投影仪4005可包括电池4015、电子主板4005、二极管激光器、激光器或其他光源4030、组合器光学元件4035、以及扫描镜4040。手持式投影仪4005中的组件的各种配置均是可能的并且在本公开的范围之内。处理器4020可被耦合到主板4020。处理器4020可控制激光器二极管4030以及投影仪在由处理器4020利用镜和光学器件4040和4035来控制的地方输出图像。
转到图40A,微微型投影仪4005可包括投影仪元件4006、输入传感器4007、连接器4008、以及用于连接到移动设备4010或其他计算设备的无线接口4009。输入感测微微型投影仪可以用模块化方式连接到相同类型的其他单元。该投影仪可为用户之间的实时本地数字协作而创建渲染为虚拟对象14a和14b的多个位置知悉式共享投影显示。微微型投影仪4005可捕捉第一用户的图像并对捕捉到的图像应用解剖算法。处理器可检测第一用户并将第一虚拟对象14a投影在对第一用户而言处于便利位置的桌面表面16上。使用对等或其他RF无线通信链路、或使用捕捉到的图像数据的微微型投影仪4005可检测到第二用户已加入该协作。微微型投影仪4005可基于捕捉到的图像数据来输出为第二用户正确取向的第二虚拟对象14b。
每个投影仪4005可经由高速无线数据链路(例如,4G、Wi-Fi或)连接至移动计算设备4010(或其他计算设备)和/或经由对等通信协议来链接。每个投影仪4005还可经由有线数据链路来链接到移动计算设备4010(或其他计算设备)。移动计算设备4010可为微微型投影仪4005充当处理单元和数据存储设备,并可生成投影图像并将该图像传达给微微型投影仪4005。微微型投影仪4005可替换地物理连接到其他微微型投影仪,诸如经由每个投影仪4005的外壳上策略地定位的连接器4008来连接。例如,两个微微型投影仪4005可经由各自的连接器4008来连接。当两个微微型投影仪4005彼此连接时,这些连接器4008可为每个微微型投影仪4005提供参考数据点。微微型投影仪4005可在表面16a上显示投影图像,该表面16a可距参考数据点有预定距离。
每个投影仪4005的外壳上的连接4008既可提供物理支持又可包括用于各投影仪4005之间的高速数据链路的电路,以桥接每个投影仪的无线地连接的移动计算设备4010之间的通信。该连接器4008和电路可支持USB、、或本领域中所知的任何其他高速连接器4008。
另外,这些连接可向软件提供关于每个投影仪相对于经由图40A中所示的连接器4008连接的其他投影仪的物理取向的参考数据点。这些连接器4008可用来提供接口软件和跨各投影仪4005转移数字资产的能力。投影仪4005可输出虚拟对象14a作为在表面上的投影。投影仪4005还可使用捕捉到的图像数据来感测图像中的各物体以用于跟踪以及用于姿势识别。投影图像14a可以是虚拟触摸屏14a并且还可包括虚拟对象上的虚拟输入设备。与投影图像相关联的姿势可被检测,并且处理器可基于检测到的姿势来编制输入命令。此姿势识别功能性可提供用户可能正在控制虚拟输入设备的仿真表观。
图40B解说微微型投影仪4005渲染第一虚拟对象14a和第二虚拟对象14b。在一实施例中,单个微微型投影仪4005可为每个用户投影至少两个不同的图像。在另一实施例中,可将微微型投影仪4005与第二微微型投影仪配对,此配对完成了这两个投影仪之间的电子连接。这两个不同的微微型投影仪4005可与移动计算设备4010或其他可用计算设备无线地连接,并且各自可输出两个不同的图像,每个用户一个图像。链接到移动计算设备4010的投影仪4005可使用每个移动计算设备4010的处理器来渲染虚拟对象14a和14b。移动计算设备4010的处理器、以及图像传感器可检测与每个用户相关联的参数来渲染虚拟对象14a和14b,并为每个用户确定虚拟对象14a和14b的正确取向。
输入传感器4007可将图像转换成电子信号。该电子信号可驱动光源以沿不同光学路径具有不同颜色和强度。在组合器光学器件4035中,这些不同的光路可被组合成展示数种颜色的一条路径。各个镜4040逐像素地反射图像并投影图像。手持式投影仪4005可投影清楚的图像,而无论观看表面16的物理特性如何。例如,虚拟对象14a的投影图像可以是“虚拟对象输入设备”,诸如对于文字处理应用而言是键盘。可检测对应于在虚拟对象14a–14c上的输入设备位置的用户姿势并将其识别为一个或多个输入命令。
在所解说的实施例中,图像可在图40B中所示的表面16a上投影虚拟对象14a,并且用户可将虚拟对象14a锚定在物理表面16a上。随着用户移动,基于传感器4007的输出,虚拟对象14a可在形状、取向和大小上发生改变以保持锚定于物理表面16a。例如,用户可被传感器4007检测为相对于投影仪4005正在向后或向前、或者向左或向右移动。输入传感器4007可传达由用户作出的位置改变,并且处理器4020可控制投影图像变得更大或更小,或将投影图像移到与用户的新位置相关联的舒适的观看位置。例如,可将投影图像从横向表面移到纵向表面以跟随用户。
移动计算设备4010(诸如智能电话)可被配置成支持投影仪4005的姿势用户界面功能性,该投影仪将计算机生成的图像(诸如演示幻灯片、文本文档或照片)投影到投影表面16上。耦合到移动计算设备4010的相机(图像传感器)4007(图40A)可被定位成使其视野涵盖所显示图像的至少一部分。在另一实施例中,用户还可使用激光笔来将激光斑点投放到所显示的图像上,该激光斑点可由相机4007检测。
相机4007可获得激光斑点以及至少一部分所显示图像的数字图像,并将该相机图像提供给移动计算设备4010的处理器4020,其中该激光斑点的位置在该图像内。移动计算设备4010处理器4020可被配置成具有软件指令来分析由相机4007生成的图像(在本文中称为“收到相机图像”)以识别正被投影到投影表面16上的显示内容的至少一部分,并确定激光斑点相对于该内容的位置。由于激光笔以特定波长发射很亮的光束,因此激光斑点能基于强度和/或色彩元素容易地被处理器4020识别并与投影图像区别开来。相机4007可被进一步配置成跟踪激光斑点的移动并将该移动与预定义的激光姿势相关。当激光姿势被识别出来时,处理器4020可执行对应的功能。
图40C是投影仪基于一个或多个检测到的用户来输出多个不同的投影图像的高级图示。图40C解说使用移动通信设备处理器4010(图40A)从跟踪到的已加入协作的更多用户的图像来检测姿势的投影仪4005。响应于检测到新用户,处理器可以用模块化方式渲染正确地取向到第三用户的第三虚拟对象14c。类似地,如果又一用户加入并被检测到,则处理器可以用模块化方式渲染第四虚拟对象(未示出),其中至少两个投影图像可渲染相同内容和图像。进一步,第三或第四用户可使用移动计算设备4010来改变投影图像14a、14b和14c的显示。例如,用户可关闭第三对象14c并打开具有不同内容的新对象。
使用投影仪4005,就可通过提供高度可迁移的大型输入和显示环境来增强移动用户体验。可通过使用各移动设备4010来以自组织(ad hoc)方式为多个用户建立数字协作式环境。各投影仪4005上的物理连接器4008可提供各投影仪之间的相对位置知悉。此位置数据可以高准确度来提供。这允许用户能使用多个投影虚拟对象14a–14c来容易地创建协作式数据演示及操纵。
图40D解说用于基于检测到的物体/姿势来以便利方式为用户投影图像的实施例方法4045。方法4045可在具有用处理器可执行指令配置成执行方法4045的操作的处理器的计算设备中实现。在方法4045中,处理器可在框4046和4047中捕捉用户的图像并可用传感器阵列捕捉空间数据。在框4048中,处理器可识别图像中的各物体并确定距该图像中各物体的距离。在框4049中,处理器可跟踪该图像中的各物体并可应用解剖分析来确定该图像内是否有身体部位。
例如,处理器可对捕捉到的图像应用解剖分析来确定捕捉到的图像是否包括头和肩、躯干、和手臂等、或是将指示用户或指示用户正在看着的方向的任何其他身体部位。如果检测到了身体部位,则处理器可确定所检测到的身体部位随时间推移是否符合存储在存储器中(例如,存储在姿势字典中)的姿势,并可在识别出姿势的情况下应用命令。在一实施例中,微微型投影仪可在特定位置投影图像以使得用户能便利地看到投影图像并与投影图像交互。例如,如果确定了头和肩在图像中,则微微型投影仪可将图像投影在便利地靠近该用户的墙壁上或桌面上。
在一进一步的实施例中,用户可在单手或双手或手腕上应用或佩戴上手套、戒指、手镯、以及其他被着色成或具备能被距离传感器和相机中的一者或其两者识别的反射性特征的物品,以协助区别用户的手和手指并识别运动姿势。例如,用户可佩戴在每个手指上显现不同颜色的手套,并且头戴式设备可被配置成基于场景图像的像素内每个手指颜色各自的红-绿-蓝强度值来识别每个手指颜色。
在框4050和4051中,处理器分别从第一和第二微微型投影仪接收第一和第二信号以在这些微微型投影仪与处理器之间进行链接和传达数据。例如,微微型投影仪可与移动通信设备链接以使得与移动通信设备存储器相关联的存储器的数据内容可被访问和显示或共享。在确定框4052中,处理器决定是否要基于检测到的身体部位来从微微型投影仪投影图像。若是如此(即,确定框4052=“是”),则处理器可在框4053在对用户而言便利的表面处利用投影图像来显示内容。在框4054中,处理器可经由微微型投影仪之间的无线数据链路在用户之间共享数据。例如,图像文件、文字处理文件、电子邮件或任何其他数据可作为投影图像来被共享或显示。如果处理器决定不要基于检测到的身体部位来投影图像(即,确定框4052=“否”),则处理器可在框4055和4056中显示要投影图像的提示并以便利的方式投影该图像。例如,微微型投影仪可暂缓投影这些投影,直至接收到输入并且用户可手动地检测投影图像。投影图像可包括虚拟对象,并且头戴式设备可被配置成识别与投影的虚拟对象图像交互或相关的用户手势作为用户输入。在此类实施例中,处理器可应用与识别出的手势相对应的命令,该手势是在利用投影的虚拟输入设备时作出的。
例如,可显示能够用跟踪到的用户的手的运动来移动的虚拟鼠标或虚拟指针。另外,使用检测到的姿势,处理器可将投影图像正确地取向在纵向或横向表面上。以此方式,可基于检测到的身体部位将投影图像投影成正面朝上。例如,可以用背对背配置将第一微微型投影仪连接到第二投影仪,并且这些投影仪可投影至少两个不同的投影图像,其中这些投影图像相对于彼此分隔至少一百八十度。在又一实施例中,处理器可定义参考点并基于该参考点来确定第一和第二投影仪各自的取向。处理器可基于参考点以及第一和第二投影仪的取向来为各用户对投影图像进行取向。
在又一实施例中,处理器可检测第三用户并且基于检测到的身体部位来至少投影第三投影图像。而且,处理器可从与第三用户相关联的第三计算设备接收数据以用于协作。在另一实施例中,可设置第四微微型投影仪以及至少第四不同的投影图像。
各种实施例可包括从耦合到计算设备的第一和第二微微型投影仪投影图像的方法,这些方法通过如下动作实现:捕捉在该第一和第二投影仪附近的场景的图像,用传感器阵列捕捉在该第一和第二投影仪附近的空间数据,分析捕捉到的场景图像以识别身体部位,以及从该第一和第二投影仪中的每一者以基于所识别出的身体部位决定的形状和取向来投影图像。在一实施例中,该第一和第二投影仪可以是微微型投影仪。在一进一步的实施例中,从该第一和第二投影仪中的每一者以基于所识别出的身体部位决定的形状和取向来投影图像可包括在这些投影仪附近的用户前面的表面上投影图像。
在一进一步的实施例中,该方法可包括将所投影的图像取向在对于在这些投影仪附近的用户而言恰适的纵向或横向表面上。在一进一步的实施例中,该方法可包括跟踪所识别出的身体部位的运动,对所跟踪到的运动应用检测算法以检测预定姿势,应用与所检测到的预定姿势相对应的命令,以及响应于所应用的命令来修改所投影的图像。在一进一步的实施例中,分析捕捉到的图像以识别身体部位可包括向这些图像应用解剖分析以确定在所捕捉到的图像内的物体是否匹配于解剖模型的一部分。
在一进一步的实施例中,所投影的图像可以是虚拟输入设备的图像,并且应用与所检测到的预定姿势相对应的命令可包括应用与用户输入设备的命令相符的命令。在一进一步的实施例中,应用与所检测到的预定姿势相对应的命令可包括应用与移动虚拟对象相对应的命令,并且响应于所应用的命令来修改所投影的图像可包括响应于检测到该预定姿势将该虚拟对象显示为从第一位置移到第二位置。在一进一步的实施例中,该方法可包括经由在每个投影仪外部的连接器以背对背配置将第一投影仪连接到第二投影仪,其中从该第一和第二投影仪中的每一者以基于所识别出的身体部位决定的形状和取向来投影图像可包括在大致相反的方向上投影至少两个图像。
在一进一步的实施例中,该方法可包括经由在投影仪外部的连接器将第一投影仪连接到第三投影仪,并经由在投影仪外部的连接器将第三投影仪连接到第二投影仪,其中从该第一和第二投影仪中的每一者以基于所识别出的身体部位决定的形状和取向来投影图像可包括投影至少三个所投影的图像,以使得它们分隔大致九十度。
在一进一步的实施例中,该方法可包括经由在投影仪外部的连接器将第一投影仪连接到第三投影仪和第四投影仪,并经由在投影仪外部的连接器将第三和第四投影仪连接到第二投影仪,其中从该第一和第二投影仪中的每一者以基于所识别出的身体部位决定的形状和取向来投影图像可包括投影四个图像,以使得它们分隔大致九十度。
在一进一步的实施例中,该方法可包括定义该场景中的参考点,基于所定义的参考点来确定该第一和第二投影仪中每一者的取向,以及基于所定义的参考点以及该第一和第二投影仪的取向来对所投影的图像进行取向。在一进一步的实施例中,定义该场景中的参考点可包括由连接点来将该第一投影仪连接到该第二投影仪,并将该连接点定义为该参考点。
各种实施例可包括在扩增现实系统中渲染虚拟图像的方法,这些方法是通过如下动作来实现的:用身佩式相机捕捉图像,用身佩式传感器阵列捕捉空间数据,识别所捕捉到的图像内的物体,接收指示所捕捉到的图像中对应于位于该图像中的第一表面的第一锚表面的第一用户输入,计算包括与第一锚表面相对应的相对于该身佩式相机的距离和取向等的参数,显示虚拟对象以使得该虚拟对象显现为锚定于所选的第一锚表面,接收指示捕捉到的图像内与第一锚表面不同的第二锚表面的第二输入,其中该第二锚表面对应于位于该图像中的第二表面并且第一和第二表面是不同的,计算包括与第二锚表面相对应的相对于该身佩式相机的距离和取向等的参数,以及显示该虚拟对象以使得该虚拟对象对用户而言显现为被锚定到所选的第二锚表面并且是从第一锚表面移过来的。
在一实施例中,该方法可包括随着用户转动他/她的头并关于所选第一或第二锚表面移动而持续更新所生成的虚拟对象的显示以使得该虚拟对象显现为锚定于所选第一或第二锚表面。在一进一步的实施例中,显示虚拟对象可包括显示虚拟头戴式显示器。该方法可进一步包括将视频图像输出为就像在头戴式显示器上显现为锚定于所选的第一或第二锚表面那样。在一进一步的实施例中,显示所生成的虚拟对象以使得该虚拟对象对用户而言显现为锚定于所选的第二锚表面并且是从第一锚表面移过来的可包括:将该虚拟对象生成为仿效平面屏幕显示器的矩形形状的虚拟对象,并将所生成的虚拟对象显示在半透明显示器上,其中该虚拟对象叠加在透过该半透明显示器可见的真实世界表面上。
在一进一步的实施例中,第一或第二锚表面可包括房间中的墙壁,并且其中随着用户在该房间中四处移动该虚拟对象保持锚定在该房间中的该墙壁上。在一进一步的实施例中,显示所生成的虚拟对象以使得该虚拟对象显现为锚定于所选的第一或第二锚表面可包括:生成虚拟对象以使其显现为接触第一或第二锚表面并且使得第一和第二锚表面显现为是对所锚定的虚拟对象的刚性支撑点。在一进一步的实施例中,显示所生成的虚拟对象以使得该虚拟对象显现为锚定到所选锚表面可包括:生成虚拟对象以使其显现为与第一或第二锚表面间隔开但悬浮在相对于第一或第二锚表面间隔开的固定位置中。
在一进一步的实施例中,该方法可包括通过捕捉到的空间数据、所生成的虚拟对象和该图像将数据传送到第二头戴式显示器。在一进一步的实施例中,该方法可包括利用话筒从用户接收音频,对接收到的音频应用检测算法以检测预定音频信号,并在检测到预定音频信号时实现预定义的用户输入。在一进一步的实施例中,对接收到的音频应用检测算法以检测预定音频信号可包括对接收到的音频应用检测算法以检测由用户说出的与预定义用户输入相对应的预定音频信号。在一进一步的实施例中,与检测到的预定音频信号相对应的预定义用户输入是以下之一:第一输入、第二输入、或对第一和第二输入之一的确认。
在一进一步的实施例中,该方法可包括用与头戴式显示器搭载和布置在一起的身佩式相机来捕捉图像,并在头戴式显示器上显示虚拟对象。在一进一步的实施例中,身佩式相机和头戴式显示器包括身佩式设备。该方法还可进一步包括在该身佩式设备与第二身佩式设备之间建立无线数据链路,经由该无线数据链路从第二身佩式设备接收音频数据,以及使用接收到的音频数据来向用户输出音频。在一进一步的实施例中,该方法可包括经由该无线数据链路来接收视频数据,以及使用接收到的视频数据在头戴式显示器上输出从第二身佩式设备接收到的视频图像,其中该视频显示了锚定的虚拟对象。
在一进一步的实施例中,经由该无线数据链路接收视频数据可包括接收以下一项或多项:虚拟对象的三维模型数据、锚表面的三维数据、锚定点的三维数据、三维深度数据、以及三维距离数据。在一进一步的实施例中,该方法可包括接收指示虚拟对象的待命位置的第三输入,其中该待命位置不同于第一和第二锚表面,计算包括与该待命位置相对应的相对于该身佩式相机的距离和取向等的参数,以及在该待命位置显示该虚拟对象。在一进一步的实施例中,该待命位置被显示为自由漂浮在显示器上,其中随着用户转动他/她的头并移动,该虚拟对象在该显示器上显现为可移动的且未连接到该图像中的各表面。
在一进一步的实施例中,用身佩式相机捕捉图像可包括由全彩摄像机来捕捉视频数据,并且用身佩式传感器阵列来捕捉空间数据可包括利用距离传感器来捕捉空间数据以确定距该图像中各物体的距离。在一进一步的实施例中,用身佩式传感器阵列来捕捉空间数据可包括使用红外激光器和红外传感器来捕捉该图像中各物体的距离信息。在一进一步的实施例中,该方法可包括基于捕捉到的视频数据和计算出的空间数据来构建三维地图。在一进一步的实施例中,该方法可包括利用身佩式相机来跟踪用户的运动,对跟踪到的用户运动应用检测算法以检测预定姿势,以及在检测到预定姿势时执行与该预定姿势对应的命令。
在一进一步的实施例中,所检测到的预定姿势是从下组中选择的,包括“OK”手势、拳头、打开的手、用一个手指指点、用两个手指指点、用三个或四个手指指点、向外伸出的手、手旋转、挥手、一个或多个手指的移动、身体部位或脚的移动、或其任何组合。在一进一步的实施例中,预定姿势是从姿势字典中检索的。在一进一步的实施例中,姿势字典定义以下一项或多项:用于目标选择或来回切换的戳姿势、轻拍姿势、或叩击姿势,用于引导屏幕对象越过屏幕的推姿势,用于向屏幕对象赋予动量的弹拂姿势,用于旋转屏幕对象的转向姿势,用于缩放操作的抓姿势或拉姿势,用于摇摄操作的双手移动姿势,用于调整屏幕对象大小的将双手分开姿势,以及用于在媒体中水平滚动或穿梭的挥扫姿势。
在一进一步的实施例中,接收指示捕捉到的图像中的第一锚表面的第一输入可包括:检测由用户作出的与将捕捉到的图像内的一表面指定为锚表面的命令相对应的第一预定姿势、并应用该命令,并且接收要在图像中锚定虚拟对象的第二输入可包括:检测由用户作出的与将锚表面移到捕捉到的图像中的另一表面的命令相对应的第二预定姿势、并应用该命令。在一进一步的实施例中,第一和第二检测到的预定姿势中的任一者可包括用户指向捕捉到的图像中的一表面。在一进一步的实施例中,该方法可包括在接收到第一输入之后继续跟踪用户的运动,对跟踪到的运动应用检测算法以检测与确认该第一输入的用户输入对应的第三预定姿势,并响应于第三预定姿势将虚拟对象锚定在所选锚表面上。
各种实施例可包括用于存储空间数据以供在扩增现实系统中使用的方法,这些方法通过如下动作来实现:基于从第一身佩式传感器设备搜集的图像和空间数据来生成关于场景中各表面和物体的位置的数据,基于所生成的数据生成该场景的三维地图,向该场景的三维地图添加地理标识元数据,将该地理标识元数据和三维地图存储在存储器中,以及将该地理标识元数据和三维地图的至少一部分传送给第二身佩式传感器设备。在一实施例中,基于从第一身佩式传感器设备搜集的图像和空间数据生成关于场景中各表面和物体的位置的数据可包括:用身佩式相机捕捉该场景的场景图像,用身佩式传感器阵列捕捉该场景内各物体的空间数据,识别捕捉到的场景图像内的各物体,以及确定从第一身佩式传感器设备到该场景图像内识别出的各物体的距离,并且向该场景的三维地图添加地理标识元数据可包括:将所确定的距离与该场景图像内识别出的各物体相关联。
在一实施例中,该方法可包括确定第二身佩式传感器设备的位置,其中将地理标识元数据和三维地图的至少一部分传送给第二身佩式传感器设备可包括传送该地理标识元数据和三维地图中与第二身佩式传感器设备的位置有关的一部分。在一进一步的实施例中,该方法可包括在第二身佩式传感器设备中接收该地理标识元数据和三维地图的所传送部分,并至少部分地基于该地理标识元数据和三维地图的所接收部分在第二身佩式传感器设备上的显示器上生成虚拟图像。
在一进一步的实施例中,该方法可包括确定第二身佩式传感器设备的位置,基于从第二身佩式传感器设备搜集的图像和空间数据来生成关于该场景中各表面和物体的位置的数据,以及基于由第二身佩式传感器设备生成的数据来细化该地理标识元数据和三维地图。在一进一步的实施例中,向该场景的三维地图添加地理标识元数据可包括用地理标签来对该三维地图作标签。在一进一步的实施例中,基于从第一身佩式传感器设备搜集的图像和空间数据生成关于场景中各表面和物体的位置的数据、基于所生成的数据生成该场景的三维地图、以及向该场景的三维地图添加地理标识元数据是在第一身佩式传感器设备内的处理器中完成的。
在一进一步的实施例中,该方法可包括将由第一身佩式传感器设备搜集的图像和空间数据中继给与第一身佩式传感器设备处于通信中的处理器,其中基于从第一身佩式传感器设备搜集的图像和空间数据生成关于场景中各表面和物体的位置的数据、基于所生成的数据生成该场景的三维地图、以及向该场景的三维地图添加地理标识元数据是在与第一身佩式传感器设备处于通信中的该处理器中完成的。在一进一步的实施例中,该方法可包括经由网络将由第一身佩式传感器设备搜集的图像和空间数据传送给服务器,其中基于从第一身佩式传感器设备搜集的图像和空间数据生成关于场景中各表面和物体的位置的数据、基于所生成的数据生成该场景的三维地图、以及向该场景的三维地图添加地理标识元数据是在该服务器中基于从第一身佩式传感器设备接收到的图像和空间数据来完成的。
在一进一步的实施例中,该方法可包括确定第二身佩式传感器设备的位置,并且从第二身佩式传感器设备向该服务器传送对该地理标识元数据和三维地图的一部分的请求,该请求包括所确定的第二身佩式传感器设备的位置,其中将该地理标识元数据和三维地图的至少一部分传送给第二身佩式传感器设备可包括:从该服务器向第二身佩式传感器设备传送该地理标识元数据和三维地图中与第二身佩式传感器设备的位置有关的一部分。在一进一步的实施例中,生成该场景的三维地图可包括开发该场景内各三维表面的数学表示,并且将地理标识元数据写到该数学表示中。在一进一步的实施例中,将该地理标识元数据和三维地图存储到存储器可包括将该数学表示存储在可由第一和第二身佩式传感器设备访问的服务器上。
在一进一步的实施例中,基于从第一身佩式传感器设备搜集的图像和空间数据生成关于场景中各表面和物体的位置的数据可包括:确定第一身佩式传感器设备的位置,用身佩式相机捕捉该场景的场景图像,用身佩式传感器阵列捕捉该场景内各物体的空间数据,识别捕捉到的场景图像内的各物体,以及确定在该场景图像内识别出的各物体的位置;并且向该场景的三维地图添加地理标识元数据可包括将所确定的位置与在该场景图像内识别出的各物体相关联。在一进一步的实施例中,确定在图像内识别出的各物体的位置可包括确定各物体相对于所确定的第一身佩式传感器设备的位置而言的位置。在一进一步的实施例中,确定在图像内识别出的各物体的位置可包括确定各物体在确定第一身佩式传感器设备的位置时使用的坐标系内的位置。
各个实施例可包括通过捕捉要在其中显示虚拟对象的场景的图像、识别出现在捕捉到的图像中的身体部位、以及基于所识别出的身体部位调整虚拟对象的显示来在扩增现实系统中渲染图像的方法。在一实施例中,调整虚拟对象的显示可包括标识该虚拟对象与识别出的身体部位交叠的部分,以及抑制所标识出的部分以使得所识别出的身体部位显现为遮蔽该虚拟对象的所标识出的部分。在一进一步的实施例中,调整虚拟对象的显示可包括标识该虚拟对象与识别出的身体部位交叠的部分,以及将虚拟对象叠加在此识别出的身体部位上以使得该虚拟对象的所标识出的部分显现为遮蔽所识别出的身体部位。
在一进一步的实施例中,调整所显示的虚拟对象可包括调整该虚拟对象与所识别出的身体部位交叠的所显示部分,以使得该虚拟对象是透过所识别出的身体部位可见的并使得所识别出的身体部位显现为半透明的。在一进一步的实施例中,该方法可包括在身佩式半透明显示器上显示该虚拟对象,该身佩式半透明显示器配置成使得佩戴该身佩式半透明显示器的个人能透过该显示器观看场景。在一进一步的实施例中,捕捉要在其中显示虚拟对象的场景的图像可包括用第一个人所佩戴的身佩式相机来捕捉图像。该方法可进一步包括用第一个人所佩戴的身佩式传感器阵列来捕捉空间数据,识别所捕捉到的图像内的各物体,以及确定距所捕捉到的图像内各识别出的物体的距离。在一进一步的实施例中,该方法可包括在头戴式显示器上显示虚拟对象和捕捉到的图像,以使得该场景对于佩戴身佩式半透明显示器的个人是可见的。
在一进一步的实施例中,识别出现在所捕捉到的图像中的身体部位可包括对所捕捉到的图像应用解剖分析。在一进一步的实施例中,对图像应用解剖分析可包括识别所捕捉到的图像内的各物体,将所识别出的物体与存储在存储器中的骨骼模型作比较,所存储着的骨骼模型包括关于人类骨骼的关键关节、骨和肢的相对位置信息,以及响应于将所识别出的物体与骨骼模型作比较来确定是否有任何识别出的物体匹配于骨骼模型的一部分。在一进一步的实施例中,该方法可包括响应于识别出出现在所捕捉到的图像中的身体部位而确定该身体部位是属于第一个人还是属于第二个人,确定虚拟对象的位置和所包围区域、以及确定所识别出的身体部位是否与被该虚拟对象所包围的区域的至少一部分交叠。
在一进一步的实施例中,确定身体部位是属于第一个人还是第二个人可包括基于所识别出的身体部位的取向来确定该身体部位是属于第一个人还是第二个人。在一进一步的实施例中,确定身体部位是属于第一个人还是第二个人可包括基于所识别出的身体部位距身佩式相机的距离来确定该身体部位是属于第一个人还是第二个人。在一进一步的实施例中,确定身体部位是属于第一个人还是第二个人可包括基于确定在所捕捉到的图像中的身体部位的数目来确定该身体部位是属于第一个人还是第二个人。
在一进一步的实施例中,调整虚拟对象的显示可包括当确定该身体部位属于第二个人时将该虚拟对象显示为叠加在所识别出的第二个人的身体部位之上,并且当确定该身体部位属于第一个人时显示该虚拟对象以使得该虚拟对象看起来位于所识别出的身体部位之下。在一进一步的实施例中,显示虚拟对象以使得该虚拟对象显现为位于所识别出的身体部位之下可包括不渲染该虚拟对象的与所识别出的身体部位交叠的部分。在一进一步的实施例中,该方法可包括显示所识别出的第二个人的身体部位与被虚拟对象包围的显示区域交叠的部分的轮廓,以使得在显示器中该轮廓在虚拟对象之上可见。
各种实施例可包括由各自包括身佩式相机和头戴式显示器的第一和第二身佩式设备在扩增现实系统中渲染图像的方法。该方法可包括用第一身佩式设备的身佩式相机捕捉场景的第一场景图像,在第一身佩式设备的头戴式显示器上显示虚拟对象的第一图像,该第一图像将该虚拟对象显示为以适合于第一身佩式设备的用户的第一取向来锚定于捕捉到的第一场景图像内的第一锚表面,并在第二身佩式设备的头戴式显示器上显示该虚拟对象的第二图像,该第二图像将该虚拟对象显示为以适合于第二身佩式设备的用户的第二取向来锚定于第二锚表面。
在一进一步的实施例中,该方法可包括从第一身佩式设备向第二身佩式设备发送该虚拟对象,在第二身佩式设备中接收该虚拟对象,用第二身佩式设备的身佩式相机捕捉该场景的第二场景图像,以及分析捕捉到的第二场景图像以标识第二场景图像内在接近于第二身佩式设备的用户正看着的方向的方向上的合适锚表面,其中在第二身佩式设备的头戴式显示器上显示第二图像可包括显示第二图像以使得该虚拟对象被锚定于所标识出的合适锚表面。在一实施例中,该方法可包括从第一身佩式设备向第二身佩式设备传送指示虚拟对象的取向的信号,其中显示第二图像可包括显示第二图像以使得该虚拟对象是部分地基于从第一身佩式设备接收的该信号来取向的。
在一进一步的实施例中,该方法可包括从第一身佩式设备向第二身佩式设备传送指示虚拟对象的优选取向的信号,向第二身佩式设备的用户通告所指示的优选取向,以及从第二身佩式设备的用户接收接受或拒绝所指示的优选取向的输入,其中在第二身佩式设备的头戴式显示器上显示虚拟对象的第二图像可包括:显示第二图像以使得当收到的输入接受所指示的优选取向时该虚拟对象是部分地基于所指示的优选取向来取向的并且使得当收到的输入拒绝所指示的优选取向时该虚拟对象以不同于所指示的优选取向的方式来取向。
在一进一步的实施例中,第一锚表面和第二锚表面是相同表面。在一进一步的实施例中,该方法可包括从第一身佩式设备向第二身佩式设备传送虚拟对象,其中在第二身佩式设备的头戴式显示器上显示虚拟对象的第二图像可包括将第二图像显示为以第二取向锚定于第一锚表面。在一进一步的实施例中,第一和第二身佩式设备位于不同位置上,该方法可进一步包括经由网络将该虚拟对象传送至第一和第二身佩式设备中的每一者。
在一进一步的实施例中,该方法可包括用第二身佩式设备的身佩式相机捕捉第二场景图像,并且在第二身佩式设备上接收指示捕捉到的第二场景图像中的第二锚表面的输入,所指示的第二锚表面不同于第一锚表面,其中在第二身佩式设备的头戴式显示器上显示第二图像可包括以适合于所指示的第二锚表面以及第二身佩式设备的用户的配置来将虚拟对象显示为锚定于所指示的第二锚表面。在一进一步的实施例中,该方法可包括从第二身佩式设备向第一身佩式设备传送第二虚拟对象,并且在第一身佩式设备的头戴式显示器上显示第三图像,该第三图像将第二虚拟对象显示为锚定于第一锚表面。
进一步的实施例可包括配置成执行与以上讨论的各种实施例方法和/或操作相对应的各种操作的系统、服务器、和/或计算设备。更进一步的实施例可包括非瞬态处理器可读存储介质,其上存储有处理器可执行指令,用于使处理器执行与以上讨论的各种实施例方法和/或操作相对应的操作。
图41是适于与其中任何实施例联用的接收器设备的系统框图。典型的接收器设备4100可包括耦合到内部存储器4102、显示器4103并耦合到扬声器4154的处理器4101。另外,接收器设备4100可包括可连接到无线数据链路的用于发送和接收电磁辐射的天线4104、和/或耦合到处理器4101的蜂窝电话收发机4105、以及耦合到处理器4101的移动多媒体广播接收机4106。接收器设备4100典型情况下还包括用于接收用户输入的菜单选择按钮或摇杆开关4108。
各种实施例可实现在各种市售的服务器设备中的任何设备上,诸如图42中所解说的服务器4200。此类服务器4200典型地可包括耦合至易失性存储器4202和大容量非易失性存储器(诸如盘驱动器4203)的处理器4201。服务器4200还可包括耦合至处理器4201的软盘驱动器、压缩碟(CD)或DVD碟驱动器4206。服务器4200还可包括耦合到处理器4201以用于与网络4205(诸如耦合到其他广播系统计算机和服务器的局域网络)建立数据连接的网络接入端口4204。
处理器3903、3905、4101、4201可以是能由软件指令(应用)配置以执行包括上述各种实施例的功能在内的各种功能的任何可编程微处理器、微型计算机或一个或多个多处理器芯片。在一些设备中,可提供多个处理器3903、3905、4101,诸如一个处理器专用于无线通信功能并且一个处理器专用于运行其他应用。通常,在软件应用被访问并被加载到处理器4101、4201中之前,这些软件应用可被存储在内部存储器4102、4202、4203中。处理器4101、4201可包括足以存储应用软件指令的内部存储器。在许多设备中,内部存储器可以是易失性或非易失性存储器(诸如闪存.),或这两者的混合。为本描述之故,对存储器的一般性引述是指可由处理器3903、3905、4101、4201访问的存储器,包括插入该设备的内部存储器或可移动存储器、以及在处理器3903、3905、4101、4201本身内部的存储器。
上述方法描述和过程流程图仅作为解说性示例提供,且并非旨在要求或暗示各种实施例的步骤必须按所给出的次序来执行。如本领域技术人员将领会的,前述实施例中的步骤次序可按任何次序来执行。诸如“其后”、“然后”、“接着”等的措辞并非旨在限定步骤的次序;这些措辞仅是简单地用以指引读者遍历方法的描述。进一步地,对单数形式的权利要求元素的任何引述,例如使用冠词“一”、“某”或“该”的引述不应解释为将该元素限定为单数。
结合本文中所公开的实施例来描述的各种解说性逻辑框、模块、电路、和算法步骤可实现为电子硬件、计算机软件、或这两者的组合。为清楚地解说硬件与软件的这一可互换性,各种解说性组件、框、模块、电路、和步骤在上面是以其功能性的形式作一般化描述的。此类功能性是被实现为硬件还是软件取决于具体应用和施加于整体系统的设计约束。技术人员对于每种特定应用可用不同的方式来实现所描述的功能性,但这样的实现决策不应被解读成导致脱离了本发明的范围。
用以实现结合本文中公开的实施例描述的各种解说性逻辑、逻辑框、模块、以及电路的硬件可用通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件、分立的门或晶体管逻辑、分立的硬件组件、或其设计成执行本文中描述的功能的任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,处理器可以是任何常规的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协作的一个或多个微处理器、或任何其他此类配置。替代地,一些步骤或方法可由专用于给定功能的电路系统来执行。
在一个或多个示例性实施例中,所描述的功能可在硬件、软件、固件或其任何组合中实现。如果在软件中实现,则这些功能可作为一条或多条指令或代码存储在非瞬态计算机可读介质上。本文中公开的方法或算法的步骤可实施在可驻留在非瞬态计算机可读介质上的被执行的处理器可执行软件模块中。非瞬态计算机可读介质包括可被计算机访问的任何存储介质。作为示例而非限定,此类非瞬态计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、或者可用以携带或者存储指令或数据结构形式的期望程序代码且可由计算机访问的任何其它介质。如本文所用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘和蓝光碟,其中盘(disk)常常磁性地再现数据,而碟(disc)用激光来光学地再现数据。以上的组合也应被包括在非瞬态计算机可读介质的范围内。另外,方法或算法的操作可作为一条代码和/或指令或者代码和/或指令的任何组合或集合而驻留在可被纳入计算机程序产品中的非瞬态机器可读介质和/或非瞬态计算机可读介质上。
提供所公开的实施例的先前描述是为了使本领域任何技术人员皆能制作或使用本发明。对这些实施例的各种修改对于本领域技术人员将是显而易见的,并且本文中定义的普适原理可被应用于其他实施例而不会脱离本发明的精神或范围。由此,本发明并非旨在限定于本文中示出的实施例,而是应被授予与所附权利要求和本文中公开的原理和新颖性特征一致的最广义的范围。
Claims (64)
1.一种用于在扩增现实系统中渲染图像的方法,包括:
捕捉要在其中显示虚拟对象的场景的图像;
识别出现在捕捉到的图像中的身体部位;以及
基于识别出的身体部位来调整所述虚拟对象的显示。
2.如权利要求1所述的方法,其中调整所述虚拟对象的显示包括:
标识所述虚拟对象的与识别出的身体部位交叠的部分;以及
抑制标识出的部分以使得识别出的身体部位显现为遮蔽所述虚拟对象的标识出的部分。
3.如权利要求1所述的方法,其中调整所述虚拟对象的显示包括:
标识所述虚拟对象的与识别出的身体部位交叠的部分;以及
将所述虚拟对象叠加在所识别出的身体部位上,以使得所述虚拟对象的标识出的部分显现为遮蔽识别出的身体部位。
4.如权利要求1所述的方法,其中调整所显示的虚拟对象包括调整所述虚拟对象与识别出的身体部位交叠的显示部分,以使得所述虚拟对象是透过识别出的身体部位可见的并使得识别出的身体部位显现为半透明的。
5.如权利要求1所述的方法,进一步包括:
在身佩式半透明显示器上显示所述虚拟对象,所述身佩式半透明显示器配置成使得佩戴该身佩式半透明显示器的个人能透过所述显示器观看所述场景。
6.如权利要求1所述的方法,其中捕捉要在其中显示虚拟对象的场景的图像包括用第一个人所佩戴的身佩式相机来捕捉图像,所述方法进一步包括:
用所述第一个人所佩戴的身佩式传感器阵列捕捉空间数据;
识别捕捉到的图像内的物体;以及
确定距捕捉到的图像内的识别出的物体的距离。
7.如权利要求6所述的方法,进一步包括:
在头戴式显示器上显示所述虚拟对象和捕捉到的图像,以使得所述场景对于佩戴所述身佩式半透明显示器的个人是可见的。
8.如权利要求1所述的方法,其中识别出现在捕捉到的图像中的身体部位包括:
对捕捉到的图像应用解剖分析。
9.如权利要求8所述的方法,其中对所述图像应用解剖分析包括:
识别捕捉到的图像内的物体;
将识别出的物体与存储在存储器中的骨骼模型作比较,存储着的骨骼模型包括关于人类骨骼的关键关节、骨、和肢的相对位置信息;以及
响应于将识别出的物体与所述骨骼模型作比较,确定是否有任何识别出的物体匹配于所述骨骼模型的一部分。
10.如权利要求8所述的方法,进一步包括:
响应于识别出出现在捕捉到的图像中的身体部位,确定所述身体部位是属于第一个人还是属于第二个人;
确定所述虚拟对象的位置和包围区域;以及
确定识别出的身体部位是否与所述虚拟对象所包围的所述区域的至少一部分交叠。
11.如权利要求10所述的方法,其中确定所述身体部位是属于第一个人还是属于第二个人包括:
基于识别出的身体部位的取向,确定所述身体部位是属于第一个人还是第二个人。
12.如权利要求10所述的方法,其中确定所述身体部位是属于第一个人还是属于第二个人包括基于识别出的身体部位距所述身佩式相机的距离来确定所述身体部位是属于第一个人还是第二个人。
13.如权利要求10所述的方法,其中确定所述身体部位是属于第一个人还是属于第二个人包括基于确定在捕捉到的图像中的身体部位的数目来确定所述身体部位是属于第一个人还是第二个人。
14.如权利要求10所述的方法,其中调整所述虚拟对象的显示包括:
当确定所述身体部位属于第二个人时,将所述虚拟对象显示为叠加在识别出的所述第二个人的身体部位之上;以及
当确定所述身体部位属于第一个人时,显示所述虚拟对象以使得所述虚拟对象显现为位于识别出的身体部位之下。
15.如权利要求14所述的方法,其中显示所述虚拟对象以使得所述虚拟对象显现为位于识别出的身体部位之下包括不渲染所述虚拟对象的与识别出的身体部位交叠的部分。
16.如权利要求14所述的方法,进一步包括:
显示识别出的第二个人的身体部位与被所述虚拟对象包围的显示区域交叠的部分的轮廓,以使得在所述显示器中该轮廓在所述虚拟对象之上可见。
17.一种计算设备,包括:
存储器;以及
耦合到所述存储器的处理器,其中所述处理器用处理器可执行指令配置成执行包括如下的操作:
捕捉要在其中显示虚拟对象的场景的图像;
识别出现在捕捉到的图像中的身体部位;以及
基于识别出的身体部位来调整所述虚拟对象的显示。
18.如权利要求17所述的计算设备,其中调整所述虚拟对象的显示包括:
标识所述虚拟对象的与识别出的身体部位交叠的部分;以及
抑制标识出的部分以使得识别出的身体部位显现为遮蔽所述虚拟对象的标识出的部分。
19.如权利要求17所述的计算设备,其中所述处理器用处理器可执行指令配置成使得调整所述虚拟对象的显示包括:
标识所述虚拟对象的与识别出的身体部位交叠的部分;以及
将所述虚拟对象叠加在所识别出的身体部位上,以使得所述虚拟对象的标识出的部分显现为遮蔽识别出的身体部位。
20.如权利要求17所述的计算设备,其中所述处理器用处理器可执行指令配置成使得调整所显示的虚拟对象包括调整所述虚拟对象与识别出的身体部位交叠的显示部分,以使得所述虚拟对象是透过识别出的身体部位可见的并使得识别出的身体部位显现为半透明的。
21.如权利要求17所述的计算设备,其中所述处理器用处理器可执行指令配置成执行进一步包括如下的操作:
在身佩式半透明显示器上显示所述虚拟对象,所述身佩式半透明显示器配置成使得佩戴该身佩式半透明显示器的个人能透过所述显示器观看所述场景。
22.如权利要求17所述的计算设备,其中所述处理器用处理器可执行指令配置成使得捕捉要在其中显示虚拟对象的场景的图像包括用第一个人所佩戴的身佩式相机来捕捉图像,并且其中所述处理器用处理器可执行指令配置成执行进一步包括如下的操作:
用所述第一个人所佩戴的身佩式传感器阵列捕捉空间数据;
识别捕捉到的图像内的物体;以及
确定距捕捉到的图像内的识别出的物体的距离。
23.如权利要求22所述的计算设备,其中所述处理器用处理器可执行指令配置成执行进一步包括如下的操作:
在头戴式显示器上显示所述虚拟对象和捕捉到的图像,以使得所述场景对于佩戴所述身佩式半透明显示器的个人是可见的。
24.如权利要求17所述的计算设备,其中所述处理器用处理器可执行指令配置成使得识别出现在捕捉到的图像中的身体部位包括对捕捉到的图像应用解剖分析。
25.如权利要求24所述的计算设备,其中所述处理器用处理器可执行指令配置成对所述图像应用解剖分析包括:
识别捕捉到的图像内的物体;
将识别出的物体与存储在存储器中的骨骼模型作比较,存储着的骨骼模型包括关于人类骨骼的关键关节、骨、和肢的相对位置信息;以及
响应于将识别出的物体与所述骨骼模型作比较,确定是否有任何识别出的物体匹配于所述骨骼模型的一部分。
26.如权利要求25所述的计算设备,其中所述处理器用处理器可执行指令配置成执行进一步包括如下的操作:
响应于识别出出现在捕捉到的图像中的身体部位,确定所述身体部位是属于第一个人还是属于第二个人;
确定所述虚拟对象的位置和包围区域;以及
确定识别出的身体部位是否与所述虚拟对象所包围的所述区域的至少一部分交叠。
27.如权利要求26所述的计算设备,其中所述处理器用处理器可执行指令配置成使得确定所述身体部位是属于第一个人还是属于第二个人包括:
基于识别出的身体部位的取向,确定所述身体部位是属于第一个人还是第二个人。
28.如权利要求26所述的计算设备,其中所述处理器用处理器可执行指令配置成使得确定所述身体部位是属于第一个人还是属于第二个人包括基于识别出的身体部位距所述身佩式相机的距离来确定所述身体部位是属于第一个人还是第二个人。
29.如权利要求26所述的计算设备,其中所述处理器用处理器可执行指令配置成使得确定所述身体部位是属于第一个人还是属于第二个人包括基于确定是在捕捉到的图像中的身体部位的数目来确定所述身体部位是属于第一个人还是第二个人。
30.如权利要求26所述的计算设备,其中所述处理器用处理器可执行指令配置成使得调整所述虚拟对象的显示包括:
当确定所述身体部位属于第二个人时,将所述虚拟对象显示为叠加在识别出的所述第二个人的身体部位之上;以及
当确定所述身体部位属于第一个人时,显示所述虚拟对象以使得所述虚拟对象显现为位于识别出的身体部位之下。
31.如权利要求30所述的计算设备,其中所述处理器用处理器可执行指令配置成使得显示所述虚拟对象以使得所述虚拟对象显现为位于识别出的身体部位之下包括不渲染所述虚拟对象的与识别出的身体部位交叠的部分。
32.如权利要求30所述的计算设备,其中所述处理器用处理器可执行指令配置成执行进一步包括如下的操作:
显示识别出的第二个人的身体部位与被所述虚拟对象包围的显示区域交叠的部分的轮廓,以使得在所述显示器中该轮廓在所述虚拟对象之上可见。
33.一种计算设备,包括:
用于捕捉要在其中显示虚拟对象的场景的图像的装置;
用于识别出现在捕捉到的图像中的身体部位的装置;以及
用于基于识别出的身体部位来调整所述虚拟对象的显示的装置。
34.如权利要求33所述的计算设备,其中用于调整所述虚拟对象的显示的装置包括:
用于标识所述虚拟对象的与识别出的身体部位交叠的部分的装置;以及
用于抑制标识出的部分以使得识别出的身体部位显现为遮蔽所述虚拟对象的标识出的部分的装置。
35.如权利要求33所述的计算设备,其中用于调整所述虚拟对象的显示的装置包括:
用于标识所述虚拟对象的与识别出的身体部位交叠的部分的装置;以及
用于将所述虚拟对象叠加在所识别出的身体部位上以使得所述虚拟对象的标识出的部分显现为遮蔽识别出的身体部位的装置。
36.如权利要求33所述的计算设备,其中用于调整所显示的虚拟对象的装置包括用于调整所述虚拟对象与识别出的身体部位交叠的显示部分以使得所述虚拟对象是透过识别出的身体部位可见的并使得识别出的身体部位显现为半透明的装置。
37.如权利要求33所述的计算设备,进一步包括:
用于在身佩式半透明显示器上显示所述虚拟对象的装置,所述身佩式半透明显示器配置成使得佩戴所述身佩式半透明显示器的个人能透过所述显示器观看所述场景。
38.如权利要求33所述的计算设备,其中用于捕捉要在其中显示虚拟对象的场景的图像的装置包括用于用第一个人所佩戴的身佩式相机来捕捉图像的装置,所述计算设备进一步包括:
用于用所述第一个人所佩戴的身佩式传感器阵列捕捉空间数据的装置;
用于识别捕捉到的图像内的物体的装置;以及
用于确定距捕捉到的图像内的识别出的物体的距离的装置。
39.如权利要求38所述的计算设备,进一步包括:
用于在头戴式显示器上显示所述虚拟对象和捕捉到的图像以使得所述场景对于佩戴所述身佩式半透明显示器的个人是可见的装置。
40.如权利要求33所述的计算设备,其中用于识别出现在捕捉到的图像中的身体部位的装置包括用于对捕捉到的图像应用解剖分析的装置。
41.如权利要求40所述的计算设备,其中用于对所述图像应用解剖分析的装置包括:
用于识别捕捉到的图像内的物体的装置;
用于将识别出的物体与存储在存储器中的骨骼模型作比较的装置,存储着的骨骼模型包括关于人类骨骼的关键关节、骨、和肢的相对位置信息;以及
用于响应于将识别出的物体与所述骨骼模型作比较而确定是否有任何识别出的物体匹配于所述骨骼模型的一部分的装置。
42.如权利要求40所述的计算设备,进一步包括:
用于响应于识别出出现在捕捉到的图像中的身体部位而确定所述身体部位是属于第一个人还是属于第二个人的装置;
用于确定所述虚拟对象的位置和包围区域的装置;以及
用于确定识别出的身体部位是否与所述虚拟对象所包围的所述区域的至少一部分交叠的装置。
43.如权利要求42所述的计算设备,其中用于确定所述身体部位是属于第一个人还是属于第二个人的装置包括:
用于基于识别出的身体部位的取向来确定所述身体部位是属于第一个人还是第二个人的装置。
44.如权利要求42所述的计算设备,其中用于确定所述身体部位是属于第一个人还是属于第二个人的装置包括用于基于识别出的身体部位距所述身佩式相机的距离来确定所述身体部位是属于第一个人还是第二个人的装置。
45.如权利要求42所述的计算设备,其中用于确定所述身体部位是属于第一个人还是属于第二个人的装置包括用于基于确定在捕捉到的图像中的身体部位的数目来确定所述身体部位是属于第一个人还是第二个人的装置。
46.如权利要求42所述的计算设备,其中用于调整所述虚拟对象的显示的装置包括:
用于当确定所述身体部位属于第二个人时将所述虚拟对象显示为叠加在识别出的所述第二个人的身体部位之上的装置;以及
用于当确定所述身体部位属于第一个人时显示所述虚拟对象以使得所述虚拟对象显现为位于识别出的身体部位之下的装置。
47.如权利要求46所述的计算设备,其中用于显示所述虚拟对象以使得所述虚拟对象显现为位于识别出的身体部位之下的装置包括用于不渲染所述虚拟对象的与识别出的身体部位交叠的部分的装置。
48.如权利要求46所述的计算设备,进一步包括:
用于显示识别出的第二个人的身体部位与被所述虚拟对象包围的显示区域交叠的部分的轮廓以使得在所述显示器中所述轮廓在所述虚拟对象之上可见的装置。
49.一种其上存储有处理器可执行软件指令的非瞬态计算机可读存储介质,所述处理器可执行软件指令配置成使处理器执行用于在扩增现实系统中渲染图像的操作,所述操作包括:
捕捉要在其中显示虚拟对象的场景的图像;
识别出现在捕捉到的图像中的身体部位;以及
基于识别出的身体部位来调整所述虚拟对象的显示。
50.如权利要求49所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得调整所述虚拟对象的显示包括:
标识所述虚拟对象的与识别出的身体部位交叠的部分;以及
抑制标识出的部分以使得识别出的身体部位显现为遮挡所述虚拟对象的标识出的部分。
51.如权利要求49所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得调整所述虚拟对象的显示包括:
标识所述虚拟对象的与识别出的身体部位交叠的部分;以及
将所述虚拟对象叠加在所识别出的身体部位上,以使得所述虚拟对象的标识出的部分显现为遮蔽识别出的身体部位。
52.如权利要求49所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得调整所显示的虚拟对象包括:调整所述虚拟对象与识别出的身体部位交叠的显示部分,以使得所述虚拟对象是透过识别出的身体部位可见的并使得识别出的身体部位显现为半透明的。
53.如权利要求49所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行包括如下的操作:
在身佩式半透明显示器上显示所述虚拟对象,所述身佩式半透明显示器配置成使得佩戴该身佩式半透明显示器的个人能透过所述显示器观看所述场景。
54.如权利要求49所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得捕捉要在其中显示虚拟对象的场景的图像包括用第一个人所佩戴的身佩式相机来捕捉图像,并且其中所存储的处理器可执行软件指令配置成使处理器执行包括如下的操作:
用所述第一个人所佩戴的身佩式传感器阵列捕捉空间数据;
识别捕捉到的图像内的物体;以及
确定距捕捉到的图像内的识别出的物体的距离。
55.如权利要求54所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行包括如下的操作:
在头戴式显示器上显示所述虚拟对象和捕捉到的图像,以使得所述场景对于佩戴所述身佩式半透明显示器的个人是可见的。
56.如权利要求49所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得识别出现在捕捉到的图像中的身体部位包括对捕捉到的图像应用解剖分析。
57.如权利要求56所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得对所述图像应用解剖分析包括:
识别捕捉到的图像内的物体;
将识别出的物体与存储在存储器中的骨骼模型作比较,存储着的骨骼模型包括关于人类骨骼的关键关节、骨、和肢的相对位置信息;以及
响应于将识别出的物体与所述骨骼模型作比较,确定是否有任何识别出的物体匹配于所述骨骼模型的一部分。
58.如权利要求56所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行包括如下的操作:
响应于识别出出现在捕捉到的图像中的身体部位,确定所述身体部位是属于第一个人还是属于第二个人;
确定所述虚拟对象的位置和包围区域;以及
确定识别出的身体部位是否与所述虚拟对象所包围的所述区域的至少一部分交叠。
59.如权利要求58所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得确定所述身体部位属于第一个人还是属于第二个人包括:
基于识别出的身体部位的取向,确定所述身体部位是属于第一个人还是第二个人。
60.如权利要求58所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得确定所述身体部位属于第一个人还是属于第二个人包括基于识别出的身体部位距所述身佩式相机的距离来确定所述身体部位是属于第一个人还是第二个人。
61.如权利要求58所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得确定所述身体部位属于第一个人还是属于第二个人包括基于确定在捕捉到的图像中的身体部位的数目来确定所述身体部位是属于第一个人还是第二个人。
62.如权利要求58所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得调整所述虚拟对象的显示包括:
当确定所述身体部位属于第二个人时,将所述虚拟对象显示为叠加在识别出的所述第二个人的身体部位之上;以及
当确定所述身体部位属于第一个人时,显示所述虚拟对象以使得所述虚拟对象显现为位于识别出的身体部位之下。
63.如权利要求62所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行操作以使得显示所述虚拟对象以使得所述虚拟对象显现为位于识别出的身体部位之下包括不渲染所述虚拟对象的与识别出的身体部位交叠的部分。
64.如权利要求62所述的非瞬态计算机可读存储介质,其中所存储的处理器可执行软件指令配置成使处理器执行包括如下的操作:
显示识别出的第二个人的身体部位与被所述虚拟对象包围的显示区域交叠的部分的轮廓,以使得在所述显示器中该轮廓在所述虚拟对象之上可见。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161468937P | 2011-03-29 | 2011-03-29 | |
US61/468,937 | 2011-03-29 | ||
US13/434,488 US9142062B2 (en) | 2011-03-29 | 2012-03-29 | Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking |
US13/434,488 | 2012-03-29 | ||
PCT/US2012/031314 WO2012135553A1 (en) | 2011-03-29 | 2012-03-29 | Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103493106A true CN103493106A (zh) | 2014-01-01 |
CN103493106B CN103493106B (zh) | 2017-11-07 |
Family
ID=46926511
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280016357.8A Active CN103460256B (zh) | 2011-03-29 | 2012-03-29 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
CN201280026127.XA Active CN103562968B (zh) | 2011-03-29 | 2012-03-29 | 用于相对于每个用户的视点来渲染共享数字界面的系统 |
CN2012800162999A Pending CN103460255A (zh) | 2011-03-29 | 2012-03-29 | 用于本地多用户协作的模块化移动连接式微微型投影仪 |
CN201280016317.3A Active CN103493106B (zh) | 2011-03-29 | 2012-03-29 | 使用骨骼跟踪来选择性地将手遮蔽在物理表面上的虚拟投影之上的方法和装置 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280016357.8A Active CN103460256B (zh) | 2011-03-29 | 2012-03-29 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
CN201280026127.XA Active CN103562968B (zh) | 2011-03-29 | 2012-03-29 | 用于相对于每个用户的视点来渲染共享数字界面的系统 |
CN2012800162999A Pending CN103460255A (zh) | 2011-03-29 | 2012-03-29 | 用于本地多用户协作的模块化移动连接式微微型投影仪 |
Country Status (6)
Country | Link |
---|---|
US (5) | US20120249544A1 (zh) |
EP (6) | EP3654147A1 (zh) |
JP (5) | JP5960796B2 (zh) |
KR (5) | KR20130136566A (zh) |
CN (4) | CN103460256B (zh) |
WO (5) | WO2012135553A1 (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
CN105120058A (zh) * | 2015-07-02 | 2015-12-02 | 上海闻泰电子科技有限公司 | 基于光感的手机手势识别系统 |
US20160026242A1 (en) | 2014-07-25 | 2016-01-28 | Aaron Burns | Gaze-based object placement within a virtual reality environment |
CN105912102A (zh) * | 2016-03-31 | 2016-08-31 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN106575155A (zh) * | 2014-07-25 | 2017-04-19 | 微软技术许可有限责任公司 | 沉浸在虚拟现实环境中时的防绊倒 |
CN107430437A (zh) * | 2015-02-13 | 2017-12-01 | 厉动公司 | 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法 |
CN107430685A (zh) * | 2015-03-31 | 2017-12-01 | 谷歌公司 | 通过测量人的身体部位的距离来识别人的方法和设备 |
CN108027656A (zh) * | 2015-09-28 | 2018-05-11 | 日本电气株式会社 | 输入设备、输入方法和程序 |
CN108615261A (zh) * | 2018-04-20 | 2018-10-02 | 深圳市天轨年华文化科技有限公司 | 增强现实中图像的处理方法、处理装置及存储介质 |
CN109716397A (zh) * | 2016-09-14 | 2019-05-03 | 株式会社万代南梦宫娱乐 | 模拟系统、处理方法以及信息存储介质 |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US10649212B2 (en) | 2014-07-25 | 2020-05-12 | Microsoft Technology Licensing Llc | Ground plane adjustment in a virtual reality environment |
CN111226188A (zh) * | 2017-10-05 | 2020-06-02 | 微软技术许可有限责任公司 | 使用追踪矢量的眼睛凝视跟踪校正 |
CN111448568A (zh) * | 2017-09-29 | 2020-07-24 | 苹果公司 | 基于环境的应用演示 |
CN111522436A (zh) * | 2014-06-03 | 2020-08-11 | 谷歌有限责任公司 | 通过穿戴式设备的基于雷达的手势识别 |
CN111624770A (zh) * | 2015-04-15 | 2020-09-04 | 索尼互动娱乐股份有限公司 | 头戴式显示器上的夹捏和保持手势导航 |
CN112135672A (zh) * | 2017-12-22 | 2020-12-25 | 索尼互动娱乐股份有限公司 | 使用移动机器人通过动态相机定位和照明进行的空间捕获、建模和纹理重建 |
CN112204500A (zh) * | 2018-05-04 | 2021-01-08 | 谷歌有限责任公司 | 根据用户和自动化助理界面之间的距离来生成和/或适应自动化助理内容 |
CN113614678A (zh) * | 2019-04-18 | 2021-11-05 | 苹果公司 | 用于头戴式设备的共享数据和协作 |
US11237625B2 (en) | 2015-02-13 | 2022-02-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
CN114185424A (zh) * | 2014-05-21 | 2022-03-15 | 汤杰宝游戏公司 | 有形界面对象的虚拟化 |
Families Citing this family (1166)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007136745A2 (en) | 2006-05-19 | 2007-11-29 | University Of Hawaii | Motion tracking system for real time adaptive imaging and spectroscopy |
US9138636B2 (en) | 2007-05-16 | 2015-09-22 | Eyecue Vision Technologies Ltd. | System and method for calculating values in tile games |
US9035876B2 (en) | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9498721B2 (en) | 2009-08-04 | 2016-11-22 | Eyecue Vision Technologies Ltd. | System and method for object extraction |
US9595108B2 (en) | 2009-08-04 | 2017-03-14 | Eyecue Vision Technologies Ltd. | System and method for object extraction |
US9030536B2 (en) | 2010-06-04 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus and method for presenting media content |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US9787974B2 (en) | 2010-06-30 | 2017-10-10 | At&T Intellectual Property I, L.P. | Method and apparatus for delivering media content |
KR20120002737A (ko) * | 2010-07-01 | 2012-01-09 | 삼성전자주식회사 | 마이크를 이용한 휴대용 단말기의 동작 제어 방법 및 장치 |
US8918831B2 (en) | 2010-07-06 | 2014-12-23 | At&T Intellectual Property I, Lp | Method and apparatus for managing a presentation of media content |
US9049426B2 (en) | 2010-07-07 | 2015-06-02 | At&T Intellectual Property I, Lp | Apparatus and method for distributing three dimensional media content |
US9032470B2 (en) | 2010-07-20 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus for adapting a presentation of media content according to a position of a viewing apparatus |
US9232274B2 (en) | 2010-07-20 | 2016-01-05 | At&T Intellectual Property I, L.P. | Apparatus for adapting a presentation of media content to a requesting device |
US8438502B2 (en) | 2010-08-25 | 2013-05-07 | At&T Intellectual Property I, L.P. | Apparatus for controlling three-dimensional images |
KR20120020627A (ko) * | 2010-08-30 | 2012-03-08 | 삼성전자주식회사 | 3d 영상 포맷을 이용한 영상 처리 장치 및 방법 |
US10359545B2 (en) | 2010-10-21 | 2019-07-23 | Lockheed Martin Corporation | Fresnel lens with reduced draft facet visibility |
US9632315B2 (en) | 2010-10-21 | 2017-04-25 | Lockheed Martin Corporation | Head-mounted display apparatus employing one or more fresnel lenses |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
WO2012095846A1 (en) * | 2011-01-16 | 2012-07-19 | Eyecue Vision Technologies Ltd. | System and method for identification of printed matter in an image |
US20120242793A1 (en) * | 2011-03-21 | 2012-09-27 | Soungmin Im | Display device and method of controlling the same |
WO2016057997A1 (en) * | 2014-10-10 | 2016-04-14 | Pantomime Corporation | Support based 3d navigation |
JP5960796B2 (ja) | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
US9504909B2 (en) | 2011-05-05 | 2016-11-29 | Qualcomm Incorporated | Method and apparatus of proximity and stunt recording for outdoor gaming |
CN103635891B (zh) * | 2011-05-06 | 2017-10-27 | 奇跃公司 | 大量同时远程数字呈现世界 |
US8760395B2 (en) * | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
KR101423536B1 (ko) * | 2011-06-14 | 2014-08-01 | 한국전자통신연구원 | 인쇄매체 기반 혼합현실 구현 장치 및 방법 |
US9560314B2 (en) | 2011-06-14 | 2017-01-31 | Microsoft Technology Licensing, Llc | Interactive and shared surfaces |
DE102011104524A1 (de) * | 2011-06-15 | 2012-12-20 | Ifakt Gmbh | Verfahren und Vorrichtung zum Ermitteln und Wiedergeben virtueller ortsbezogener Informationen für einen Raumbereich |
FR2976681B1 (fr) * | 2011-06-17 | 2013-07-12 | Inst Nat Rech Inf Automat | Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme |
US9723293B1 (en) * | 2011-06-21 | 2017-08-01 | Amazon Technologies, Inc. | Identifying projection surfaces in augmented reality environments |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US9602766B2 (en) | 2011-06-24 | 2017-03-21 | At&T Intellectual Property I, L.P. | Apparatus and method for presenting three dimensional objects with telepresence |
US9030522B2 (en) | 2011-06-24 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus and method for providing media content |
US9445046B2 (en) | 2011-06-24 | 2016-09-13 | At&T Intellectual Property I, L.P. | Apparatus and method for presenting media content with telepresence |
US8947497B2 (en) * | 2011-06-24 | 2015-02-03 | At&T Intellectual Property I, Lp | Apparatus and method for managing telepresence sessions |
US9727132B2 (en) * | 2011-07-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-visor: managing applications in augmented reality environments |
RU2455676C2 (ru) * | 2011-07-04 | 2012-07-10 | Общество с ограниченной ответственностью "ТРИДИВИ" | Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US8558759B1 (en) * | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
US8587635B2 (en) | 2011-07-15 | 2013-11-19 | At&T Intellectual Property I, L.P. | Apparatus and method for providing media services with telepresence |
US10209771B2 (en) * | 2016-09-30 | 2019-02-19 | Sony Interactive Entertainment Inc. | Predictive RF beamforming for head mounted display |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
US9153195B2 (en) | 2011-08-17 | 2015-10-06 | Microsoft Technology Licensing, Llc | Providing contextual personal information by a mixed reality device |
US9218063B2 (en) * | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
WO2013028908A1 (en) | 2011-08-24 | 2013-02-28 | Microsoft Corporation | Touch and social cues as inputs into a computer |
US8830302B2 (en) * | 2011-08-24 | 2014-09-09 | Lg Electronics Inc. | Gesture-based user interface method and apparatus |
US9342610B2 (en) * | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
WO2013032955A1 (en) | 2011-08-26 | 2013-03-07 | Reincloud Corporation | Equipment, systems and methods for navigating through multiple reality models |
US20130249947A1 (en) * | 2011-08-26 | 2013-09-26 | Reincloud Corporation | Communication using augmented reality |
US9606209B2 (en) | 2011-08-26 | 2017-03-28 | Kineticor, Inc. | Methods, systems, and devices for intra-scan motion correction |
US8854282B1 (en) * | 2011-09-06 | 2014-10-07 | Google Inc. | Measurement method |
DE102011112617A1 (de) * | 2011-09-08 | 2013-03-14 | Eads Deutschland Gmbh | Kooperativer 3D-Arbeitsplatz |
US8941560B2 (en) | 2011-09-21 | 2015-01-27 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
US9690100B1 (en) * | 2011-09-22 | 2017-06-27 | Sprint Communications Company L.P. | Wireless communication system with a liquid crystal display embedded in an optical lens |
US9255813B2 (en) * | 2011-10-14 | 2016-02-09 | Microsoft Technology Licensing, Llc | User controlled real object disappearance in a mixed reality display |
CN104011788B (zh) * | 2011-10-28 | 2016-11-16 | 奇跃公司 | 用于增强和虚拟现实的系统和方法 |
US9063566B2 (en) * | 2011-11-30 | 2015-06-23 | Microsoft Technology Licensing, Llc | Shared collaboration using display device |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US9684379B2 (en) * | 2011-12-23 | 2017-06-20 | Intel Corporation | Computing system utilizing coordinated two-hand command gestures |
WO2013095677A1 (en) | 2011-12-23 | 2013-06-27 | Intel Corporation | Computing system utilizing three-dimensional manipulation command gestures |
EP2795430A4 (en) | 2011-12-23 | 2015-08-19 | Intel Ip Corp | TRANSITION MECHANISM FOR A COMPUTER SYSTEM WITH USER DETECTION |
WO2013095678A1 (en) | 2011-12-23 | 2013-06-27 | Intel Corporation | Mechanism to provide feedback regarding computing system command gestures |
US9230171B2 (en) | 2012-01-06 | 2016-01-05 | Google Inc. | Object outlining to initiate a visual search |
US9052804B1 (en) | 2012-01-06 | 2015-06-09 | Google Inc. | Object occlusion to initiate a visual search |
US8840250B1 (en) | 2012-01-11 | 2014-09-23 | Rawles Llc | Projection screen qualification and selection |
US9077846B2 (en) * | 2012-02-06 | 2015-07-07 | Microsoft Technology Licensing, Llc | Integrated interactive space |
US9384711B2 (en) | 2012-02-15 | 2016-07-05 | Microsoft Technology Licensing, Llc | Speculative render ahead and caching in multiple passes |
US20130215132A1 (en) * | 2012-02-22 | 2013-08-22 | Ming Fong | System for reproducing virtual objects |
WO2013126784A2 (en) * | 2012-02-23 | 2013-08-29 | Huston Charles D | System and method for creating an environment and for sharing a location based experience in an environment |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
JP2013196156A (ja) * | 2012-03-16 | 2013-09-30 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
US9170648B2 (en) * | 2012-04-03 | 2015-10-27 | The Boeing Company | System and method for virtual engineering |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US20130278633A1 (en) * | 2012-04-20 | 2013-10-24 | Samsung Electronics Co., Ltd. | Method and system for generating augmented reality scene |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
US9122321B2 (en) * | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
JP6040564B2 (ja) * | 2012-05-08 | 2016-12-07 | ソニー株式会社 | 画像処理装置、投影制御方法及びプログラム |
US9210413B2 (en) * | 2012-05-15 | 2015-12-08 | Imagine Mobile Augmented Reality Ltd | System worn by a moving user for fully augmenting reality by anchoring virtual objects |
US9153073B2 (en) | 2012-05-23 | 2015-10-06 | Qualcomm Incorporated | Spatially registered augmented video |
US9747306B2 (en) * | 2012-05-25 | 2017-08-29 | Atheer, Inc. | Method and apparatus for identifying input features for later recognition |
JP5966624B2 (ja) * | 2012-05-29 | 2016-08-10 | 株式会社リコー | 情報処理装置及び情報表示システム |
US9286122B2 (en) * | 2012-05-31 | 2016-03-15 | Microsoft Technology Licensing, Llc | Display techniques using virtual surface allocation |
US9177533B2 (en) | 2012-05-31 | 2015-11-03 | Microsoft Technology Licensing, Llc | Virtual surface compaction |
US9235925B2 (en) | 2012-05-31 | 2016-01-12 | Microsoft Technology Licensing, Llc | Virtual surface rendering |
US9230517B2 (en) | 2012-05-31 | 2016-01-05 | Microsoft Technology Licensing, Llc | Virtual surface gutters |
US9456187B1 (en) | 2012-06-01 | 2016-09-27 | Amazon Technologies, Inc. | Edge-based pose detection |
US20130328925A1 (en) * | 2012-06-12 | 2013-12-12 | Stephen G. Latta | Object focus in a mixed reality environment |
US20130339859A1 (en) | 2012-06-15 | 2013-12-19 | Muzik LLC | Interactive networked headphones |
US20130335405A1 (en) * | 2012-06-18 | 2013-12-19 | Michael J. Scavezze | Virtual object generation within a virtual environment |
US20130342568A1 (en) * | 2012-06-20 | 2013-12-26 | Tony Ambrus | Low light scene augmentation |
EP2866204B1 (en) * | 2012-06-21 | 2018-09-19 | LG Electronics Inc. | Apparatus and method for digital image processing |
US9696547B2 (en) * | 2012-06-25 | 2017-07-04 | Microsoft Technology Licensing, Llc | Mixed reality system learned input and functions |
WO2014002415A1 (ja) * | 2012-06-28 | 2014-01-03 | パナソニック株式会社 | 撮像装置 |
US10176635B2 (en) * | 2012-06-28 | 2019-01-08 | Microsoft Technology Licensing, Llc | Saving augmented realities |
US10528853B1 (en) * | 2012-06-29 | 2020-01-07 | Amazon Technologies, Inc. | Shape-Based Edge Detection |
US20140007115A1 (en) * | 2012-06-29 | 2014-01-02 | Ning Lu | Multi-modal behavior awareness for human natural command control |
TWI498771B (zh) * | 2012-07-06 | 2015-09-01 | Pixart Imaging Inc | 可辨識手勢動作的眼鏡 |
EP2872966A1 (en) * | 2012-07-12 | 2015-05-20 | Dual Aperture International Co. Ltd. | Gesture-based user interface |
US20140018094A1 (en) * | 2012-07-13 | 2014-01-16 | Microsoft Corporation | Spatial determination and aiming of a mobile device |
US9235241B2 (en) * | 2012-07-29 | 2016-01-12 | Qualcomm Incorporated | Anatomical gestures detection system using radio signals |
KR102009928B1 (ko) * | 2012-08-20 | 2019-08-12 | 삼성전자 주식회사 | 협업 구현 방법 및 장치 |
US10209946B2 (en) * | 2012-08-23 | 2019-02-19 | Red Hat, Inc. | Augmented reality personal identification |
US20140067869A1 (en) | 2012-08-30 | 2014-03-06 | Atheer, Inc. | Method and apparatus for content association and history tracking in virtual and augmented reality |
US9530232B2 (en) | 2012-09-04 | 2016-12-27 | Qualcomm Incorporated | Augmented reality surface segmentation |
WO2014040081A1 (en) | 2012-09-10 | 2014-03-13 | Aemass, Inc. | Multi-dimensional data capture of an environment using plural devices |
US9129404B1 (en) | 2012-09-13 | 2015-09-08 | Amazon Technologies, Inc. | Measuring physical objects and presenting virtual articles |
US9111383B2 (en) | 2012-10-05 | 2015-08-18 | Elwha Llc | Systems and methods for obtaining and using augmentation data and for sharing usage data |
US9141188B2 (en) | 2012-10-05 | 2015-09-22 | Elwha Llc | Presenting an augmented view in response to acquisition of data inferring user activity |
US9077647B2 (en) | 2012-10-05 | 2015-07-07 | Elwha Llc | Correlating user reactions with augmentations displayed through augmented views |
US10269179B2 (en) | 2012-10-05 | 2019-04-23 | Elwha Llc | Displaying second augmentations that are based on registered first augmentations |
US10180715B2 (en) | 2012-10-05 | 2019-01-15 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
US10713846B2 (en) * | 2012-10-05 | 2020-07-14 | Elwha Llc | Systems and methods for sharing augmentation data |
US8928695B2 (en) * | 2012-10-05 | 2015-01-06 | Elwha Llc | Formatting of one or more persistent augmentations in an augmented view in response to multiple input factors |
CN103777857A (zh) * | 2012-10-24 | 2014-05-07 | 腾讯科技(深圳)有限公司 | 实现视频画面转动的方法和装置 |
US20140123077A1 (en) * | 2012-10-29 | 2014-05-01 | Intel Corporation | System and method for user interaction and control of electronic devices |
KR101691633B1 (ko) * | 2012-11-01 | 2017-01-09 | 아이캠, 엘엘씨 | 무선 손목 컴퓨팅과 3d 영상화, 매핑, 네트워킹 및 인터페이스를 위한 제어 장치 및 방법 |
US9524585B2 (en) * | 2012-11-05 | 2016-12-20 | Microsoft Technology Licensing, Llc | Constructing augmented reality environment with pre-computed lighting |
US9167160B2 (en) * | 2012-11-14 | 2015-10-20 | Karl Storz Imaging, Inc. | Image capture stabilization |
KR20140063272A (ko) * | 2012-11-16 | 2014-05-27 | 엘지전자 주식회사 | 영상표시장치, 및 그 동작방법 |
US9477313B2 (en) * | 2012-11-20 | 2016-10-25 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving outward-facing sensor of device |
US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
US10185416B2 (en) | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US8994827B2 (en) | 2012-11-20 | 2015-03-31 | Samsung Electronics Co., Ltd | Wearable electronic device |
US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
JP6036217B2 (ja) * | 2012-11-27 | 2016-11-30 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置および表示装置の制御方法 |
US10126820B1 (en) * | 2012-11-29 | 2018-11-13 | Amazon Technologies, Inc. | Open and closed hand detection |
US9728008B2 (en) * | 2012-12-10 | 2017-08-08 | Nant Holdings Ip, Llc | Interaction analysis systems and methods |
EP2930693B1 (en) * | 2012-12-10 | 2020-06-24 | Sony Corporation | Display control device, display control method and program |
US9317972B2 (en) | 2012-12-18 | 2016-04-19 | Qualcomm Incorporated | User interface for augmented reality enabled devices |
JP6155622B2 (ja) * | 2012-12-18 | 2017-07-05 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 |
TW201426551A (zh) * | 2012-12-26 | 2014-07-01 | Hon Hai Prec Ind Co Ltd | 虛擬機啟動排程系統及方法 |
US9857470B2 (en) * | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9720505B2 (en) | 2013-01-03 | 2017-08-01 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
TWI495903B (zh) * | 2013-01-09 | 2015-08-11 | Nat Univ Chung Hsing | 具無接觸手勢控制之眼鏡型行動電話 |
US20140198190A1 (en) * | 2013-01-16 | 2014-07-17 | Kris Okumu | Wearable surgical imaging device with semi-transparent screen |
JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN103970260B (zh) | 2013-01-31 | 2017-06-06 | 华为技术有限公司 | 一种非接触式手势控制方法及电子终端设备 |
CN105392423B (zh) | 2013-02-01 | 2018-08-17 | 凯内蒂科尔股份有限公司 | 生物医学成像中的实时适应性运动补偿的运动追踪系统 |
US10969805B2 (en) | 2013-02-11 | 2021-04-06 | Graco Minnesota Inc. | Paint sprayer distributed control and output volume monitoring architectures |
KR20150130978A (ko) | 2013-02-11 | 2015-11-24 | 그라코 미네소타 인크. | 유체 도포기 시스템을 위한 원격 모니터링 |
US9299185B2 (en) * | 2013-02-12 | 2016-03-29 | Disney Enterprises, Inc. | Enhanced system and method for rendering visual surface |
JP2014153663A (ja) * | 2013-02-13 | 2014-08-25 | Sony Corp | 音声認識装置、および音声認識方法、並びにプログラム |
JP6195893B2 (ja) * | 2013-02-19 | 2017-09-13 | ミラマ サービス インク | 形状認識装置、形状認識プログラム、および形状認識方法 |
US9325943B2 (en) * | 2013-02-20 | 2016-04-26 | Microsoft Technology Licensing, Llc | Providing a tele-immersive experience using a mirror metaphor |
WO2014128810A1 (ja) | 2013-02-22 | 2014-08-28 | ソニー株式会社 | ヘッドマウントディスプレイ及び画像表示装置 |
US20140258942A1 (en) * | 2013-03-05 | 2014-09-11 | Intel Corporation | Interaction of multiple perceptual sensing inputs |
US10477154B2 (en) | 2013-03-07 | 2019-11-12 | Cognex Corporation | System and method for aligning two work pieces with a vision system in the presence of occlusion |
US9072033B2 (en) | 2013-03-08 | 2015-06-30 | Qualcomm Incorporated | Systems and methods for concurrent device discovery |
US9721284B1 (en) | 2013-03-08 | 2017-08-01 | Aftershock Services, Inc. | System and method for facilitating a game through a primary client device and in-game content purchases through a mobile device |
IL313175A (en) | 2013-03-11 | 2024-07-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
US9330531B1 (en) | 2013-03-14 | 2016-05-03 | Kabam, Inc. | System and method for displaying a game using a primary display and communicating alliance information among alliance members using a secondary display |
KR102003383B1 (ko) * | 2013-03-14 | 2019-07-24 | 삼성전자주식회사 | 전자 장치에서 이미지를 촬영하는 위한 장치 및 방법 |
US9367145B2 (en) * | 2013-03-14 | 2016-06-14 | Qualcomm Incorporated | Intelligent display image orientation based on relative motion detection |
US20140282275A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a zooming gesture |
US9639964B2 (en) | 2013-03-15 | 2017-05-02 | Elwha Llc | Dynamically preserving scene elements in augmented reality systems |
US9401048B2 (en) | 2013-03-15 | 2016-07-26 | Qualcomm Incorporated | Methods and apparatus for augmented reality target detection |
US20140280644A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Real time unified communications interaction of a predefined location in a virtual reality location |
US20140282274A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a gesture performed with at least two control objects |
US20140267581A1 (en) * | 2013-03-15 | 2014-09-18 | John Cronin | Real time virtual reality leveraging web cams and ip cams and web cam and ip cam networks |
US10025486B2 (en) | 2013-03-15 | 2018-07-17 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
US20140267234A1 (en) * | 2013-03-15 | 2014-09-18 | Anselm Hook | Generation and Sharing Coordinate System Between Users on Mobile |
US9607418B1 (en) * | 2013-03-15 | 2017-03-28 | Comdata Inc. | Method of transaction card recognition and interaction |
US9838506B1 (en) | 2013-03-15 | 2017-12-05 | Sony Interactive Entertainment America Llc | Virtual reality universe representation changes viewing based upon client side parameters |
US10109075B2 (en) | 2013-03-15 | 2018-10-23 | Elwha Llc | Temporal element restoration in augmented reality systems |
US10268276B2 (en) * | 2013-03-15 | 2019-04-23 | Eyecam, LLC | Autonomous computing and telecommunications head-up displays glasses |
US9454220B2 (en) * | 2014-01-23 | 2016-09-27 | Derek A. Devries | Method and system of augmented-reality simulations |
US20140280505A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality interaction with 3d printing |
NZ735754A (en) | 2013-03-15 | 2019-04-26 | Magic Leap Inc | Display system and method |
US20140280502A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Crowd and cloud enabled virtual reality distributed location network |
US20140280506A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality enhanced through browser connections |
US20140280503A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | System and methods for effective virtual reality visitor interface |
WO2014147455A1 (en) | 2013-03-18 | 2014-09-25 | Minkovitch Zvi | Sports match refereeing system |
GB201305402D0 (en) * | 2013-03-25 | 2013-05-08 | Sony Comp Entertainment Europe | Head mountable display |
EP2979446A1 (en) * | 2013-03-26 | 2016-02-03 | Seiko Epson Corporation | Head-mounted display device, control method of head-mounted display device, and display system |
JP6369005B2 (ja) * | 2013-10-25 | 2018-08-08 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
JP5929811B2 (ja) * | 2013-03-27 | 2016-06-08 | ブラザー工業株式会社 | 画像表示装置および画像表示プログラム |
JP2014191718A (ja) * | 2013-03-28 | 2014-10-06 | Sony Corp | 表示制御装置、表示制御方法および記録媒体 |
EP2981060A4 (en) * | 2013-03-29 | 2016-09-28 | Sony Corp | DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND RECORDING MEDIUM |
US20150277699A1 (en) * | 2013-04-02 | 2015-10-01 | Cherif Atia Algreatly | Interaction method for optical head-mounted display |
CN105264572B (zh) * | 2013-04-04 | 2018-09-21 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
US8922589B2 (en) | 2013-04-07 | 2014-12-30 | Laor Consulting Llc | Augmented reality apparatus |
US9898873B2 (en) * | 2013-04-08 | 2018-02-20 | Kalloc Studios Asia Limited | Methods and systems for processing 3D graphic objects at a content processor |
US9390561B2 (en) * | 2013-04-12 | 2016-07-12 | Microsoft Technology Licensing, Llc | Personal holographic billboard |
TWI578210B (zh) * | 2013-04-12 | 2017-04-11 | 鴻海精密工業股份有限公司 | 電子白板 |
US9723251B2 (en) * | 2013-04-23 | 2017-08-01 | Jaacob I. SLOTKY | Technique for image acquisition and management |
DE102013207528A1 (de) * | 2013-04-25 | 2014-10-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Interagieren mit einem auf einer Datenbrille angezeigten Objekt |
US20140323148A1 (en) * | 2013-04-30 | 2014-10-30 | Qualcomm Incorporated | Wide area localization from slam maps |
US9539497B1 (en) | 2013-05-07 | 2017-01-10 | Kabam, Inc. | Display of a game through a primary and mobile display with individualized audio through the mobile device |
US9245388B2 (en) | 2013-05-13 | 2016-01-26 | Microsoft Technology Licensing, Llc | Interactions of virtual objects with surfaces |
US9230368B2 (en) * | 2013-05-23 | 2016-01-05 | Microsoft Technology Licensing, Llc | Hologram anchoring and dynamic positioning |
US9940897B2 (en) | 2013-05-24 | 2018-04-10 | Awe Company Limited | Systems and methods for a shared mixed reality experience |
US9858482B2 (en) | 2013-05-28 | 2018-01-02 | Ent. Services Development Corporation Lp | Mobile augmented reality for managing enclosed areas |
KR20140141383A (ko) * | 2013-05-31 | 2014-12-10 | 삼성전자주식회사 | 협동 촬영하는 전자 장치 및 그 제어 방법 |
KR101515484B1 (ko) * | 2013-05-31 | 2015-04-29 | 전자부품연구원 | 증강현실정보 제공 장치 및 그 방법 |
US20140359450A1 (en) * | 2013-06-03 | 2014-12-04 | Nokia Corporation | Activating a selection and a confirmation method |
US9685003B2 (en) * | 2013-06-03 | 2017-06-20 | Microsoft Technology Licensing, Llc | Mixed reality data collaboration |
US10905943B2 (en) * | 2013-06-07 | 2021-02-02 | Sony Interactive Entertainment LLC | Systems and methods for reducing hops associated with a head mounted system |
US10137361B2 (en) * | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
GB201310373D0 (en) * | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-Mountable Apparatus and systems |
GB201310367D0 (en) | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-mountable apparatus and systems |
GB201310358D0 (en) * | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-Mountable apparatus and systems |
US9307007B2 (en) | 2013-06-14 | 2016-04-05 | Microsoft Technology Licensing, Llc | Content pre-render and pre-fetch techniques |
KR102099834B1 (ko) * | 2013-06-18 | 2020-04-10 | 엘지전자 주식회사 | 전자장치 및 전자장치의 동작방법 |
US10175483B2 (en) * | 2013-06-18 | 2019-01-08 | Microsoft Technology Licensing, Llc | Hybrid world/body locked HUD on an HMD |
US10139623B2 (en) * | 2013-06-18 | 2018-11-27 | Microsoft Technology Licensing, Llc | Virtual object orientation and visualization |
US10955665B2 (en) * | 2013-06-18 | 2021-03-23 | Microsoft Technology Licensing, Llc | Concurrent optimal viewing of virtual objects |
EP2818985B1 (en) * | 2013-06-28 | 2021-05-12 | Nokia Technologies Oy | A hovering input field |
KR20150004989A (ko) * | 2013-07-03 | 2015-01-14 | 한국전자통신연구원 | 삼차원 영상 획득 장치 및 이를 이용한 영상 처리 방법 |
KR102063076B1 (ko) | 2013-07-10 | 2020-01-07 | 엘지전자 주식회사 | 모바일 디바이스, 헤드 마운트 디스플레이 및 제어 방법 |
US10228242B2 (en) | 2013-07-12 | 2019-03-12 | Magic Leap, Inc. | Method and system for determining user input based on gesture |
US9666187B1 (en) * | 2013-07-25 | 2017-05-30 | Google Inc. | Model for enabling service providers to address voice-activated commands |
US20150032412A1 (en) * | 2013-07-25 | 2015-01-29 | Icu Sensor Llc | Low power movement sensor |
WO2015017670A2 (en) * | 2013-07-31 | 2015-02-05 | Sidhant Gupta | Methods and systems for managing multi-device interaction using the doppler effect |
US20150049001A1 (en) * | 2013-08-19 | 2015-02-19 | Qualcomm Incorporated | Enabling remote screen sharing in optical see-through head mounted display with augmented reality |
WO2015027114A1 (en) * | 2013-08-21 | 2015-02-26 | Nantmobile, Llc | Chroma key content management systems and methods |
KR102138511B1 (ko) * | 2013-08-28 | 2020-07-28 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이의 화상통화를 지원하는 포터블 디바이스 및 그 제어 방법 |
US20150062158A1 (en) | 2013-08-28 | 2015-03-05 | Qualcomm Incorporated | Integration of head mounted displays with public display devices |
US9996974B2 (en) | 2013-08-30 | 2018-06-12 | Qualcomm Incorporated | Method and apparatus for representing a physical scene |
EP3042248B1 (en) * | 2013-09-04 | 2020-06-17 | Essilor International | Methods and systems for augmented reality |
KR102083596B1 (ko) * | 2013-09-05 | 2020-03-02 | 엘지전자 주식회사 | 디스플레이장치 및 디스플레이장치의 동작방법 |
US9413784B2 (en) | 2013-09-06 | 2016-08-09 | Microsoft Technology Licensing, Llc | World-driven access control |
US9697365B2 (en) | 2013-09-06 | 2017-07-04 | Microsoft Technology Licensing, Llc | World-driven access control using trusted certificates |
US9355268B2 (en) | 2013-09-06 | 2016-05-31 | Microsoft Technology Licensing, Llc | Managing access by applications to perceptual information |
US9424239B2 (en) * | 2013-09-06 | 2016-08-23 | Microsoft Technology Licensing, Llc | Managing shared state information produced by applications |
US10229523B2 (en) | 2013-09-09 | 2019-03-12 | Empire Technology Development Llc | Augmented reality alteration detector |
WO2015034535A1 (en) * | 2013-09-09 | 2015-03-12 | Empire Technology Development, Llc | Augmented reality alteration detector |
KR102097705B1 (ko) * | 2013-09-10 | 2020-04-07 | 삼성디스플레이 주식회사 | 디스플레이 장치, 디스플레이 시스템 및 그 제어 방법 |
US10585478B2 (en) * | 2013-09-13 | 2020-03-10 | Nod, Inc. | Methods and systems for integrating one or more gestural controllers into a head mounted wearable display or other wearable devices |
WO2015039050A1 (en) * | 2013-09-13 | 2015-03-19 | Nod, Inc | Using the human body as an input device |
JP6263917B2 (ja) * | 2013-09-17 | 2018-01-24 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
US10893147B2 (en) | 2014-05-13 | 2021-01-12 | Intel Corporation | Room sensor applications and techniques |
US9513861B2 (en) * | 2013-09-24 | 2016-12-06 | Intel Corporation | Systems and methods for discovering wireless display devices using inaudible audio signals |
US20150089453A1 (en) * | 2013-09-25 | 2015-03-26 | Aquifi, Inc. | Systems and Methods for Interacting with a Projected User Interface |
US20170142299A1 (en) * | 2013-09-26 | 2017-05-18 | Justin Brown | Bodyband |
KR102201733B1 (ko) * | 2013-09-30 | 2021-01-12 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
US8943569B1 (en) | 2013-10-01 | 2015-01-27 | Myth Innovations, Inc. | Wireless server access control system and method |
US9256072B2 (en) * | 2013-10-02 | 2016-02-09 | Philip Scott Lyren | Wearable electronic glasses that detect movement of a real object copies movement of a virtual object |
US10402930B2 (en) * | 2013-10-14 | 2019-09-03 | Microsoft Technology Licensing, Llc | Management of graphics processing units in a cloud platform |
KR102099178B1 (ko) * | 2013-11-29 | 2020-04-09 | 엘지전자 주식회사 | 웨어러블 디바이스 및 웨어러블 디바이스 디스플레이 제어 방법 |
JP6318596B2 (ja) * | 2013-12-13 | 2018-05-09 | セイコーエプソン株式会社 | 情報処理装置および情報処理装置の制御方法 |
US20160320833A1 (en) * | 2013-12-18 | 2016-11-03 | Joseph Schuman | Location-based system for sharing augmented reality content |
WO2015090421A1 (en) * | 2013-12-19 | 2015-06-25 | Metaio Gmbh | Method and system for providing information associated with a view of a real environment superimposed with a virtual object |
CN104750234B (zh) * | 2013-12-27 | 2018-12-21 | 中芯国际集成电路制造(北京)有限公司 | 可穿戴智能设备及可穿戴智能设备的互动方法 |
CN104750229B (zh) * | 2013-12-27 | 2017-12-29 | 中芯国际集成电路制造(上海)有限公司 | 可穿戴智能设备的交互方法及穿戴智能设备系统 |
JPWO2015098187A1 (ja) * | 2013-12-27 | 2017-03-23 | ソニー株式会社 | 制御装置、制御方法及びコンピュータプログラム |
US10586395B2 (en) | 2013-12-30 | 2020-03-10 | Daqri, Llc | Remote object detection and local tracking using visual odometry |
US9264479B2 (en) | 2013-12-30 | 2016-02-16 | Daqri, Llc | Offloading augmented reality processing |
US20150185826A1 (en) * | 2013-12-30 | 2015-07-02 | Daqri, Llc | Mapping gestures to virtual functions |
CN104777988B (zh) * | 2014-01-13 | 2018-12-14 | 联想(北京)有限公司 | 一种数据处理方法及电子设备 |
WO2015106114A1 (en) | 2014-01-13 | 2015-07-16 | T1visions, Inc. | Display capable of object recognition |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9299194B2 (en) | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US12093453B2 (en) | 2014-01-21 | 2024-09-17 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9740280B2 (en) | 2014-01-21 | 2017-08-22 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9538915B2 (en) | 2014-01-21 | 2017-01-10 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9523856B2 (en) | 2014-01-21 | 2016-12-20 | Osterhout Group, Inc. | See-through computer display systems |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US9811153B2 (en) | 2014-01-21 | 2017-11-07 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US9524588B2 (en) | 2014-01-24 | 2016-12-20 | Avaya Inc. | Enhanced communication between remote participants using augmented and virtual reality |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US9437159B2 (en) | 2014-01-25 | 2016-09-06 | Sony Interactive Entertainment America Llc | Environmental interrupt in a head-mounted display and utilization of non field of view real estate |
US9588343B2 (en) | 2014-01-25 | 2017-03-07 | Sony Interactive Entertainment America Llc | Menu navigation in a head-mounted display |
US9207780B2 (en) * | 2014-01-27 | 2015-12-08 | Fuji Xerox Co., Ltd. | Systems and methods for hiding and finding digital content associated with physical objects via coded lighting |
US9111214B1 (en) | 2014-01-30 | 2015-08-18 | Vishal Sharma | Virtual assistant system to remotely control external services and selectively share control |
WO2015116179A1 (en) * | 2014-01-31 | 2015-08-06 | Empire Technology Development, Llc | Augmented reality skin manager |
WO2015116182A1 (en) | 2014-01-31 | 2015-08-06 | Empire Technology Development, Llc | Augmented reality skin evaluation |
US10192359B2 (en) * | 2014-01-31 | 2019-01-29 | Empire Technology Development, Llc | Subject selected augmented reality skin |
US9865088B2 (en) | 2014-01-31 | 2018-01-09 | Empire Technology Development Llc | Evaluation of augmented reality skins |
US10007329B1 (en) * | 2014-02-11 | 2018-06-26 | Leap Motion, Inc. | Drift cancelation for portable object detection and tracking |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
CN104853125B (zh) * | 2014-02-19 | 2018-08-31 | 联想(北京)有限公司 | 一种智能投影方法及电子设备 |
US9823749B2 (en) | 2014-02-21 | 2017-11-21 | Nod, Inc. | Location determination and registration methodology for smart devices based on direction and proximity and usage of the same |
CN105960572B (zh) * | 2014-02-24 | 2019-01-22 | 索尼公司 | 用于定制的触觉反馈的智能可穿戴设备和方法 |
US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
KR20150104711A (ko) * | 2014-03-06 | 2015-09-16 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 동작 방법 |
JP2015170175A (ja) * | 2014-03-07 | 2015-09-28 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
JP6307627B2 (ja) * | 2014-03-14 | 2018-04-04 | 株式会社ソニー・インタラクティブエンタテインメント | 空間感知を備えるゲーム機 |
US10004462B2 (en) | 2014-03-24 | 2018-06-26 | Kineticor, Inc. | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
US10725298B2 (en) * | 2014-03-26 | 2020-07-28 | Mark D. Wieczorek, P.C. | Virtual reality devices and accessories |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
JP6374203B2 (ja) * | 2014-04-04 | 2018-08-15 | 株式会社日本総合研究所 | 表示システム及びプログラム |
DE112015001704T5 (de) * | 2014-04-07 | 2016-12-29 | Samsung Electronics Co., Ltd. | Bildsensor mit hoher Auflösung, Frame-Rate und niedrigem Stromverbrauch |
US10529359B2 (en) | 2014-04-17 | 2020-01-07 | Microsoft Technology Licensing, Llc | Conversation detection |
US9922667B2 (en) | 2014-04-17 | 2018-03-20 | Microsoft Technology Licensing, Llc | Conversation, presence and context detection for hologram suppression |
WO2015161307A1 (en) * | 2014-04-18 | 2015-10-22 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9883301B2 (en) * | 2014-04-22 | 2018-01-30 | Google Technology Holdings LLC | Portable electronic device with acoustic and/or proximity sensors and methods therefor |
CN110989285A (zh) * | 2014-04-22 | 2020-04-10 | 日本电信电话株式会社 | 视频生成装置、视频生成方法、数据结构以及程序 |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
JP6427942B2 (ja) * | 2014-05-01 | 2018-11-28 | セイコーエプソン株式会社 | 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法 |
US9766715B2 (en) | 2014-05-01 | 2017-09-19 | Seiko Epson Corporation | Head-mount type display device, control system, method of controlling head-mount type display device, and computer program |
TWI602436B (zh) * | 2014-05-06 | 2017-10-11 | 虛擬會議系統 | |
JP6360200B2 (ja) * | 2014-05-13 | 2018-07-18 | ナント・ホールデイングス・アイ・ピー・エル・エル・シー | アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法 |
US10845884B2 (en) * | 2014-05-13 | 2020-11-24 | Lenovo (Singapore) Pte. Ltd. | Detecting inadvertent gesture controls |
US20160027414A1 (en) * | 2014-07-22 | 2016-01-28 | Osterhout Group, Inc. | External user interface for head worn computing |
US20160025977A1 (en) * | 2014-07-22 | 2016-01-28 | Osterhout Group, Inc. | External user interface for head worn computing |
US9557955B2 (en) * | 2014-05-21 | 2017-01-31 | International Business Machines Corporation | Sharing of target objects |
US9723109B2 (en) | 2014-05-28 | 2017-08-01 | Alexander Hertel | Platform for constructing and consuming realm and object feature clouds |
US9972131B2 (en) * | 2014-06-03 | 2018-05-15 | Intel Corporation | Projecting a virtual image at a physical surface |
US11983401B1 (en) * | 2014-06-04 | 2024-05-14 | ULTRAHAPTICS IP TWO LIMITED, , United Kingd | Systems and methods of interacting with a virtual grid in a three-dimensional (3D) sensory space |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
JP6326996B2 (ja) * | 2014-06-13 | 2018-05-23 | 富士通株式会社 | 端末装置、情報処理システム、及び表示制御プログラム |
CN106462328B (zh) * | 2014-06-24 | 2020-09-04 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
KR101638550B1 (ko) | 2014-06-25 | 2016-07-12 | 경북대학교 산학협력단 | 혼합현실을 이용한 가상현실 시스템 및 그 구현방법 |
US20170140552A1 (en) * | 2014-06-25 | 2017-05-18 | Korea Advanced Institute Of Science And Technology | Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same |
US9958947B2 (en) * | 2014-06-25 | 2018-05-01 | Comcast Cable Communications, Llc | Ocular focus sharing for digital content |
JP6350037B2 (ja) * | 2014-06-30 | 2018-07-04 | 株式会社安川電機 | ロボットシミュレータおよびロボットシミュレータのファイル生成方法 |
US10219168B2 (en) * | 2014-06-30 | 2019-02-26 | Futurewei Technologies, Inc. | Methods and systems for intelligent mobile function distribution |
WO2016001908A1 (en) * | 2014-07-03 | 2016-01-07 | Imagine Mobile Augmented Reality Ltd | 3 dimensional anchored augmented reality |
KR20160005899A (ko) * | 2014-07-08 | 2016-01-18 | 엘지전자 주식회사 | 디지털 이미지 처리 장치, 시스템 및 제어 방법 |
US10217258B2 (en) | 2014-07-22 | 2019-02-26 | Lg Electronics Inc. | Head mounted display and control method thereof |
US20160028781A1 (en) * | 2014-07-22 | 2016-01-28 | International Business Machines Corporation | Surface computing based social interaction |
WO2016014718A1 (en) | 2014-07-23 | 2016-01-28 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN104102412B (zh) * | 2014-07-24 | 2017-12-12 | 央数文化(上海)股份有限公司 | 一种基于增强现实技术的手持式阅览设备及其方法 |
JP6428020B2 (ja) * | 2014-07-24 | 2018-11-28 | セイコーエプソン株式会社 | Gui装置 |
US20160027218A1 (en) * | 2014-07-25 | 2016-01-28 | Tom Salter | Multi-user gaze projection using head mounted display devices |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US9858720B2 (en) | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US9904055B2 (en) * | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
US10282057B1 (en) | 2014-07-29 | 2019-05-07 | Google Llc | Image editing on a wearable device |
US10412594B2 (en) | 2014-07-31 | 2019-09-10 | At&T Intellectual Property I, L.P. | Network planning tool support for 3D data |
JP6410510B2 (ja) * | 2014-08-05 | 2018-10-24 | シャープ株式会社 | ヘッドホンユニット、一対のヘッドホンユニット、ヘッドホン装置及びヘッドホンシステム |
US9839857B2 (en) | 2014-08-11 | 2017-12-12 | Vr Coaster Gmbh & Co. Kg | Method for operating a device, in particular an amusement ride, transport means, a fitness apparatus or the like |
US9696551B2 (en) * | 2014-08-13 | 2017-07-04 | Beijing Lenovo Software Ltd. | Information processing method and electronic device |
US9830395B2 (en) * | 2014-08-15 | 2017-11-28 | Daqri, Llc | Spatial data processing |
US9799142B2 (en) | 2014-08-15 | 2017-10-24 | Daqri, Llc | Spatial data collection |
US9799143B2 (en) * | 2014-08-15 | 2017-10-24 | Daqri, Llc | Spatial data visualization |
EP3257007A4 (en) * | 2014-08-15 | 2018-06-13 | Beam Authentic, Inc. | Systems for handling media for wearable display devices |
US9578399B2 (en) * | 2014-08-25 | 2017-02-21 | Daqri, Llc | Remote sensor access and queuing |
KR101524576B1 (ko) * | 2014-09-03 | 2015-06-03 | 박준호 | 웨어러블 디바이스 |
KR102313861B1 (ko) * | 2014-09-03 | 2021-10-18 | 엘지디스플레이 주식회사 | 웨어러블 디바이스 |
ES2563105B1 (es) * | 2014-09-10 | 2016-12-16 | Universidad De Valladolid | Sistema interactivo que combina movimiento, sonido y color como apoyo terapeútico para desarrollar habilidades perceptivo-motrices, estimular el área senso-perceptiva, fomentar la auto-expresión, realizar diagnósticos de procesos emotivos del usuario |
EP2996017B1 (en) * | 2014-09-11 | 2022-05-11 | Nokia Technologies Oy | Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display |
WO2016042039A1 (en) * | 2014-09-16 | 2016-03-24 | Foundation For Research And Technology - Hellas (Forth) | Gesture recognition apparatuses, methods and systems for human-machine interaction |
US9924143B2 (en) * | 2014-09-23 | 2018-03-20 | Intel Corporation | Wearable mediated reality system and method |
JP6452369B2 (ja) * | 2014-09-29 | 2019-01-16 | キヤノン株式会社 | 情報処理装置とその制御方法、プログラム、記憶媒体 |
US9778750B2 (en) | 2014-09-30 | 2017-10-03 | Xerox Corporation | Hand-gesture-based region of interest localization |
US20160092726A1 (en) * | 2014-09-30 | 2016-03-31 | Xerox Corporation | Using gestures to train hand detection in ego-centric video |
JP2016071900A (ja) * | 2014-09-30 | 2016-05-09 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム |
US9818225B2 (en) * | 2014-09-30 | 2017-11-14 | Sony Interactive Entertainment Inc. | Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space |
US20170201721A1 (en) * | 2014-09-30 | 2017-07-13 | Hewlett Packard Enterprise Development Lp | Artifact projection |
US10134082B2 (en) * | 2014-10-13 | 2018-11-20 | Paypal, Inc. | Virtual display device for an interactive merchant sales environment |
KR102358548B1 (ko) | 2014-10-15 | 2022-02-04 | 삼성전자주식회사 | 디바이스를 이용한 화면 처리 방법 및 장치 |
US20160112479A1 (en) * | 2014-10-16 | 2016-04-21 | Wipro Limited | System and method for distributed augmented reality |
WO2016061447A1 (en) | 2014-10-17 | 2016-04-21 | Lockheed Martin Corporation | Head-wearable ultra-wide field of view display device |
CN111080690A (zh) | 2014-10-28 | 2020-04-28 | 深圳市大疆创新科技有限公司 | 使用超声波深度感测的rgb-d成像系统和方法 |
US9760167B2 (en) * | 2014-11-07 | 2017-09-12 | Eye Labs, LLC | Visual stabilization system for head-mounted displays |
KR102265086B1 (ko) | 2014-11-07 | 2021-06-15 | 삼성전자 주식회사 | 정보를 공유하기 위한 가상 환경 |
US11054893B2 (en) | 2014-11-15 | 2021-07-06 | Vr Exit Llc | Team flow control in a mixed physical and virtual reality environment |
US11030806B2 (en) * | 2014-11-15 | 2021-06-08 | Vr Exit Llc | Combined virtual and physical environment |
US10043319B2 (en) | 2014-11-16 | 2018-08-07 | Eonite Perception Inc. | Optimizing head mounted displays for augmented reality |
US20160140761A1 (en) * | 2014-11-19 | 2016-05-19 | Microsoft Technology Licensing, Llc. | Using depth information for drawing in augmented reality scenes |
GB2532464B (en) | 2014-11-19 | 2020-09-02 | Bae Systems Plc | Apparatus and method for selectively displaying an operational environment |
GB2532465B (en) * | 2014-11-19 | 2021-08-11 | Bae Systems Plc | Interactive control station |
KR102332752B1 (ko) * | 2014-11-24 | 2021-11-30 | 삼성전자주식회사 | 지도 서비스를 제공하는 전자 장치 및 방법 |
US20160147408A1 (en) * | 2014-11-25 | 2016-05-26 | Johnathan Bevis | Virtual measurement tool for a wearable visualization device |
US10248192B2 (en) * | 2014-12-03 | 2019-04-02 | Microsoft Technology Licensing, Llc | Gaze target application launcher |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
US20160171739A1 (en) * | 2014-12-11 | 2016-06-16 | Intel Corporation | Augmentation of stop-motion content |
KR101655818B1 (ko) * | 2014-12-11 | 2016-09-08 | 현대자동차주식회사 | 웨어러블 글래스, 그 제어 방법 및 차량 제어 시스템 |
JP6309174B1 (ja) | 2014-12-18 | 2018-04-11 | フェイスブック,インク. | 仮想現実環境におけるユーザインターフェースを提供するシステム、装置、および方法 |
EP3234732B1 (en) | 2014-12-19 | 2021-11-24 | Hewlett-Packard Development Company, L.P. | Interaction with 3d visualization |
US20170359456A1 (en) * | 2014-12-22 | 2017-12-14 | Koninklijke Philips N.V. | Communication system comprising head wearable devices |
WO2016103067A1 (en) * | 2014-12-22 | 2016-06-30 | Husqvarna Ab | Garden mapping and planning via robotic vehicle |
US10335677B2 (en) | 2014-12-23 | 2019-07-02 | Matthew Daniel Fuchs | Augmented reality system with agent device for viewing persistent content and method of operation thereof |
JP6387825B2 (ja) | 2014-12-26 | 2018-09-12 | セイコーエプソン株式会社 | 表示システム、及び、情報表示方法 |
US9728010B2 (en) * | 2014-12-30 | 2017-08-08 | Microsoft Technology Licensing, Llc | Virtual representations of real-world objects |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
US9685005B2 (en) * | 2015-01-02 | 2017-06-20 | Eon Reality, Inc. | Virtual lasers for interacting with augmented reality environments |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
US20160202947A1 (en) * | 2015-01-09 | 2016-07-14 | Sony Corporation | Method and system for remote viewing via wearable electronic devices |
US10725297B2 (en) | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for implementing a virtual representation of a physical environment using a virtual reality environment |
US10726625B2 (en) | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for improving the transmission and processing of data regarding a multi-user virtual environment |
US9852546B2 (en) | 2015-01-28 | 2017-12-26 | CCP hf. | Method and system for receiving gesture input via virtual control objects |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
JP6725805B2 (ja) | 2015-02-13 | 2020-07-22 | スワン ソリューションズ インコーポレーテッド | 端末装置を制御するためのシステム及び方法 |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
EP3262488B1 (en) | 2015-02-25 | 2021-04-07 | BAE Systems PLC | Apparatus and method for effecting a control action in respect of system functions |
EP3062142B1 (en) | 2015-02-26 | 2018-10-03 | Nokia Technologies OY | Apparatus for a near-eye display |
WO2016141054A1 (en) | 2015-03-02 | 2016-09-09 | Lockheed Martin Corporation | Wearable display system |
US10156721B2 (en) * | 2015-03-09 | 2018-12-18 | Microsoft Technology Licensing, Llc | User-based context sensitive hologram reaction |
US10108247B2 (en) | 2015-03-11 | 2018-10-23 | Swan Solutions, Inc. | Method for regulating a system for controlling a terminal device |
US10216982B2 (en) * | 2015-03-12 | 2019-02-26 | Microsoft Technology Licensing, Llc | Projecting a virtual copy of a remote object |
JP6328579B2 (ja) * | 2015-03-13 | 2018-05-23 | 富士フイルム株式会社 | 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム |
CN104657103B (zh) * | 2015-03-16 | 2017-06-16 | 哈尔滨工业大学 | 基于深度摄像机的手持cave投影系统 |
US9791917B2 (en) * | 2015-03-24 | 2017-10-17 | Intel Corporation | Augmentation modification based on user interaction with augmented reality scene |
DE102015003883B4 (de) * | 2015-03-26 | 2024-07-11 | Audi Ag | Kraftfahrzeugsimulationsanordnung zur Simulation einer virtuellen Umgebung mit einem virtuellen Kraftfahrzeug und Verfahren zur Simulation einer virtuellen Umgebung |
TWI564647B (zh) * | 2015-03-27 | 2017-01-01 | 國立臺北科技大學 | 全景動態網路攝影機的影像轉換運算方法 |
US10627908B2 (en) * | 2015-03-27 | 2020-04-21 | Lucasfilm Entertainment Company Ltd. | Facilitate user manipulation of a virtual reality environment view using a computing device with touch sensitive surface |
KR102304023B1 (ko) * | 2015-04-03 | 2021-09-24 | 한국과학기술원 | 증강현실 기반 인터렉티브 저작 서비스 제공 시스템 |
US20180140362A1 (en) * | 2015-04-07 | 2018-05-24 | King Abdullah University Of Science And Technology | Method, apparatus, and system for utilizing augmented reality to improve surgery |
JP6572600B2 (ja) | 2015-04-09 | 2019-09-11 | セイコーエプソン株式会社 | 情報処理装置、情報処理装置の制御方法、および、コンピュータープログラム |
EP3082017A1 (en) | 2015-04-15 | 2016-10-19 | Thomson Licensing | Method and system for displaying additional information associated with a content via an optical head mounted display device |
EP3284039A4 (en) | 2015-04-17 | 2019-07-24 | Tulip Interfaces Inc. | CONTAINERIZED COMMUNICATION GATEWAY |
US10055888B2 (en) * | 2015-04-28 | 2018-08-21 | Microsoft Technology Licensing, Llc | Producing and consuming metadata within multi-dimensional data |
EP3094082A1 (en) * | 2015-05-13 | 2016-11-16 | AIM Sport Vision AG | Digitally overlaying an image with another image |
IL244255A (en) | 2016-02-23 | 2017-04-30 | Vertical Optics Llc | Wearable devices for deflecting vision |
US9690119B2 (en) | 2015-05-15 | 2017-06-27 | Vertical Optics, LLC | Wearable vision redirecting devices |
US9442575B1 (en) * | 2015-05-15 | 2016-09-13 | Atheer, Inc. | Method and apparatus for applying free space input for surface constrained control |
CN107852488B (zh) * | 2015-05-22 | 2021-03-30 | 三星电子株式会社 | 用于通过hmd设备显示虚拟图像的系统和方法 |
JP6528964B2 (ja) * | 2015-05-25 | 2019-06-12 | 株式会社リコー | 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法 |
KR102547245B1 (ko) * | 2015-05-27 | 2023-06-22 | 주식회사 넥슨코리아 | 가상 현실 디스플레이 시스템 및 방법 |
US9898864B2 (en) * | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
WO2016196453A1 (en) * | 2015-05-31 | 2016-12-08 | Chaudhuri A Ray | Information display |
JP6585929B2 (ja) * | 2015-06-02 | 2019-10-02 | キヤノン株式会社 | システム、システムの制御方法 |
US10248188B2 (en) * | 2015-06-03 | 2019-04-02 | James M. O'Neil | System and method for generating wireless signals and controlling digital responses from physical movement |
US11237624B2 (en) * | 2015-06-03 | 2022-02-01 | James M. O'Neil | System and method for adapting auditory biofeedback cues and gait analysis using wireless signals and digital responses |
US20160358383A1 (en) * | 2015-06-05 | 2016-12-08 | Steffen Gauglitz | Systems and methods for augmented reality-based remote collaboration |
JP6356915B2 (ja) * | 2015-06-12 | 2018-07-11 | 株式会社ソニー・インタラクティブエンタテインメント | 制御装置、制御方法及びプログラム |
JP6780642B2 (ja) * | 2015-06-15 | 2020-11-04 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2016205350A1 (en) * | 2015-06-15 | 2016-12-22 | University Of Maryland, Baltimore | Method and apparatus to provide a virtual workstation with enhanced navigational efficiency |
US20160371884A1 (en) * | 2015-06-17 | 2016-12-22 | Microsoft Technology Licensing, Llc | Complementary augmented reality |
US9520002B1 (en) * | 2015-06-24 | 2016-12-13 | Microsoft Technology Licensing, Llc | Virtual place-located anchor |
US11003246B2 (en) | 2015-07-22 | 2021-05-11 | Mentor Acquisition One, Llc | External user interface for head worn computing |
US10139966B2 (en) | 2015-07-22 | 2018-11-27 | Osterhout Group, Inc. | External user interface for head worn computing |
US10462421B2 (en) * | 2015-07-20 | 2019-10-29 | Microsoft Technology Licensing, Llc | Projection unit |
US10799792B2 (en) * | 2015-07-23 | 2020-10-13 | At&T Intellectual Property I, L.P. | Coordinating multiple virtual environments |
WO2017013805A1 (ja) * | 2015-07-23 | 2017-01-26 | 富士通株式会社 | 入力装置、入力支援方法および入力支援プログラム |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
CN106406507B (zh) * | 2015-07-30 | 2020-03-27 | 株式会社理光 | 图像处理方法以及电子设备 |
KR101734287B1 (ko) * | 2015-08-04 | 2017-05-11 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 및 그 제어방법 |
US10290118B2 (en) * | 2015-08-06 | 2019-05-14 | Cognex Corporation | System and method for tying together machine vision coordinate spaces in a guided assembly environment |
US11172273B2 (en) | 2015-08-10 | 2021-11-09 | Delta Energy & Communications, Inc. | Transformer monitor, communications and data collection device |
WO2017027682A1 (en) * | 2015-08-11 | 2017-02-16 | Delta Energy & Communications, Inc. | Enhanced reality system for visualizing, evaluating, diagnosing, optimizing and servicing smart grids and incorporated components |
US10169917B2 (en) | 2015-08-20 | 2019-01-01 | Microsoft Technology Licensing, Llc | Augmented reality |
US10235808B2 (en) | 2015-08-20 | 2019-03-19 | Microsoft Technology Licensing, Llc | Communication system |
US10241990B2 (en) * | 2015-08-26 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture based annotations |
JP6586824B2 (ja) * | 2015-08-27 | 2019-10-09 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
CN106484085B (zh) * | 2015-08-31 | 2019-07-23 | 北京三星通信技术研究有限公司 | 在头戴式显示器中显示真实物体的方法及其头戴式显示器 |
US10186086B2 (en) * | 2015-09-02 | 2019-01-22 | Microsoft Technology Licensing, Llc | Augmented reality control of computing device |
WO2017041093A1 (en) | 2015-09-03 | 2017-03-09 | Delta Energy & Communications, Inc. | System and method for determination and remediation of energy diversion in a smart grid network |
US9766713B2 (en) * | 2015-09-08 | 2017-09-19 | Unity IPR ApS | System and method for providing user interface tools |
US9964765B2 (en) * | 2015-09-11 | 2018-05-08 | The Boeing Company | Virtual display of the real-time position of a robotic device to a human operator positioned on an opposing side of an object |
AU2016324039B2 (en) | 2015-09-16 | 2021-09-30 | Magic Leap, Inc. | Head pose mixing of audio files |
GB2542434A (en) | 2015-09-21 | 2017-03-22 | Figment Productions Ltd | A System for Providing a Virtual Reality Experience |
KR20170035130A (ko) * | 2015-09-22 | 2017-03-30 | 엘지전자 주식회사 | 헤드 마운트 디스플레이 및 그 제어방법 |
WO2017052109A1 (en) * | 2015-09-22 | 2017-03-30 | Samsung Electronics Co., Ltd. | Screen grab method in electronic device |
US11182600B2 (en) * | 2015-09-24 | 2021-11-23 | International Business Machines Corporation | Automatic selection of event video content |
US10133532B2 (en) * | 2015-09-25 | 2018-11-20 | Seiko Epson Corporation | Display system, display device, information display method, and program |
US10027888B1 (en) * | 2015-09-28 | 2018-07-17 | Amazon Technologies, Inc. | Determining area of interest in a panoramic video or photo |
WO2017058962A1 (en) | 2015-09-28 | 2017-04-06 | Wand Labs, Inc. | User assistant for unified messaging platform |
CN108027664B (zh) | 2015-09-28 | 2021-05-28 | 微软技术许可有限责任公司 | 统一的虚拟现实平台 |
US11196621B2 (en) | 2015-10-02 | 2021-12-07 | Delta Energy & Communications, Inc. | Supplemental and alternative digital data delivery and receipt mesh net work realized through the placement of enhanced transformer mounted monitoring devices |
US10511895B2 (en) | 2015-10-09 | 2019-12-17 | Warner Bros. Entertainment Inc. | Cinematic mastering for virtual reality and augmented reality |
US10152825B2 (en) * | 2015-10-16 | 2018-12-11 | Fyusion, Inc. | Augmenting multi-view image data with synthetic objects using IMU and image data |
US11609427B2 (en) | 2015-10-16 | 2023-03-21 | Ostendo Technologies, Inc. | Dual-mode augmented/virtual reality (AR/VR) near-eye wearable displays |
JP6298432B2 (ja) * | 2015-10-19 | 2018-03-20 | 株式会社コロプラ | 画像生成装置、画像生成方法、及び画像生成プログラム |
US10754156B2 (en) | 2015-10-20 | 2020-08-25 | Lockheed Martin Corporation | Multiple-eye, single-display, ultrawide-field-of-view optical see-through augmented reality system |
WO2017068926A1 (ja) * | 2015-10-21 | 2017-04-27 | ソニー株式会社 | 情報処理装置及びその制御方法、並びにコンピュータ・プログラム |
WO2017070646A1 (en) | 2015-10-22 | 2017-04-27 | Delta Energy & Communications, Inc. | Data transfer facilitation across a distributed mesh network using light and optical based technology |
WO2017070648A1 (en) | 2015-10-22 | 2017-04-27 | Delta Energy & Communications, Inc. | Augmentation, expansion and self-healing of a geographically distributed mesh network using unmanned aerial vehicle technology |
KR102400900B1 (ko) * | 2015-10-26 | 2022-05-23 | 엘지전자 주식회사 | 시스템 |
EP3166085B1 (en) * | 2015-10-27 | 2018-08-01 | Philips Lighting Holding B.V. | Determining the lighting effect for a virtually placed luminaire |
US10528021B2 (en) | 2015-10-30 | 2020-01-07 | Rockwell Automation Technologies, Inc. | Automated creation of industrial dashboards and widgets |
US11106273B2 (en) * | 2015-10-30 | 2021-08-31 | Ostendo Technologies, Inc. | System and methods for on-body gestural interfaces and projection displays |
KR102489402B1 (ko) * | 2015-11-02 | 2023-01-18 | 삼성전자주식회사 | 디스플레이 장치 및 그의 영상 표시 방법 |
US10440355B2 (en) * | 2015-11-06 | 2019-10-08 | Facebook Technologies, Llc | Depth mapping with a head mounted display using stereo cameras and structured light |
US10082878B2 (en) | 2015-11-11 | 2018-09-25 | Swan Solutions, Inc. | Method for controlling and calibrating a device with a gesture |
US20170140215A1 (en) * | 2015-11-18 | 2017-05-18 | Le Holdings (Beijing) Co., Ltd. | Gesture recognition method and virtual reality display output device |
WO2017091479A1 (en) | 2015-11-23 | 2017-06-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
JP6597235B2 (ja) * | 2015-11-30 | 2019-10-30 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US10133441B2 (en) * | 2015-11-30 | 2018-11-20 | Kabushiki Kaisha Toshiba | Electronic apparatus and method |
US10304247B2 (en) * | 2015-12-09 | 2019-05-28 | Microsoft Technology Licensing, Llc | Third party holographic portal |
US9824437B2 (en) | 2015-12-11 | 2017-11-21 | Daqri, Llc | System and method for tool mapping |
EP3182328A1 (en) * | 2015-12-17 | 2017-06-21 | Nokia Technologies Oy | A method, apparatus or computer program for controlling image processing of a captured image of a scene to adapt the captured image |
US10345594B2 (en) | 2015-12-18 | 2019-07-09 | Ostendo Technologies, Inc. | Systems and methods for augmented near-eye wearable displays |
US10134188B2 (en) | 2015-12-21 | 2018-11-20 | Intel Corporation | Body-centric mobile point-of-view augmented and virtual reality |
US10404938B1 (en) | 2015-12-22 | 2019-09-03 | Steelcase Inc. | Virtual world method and system for affecting mind state |
US9841813B2 (en) * | 2015-12-22 | 2017-12-12 | Delphi Technologies, Inc. | Automated vehicle human-machine interface system based on glance-direction |
WO2017110731A1 (ja) | 2015-12-24 | 2017-06-29 | 株式会社ソニー・インタラクティブエンタテインメント | 周波数帯決定装置、ヘッドマウントディスプレイ、周波数帯決定方法及びプログラム |
US20170185142A1 (en) * | 2015-12-25 | 2017-06-29 | Le Holdings (Beijing) Co., Ltd. | Method, system and smart glove for obtaining immersion in virtual reality system |
US10578882B2 (en) | 2015-12-28 | 2020-03-03 | Ostendo Technologies, Inc. | Non-telecentric emissive micro-pixel array light modulators and methods of fabrication thereof |
US10140507B2 (en) * | 2015-12-29 | 2018-11-27 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing hand gestures in a virtual reality headset |
EP3188075B1 (en) * | 2015-12-29 | 2023-02-22 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing hand gestures in a virtual reality headset |
US9706286B1 (en) * | 2015-12-31 | 2017-07-11 | Oculus Vr, Llc | Headphone retention mechanism |
US10313281B2 (en) | 2016-01-04 | 2019-06-04 | Rockwell Automation Technologies, Inc. | Delivery of automated notifications by an industrial asset |
US10657373B2 (en) * | 2016-01-06 | 2020-05-19 | Orcam Technologies Ltd. | Systems and methods for automatically varying privacy settings of wearable camera systems |
US9952429B2 (en) | 2016-01-07 | 2018-04-24 | International Business Machines Corporation | Plurality of wearable devices sharing partially obstructing view at different angles to overcome visual obstructions |
US10068376B2 (en) * | 2016-01-11 | 2018-09-04 | Microsoft Technology Licensing, Llc | Updating mixed reality thumbnails |
CN105700160A (zh) * | 2016-01-19 | 2016-06-22 | 陈超平 | 三维显示装置及适用该三维显示装置的图像处理方法 |
US10397320B2 (en) | 2016-01-20 | 2019-08-27 | International Business Machines Corporation | Location based synchronized augmented reality streaming |
US10095266B2 (en) * | 2016-01-28 | 2018-10-09 | Colopl, Inc. | System and method for interfacing between a display and a controller |
US10120437B2 (en) * | 2016-01-29 | 2018-11-06 | Rovi Guides, Inc. | Methods and systems for associating input schemes with physical world objects |
US10067636B2 (en) * | 2016-02-09 | 2018-09-04 | Unity IPR ApS | Systems and methods for a virtual reality editor |
EP3206121A1 (en) * | 2016-02-09 | 2017-08-16 | Nokia Technologies Oy | Methods and apparatuses relating to the handling of visual virtual reality content |
EP3206122A1 (en) | 2016-02-10 | 2017-08-16 | Nokia Technologies Oy | An apparatus and associated methods |
US10665020B2 (en) | 2016-02-15 | 2020-05-26 | Meta View, Inc. | Apparatuses, methods and systems for tethering 3-D virtual elements to digital content |
US10169922B2 (en) * | 2016-02-16 | 2019-01-01 | Microsoft Technology Licensing, Llc | Reality mixer for mixed reality |
US10181218B1 (en) | 2016-02-17 | 2019-01-15 | Steelcase Inc. | Virtual affordance sales tool |
US10567449B2 (en) | 2016-02-17 | 2020-02-18 | Meta View, Inc. | Apparatuses, methods and systems for sharing virtual elements |
MX2018010238A (es) | 2016-02-24 | 2019-06-06 | Delta Energy & Communications Inc | Red de malla 802.11s distribuida usando hardware de módulo de transformador para la captura y transmisión de datos. |
US9984510B1 (en) * | 2016-03-02 | 2018-05-29 | Meta Company | System and method for modifying virtual elements in a virtual environment using hierarchical anchors incorporated into virtual elements |
US20170256096A1 (en) * | 2016-03-07 | 2017-09-07 | Google Inc. | Intelligent object sizing and placement in a augmented / virtual reality environment |
GB2548346B (en) | 2016-03-11 | 2020-11-18 | Sony Interactive Entertainment Europe Ltd | Image processing method and apparatus |
WO2017209829A2 (en) * | 2016-03-15 | 2017-12-07 | Ellwood Sutherland Cook | Hybrid photonic vr/ar systems |
KR101720132B1 (ko) * | 2016-03-17 | 2017-03-27 | 주식회사 엔토소프트 | 측위 정보를 기반으로 복수의 사용자 간 동일한 증강 현실 영상을 공유하는 방법 및 그 시스템 |
WO2017160920A1 (en) * | 2016-03-17 | 2017-09-21 | Becton, Dickinson And Company | Medical record system using a patient avatar |
US10091466B2 (en) | 2016-03-18 | 2018-10-02 | Motorola Solutions, Inc. | Visual perception determination system and method |
US10176641B2 (en) * | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
US10115234B2 (en) * | 2016-03-21 | 2018-10-30 | Accenture Global Solutions Limited | Multiplatform based experience generation |
JP2017173530A (ja) * | 2016-03-23 | 2017-09-28 | 富士通株式会社 | 音声入力支援プログラム、ヘッドマウントディスプレイ、音声入力支援方法および音声入力支援装置 |
CN105892650A (zh) * | 2016-03-28 | 2016-08-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US20170287215A1 (en) * | 2016-03-29 | 2017-10-05 | Google Inc. | Pass-through camera user interface elements for virtual reality |
US10373381B2 (en) * | 2016-03-30 | 2019-08-06 | Microsoft Technology Licensing, Llc | Virtual object manipulation within physical environment |
CN114995594A (zh) | 2016-03-31 | 2022-09-02 | 奇跃公司 | 使用姿势和多dof控制器与3d虚拟对象的交互 |
CN105913495A (zh) * | 2016-03-31 | 2016-08-31 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US10353203B2 (en) | 2016-04-05 | 2019-07-16 | Ostendo Technologies, Inc. | Augmented/virtual reality near-eye displays with edge imaging lens comprising a plurality of display devices |
US10466491B2 (en) | 2016-06-01 | 2019-11-05 | Mentor Acquisition One, Llc | Modular systems for head-worn computers |
US10684478B2 (en) | 2016-05-09 | 2020-06-16 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10824253B2 (en) | 2016-05-09 | 2020-11-03 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
CN109416575A (zh) * | 2016-04-12 | 2019-03-01 | 锐思拓公司 | 在虚拟化环境中呈现图像的方法和设备 |
US10846932B2 (en) | 2016-04-22 | 2020-11-24 | Interdigital Ce Patent Holdings | Method and device for compositing an image |
US10652303B2 (en) * | 2016-04-28 | 2020-05-12 | Rabbit Asset Purchase Corp. | Screencast orchestration |
US10453431B2 (en) | 2016-04-28 | 2019-10-22 | Ostendo Technologies, Inc. | Integrated near-far light field display systems |
US9995936B1 (en) * | 2016-04-29 | 2018-06-12 | Lockheed Martin Corporation | Augmented reality systems having a virtual image overlaying an infrared portion of a live scene |
US10522106B2 (en) | 2016-05-05 | 2019-12-31 | Ostendo Technologies, Inc. | Methods and apparatus for active transparency modulation |
CN105931272B (zh) * | 2016-05-06 | 2019-04-05 | 上海乐相科技有限公司 | 一种运动对象追踪方法及系统 |
KR20170126295A (ko) * | 2016-05-09 | 2017-11-17 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 장치 및 그것의 제어방법 |
WO2017196404A1 (en) * | 2016-05-10 | 2017-11-16 | Google Llc | Methods and apparatus to use predicted actions in virtual reality environments |
KR102560558B1 (ko) * | 2016-05-20 | 2023-07-27 | 매직 립, 인코포레이티드 | 사용자 인터페이스 메뉴의 콘텍추얼 인식 |
WO2017201568A1 (en) | 2016-05-23 | 2017-11-30 | tagSpace Pty Ltd | Media tags location-anchored digital media for augmented reality and virtual reality environments |
US10650591B1 (en) | 2016-05-24 | 2020-05-12 | Out of Sight Vision Systems LLC | Collision avoidance system for head mounted display utilized in room scale virtual reality system |
US10981060B1 (en) | 2016-05-24 | 2021-04-20 | Out of Sight Vision Systems LLC | Collision avoidance system for room scale virtual reality system |
WO2017204120A1 (ja) * | 2016-05-25 | 2017-11-30 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法およびプログラム |
US11577159B2 (en) | 2016-05-26 | 2023-02-14 | Electronic Scripting Products Inc. | Realistic virtual/augmented/mixed reality viewing and interactions |
US10217231B2 (en) * | 2016-05-31 | 2019-02-26 | Microsoft Technology Licensing, Llc | Systems and methods for utilizing anchor graphs in mixed reality environments |
US9992429B2 (en) | 2016-05-31 | 2018-06-05 | Microsoft Technology Licensing, Llc | Video pinning |
US9762851B1 (en) * | 2016-05-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Shared experience with contextual augmentation |
JP6689679B2 (ja) * | 2016-06-01 | 2020-04-28 | 京セラ株式会社 | 表示装置、情報表示システム、及びプログラム |
US11468111B2 (en) | 2016-06-01 | 2022-10-11 | Microsoft Technology Licensing, Llc | Online perspective search for 3D components |
US20170351415A1 (en) * | 2016-06-06 | 2017-12-07 | Jonathan K. Cheng | System and interfaces for an interactive system |
US10146335B2 (en) * | 2016-06-09 | 2018-12-04 | Microsoft Technology Licensing, Llc | Modular extension of inertial controller for six DOF mixed reality input |
US10249084B2 (en) * | 2016-06-10 | 2019-04-02 | Microsoft Technology Licensing, Llc | Tap event location with a selection apparatus |
US10245507B2 (en) | 2016-06-13 | 2019-04-02 | Sony Interactive Entertainment Inc. | Spectator management at view locations in virtual reality environments |
US10338392B2 (en) * | 2016-06-13 | 2019-07-02 | Microsoft Technology Licensing, Llc | Identification of augmented reality image display position |
WO2017217595A1 (ko) * | 2016-06-14 | 2017-12-21 | 주식회사 엔토소프트 | 측위 정보를 기반으로 증강현실 영상을 구현하기 위한 서버 및 시스템 |
US10062353B2 (en) * | 2016-06-27 | 2018-08-28 | Intel Corporation | System to compensate for visual impairment |
US10591988B2 (en) * | 2016-06-28 | 2020-03-17 | Hiscene Information Technology Co., Ltd | Method for displaying user interface of head-mounted display device |
US10657701B2 (en) * | 2016-06-30 | 2020-05-19 | Sony Interactive Entertainment Inc. | Dynamic entering and leaving of virtual-reality environments navigated by different HMD users |
CA2972732A1 (en) * | 2016-07-07 | 2018-01-07 | David Franklin | Gesture-based user interface |
US10726443B2 (en) | 2016-07-11 | 2020-07-28 | Samsung Electronics Co., Ltd. | Deep product placement |
DE102016113000A1 (de) * | 2016-07-14 | 2018-01-18 | Aesculap Ag | Endoskopische Vorrichtung und Verfahren zur endoskopischen Untersuchung |
EP3496044A4 (en) * | 2016-07-15 | 2019-10-09 | Nurve, Inc. | PICTURE DISPLAY AND PICTURE DISPLAY SYSTEM |
KR20180010891A (ko) * | 2016-07-22 | 2018-01-31 | 동서대학교산학협력단 | Vr기기를 통한 360도 오페라 영상 제공방법 |
US10489978B2 (en) * | 2016-07-26 | 2019-11-26 | Rouslan Lyubomirov DIMITROV | System and method for displaying computer-based content in a virtual or augmented environment |
CN106155326A (zh) | 2016-07-26 | 2016-11-23 | 北京小米移动软件有限公司 | 虚拟现实通讯中的对象识别方法和装置、虚拟现实设备 |
EP3494447B1 (en) | 2016-08-04 | 2021-05-19 | Reification Inc. | Methods for simultaneous localization and mapping (slam) and related apparatus and systems |
CN106303555B (zh) * | 2016-08-05 | 2019-12-03 | 深圳市摩登世纪科技有限公司 | 一种基于混合现实的直播方法、装置和系统 |
US11238610B2 (en) * | 2016-08-10 | 2022-02-01 | Disney Enterprises, Inc. | Placing large objects and objects separated by large distances in augmented reality |
IL292911B2 (en) * | 2016-08-11 | 2023-11-01 | Magic Leap Inc | Automatic positioning of a virtual object in three-dimensional space |
US10592067B2 (en) * | 2016-08-12 | 2020-03-17 | Boston Scientific Scimed, Inc. | Distributed interactive medical visualization system with primary/secondary interaction features |
US11017712B2 (en) | 2016-08-12 | 2021-05-25 | Intel Corporation | Optimized display image rendering |
WO2018035143A1 (en) | 2016-08-15 | 2018-02-22 | Delta Energy & Communications, Inc. | Integrated solution of internet of things and smart grid network |
US10318570B2 (en) | 2016-08-18 | 2019-06-11 | Rockwell Automation Technologies, Inc. | Multimodal search input for an industrial search platform |
US10192258B2 (en) * | 2016-08-23 | 2019-01-29 | Derek A Devries | Method and system of augmented-reality simulations |
US10074205B2 (en) | 2016-08-30 | 2018-09-11 | Intel Corporation | Machine creation of program with frame analysis method and apparatus |
US10158834B2 (en) * | 2016-08-30 | 2018-12-18 | Hand Held Products, Inc. | Corrected projection perspective distortion |
EP3291531A1 (en) * | 2016-09-06 | 2018-03-07 | Thomson Licensing | Methods, devices and systems for automatic zoom when playing an augmented reality scene |
US10325407B2 (en) | 2016-09-15 | 2019-06-18 | Microsoft Technology Licensing, Llc | Attribute detection tools for mixed reality |
US10791037B2 (en) | 2016-09-21 | 2020-09-29 | Iunu, Inc. | Reliable transfer of numerous geographically distributed large files to a centralized store |
US11244398B2 (en) | 2016-09-21 | 2022-02-08 | Iunu, Inc. | Plant provenance and data products from computer object recognition driven tracking |
US10635274B2 (en) | 2016-09-21 | 2020-04-28 | Iunu, Inc. | Horticultural care tracking, validation and verification |
US11538099B2 (en) | 2016-09-21 | 2022-12-27 | Iunu, Inc. | Online data market for automated plant growth input curve scripts |
US20180082477A1 (en) * | 2016-09-22 | 2018-03-22 | Navitaire Llc | Systems and Methods for Improved Data Integration in Virtual Reality Architectures |
US20180082476A1 (en) * | 2016-09-22 | 2018-03-22 | International Business Machines Corporation | Collaborative search for out of field of view augmented reality objects |
US10319128B2 (en) | 2016-09-26 | 2019-06-11 | Rockwell Automation Technologies, Inc. | Augmented reality presentation of an industrial environment |
US10401839B2 (en) | 2016-09-26 | 2019-09-03 | Rockwell Automation Technologies, Inc. | Workflow tracking and identification using an industrial monitoring system |
US10545492B2 (en) | 2016-09-26 | 2020-01-28 | Rockwell Automation Technologies, Inc. | Selective online and offline access to searchable industrial automation data |
US11432051B2 (en) * | 2016-09-27 | 2022-08-30 | Srinivas Krishna | Method and system for positioning, viewing and sharing virtual content |
US10445925B2 (en) * | 2016-09-30 | 2019-10-15 | Sony Interactive Entertainment Inc. | Using a portable device and a head-mounted display to view a shared virtual reality space |
US10068379B2 (en) * | 2016-09-30 | 2018-09-04 | Intel Corporation | Automatic placement of augmented reality models |
US10503349B2 (en) | 2016-10-04 | 2019-12-10 | Facebook, Inc. | Shared three-dimensional user interface with personal space |
EP3526775A4 (en) * | 2016-10-17 | 2021-01-06 | Muzik Inc. | INTEGRATED PROJECTOR AUDIO / VIDEO CLOTHING COMPUTER SYSTEM |
GB2555378B (en) * | 2016-10-18 | 2021-06-09 | Virtually Live Switzerland Gmbh | HMD delivery system and method |
US10593116B2 (en) | 2016-10-24 | 2020-03-17 | Snap Inc. | Augmented reality object manipulation |
KR102561860B1 (ko) * | 2016-10-25 | 2023-08-02 | 삼성전자주식회사 | 전자장치 및 그 제어방법 |
US10291949B2 (en) * | 2016-10-26 | 2019-05-14 | Orcam Technologies Ltd. | Wearable device and methods for identifying a verbal contract |
KR101846142B1 (ko) * | 2016-11-04 | 2018-05-21 | 이장근 | 체험 공유 시스템 |
US10388075B2 (en) | 2016-11-08 | 2019-08-20 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US10735691B2 (en) * | 2016-11-08 | 2020-08-04 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US10866631B2 (en) | 2016-11-09 | 2020-12-15 | Rockwell Automation Technologies, Inc. | Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality |
GB2555838A (en) * | 2016-11-11 | 2018-05-16 | Sony Corp | An apparatus, computer program and method |
WO2018090056A2 (en) * | 2016-11-14 | 2018-05-17 | Taqtile | Cross-platform multi-modal virtual collaboration and holographic maps |
US10158634B2 (en) | 2016-11-16 | 2018-12-18 | Bank Of America Corporation | Remote document execution and network transfer using augmented reality display devices |
TWI587206B (zh) * | 2016-11-24 | 2017-06-11 | 財團法人工業技術研究院 | 互動顯示裝置及系統 |
US10152851B2 (en) * | 2016-11-29 | 2018-12-11 | Microsoft Technology Licensing, Llc | Notification artifact display |
US20180150204A1 (en) * | 2016-11-30 | 2018-05-31 | Google Inc. | Switching of active objects in an augmented and/or virtual reality environment |
EP3549108A1 (en) * | 2016-12-02 | 2019-10-09 | Koninklijke KPN N.V. | Determining size of virtual object |
US10403285B1 (en) * | 2016-12-05 | 2019-09-03 | Google Llc | Methods and apparatus to define virtual scenes using natural language commands and natural gestures |
CN114236837A (zh) | 2016-12-05 | 2022-03-25 | 凯斯西储大学 | 用于显示交互式增强现实展示的系统、方法和介质 |
US10147243B2 (en) * | 2016-12-05 | 2018-12-04 | Google Llc | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment |
US12020667B2 (en) | 2016-12-05 | 2024-06-25 | Case Western Reserve University | Systems, methods, and media for displaying interactive augmented reality presentations |
US11164378B1 (en) | 2016-12-08 | 2021-11-02 | Out of Sight Vision Systems LLC | Virtual reality detection and projection system for use with a head mounted display |
CN106409157B (zh) * | 2016-12-12 | 2018-12-11 | 北京沃富瑞德文化传播有限公司 | 一种可用于魔术表演的幻术显示系统 |
JP2018097141A (ja) * | 2016-12-13 | 2018-06-21 | 富士ゼロックス株式会社 | 頭部装着型表示装置、仮想物体表示システム |
US20180160777A1 (en) * | 2016-12-14 | 2018-06-14 | Black Brass, Inc. | Foot measuring and sizing application |
US10420397B2 (en) | 2016-12-14 | 2019-09-24 | Black Brass, Inc. | Foot measuring and sizing application |
US10182210B1 (en) * | 2016-12-15 | 2019-01-15 | Steelcase Inc. | Systems and methods for implementing augmented reality and/or virtual reality |
US10482665B2 (en) * | 2016-12-16 | 2019-11-19 | Microsoft Technology Licensing, Llc | Synching and desyncing a shared view in a multiuser scenario |
US20180173300A1 (en) * | 2016-12-19 | 2018-06-21 | Microsoft Technology Licensing, Llc | Interactive virtual objects in mixed reality environments |
JP6920057B2 (ja) * | 2016-12-22 | 2021-08-18 | キヤノンマーケティングジャパン株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP3343267B1 (en) | 2016-12-30 | 2024-01-24 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
US10262464B2 (en) * | 2016-12-30 | 2019-04-16 | Intel Corporation | Dynamic, local augmented reality landmarks |
US10499997B2 (en) | 2017-01-03 | 2019-12-10 | Mako Surgical Corp. | Systems and methods for surgical navigation |
US10575067B2 (en) | 2017-01-04 | 2020-02-25 | Samsung Electronics Co., Ltd. | Context based augmented advertisement |
CN106775258A (zh) * | 2017-01-04 | 2017-05-31 | 虹软(杭州)多媒体信息技术有限公司 | 利用手势控制实现虚拟现实交互的方法和装置 |
KR102294218B1 (ko) | 2017-01-06 | 2021-08-27 | 나이키 이노베이트 씨.브이. | 자동 쇼핑 어시스턴트를 이용한 개인화 쇼핑을 위한 시스템, 플랫폼 및 방법 |
US10437343B2 (en) | 2017-01-06 | 2019-10-08 | Samsung Electronics Co., Ltd. | Augmented reality control of internet of things devices |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
CN110168476B (zh) * | 2017-01-09 | 2022-11-04 | 斯纳普公司 | 增强现实对象操纵 |
US10212428B2 (en) | 2017-01-11 | 2019-02-19 | Microsoft Technology Licensing, Llc | Reprojecting holographic video to enhance streaming bandwidth/quality |
JP6812803B2 (ja) * | 2017-01-12 | 2021-01-13 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10843068B2 (en) * | 2017-01-18 | 2020-11-24 | Xvisio Technology Corp. | 6DoF inside-out tracking game controller |
JP2018116537A (ja) * | 2017-01-19 | 2018-07-26 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10347049B2 (en) | 2017-01-20 | 2019-07-09 | Houzz, Inc. | Interactive item placement simulation |
KR20180089208A (ko) * | 2017-01-31 | 2018-08-08 | 삼성전자주식회사 | 스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법 |
US20180232937A1 (en) * | 2017-02-14 | 2018-08-16 | Philip Moyer | System and Method for Implementing Virtual Reality |
DE102017202517A1 (de) * | 2017-02-16 | 2018-08-16 | Siemens Healthcare Gmbh | Bedienvorrichtung und Bedienverfahren zum Bedienen eines medizinischen Geräts |
WO2018148845A1 (en) | 2017-02-17 | 2018-08-23 | Nz Technologies Inc. | Methods and systems for touchless control of surgical environment |
US11024064B2 (en) * | 2017-02-24 | 2021-06-01 | Masimo Corporation | Augmented reality system for displaying patient data |
EP3585254B1 (en) | 2017-02-24 | 2024-03-20 | Masimo Corporation | Medical device cable and method of sharing data between connected medical devices |
US11176743B2 (en) * | 2017-02-28 | 2021-11-16 | Signify Holding B.V. | Portable device for rendering a virtual object and a method thereof |
US10795022B2 (en) | 2017-03-02 | 2020-10-06 | Sony Corporation | 3D depth map |
US10672171B2 (en) * | 2017-03-07 | 2020-06-02 | Lamplight Forest Holdings Pty Ltd | System and method for dynamic content generation in a virtual space |
US9812004B1 (en) | 2017-03-16 | 2017-11-07 | Swan Solutions, Inc. | Control system for a terminal device and a switch |
KR102177734B1 (ko) * | 2017-03-20 | 2020-11-12 | 구글 엘엘씨 | 가상 현실에서의 홀드된 객체 안정화 |
CN107066092B (zh) * | 2017-03-20 | 2020-04-03 | 上海大学 | Vr运行空间动态检测与参数化虚拟场景重构系统与方法 |
WO2018175335A1 (en) * | 2017-03-24 | 2018-09-27 | Pcms Holdings, Inc. | Method and system for discovering and positioning content into augmented reality space |
US10091549B1 (en) | 2017-03-30 | 2018-10-02 | Rovi Guides, Inc. | Methods and systems for recommending media assets based on the geographic location at which the media assets are frequently consumed |
US10290152B2 (en) * | 2017-04-03 | 2019-05-14 | Microsoft Technology Licensing, Llc | Virtual object user interface display |
US10713848B2 (en) * | 2017-04-06 | 2020-07-14 | Htc Corporation | System and method for providing simulated environment |
EP3384832A1 (en) * | 2017-04-06 | 2018-10-10 | Koninklijke Philips N.V. | Method and apparatus for providing guidance for placement of a wearable device |
US10642045B2 (en) | 2017-04-07 | 2020-05-05 | Microsoft Technology Licensing, Llc | Scanner-illuminated LCOS projector for head mounted display |
US10430147B2 (en) * | 2017-04-17 | 2019-10-01 | Intel Corporation | Collaborative multi-user virtual reality |
CN110785688B (zh) | 2017-04-19 | 2021-08-27 | 奇跃公司 | 可穿戴系统的多模式任务执行和文本编辑 |
US10268263B2 (en) | 2017-04-20 | 2019-04-23 | Microsoft Technology Licensing, Llc | Vestibular anchoring |
JP6744990B2 (ja) | 2017-04-28 | 2020-08-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
US11782669B2 (en) * | 2017-04-28 | 2023-10-10 | Microsoft Technology Licensing, Llc | Intuitive augmented reality collaboration on visual data |
US10817724B2 (en) | 2017-05-01 | 2020-10-27 | Microsoft Technology Licensing, Llc | Real time object surface identification for augmented reality environments |
AU2018261328B2 (en) * | 2017-05-01 | 2022-08-25 | Magic Leap, Inc. | Matching content to a spatial 3D environment |
US10871934B2 (en) * | 2017-05-04 | 2020-12-22 | Microsoft Technology Licensing, Llc | Virtual content displayed with shared anchor |
US11054894B2 (en) | 2017-05-05 | 2021-07-06 | Microsoft Technology Licensing, Llc | Integrated mixed-input system |
US10510174B2 (en) * | 2017-05-08 | 2019-12-17 | Microsoft Technology Licensing, Llc | Creating a mixed-reality video based upon tracked skeletal features |
EP3622529A1 (en) | 2017-05-08 | 2020-03-18 | Masimo Corporation | System for pairing a medical system to a network controller by use of a dongle |
US10650037B2 (en) * | 2017-05-15 | 2020-05-12 | Sony Interactive Entertainment LLC | Enhancing information in a three-dimensional map |
WO2018210656A1 (en) * | 2017-05-16 | 2018-11-22 | Koninklijke Philips N.V. | Augmented reality for collaborative interventions |
EP3635512A1 (en) * | 2017-05-16 | 2020-04-15 | Koninklijke Philips N.V. | Virtual cover for user interaction in augmented reality |
KR102355391B1 (ko) * | 2017-06-02 | 2022-01-24 | 애플 인크. | 가상 기재로서 사용하기 위한 평면 및/또는 쿼드트리들을 검출하기 위한 방법 및 디바이스 |
US20180359448A1 (en) * | 2017-06-07 | 2018-12-13 | Digital Myths Studio, Inc. | Multiparty collaborative interaction in a virtual reality environment |
TWI634344B (zh) | 2017-06-07 | 2018-09-01 | 國立中山大學 | 三維軌跡偵測系統 |
US10748244B2 (en) * | 2017-06-09 | 2020-08-18 | Samsung Electronics Co., Ltd. | Systems and methods for stereo content detection |
KR102395030B1 (ko) | 2017-06-09 | 2022-05-09 | 한국전자통신연구원 | 가상 콘텐츠 원격 제어 방법 및 이를 위한 장치 |
IT201700064174A1 (it) * | 2017-06-09 | 2018-12-09 | Arioli S P A | Macchina per il trattamento di tessuti stampati in falde |
US11048326B2 (en) | 2017-06-12 | 2021-06-29 | Sony Corporation | Information processing system, information processing method, and program |
US10304251B2 (en) * | 2017-06-15 | 2019-05-28 | Microsoft Technology Licensing, Llc | Virtually representing spaces and objects while maintaining physical properties |
US10620710B2 (en) * | 2017-06-15 | 2020-04-14 | Microsoft Technology Licensing, Llc | Displacement oriented interaction in computer-mediated reality |
US10830882B2 (en) * | 2017-06-19 | 2020-11-10 | Ge Aviation Systems, Llc | Methods and apparatus for distributed, multi-node, low-frequency radar systems for degraded visual environments |
US10643373B2 (en) * | 2017-06-19 | 2020-05-05 | Apple Inc. | Augmented reality interface for interacting with displayed maps |
US20180365900A1 (en) | 2017-06-20 | 2018-12-20 | Immerex Inc. | Mixed Reality Head Mounted Display Device |
US20180373293A1 (en) * | 2017-06-21 | 2018-12-27 | Newtonoid Technologies, L.L.C. | Textile display system and method |
US11302439B2 (en) | 2017-06-27 | 2022-04-12 | Sony Corporation | Medical image processing apparatus, medical image processing method, and computing device |
KR20230031996A (ko) | 2017-06-27 | 2023-03-07 | 나이키 이노베이트 씨.브이. | 자동화된 쇼핑 어시스턴트를 사용하는 개인화된 쇼핑을 위한 시스템, 플랫폼 및 방법 |
US11682045B2 (en) | 2017-06-28 | 2023-06-20 | Samsung Electronics Co., Ltd. | Augmented reality advertisements on objects |
US20190007672A1 (en) * | 2017-06-30 | 2019-01-03 | Bobby Gene Burrough | Method and Apparatus for Generating Dynamic Real-Time 3D Environment Projections |
WO2019000429A1 (en) * | 2017-06-30 | 2019-01-03 | Guangdong Virtual Reality Technology Co., Ltd. | METHODS AND SYSTEMS FOR OPERATING AN APPARATUS THROUGH INCREASED REALITY |
CN107315355B (zh) * | 2017-06-30 | 2021-05-18 | 京东方科技集团股份有限公司 | 一种电器控制设备及方法 |
US10895966B2 (en) * | 2017-06-30 | 2021-01-19 | Microsoft Technology Licensing, Llc | Selection using a multi-device mixed interactivity system |
US11023109B2 (en) | 2017-06-30 | 2021-06-01 | Microsoft Techniogy Licensing, LLC | Annotation using a multi-device mixed interactivity system |
KR101988110B1 (ko) | 2017-07-03 | 2019-09-30 | 포항공과대학교 산학협력단 | 생체신호연동 가상현실 교육 시스템 및 방법 |
US10885714B2 (en) | 2017-07-07 | 2021-01-05 | Niantic, Inc. | Cloud enabled augmented reality |
CN107368193B (zh) * | 2017-07-19 | 2021-06-11 | 讯飞幻境(北京)科技有限公司 | 人机操作交互方法和系统 |
WO2019015765A1 (en) * | 2017-07-20 | 2019-01-24 | Universitätsklinikum Hamburg-Eppendorf | APPARATUS FOR MEASURING OR DRIVING EMOTION OR BEHAVIOR |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
CN112198959A (zh) * | 2017-07-28 | 2021-01-08 | 深圳市瑞立视多媒体科技有限公司 | 虚拟现实交互方法、装置及系统 |
CN107390875B (zh) * | 2017-07-28 | 2020-01-31 | 腾讯科技(上海)有限公司 | 信息处理方法、装置、终端设备和计算机可读存储介质 |
US10529136B2 (en) * | 2017-08-16 | 2020-01-07 | Dell Products L.P. | Augmented reality workspace system |
US10521944B2 (en) * | 2017-08-16 | 2019-12-31 | Microsoft Technology Licensing, Llc | Repositioning user perspectives in virtual reality environments |
US10803642B2 (en) * | 2017-08-18 | 2020-10-13 | Adobe Inc. | Collaborative virtual reality anti-nausea and video streaming techniques |
US10613703B2 (en) | 2017-08-18 | 2020-04-07 | Adobe Inc. | Collaborative interaction with virtual reality video |
US10152141B1 (en) | 2017-08-18 | 2018-12-11 | Osterhout Group, Inc. | Controller movement tracking with light emitters |
JP7259753B2 (ja) * | 2017-08-29 | 2023-04-18 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
DK180470B1 (en) * | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
US20190108578A1 (en) | 2017-09-13 | 2019-04-11 | Magical Technologies, Llc | Systems and methods of rewards object spawning and augmented reality commerce platform supporting multiple seller entities |
US10796489B1 (en) | 2017-09-13 | 2020-10-06 | Lucasfilm Entertainment Company Ltd. | Game engine responsive to motion-capture data for mixed-reality environments |
CN107730591A (zh) * | 2017-09-14 | 2018-02-23 | 北京致臻智造科技有限公司 | 一种基于混合现实设备的装配引导方法及系统 |
US10304252B2 (en) * | 2017-09-15 | 2019-05-28 | Trimble Inc. | Collaboration methods to improve use of 3D models in mixed reality environments |
CN109559370A (zh) * | 2017-09-26 | 2019-04-02 | 华为技术有限公司 | 一种三维建模方法及装置 |
DE102017217025A1 (de) * | 2017-09-26 | 2019-03-28 | Audi Ag | Verfahren und System zum Durchführen eines virtuellen Treffens zwischen wenigstens einer ersten Person und einer zweiten Person |
JP2019061590A (ja) * | 2017-09-28 | 2019-04-18 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
KR101938361B1 (ko) * | 2017-09-29 | 2019-01-14 | 재단법인 아산사회복지재단 | X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법 및 프로그램 |
CN111052046B (zh) | 2017-09-29 | 2022-06-03 | 苹果公司 | 使用现实界面访问外部设备的功能 |
US10777007B2 (en) | 2017-09-29 | 2020-09-15 | Apple Inc. | Cooperative augmented reality map interface |
WO2019067482A1 (en) * | 2017-09-29 | 2019-04-04 | Zermatt Technologies Llc | DISPLAYING APPLICATIONS IN A SIMULATED REALITY ENVIRONMENT ENVIRONMENT |
US10922878B2 (en) * | 2017-10-04 | 2021-02-16 | Google Llc | Lighting for inserted content |
US10685456B2 (en) * | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
WO2019078836A1 (en) * | 2017-10-18 | 2019-04-25 | Hewlett-Packard Development Company, L.P. | SYSTEMS OF INCREASED REALITY |
US11966793B1 (en) * | 2017-10-18 | 2024-04-23 | Campfire 3D, Inc. | Systems and methods to extend an interactive space across multiple platforms |
WO2019079790A1 (en) | 2017-10-21 | 2019-04-25 | Eyecam, Inc | ADAPTIVE GRAPHIC USER INTERFACE SYSTEM |
WO2019079826A1 (en) * | 2017-10-22 | 2019-04-25 | Magical Technologies, Llc | DIGITAL ASSISTANT SYSTEMS, METHODS AND APPARATUSES IN AN INCREASED REALITY ENVIRONMENT AND LOCAL DETERMINATION OF VIRTUAL OBJECT PLACEMENT AND SINGLE OR MULTIDIRECTIONAL OBJECTIVES AS GATEWAYS BETWEEN A PHYSICAL WORLD AND A DIGITAL WORLD COMPONENT OF THE SAME ENVIRONMENT OF INCREASED REALITY |
US10484667B2 (en) | 2017-10-31 | 2019-11-19 | Sony Corporation | Generating 3D depth map using parallax |
US10600255B2 (en) * | 2017-11-03 | 2020-03-24 | Marxent Labs, LLC | Technologies for composing a virtual reality setting in a mobile computing environment |
EP3602272B1 (en) * | 2017-11-06 | 2023-11-22 | Google LLC | Methods and systems for attending to a presenting user |
GB2568241B (en) * | 2017-11-06 | 2022-01-05 | Sony Interactive Entertainment Inc | Content generation apparatus and method |
US10445944B2 (en) | 2017-11-13 | 2019-10-15 | Rockwell Automation Technologies, Inc. | Augmented reality safety automation zone system and method |
IL255671B (en) * | 2017-11-14 | 2021-09-30 | Everysight Ltd | System and method for determining an image position using one or more anchors |
CN107967054B (zh) * | 2017-11-16 | 2020-11-27 | 中国人民解放军陆军装甲兵学院 | 一种虚拟现实与增强现实耦合的沉浸式三维电子沙盘 |
US10911656B2 (en) * | 2017-11-21 | 2021-02-02 | Microsoft Technology Licensing, Llc | Optical isolation systems for displays |
GB2568678A (en) * | 2017-11-21 | 2019-05-29 | Edesix Ltd | Method of monitoring video |
CN107832036B (zh) * | 2017-11-22 | 2022-01-18 | 北京小米移动软件有限公司 | 语音控制方法、装置及计算机可读存储介质 |
CN107885334B (zh) * | 2017-11-23 | 2021-10-22 | 联想(北京)有限公司 | 一种信息处理方法和虚拟设备 |
US20190163434A1 (en) * | 2017-11-27 | 2019-05-30 | Marxent Labs, LLC | Technologies for networked virtual content in a mobile computing environment |
US10382094B2 (en) * | 2017-11-28 | 2019-08-13 | International Business Machines Corporation | Cable tracking by electromagnetic emission |
WO2019106558A1 (ru) * | 2017-11-29 | 2019-06-06 | ГИОРГАДЗЕ, Анико Тенгизовна | Взаимодействие пользователей в коммуникационной системе с использованием объектов дополненной реальности |
US11087527B2 (en) * | 2017-12-01 | 2021-08-10 | Koninklijke Kpn N.V. | Selecting an omnidirectional image for display |
US10553031B2 (en) | 2017-12-06 | 2020-02-04 | Microsoft Technology Licensing, Llc | Digital project file presentation |
EP3721270B1 (en) | 2017-12-10 | 2024-04-10 | Magic Leap, Inc. | Anti-reflective coatings on optical waveguides |
KR101918262B1 (ko) * | 2017-12-19 | 2018-11-13 | (주) 알큐브 | 혼합 현실 서비스 제공 방법 및 시스템 |
GB2569544B (en) * | 2017-12-19 | 2022-07-20 | Displaylink Uk Ltd | Transmission of a reverse video feed |
AU2018392482A1 (en) | 2017-12-20 | 2020-07-02 | Magic Leap, Inc. | Insert for augmented reality viewing device |
KR102557356B1 (ko) * | 2017-12-22 | 2023-07-18 | 매직 립, 인코포레이티드 | 가상, 증강 또는 혼합 현실 환경에서 3d 비디오들을 생성 및 디스플레이하기 위한 방법들 및 시스템 |
CA3084149A1 (en) * | 2017-12-22 | 2019-06-27 | Magic Leap, Inc. | Methods and system for managing and displaying virtual content in a mixed reality system |
JP6968689B2 (ja) * | 2017-12-27 | 2021-11-17 | Dynabook株式会社 | 電子機器、ウェアラブル機器及び表示制御方法 |
CN108269288B (zh) * | 2017-12-28 | 2020-07-24 | 中国科学院自动化研究所 | 智能异形投影非接触式交互系统和方法 |
US10600205B2 (en) * | 2018-01-08 | 2020-03-24 | Htc Corporation | Anchor recognition in reality system |
US20190213792A1 (en) * | 2018-01-11 | 2019-07-11 | Microsoft Technology Licensing, Llc | Providing Body-Anchored Mixed-Reality Experiences |
CN108269307B (zh) * | 2018-01-15 | 2023-04-07 | 歌尔科技有限公司 | 一种增强现实交互方法及设备 |
WO2019143572A1 (en) * | 2018-01-17 | 2019-07-25 | Pcms Holdings, Inc. | Method and system for ar and vr collaboration in shared spaces |
JP7061883B2 (ja) | 2018-01-22 | 2022-05-02 | マクセル株式会社 | 画像表示装置および画像表示方法 |
AU2019100079B4 (en) * | 2018-01-24 | 2019-08-08 | Apple Inc. | Devices, methods, and graphical user interfaces for system-wide behavior for 3D models |
DK201870347A1 (en) | 2018-01-24 | 2019-10-08 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
US10438414B2 (en) | 2018-01-26 | 2019-10-08 | Microsoft Technology Licensing, Llc | Authoring and presenting 3D presentations in augmented reality |
US11014242B2 (en) * | 2018-01-26 | 2021-05-25 | Microsoft Technology Licensing, Llc | Puppeteering in augmented reality |
DE102018201336A1 (de) * | 2018-01-29 | 2019-08-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Virtual-Reality-Konferenzsystem |
US11398088B2 (en) | 2018-01-30 | 2022-07-26 | Magical Technologies, Llc | Systems, methods and apparatuses to generate a fingerprint of a physical location for placement of virtual objects |
US11062516B2 (en) * | 2018-02-07 | 2021-07-13 | Iunu, Inc. | Augmented reality based horticultural care tracking |
CN111758122A (zh) | 2018-02-22 | 2020-10-09 | 奇跃公司 | 用于混合现实系统的浏览器 |
WO2019165044A1 (en) | 2018-02-22 | 2019-08-29 | Magic Leap, Inc. | Object creation with physical manipulation |
US11341677B2 (en) | 2018-03-01 | 2022-05-24 | Sony Interactive Entertainment Inc. | Position estimation apparatus, tracker, position estimation method, and program |
US10488940B2 (en) * | 2018-03-09 | 2019-11-26 | Capital One Services, Llc | Input commands via visual cues |
EP3766039B1 (en) | 2018-03-15 | 2024-08-14 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
GB201804383D0 (en) | 2018-03-19 | 2018-05-02 | Microsoft Technology Licensing Llc | Multi-endpoint mixed reality meetings |
WO2019182599A1 (en) * | 2018-03-22 | 2019-09-26 | Hewlett-Packard Development Company, L.P. | Digital mark-up in a three dimensional environment |
US10467816B2 (en) * | 2018-03-23 | 2019-11-05 | Microsoft Technology Licensing, Llc | Mixed reality objects |
WO2019185173A1 (en) * | 2018-03-28 | 2019-10-03 | Telefonaktiebolaget Lm Ericsson (Publ) | Head-mounted display and method to reduce visually induced motion sickness in a connected remote display |
US10672159B2 (en) * | 2018-04-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Anchor graph |
US11238675B2 (en) * | 2018-04-04 | 2022-02-01 | The Boeing Company | Mobile visual-inspection system |
US10922862B2 (en) | 2018-04-05 | 2021-02-16 | Lenovo (Singapore) Pte. Ltd. | Presentation of content on headset display based on one or more condition(s) |
US10872470B2 (en) * | 2018-04-05 | 2020-12-22 | Lenovo (Singapore) Pte. Ltd. | Presentation of content at headset display based on other display not being viewable |
US10838574B2 (en) * | 2018-04-09 | 2020-11-17 | Spatial Systems Inc. | Augmented reality computing environments—workspace save and load |
US11093103B2 (en) * | 2018-04-09 | 2021-08-17 | Spatial Systems Inc. | Augmented reality computing environments-collaborative workspaces |
EP3557378B1 (en) * | 2018-04-16 | 2022-02-23 | HTC Corporation | Tracking system for tracking and rendering virtual object corresponding to physical object and the operating method for the same |
US10803293B2 (en) * | 2018-04-17 | 2020-10-13 | Fuji Xerox Co., Ltd. | System and method for semantic or visual collaborative augmented reality |
US10852816B2 (en) * | 2018-04-20 | 2020-12-01 | Microsoft Technology Licensing, Llc | Gaze-informed zoom and pan with manual speed control |
RU2759012C1 (ru) * | 2018-04-24 | 2021-11-08 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Аппаратура и способ для воспроизведения аудиосигнала для проигрывания пользователю |
WO2019209608A1 (en) * | 2018-04-24 | 2019-10-31 | Zermatt Technologies Llc | Multi-device editing of 3d models |
US10839603B2 (en) * | 2018-04-30 | 2020-11-17 | Microsoft Technology Licensing, Llc | Creating interactive zones in virtual environments |
US11380067B2 (en) * | 2018-04-30 | 2022-07-05 | Campfire 3D, Inc. | System and method for presenting virtual content in an interactive space |
US20190340821A1 (en) * | 2018-05-04 | 2019-11-07 | Microsoft Technology Licensing, Llc | Multi-surface object re-mapping in three-dimensional use modes |
US10455351B1 (en) | 2018-05-04 | 2019-10-22 | Microsoft Technology Licensing, Llc | Sharing geo-located information |
DK201870351A1 (en) | 2018-05-07 | 2020-01-13 | Apple Inc. | Devices and Methods for Measuring Using Augmented Reality |
US10937249B2 (en) * | 2018-05-07 | 2021-03-02 | Google Llc | Systems and methods for anchoring virtual objects to physical locations |
US11709370B2 (en) | 2018-05-08 | 2023-07-25 | Apple Inc. | Presentation of an enriched view of a physical setting |
CN112041788B (zh) | 2018-05-09 | 2024-05-03 | 苹果公司 | 使用眼睛注视来选择文本输入字段 |
WO2019222255A1 (en) * | 2018-05-14 | 2019-11-21 | Sri International | Computer aided inspection system and methods |
EP3794428A1 (en) | 2018-05-15 | 2021-03-24 | Thermo Fisher Scientific Inc. | Collaborative virtual reality environment for training |
CN110515452B (zh) * | 2018-05-22 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
WO2019226691A1 (en) | 2018-05-22 | 2019-11-28 | Magic Leap, Inc. | Transmodal input fusion for a wearable system |
US11315337B2 (en) | 2018-05-23 | 2022-04-26 | Samsung Electronics Co., Ltd. | Method and apparatus for managing content in augmented reality system |
JP7082416B2 (ja) * | 2018-05-24 | 2022-06-08 | ザ カラニー ホールディング エスエーアールエル | 実世界を表現するリアルタイム3d仮想世界の中でのリアルタイム3d仮想物体の双方向リアルタイム3dインタラクティブ操作 |
WO2019232282A1 (en) | 2018-05-30 | 2019-12-05 | Magic Leap, Inc. | Compact variable focus configurations |
US11651555B2 (en) | 2018-05-31 | 2023-05-16 | Microsoft Technology Licensing, Llc | Re-creation of virtual environment through a video call |
CN112601975B (zh) | 2018-05-31 | 2024-09-06 | 奇跃公司 | 雷达头部姿势定位 |
US10380804B1 (en) * | 2018-06-01 | 2019-08-13 | Imajion Corporation | Seamless injection of augmented three-dimensional imagery using a positionally encoded video stream |
CN112204958B (zh) * | 2018-06-01 | 2022-01-18 | 西门子股份公司 | 用于无线电模拟的增强现实的方法、设备 |
US10825424B2 (en) | 2018-06-05 | 2020-11-03 | Magic Leap, Inc. | Homography transformation matrices based temperature calibration of a viewing system |
US10497161B1 (en) | 2018-06-08 | 2019-12-03 | Curious Company, LLC | Information display by overlay on an object |
US10747302B2 (en) * | 2018-06-08 | 2020-08-18 | Facebook Technologies, Llc | Artificial reality interaction plane |
EP3803545A4 (en) * | 2018-06-08 | 2022-01-26 | Magic Leap, Inc. | AUGMENTED REALITY VIEWER WITH AUTOMATED SURFACE SELECTION PLACEMENT AND CONTENT ALIGNMENT PLACEMENT |
US20200042160A1 (en) * | 2018-06-18 | 2020-02-06 | Alessandro Gabbi | System and Method for Providing Virtual-Reality Based Interactive Archives for Therapeutic Interventions, Interactions and Support |
EP3584692A1 (en) | 2018-06-19 | 2019-12-25 | InterDigital CE Patent Holdings | Sharing virtual content in a mixed reality scene |
US10549186B2 (en) * | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
CN108919951B (zh) * | 2018-06-28 | 2020-11-20 | 联想(北京)有限公司 | 一种信息交互方法及装置 |
US20200005791A1 (en) * | 2018-06-29 | 2020-01-02 | International Business Machines Corporation | Audio content visualized by pico projection of text for interaction |
US11579441B2 (en) | 2018-07-02 | 2023-02-14 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11510027B2 (en) | 2018-07-03 | 2022-11-22 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
US10818088B2 (en) | 2018-07-10 | 2020-10-27 | Curious Company, LLC | Virtual barrier objects |
US10839604B2 (en) * | 2018-07-11 | 2020-11-17 | The Boeing Company | Augmented reality system with an active portable anchor |
US10776943B2 (en) | 2018-07-17 | 2020-09-15 | Samsung Electronics Co., Ltd. | System and method for 3D association of detected objects |
US11624929B2 (en) | 2018-07-24 | 2023-04-11 | Magic Leap, Inc. | Viewing device with dust seal integration |
WO2020023545A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Temperature dependent calibration of movement detection devices |
US10671163B2 (en) * | 2018-07-24 | 2020-06-02 | Microsoft Technology Licensing, Llc | Refining virtual mesh models through physical contacts |
WO2020023419A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Application sharing |
JP6745301B2 (ja) * | 2018-07-25 | 2020-08-26 | 株式会社バーチャルキャスト | コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム |
CN109214648A (zh) * | 2018-07-27 | 2019-01-15 | 中国联合网络通信集团有限公司 | 新能源交易方法、装置、设备及存储介质 |
US10909772B2 (en) | 2018-07-31 | 2021-02-02 | Splunk Inc. | Precise scaling of virtual objects in an extended reality environment |
US10692299B2 (en) | 2018-07-31 | 2020-06-23 | Splunk Inc. | Precise manipulation of virtual object position in an extended reality environment |
CN112740665A (zh) | 2018-08-02 | 2021-04-30 | 奇跃公司 | 基于头部运动的瞳孔间距离补偿的观察系统 |
CN116820239A (zh) | 2018-08-03 | 2023-09-29 | 奇跃公司 | 图腾在用户交互系统中的融合姿势的基于未融合姿势的漂移校正 |
US10957112B2 (en) | 2018-08-13 | 2021-03-23 | Magic Leap, Inc. | Cross reality system |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
KR20200019486A (ko) * | 2018-08-14 | 2020-02-24 | 삼성전자주식회사 | 전자 장치, 그 제어 방법 및 전자 시스템 |
JP7487176B2 (ja) | 2018-08-22 | 2024-05-20 | マジック リープ, インコーポレイテッド | 患者視認システム |
WO2020039568A1 (ja) * | 2018-08-23 | 2020-02-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
US10909373B1 (en) | 2018-08-24 | 2021-02-02 | Snap Inc. | Augmented reality system using structured light |
US10593120B1 (en) * | 2018-08-28 | 2020-03-17 | Kyocera Document Solutions Inc. | Augmented reality viewing of printer image processing stages |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
CN109240498B (zh) * | 2018-08-30 | 2021-08-20 | Oppo广东移动通信有限公司 | 交互方法、装置、穿戴式设备及存储介质 |
EP3847530B1 (en) * | 2018-09-04 | 2023-12-27 | Apple Inc. | Display device sharing and interactivity in simulated reality (sr) |
US10902678B2 (en) | 2018-09-06 | 2021-01-26 | Curious Company, LLC | Display of hidden information |
US11348316B2 (en) * | 2018-09-11 | 2022-05-31 | Apple Inc. | Location-based virtual element modality in three-dimensional content |
US11004270B2 (en) * | 2018-09-11 | 2021-05-11 | Houzz, Inc. | Virtual item placement system |
US11036284B2 (en) | 2018-09-14 | 2021-06-15 | Apple Inc. | Tracking and drift correction |
DE102018215715A1 (de) * | 2018-09-14 | 2020-03-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | System und verfahren zur funkwellenbasierten ortung und koordinatentransformation |
FR3086423B1 (fr) * | 2018-09-21 | 2021-09-10 | Diotasoft | Procede et systeme de visualisation en realite augmentee |
WO2020069006A1 (en) * | 2018-09-25 | 2020-04-02 | Magic Leap, Inc. | Systems and methods for augmented reality |
US11366514B2 (en) | 2018-09-28 | 2022-06-21 | Apple Inc. | Application placement based on head position |
US11189054B2 (en) * | 2018-09-28 | 2021-11-30 | Apple Inc. | Localization and mapping using images from multiple devices |
US10785413B2 (en) | 2018-09-29 | 2020-09-22 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
EP3814876B1 (en) * | 2018-10-03 | 2023-02-22 | Google LLC | Placement and manipulation of objects in augmented reality environment |
JP7503542B2 (ja) * | 2018-10-05 | 2024-06-20 | マジック リープ, インコーポレイテッド | 任意の場所における場所特有の仮想コンテンツのレンダリング |
WO2020076715A1 (en) * | 2018-10-08 | 2020-04-16 | Google Llc | Hybrid placement of objects in an augmented reality environment |
US10891969B2 (en) * | 2018-10-19 | 2021-01-12 | Microsoft Technology Licensing, Llc | Transforming audio content into images |
KR102640871B1 (ko) | 2018-10-30 | 2024-02-27 | 삼성전자주식회사 | 증강 현실을 이용한 영상 데이터를 제공하는 전자 장치 및 그 제어 방법 |
CN109636917B (zh) * | 2018-11-02 | 2023-07-18 | 北京微播视界科技有限公司 | 三维模型的生成方法、装置、硬件装置 |
US11501765B2 (en) * | 2018-11-05 | 2022-11-15 | Dish Network L.L.C. | Behavior detection |
CA3119609A1 (en) * | 2018-11-15 | 2020-05-22 | Edx Technologies, Inc. | Augmented reality (ar) imprinting methods and systems |
EP3881279A4 (en) | 2018-11-16 | 2022-08-17 | Magic Leap, Inc. | IMAGE SIZE-TRIGGERED CLARIFICATION TO MAINTAIN IMAGE SHARPNESS |
US11410398B2 (en) | 2018-11-21 | 2022-08-09 | Hewlett-Packard Development Company, L.P. | Augmenting live images of a scene for occlusion |
KR102581146B1 (ko) | 2018-11-23 | 2023-09-21 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US10678492B1 (en) | 2018-11-27 | 2020-06-09 | International Business Machines Corporation | Co-located augmented reality sharing between augmented reality devices |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US10902627B2 (en) * | 2018-11-30 | 2021-01-26 | Hins Sas | Head mounted device for virtual or augmented reality combining reliable gesture recognition with motion tracking algorithm |
US11055913B2 (en) | 2018-12-04 | 2021-07-06 | Curious Company, LLC | Directional instructions in an hybrid reality system |
CN111290567B (zh) * | 2018-12-06 | 2022-03-22 | 中国科学院长春光学精密机械与物理研究所 | 一种智能家居装饰显像系统及虚拟家具摆放方法 |
CN111290566B (zh) * | 2018-12-06 | 2021-09-17 | 中国科学院长春光学精密机械与物理研究所 | 一种基于ar的智能家居体验方法及体验系统 |
US10776933B2 (en) | 2018-12-06 | 2020-09-15 | Microsoft Technology Licensing, Llc | Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects |
JP7414395B2 (ja) * | 2018-12-18 | 2024-01-16 | 川崎重工業株式会社 | 情報投影システム、制御装置、及び情報投影制御方法 |
WO2020132541A1 (en) | 2018-12-20 | 2020-06-25 | Snap Inc. | Virtual surface modification |
US10942633B2 (en) * | 2018-12-20 | 2021-03-09 | Microsoft Technology Licensing, Llc | Interactive viewing and editing system |
KR102152217B1 (ko) * | 2018-12-20 | 2020-09-04 | 서강대학교 산학협력단 | Vr 장비와 ar 장비간의 좌표계 일치용 지그 및 이를 이용한 물리 공간 공유 방법 |
US10970935B2 (en) | 2018-12-21 | 2021-04-06 | Curious Company, LLC | Body pose message system |
FR3090941A1 (fr) * | 2018-12-21 | 2020-06-26 | Orange | Procédé d’interaction d’un utilisateur avec un environnement de réalité virtuelle |
WO2020132484A1 (en) | 2018-12-21 | 2020-06-25 | Magic Leap, Inc. | Air pocket structures for promoting total internal reflection in a waveguide |
KR20200080047A (ko) * | 2018-12-26 | 2020-07-06 | 삼성전자주식회사 | 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기 |
JP2022516074A (ja) * | 2018-12-27 | 2022-02-24 | マジック リープ, インコーポレイテッド | 仮想および拡張現実のためのシステムおよび方法 |
US20200210137A1 (en) * | 2018-12-27 | 2020-07-02 | Facebook Technologies, Llc | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
CN111399630B (zh) * | 2019-01-03 | 2022-05-31 | 广东虚拟现实科技有限公司 | 虚拟内容交互方法、装置、终端设备及存储介质 |
KR20200094843A (ko) | 2019-01-23 | 2020-08-10 | 삼성전자주식회사 | 외부 전자 장치를 제어하는 방법 및 이를 지원하는 전자 장치 |
US11209966B2 (en) * | 2019-01-24 | 2021-12-28 | Disney Enterprises, Inc. | Extended on-screen gameplay via augmented reality |
US11145085B2 (en) * | 2019-01-25 | 2021-10-12 | Social Construct Company | Systems and methods for automating installation of prefabricated parts using projected installation graphics |
EP3690703A1 (en) | 2019-01-29 | 2020-08-05 | Siemens Aktiengesellschaft | Postures recognition of objects in augmented reality applications |
US10891792B1 (en) * | 2019-01-31 | 2021-01-12 | Splunk Inc. | Precise plane detection and placement of virtual objects in an augmented reality environment |
US11341676B2 (en) * | 2019-02-05 | 2022-05-24 | Google Llc | Calibration-free instant motion tracking for augmented reality |
CN113412479A (zh) | 2019-02-06 | 2021-09-17 | 麦克赛尔株式会社 | 混合现实显示装置和混合现实显示方法 |
WO2020163603A1 (en) | 2019-02-06 | 2020-08-13 | Magic Leap, Inc. | Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors |
US11175728B2 (en) * | 2019-02-06 | 2021-11-16 | High Fidelity, Inc. | Enabling negative reputation submissions in manners that reduce chances of retaliation |
US11250641B2 (en) * | 2019-02-08 | 2022-02-15 | Dassault Systemes Solidworks Corporation | System and methods for mating virtual objects to real-world environments |
KR20200098034A (ko) * | 2019-02-11 | 2020-08-20 | 삼성전자주식회사 | 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
WO2020165885A1 (en) * | 2019-02-13 | 2020-08-20 | Quaqua Experiences Pvt. Ltd. | Computer-implemented method and system for providing interaction rules in mixed reality |
US11204735B2 (en) | 2019-02-14 | 2021-12-21 | International Business Machines Corporation | Receiving audio from a listening device associated with a selected geographic area |
US10852906B2 (en) | 2019-02-15 | 2020-12-01 | Microsoft Technology Licensing, Llc | System and method for identifying locations for virtual items within a physical environment |
WO2020171270A1 (ko) * | 2019-02-22 | 2020-08-27 | 엘지전자 주식회사 | 모바일 디바이스 및 그 제어 방법 |
US11137875B2 (en) * | 2019-02-22 | 2021-10-05 | Microsoft Technology Licensing, Llc | Mixed reality intelligent tether for dynamic attention direction |
US11334326B2 (en) | 2019-02-27 | 2022-05-17 | Adrian Andres Rodriguez-Velasquez | Systems, devices, and methods of developing or modifying software using physical blocks |
JP7262247B2 (ja) * | 2019-03-01 | 2023-04-21 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
US11467656B2 (en) | 2019-03-04 | 2022-10-11 | Magical Technologies, Llc | Virtual object control of a physical device and/or physical device control of a virtual object |
US11103748B1 (en) | 2019-03-05 | 2021-08-31 | Physmodo, Inc. | System and method for human motion detection and tracking |
US11331006B2 (en) | 2019-03-05 | 2022-05-17 | Physmodo, Inc. | System and method for human motion detection and tracking |
WO2020185405A1 (en) | 2019-03-12 | 2020-09-17 | Magic Leap, Inc. | Registration of local content between first and second augmented reality viewers |
US10872584B2 (en) | 2019-03-14 | 2020-12-22 | Curious Company, LLC | Providing positional information using beacon devices |
US20200301553A1 (en) * | 2019-03-22 | 2020-09-24 | Sony Interactive Entertainment Inc. | Establishing and using virtual assets on tangible objects in augmented reality (ar) and virtual reality (vr) |
US10845842B2 (en) * | 2019-03-29 | 2020-11-24 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for presentation of input elements based on direction to a user |
WO2020203831A1 (ja) * | 2019-03-29 | 2020-10-08 | 株式会社ソニー・インタラクティブエンタテインメント | 境界設定装置、境界設定方法及びプログラム |
JP7440532B2 (ja) | 2019-04-03 | 2024-02-28 | マジック リープ, インコーポレイテッド | 複合現実システムを用いて仮想3次元空間内のウェブページを管理および表示すること |
US10846899B2 (en) | 2019-04-17 | 2020-11-24 | Honeywell International Inc. | Methods and systems for augmented reality safe visualization during performance of tasks |
CN110062216B (zh) * | 2019-04-18 | 2021-05-25 | 北京森焱精创科技有限公司 | 实景交互方法、系统、计算机设备和存储介质 |
US11107293B2 (en) | 2019-04-23 | 2021-08-31 | XRSpace CO., LTD. | Head mounted display system capable of assigning at least one predetermined interactive characteristic to a virtual object in a virtual environment created according to a real object in a real environment, a related method and a related non-transitory computer readable storage medium |
US11445232B2 (en) * | 2019-05-01 | 2022-09-13 | Magic Leap, Inc. | Content provisioning system and method |
US10748302B1 (en) | 2019-05-02 | 2020-08-18 | Apple Inc. | Multiple user simultaneous localization and mapping (SLAM) |
EP3734419A1 (en) * | 2019-05-03 | 2020-11-04 | XRSpace CO., LTD. | Head mounted display system capable of assigning at least one predetermined interactive characteristic to a virtual object in a virtual environment created according to a real object in a real environment, a related method and a related non-transitory computer readable storage medium |
DE112020002268T5 (de) * | 2019-05-06 | 2022-02-10 | Apple Inc. | Vorrichtung, verfahren und computerlesbares medium zur darstellung von dateien computergenerierter realität |
CN113544634A (zh) | 2019-05-06 | 2021-10-22 | 苹果公司 | 用于构成cgr文件的设备、方法和图形用户界面 |
EP3745237A1 (en) | 2019-05-31 | 2020-12-02 | Koninklijke Philips N.V. | Rendering an image on a virtual user interface of an augmented or virtual reality device |
WO2020246639A1 (ko) * | 2019-06-05 | 2020-12-10 | 엘지전자 주식회사 | 증강현실 전자기기의 제어방법 |
US11334212B2 (en) * | 2019-06-07 | 2022-05-17 | Facebook Technologies, Llc | Detecting input in artificial reality systems based on a pinch and pull gesture |
US10890983B2 (en) * | 2019-06-07 | 2021-01-12 | Facebook Technologies, Llc | Artificial reality system having a sliding menu |
US10852839B1 (en) * | 2019-06-07 | 2020-12-01 | Facebook Technologies, Llc | Artificial reality systems with detachable personal assistant for gating user interface elements |
US11422669B1 (en) | 2019-06-07 | 2022-08-23 | Facebook Technologies, Llc | Detecting input using a stylus in artificial reality systems based on a stylus movement after a stylus selection action |
JP2020201330A (ja) * | 2019-06-07 | 2020-12-17 | セイコーエプソン株式会社 | 表示装置の動作方法および表示装置 |
US10897564B1 (en) | 2019-06-17 | 2021-01-19 | Snap Inc. | Shared control of camera device by multiple devices |
US11516296B2 (en) | 2019-06-18 | 2022-11-29 | THE CALANY Holding S.ÀR.L | Location-based application stream activation |
CN112102498A (zh) | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 用于将应用虚拟地附接到动态对象并实现与动态对象的交互的系统和方法 |
CN112102497B (zh) | 2019-06-18 | 2024-09-10 | 卡兰控股有限公司 | 用于将应用和交互附接到静态对象的系统和方法 |
US11341727B2 (en) | 2019-06-18 | 2022-05-24 | The Calany Holding S. À R.L. | Location-based platform for multiple 3D engines for delivering location-based 3D content to a user |
US11546721B2 (en) | 2019-06-18 | 2023-01-03 | The Calany Holding S.À.R.L. | Location-based application activation |
WO2020263838A1 (en) * | 2019-06-24 | 2020-12-30 | Magic Leap, Inc. | Virtual location selection for virtual content |
WO2020261292A1 (en) * | 2019-06-24 | 2020-12-30 | Touchmagix Media Pvt. Ltd. | Interactive reality activity augmentation |
TR201909402A2 (tr) * | 2019-06-25 | 2021-01-21 | Havelsan Hava Elektronik Sanayi Ve Ticaret Anonim Sirketi | Servi̇s yöneli̇mli̇ bi̇r artirilmiş gerçekli̇k altyapisi si̇stemi̇ |
CN112153083B (zh) * | 2019-06-26 | 2022-07-19 | 浙江商汤科技开发有限公司 | 锚点共享方法及装置、系统、电子设备和存储介质 |
CN112150517A (zh) * | 2019-06-26 | 2020-12-29 | 浙江商汤科技开发有限公司 | 锚点共享方法及装置、系统、电子设备和存储介质 |
CN112146645B (zh) * | 2019-06-28 | 2022-07-22 | 浙江商汤科技开发有限公司 | 一种坐标系对齐的方法及装置、电子设备和存储介质 |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
US11372474B2 (en) * | 2019-07-03 | 2022-06-28 | Saec/Kinetic Vision, Inc. | Systems and methods for virtual artificial intelligence development and testing |
US11340857B1 (en) | 2019-07-19 | 2022-05-24 | Snap Inc. | Shared control of a virtual object by multiple devices |
US11514673B2 (en) | 2019-07-26 | 2022-11-29 | Magic Leap, Inc. | Systems and methods for augmented reality |
US11172111B2 (en) * | 2019-07-29 | 2021-11-09 | Honeywell International Inc. | Devices and methods for security camera installation planning |
US11048760B1 (en) * | 2019-07-31 | 2021-06-29 | Splunk Inc. | Techniques for placing content in and applying layers in an extended reality environment |
US11022972B2 (en) * | 2019-07-31 | 2021-06-01 | Bell Textron Inc. | Navigation system with camera assist |
US11216233B2 (en) * | 2019-08-06 | 2022-01-04 | Motorola Mobility Llc | Methods and systems for replicating content and graphical user interfaces on external electronic devices |
CN114222942A (zh) * | 2019-08-12 | 2022-03-22 | 奇跃公司 | 用于虚拟和增强现实的系统和方法 |
CN112394810A (zh) * | 2019-08-19 | 2021-02-23 | 富士施乐株式会社 | 捕获和渲染远程呈现文档图像上的手部骨架的系统和方法 |
US20210056272A1 (en) * | 2019-08-23 | 2021-02-25 | KEFI Holdings, Inc | Object detection-based control of projected content |
CN110533780B (zh) * | 2019-08-28 | 2023-02-24 | 深圳市商汤科技有限公司 | 一种图像处理方法及其装置、设备和存储介质 |
TWI804671B (zh) | 2019-08-28 | 2023-06-11 | 財團法人工業技術研究院 | 互動顯示方法與互動顯示系統 |
US11409364B2 (en) * | 2019-09-13 | 2022-08-09 | Facebook Technologies, Llc | Interaction with artificial reality based on physical objects |
CN112541375A (zh) * | 2019-09-20 | 2021-03-23 | 阿里巴巴集团控股有限公司 | 一种手部关键点识别方法及装置 |
EP4270159A3 (en) | 2019-09-26 | 2024-01-03 | Apple Inc. | Wearable electronic device presenting a computer-generated reality environment |
US11113528B2 (en) * | 2019-09-26 | 2021-09-07 | Vgis Inc. | System and method for validating geospatial data collection with mediated reality |
US11379033B2 (en) | 2019-09-26 | 2022-07-05 | Apple Inc. | Augmented devices |
US11227446B2 (en) | 2019-09-27 | 2022-01-18 | Apple Inc. | Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality |
WO2021062278A1 (en) | 2019-09-27 | 2021-04-01 | Apple Inc. | Environment for remote communication |
US11521356B2 (en) * | 2019-10-10 | 2022-12-06 | Meta Platforms Technologies, Llc | Systems and methods for a shared interactive environment |
US10701316B1 (en) * | 2019-10-10 | 2020-06-30 | Facebook Technologies, Llc | Gesture-triggered overlay elements for video conferencing |
US20210110646A1 (en) * | 2019-10-11 | 2021-04-15 | Citrix Systems, Inc. | Systems and methods of geolocating augmented reality consoles |
EP4046070A4 (en) | 2019-10-15 | 2023-10-18 | Magic Leap, Inc. | CROSS-REALLY SYSTEM THAT SUPPORTS MULTIPLE DEVICE TYPES |
US11568605B2 (en) | 2019-10-15 | 2023-01-31 | Magic Leap, Inc. | Cross reality system with localization service |
JP2022551735A (ja) | 2019-10-15 | 2022-12-13 | マジック リープ, インコーポレイテッド | 無線フィンガプリントを用いたクロスリアリティシステム |
US11380070B2 (en) | 2019-10-30 | 2022-07-05 | The Paddock LLC | Real-time augmentation of a virtual object onto a real-world object |
CN114730546A (zh) | 2019-11-12 | 2022-07-08 | 奇跃公司 | 具有定位服务和基于位置的共享内容的交叉现实系统 |
US11645756B2 (en) | 2019-11-14 | 2023-05-09 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
JP2023501574A (ja) | 2019-11-14 | 2023-01-18 | マジック リープ, インコーポレイテッド | 仮想および拡張現実のためのシステムおよび方法 |
JP2023502927A (ja) | 2019-11-15 | 2023-01-26 | マジック リープ, インコーポレイテッド | 外科手術環境において使用するための視認システム |
US11638147B2 (en) * | 2019-11-22 | 2023-04-25 | International Business Machines Corporation | Privacy-preserving collaborative whiteboard using augmented reality |
CN111061575A (zh) * | 2019-11-27 | 2020-04-24 | Oppo广东移动通信有限公司 | 数据处理方法、装置、用户设备及增强现实系统 |
US11514650B2 (en) * | 2019-12-03 | 2022-11-29 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
CN110868635B (zh) * | 2019-12-04 | 2021-01-12 | 深圳追一科技有限公司 | 视频处理方法、装置、电子设备及存储介质 |
US11562542B2 (en) | 2019-12-09 | 2023-01-24 | Magic Leap, Inc. | Cross reality system with simplified programming of virtual content |
US11195320B2 (en) * | 2019-12-12 | 2021-12-07 | Facebook Technologies, Llc | Feed-forward collision avoidance for artificial reality environments |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
US11474678B2 (en) * | 2019-12-20 | 2022-10-18 | Bayerische Motoren Werke Aktiengesellschaft | Method, an apparatus, and a machine-readable medium for displaying information |
TWI775247B (zh) * | 2019-12-20 | 2022-08-21 | 美商尼安蒂克公司 | 合併來自地圖建立裝置之局部地圖 |
WO2021137349A1 (ko) * | 2019-12-31 | 2021-07-08 | 엔센스코리아주식회사 | 환경 기반 실-가상 정합 사물 배치를 위한 3차원 공간인식과 2차원 인지적 영역분할의 결합 방법 및 시스템 |
WO2021137348A1 (ko) * | 2019-12-31 | 2021-07-08 | 엔센스코리아주식회사 | 복수의 단말에서 3차원 공간정보를 공유하기 위한 공간맵 생성과 명령실행점 독출방법 |
CN111124136A (zh) * | 2019-12-31 | 2020-05-08 | 维沃移动通信有限公司 | 虚拟画面同步方法及穿戴式设备 |
WO2021140575A1 (ja) * | 2020-01-07 | 2021-07-15 | マクセル株式会社 | Arオブジェクトを表示するヘッドマウントディスプレイ |
JP7525515B2 (ja) * | 2020-01-09 | 2024-07-30 | マクセル株式会社 | 空間認識システム、空間認識方法、および情報端末 |
US11481930B2 (en) | 2020-01-21 | 2022-10-25 | Trimble Inc. | Accurately positioning augmented reality models within images |
US11080879B1 (en) | 2020-02-03 | 2021-08-03 | Apple Inc. | Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments |
US11488358B2 (en) | 2020-02-05 | 2022-11-01 | Snap Inc. | Augmented reality session creation using skeleton tracking |
US11853943B1 (en) * | 2020-02-05 | 2023-12-26 | Blue Yonder Group, Inc. | Mixed-reality assisted dimensionality expansion and manipulation analytics |
JP7502346B2 (ja) * | 2020-02-05 | 2024-06-18 | マクセル株式会社 | 空間認識システム、情報端末、および空間認識方法 |
EP4104165A4 (en) * | 2020-02-10 | 2023-07-12 | Magic Leap, Inc. | DYNAMIC COLOCATION OF VIRTUAL CONTENT |
US11900546B1 (en) * | 2020-02-10 | 2024-02-13 | Blue Yonder Group, Inc. | Synchronized analysis of mixed-reality OLAP and supply chain network visualizations |
US11295511B1 (en) | 2020-02-11 | 2022-04-05 | Progress Software Corporation | Multi-user data presentation in AR/VR |
WO2021163289A1 (en) * | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system for large scale environments |
JP2023514205A (ja) | 2020-02-13 | 2023-04-05 | マジック リープ, インコーポレイテッド | 正確な共有マップを伴うクロスリアリティシステム |
WO2021163295A1 (en) * | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with prioritization of geolocation information for localization |
EP4104001A4 (en) | 2020-02-13 | 2024-03-13 | Magic Leap, Inc. | CROSS-REALLY SYSTEM WITH MAP PROCESSING USING MULTIPLE RESOLUTION FRAME DESCRIPTORS |
CN115698818B (zh) | 2020-02-14 | 2024-01-23 | 奇跃公司 | 会话管理器 |
US11432076B2 (en) * | 2020-02-20 | 2022-08-30 | Orcam Technologies Ltd. | Processing audio and video in a hearing aid system |
US11609345B2 (en) * | 2020-02-20 | 2023-03-21 | Rockwell Automation Technologies, Inc. | System and method to determine positioning in a virtual coordinate system |
US11551430B2 (en) | 2020-02-26 | 2023-01-10 | Magic Leap, Inc. | Cross reality system with fast localization |
WO2021173390A1 (en) * | 2020-02-27 | 2021-09-02 | Qsinx Management Llc | Connecting spatially distinct settings |
US11107280B1 (en) | 2020-02-28 | 2021-08-31 | Facebook Technologies, Llc | Occlusion of virtual objects in augmented reality by physical objects |
US11809662B2 (en) * | 2020-03-04 | 2023-11-07 | Abusizz Ag | Interactive display apparatus and method for operating the same |
US11727650B2 (en) * | 2020-03-17 | 2023-08-15 | Apple Inc. | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments |
US11985175B2 (en) | 2020-03-25 | 2024-05-14 | Snap Inc. | Virtual interaction session to facilitate time limited augmented reality based communication between multiple users |
WO2021190264A1 (en) * | 2020-03-25 | 2021-09-30 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Cooperative document editing with augmented reality |
US11720980B2 (en) | 2020-03-25 | 2023-08-08 | Iunu, Inc. | Crowdsourced informatics for horticultural workflow and exchange |
US11823343B1 (en) * | 2020-03-26 | 2023-11-21 | Apple Inc. | Method and device for modifying content according to various simulation characteristics |
US11960651B2 (en) * | 2020-03-30 | 2024-04-16 | Snap Inc. | Gesture-based shared AR session creation |
US11763427B2 (en) * | 2020-03-31 | 2023-09-19 | Unity IPR ApS | Method and system for intelligent importing and transformation of digital assets |
US11593997B2 (en) * | 2020-03-31 | 2023-02-28 | Snap Inc. | Context based augmented reality communication |
US11455078B1 (en) | 2020-03-31 | 2022-09-27 | Snap Inc. | Spatial navigation and creation interface |
US11138802B1 (en) | 2020-04-06 | 2021-10-05 | Saudi Arabian Oil Company | Geo-augmented field excursion for geological sites |
US11222478B1 (en) * | 2020-04-10 | 2022-01-11 | Design Interactive, Inc. | System and method for automated transformation of multimedia content into a unitary augmented reality module |
US12020379B2 (en) | 2020-04-17 | 2024-06-25 | Apple Inc. | Virtual anchoring systems and methods for extended reality |
US11120639B1 (en) | 2020-04-24 | 2021-09-14 | Microsoft Technology Licensing, Llc | Projecting telemetry data to visualization models |
JP2023524446A (ja) | 2020-04-29 | 2023-06-12 | マジック リープ, インコーポレイテッド | 大規模環境のためのクロスリアリティシステム |
US11325043B2 (en) | 2020-05-15 | 2022-05-10 | Microsoft Technology Licensing, Llc | Utilizing multiple input sources for generating gameplay locations |
JP2021182374A (ja) * | 2020-05-19 | 2021-11-25 | パナソニックIpマネジメント株式会社 | コンテンツ生成方法、コンテンツ投影方法、プログラム及びコンテンツ生成システム |
US11221690B2 (en) | 2020-05-20 | 2022-01-11 | Micron Technology, Inc. | Virtual peripherals for mobile devices |
WO2021235193A1 (ja) * | 2020-05-21 | 2021-11-25 | ソニーグループ株式会社 | 情報処理システム、情報処理方法およびプログラム |
JP7534444B2 (ja) | 2020-05-29 | 2024-08-14 | ナイキ イノベイト シーブイ | キャプチャ画像の処理システム及び方法 |
US11830119B1 (en) * | 2020-05-29 | 2023-11-28 | Apple Inc. | Modifying an environment based on sound |
US11769302B2 (en) * | 2020-06-05 | 2023-09-26 | Verb Surgical Inc. | Remote surgical mentoring |
US11743340B2 (en) * | 2020-06-10 | 2023-08-29 | Snap Inc. | Deep linking to augmented reality components |
TWI759764B (zh) * | 2020-06-12 | 2022-04-01 | 光時代科技有限公司 | 基於光通信裝置疊加虛擬物件的方法、電子設備以及電腦可讀取記錄媒體 |
US12069469B2 (en) | 2020-06-20 | 2024-08-20 | Apple Inc. | Head dimension estimation for spatial audio applications |
US20210396779A1 (en) * | 2020-06-20 | 2021-12-23 | Apple Inc. | User posture transition detection and classification |
GB202009562D0 (en) * | 2020-06-23 | 2020-08-05 | Univ Of Essex Enterprise Limited | Visual assistance |
US11282267B2 (en) | 2020-07-02 | 2022-03-22 | Cognizant Technology Solutions India Pvt. Ltd. | System and method for providing automated data visualization and modification |
CN111833461B (zh) * | 2020-07-10 | 2022-07-01 | 北京字节跳动网络技术有限公司 | 一种图像特效的实现方法、装置、电子设备及存储介质 |
KR20220012073A (ko) | 2020-07-22 | 2022-02-03 | 삼성전자주식회사 | 가상 사용자 인터랙션을 수행하기 위한 방법 및 그 장치 |
US11233973B1 (en) * | 2020-07-23 | 2022-01-25 | International Business Machines Corporation | Mixed-reality teleconferencing across multiple locations |
JP7547843B2 (ja) * | 2020-08-03 | 2024-09-10 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、及びプログラム |
JP7528621B2 (ja) | 2020-08-05 | 2024-08-06 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
WO2022029959A1 (ja) * | 2020-08-06 | 2022-02-10 | マクセル株式会社 | 仮想現実共有方法及びシステム |
TWI757824B (zh) | 2020-08-10 | 2022-03-11 | 宏碁股份有限公司 | 擴增實境螢幕系統及擴增實境螢幕顯示方法 |
US11157740B1 (en) * | 2020-08-11 | 2021-10-26 | Amazon Technologies, Inc. | Augmented reality object model configuration based on placement location |
KR20220021757A (ko) * | 2020-08-14 | 2022-02-22 | 삼성전자주식회사 | 무선 통신 시스템에서 증강 현실 서비스를 위한 방법 및 장치 |
WO2022037758A1 (en) * | 2020-08-18 | 2022-02-24 | Siemens Aktiengesellschaft | Remote collaboration using augmented and virtual reality |
US11694413B2 (en) * | 2020-08-25 | 2023-07-04 | Spatial Systems Inc. | Image editing and sharing in an augmented reality system |
US11410393B2 (en) * | 2020-08-25 | 2022-08-09 | Spatial Systems Inc. | Auto arranging wall in an augmented reality system |
WO2022060555A1 (en) | 2020-09-16 | 2022-03-24 | Sterling Labs Llc | Merging computer-generated objects based on extremity tracking data |
US11756225B2 (en) * | 2020-09-16 | 2023-09-12 | Campfire 3D, Inc. | Augmented reality collaboration system with physical device |
US11176756B1 (en) | 2020-09-16 | 2021-11-16 | Meta View, Inc. | Augmented reality collaboration system |
CN114200895A (zh) * | 2020-09-17 | 2022-03-18 | 北京小米移动软件有限公司 | 设备控制方法、装置及存储介质 |
KR102596341B1 (ko) * | 2020-09-25 | 2023-11-01 | 애플 인크. | 환경에서 객체들을 조작하기 위한 방법들 |
CN114371819B (zh) * | 2020-10-15 | 2023-10-17 | 宏碁股份有限公司 | 扩增实境屏幕系统及扩增实境屏幕显示方法 |
CN112198963A (zh) * | 2020-10-19 | 2021-01-08 | 深圳市太和世纪文化创意有限公司 | 一种沉浸式隧道型多媒体交互展示方法、设备及存储介质 |
US10952006B1 (en) | 2020-10-20 | 2021-03-16 | Katmai Tech Holdings LLC | Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof |
US11076128B1 (en) | 2020-10-20 | 2021-07-27 | Katmai Tech Holdings LLC | Determining video stream quality based on relative position in a virtual space, and applications thereof |
US11095857B1 (en) | 2020-10-20 | 2021-08-17 | Katmai Tech Holdings LLC | Presenter mode in a three-dimensional virtual conference space, and applications thereof |
US11070768B1 (en) | 2020-10-20 | 2021-07-20 | Katmai Tech Holdings LLC | Volume areas in a three-dimensional virtual conference space, and applications thereof |
US11457178B2 (en) | 2020-10-20 | 2022-09-27 | Katmai Tech Inc. | Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof |
US10979672B1 (en) | 2020-10-20 | 2021-04-13 | Katmai Tech Holdings LLC | Web-based videoconference virtual environment with navigable avatars, and applications thereof |
CN112230836B (zh) * | 2020-11-02 | 2022-05-27 | 网易(杭州)网络有限公司 | 对象的移动方法、装置、存储介质和电子装置 |
US11145228B1 (en) * | 2020-11-06 | 2021-10-12 | Lockheed Martin Corporation | Immersive display structure |
CN112365828B (zh) * | 2020-11-09 | 2024-03-12 | 深圳Tcl新技术有限公司 | 智能调整显示效果的方法、装置、设备及介质 |
GB2602248A (en) * | 2020-11-11 | 2022-06-29 | 3D4Medical Ltd | Motion assessment instrument |
KR102398839B1 (ko) * | 2020-12-01 | 2022-05-17 | 서울과학기술대학교 산학협력단 | 객체의 표면에 영상을 투영시키는 장치 |
US20220198764A1 (en) * | 2020-12-18 | 2022-06-23 | Arkh, Inc. | Spatially Aware Environment Relocalization |
US11797162B2 (en) | 2020-12-22 | 2023-10-24 | Snap Inc. | 3D painting on an eyewear device |
US11782577B2 (en) | 2020-12-22 | 2023-10-10 | Snap Inc. | Media content player on an eyewear device |
EP4268060A1 (en) * | 2020-12-22 | 2023-11-01 | Snap Inc. | Recentering ar/vr content on an eyewear device |
JP2022102041A (ja) * | 2020-12-25 | 2022-07-07 | 時男 後藤 | 三次元アノテーション描写システム |
KR102299943B1 (ko) * | 2020-12-29 | 2021-09-09 | 주식회사 버넥트 | 속성정보 적용 기반의 증강현실 콘텐츠 제작 방법 및 시스템 |
US12026800B1 (en) * | 2020-12-31 | 2024-07-02 | Apple Inc. | Blitting a display-locked object |
CN115631323A (zh) * | 2021-01-22 | 2023-01-20 | 四川智能小子科技有限公司 | Ar导览系统及ar导览方法 |
EP4295314A1 (en) | 2021-02-08 | 2023-12-27 | Sightful Computers Ltd | Content sharing in extended reality |
EP4288856A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | Extended reality for productivity |
EP4288950A1 (en) * | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
CN113010009B (zh) * | 2021-02-08 | 2022-07-22 | 北京蜂巢世纪科技有限公司 | 对象共享方法及装置 |
US20220262078A1 (en) * | 2021-02-14 | 2022-08-18 | Broadstone Technologies, Llc | Remote device provisioning and remote support using augmented reality |
US11875604B1 (en) * | 2021-02-22 | 2024-01-16 | Meta Platforms Technologies, Llc | Systems and methods for determining hand poses in artificial reality environments |
CN112891938A (zh) * | 2021-03-05 | 2021-06-04 | 华人运通(上海)云计算科技有限公司 | 车端游戏方法、装置、系统、设备及存储介质 |
US11442582B1 (en) * | 2021-03-05 | 2022-09-13 | Zebra Technologies Corporation | Virtual keypads for hands-free operation of computing devices |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
JP2022169137A (ja) * | 2021-04-27 | 2022-11-09 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理プログラム、及び情報処理システム |
US11980813B2 (en) | 2021-05-04 | 2024-05-14 | Ztag, Inc. | System and method of using a virtual focal point in real physical game |
US11743430B2 (en) | 2021-05-06 | 2023-08-29 | Katmai Tech Inc. | Providing awareness of who can hear audio in a virtual conference, and applications thereof |
US11184362B1 (en) | 2021-05-06 | 2021-11-23 | Katmai Tech Holdings LLC | Securing private audio in a virtual conference, and applications thereof |
DE112022002844T5 (de) * | 2021-05-27 | 2024-05-16 | Peer Inc | System und Verfahren zur Verwendung von Portalsystemen in virtuellen Umgebungen der erweiterten Realität |
US11640698B2 (en) | 2021-05-27 | 2023-05-02 | International Business Machines Corporation | Mapping physical locations to fit virtualized AR and VR environments |
US11676348B2 (en) | 2021-06-02 | 2023-06-13 | Meta Platforms Technologies, Llc | Dynamic mixed reality content in virtual reality |
US11599338B2 (en) * | 2021-06-18 | 2023-03-07 | Qingdao Pico Technology Co., Ltd. | Model loading method and apparatus for head-mounted display device, and head-mounted display device |
KR102345295B1 (ko) * | 2021-06-22 | 2021-12-30 | 주식회사 공간의파티 | 웹 서비스를 위한 엣지 서버 원격 렌더링 시스템 및 방법 |
KR102345297B1 (ko) * | 2021-06-22 | 2021-12-30 | 주식회사 공간의파티 | 웹 서비스를 위한 엣지 서버 원격 렌더링 시스템 및 방법 |
US11997185B2 (en) * | 2021-06-23 | 2024-05-28 | Qualcomm Incorporated | Demodulator configuration based on user equipment signaling |
US11887267B2 (en) | 2021-07-07 | 2024-01-30 | Meta Platforms Technologies, Llc | Generating and modifying representations of hands in an artificial reality environment |
US11637715B2 (en) * | 2021-07-28 | 2023-04-25 | Microsoft Technology Licensing, Llc | Virtual event segmentation based on topics and interactions graphs |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US11989404B1 (en) * | 2021-07-30 | 2024-05-21 | Apple Inc. | Time-based visualization of content anchored in time |
CN113347400B (zh) * | 2021-08-05 | 2021-12-24 | 南京爱可利克信息科技有限公司 | 一种儿童舞蹈比赛用趣味投影系统及其使用方法 |
US20230040610A1 (en) * | 2021-08-06 | 2023-02-09 | Apple Inc. | Object placement for electronic devices |
EP4385009A1 (en) * | 2021-08-11 | 2024-06-19 | Meetkai, Inc. | Conversational artificial intelligence system in a virtual reality space |
US12056268B2 (en) | 2021-08-17 | 2024-08-06 | Meta Platforms Technologies, Llc | Platformization of mixed reality objects in virtual reality environments |
WO2023034070A1 (en) * | 2021-08-30 | 2023-03-09 | Chinook Labs Llc | Method and device for invoking a writing surface |
US12039217B2 (en) * | 2021-08-30 | 2024-07-16 | Bank Of America Corporation | Smart glass interface to mobile user |
US20230065288A1 (en) * | 2021-08-30 | 2023-03-02 | Apple Inc. | Electronic Devices with Body Composition Analysis Circuitry |
CN113724398A (zh) * | 2021-09-01 | 2021-11-30 | 北京百度网讯科技有限公司 | 增强现实方法、装置、设备以及存储介质 |
KR20240049629A (ko) * | 2021-09-01 | 2024-04-16 | 스냅 인코포레이티드 | 물리적 액션-기반 증강 현실 통신 교환들 |
US11934569B2 (en) * | 2021-09-24 | 2024-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
US20230152935A1 (en) * | 2021-09-25 | 2023-05-18 | Apple Inc. | Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments |
US20230096417A1 (en) * | 2021-09-29 | 2023-03-30 | Magnopus, LLC | Visual Anchor Based User Coordinate Space Recovery System |
US20230108152A1 (en) * | 2021-09-30 | 2023-04-06 | Snap Inc. | Providing a takeable item within a virtual conferencing system |
EP4163765A1 (en) * | 2021-10-07 | 2023-04-12 | Koninklijke Philips N.V. | Method and apparatus for initiating an action |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
KR20230072256A (ko) * | 2021-11-17 | 2023-05-24 | 삼성전자주식회사 | 증강 현실 객체의 앵커링을 위한 전자 장치 및 방법 |
JP7212744B1 (ja) | 2021-11-17 | 2023-01-25 | 株式会社Dr.健康クラブ | トレーニングサポートシステム、トレーニングサポートプログラム及びトレーニングサポート方法 |
US11734929B2 (en) | 2021-12-07 | 2023-08-22 | Marxent Labs Llc | Enhanced product visualization technology with web-based augmented reality user interface features |
US11682180B1 (en) * | 2021-12-09 | 2023-06-20 | Qualcomm Incorporated | Anchoring virtual content to physical surfaces |
US11704885B2 (en) * | 2021-12-17 | 2023-07-18 | Richard Fishman | Augmented reality (AR) visual display to save |
US11656835B1 (en) * | 2021-12-29 | 2023-05-23 | Transmira, Inc. | Systems and methods for spatial conversion and synchronization between geolocal augmented reality and virtual reality modalities associated with real-world physical locations |
WO2023130046A1 (en) * | 2021-12-30 | 2023-07-06 | Canon U.S.A., Inc. | Systems and methods for virtual reality immersive calling |
US12093447B2 (en) | 2022-01-13 | 2024-09-17 | Meta Platforms Technologies, Llc | Ephemeral artificial reality experiences |
WO2023146196A1 (ko) * | 2022-01-25 | 2023-08-03 | 삼성전자 주식회사 | 비디오에서 사용자의 손을 결정하는 방법 및 전자 장치 |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US20230267692A1 (en) * | 2022-02-23 | 2023-08-24 | Htc Corporation | Mixed reality processing system and mixed reality processing method |
USD1029076S1 (en) | 2022-03-10 | 2024-05-28 | Campfire 3D, Inc. | Augmented reality pack |
WO2023173388A1 (en) * | 2022-03-18 | 2023-09-21 | Microsoft Technology Licensing, Llc | Interaction customization for a large-format display device |
WO2023181549A1 (ja) * | 2022-03-24 | 2023-09-28 | キヤノン株式会社 | 制御装置、制御方法、プログラム |
US11908072B2 (en) | 2022-03-31 | 2024-02-20 | Tooliqa Inc. | System and method for generating and interacting with a virtual model of a physical entity |
US11630633B1 (en) * | 2022-04-07 | 2023-04-18 | Promp, Inc. | Collaborative system between a streamer and a remote collaborator |
KR20230147312A (ko) * | 2022-04-14 | 2023-10-23 | 주식회사 피아몬드 | 가상 공간에서 프라이버시 제공을 위한 방법 및 시스템 |
US20230360323A1 (en) * | 2022-05-09 | 2023-11-09 | SB22, Inc. | Systems and methods for the generating content overlays for virtual reality systems |
US12026527B2 (en) | 2022-05-10 | 2024-07-02 | Meta Platforms Technologies, Llc | World-controlled and application-controlled augments in an artificial-reality environment |
JP2023168746A (ja) | 2022-05-16 | 2023-11-29 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法、プログラム |
KR102698043B1 (ko) * | 2022-05-26 | 2024-08-23 | 주식회사 네비웍스 | 가상훈련운용장치 및 가상훈련 운용 방법 |
US12086301B2 (en) * | 2022-06-01 | 2024-09-10 | Sphere Entertainment Group, Llc | System for multi-user collaboration within a virtual reality environment |
US11855831B1 (en) | 2022-06-10 | 2023-12-26 | T-Mobile Usa, Inc. | Enabling an operator to resolve an issue associated with a 5G wireless telecommunication network using AR glasses |
JP2024005358A (ja) * | 2022-06-30 | 2024-01-17 | キヤノン株式会社 | スキャン装置、画像処理方法及びプログラム |
US11928774B2 (en) | 2022-07-20 | 2024-03-12 | Katmai Tech Inc. | Multi-screen presentation in a virtual videoconferencing environment |
US12022235B2 (en) | 2022-07-20 | 2024-06-25 | Katmai Tech Inc. | Using zones in a three-dimensional virtual environment for limiting audio and video |
US11876630B1 (en) | 2022-07-20 | 2024-01-16 | Katmai Tech Inc. | Architecture to control zones |
US12009938B2 (en) | 2022-07-20 | 2024-06-11 | Katmai Tech Inc. | Access control in zones |
US11651108B1 (en) | 2022-07-20 | 2023-05-16 | Katmai Tech Inc. | Time access control in virtual environment application |
US11700354B1 (en) | 2022-07-21 | 2023-07-11 | Katmai Tech Inc. | Resituating avatars in a virtual environment |
US11741664B1 (en) | 2022-07-21 | 2023-08-29 | Katmai Tech Inc. | Resituating virtual cameras and avatars in a virtual environment |
US11776203B1 (en) | 2022-07-28 | 2023-10-03 | Katmai Tech Inc. | Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars |
US11704864B1 (en) | 2022-07-28 | 2023-07-18 | Katmai Tech Inc. | Static rendering for a combination of background and foreground objects |
US11956571B2 (en) | 2022-07-28 | 2024-04-09 | Katmai Tech Inc. | Scene freezing and unfreezing |
US11562531B1 (en) | 2022-07-28 | 2023-01-24 | Katmai Tech Inc. | Cascading shadow maps in areas of a three-dimensional environment |
US11682164B1 (en) | 2022-07-28 | 2023-06-20 | Katmai Tech Inc. | Sampling shadow maps at an offset |
US11593989B1 (en) | 2022-07-28 | 2023-02-28 | Katmai Tech Inc. | Efficient shadows for alpha-mapped models |
US11711494B1 (en) | 2022-07-28 | 2023-07-25 | Katmai Tech Inc. | Automatic instancing for efficient rendering of three-dimensional virtual environment |
US12069409B2 (en) * | 2022-08-31 | 2024-08-20 | Snap Inc. | In-person participant interaction for hybrid event |
US11748939B1 (en) | 2022-09-13 | 2023-09-05 | Katmai Tech Inc. | Selecting a point to navigate video avatars in a three-dimensional environment |
US12073530B1 (en) | 2022-09-23 | 2024-08-27 | Apple Inc. | 3D representation adjustments for communication sessions |
JP2024048680A (ja) | 2022-09-28 | 2024-04-09 | キヤノン株式会社 | 制御装置、制御方法、プログラム |
US12073054B2 (en) | 2022-09-30 | 2024-08-27 | Sightful Computers Ltd | Managing virtual collisions between moving virtual objects |
US20240185512A1 (en) * | 2022-12-05 | 2024-06-06 | Snap Inc. | 3d wrist tracking |
WO2024128843A1 (ko) * | 2022-12-16 | 2024-06-20 | 삼성전자주식회사 | 사용자의 신체 정보에 기반하여 형성된 영역을 이용하여 어플리케이션을 나타내는 시각적 객체를 표시하기 위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체 |
US20240201787A1 (en) * | 2022-12-19 | 2024-06-20 | T-Mobile Usa, Inc. | Hand-movement based interaction with augmented reality objects |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
CN116416402A (zh) * | 2023-06-07 | 2023-07-11 | 航天宏图信息技术股份有限公司 | 一种基于mr协同数字沙盘的数据展示方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
CN1746822A (zh) * | 2004-09-07 | 2006-03-15 | 佳能株式会社 | 用于呈现与虚拟图像合成的图像的信息处理装置及方法 |
CN101387908A (zh) * | 2007-09-10 | 2009-03-18 | 佳能株式会社 | 信息处理装置及信息处理方法 |
US20090077504A1 (en) * | 2007-09-14 | 2009-03-19 | Matthew Bell | Processing of Gesture-Based User Interactions |
US7728852B2 (en) * | 2004-03-31 | 2010-06-01 | Canon Kabushiki Kaisha | Image processing method and image processing apparatus |
CN101727182A (zh) * | 2010-01-28 | 2010-06-09 | 南京航空航天大学 | 头盔式虚拟现实环境中参与者实际手的可视化方法和系统 |
Family Cites Families (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8275617B1 (en) | 1998-12-17 | 2012-09-25 | Nuance Communications, Inc. | Speech command input recognition system for interactive computer display with interpretation of ancillary relevant speech query terms into commands |
JP2001157606A (ja) | 1999-12-02 | 2001-06-12 | Mima Jewelry:Kk | 携帯品の落下防止具 |
JP2001216527A (ja) | 2000-02-04 | 2001-08-10 | Nippon Telegr & Teleph Corp <Ntt> | マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体 |
JP3834766B2 (ja) | 2000-04-03 | 2006-10-18 | 独立行政法人科学技術振興機構 | マンマシーン・インターフェース・システム |
US6930715B1 (en) * | 2000-07-21 | 2005-08-16 | The Research Foundation Of The State University Of New York | Method, system and program product for augmenting an image of a scene with information about the scene |
US6891518B2 (en) * | 2000-10-05 | 2005-05-10 | Siemens Corporate Research, Inc. | Augmented reality visualization device |
JP3653463B2 (ja) | 2000-11-09 | 2005-05-25 | 日本電信電話株式会社 | 複数のユーザによる仮想空間共有システム |
JP2002157606A (ja) | 2000-11-17 | 2002-05-31 | Canon Inc | 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体 |
JP3631151B2 (ja) * | 2000-11-30 | 2005-03-23 | キヤノン株式会社 | 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体 |
DE10063089C1 (de) | 2000-12-18 | 2002-07-25 | Siemens Ag | Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems |
JP2002247602A (ja) * | 2001-02-15 | 2002-08-30 | Mixed Reality Systems Laboratory Inc | 画像生成装置及びその制御方法並びにそのコンピュータプログラム |
TW591321B (en) | 2002-01-21 | 2004-06-11 | Beauty Up Co Ltd | Projecting device |
US6854850B2 (en) | 2002-01-23 | 2005-02-15 | Si Diamond Technology, Inc. | Multiple images from a single projector |
DE602004011907D1 (de) | 2003-03-10 | 2008-04-03 | Koninkl Philips Electronics Nv | Anzeige mit mehrfachen Ansichten |
JP2005084969A (ja) | 2003-09-09 | 2005-03-31 | Fuji Xerox Co Ltd | 会議支援システム及び会議支援方法、並びにコンピュータ・プログラム |
US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
JP2005128877A (ja) | 2003-10-24 | 2005-05-19 | Canon Inc | 複合現実感提示システム及び方法、情報処理装置及び方法、並びにコンピュータプログラム |
JP2005251118A (ja) * | 2004-03-08 | 2005-09-15 | Canon Inc | 画像処理方法、画像処理装置 |
KR101084853B1 (ko) * | 2004-08-03 | 2011-11-21 | 실버브룩 리서치 피티와이 리미티드 | 워크 업 프린팅 |
US7907200B2 (en) | 2004-09-15 | 2011-03-15 | Pioneer Corporation | Seamless image viewing system and method |
JP4738870B2 (ja) | 2005-04-08 | 2011-08-03 | キヤノン株式会社 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
JP2006295779A (ja) * | 2005-04-14 | 2006-10-26 | Matsushita Electric Ind Co Ltd | 携帯情報機器 |
CN101243392A (zh) | 2005-08-15 | 2008-08-13 | 皇家飞利浦电子股份有限公司 | 用于终端用户编程的增强现实眼镜的系统、设备和方法 |
JP4657060B2 (ja) | 2005-08-25 | 2011-03-23 | シャープ株式会社 | プロジェクタ |
CN101479659B (zh) | 2006-07-03 | 2011-02-16 | 松下电器产业株式会社 | 投影系统及影像投射方法 |
JP4747232B2 (ja) | 2006-09-06 | 2011-08-17 | 独立行政法人産業技術総合研究所 | 小型携帯端末 |
US8793621B2 (en) * | 2006-11-09 | 2014-07-29 | Navisense | Method and device to control touchless recognition |
US8964014B2 (en) | 2007-01-10 | 2015-02-24 | V.I.O. Inc. | Point-of-view integrated video system having tagging and loop mode features |
US20080266323A1 (en) | 2007-04-25 | 2008-10-30 | Board Of Trustees Of Michigan State University | Augmented reality user interaction system |
GB0712690D0 (en) | 2007-06-29 | 2007-08-08 | Imp Innovations Ltd | Imagee processing |
JP5067850B2 (ja) | 2007-08-02 | 2012-11-07 | キヤノン株式会社 | システム、頭部装着型表示装置、その制御方法 |
JP2009080181A (ja) | 2007-09-25 | 2009-04-16 | Brother Ind Ltd | プロジェクタ |
US7874681B2 (en) * | 2007-10-05 | 2011-01-25 | Huebner Kenneth J | Interactive projector system and method |
JP2009104429A (ja) | 2007-10-24 | 2009-05-14 | Nikon Corp | ヘッドマウントディスプレイ装置及び携帯装置 |
JP2009134693A (ja) | 2007-10-30 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP4884352B2 (ja) | 2007-11-05 | 2012-02-29 | 三菱電機株式会社 | 投影表示装置及び投影表示方法 |
JP4933406B2 (ja) | 2007-11-15 | 2012-05-16 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP4852555B2 (ja) | 2008-01-11 | 2012-01-11 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理方法、ならびに、プログラム |
JP5374906B2 (ja) | 2008-04-07 | 2013-12-25 | 株式会社ニコン | プロジェクタ |
JP5217630B2 (ja) | 2008-05-28 | 2013-06-19 | 株式会社ニコン | プロジェクタ及びマルチプロジェクションシステム |
US9389419B2 (en) | 2008-08-14 | 2016-07-12 | Honeywell International Inc. | Near-to-eye display artifact reduction system and method |
TW201013300A (en) * | 2008-09-22 | 2010-04-01 | Coretronic Corp | Projection system and expansion module for pico projector |
CN103119512A (zh) | 2008-11-02 | 2013-05-22 | 大卫·乔姆 | 近眼式显示系统和装置 |
JP5444963B2 (ja) * | 2008-11-26 | 2014-03-19 | セイコーエプソン株式会社 | プロジェクタ |
JP2010145861A (ja) | 2008-12-19 | 2010-07-01 | Brother Ind Ltd | ヘッドマウントディスプレイ |
US20100188397A1 (en) | 2009-01-28 | 2010-07-29 | Apple Inc. | Three dimensional navigation using deterministic movement of an electronic device |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
JP5417877B2 (ja) | 2009-02-12 | 2014-02-19 | 日本電気株式会社 | キーボード、キーボード入力方法およびキーボード入力プログラム |
US20100208033A1 (en) | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
JP2010217719A (ja) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | 装着型表示装置、その制御方法及びプログラム |
CN101520904B (zh) | 2009-03-24 | 2011-12-28 | 上海水晶石信息技术有限公司 | 带有现实环境估算的增强现实的方法及其系统 |
GB2470072B (en) | 2009-05-08 | 2014-01-01 | Sony Comp Entertainment Europe | Entertainment device,system and method |
US8744121B2 (en) * | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8943420B2 (en) | 2009-06-18 | 2015-01-27 | Microsoft Corporation | Augmenting a field of view |
US8331611B2 (en) | 2009-07-13 | 2012-12-11 | Raytheon Company | Overlay information over video |
TW201104561A (en) | 2009-07-23 | 2011-02-01 | Young Optics Inc | Projection system and method thereof |
US9286720B2 (en) | 2009-08-20 | 2016-03-15 | Northrop Grumman Systems Corporation | Locative video for situation awareness |
CN201576164U (zh) * | 2009-11-13 | 2010-09-08 | 惠州市华阳多媒体电子有限公司 | 一种用于3d显示的微投影仪 |
JP4679661B1 (ja) | 2009-12-15 | 2011-04-27 | 株式会社東芝 | 情報提示装置、情報提示方法及びプログラム |
CN102884490B (zh) | 2010-03-05 | 2016-05-04 | 索尼电脑娱乐美国公司 | 在共享的稳定虚拟空间上维持多视图 |
US8506090B2 (en) | 2010-03-22 | 2013-08-13 | Microvision, Inc. | Projection system with image orientation correction and corresponding method |
EP2558176B1 (en) | 2010-04-13 | 2018-11-07 | Sony Computer Entertainment America LLC | Calibration of portable devices in a shared virtual space |
JP5418386B2 (ja) | 2010-04-19 | 2014-02-19 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9348141B2 (en) | 2010-10-27 | 2016-05-24 | Microsoft Technology Licensing, Llc | Low-latency fusing of virtual and real content |
TWI412866B (zh) | 2010-11-15 | 2013-10-21 | Hon Hai Prec Ind Co Ltd | 具有自動調整投影亮度功能的投影裝置及方法 |
JP5960796B2 (ja) | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
US9081177B2 (en) * | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
-
2012
- 2012-03-29 JP JP2014502810A patent/JP5960796B2/ja not_active Expired - Fee Related
- 2012-03-29 CN CN201280016357.8A patent/CN103460256B/zh active Active
- 2012-03-29 US US13/434,434 patent/US20120249544A1/en not_active Abandoned
- 2012-03-29 EP EP19219084.1A patent/EP3654147A1/en not_active Ceased
- 2012-03-29 US US13/434,317 patent/US9384594B2/en active Active
- 2012-03-29 US US13/434,488 patent/US9142062B2/en active Active
- 2012-03-29 US US13/434,533 patent/US9047698B2/en active Active
- 2012-03-29 WO PCT/US2012/031314 patent/WO2012135553A1/en active Application Filing
- 2012-03-29 US US13/434,258 patent/US20120249416A1/en not_active Abandoned
- 2012-03-29 JP JP2014502814A patent/JP6126076B2/ja active Active
- 2012-03-29 WO PCT/US2012/031321 patent/WO2012135554A1/en active Application Filing
- 2012-03-29 EP EP19219064.3A patent/EP3654146A1/en not_active Ceased
- 2012-03-29 KR KR1020137028471A patent/KR20130136566A/ko active Application Filing
- 2012-03-29 JP JP2014502813A patent/JP5784213B2/ja active Active
- 2012-03-29 KR KR1020167017930A patent/KR20160084502A/ko not_active Application Discontinuation
- 2012-03-29 KR KR1020167002518A patent/KR101818024B1/ko active IP Right Grant
- 2012-03-29 CN CN201280026127.XA patent/CN103562968B/zh active Active
- 2012-03-29 KR KR1020137028470A patent/KR101591579B1/ko active IP Right Grant
- 2012-03-29 EP EP12712513.6A patent/EP2691935A1/en not_active Ceased
- 2012-03-29 JP JP2014502811A patent/JP5784818B2/ja active Active
- 2012-03-29 CN CN2012800162999A patent/CN103460255A/zh active Pending
- 2012-03-29 WO PCT/US2012/031305 patent/WO2012135547A1/en active Application Filing
- 2012-03-29 EP EP12718477.8A patent/EP2691937A1/en not_active Ceased
- 2012-03-29 WO PCT/US2012/031300 patent/WO2012135545A1/en active Application Filing
- 2012-03-29 CN CN201280016317.3A patent/CN103493106B/zh active Active
- 2012-03-29 WO PCT/US2012/031301 patent/WO2012135546A1/en active Application Filing
- 2012-03-29 KR KR1020137028581A patent/KR101591493B1/ko active IP Right Grant
- 2012-03-29 EP EP12718476.0A patent/EP2691936A1/en not_active Withdrawn
- 2012-03-29 EP EP12718478.6A patent/EP2691938B1/en active Active
-
2015
- 2015-08-27 JP JP2015167751A patent/JP2015228256A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
US7728852B2 (en) * | 2004-03-31 | 2010-06-01 | Canon Kabushiki Kaisha | Image processing method and image processing apparatus |
CN1746822A (zh) * | 2004-09-07 | 2006-03-15 | 佳能株式会社 | 用于呈现与虚拟图像合成的图像的信息处理装置及方法 |
CN101387908A (zh) * | 2007-09-10 | 2009-03-18 | 佳能株式会社 | 信息处理装置及信息处理方法 |
US20090077504A1 (en) * | 2007-09-14 | 2009-03-19 | Matthew Bell | Processing of Gesture-Based User Interactions |
CN101727182A (zh) * | 2010-01-28 | 2010-06-09 | 南京航空航天大学 | 头盔式虚拟现实环境中参与者实际手的可视化方法和系统 |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
CN114185424A (zh) * | 2014-05-21 | 2022-03-15 | 汤杰宝游戏公司 | 有形界面对象的虚拟化 |
CN111522436A (zh) * | 2014-06-03 | 2020-08-11 | 谷歌有限责任公司 | 通过穿戴式设备的基于雷达的手势识别 |
US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US20160026242A1 (en) | 2014-07-25 | 2016-01-28 | Aaron Burns | Gaze-based object placement within a virtual reality environment |
CN106575155A (zh) * | 2014-07-25 | 2017-04-19 | 微软技术许可有限责任公司 | 沉浸在虚拟现实环境中时的防绊倒 |
US10649212B2 (en) | 2014-07-25 | 2020-05-12 | Microsoft Technology Licensing Llc | Ground plane adjustment in a virtual reality environment |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
CN107430437A (zh) * | 2015-02-13 | 2017-12-01 | 厉动公司 | 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法 |
US11237625B2 (en) | 2015-02-13 | 2022-02-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
US12032746B2 (en) | 2015-02-13 | 2024-07-09 | Ultrahaptics IP Two Limited | Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments |
US11392212B2 (en) | 2015-02-13 | 2022-07-19 | Ultrahaptics IP Two Limited | Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments |
CN107430685A (zh) * | 2015-03-31 | 2017-12-01 | 谷歌公司 | 通过测量人的身体部位的距离来识别人的方法和设备 |
CN111624770A (zh) * | 2015-04-15 | 2020-09-04 | 索尼互动娱乐股份有限公司 | 头戴式显示器上的夹捏和保持手势导航 |
CN111624770B (zh) * | 2015-04-15 | 2022-05-03 | 索尼互动娱乐股份有限公司 | 头戴式显示器上的夹捏和保持手势导航 |
CN105120058A (zh) * | 2015-07-02 | 2015-12-02 | 上海闻泰电子科技有限公司 | 基于光感的手机手势识别系统 |
CN108027656A (zh) * | 2015-09-28 | 2018-05-11 | 日本电气株式会社 | 输入设备、输入方法和程序 |
CN108027656B (zh) * | 2015-09-28 | 2021-07-06 | 日本电气株式会社 | 输入设备、输入方法和程序 |
CN105912102B (zh) * | 2016-03-31 | 2019-02-05 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN105912102A (zh) * | 2016-03-31 | 2016-08-31 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN109716397A (zh) * | 2016-09-14 | 2019-05-03 | 株式会社万代南梦宫娱乐 | 模拟系统、处理方法以及信息存储介质 |
CN109716397B (zh) * | 2016-09-14 | 2022-12-16 | 株式会社万代南梦宫娱乐 | 模拟系统、处理方法以及信息存储介质 |
CN111448568A (zh) * | 2017-09-29 | 2020-07-24 | 苹果公司 | 基于环境的应用演示 |
CN111448568B (zh) * | 2017-09-29 | 2023-11-14 | 苹果公司 | 基于环境的应用演示 |
CN111226188B (zh) * | 2017-10-05 | 2022-05-13 | 微软技术许可有限责任公司 | 使用追踪矢量的眼睛凝视跟踪校正 |
CN111226188A (zh) * | 2017-10-05 | 2020-06-02 | 微软技术许可有限责任公司 | 使用追踪矢量的眼睛凝视跟踪校正 |
CN112135672A (zh) * | 2017-12-22 | 2020-12-25 | 索尼互动娱乐股份有限公司 | 使用移动机器人通过动态相机定位和照明进行的空间捕获、建模和纹理重建 |
CN112135672B (zh) * | 2017-12-22 | 2024-06-11 | 索尼互动娱乐股份有限公司 | 使用移动机器人通过动态相机定位和照明进行的空间捕获、建模和纹理重建 |
CN108615261B (zh) * | 2018-04-20 | 2022-09-09 | 深圳市天轨年华文化科技有限公司 | 增强现实中图像的处理方法、处理装置及存储介质 |
CN108615261A (zh) * | 2018-04-20 | 2018-10-02 | 深圳市天轨年华文化科技有限公司 | 增强现实中图像的处理方法、处理装置及存储介质 |
CN112204500A (zh) * | 2018-05-04 | 2021-01-08 | 谷歌有限责任公司 | 根据用户和自动化助理界面之间的距离来生成和/或适应自动化助理内容 |
CN113614678A (zh) * | 2019-04-18 | 2021-11-05 | 苹果公司 | 用于头戴式设备的共享数据和协作 |
US12001751B2 (en) | 2019-04-18 | 2024-06-04 | Apple Inc. | Shared data and collaboration for head-mounted devices |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103493106B (zh) | 使用骨骼跟踪来选择性地将手遮蔽在物理表面上的虚拟投影之上的方法和装置 | |
US12039680B2 (en) | Method of rendering using a display device | |
US10469546B2 (en) | System and method for augmented and virtual reality | |
Nassani et al. | Tag it! ar annotation using wearable sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |