CN111712777A - 确定虚拟内容片段的内容姿态 - Google Patents
确定虚拟内容片段的内容姿态 Download PDFInfo
- Publication number
- CN111712777A CN111712777A CN201780098281.0A CN201780098281A CN111712777A CN 111712777 A CN111712777 A CN 111712777A CN 201780098281 A CN201780098281 A CN 201780098281A CN 111712777 A CN111712777 A CN 111712777A
- Authority
- CN
- China
- Prior art keywords
- pose
- content
- anchor
- determining
- determiner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004873 anchoring Methods 0.000 claims abstract description 58
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000009877 rendering Methods 0.000 claims abstract description 12
- 230000000007 visual effect Effects 0.000 claims description 55
- 238000004590 computer program Methods 0.000 claims description 26
- 239000003550 marker Substances 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 10
- 230000009466 transformation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003032 molecular docking Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000005406 washing Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
提供了一种用于确定虚拟内容片段的内容姿态的方法。所述方法在姿态确定器中执行并且包括以下的步骤:获取所述锚定装置的第一锚姿态;确定第一内容姿态,所述第一内容姿态是与所述第一锚姿态相关的虚拟内容片段的姿态;存储与所述第一锚姿态相关的所述第一内容姿态;确定用户装置需要确定所述虚拟内容片段的内容姿态;获取所述锚定装置的第二锚姿态;检索所存储的第一内容姿态;基于所述第一内容姿态和所述第二锚姿态来确定所述虚拟内容片段的第二内容姿态;以及在包括显示器的用户装置上渲染处于第二内容姿态的所述虚拟内容片段。
Description
技术领域
本发明涉及用于确定虚拟内容片段的内容姿态的方法、姿态确定器、计算机程序和计算机程序产品。
背景技术
混合现实(MR)被预见变成联网社会中的集成技术,并且有力地扰乱消费者电子产品市场。混合现实涵盖增强现实(AR)和增强虚拟性(AV)。
AR在这里用于表示向用户呈现现实世界对象和计算机渲染的内容的组合的概念。具体地,AR的一个实现意味着经由透视(see-through)头戴式显示器(HMD)在用户的世界视野上将一个或多个虚拟对象层叠在现实前面。AR的一个应用是允许用户远程地并且以3D(三维)观看和交互,就好像每个参与者共享相同的物理空间。因此,远程通信和交互可以变得与面对面交流一样自然。在AV中,用户观看到如由HMD相机捕获并且随后与计算机渲染的内容一起呈现在显示器上的现实世界对象。因此,在AV中,显示器是非透视的。
在2016年,Microsoft推出了Hololens,一种移动AR HMD。由包括Meta和MagicLeap的其它公司正在推出若干其它HMD,这些HMD被设置成更进一步改进AR技术。
在虚拟现实(VR)中,用户沉浸在所有内容是虚拟的虚拟环境中。VR应用中的一些是游戏、音乐会、体育等的360度直播视频消费、教育和训练目的等等。VR内容经由非透视HMD(例如Oculus Rift、HTC Vive、Google Daydream或Samsung GearVR)显示。
当MR或VR的虚拟内容片段要被放置在用户的视野中时,此虚拟内容片段被放置处于内容姿态。姿态定义了位置(在三维中)和取向(在三维中)两者。
在现有技术中,在诸如Microsoft HoloLens或Google Tango的装置中,虚拟内容被存储并被附连到装置可使用装置的相机检测的某些视觉特征(空间锚)。当用户返回到相同位置时,执行视觉搜索和匹配,以使由装置的相机所观察到的当前视觉特征与先前存储的视觉特征相关。这样的解决方案的问题在于,其在计算上非常密集,因为装置必须检查环境(使用若干相机,如HoloLens的情况),并且执行详细的图像分析以推断特定的视觉特征并执行匹配,所述匹配包括来自所有先前访问的位置的内容。这要求大量的处理能力,并且因此要求电池消耗。
发明内容
目的是提供更高效的方式来确定虚拟内容的姿态。
根据第一方面,提供了一种用于确定虚拟内容片段的内容姿态的方法。所述方法在姿态确定器中执行并且包括以下的步骤:获取所述锚定装置的第一锚姿态;确定第一内容姿态,所述第一内容姿态是与所述第一锚姿态相关的虚拟内容片段的姿态;存储与所述第一锚姿态相关的所述第一内容姿态;确定用户装置需要确定所述虚拟内容片段的内容姿态;获取所述锚定装置的第二锚姿态;检索所存储的第一内容姿态;基于所述第一内容姿态和所述第二锚姿态来确定所述虚拟内容片段的第二内容姿态;以及在包括显示器的用户装置上渲染处于所述第二内容姿态的所述虚拟内容片段。
所述方法可以进一步包括以下的步骤:获取姿态不确定性指示符,所述姿态不确定性指示符指示所述锚定装置的所述姿态的不确定性的程度;以及基于由所述用户装置的相机捕获的视觉特征来确定第二内容姿态,所述视觉特征与对应的存储的特征姿态匹配。在这样的情况下,当所述不确定性指示符小于阈值时,执行基于所述第一内容姿态来确定第二内容姿态的所述步骤;以及当所述不确定性指示符大于所述阈值时,执行基于视觉特征来确定第二内容姿态的所述步骤。
所述阈值可以取决于所述虚拟内容片段。
所述方法可以进一步包括以下的步骤:基于所述虚拟内容片段的标识的重新定位来调整所述阈值。
所述方法可以进一步包括以下的步骤:获取指示所述锚定装置自从捕获所述第一锚姿态以来已经移动的移动标志。在这样的情况下,是执行基于所述第一内容姿态来确定第二内容姿态的所述步骤还是执行基于视觉特征来确定第二内容姿态的所述步骤的确定也基于所述移动标志。
所述方法可以进一步包括以下的步骤:获取指示所述锚定装置自从捕获所述第一锚姿态以来已经移动的移动标志;以及基于由所述用户装置的相机捕获的视觉特征来确定第二内容姿态,所述视觉特征与对应的存储的特征姿态匹配。在这样的情况下,当所述移动标志指示没有移动时,执行基于所述第一内容姿态来确定第二内容姿态的所述步骤;以及当所述移动标志指示移动时,执行基于视觉特征来确定第二内容姿态的所述步骤。
获取第一锚姿态的所述步骤可以包括接收在所述锚定装置的坐标系中的所述第一锚姿态,并且确定在所述用户装置的坐标系中的所述第一锚姿态;存储所述第一内容姿态的所述步骤可以包括在存储之前确定在所述锚定装置的所述坐标系中的所述第一内容姿态;获取所述第二锚姿态的所述步骤可以包括接收在所述锚定装置的坐标系中的所述第二锚姿态;以及确定第二内容姿态的所述步骤可以包括确定在所述用户装置的所述坐标系中的所述锚定装置的所述姿态。
根据第二方面,提供了一种用于确定虚拟内容片段的内容姿态的姿态确定器。所述姿态确定器包括:处理器;以及存储器,所述存储器存储指令,所述指令在由所述处理器执行时使所述姿态确定器:获取所述锚定装置的第一锚姿态;确定第一内容姿态,所述第一内容姿态是与所述第一锚姿态相关的虚拟内容片段的姿态;存储与所述第一锚姿态相关的所述第一内容姿态;确定用户装置需要确定所述虚拟内容片段的内容姿态;获取所述锚定装置的第二锚姿态;检索所存储的第一内容姿态;基于所述第一内容姿态和所述第二锚姿态来确定所述虚拟内容片段的第二内容姿态;以及在包括显示器的用户装置上渲染处于所述第二内容姿态的所述虚拟内容片段。
所述姿态确定器可以进一步包括指令,所述指令在由所述处理器执行时使所述姿态确定器:获取姿态不确定性指示符,所述姿态不确定性指示符指示所述锚定装置的所述姿态的不确定性的程度;以及基于由所述用户装置的相机捕获的视觉特征来确定第二内容姿态,所述视觉特征与对应的存储的特征姿态匹配。在这样的情况下,当所述不确定性指示符小于阈值时执行用于基于所述第一内容姿态来确定第二内容姿态的所述指令;以及当所述不确定性指示符大于所述阈值时,执行用于基于视觉特征来确定第二内容姿态的所述指令。
所述阈值可以取决于所述虚拟内容片段。
所述姿态确定器可以进一步包括指令,所述指令在由所述处理器执行时使所述姿态确定器:基于所述虚拟内容片段的标识的重新定位来调整所述阈值。
所述姿态确定器可以进一步包括指令,所述指令在由所述处理器执行时使所述姿态确定器:获取指示所述锚定装置自从捕获所述第一锚姿态以来已经移动的移动标志。在这样的情况下,是执行用于基于所述第一内容姿态来确定第二内容姿态的所述指令还是执行用于基于视觉特征来确定第二内容姿态的所述指令的确定也基于所述移动标志。
所述姿态确定器可以进一步包括指令,所述指令在由所述处理器执行时使所述姿态确定器:获取指示所述锚定装置自从捕获所述第一锚姿态以来已经移动的移动标志;以及基于由所述用户装置的相机捕获的视觉特征来确定第二内容姿态,所述视觉特征与对应的存储的特征姿态匹配。在这样的情况下,当所述移动标志指示没有移动时,执行用于基于所述第一内容姿态来确定第二内容姿态的所述指令;以及当所述移动标志指示移动时,执行用于基于视觉特征来确定第二内容姿态的所述指令。
用于获取第一锚姿态的所述指令可以包括指令,该指令在由所述处理器执行时使所述姿态确定器接收在所述锚定装置的坐标系中的所述第一锚姿态,并且确定在所述用户装置的坐标系中的所述第一锚姿态;用于存储所述第一内容姿态的所述指令可以包括指令,该指令在由所述处理器执行时使所述姿态确定器在存储之前确定在所述锚定装置的所述坐标系中的所述第一内容姿态;用于获取所述第二锚姿态的所述指令可以包括指令,该指令在由所述处理器执行时使所述姿态确定器接收在所述锚定装置的坐标系中的所述第二锚姿态;以及用于确定第二内容姿态的所述指令可以包括指令,该指令在由所述处理器执行时使所述姿态确定器确定在所述用户装置的所述坐标系中的所述锚定装置的所述姿态。
根据第三方面,提供了一种姿态确定器,其包括:用于获取所述锚定装置的第一锚姿态的部件;用于确定第一内容姿态的部件,所述第一内容姿态是与所述第一锚姿态相关的虚拟内容片段的片段的姿态;用于存储与所述第一锚姿态相关的所述第一内容姿态的部件;用于确定用户装置需要确定所述虚拟内容片段的内容姿态的部件;用于获取所述锚定装置的第二锚姿态的部件;用于检索所存储的第一内容姿态的部件;用于基于所述第一内容姿态和所述第二锚姿态来确定所述虚拟内容片段的第二内容姿态的部件;以及用于在包括显示器的用户装置上渲染处于所述第二内容姿态的所述虚拟内容片段的部件。
根据第四方面,提供了一种用于确定虚拟内容片段的内容姿态的计算机程序。该计算机程序包括计算机程序代码,所述计算机程序代码当在姿态确定器上运行时使所述姿态确定器:获取所述锚定装置的第一锚姿态;确定第一内容姿态,所述第一内容姿态是与所述第一锚姿态相关的虚拟内容片段的姿态;存储与所述第一锚姿态相关的所述第一内容姿态;确定所述用户装置需要确定所述虚拟内容片段的内容姿态;获取所述锚定装置的第二锚姿态;检索所存储的第一内容姿态;基于所述第一内容姿态和所述第二锚姿态来确定所述虚拟内容片段的第二内容姿态;以及在包括显示器的用户装置上渲染处于所述第二内容姿态的所述虚拟内容片段。
根据第五方面,提供了一种计算机程序产品,其包括根据第四方面所述的计算机程序以及计算机可读部件,在所述计算机可读部件上存储所述计算机程序。
一般地,除非本文明确地以其它方式定义,否则权利要求中使用的所有术语要根据它们在技术领域中的普通含义来解释。除非以其它方式明确陈述,否则对“一(a/an)/该元件、设备、组件、部件、步骤等”的所有引用要被开放地解释为指该元件、设备、组件、部件、步骤等的至少一个实例。除非明确陈述,否则本文所公开的任何方法的步骤不必须以所公开的确切顺序来执行。
附图说明
现在参照附图通过示例的方式来描述本发明,其中:
图1是示出了在其中可应用本文所呈现的实施例的环境的示意图;
图2A-B是示出了在其中可实现姿态确定器的实施例的示意图;
图3A-B是示出用于确定虚拟内容片段的内容姿态的方法的实施例的流程图;
图4是示出根据一个实施例的图2A-B的姿态确定器1的功能模块的示意图;
图5是示出图2A-B的姿态确定器1的组件的示意图;以及
图6示出了包括计算机可读部件的计算机程序产品的一个示例。
具体实施方式
现在将在后文中参考附图更充分地描述本发明,附图中示出了本发明的某些实施例。然而,本发明可以以许多不同的形式体现,并且不应该被解释为限于本文阐述的实施例;相反,通过示例的方式提供这些实施例,使得此公开将是彻底和完整的,并且将向本领域技术人员充分传达本发明的范围。在整个描述中,类似的数字指类似的元件。
本文呈现的实施例基于利用外部装置(表示为锚定装置),所述外部装置具有姿态数据来确定虚拟内容片段的内容姿态。更具体地,虚拟内容片段的内容姿态首先与锚定装置相关地被锚定(即,其位置与锚定装置相关地被确定)在房间或其它明确定义的物理空间中,并且被存储。随后,当重新进入该空间时,通过获得锚定装置的当前位置,可基于存储的内容姿态和锚定装置的当前位置来确定当前内容姿态。当以这种方式确定内容姿态时,不需要资源密集视觉特征匹配,因此减少了对于确定内容姿态所要求的资源使用和时间。
图1是示出了在其中可应用本文所呈现的实施例的环境的示意图。图1中示出的环境用于MR或VR,其中用户5穿戴诸如头戴式显示器(HMD)的用户装置2。当用于MR时,用户装置2允许用户5观看现实世界对象11-15和虚拟对象10a-10b两者。第一虚拟对象10a是虚拟圣诞树。第二虚拟对象10b是虚拟屏幕,其例如用于示出图片、视频流或玩游戏。
当用于VR时,用户装置2允许用户5仅观看虚拟对象10a-10b。用户装置2包含传感器(例如,加速度计、陀螺仪等),例如作为惯性测量单元(IMU)的一部分。这由用户装置用来确定用户装置2在三维空间中的位置和取向。位置和取向被统称为姿态。姿态在本文称为P(i, j),其中i是元素的标记,并且j是坐标系的标记。姿态是6元素向量,包括3D位置(x,y,z)和取向(横滚(roll),俯仰(pitch),偏转(yaw))。
用户装置2包括用于捕获用户5周围的环境的图像的一个或多个相机20。每个相机20可在可见光范围(也称为RGB、红绿蓝)和/或红外范围中,并且甚至可以是热相机。
用户装置2连接到网络9。网络9可以是例如局域网(LAN)和/或诸如因特网的广域网(WAN)。用户装置2和网络9之间的连接可基于无线技术,诸如WiFi(IEEE 802.11x标准中的任何标准)、蓝牙等。备选地或附加地,用户装置2和网络之间的连接基于蜂窝网络连接,例如符合5G NR(新空口)、LTE(长期演进)、LTE-高级、W-CDMA(宽带码分复用)、EDGE(增强数据速率GSM(全球移动通信系统)演进)、GPRS(通用分组无线电业务)、CDMA2000(码分多址2000)或者任何其它当前或未来无线网络中的任何一个或组合。服务器3也连接到网络9。
在用户附近,存在锚定装置4。锚定装置4是电子装置,其能够确定其姿态(例如,在IMU的辅助下)并且可将其姿态传递到其它装置。锚定装置4可具有不同于充当锚定装置的其它主要目的。例如,锚定装置4可被实现为智能扬声器、计算机、智能灯、智能冰箱、智能洗衣机、智能咖啡机等。可以存在多于一个锚定装置4。每个锚定装置4可以是基本上静态的装置,诸如智能冰箱或智能洗衣机,或者是更可移动的装置,诸如个人数字助理或智能扬声器。在这样的情况下,静态装置可以是优选的。
在用户周围存在若干视觉元素,诸如门11和门框12。此外,存在附加的视觉元素,诸如地板线13、墙壁之间的拐角14和天花板线15。
当视觉特征用于姿态确定、补充使用锚定装置4的姿态确定时,从用户装置2和/或服务器3的存储设备获得环境数据(二维或三维)。关键元素在捕获的图像中被标识,并与环境数据比较,以允许在环境内定位用户装置2,这可选地还使用来自IMU的数据。关键元素可以是视觉元素11-15的任何子集(或全部)。要注意到,视觉元素取决于用户5所位于的地方而变化。地图构建(mapping)也可同时发生,由此更新环境数据。在跟踪区域内用户的当前位置和取向的同时学习所述区域的过程被称为同时定位和地图构建或SLAM。
例如可使用诸如Microsoft HoloLens或ODG R7/R8/R9的HMD来实现用户装置2。HMD还可以是用于VR应用的Oculus Rift 或HTC Vive。使用可选地具有光学增强的另一类型的可穿戴装置、智能电话和/或平板计算机(例如Google carboard、Mira Prism等等)来实现用户装置2也是可能的。用户装置2还可以是智能电话,诸如Google Tango电话(Lenovo和Asus)或具有ARKit(来自Apple)或ARCore(来自Google)的iPhone或Android电话。要注意到,本文使用的术语“计算机”要被解释为具有数字处理能力而无论大小的任何电子装置。因此,术语计算机包括诸如服务器、桌上型计算机、膝上型计算机、平板计算机、智能电话、移动电话、智能手表、微控制器等的装置。
要注意到,图1的环境仅是其中可应用本文所呈现的实施例的一个示例。本文呈现的实施例可同样好地应用在诸如用于自动驾驶车辆、工业应用、室内机器人等的其它环境中。
图2A-B是示出了其中可实现姿态确定器1的实施例的示意图。姿态确定器1是确定虚拟内容的内容姿态的装置。姿态确定器1可被实现为独立装置,或者其可形成主机装置的一部分,如图2A-B中示出的。
在图2A中,在用户装置2中实现姿态确定器。用户装置2因此是姿态确定器1的主机装置。在这样的实施例中,姿态确定器被提供有来自一个或多个锚定装置的姿态,并且从用户装置内检索相关姿态。
在图2B中,在服务器3中实现姿态确定器。服务器3因此是用于姿态确定器1的主机装置。在这样的实施例中,姿态确定器被提供有不仅来自一个或多个锚定装置而且还来自用户装置的姿态。
图3A-B是示出用于确定虚拟内容片段的内容姿态的方法的实施例的流程图。在姿态确定器中执行所述方法。
所述方法在检测到需要锚定虚拟内容片段时开始。要注意到,虽然下面的步骤涉及特定的虚拟内容片段,但是涉及虚拟内容片段的所有步骤可被扩展以应用于多个虚拟内容片段。
在获取第一锚姿态的步骤40中,姿态确定器获取锚定装置的第一锚姿态,其例如形成通过无线通信信道从锚定装置接收的信号的一部分。这可通过接收在锚定装置的坐标系中的第一锚姿态,并确定在用户装置的坐标系中的第一锚姿态来实现。
换言之,锚定装置将其第一锚姿态传送到姿态确定器,所述第一锚姿态在锚定装置坐标系中。我们通过P(a, a)来表示这个姿态。
姿态确定器然后可确定在用户装置坐标系中的锚定装置的姿态,我们通过P(a,u)来表示该姿态。这样的确定可使用本领域本身中提出的各种定位技术和方法来执行,诸如经由视觉部件(例如,基于被动或主动标记或者基于非标记的方法)、基于无线电的部件(例如,WiFi、超宽带、GPS(全球位置系统)等)、音频部件、电磁部件等。
基于知道P(a, a)和P(a, u),可计算变换矩阵Tua(从用户装置到锚装置的坐标系变换),其使两个姿态相关,即P(a, a) = Tua * P(a, u)。为了确定Tua的鲁棒值,可确定各种姿态P(a, u),并且例如可执行考虑各种P(a, u)值的Tua的最小二乘估计。
在确定第一内容姿态的步骤42中,姿态确定器确定第一内容姿态。第一内容姿态是与第一锚姿态相关的虚拟内容片段的姿态。这可通过在存储之前确定在锚定装置的坐标系中的第一内容姿态来实现。
这可根据以下来计算。由于变换矩阵Tua是已知的,因此通过执行以下计算:P(v,a) = Tua * P(v, u),虚拟内容片段的第一内容姿态可从用户装置坐标系变换到锚定装置坐标系中。
P(v, a)的值现在可用作虚拟内容片段到锚定装置的锚。
相同的操作可针对在环境中发现的视觉特征而执行作为P(vf, a),其中vf表示“视觉特征”。
在存储第一内容姿态的步骤44中,姿态确定器存储例如在锚定装置的坐标系中的与第一锚姿态相关的第一内容姿态。
在确定需要确定内容姿态的步骤45中,姿态确定器确定用户装置需要确定虚拟内容片段的内容姿态。确定内容姿态的需要可通过用户装置的启用(例如装置被开启,用户从当前位置请求加载虚拟内容,或者用户重新进入物理空间,在所述物理空间中先前已经执行了如本文描述的锚定)来被触发。
在接收第二锚姿态的步骤46中,姿态确定器获取锚定装置的第二锚姿态。第二锚姿态可在锚定装置的坐标系中被接收。第二锚姿态被表示为P’(a, a)。当锚定装置是基本上静态的装置(诸如智能冰箱)时,第二锚姿态将最可能与第一锚姿态相同,而如果锚定装置是更可移动的,诸如智能灯,则锚定装置已经移动是更可能的,意味着第二锚姿态不同于第一锚姿态。
在检索存储的内容姿态的步骤48中,姿态确定器检索所存储的第一内容姿态,即P(v, a)。
在基于第一内容姿态来确定第二内容姿态的步骤50中,姿态确定器基于第一内容姿态和第二锚姿态来确定虚拟内容片段的第二内容姿态。这可通过确定在用户装置的坐标系中的锚定装置的姿态来实现。
姿态确定器首先使用本领域本身中已知的技术和方法来相对于用户装置坐标系确定在用户装置坐标系中的锚定装置的姿态P’(a, u)。
然后,可如上面所执行的那样计算两个坐标系之间的新变换Tua’,即,P’(a, a)=Tua’*P’(a, u)。作为附注,如果锚定装置和用户装置的坐标系保持相同,则变换将仍然相同,在这种情况下Tua’将与Tua相同。
虚拟内容片段相对于用户装置坐标系的姿态可然后被确定为P’(v, u) = Tua-1 *P(v, a),其中已从存储设备检索到P(v, a)。
在渲染的步骤52中,姿态确定器在包括显示器的用户装置上渲染处于第二内容姿态的虚拟内容片段。这可包括例如当姿态确定器在服务器中实现并且使用用户装置执行渲染时,触发实际渲染在单独的装置上发生。
因此,用户装置使用姿态P’(v, u)来显示虚拟内容片段。实现显示而不采用如现有技术中的视觉匹配。
现在参见图3B,将仅描述与图3A的步骤相比的新的或修改的步骤。
在可选的获取姿态不确定性指示符的步骤47中,姿态确定器获取姿态不确定性指示符。姿态不确定性指示符指示锚定装置的姿态的不确定性的程度。如下面更详细地解释的,不确定性指示符可用于确定是否要使用上面描述的内容姿态的确定,或者是否要替代地使用(基于视觉特征的)常规方法。
可根据各种方法来计算不确定性指示符,所述方法取决于所使用的位置技术。作为示例,如果锚定装置拥有IMU以计算其姿态,则IMU受噪声的影响,该噪声可引入与加速度的持续时间和平方率成比例的位置漂移。因此,无论何时锚定装置移动,其姿态的不确定性增长。
可相对于位置(x,y,z)和取向(横滚、俯仰、偏转)单独地给出不确定性指示符。这是由于具有不同估计质量的不同传感器可用于计算位置和取向,并且锚定装置可以改变其位置并且不改变其取向,或者反之。
在可选的获取移动标志的步骤49中,姿态确定器获取指示锚定装置自从捕获第一锚姿态以来已经移动的移动标志。可以使用其它比IMU更简单的传感器(例如对接站(docking station)中的接触传感器)来确定移动标志。当然,也可使用IMU来确定移动标志。可利用对接站中的接触传感器的使用来重置任何检测到的移动。例如,如果包括IMU的膝上型计算机充当锚定装置,则一旦脱离(undocked),可使用IMU来检测其移动。一旦膝上型计算机再次对接,所有的移动都被重置,并且移动标志可被设置成“没有移动”,而不管由IMU测量引入的可能累积的不准确性和不确定性。
要注意到,可在不执行步骤49的情况下执行步骤47,并且反之亦然,或者可执行两个步骤。
在可选的有条件的使用存储的内容姿态的步骤55中,姿态确定器确定是否使用存储的内容姿态。这可基于不确定性指示符,使得当不确定性指示符小于阈值(即,比某个阈值不确定性更小)时,确定使用所存储的内容。在一个实施例中,当多个锚定装置可用时,具有最低不确定性的(一个或多个)锚定装置用于此步骤中的以及随后在方法中的确定。
阈值可取决于虚拟内容片段,例如虚拟内容片段的类型和属性。作为示例,如果虚拟内容片段与用户在起居室中已经玩过的动态游戏的项目相关,并且当重新进入物理空间时应该再次显示游戏的项目,则可允许游戏对象离其原始位置多达50 cm。此外,可允许这样的对象不具有最大允许的取向误差,因为对象的取向是什么可能不重要。在另一方面,桌子顶部上的虚拟植物可能不被允许具有大于10 cm的误差,并且取向误差可以是小的,以确保虚拟植物的花指向正确的方向。换句话说,动态内容可配置成允许比静态内容更大的不确定性。而且,阈值可以是复合值,对于位置和取向独立地考虑该复合值。
备选地或附加地,是否使用所存储的内容姿态的确定还进一步基于移动标志,例如,当没有发生锚定装置的移动时,则确定使用所存储的内容姿态。当存在多个锚定装置时,可优先考虑未移动的(一个或多个)锚定装置(例如,通过忽略其它(一个或多个)锚定装置)。
无论何时锚姿态被报告给姿态确定器(步骤40和步骤46),可重置不确定性指示符,因为在这样的时刻,装置可重置其姿态,并且因此重置其不确定性。
当确定使用所存储的内容姿态时,所述方法继续到基于第一内容姿态来确定第二内容姿态的步骤50。否则,所述方法继续到可选的基于视觉特征来确定第二内容姿态的步骤51。
在可选的基于视觉特征来确定第二内容姿态的步骤51中,姿态确定器基于视觉特征来确定第二内容姿态。视觉特征由用户装置的相机捕获。视觉特征与对应的存储的特征姿态匹配以确定虚拟内容片段的第二姿态。
当借助于锚定装置可获得的第二内容姿态不够好时,可能需要执行此步骤。
相对于用户装置坐标系的视觉特征的姿态可然后被确定为P’(vf, u)= Tua-1 * P(vf, a)。
然而,即使不确定,视觉特征的姿态的知识也允许姿态确定器显著收窄要搜索的视觉特征及其预期位置两者的搜索空间,还使步骤51的视觉匹配比现有技术中显著地更快且在计算上更高效并且因此更能量高效。
在可选的调整阈值的步骤54中,姿态确定器基于虚拟内容片段的标识的重新定位来调整阈值。例如,可根据识别的用户交互动态地调整阈值。作为示例,如果用户在虚拟内容片段被显示之后重新定位虚拟内容片段,则根据用户调整来减少阈值。这样的阈值减少不需要完全对应于用户调整,但是可随时间而补偿用户调整。例如,如果用户将虚拟内容片段的姿态调整了X,即X = | Padjusted(v,u)-Poriginal(v,u)|,则阈值被调整为阈值= 阈值-(X/N),其中N>1。以这种方式,阈值被调整成逐渐变得更严格。N是可配置的,并且可被设置成任何值以控制阈值调整的积极性(aggressiveness)。较低的N意味着更积极的阈值调整。
可选地,当调整阈值时,考虑用户进行调整所花费的时间。例如,快速调整意味着调整是显著的并且对用户重要,在这种情况下更积极地调整阈值。在另一方面,如果用户调整花费长时间,则这指示调整重要性较小,在这种情况下,较不积极地或甚至根本不调整阈值。
忽视用户已经调整虚拟内容片段多少的另一类似选项是阈值=阈值/ N,其中N >1。也可基于自动调整(即,不是由用户进行的调整)来调整阈值。例如,可零星地或周期性地触发使用相机图像的视觉特征匹配(因为这些可能用于SLAM),以检查虚拟内容是否具有相对于现实世界的正确姿态。可通过将虚拟内容的姿态与已经存储的视觉特征比较来对这进行检查。如果差异太大,则对于应用和/或虚拟内容的类型调整阈值。
图4是示出根据一个实施例的图2A-B的姿态确定器1的功能模块的示意图。使用软件指令(诸如在姿态确定器1中执行的计算机程序)实现所述模块。备选地或附加地,使用硬件(诸如ASIC(专用集成电路)、FPGA(现场可编程门阵列)或离散逻辑电路中的任何一个或多个)实现所述模块。所述模块对应于图3A和3B中示出的方法中的步骤。
第一锚姿态接收器70对应于步骤40。第一内容姿态确定器72对应于步骤42。第一内容姿态存储器74对应于步骤44。内容姿态需要评估器步骤75对应于步骤45。第二锚姿态接收器76对应于步骤46。不确定性指示符接收器77对应于步骤47。存储的第一内容姿态检索器78对应于步骤48。移动标志获取器79对应于步骤49。第二内容姿态确定器80对应于步骤50和步骤51。渲染器82对应于步骤52。阈值调整器84对应于步骤54。
图5是示出图2A-B的姿态确定器1的组件的示意图。要注意到,当可适用时,可与诸如用户装置或服务器的主机装置共享所提到的组件中的一个或多个。使用能够执行存储在存储器64(其因此可以是计算机程序产品)中的软件指令67的适合的中央处理单元(CPU)、多处理器、微控制器、数字信号处理器(DSP)、专用集成电路等中的一个或多个的任合组合来提供处理器60。处理器60可配置成执行上面参考图3A-B描述的方法。
存储器64可以是随机存取存储器(RAM)和只读存储器(ROM)的任何组合。存储器64还包括永久性存储设备,其例如可以是磁存储器、光存储器、固态存储器或甚至远程安装的存储器中的任何单独一个或组合。
还提供数据存储器66以用于在处理器60中执行软件指令期间读取和/或存储数据。数据存储器66可以是随机存取存储器(RAM)和只读存储器(ROM)的任何组合。
姿态确定器1进一步包括用于与其它外部实体通信的I/O接口62。可选地,I/O接口62还包括用户接口。
姿态确定器1的其它组件被省略以便不使本文所呈现的概念模糊。
图6示出了包括计算机可读部件的计算机程序产品90的一个示例。在此计算机可读部件上,可存储计算机程序91,所述计算机程序可使处理器执行根据本文描述的实施例的方法。在此示例中,计算机程序产品是光盘,诸如CD(压缩盘)或DVD(数字多功能盘)或蓝光盘。如上面所解释的,计算机程序产品还可以被体现在装置的存储器中,诸如图5的计算机程序产品64。虽然计算机程序91在这里被示意性地示出为所描绘的光盘上的轨道,但是可采用适合用于计算机程序产品的任何方式(诸如可移动固态存储器,例如通用串行总线(USB)驱动器)存储计算机程序。
上面已经参考几个实施例主要描述了本发明。然而,如由本领域技术人员容易意识到的,不同于上面公开的实施例的其它实施例在如由所附专利权利要求定义的本发明的范围内同样是可能的。
Claims (17)
1.一种用于确定虚拟内容片段(10a、10b)的内容姿态的方法,所述方法在姿态确定器(1)中执行并且包括以下的步骤:
获取(40)所述锚定装置(4)的第一锚姿态;
确定(42)第一内容姿态,所述第一内容姿态是与所述第一锚姿态相关的虚拟内容片段(10a、10b)的姿态;
存储(44)与所述第一锚姿态相关的所述第一内容姿态;
确定(45)用户装置(2)需要确定所述虚拟内容片段(10a、10b)的内容姿态;
获取(46)所述锚定装置(4)的第二锚姿态;
检索(48)所存储的第一内容姿态;
基于所述第一内容姿态和所述第二锚姿态来确定(50)所述虚拟内容片段的第二内容姿态;以及
在包括显示器(20)的用户装置(2)上渲染(52)处于所述第二内容姿态的所述虚拟内容片段。
2.根据权利要求1所述的方法,进一步包括以下的步骤:
获取(47)姿态不确定性指示符,所述姿态不确定性指示符指示所述锚定装置(4)的所述姿态的不确定性的程度;以及
基于由所述用户装置的相机捕获的视觉特征来确定(51)第二内容姿态,所述视觉特征与对应的存储的特征姿态匹配;
并且其中:
当所述不确定性指示符小于阈值时,执行基于所述第一内容姿态来确定(50)第二内容姿态的所述步骤;以及
当所述不确定性指示符大于所述阈值时,执行基于视觉特征来确定(51)第二内容姿态的所述步骤。
3.根据权利要求2所述的方法,其中所述阈值取决于所述虚拟内容片段(10a、10b)。
4.根据权利要求2或3所述的方法,进一步包括以下的步骤:
基于所述虚拟内容片段(10a、10b)的标识的重新定位来调整(54)所述阈值。
5.根据权利要求2至4中任一项所述的方法,进一步包括以下的步骤:
获取(49)指示所述锚定装置自从捕获所述第一锚姿态以来已经移动的移动标志;以及
其中是执行基于所述第一内容姿态来确定(50)第二内容的所述步骤还是执行基于视觉特征来确定(50)第二内容的所述步骤的确定也基于所述移动标志。
6.根据权利要求1所述的方法,进一步包括以下的步骤:
获取(49)指示所述锚定装置自从捕获所述第一锚姿态以来已经移动的移动标志;以及
基于由所述用户装置的相机捕获的视觉特征来确定(51)第二内容姿态,所述视觉特征与对应的存储的特征姿态匹配;
并且其中:
当所述移动标志指示没有移动时,执行基于所述第一内容姿态来确定(50)第二内容姿态的所述步骤;以及
当所述移动标志指示移动时,执行基于视觉特征来确定(51)第二内容姿态的所述步骤。
7.根据前述权利要求中任一项所述的方法,其中:
获取(40)第一锚姿态的所述步骤包括接收在所述锚定装置(4)的坐标系中的所述第一锚姿态,并且确定在所述用户装置(2)的坐标系中的所述第一锚姿态;
存储(44)所述第一内容姿态的所述步骤包括在存储之前确定在所述锚定装置(4)的所述坐标系中的所述第一内容姿态;
获取(46)所述第二锚姿态的所述步骤包括接收在所述锚定装置(4)的坐标系中的所述第二锚姿态;以及
确定(50)第二内容姿态的所述步骤包括确定在所述用户装置(2)的所述坐标系中的所述锚定装置(4)的所述姿态。
8.一种用于确定虚拟内容片段(10a、10b)的内容姿态的姿态确定器(1),所述姿态确定(1)包括:
处理器(60);以及
存储器(64),所述存储器(64)存储指令(67),所述指令(67)在由所述处理器执行时使所述姿态确定器(1):
获取所述锚定装置(4)的第一锚姿态;
确定第一内容姿态,所述第一内容姿态是与所述第一锚姿态相关的虚拟内容片段(10a、10b)的姿态;
存储与所述第一锚姿态相关的所述第一内容姿态;
确定用户装置(2)需要确定所述虚拟内容片段(10a、10b)的内容姿态;
获取所述锚定装置(4)的第二锚姿态;
检索所存储的第一内容姿态;
基于所述第一内容姿态和所述第二锚姿态来确定所述虚拟内容片段的第二内容姿态;以及
在包括显示器(20)的用户装置(2)上渲染处于所述第二内容姿态的所述虚拟内容片段。
9.根据权利要求8所述的姿态确定器(1),进一步包括指令(67),所述指令(67)在由所述处理器执行时使所述姿态确定器(1):
获取姿态不确定性指示符,所述姿态不确定性指示符指示所述锚定装置(4)的所述姿态的不确定性的程度;以及
基于由所述用户装置的相机捕获的视觉特征来确定第二内容姿态,所述视觉特征与对应的存储的特征姿态匹配;
并且其中:
当所述不确定性指示符小于阈值时执行用于基于所述第一内容姿态来确定第二内容姿态的所述指令;以及
当所述不确定性指示符大于所述阈值时,执行用于基于视觉特征来确定第二内容姿态的所述指令。
10.根据权利要求9所述的姿态确定器(1),其中所述阈值取决于所述虚拟内容片段(10a、10b)。
11.根据权利要求9或10所述的姿态确定器(1),进一步包括指令(67),所述指令(67)在由所述处理器执行时使所述姿态确定器(1):
基于所述虚拟内容片段(10a、10b)的标识的重新定位来调整所述阈值。
12.根据权利要求9至11中任一项所述的姿态确定器(1),进一步包括指令(67),所述指令(67)在由所述处理器执行时使所述姿态确定器(1):
获取(48)指示所述锚定装置自从捕获所述第一锚姿态以来已经移动的移动标志;以及
其中是执行用于基于所述第一内容姿态来确定第二内容的所述指令还是执行用于基于视觉特征来确定第二内容的所述指令的确定也基于所述移动标志。
13.根据权利要求8所述的姿态确定器(1),进一步包括指令(67),所述指令(67)在由所述处理器执行时使所述姿态确定器(1):
获取指示所述锚定装置自从捕获所述第一锚姿态以来已经移动的移动标志;以及
基于由所述用户装置的相机捕获的视觉特征来确定第二内容姿态,所述视觉特征与对应的存储的特征姿态匹配;
并且其中:
当所述移动标志指示没有移动时,执行用于基于所述第一内容姿态来确定第二内容姿态的所述指令;以及
当所述移动标志指示移动时,执行用于基于视觉特征来确定第二内容姿态的所述指令。
14.根据权利要求8至13中任一项所述的姿态确定器(1),其中:
用于获取第一锚姿态的所述指令包括:在由所述处理器执行时,使所述姿态确定器(1)接收在所述锚定装置(4)的坐标系中的所述第一锚姿态并且确定在所述用户装置(2)的坐标系中的所述第一锚姿态的指令(67);
用于存储所述第一内容姿态的所述指令包括:在由所述处理器执行时,使所述姿态定器(1)在存储之前确定在所述锚定装置(4)的所述坐标系中的所述第一内容姿态的指令(67);
用于获取所述第二锚姿态的所述指令包括:在由所述处理器执行时,使所述姿态确定器(1)接收在所述锚定装置(4)的坐标系中的所述第二锚姿态的指令(67);以及
用于确定第二内容姿态的所述指令包括:在由所述处理器执行时,使所述姿态确定器(1)确定在所述用户装置(2)的所述坐标系中的所述锚定装置(4)的所述姿态的指令(67)。
15.一种姿态确定器(1),包括:
用于获取所述锚定装置(4)的第一锚姿态的部件;
用于确定第一内容姿态的部件,所述第一内容姿态是与所述第一锚姿态相关的虚拟内容片段(10a、10b)的片段的姿态;
用于存储与所述第一锚姿态相关的所述第一内容姿态的部件;
用于确定用户装置(2)需要确定所述虚拟内容片段(10a、10b)的内容姿态的部件;
用于获取所述锚定装置(4)的第二锚姿态的部件;
用于检索所存储的第一内容姿态的部件;
用于基于所述第一内容姿态和所述第二锚姿态来确定所述虚拟内容片段的第二内容姿态的部件;以及
用于在包括显示器(20)的用户装置(2)上渲染处于所述第二内容姿态的所述虚拟内容片段的部件。
16.一种用于确定虚拟内容片段(10a、10b)的内容姿态的计算机程序(67、91),所述计算机程序包括计算机程序代码,所述计算机程序代码当在姿态确定器(1)上运行时使所述姿态确定器(1):
获取所述锚定装置(4)的第一锚姿态;
确定第一内容姿态,所述第一内容姿态是与所述第一锚姿态相关的虚拟内容片段(10a、10b)的姿态;
存储与所述第一锚姿态相关的所述第一内容姿态;
确定所述用户装置(2)需要确定所述虚拟内容片段(10a、10b)的内容姿态;
获取所述锚定装置(4)的第二锚姿态;
检索所存储的第一内容姿态;
基于所述第一内容姿态和所述第二锚姿态来确定所述虚拟内容片段的第二内容姿态;以及
在包括显示器(20)的用户装置(2)上渲染处于所述第二内容姿态的所述虚拟内容片段。
17.一种计算机程序产品(64、90),包括根据权利要求16所述的计算机程序以及计算机可读部件,在所述计算机可读部件上存储所述计算机程序。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2017/083074 WO2019114986A1 (en) | 2017-12-15 | 2017-12-15 | Determining a content pose of a piece of virtual content |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111712777A true CN111712777A (zh) | 2020-09-25 |
CN111712777B CN111712777B (zh) | 2023-11-07 |
Family
ID=60788603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780098281.0A Active CN111712777B (zh) | 2017-12-15 | 2017-12-15 | 确定虚拟内容片段的内容姿态 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11244514B2 (zh) |
EP (1) | EP3724745B1 (zh) |
KR (1) | KR102475188B1 (zh) |
CN (1) | CN111712777B (zh) |
ES (1) | ES2962152T3 (zh) |
WO (1) | WO2019114986A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11244514B2 (en) * | 2017-12-15 | 2022-02-08 | Telefonaktiebolaget Lm Ericsson (Publ) | Determining a content pose of a piece of virtual content |
EP4047558A1 (en) * | 2021-02-17 | 2022-08-24 | Miehee Ju Kim | System for generating 3d mobile augmented reality |
US11682180B1 (en) * | 2021-12-09 | 2023-06-20 | Qualcomm Incorporated | Anchoring virtual content to physical surfaces |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5841439A (en) * | 1994-07-22 | 1998-11-24 | Monash University | Updating graphical objects based on object validity periods |
CN104603719A (zh) * | 2012-09-04 | 2015-05-06 | 高通股份有限公司 | 扩增实境表面显示 |
CN105320271A (zh) * | 2014-07-10 | 2016-02-10 | 精工爱普生株式会社 | 利用直接几何建模的头戴式显示器校准 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120306850A1 (en) * | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Distributed asynchronous localization and mapping for augmented reality |
US9430038B2 (en) | 2014-05-01 | 2016-08-30 | Microsoft Technology Licensing, Llc | World-locked display quality feedback |
WO2018053430A1 (en) * | 2016-09-16 | 2018-03-22 | Carbon Robotics, Inc. | System and calibration, registration, and training methods |
US10499997B2 (en) * | 2017-01-03 | 2019-12-10 | Mako Surgical Corp. | Systems and methods for surgical navigation |
US11244514B2 (en) * | 2017-12-15 | 2022-02-08 | Telefonaktiebolaget Lm Ericsson (Publ) | Determining a content pose of a piece of virtual content |
-
2017
- 2017-12-15 US US16/954,108 patent/US11244514B2/en active Active
- 2017-12-15 ES ES17818540T patent/ES2962152T3/es active Active
- 2017-12-15 CN CN201780098281.0A patent/CN111712777B/zh active Active
- 2017-12-15 KR KR1020207019045A patent/KR102475188B1/ko active IP Right Grant
- 2017-12-15 EP EP17818540.1A patent/EP3724745B1/en active Active
- 2017-12-15 WO PCT/EP2017/083074 patent/WO2019114986A1/en unknown
-
2021
- 2021-12-16 US US17/553,060 patent/US11657581B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5841439A (en) * | 1994-07-22 | 1998-11-24 | Monash University | Updating graphical objects based on object validity periods |
CN104603719A (zh) * | 2012-09-04 | 2015-05-06 | 高通股份有限公司 | 扩增实境表面显示 |
CN105320271A (zh) * | 2014-07-10 | 2016-02-10 | 精工爱普生株式会社 | 利用直接几何建模的头戴式显示器校准 |
Also Published As
Publication number | Publication date |
---|---|
EP3724745A1 (en) | 2020-10-21 |
US11657581B2 (en) | 2023-05-23 |
US20220180613A1 (en) | 2022-06-09 |
CN111712777B (zh) | 2023-11-07 |
WO2019114986A1 (en) | 2019-06-20 |
ES2962152T3 (es) | 2024-03-15 |
KR102475188B1 (ko) | 2022-12-06 |
KR20200094775A (ko) | 2020-08-07 |
US11244514B2 (en) | 2022-02-08 |
US20210183149A1 (en) | 2021-06-17 |
EP3724745B1 (en) | 2023-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9940720B2 (en) | Camera and sensor augmented reality techniques | |
US11657581B2 (en) | Determining a content pose of a piece of virtual content | |
KR101637990B1 (ko) | 임의의 위치들을 가지는 디스플레이 구성 요소들 상에 3차원 콘텐츠의 공간적으로 상호 연관된 렌더링 | |
JP6609640B2 (ja) | 電子デバイス上における環境マッピング用のフィーチャ・データの管理 | |
KR20210076185A (ko) | 동시 로컬화 및 매핑을 위한 시스템 및 방법 | |
CN108700942A (zh) | 在虚拟/增强现实系统中改变对象位置的技术 | |
US11816848B2 (en) | Resilient dynamic projection mapping system and methods | |
EP3048605B1 (en) | Information processing device, information processing method, and computer program | |
US11721025B2 (en) | World-space segmentation | |
US11127193B2 (en) | System and method for determining an approximate transformation between coordinate systems | |
US20240031678A1 (en) | Pose tracking for rolling shutter camera | |
US20230122636A1 (en) | Apparatus and method for localisation and mapping | |
KR20240006669A (ko) | 늦은-워핑에서의 동적 오버-렌더링 | |
KR102223313B1 (ko) | 전자장치 및 전자장치를 동작하는 방법 | |
CN112789621A (zh) | 检测垂直平面表面的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |