CN106304842A - 用于定位和地图创建的增强现实系统和方法 - Google Patents

用于定位和地图创建的增强现实系统和方法 Download PDF

Info

Publication number
CN106304842A
CN106304842A CN201480066073.9A CN201480066073A CN106304842A CN 106304842 A CN106304842 A CN 106304842A CN 201480066073 A CN201480066073 A CN 201480066073A CN 106304842 A CN106304842 A CN 106304842A
Authority
CN
China
Prior art keywords
physical environment
camera
depth
image
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480066073.9A
Other languages
English (en)
Inventor
德哈努山·巴拉尚德尔斯瓦兰
可芭纳·穆盖·赞加
张剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shu Long Technology Co Ltd
Sulon Technologies Inc
Original Assignee
Shu Long Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shu Long Technology Co Ltd filed Critical Shu Long Technology Co Ltd
Publication of CN106304842A publication Critical patent/CN106304842A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

描述了一种增强现实和虚拟现实头戴显示器。所述头戴显示器包括与处理器通信以地图创建物理环境的摄像机阵列,从而渲染所述物理环境的增强现实。

Description

用于定位和地图创建的增强现实系统和方法
技术领域
以下内容一般涉及用于增强和虚拟现实环境的系统和方法,更具体而言,涉及用于基于物理环境地图创建虚拟或增强环境并且在头戴装置上显示虚拟或增强环境的系统和方法。
背景技术
随着可穿戴技术和3维(3D)渲染技术的出现,增强现实(AR)和虚拟现实(VR)可视化的应用范围增大。AR和VR依靠连续的混合现实可视化存在。
发明内容
在一些实施例中,描述了一种用于地图创建佩戴可穿戴显示器用户周围的物理环境以增强现实的方法。该方法包括:(i)通过设置在用户上的至少一个深度摄像机来捕获物理环境的深度信息;(ii)通过处理器获得深度信息,确定至少一个深度摄像机相对于可穿戴显示器的方向,并且基于至少一个深度摄像机的方向为物理环境的地图中的深度信息分配坐标。
在另一些实施例中,描述了一种用于地图创建佩戴可穿戴显示器用户周围的物理环境以增强现实的系统。该系统包括:(i)设置在所述用户上的至少一个深度摄像机,用来捕获物理环境的深度信息;以及(ii)与至少一个深度摄像机通信的至少一个处理器,用于从至少一个深度摄像机获得深度信息,确定至少一个深度摄像机相对于可穿戴显示器的方向,并且基于至少一个深度摄像机的方向为物理环境的地图中的深度信息分配坐标。
在又一些实施例中,描述了用于显示渲染的图像流和在至少一个图像摄像机的视场中捕获的物理环境的区域的物理图像流以增强现实的系统,该至少一个图像摄像机设置在佩戴了可穿戴显示器的用户上。所述系统包括处理器,其配置成:(i)获得物理环境的地图;(ii)确定物理环境内的可穿戴显示器的方向和位置;(iii)由可穿戴显示器的方向和位置,确定在至少一个图像摄像机的视场中捕获的物理环境的区域;(iv)确定地图的对应于物理环境的被捕获区域的区域;以及(iv)为地图的对应区域生成包括增强现实的渲染流。
在再一些实施例中,描述了用于显示渲染的图像流和在至少一个图像摄像机的视场中捕获的物理环境的区域的物理图像流以增强现实的方法,该至少一个图像摄像机设置在佩戴了可穿戴显示器的用户上。所述方法包括,通过处理器:(i)获得物理环境的地图;(ii)确定物理环境内的可穿戴显示器的方向和位置;(iii)由可穿戴显示器的方向和位置,确定在至少一个图像摄像机的视场中捕获的物理环境的区域;(iv)确定地图的对应于物理环境的被捕获区域的区域;以及(iv)为地图的对应区域生成包括增强现实的渲染流。
附图说明
参考附图将更好地理解实施例,其中:
图1图示了头戴显示器(HMD)装置的实施例;
图2A图示了具有单个深度摄像机的HMD的实施例;
图2B图示了具有多个深度摄像机的HMD的实施例;
图3是图示了使用一个深度摄像机地图创建物理环境的方法的流程图;
图4是图示了使用深度摄像机和方向检测系统地图创建物理环境的另一种方法的流程图;
图5是图示了使用多个深度摄像机地图创建物理环境的方法的流程图;
图6是图示了使用至少一个深度摄像机和至少一个图像摄像机地图创建物理环境的方法的流程图;
图7是图示了使用至少一个深度摄像机和/或至少一个成像摄像机确定物理环境中HMD的位置和方向的方法的流程图;
图8是图示了基于物理环境中的HMD的位置和方向生成物理环境的渲染的图像流的方法的流程图;以及
图9是图示了通过同时显示物理环境的物理图像流和渲染的图像流来显示物理环境的增强现实的方法。
具体实施方式
将要理解的是,为了说明简单和清楚起见,认为合适的地方,参考标记可以在附图间重复以指示对应的或相似的元件。另外,陈述了许多具体细节以提供对本文描述的实施例的透彻理解。然而,本领域技术人员将要理解可以不通过这些特定细节来实施本文描述的实施例。在其他例子中,没有详细描述众所周知的方法、过程和部件,以免模糊本文描述的实施例。而且,不认为说明书限制本文描述的实施例的范围。
还要理解,本文示例的执行指令的任何模块、单元、部件、服务器、计算机、终端或设备可以包括或者否则可以利用计算机可读介质(诸如存储介质),计算机存储介质或数据存储设备(可移除和/或不可移除)(例如,磁盘、光盘或磁带)。计算机存储介质可以包括以任何用于存储信息,如计算机可读指令、数据结构、程序模块或其他数据的方法或技术实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质的实例包括RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字通用光盘(DVD)或其他光线存储装置、磁带盒、磁带、磁盘存储装置或其他磁性存储设备、或能够用于存储所需信息并能够由应用、模块或两者访问的任何其他介质。任何这种计算机存储介质可以是设备的一部分或者可以由该设备访问或链接至该设备。本文描述的任何应用和模块可以使用可通过这种计算机可读基质存储或保留并且通过一个或多个处理器执行的计算机可读/可执行指令。
本公开针对用于增强现实(AR)的系统和方法。然而,本文所用的术语“AR”可以涵盖几个意思。在本公开中,AR包括:用户与真实物理对象和结构以及叠加在其上的虚拟对象和结构的互动;以及用户与一组完全虚拟的对象和结构的互动,该虚拟对象和结构被生成以包括物理对象和结构的渲染,并且可以符合对其应用了虚拟对象和结构的物理环境的成比例版本,这替代地被称作“增强的虚拟现实”。而且,可以一起去除虚拟对象和结构,AR系可以向用户显示仅包括物理环境的图像流的物理环境的版本。最后,熟练的技术人员还将理解到通过丢弃物理环境的方面,本文呈现的系统和方法也适用于虚拟现实(VR)应用,这可以被理解为“纯”VR。为了技术人员的方便,下文指“AR”,但是理解为包括熟练的技术人员认可的全部前述和其它变形。
由位于物理环境中的用户佩戴的头戴显示器(HMD)或其他可穿戴显示器可以包括显示系统,并且与以下通信:设置在HMD上或内的或者由用户佩戴(或者设置在其上)的至少一个深度摄像机,用于生产物理环境的深度信息;设置在HMD上或内的或者远离HMD的至少一个处理器(诸如,例如中央控制台的处理器,或者服务器),用于由深度信息生成物理环境的地图。处理器可以将地图生成为,例如点云,其中点对应于所获得的物理环境的深度信息。
从绑定到用户的扫描系统地图创建物理环境可以称作由内向外地图创建或者第一人视角地图创建。相比之下,由内向外地图创建涉及从位于物理环境中并针对朝向一个或多个用户的扫描的一个或多个扫描系统来地图创建物理环境。已经发现,通过使用户不受约束地在整个物理环境内移动可以提高与AR的用户衔接。由内向外地图创建可以提供更大的移植性,因为物理环境的地图创建是通过绑定至用户的设备而非物理环境来执行。
处理器进一步包括AR(还称作“渲染的”)图像流,并且将AR图像流提供给显示系统以显示给用户,AR图像流包括地图的计算机成像(CGI)。处理器可以连续地采用渲染的图像流来对应用户在物理环境内的实际位置和方向。因此,处理器可以从深度摄像机获得实时的深度信息,从而确定用户在物理环境内的实时方向和位置,如此处更详细地描述。处理器将渲染的图像流提供给显示系统以显示给用户。
HMD的显示系统可以向用户显示物理环境的图像流,本文还称作“物理图像流”。显示系统直接地或通过处理器从设置在HMD或用户上的至少一个图像摄像机获得图像流。该至少一个图像摄像机可以是可操作以捕获物理环境的数字格式的虚拟图像的任何合适的图像捕获设备,诸如,例如云摄像机或视频摄像机。操作时,该至少一个图像摄像机动态地捕获物理图像流以传输给显示系统。
显示系统可以进一步同时显示至少一个图像摄像机提供的物理图像流以及从处理器获得的渲染的图像流。本文描述了进一步的系统和方法。
现在参考图1,示出了配置为头盔的示例HMD 12,然而,其他配置也可以想到。HMD12包括:与一个或多个以下部件通信的处理器130:(i)用于捕获物理环境的深度信息的至少一个深度摄像机127(例如,飞行时间摄像机),和用于捕获物理环境的至少一个物理图像流的至少一个图像摄像机123;(ii)至少一个显示系统121,用于向用户显示HMD 12的AR或VR和/或物理环境的图像流;(iii)用于将电力分配给部件的至少一个电源管理系统113;(iv)包括例如触觉反馈设备120的、用于向用户提供传感反馈的至少一个传感反馈系统;以及(v)具有音频输入和输出以提供音频交互的音频系统124。处理器130可以进一步包括无线通信系统126,其具有例如天线,以便与AR和/或VR系统内的其他部件,例如,其他HMD、游戏控制器、路由器或至少一个外围设备13通信,从而提高与AR和/或VR的用户衔接。电源管理系统可以包括为HMD生成电力的电池,或者它可以通过到HMD的无线连接从远离HMD的电源获得电力,诸如,例如从设置在用户上或者位于物理环境内的电池组。
在某些应用中,用户观看包括物理环境的完全渲染的版本的AR(即,“增强的VR”)。在这种应用中,用户可以仅基于在用户的HMD 12的显示系统121中显示给用户的渲染确定物理环境中的障碍和边界的位置。
如图2A和图2B所示,HMD 212可以包括显示系统221和至少一个深度摄像机227,二者均与如下配置的处理器230通信:从至少一个深度摄像机227获得深度信息,从深度信息地图创建物理环境,并且为物理环境内确定HMD 212的大致实时位置信息;以及基于实时位置信息为地图生成渲染的图像流。如图2A所示,HMD 212包括单个深度摄像机227,或如图2B所示,包括多个深度摄像机227。如果HMD 212安装有多个深度摄像机227,多个深度摄像机227可以设置成彼此成角度或者在相对于彼此允许图像摄像机组合进行捕获的其他方向,可以捕获比单个深度摄像机227更宽的视场。例如,如图2B所示,图2B示出的四个深度摄像机227基本相对彼此正交定向,并且相对于HMD 212向外朝向物理环境。如所配置,四个深度摄像机捕获物理环境位于深度摄像机227的视场焦点外部的区域的360度视野。四个深度摄像机227的每一个都具有足够宽的视场,以便与其邻近的深度摄像机227中每一个的视场相交。将理解到通过虚线在图2A和图2B中图示了深度摄像机227的每一个的视场,虚线沿每个箭头的方向从HMD 212向外从每个深度摄像机227延伸。
如果HMD 212的至少一个深度摄像机227具有HMD 212周围小于360度的组合视场,如图2A所示,如果当至少一个深度摄像机227连续捕获物理空间的深度信息时,佩戴HMD212的用户在物理环境中做旋转以及可能的平移,则可以获得物理空间的360度视野。然而,在用户旋转期间,用户的头可能前后左右倾斜,使得连续捕获的信息在旋转过程中以不同角度捕获。因此,处理器可以调用拼接方法,如以下所述,沿着旋转将深度信息对准。
如图3所示,在方框300处,HMD上的深度摄像机捕获物理空间在时间t=0时的深度信息。在方框301处,深度摄像机捕获物理空间在时间t=1时的深度信息。连续捕获的深度信息可以理解为一系列的帧,其表示针对离散的时间单位所捕获的深度信息。
在方框303处,处理器接收在用户旋转期间将在方框300和301处获得的深度信息以及“拼接”在用户旋转期间接收的深度信息。拼接包括对其连续捕获的深度信息中后续的帧以创建基本上无缝的地图,如本文参照方框303和305所概述。
在时间t=0在深度摄像机的视场内捕获的物理空间的区域由图像320图示;类似地,在时间t=1在深度摄像机的视场内捕获的物理空间的区域由图像321图示。将理解到捕获图3中示出的序列的用户必须已经在时间t=0和t=1之间向上旋转其头部。仍然在方框303处,处理器使用在方框300处获得的深度信息作为在方框301处获得的深度信息的参考。例如,图像320中示出的电视具有标记330表示的右上角。类似地,图像321中示出的相同电视具有标记331限定的右上角。而且,在两幅图像中,标记下方的区域由具有深度轮廓的壁限定。处理器识别对应于标记330和331的共享地形。在方框305处,处理器基于在方框303处识别的共享地形特征,使用在方框300处捕获的深度信息作为在方框301处捕获的深度信息的参考来生成物理环境的地图。例如,如果处理器基于在方框300处捕获的深度信息将坐标xtr、ytr、ztr分配给电视的右上角,处理器然后将相同的坐标分配给在方框301处捕获的深度信息的同一角。处理器由此建立了地图创建在方框301处获得的其余深度信息的参考点。处理器对于时间t>1时深度捕获的其他情形重复在方框303和305处执行的处理,直到深度摄像机已经获得全360度深度信息。
将理解到如果不是识别后续深度信息捕获所共有的单个地形特征,而是处理器识别帧之间一个以上的共有地理特征,精度可以提高。而且,可以提高捕获频率来提高精度。
替代地,或者另外,为了识别由至少一个深度摄像机捕获的后续帧之间的共有特征,处理器可以从HMD的方向检测系统获得实时方向信息,如图4所示。HMD可以包括惯性测量单元,诸如陀螺仪或加速计、3D磁定位系统或其他合适的方向检测系统,以在方框311处向处理器提供HMD的方向信息。例如,如果方向检测系统体现为加速计,处理器可以从加速计获得实时加速矢量来计算HMD在一时间点的位置。在方框303A处,处理器将HMD的实时位置和对应的实时深度信息相关联。在方框305处,如前所述,处理器使用在方框300处获得的深度信息作为在方框302处捕获的深度坐标的参考。然而,并非或者除了识别第一捕获的深度信息和随后捕获的深度信息之间的至少一个地形共有元素以外,处理器使用捕获后续信息时HMD的方向变化(如在方框303A处相关联的)来相对于第一捕获深度信息为该后续的深度信息分配坐标。处理器重复步骤303A和305以用于进一步后续捕获的深度信息,直到深度摄像机已获得HMD周围全360度的深度信息,从而生成物理环境的360度地图。
如图2B所示,HMD 212可以包括深度摄像机227的阵列,诸如,例如四个深度摄像机227,配置成获得HMD 212周围全360的物理空间的深度信息,即使HMD 212在深度捕获进行地图创建期间可以保持固定。如图5所示,第一、第二、第三和第四深度摄像机各自分别在方框501、502、503和504处捕获物理环境的深度信息。全部深度摄像机可以基本上同时捕获深度信息。在方框505处,处理器从深度摄像机获得深度信息。处理器通过唯一ID识别每个摄像机机器相应的深度信息。在方框509处,处理器从存储器获得每个深度摄像机相对于HMD的位置,在方框507处,该位置在存储器中与深度摄像机的唯一ID相关联。在方框511处,处理器基于从每个深度摄像机接收的深度信息以及其方向生成物理环境的地图。处理器为深度信息中的每一个点分配地图中的坐标,然而,由于阵列中的每个深度摄像机朝与其他深度摄像机不同的方向定向,处理器通过从处理器地图创建物理环境所依据的参考坐标系统旋转每个深度摄像机来旋转来自每个深度摄像机的深度信息。例如,参考图2B,处理器可以将地图上的点P1渲染为基点,通过从该点分配地图坐标x,y,z=0,0,0来确定地图中全部其他点。然后将理解到,生成点P1的深度信息的前向深度摄像机227可以返回已经与地图坐标对准的深度信息。然而,在方框511处,处理器通过其余深度摄像机各自相对于前向深度摄像机的相对方向调节来自其余深度摄像机的深度信息。在方框513处,处理器由此可以渲染物理环境的地图。
HMD还可以包括至少一个成像摄像机以捕获物理环境的物理图像流。处理器可以通过加上来自物理环境的物理图像流的信息来增强使用来自至少一个深度摄像机生成的物理环境的地图。在根据先前所述的地图创建方法地图创建期间,处理器可以进一步从至少一个成像摄像机获得物理环境的物理图像流,如图6所示。在方框601,至少一个成像摄像机处捕获物理环境的物理图像流。在方框603处,至少一个深度摄像机基本上同时捕获物理环境的深度信息。在方框609处,处理器获得来自至少一个深度摄像机的深度信息以及来自至少一个成像摄像机的物理环境的物理图像流。每个成像摄像机可以具有相对于至少一个深度摄像机在位置、方向和视场方面的预定关系,其在方框605限定在存储器中。在方框607处,处理器获得该限定。在方框609处,处理器基于深度信息和关于捕获相关像素的时间的预定关系将深度数据分配给物理图像流。在方框611处,处理器使用与上述方法相似的对图像适当修改的拼接方法来拼接物理图像流中捕获的物理图像,这与深度数据相反。例如,处理器可以识别后续帧内共有的图形元素或区域。在方框613处,处理器生成物理环境的图像和深度地图。
一旦处理器已经地图创建物理环境,处理器可以追踪由于用户移动产生的用户方向和位置的变化。如图7所示,在方框701处,至少一个图形摄像机继续捕获物理环境的物理图像流。而且或替代地,在方框703处,至少一个深度摄像机继续捕获物理环境的深度信息。在方框705处,处理器继续获得来自实时图像流和深度信息中的每一个或任一个的数据。在方框711处,处理器可以将实时图像流与根据例如以上参照图6描述的方法生成的图像地图进行比较,以为了识别地图创建的区域和图像流共有的图形特征。一旦处理器已经识别共有区域,其确定在对应于图像流的被比较部分(例如,帧)的时间点用户相对于地图的位置和方向。通过确定缩放物理图像流中的图形特征以及将其与图像地图中相同的图形特征对准所需的转化,处理器可以确定用户相对于地图的位置和方向。而且或替代地,处理器可以执行针对从至少一个深度摄像机实时获得的深度信息的相似方法。在方框713处,处理器识别实时深度信息中给定时间点的地形特征,并且识别物理环境的深度地图中系统的地形特征。在方框723处,处理器确定缩放和对准实时深度信息和深度图像之间的地形特征所需的转化,从而确定用户在给定时间点的位置和方向。处理器可以核实在方框721和723处相对彼此确定的位置和方向以解决任何模糊之处,或者核实在方框711和713处识别的共有区域。例如,如果物理环境的图像地图包括图形上相同两个或多个区域,单独的图形比较将为HMD返回对应数量的位置和方向;然而,如图7中的短划线所示,处理器可以使用深度比较来解决错误的图像匹配,反之亦然。
替代地,HMD可以包括本地定位系统和/或方向检测系统,例如,3D磁定位系统,激光定位系统和/或惯性测量单元,以确定用户的实时位置和方向。
增强现实涉及将CGI(也被理解成由处理器生成的渲染)与物理环境的物理图像流相结合。用于AR和VR应用的HMD在图1中示出,如之前所述。显示系统121可以操作以从处理器接收组合的图像流(即,物理图像流和渲染的图像流),或者以同时从至少一个成像摄像机接收物理图像流并从处理器接收渲染的图像流,从而将AR显示给HMD 12的用户。处理器根据在HMD的显示系统上进行显示的任何适合的渲染技术生成渲染的图像流。渲染的图像流可以包括,例如,物理环境的地图内的CGI。
HMD的显示系统可以显示单独的渲染的图像流(增强的VR)或者覆盖在物理图像流上的渲染的图像流,以结合物理环境的虚拟和地形方面(AR)。
在增强的VR应用中,处理器可以通过在生成渲染的图像流时考虑用户在物理环境内的实时位置和方向来提高用户与物理环境的交互。当用户在物理环境四周移动时,显示给用户的该物理环境的VR将反应用户位置和/或方向的变化。如图8所示,在方框801处,处理器根据任何合适的方法,包括上述的定向和定位方法,来确定用户的HMD的方向和位置。在增强的VR应用中,对应于想象或虚拟摄像机的参数可以在方框803处限定在可由处理器访问的存储器中。例如,想象的摄像机可以在HMD上具有限定的想象视场和相对位置。在方框805处,处理器基于在方框801处获得的方向和位置信息并结合在方框803处限定的摄像机参数来确定地图的哪个区域位于想象摄像机的视场内。在方框807处,处理器生成地图位于该想象视场内的区域的渲染的图像流,包括该区域内的任何CGI。在方框809处,HMD的显示系统可以基本上实时地显示渲染的图像流,其中生成图像就的处理时间是用户的HMD的实际方向和位置与显示的想象方向和位置之间的任何差异的原因。
在AR应用中,HMD的显示系统可以显示覆盖在物理图像流之上或与之结合的渲染的图像流。当至少一个图像摄像机捕获物理环境的图像流时,在任意给定时刻捕获的物理图像流将包括在该时刻位于该摄像机视场内的物理环境的元素。
摄像机获得物理图像流可被传输到用于至显示系统的处理和/或传输的处理器,亦或直接传输到显示系统以显示给用户。
现在参照图9,示出了用渲染的图像流覆盖物理图像流的方法。在方框901处,至少一个图像摄像机捕获物理环境的物理图像流。当至少一个图像摄像机捕获物理图像流时,在方框903处,处理器确定HMD在物理环境中的实时方向和位置。在方框905处,对应于至少一个图像摄像机的视场的参数以及至少一个图像摄像机相对于HMD的位置和方向限定在存储器中。在方框907处,处理器使用HMD的实时方向和位置以及针对至少一个图像摄像机限定的参数来实时确定位于该至少一个图形摄像机的视场内的物理环境的区域。在方框909处,处理器生成包括物理环境的地图的区域内渲染的CGI的渲染的图像流,该区域对应于位于至少一个图像摄像机的市场内的物理环境的区域。渲染的图像流中的区域可以理解为地图中与至少一个图像摄像机具有相同方向、位置和视场的想象摄像机的视场内的区域,因为地图为参考物理环境生成。在方框911处,HMD的显示系统获得渲染的和物理的图像流,并同时显示二者。物理图像流可以被直接提供给显示系统,或者可以首先通过处理器以便随着渲染的图像流组合传输到显示系统。
如果想象和物理摄像机的视场基本上对准且相同,两个图像流的同时组合显示提供了基本上匹配的图像流。
在一些实施例中,处理器可以提高或降低物理的和渲染的图像流中一者或另一者的信号强度以改变有效透明度。
在一些实施例中,处理器仅使显示系统在用户选择显示物理图像流时显示物理图像流。在另一些实施例中,处理器响应于在物理环境中检测到接近障碍,使显示系统显示物理图像流。在又一些实施例中,处理器响应于在物理环境中检测到接近障碍,使显示系统显示物理图像流。相反,处理器可以随着HMD在物理环境中远离障碍移动来降低渲染的图像流的透明度。
在再一些实施例中,显示系统根据本文所述的至少两种技术显示物理和渲染的图像流。
虽然已参考具体实施例描述了以下内容,在不脱离所附权利要求书概述的本发明的精神和范围的情况下,对其各种修改对本领域技术人员而言是显而易见的。以上引用的所有参考的全部公开内容通过引用结合于此。

Claims (10)

1.一种用于地图创建佩戴有可穿戴显示器的用户位于其中的物理环境以增强现实的方法,所述方法包括:
(a)通过设置在所述用户上的至少一个深度摄像机来捕获所述物理环境的深度信息;
(b)通过处理器获得所述深度信息,确定所述至少一个深度摄像机相对于所述可穿戴显示器的方向,并且基于所述至少一个深度摄像机的所述方向为所述物理环境的地图中的所述深度信息分配坐标。
2.如权利要求1所述的方法,其中:
(a)所述捕获包括在所述至少一个深度摄像机在所述物理环境中旋转和平移期间连续地捕获所述物理环境的所述深度信息的序列帧;以及
(b)所述获得进一步包括连续确定所述至少一个深度摄像机在每个所述帧之间的所述平移和所述旋转;以及
(c)所述分配包括将第一坐标分配给来自第一帧的深度信息以及根据所述至少一个深度摄像机在每个所述帧之间的所述旋转和平移将后续坐标分配给来自每个后续帧的深度信息。
3.如权利要求2所述的方法,还包括:
(a)识别后续帧的第一和第二帧之间共享的地形;
(b)将共享坐标分配给所述后续帧的所述第一和第二帧的每一个的所述共享地形;以及
(c)参考所述共享地形的所述坐标分配所述后续帧的所述第二帧的坐标。
4.如权利要求1所述的方法,还包括:
(a)通过设置在所述用户上的至少一个图像摄像机来捕获所述物理环境的物理图像流;
(b)获得所述物理信息流,确定所述至少一个图像摄像机相对于所述可穿戴显示器的方向,并且基于所述至少一个图像摄像机的方向为所述物理环境的地图中的所述物理信息流中的多个像素分配坐标。
5.一种用于地图创建佩戴有可穿戴显示器的用户周围的物理环境以增强现实的系统,所述系统包括:
(a)设置在所述用户上的至少一个深度摄像机,用来捕获所述物理环境的深度信息;
(b)与所述至少一个深度摄像机通信的至少一个处理器,用于从所述至少一个深度摄像机获得深度信息,确定所述至少一个深度摄像机相对于所述可穿戴显示器的方向,并且基于所述至少一个深度摄像机的所述方向为所述物理环境的地图中的所述深度信息分配坐标。
6.如权利要求5所述的系统,其中所述至少一个深度摄像机配置成在所述至少一个深度摄像机在所述物理环境中移动和平移期间连续捕获所述物理图像的深度信息的序列帧。
(a)连续确定所述至少一个深度摄像机在每个所述帧之间的所述旋转和所述平移;以及
(b)通过将第一坐标分配给来自第一帧的深度信息以及基于所述至少一个物理摄像机在每个所述帧之间的所述旋转和平移将后续坐标分配给来自每个后续帧的深度信息。
7.如权利要求6所述的系统,其中所述处理器进一步配置成:
(a)识别在每个帧和后续帧之间共享的地形;
(b)将相同坐标分配给每个帧和所述后续帧的所述共享地形;以及
(c)参考所述共享地形的所述坐标分配所述后续帧的坐标。
8.如权利要求5所述的系统,还包括设置在所述用户上的至少一个图像摄像机,可操作以捕获所述物理环境的物理图像流,其中所述处理器配置成:
(a)获得所述物理图像流;确定所述至少一个图像摄像机相对于所述可穿戴显示器的方向;以及
(b)基于所述至少一个图像摄像机的所述方向将坐标分配给所述物理环境的地图中所述物理图像流的多个像素。
9.一种用于将已渲染的图像流与在至少一个图像摄像机的视场中捕获的物理环境的区域的物理图像流结合显示以增强现实的系统,所述至少一个图像摄像机设置在佩戴了可穿戴显示器的用户上,所述系统包括如下配置的处理器:
(a)获得所述物理环境的地图;
(b)确定所述可穿戴显示器在所述物理环境内的方向和位置;
(c)从所述可穿戴显示器的所述方向和位置确定在所述至少一个图像摄像机的视场内捕获的所述物理环境的所述区域;
(d)确定所述地图的对应于所述物理环境的所述被捕获区域的区域;以及
(e)为所述地图的所述对应区域生成包括增强现实的渲染流。
10.一种用于将已渲染的图像流与在至少一个图像摄像机的视场中捕获的物理环境的区域的物理图像流结合显示以增强现实的方法,所述至少一个图像照相机设置在佩戴了可穿戴显示器的用户上,所述方法包括,通过处理器:
(a)获得所述物理环境的地图;
(b)确定所述可穿戴显示器在所述物理环境内的方向和位置;
(c)从所述可穿戴显示器的所述方向和位置确定在所述至少一个图像摄像机的视场内捕获的所述物理环境的区域;
(d)确定所述地图的对应于所述物理环境的所述被捕获区域的区域;以及
(e)为所述地图的所述对应区域生成包括增强现实的渲染流。
CN201480066073.9A 2013-10-03 2014-10-03 用于定位和地图创建的增强现实系统和方法 Pending CN106304842A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361886437P 2013-10-03 2013-10-03
US61/886,437 2013-10-03
PCT/CA2014/050961 WO2015048906A1 (en) 2013-10-03 2014-10-03 Augmented reality system and method for positioning and mapping

Publications (1)

Publication Number Publication Date
CN106304842A true CN106304842A (zh) 2017-01-04

Family

ID=52778270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480066073.9A Pending CN106304842A (zh) 2013-10-03 2014-10-03 用于定位和地图创建的增强现实系统和方法

Country Status (4)

Country Link
US (1) US20160210785A1 (zh)
CN (1) CN106304842A (zh)
CA (1) CA2888943C (zh)
WO (1) WO2015048906A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805917A (zh) * 2018-05-25 2018-11-13 网易(杭州)网络有限公司 空间定位的方法、介质、装置和计算设备
CN110160529A (zh) * 2019-06-17 2019-08-23 河南田野文化艺术有限公司 一种ar增强现实的导览系统
WO2019210465A1 (en) * 2018-05-02 2019-11-07 SZ DJI Technology Co., Ltd. Optically supported object navigation
CN110573992A (zh) * 2017-04-27 2019-12-13 西门子股份公司 使用增强现实和虚拟现实编辑增强现实体验
CN111609854A (zh) * 2019-02-25 2020-09-01 北京奇虎科技有限公司 基于多个深度相机的三维地图构建方法及扫地机器人
CN112639664A (zh) * 2018-07-24 2021-04-09 奇跃公司 用于确定和/或评价图像显示设备的定位地图的方法和装置
CN113518189A (zh) * 2020-04-09 2021-10-19 华为技术有限公司 拍摄方法、系统、电子设备及存储介质

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2948903C (en) 2014-05-13 2020-09-22 Pcp Vr Inc. Method, system and apparatus for generation and playback of virtual reality multimedia
US11263851B2 (en) * 2014-09-11 2022-03-01 Michael K. Proctor Systems and methods for advanced headwear
CN108307675B (zh) * 2015-04-19 2020-12-25 快图有限公司 用于vr/ar应用中的深度增强的多基线相机阵列系统架构
WO2016209963A1 (en) * 2015-06-24 2016-12-29 Baker Hughes Incorporated Integration of heads up display with data processing
KR101835434B1 (ko) * 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
US9865091B2 (en) * 2015-09-02 2018-01-09 Microsoft Technology Licensing, Llc Localizing devices in augmented reality environment
US10395116B2 (en) * 2015-10-29 2019-08-27 Hand Held Products, Inc. Dynamically created and updated indoor positioning map
CN107025662B (zh) * 2016-01-29 2020-06-09 成都理想境界科技有限公司 一种实现增强现实的方法、服务器、终端及系统
CN107025661B (zh) * 2016-01-29 2020-08-04 成都理想境界科技有限公司 一种实现增强现实的方法、服务器、终端及系统
US10665019B2 (en) 2016-03-24 2020-05-26 Qualcomm Incorporated Spatial relationships for integration of visual images of physical environment into virtual reality
US9823477B1 (en) * 2016-05-02 2017-11-21 Futurewei Technologies, Inc. Head mounted display content capture and sharing
CN105937878B (zh) * 2016-06-13 2018-10-26 歌尔科技有限公司 一种室内测距方法
CA3032812A1 (en) 2016-08-04 2018-02-08 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US10019831B2 (en) * 2016-10-20 2018-07-10 Zspace, Inc. Integrating real world conditions into virtual imagery
US10089784B2 (en) * 2016-12-22 2018-10-02 ReScan, Inc. Head-mounted mapping methods
US10579138B2 (en) 2016-12-22 2020-03-03 ReScan, Inc. Head-mounted sensor system
DE102017107903A1 (de) * 2017-04-12 2018-10-18 Sick Ag 3D-Lichtlaufzeitkamera und Verfahren zur Erfassung dreidimensionaler Bilddaten
IL252582A0 (en) * 2017-05-29 2017-08-31 Eyeway Vision Ltd A method and system for registration between the outside world and a virtual image
US10686996B2 (en) 2017-06-26 2020-06-16 Facebook Technologies, Llc Digital pixel with extended dynamic range
US10598546B2 (en) 2017-08-17 2020-03-24 Facebook Technologies, Llc Detecting high intensity light in photo sensor
US10506217B2 (en) * 2017-10-09 2019-12-10 Facebook Technologies, Llc Head-mounted display tracking system
US10825241B2 (en) 2018-03-16 2020-11-03 Microsoft Technology Licensing, Llc Using a one-dimensional ray sensor to map an environment
US12034015B2 (en) 2018-05-25 2024-07-09 Meta Platforms Technologies, Llc Programmable pixel array
US11619814B1 (en) * 2018-06-04 2023-04-04 Meta Platforms Technologies, Llc Apparatus, system, and method for improving digital head-mounted displays
US11906353B2 (en) 2018-06-11 2024-02-20 Meta Platforms Technologies, Llc Digital pixel with extended dynamic range
US11463636B2 (en) 2018-06-27 2022-10-04 Facebook Technologies, Llc Pixel sensor having multiple photodiodes
US10897586B2 (en) 2018-06-28 2021-01-19 Facebook Technologies, Llc Global shutter image sensor
CN115097627A (zh) * 2018-07-23 2022-09-23 奇跃公司 用于地图构建的系统和方法
DE102018213007A1 (de) * 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren zum Erstellen einer Parkhauskarte für Valet-Parking
US10931884B2 (en) 2018-08-20 2021-02-23 Facebook Technologies, Llc Pixel sensor having adaptive exposure time
US11956413B2 (en) 2018-08-27 2024-04-09 Meta Platforms Technologies, Llc Pixel sensor having multiple photodiodes and shared comparator
US11595602B2 (en) 2018-11-05 2023-02-28 Meta Platforms Technologies, Llc Image sensor post processing
US11347303B2 (en) * 2018-11-30 2022-05-31 Sony Interactive Entertainment Inc. Systems and methods for determining movement of a controller with respect to an HMD
KR102145852B1 (ko) 2018-12-14 2020-08-19 (주)이머시브캐스트 카메라 기반의 혼합현실 글래스 장치 및 혼합현실 디스플레이 방법
US11888002B2 (en) 2018-12-17 2024-01-30 Meta Platforms Technologies, Llc Dynamically programmable image sensor
US11962928B2 (en) 2018-12-17 2024-04-16 Meta Platforms Technologies, Llc Programmable pixel array
US11218660B1 (en) 2019-03-26 2022-01-04 Facebook Technologies, Llc Pixel sensor having shared readout structure
US11943561B2 (en) 2019-06-13 2024-03-26 Meta Platforms Technologies, Llc Non-linear quantization at pixel sensor
US12108141B2 (en) 2019-08-05 2024-10-01 Meta Platforms Technologies, Llc Dynamically programmable image sensor
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
US11800231B2 (en) * 2019-09-19 2023-10-24 Apple Inc. Head-mounted display
KR20230004423A (ko) 2019-10-07 2023-01-06 보스턴 폴라리메트릭스, 인크. 편광을 사용한 표면 법선 감지 시스템 및 방법
US11936998B1 (en) 2019-10-17 2024-03-19 Meta Platforms Technologies, Llc Digital pixel sensor having extended dynamic range
US11935291B2 (en) 2019-10-30 2024-03-19 Meta Platforms Technologies, Llc Distributed sensor system
US11948089B2 (en) 2019-11-07 2024-04-02 Meta Platforms Technologies, Llc Sparse image sensing and processing
WO2021108002A1 (en) 2019-11-30 2021-06-03 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
KR20220133973A (ko) 2020-01-30 2022-10-05 인트린식 이노베이션 엘엘씨 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들
US11902685B1 (en) 2020-04-28 2024-02-13 Meta Platforms Technologies, Llc Pixel sensor having hierarchical memory
US11825228B2 (en) 2020-05-20 2023-11-21 Meta Platforms Technologies, Llc Programmable pixel array having multiple power domains
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11910114B2 (en) 2020-07-17 2024-02-20 Meta Platforms Technologies, Llc Multi-mode image sensor
US12075175B1 (en) 2020-09-08 2024-08-27 Meta Platforms Technologies, Llc Programmable smart sensor with adaptive readout
US11956560B2 (en) 2020-10-09 2024-04-09 Meta Platforms Technologies, Llc Digital pixel sensor having reduced quantization operation
US11935575B1 (en) 2020-12-23 2024-03-19 Meta Platforms Technologies, Llc Heterogeneous memory system
US12022218B2 (en) 2020-12-29 2024-06-25 Meta Platforms Technologies, Llc Digital image sensor using a single-input comparator based quantizer
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060222260A1 (en) * 2005-03-30 2006-10-05 Casio Computer Co., Ltd. Image capture apparatus, image processing method for captured image, and recording medium
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法
CN102609942A (zh) * 2011-01-31 2012-07-25 微软公司 使用深度图进行移动相机定位
US20120206452A1 (en) * 2010-10-15 2012-08-16 Geisner Kevin A Realistic occlusion for a head mounted augmented reality display
US20130141419A1 (en) * 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2750287C (en) * 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9734633B2 (en) * 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060222260A1 (en) * 2005-03-30 2006-10-05 Casio Computer Co., Ltd. Image capture apparatus, image processing method for captured image, and recording medium
US20120206452A1 (en) * 2010-10-15 2012-08-16 Geisner Kevin A Realistic occlusion for a head mounted augmented reality display
CN102609942A (zh) * 2011-01-31 2012-07-25 微软公司 使用深度图进行移动相机定位
US20130141419A1 (en) * 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110573992A (zh) * 2017-04-27 2019-12-13 西门子股份公司 使用增强现实和虚拟现实编辑增强现实体验
CN110573992B (zh) * 2017-04-27 2023-07-18 西门子股份公司 使用增强现实和虚拟现实编辑增强现实体验
WO2019210465A1 (en) * 2018-05-02 2019-11-07 SZ DJI Technology Co., Ltd. Optically supported object navigation
CN108805917A (zh) * 2018-05-25 2018-11-13 网易(杭州)网络有限公司 空间定位的方法、介质、装置和计算设备
CN108805917B (zh) * 2018-05-25 2021-02-23 杭州易现先进科技有限公司 空间定位的方法、介质、装置和计算设备
CN112639664A (zh) * 2018-07-24 2021-04-09 奇跃公司 用于确定和/或评价图像显示设备的定位地图的方法和装置
CN112639664B (zh) * 2018-07-24 2023-03-24 奇跃公司 用于确定和/或评价图像显示设备的定位地图的方法和装置
US11687151B2 (en) 2018-07-24 2023-06-27 Magic Leap, Inc. Methods and apparatuses for determining and/or evaluating localizing maps of image display devices
US12079382B2 (en) 2018-07-24 2024-09-03 Magic Leap, Inc. Methods and apparatuses for determining and/or evaluating localizing maps of image display devices
CN111609854A (zh) * 2019-02-25 2020-09-01 北京奇虎科技有限公司 基于多个深度相机的三维地图构建方法及扫地机器人
CN110160529A (zh) * 2019-06-17 2019-08-23 河南田野文化艺术有限公司 一种ar增强现实的导览系统
CN113518189A (zh) * 2020-04-09 2021-10-19 华为技术有限公司 拍摄方法、系统、电子设备及存储介质

Also Published As

Publication number Publication date
CA2888943A1 (en) 2015-04-09
US20160210785A1 (en) 2016-07-21
CA2888943C (en) 2015-08-18
WO2015048906A1 (en) 2015-04-09

Similar Documents

Publication Publication Date Title
CN106304842A (zh) 用于定位和地图创建的增强现实系统和方法
CN113570721B (zh) 三维空间模型的重建方法、装置和存储介质
EP1883052B1 (en) Generating images combining real and virtual images
US10621777B2 (en) Synthesis of composite images having virtual backgrounds
CN110073313A (zh) 使用母设备和至少一个伴随设备与环境交互
US20120001901A1 (en) Apparatus and method for providing 3d augmented reality
CN109561282B (zh) 一种用于呈现地面行动辅助信息的方法与设备
KR20150013709A (ko) 컴퓨터 생성된 3d 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템
US20140160122A1 (en) Creating a virtual representation based on camera data
CN111833403B (zh) 用于空间定位的方法和装置
CN109459029A (zh) 一种用于确定目标对象的导航路线信息的方法与设备
KR102197615B1 (ko) 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버
CN107945270A (zh) 一种三维数字沙盘系统
Baker et al. Splat: Spherical localization and tracking in large spaces
CN116486051B (zh) 一种多用户展示协同方法、装置、设备及存储介质
JP2019101563A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
CA3172195A1 (en) Object and camera localization system and localization method for mapping of the real world
CN112053444B (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备
Chheang et al. Natural embedding of live actors and entities into 360 virtual reality scenes
KR101315398B1 (ko) 3차원 증강 현실 표시 장치 및 방법
EP2962290B1 (en) Relaying 3d information by depth simulation using 2d pixel displacement
Suganya et al. Real-time camera tracking of augmented reality in landmarks environments
Shimamura et al. Construction and presentation of a virtual environment using panoramic stereo images of a real scene and computer graphics models
Zhang et al. Walk-able and stereo virtual tour based on spherical panorama matrix
JP7417827B2 (ja) 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170104