CN112630964A - 头戴式显示系统及其场景扫描方法 - Google Patents

头戴式显示系统及其场景扫描方法 Download PDF

Info

Publication number
CN112630964A
CN112630964A CN201911259347.7A CN201911259347A CN112630964A CN 112630964 A CN112630964 A CN 112630964A CN 201911259347 A CN201911259347 A CN 201911259347A CN 112630964 A CN112630964 A CN 112630964A
Authority
CN
China
Prior art keywords
virtual environment
scene
environment
scene image
preliminary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201911259347.7A
Other languages
English (en)
Inventor
蔡仲智
林郁文
李佳骏
蒋锡沅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Future City Co ltd
Original Assignee
Future City Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/596,778 external-priority patent/US20200342833A1/en
Application filed by Future City Co ltd filed Critical Future City Co ltd
Publication of CN112630964A publication Critical patent/CN112630964A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明提供一种头戴式显示系统及其场景扫描方法。在方法中,获得真实环境中的一个或多个第一场景图像及第二场景图像。从第一场景图像产生与真实环境对应的初步虚拟环境。以视觉位置处的视角显示初步虚拟环境。视觉位置对应于真实环境中捕获所述第二场景图像的真实位置。响应于用户的头部的姿势发生变化而修改呈现初步虚拟环境的视角。因此,提供了一种扫描真实环境的便利方式,且能够获得完整虚拟环境。

Description

头戴式显示系统及其场景扫描方法
技术领域
本发明大体来说涉及世界环境模拟,具体来说涉及一种头戴式显示系统及其场景扫描方法。
背景技术
用于模拟感觉、感知和/或环境的技术(例如虚拟现实(virtual reality,VR)、增强现实(augmented reality,AR)、混合现实(mixed reality,MR)及扩展现实(extendedreality,XR))在当今是流行的。上述技术可应用于多个领域,例如游戏、军事训练、医疗保健、远程工作等。
为了让用户将模拟环境感知为真实环境,可扫描真实环境的空间以产生看起来像真实环境的模拟环境。然而,产生模拟环境可能花费长的时间。在模拟环境的产生期间,用户可能移动远离先前的位置,或者用户的姿势可变化。在显示器上呈现模拟环境之后,模拟环境的视角可能与真实环境的视角不同。
发明内容
仿真环境与真实环境之间的视角差异可能会使用户困惑,且用户可能难以比对模拟环境及真实环境。因此,本发明涉及一种头戴式显示系统及其场景扫描方法。
在一个示例性实施例中,一种头戴式显示系统包括图像捕获设备、运动传感器、显示器及处理器。头戴式显示系统可佩戴在用户的头部上并用于扫描用户周围的真实环境。图像捕获设备用于捕获真实环境中的一个或多个第一场景图像及第二场景图像。运动传感器用于获得与用户的头部的姿势对应的感测数据。处理器耦接图像捕获设备、运动传感器及显示器。处理器被配置成从第一场景图像产生与真实环境对应的初步虚拟环境,在显示器上以视觉位置处的视角显示初步虚拟环境且响应于用户的头部的姿势发生变化而修改呈现初步虚拟环境的视角。视觉位置对应于真实环境中由图像捕获设备捕获第二场景图像的真实位置。
在一个示例性实施例中,一种场景扫描方法适用于可佩戴在用户的头部上并用于扫描用户周围的真实环境的头戴式显示系统。场景扫描方法包括以下步骤。获得真实环境中的一个或多个第一场景图像及第二场景图像。从场景图像产生与真实环境对应的初步虚拟环境。以视觉位置处的视角显示初步虚拟环境。视觉位置对应于真实环境中捕获第二场景图像的真实位置。响应于用户的头部的姿势发生变化而修改呈现初步虚拟环境的视角。
然而,应理解,本发明内容可能不包含本发明的所有方面及实施例,决不意在为限制性或限定性的,并且本文所公开的发明由且将由所属领域中的普通技术人员理解为囊括对本发明的显而易见的改善及修改。
附图说明
包含附图是为了提供对本发明的进一步理解,并且附图被并入本说明书并构成本说明书的一部分。附图示出本发明的实施例,且与本说明一起用于解释本发明的原理。
图1是示出根据本发明一个示例性实施例的头戴式显示系统的框图;
图2是示出根据本发明一个示例性实施例的场景扫描方法的流程图;
图3A至图3D是示出在显示器上显示的图像的示意图。
附图标号说明
100:头戴式显示系统
110:图像捕获设备
120:运动传感器
130:显示器
140:存储器
150:处理器
I1、I2、I3、I4:图像
S210、S230、S250、S270:步骤
V1、V2:虚拟环境
W1、W2、W3:窗口
具体实施方式
现在将详细参照本发明的当前优选实施例,在附图中示出了这些实施例的实例。只要可能,在附图及说明中使用相同的元件符号来指代相同或相似的部件。
图1是示出根据本发明一个示例性实施例的头戴式显示系统100的框图。参照图1,头戴式显示系统100包括但不限于图像捕获设备110、运动传感器120、显示器130、存储器140及处理器150。头戴式显示系统100适用于VR、AR、MR、XR或其他现实相关技术。
图像捕获设备110可为照相机、录像机或能够捕获图像的其他传感器。图像捕获设备110设置在头戴式显示系统100的主体处,以捕获外部。例如,当用户佩戴头戴式显示系统100时,图像捕获设备110可位于用户眼睛前方的位置处。在一些实施例中,头戴式显示系统100可进一步包括深度传感器、飞行时间相机或能够获得外部物体的深度或距离信息的其他传感器。
运动传感器120可为加速度计、陀螺仪、磁力计、激光传感器、惯性测量单元(inertial measurement unit,IMU)、红外线(infrared ray,IR)传感器、图像传感器、深度照相机或前述传感器的任一组合。在本发明的实施例中,运动传感器120用于感测头戴式显示系统100的主体的运动,以产生与用户头部的姿势对应的对应感测数据(例如3自由度(3-degree of freedom,3-DoF)或6-DoF信息)。
显示器130可为液晶显示器(liquid-crystal display,LCD)、发光二极管(light-emitting diode,LED)显示器、有机发光二极管(organic light-emitting diode,OLED)显示器或其他显示器。在本发明的实施例中,显示器130用于显示图像。应注意,在一些实施例中,显示器130可为外部设备(例如智能电话、平板计算机等)的显示器,且所述外部设备可放置在头戴式显示系统100的主体上。
存储器140可为任何类型的固定或可移动随机存取存储器(Random-AccessMemory,RAM)、只读存储器(Read-Only Memory,ROM)、闪存存储器、类似装置或上述装置的组合。存储器140记录程序代码、装置配置、缓冲数据或永久数据(例如场景图像、虚拟环境、感测数据等),且稍后将介绍这些数据。
处理器150耦接图像捕获设备110、运动传感器120、显示器130及存储器140。处理器150被配置成加载存储在存储器140中的程序代码,以执行本发明示例性实施例的程序。
在一些实施例中,处理器150的功能可通过使用例如中央处理器(centralprocessing unit,CPU)、微处理器、微控制器、数字信号处理(digital signalprocessing,DSP)芯片、现场可编程门阵列(field programmable gate array,FPGA)等可编程单元来实施。处理器150的功能也可由独立的电子装置或集成电路(integratedcircuit,IC)来实施,且处理器150的操作也可由软件来实施。
为了更好地理解在本发明的一个或多个实施例中提供的操作过程,以下将例示若干实施例,以详细说明头戴式显示系统100的操作过程。在以下实施例中应用头戴式显示系统100中的装置及模块来解释本文提供的场景扫描方法。所述方法的每一步骤可根据实际实施情况加以调整,且不应仅限于本文所述的内容。
图2是示出根据本发明一个示例性实施例的场景扫描方法的流程图。参照图2,处理器150通过图像捕获设备110获得真实环境中的一个或多个场景图像(步骤S210)。具体来说,假设用户将头戴式显示系统100佩戴在他/她的头部上。用户可移动或旋转头戴式显示系统100,使得图像捕获设备110可朝向与头戴式显示系统100的姿势对应的方向进行捕获。在本发明的实施例中,由图像捕获设备110在真实环境(例如房间、办公室等)中捕获的图像将被称为场景图像,但并非仅限于此。如果头戴式显示系统100的主体每次旋转某一角度(例如沿x轴、y轴或z轴旋转15度、20度或30度,其中x轴、y轴及z轴彼此垂直),或者如果每次时间间隔到期,则处理器150可触发图像捕获设备110捕获场景图像。例如,关于360度虚拟环境的构建,假设每一场景图像的视角远离相邻的场景图像15度。用户可利用头戴式显示系统100水平地进行360度旋转,且然后可从图像捕获设备110获得24个场景图像。
在一个实施例中,场景图像包括一个或多个第一场景图像及第二场景图像。第一场景图像表示在产生初步虚拟环境之前捕获的场景图像,且第二场景图像表示在产生初步虚拟环境之后捕获的场景图像。稍后将介绍初步虚拟环境的产生。
同时,处理器150从运动传感器120获得感测数据,并根据所述感测数据来确定头戴式显示系统100的位置、姿势及定向。例如,可将感测数据中所包含的加速度、旋转及磁场确定为定向信息,可通过对加速度的二重积分来确定位置,且可根据定向及位置信息来确定姿势。对于另一实例,处理器150提取每一场景图像中的特定特征(例如图案、物体等),确定多个场景图像的特征间的对应性(例如场景图像中的距离差、三维(3-dimension,3D)角度等),并基于所确定的对应性来估计姿势。
处理器150可根据感测数据将每一场景图像与头戴式显示系统100的对应位置、对应定向及对应姿势中的至少一者相关联。也就是说,每次捕获场景图像时,头戴式显示系统100的当前位置、当前定向和/或当前姿势将与所述场景图像相关联。
应注意,当用户过快或不以规则速度地移动或旋转头戴式显示系统时,场景图像的品质可能不适于构建虚拟环境,或者可能构建具有低品质的虚拟环境。处理器150可确定两个相邻场景图像之间的姿势变化,并响应于姿势变化满足阈值而产生视觉或音频通知。姿势变化可包括旋转角度、场景及经过时间的变化中的至少一者。例如,如果默认旋转角度是20度,但头戴式显示系统100在1秒内旋转30度,则处理器150可在显示器130上呈现视觉消息“转回!”。在头戴式显示系统100转回到先前方向之后,图像捕获设备110可再次捕获场景图像。
处理器150根据第一场景图像产生与真实环境对应的初步虚拟环境(步骤S230)。虚拟环境可为2D或3D空间模型。在一个实施例中,处理器150以点云、3D网格等的模型格式来产生初步虚拟环境。这意味着初步虚拟环境是由点云及三维网格的模型格式构成。以点云图为例,处理器150从场景图像及场景图像中特定像素/块的深度信息获得特征(例如颜色、线条、图案等)。这些像素/块的特征将根据对应的深度及位置被映射到空白虚拟环境中的特定3D空间坐标中。在所有这些像素/块被映射之后,将产生初步虚拟环境。
在另一实施例中,处理器150以不同于点云模型格式的另一模型格式获得经优化虚拟环境。经优化虚拟环境的模型格式可为STL、FBX、COLLADA、3DS、OBJ或其他格式。这意味着经优化虚拟环境不由点云的模型格式构成。由于计算性能的限制,由处理器150产生的经优化虚拟环境可能花费长的时间(例如超过10分钟、20分钟或30分钟)。在一个实施例中,头戴式显示系统100可经由局域网或广域网将从第一场景图像产生的初步虚拟环境上载到远程服务器(例如台式计算机、膝上型计算机或工作站)。远程服务器基于初步虚拟环境产生经优化虚拟环境的时间可少于处理器150。在经优化虚拟环境的构建完成之后,头戴式显示系统100可从远程服务器下载经优化虚拟环境。
应注意,在此实施例中,经优化虚拟环境的模型格式可具有比初步虚拟环境的模型格式更好的品质,但并非仅限于此。另外,产生初步/最优虚拟环境的程序可进一步包括运动模糊推断、平滑处理、白平衡调整等,且可基于实际要求来修改所述程序。
响应于产生初步虚拟环境,处理器150可在显示器130上以视觉位置处的视角显示初步虚拟环境(步骤S250)。具体来说,视觉位置对应于真实环境中由图像捕获设备110捕获第二场景图像的真实位置。在初步虚拟环境的构建期间,头戴式显示系统100可能被移动或旋转,且离开先前的位置和/或先前的定向。响应于环境构建完成,处理器150启用图像捕获设备110,且图像捕获设备110可在真实环境中的真实位置处捕获一个或多个第二场景图像。
然后,处理器150可将第一场景图像与第二场景图像进行比较,并确定其对应性。例如,处理器150可提取每一第一场景图像及每一第二场景图像中的特定特征(例如形状、物体等),累加一个特定特征在第一场景图像及第二场景图像中均存在的存在数目,并根据所存在特征及其存在数目来确定第一场景图像与第二场景图像间的对应性。处理器150可选择对应性大于阈值的场景图像,并确定虚拟环境中对应于所选场景图像的视觉位置。然后,所确定的视觉位置将对应于第二场景图像的真实位置。另外,所选场景图像对应于特定视角。处理器150可根据所确定的视觉位置将虚拟环境中的视角修改成与用户在没有头戴式显示系统100的情况下在真实环境中看到的视角相同。
对于另一实例,处理器150可根据每一第一场景图像的对应姿势来确定虚拟环境中视觉位置处的视角。每一第一场景图像或每一第二场景图像对应于用户头部的特定姿势。处理器150可确定第一场景图像的对应姿势与第二场景图像的对应姿势间的差异。将选择具有最小差异的一个场景图像,且处理器150可根据与所选场景图像对应的姿势来确定视觉位置及视角。
因此,在显示器130上在特定视觉位置处以特定视角显示的虚拟环境的图像将与用户在真实位置处以特定视角看到的场景相同。应注意,为了更快地呈现虚拟环境,可在步骤S250中显示初步虚拟环境。然而,在没有头戴式显示系统100的硬件或网络限制的情况下,可在步骤S250中显示最优虚拟环境。
另外,处理器150可进一步在显示器130上以画中画模式(picture-in-picturemode)显示初步虚拟环境及第二场景图像。画中画模式可为:以全屏模式显示初步虚拟环境,且以尺寸比初步虚拟环境更小的窗口模式显示第二场景图像。因此,用户可检查虚拟环境中视觉位置处的视角是否对应于真实环境中真实位置处的视角。应注意,可基于实际要求来修改呈现初步虚拟环境及第二场景图像的图像尺寸。
例如,图3A至图3D是示出在显示器130上显示的图像的示意图。首先参照图3A,在显示器130上显示的图像I1中产生虚拟环境V1。窗口W1表明真实位置处的视角不同于呈现虚拟环境V1的视觉位置处的视角。参照图3B,在视觉位置被重新定位之后,窗口W2表明真实位置处的视角与在图像I2中呈现虚拟环境V1的修改后视觉位置处的视角相同。
然后,处理器150可响应于基于感测数据用户头部的姿势发生变化而修改呈现初步虚拟环境的视角(步骤S270)。具体来说,初步虚拟环境可能具有异常部分(例如,洞、尖刺、隧道等),使得初步虚拟环境中可存在一个或多个空白或中空部分。用户可移动或旋转头戴式显示系统100来检查空白或中空部分。处理器150将通过运动传感器120跟踪用户头部的姿势,并根据所跟踪的姿势来修改视角。例如,如果6自由度(6-DoF)信息是头戴式显示系统100水平地旋转60度,则处理器150将使视角改变成转向与先前方向成60度角的方向。因此,用户较容易检查及重新扫描虚拟环境的异常部分。
在一个实施例中,在通过图像捕获设备110捕获真实环境中的一个或多个第三场景图像之前,处理器150可进一步在显示器130上以画中画模式显示初步虚拟环境及真实环境的透视(see through)视图。画中画模式可为:以全屏模式显示初步虚拟环境,且以尺寸比初步虚拟环境更小的窗口模式显示透视视图。以图3B为例,窗口W2示出真实环境中的视图。因此,用户可知道场景图像中针对异常部分待捕获的视图。应注意,可基于实际要求来修改呈现初步虚拟环境及透视视图的图像尺寸。
响应于用户触发图像捕获设备110来针对异常部分捕获真实环境中的一个或多个第三场景图像,处理器150可从第一场景图像及一部分或全部的第三场景图像重新产生初步虚拟环境。处理器150从第一场景图像及第三场景图像选择关键图像,以再次构建初步虚拟环境。对构建方式的说明可参考步骤S230,且相关说明将被省略。
然后,处理器150可响应于产生所重新产生的初步虚拟环境而在显示器130上以第二视觉位置处的第二视角显示所重新产生的初步虚拟环境。因为用户可能在所重新产生的初步虚拟环境的构建期间移动或旋转头戴式显示系统100,所以第二视觉位置也应被重新定位。图像捕获设备110可响应于产生所重新产生的初步虚拟环境而捕获一个或多个第四场景图像,且第二视觉位置将对应于真实环境中由图像捕获设备110捕获第四场景图像的第二真实位置。对重新定位的说明可参考步骤S250,且相关说明将被省略。
例如,首先参照图3C,在重新扫描图3B所示虚拟环境V1之后,在显示器130上显示的图像I3中产生虚拟环境V2。窗口W3表明真实位置处的视角不同于呈现虚拟环境V2的视觉位置处的视角。参照图3D,在视觉位置被重新定位之后,真实位置处的视角与在图像I4中呈现虚拟环境V2的修改后视觉位置处的视角相同。
在一个实施例中,处理器150可分析初步虚拟环境,以找到初步虚拟环境或所重新产生的初步虚拟环境中的异常部分。处理器150确定所分析结果,所述所分析结果可包括待重新扫描的第三场景图像的数目和/或捕获第三场景图像的用户头部姿势。在一些实施例中,处理器150可基于所分析结果来进一步提供初步虚拟环境完整性的级别或分数。例如,分数可与初步虚拟环境中的洞的数目相关。所述级别或分数可用于确定是否将重新扫描真实环境。在一些实施例中,在产生所重新产生的初步虚拟环境之后,处理器150可执行前述过程(即,分析异常部分,确定所分析结果,及提供级别或分数)中的一者、两者或全部。
在一个实施例中,一个或多个用户佩戴头戴式显示系统100。这意味着多个用户可一起重新扫描他们周围的真实环境。每一头戴式显示系统100的显示器130可呈现所分析结果和/或初步虚拟环境,且头戴式显示系统100中的至少一者可收集由所有头戴式显示系统100获得的所有第三场景图像。
在另一实施例中,头戴式显示系统100可请求机器(例如无人机)重新扫描初步虚拟环境中的异常部分。无人机配备有图像捕获设备。处理器150可基于所分析结果来指示无人机移动到特定位置及特定方向以捕获一部分或全部的第三场景图像,且无人机可将所捕获的第三场景图像传送到头戴式显示系统100。
在一个实施例中,头戴式显示系统100可将初步虚拟环境及至少一个第三场景图像上载到远程服务器,并从远程服务器下载完整虚拟环境。完整虚拟环境是基于初步虚拟环境及所述至少一个第三场景图像而产生。例如,远程服务器可调整虚拟环境中一些区域的深度,并进一步对虚拟环境执行平滑处理。完整虚拟环境的模型格式可为STL、FBX、COLLADA、3DS、OBJ或其他格式。这意味着完整虚拟环境不由点云的模型格式构成。因此,与初步虚拟环境相比,完整虚拟环境可能具有更少或没有异常部分。
综上所述,在本发明实施例的头戴式显示系统及其场景扫描方法中,虚拟环境可基于视觉位置上的视角呈现,且此视觉位置是对应于真实环境中的真实位置。此外,可随着头戴式显示系统的动作而改变此视角。藉此,可方便地扫描真实环境,且进一步取得完整虚拟环境。
对于所属领域中的技术人员来说将显而易见,在不背离本发明的范围或精神的条件下,可对本发明的结构作出各种修改及变化。鉴于上述内容,本发明旨在涵盖本发明的修改及变化,只要所述修改及变化归属于以上权利要求及其等效内容的范围内即可。

Claims (20)

1.一种头戴式显示系统,能够佩戴在用户的头部上并扫描所述用户周围的真实环境,所述头戴式显示系统包括:
图像捕获设备,捕获所述真实环境中的第一场景图像及第二场景图像;
运动传感器,获得与所述用户的头部的姿势对应的感测数据;
显示器;以及
处理器,耦接所述图像捕获设备、所述运动传感器及所述显示器,且经配置用以:
从所述第一场景图像产生与所述真实环境对应的初步虚拟环境;
在所述显示器上以视觉位置处的视角显示所述初步虚拟环境,其中所述视觉位置对应于所述真实环境中由所述图像捕获设备捕获所述第二场景图像的真实位置;以及
响应于所述用户的头部的所述姿势发生变化而修改呈现所述初步虚拟环境的所述视角。
2.根据权利要求1所述的头戴式显示系统,其中所述处理器经配置用以:
响应于在所述显示器上显示所述初步虚拟环境,捕获所述真实环境中的至少一个第三场景图像。
3.根据权利要求2所述的头戴式显示系统,其中所述处理器经配置用以:
在通过所述图像捕获设备捕获所述真实环境中的所述至少一个第三场景图像之前,在所述显示器上以画中画模式显示所述初步虚拟环境及所述真实环境的透视视图。
4.根据权利要求2所述的头戴式显示系统,其中所述处理器经配置用以:
在通过所述图像捕获设备捕获所述真实环境中的所述至少一个第三场景图像之前,在所述显示器上以画中画模式显示所述初步虚拟环境及所述第二场景图像。
5.根据权利要求2所述的头戴式显示系统,其中所述处理器经配置用以:
将所述初步虚拟环境及所述至少一个第三场景图像上载到远程服务器;以及
从所述远程服务器下载完整虚拟环境,其中所述完整虚拟环境是基于所述初步虚拟环境及所述至少一个第三场景图像而产生。
6.根据权利要求5所述的头戴式显示系统,其中所述初步虚拟环境由点云及三维网格的模型格式构成,且所述完整虚拟环境不由点云的模型格式构成。
7.根据权利要求2所述的头戴式显示系统,其中所述处理器经配置用以:
从所述第一场景图像及一部分或全部的所述至少一个第三场景图像重新产生所述初步虚拟环境;
在所述显示器上以第二视觉位置处的第二视角显示所重新产生的所述初步虚拟环境,其中所述第二视觉位置对应于所述真实环境中由所述图像捕获设备捕获第四场景图像的第二真实位置。
8.根据权利要求1所述的头戴式显示系统,其中所述处理器经配置用以:
根据所述感测数据将所述第一场景图像中的每一者与所述头戴式显示系统的对应姿势相关联;以及
根据所述第一场景图像中的每一者的所述对应姿势确定所述虚拟环境中所述视觉位置处的所述视角。
9.根据权利要求1所述的头戴式显示系统,其中所述处理器经配置用以:
将所述初步虚拟环境上载到远程服务器;以及
从所述远程服务器下载经优化虚拟环境,其中所述经优化虚拟环境是基于所述初步虚拟环境而产生。
10.根据权利要求1所述的头戴式显示系统,其中所述初步虚拟环境由点云及三维网格的模型格式构成。
11.一种场景扫描方法,适用于能够佩戴在用户的头部上并用于扫描所述用户周围的真实环境的头戴式显示系统,所述场景扫描方法包括:
获得所述真实环境中的第一场景图像及第二场景图像;
从所述第一场景图像产生与所述真实环境对应的初步虚拟环境;
以视觉位置处的视角显示所述初步虚拟环境,其中所述视觉位置对应于所述真实环境中捕获所述第二场景图像的真实位置;以及
响应于所述用户的头部的姿势发生变化而修改呈现所述初步虚拟环境的所述视角。
12.根据权利要求11所述的场景扫描方法,在所述显示所述初步虚拟环境的步骤之后,进一步包括:
响应于在所述头戴式显示系统的显示器上显示所述初步虚拟环境而捕获所述真实环境中的至少一个第三场景图像。
13.根据权利要求12所述的场景扫描方法,其中所述显示所述初步虚拟环境的步骤包括:
在捕获所述真实环境中的所述至少一个第三场景图像之前,以画中画模式显示所述初步虚拟环境及所述真实环境的透视视图。
14.根据权利要求12所述的场景扫描方法,其中所述显示所述初步虚拟环境的步骤包括:
在捕获所述真实环境中的所述至少一个第三场景图像之前,以画中画模式显示所述初步虚拟环境及所述第二场景图像。
15.根据权利要求12所述的场景扫描方法,在所述捕获所述至少一个第三场景图像的步骤之后,进一步包括:
将所述初步虚拟环境及所述至少一个第三场景图像上载到远程服务器;以及
从所述远程服务器下载完整虚拟环境,其中所述完整虚拟环境是基于所述初步虚拟环境及所述至少一个第三场景图像而产生。
16.根据权利要求15所述的场景扫描方法,其中所述初步虚拟环境由点云及三维网格的模型格式构成,且所述完整虚拟环境不由点云的模型格式构成。
17.根据权利要求12所述的场景扫描方法,在所述捕获所述至少一个第三场景图像的步骤之后,进一步包括:
从所述第一场景图像及一部分或全部的所述至少一个第三场景图像重新产生所述初步虚拟环境;
以第二视觉位置处的第二视角显示所重新产生的所述初步虚拟环境,其中所述第二视觉位置对应于所述真实环境中捕获第四场景图像的第二真实位置。
18.根据权利要求11所述的场景扫描方法,在所述显示所述初步虚拟环境的步骤之前,进一步包括:
根据与所述用户的头部的所述姿势对应的感测数据将所述第一场景图像中的每一者与所述头戴式显示系统的对应姿势相关联;以及
根据所述第一场景图像中的每一者的所述对应姿势确定所述虚拟环境中所述视觉位置处的所述视角。
19.根据权利要求11所述的场景扫描方法,在所述从所述第一场景图像产生与所述真实环境对应的所述初步虚拟环境的步骤之后,进一步包括:
将所述初步虚拟环境上载到远程服务器;以及
从所述远程服务器下载经优化虚拟环境,其中所述经优化虚拟环境是基于所述初步虚拟环境而产生。
20.根据权利要求11所述的场景扫描方法,其中所述初步虚拟环境由点云及三维网格的模型格式构成。
CN201911259347.7A 2019-10-09 2019-12-10 头戴式显示系统及其场景扫描方法 Withdrawn CN112630964A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/596,778 US20200342833A1 (en) 2019-04-24 2019-10-09 Head mounted display system and scene scanning method thereof
US16/596,778 2019-10-09

Publications (1)

Publication Number Publication Date
CN112630964A true CN112630964A (zh) 2021-04-09

Family

ID=68581153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911259347.7A Withdrawn CN112630964A (zh) 2019-10-09 2019-12-10 头戴式显示系统及其场景扫描方法

Country Status (4)

Country Link
EP (1) EP3805899A1 (zh)
JP (1) JP2021060953A (zh)
CN (1) CN112630964A (zh)
TW (1) TW202115682A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023045254A1 (zh) * 2021-09-23 2023-03-30 青岛小鸟看看科技有限公司 图像显示方法、装置及电子设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114915757A (zh) * 2022-04-24 2022-08-16 中建三局集团有限公司 一种基于vr技术的智慧工地监控方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013173728A1 (en) * 2012-05-17 2013-11-21 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
US10257505B2 (en) * 2016-02-08 2019-04-09 Microsoft Technology Licensing, Llc Optimized object scanning using sensor fusion

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023045254A1 (zh) * 2021-09-23 2023-03-30 青岛小鸟看看科技有限公司 图像显示方法、装置及电子设备

Also Published As

Publication number Publication date
JP2021060953A (ja) 2021-04-15
TW202115682A (zh) 2021-04-16
EP3805899A1 (en) 2021-04-14

Similar Documents

Publication Publication Date Title
US10725297B2 (en) Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US10726625B2 (en) Method and system for improving the transmission and processing of data regarding a multi-user virtual environment
US10607403B2 (en) Shadows for inserted content
CN108292489A (zh) 信息处理装置和图像生成方法
CN110249626B (zh) 增强现实图像的实现方法、装置、终端设备和存储介质
EP3106963B1 (en) Mediated reality
US20170163958A1 (en) Method and device for image rendering processing
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
US10768711B2 (en) Mediated reality
JP7182920B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN109743892A (zh) 虚拟现实内容的显示方法和装置
US11044398B2 (en) Panoramic light field capture, processing, and display
KR20230110357A (ko) 물리적 키보드 추적
CN108139801A (zh) 用于经由保留光场渲染来执行电子显示稳定的系统和方法
CN112630964A (zh) 头戴式显示系统及其场景扫描方法
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP2017201477A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
CN115486091A (zh) 使用虚拟现实设备进行视频处理的系统和方法
US20200342833A1 (en) Head mounted display system and scene scanning method thereof
JP6554139B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
CN113678173A (zh) 用于虚拟对象的基于图绘的放置的方法和设备
US20230191259A1 (en) System and Method for Using Room-Scale Virtual Sets to Design Video Games
TW201915543A (zh) 頭戴式顯示裝置及其控制方法
US20240078743A1 (en) Stereo Depth Markers
US20230388471A1 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210409