CN106204751A - 现实对象与虚拟场景的实时整合方法和整合系统 - Google Patents

现实对象与虚拟场景的实时整合方法和整合系统 Download PDF

Info

Publication number
CN106204751A
CN106204751A CN201610557629.5A CN201610557629A CN106204751A CN 106204751 A CN106204751 A CN 106204751A CN 201610557629 A CN201610557629 A CN 201610557629A CN 106204751 A CN106204751 A CN 106204751A
Authority
CN
China
Prior art keywords
real
world object
time
video
thing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610557629.5A
Other languages
English (en)
Other versions
CN106204751B (zh
Inventor
翟振明
彭顺丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Atlantis Technology Co Ltd
Original Assignee
Guangzhou Atlantis Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Atlantis Technology Co Ltd filed Critical Guangzhou Atlantis Technology Co Ltd
Priority to CN201610557629.5A priority Critical patent/CN106204751B/zh
Publication of CN106204751A publication Critical patent/CN106204751A/zh
Application granted granted Critical
Publication of CN106204751B publication Critical patent/CN106204751B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明的现实对象与虚拟场景的实时整合方法,包括:建立单色采集环境;利用3D摄像机采集单色采集环境中现实对象的实时状态视频;将实时状态视频中的现实对象独立,形成现实对象的实时立体视频;将接收的现实对象的实时立体视频形成实时的虚拟对象,实时引入虚拟现实场景,形成相应的人替或物替,与虚拟现实场景整合,形成观察者可观察到的统一视觉场景。将现实环境中的人或物的实时的变化,即时反映在虚拟现实场景中相应的人替或物替上,直接可以实现三维数据的采集和三维模型的形成,不需要进行后期制作。三维数据的高度相关性,使得利用虚拟现实引擎建模效率极高,保证了人替或物替生成的实时性。还包括现实对象与虚拟场景的实时整合系统。

Description

现实对象与虚拟场景的实时整合方法和整合系统
技术领域
本发明涉及一种数据采集处理方法,特别是涉及一种现实对象实时数据的采集处理方法。
背景技术
随着科技不断发展进步,虚拟现实技术与网络通信技术的结合日趋紧密。利用普通眼镜尺寸的显示器结合智能手机的通信终端,或是联网后的穿戴式设备,就可以联网进入沉浸式的网络化的虚拟世界中。在虚拟世界的场景中,可以遥距操作与现实物联网上网元对应的虚拟对象,完成真实感受的控制反馈过程。这也意味着有可能将现实世界中的人或物实时无缝整合进入这个虚拟世界的场景中。这种虚拟与现实无缝融合的场景,以及在虚拟场景中通过物联网控制现实世界的物品,即是“扩展现实”。在虚拟现实场景中,通常会包括如下对象:
1)人替(avatar),通过传感技术进行实时动态捕捉生成的,直接由用户(人)的直接生理反应实时操纵的感觉综合体的虚拟对象。
2)人摹(NPC),由人工智能驱动的摹拟人的虚拟对象。可以是系统创设的,也可以是用户创建的。
3)物替(physicum),直接由客观装置的状态、反馈信号实时操纵的感觉复合体的虚拟对象。对应于物联网中的服务于遥距操作的设备对象或设备。
4)物摹(physicon),由人工智能驱动的摹拟无反馈物的虚拟对象。
5)人替摹(avatar agent),由用户(人)脱线时人工智能驱动的人替的虚拟对象。
相应的,动物对象的加入,还会包括:
6)动物替(animal avatar),通过传感技术进行实时动态捕捉生成的直接由用户(人)的直接生理反应实时操纵的感觉综合体的虚拟对象。
7)动物摹(animal agent),由人工智能驱动的摹拟动物的虚拟对象。可以是系统创设的,也可以是用户创建的。
在现有的虚拟现实场景中,将现实中的人或物引入生成虚拟对象(人替或物替)的方法主要有两种,一个通过3D扫描建模,再整合到VR场景。二是通过VR拍摄获取立体视频,再整合到VR场景。
但是,3D扫描建模整合需先通过对人或物进行3D扫描建模利用例如Unity3D建模工具形成人替或物替对象,再整合到虚拟场景中,制作时间比较长,不具实时性,无法实现人替或物替在虚拟现实场景中的快速进入。VR拍摄需先拍摄制作再进入,也不具实时性,由于拍摄VR视频时只能沿着一个固定路线拍摄,所以当人进入虚拟现实后能接触的只是一个时间截面的场景。由于只有一种场景,不能进行实时场景更换,故不具互动性。
由此可见针对虚拟现实场景中人替引入,由于作为现实对象的人和物的状态灵活性和随之而来的交互复杂性,使得现有人替或复杂物替的实施建模过程的实时性还不能有效解决。
发明内容
有鉴于此,本发明实施例提供了一种现实对象与虚拟场景的实时整合方法,解决了现实对象的变化状态无法实时形成虚拟对象相应状态的技术问题。
本发明实施例还提供了一种现实对象与虚拟场景的实时整合系统,解决了现实对象的变化状态与虚拟现实场景中的交互操作无法实时反馈的技术问题。
本发明的现实对象与虚拟场景的实时整合方法,包括:
步骤110,建立单色采集环境;
步骤120,利用3D摄像机采集单色采集环境中现实对象的实时状态视频;
步骤130,将实时状态视频中的现实对象独立,形成现实对象的实时立体视频;
步骤140,将接收的现实对象的实时立体视频形成实时的虚拟对象,实时引入虚拟现实场景,形成相应的人替或物替,与虚拟现实场景整合,形成观察者可观察到的统一视觉场景。
所述步骤110中,包括:建立全景单色采集环境。
所述步骤120中,在单色采集环境中布设若干3D摄像机。
所述步骤130中,所述实时立体视频包括单一角度的实时立体视频或多角度的实时立体视频。
所述步骤120中,在单色采集环境中的现实对象上设置3D摄像机,当所述现实对象为人体时,3D摄像机的取景方向沿人体的视角设置,摄像头设置位置与人体的眼部相应。
所述步骤130中,所述实时立体视频包括单一现实对象上的3D摄像机在单色采集环境中采集到的现实对象形成的实时立体视频。
所述步骤140中,包括:现实对象的实时立体视频的接收,采用宽带数据连接实时传输。
还包括:
步骤160,在虚拟现实场景中观察第一人替或第一物替的实时动作;
步骤170,在虚拟现实场景中第二人替或第二物替对第一人替或第一物替产生交互动作;
步骤180,第一人替或第一物替作出相应反馈;
步骤120,利用3D摄像机采集单色采集环境中现实对象的实时状态视频;
执行后续步骤。
本发明的现实对象与虚拟场景的实时整合系统,包括单色全景采集环境、3D摄像机、图像处理装置和虚拟现实引擎,其中:
单色全景采集环境,用于建立单色采集环境的侧壁或容器;
3D摄像机,用于利用3D摄像机采集单色采集环境中现实对象的实时状态视频;
图像处理装置,用于将实时状态视频中的现实对象独立,形成现实对象的实时立体视频;
虚拟现实引擎,将接收的现实对象的实时立体视频形成实时的虚拟对象,实时引入虚拟现实场景,形成相应的人替或物替,与虚拟现实场景整合,形成观察者可观察到的统一视觉场景。
还包括容纳人替或物替的虚拟场景,以及不同人使用的显示器,用来在虚拟现实场景中观察人替或物替的实时动作。
所述侧壁或容器包括容纳人或物的局部开放的单色平滑空间内壁,或形成密闭的单色平滑空间内壁。
所述单色包括单一颜色,或单一纹理的重复。
本发明实施例的现实对象与虚拟场景的实时整合方法可以将现实环境中的人或物的实时的变化,即时反映在虚拟现实场景中相应的人替或物替上,直接可以实现三维数据的采集和三维模型的形成,不需要进行后期制作。三维数据的高度相关性,使得利用虚拟现实引擎建模效率极高,保证了人替或物替生成的实时性。
本发明实施例的现实对象与虚拟场景的实时整合系统,建立了对象实时变化状态与虚拟场景实时整合的标准工作环境,通过本整合系统,跨越地域的人或物的主要被动的实时变化都可以在同一虚拟场景中体现,有利于不同人或物在同一虚拟场景的视角切换。
附图说明
图1为本发明实施例的现实对象与虚拟场景的实时整合方法的流程图;
图2为本发明实施例的现实对象与虚拟场景的实时整合系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。图纸中的步骤编号仅用于作为该步骤的附图标记,不表示执行顺序。
如图1所示,本发明实施例的现实对象与虚拟场景的实时整合方法,包括:
步骤110,建立单色采集环境;
步骤120,利用3D摄像机采集单色采集环境中现实对象的实时状态视频;
步骤130,将实时状态视频中的现实对象独立,形成现实对象的实时立体视频;
步骤140,将接收的现实对象的实时立体视频形成实时的虚拟对象,实时引入虚拟现实场景,形成相应的人替或物替,与虚拟现实场景整合,形成观察者可观察到的统一视觉场景;
步骤150,在虚拟现实场景中观察人替或物替的实时动作;
步骤200,观察结束。
本实施例的现实对象与虚拟场景的实时整合方法,可以将现实环境中的人或物的实时的变化,即时反映在虚拟现实场景中相应的人替或物替上,直接可以实现三维数据的采集和三维模型的形成,不需要进行后期制作。采集的三维数据经过简单数据过滤(如单色抠图)就可以获得模型准确数据,三维数据的高度相关性,使得利用虚拟现实引擎建模效率极高,保证了人替或物替生成的实时性。由于虚拟现实场景视角的转换与现实环境中的视角转换相同或相近,利用本实施例的立体视频采集数据,可以实现实时视角变换,只需要极端的时延和较低的处理负荷,可以忽略不计。
进一步,本实施例的现实对象与虚拟场景的实时整合方法,还包括:
步骤160,在虚拟现实场景中观察第一人替或第一物替的实时动作;
步骤170,在虚拟现实场景中第二人替或第二物替对第一人替或第一物替产生交互动作;
步骤180,第一人替或第一物替作出相应反馈;
步骤120,利用3D摄像机采集单色采集环境中现实对象的实时状态视频;
执行后续步骤。
本实施例的现实对象与虚拟场景的实时整合方法可以将不同的人替或物替引入同一虚拟现实场景,人替或物替通过交互行为影响其他的人替或物替,导致被影响人替或物替对应的人或物作出反馈,形成被影响人替或物替的实时状态变化。实现了跨越不同地理位置的人或物在同一虚拟现实场景中的实时的复杂交互。
上述步骤110中,包括:建立全景单色采集环境。全景单色采集环境包括容纳人或物的局部开放的(优选的)单色平滑空间内壁,或形成密闭的(优选的)单色平滑空间内壁。单色包括单一颜色,或单一纹理的重复。
上述步骤120中,可以包括:在单色采集环境中布设若干3D摄像机。若干3D摄像机可以分别形成立体视频,这些立体视频中包括正相关的视频数据,可以作为场景视角连续变换时的关键帧的关键数据,减轻场景视角连续变换的计算负荷,提高场景视角连续变换精度。3D摄像机为单机双镜头摄像机或双机双镜头摄像机。
上述步骤130中涉及的实时立体视频,可以包括单一角度的实时立体视频或多角度的实时立体视频。多角度的实时立体视频可以对应场景中的不同视角,可以减轻场景中的不同视角间的转换换算负荷。
上述步骤120中,或者包括:在单色采集环境中的现实对象上分别设置3D摄像机,3D摄像机可以分别形成立体视频,这些立体视频中包括单色采集环境中采集到的现实对象的视频数据。受现实对象的行为模式驱动,这些立体视频中包括正相关的视频数据,可以作为场景视角连续变换时的关键帧的关键数据。当现实对象为人体时,3D摄像机的取景方向沿人体视角设置,摄像头设置位置与人体的眼部相应。例如设置在人体头部的眼部周围。
上述步骤130中涉及的实时立体视频,可以包括单一现实对象上的3D摄像机在单色采集环境中采集到的现实对象形成的实时立体视频。单一现实对象的若干实时立体视频可以在场景中满足所有其余现实对象对单一现实对象的实时观察和交互。
上述步骤140中,包括:现实对象的实时立体视频的接收,采用宽带数据连接实时传输。宽带数据连接选用成熟的无线宽带连接或有线宽带连接。
如图2所示,本发明实施例的现实对象与虚拟场景的实时整合系统,包括单色全景采集环境111、3D摄像机112、图像处理装置113和虚拟现实引擎114,其中:
单色全景采集环境111,用于建立单色采集环境的侧壁或容器;
3D摄像机112,用于利用3D摄像机采集单色采集环境中现实对象的实时状态视频;
图像处理装置113,用于将实时状态视频中的现实对象独立,形成现实对象的实时立体视频;
虚拟现实引擎114,用于将接收的现实对象的实时立体视频形成实时的虚拟对象,实时引入虚拟现实场景,形成相应的人替或物替,与虚拟现实场景整合,形成观察者可观察到的统一视觉场景。
本发明实施例的现实对象与虚拟场景的实时整合系统,建立了对象实时变化状态与虚拟场景实时整合的标准工作环境,通过本整合系统,跨越地域的人或物的主要被动的实时变化都可以在同一虚拟场景中体现,有利于不同人或物在同一虚拟场景的视角切换。使得同一虚拟场景中的交互行为可以有效地在现实对象和虚拟对象间实时传递,形成动作、反馈、控制一系列的复杂的扩展现实场景应用。
本发明实施例的现实对象与虚拟场景的实时整合系统,还包括容纳人替或物替的虚拟场景115,以及不同人使用的显示器116,用来在虚拟现实场景中观察人替或物替的实时动作。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换等,均应包含在本发明的保护范围之内。

Claims (10)

1.现实对象与虚拟场景的实时整合方法,包括:
步骤110,建立单色采集环境;
步骤120,利用3D摄像机采集单色采集环境中现实对象的实时状态视频;
步骤130,将实时状态视频中的现实对象独立,形成现实对象的实时立体视频;
步骤140,将接收的现实对象的实时立体视频形成实时的虚拟对象,实时引入虚拟现实场景,形成相应的人替或物替,与虚拟现实场景整合,形成观察者可观察到的统一视觉场景。
2.如权利要求1所述的现实对象与虚拟场景的实时整合方法,其特征在于,
所述步骤110中,包括:建立全景单色采集环境。
3.如权利要求1所述的现实对象与虚拟场景的实时整合方法,其特征在于,
所述步骤120中,在单色采集环境中布设若干3D摄像机;
所述步骤130中,所述实时立体视频包括单一角度的实时立体视频或多角度的实时立体视频。
4.如权利要求1所述的现实对象与虚拟场景的实时整合方法,其特征在于,
所述步骤120中,在单色采集环境中的现实对象上设置3D摄像机,当所述现实对象为人体时,3D摄像机的取景方向沿人体的视角设置,摄像头设置位置与人体的眼部相应;
所述步骤130中,所述实时立体视频包括单一现实对象上的3D摄像机在单色采集环境中采集到的现实对象形成的实时立体视频。
5.如权利要求1所述的现实对象与虚拟场景的实时整合方法,其特征在于,
所述步骤140中,包括:现实对象的实时立体视频的接收,采用宽带数据连接实时传输。
6.如权利要求1至5任一所述的现实对象与虚拟场景的实时整合方法,其特征在于,还包括:
步骤160,在虚拟现实场景中观察第一人替或第一物替的实时动作;
步骤170,在虚拟现实场景中第二人替或第二物替对第一人替或第一物替产生交互动作;
步骤180,第一人替或第一物替作出相应反馈;
步骤120,利用3D摄像机采集单色采集环境中现实对象的实时状态视频;
执行后续步骤。
7.现实对象与虚拟场景的实时整合系统,包括单色全景采集环境(111)、3D摄像机(112)、图像处理装置(113)和虚拟现实引擎(114),其中:
单色全景采集环境(111),用于建立单色采集环境的侧壁或容器;
3D摄像机(112),用于利用3D摄像机采集单色采集环境中现实对象的实时状态视频;
图像处理装置(113),用于将实时状态视频中的现实对象独立,形成现实对象的实时立体视频;
虚拟现实引擎(114),将接收的现实对象的实时立体视频形成实时的虚拟对象,实时引入虚拟现实场景,形成相应的人替或物替,与虚拟现实场景整合,形成观察者可观察到的统一视觉场景。
8.如权利要求7所述的现实对象与虚拟场景的实时整合系统,其特征在于,还包括容纳人替或物替的虚拟场景(115),以及不同人使用的显示器(116),用来在虚拟现实场景中观察人替或物替的实时动作。
9.如权利要求7所述的现实对象与虚拟场景的实时整合系统,其特征在于,所述侧壁或容器包括容纳人或物的局部开放的单色平滑空间内壁,或形成密闭的单色平滑空间内壁。
10.如权利要求7所述的现实对象与虚拟场景的实时整合系统,其特征在于,所述单色包括单一颜色,或单一纹理的重复。
CN201610557629.5A 2016-07-13 2016-07-13 现实对象与虚拟场景的实时整合方法和整合系统 Active CN106204751B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610557629.5A CN106204751B (zh) 2016-07-13 2016-07-13 现实对象与虚拟场景的实时整合方法和整合系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610557629.5A CN106204751B (zh) 2016-07-13 2016-07-13 现实对象与虚拟场景的实时整合方法和整合系统

Publications (2)

Publication Number Publication Date
CN106204751A true CN106204751A (zh) 2016-12-07
CN106204751B CN106204751B (zh) 2020-07-17

Family

ID=57476117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610557629.5A Active CN106204751B (zh) 2016-07-13 2016-07-13 现实对象与虚拟场景的实时整合方法和整合系统

Country Status (1)

Country Link
CN (1) CN106204751B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193371A (zh) * 2017-04-28 2017-09-22 上海交通大学 一种基于虚拟现实的实时人机交互系统及方法
CN107346534A (zh) * 2017-07-13 2017-11-14 河北中科恒运软件科技股份有限公司 介导现实中的视频物体阴影检测和消除方法及系统
CN107402633A (zh) * 2017-07-25 2017-11-28 深圳市鹰硕技术有限公司 一种基于图像模拟技术的安全教育系统
CN107797836A (zh) * 2017-08-25 2018-03-13 上海壹账通金融科技有限公司 虚拟现实页面的生成方法、装置、服务器和存储介质
CN112614394A (zh) * 2020-12-15 2021-04-06 中铁第四勘察设计院集团有限公司 一种基于bim的地铁应急培训演练系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1547131A (zh) * 2003-12-03 2004-11-17 谭日辉 一种虚拟现实交互式控制系统
CN102375542A (zh) * 2011-10-27 2012-03-14 Tcl集团股份有限公司 一种肢体遥控电视的方法及电视遥控装置
CN102625129A (zh) * 2012-03-31 2012-08-01 福州一点通广告装饰有限公司 远程真人三维虚拟仿场景互动的实现方法
CN102739984A (zh) * 2011-08-29 2012-10-17 新奥特(北京)视频技术有限公司 一种高清虚拟布景的实现方法及系统
US20130120372A1 (en) * 2011-11-14 2013-05-16 Electronics And Telecommunications Research Institute Apparatus and method for providing mixed reality contents for learning through story-based virtual experience
CN203606621U (zh) * 2013-12-18 2014-05-21 四川金手指时代投资管理有限公司 5d互动型多媒体系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1547131A (zh) * 2003-12-03 2004-11-17 谭日辉 一种虚拟现实交互式控制系统
CN102739984A (zh) * 2011-08-29 2012-10-17 新奥特(北京)视频技术有限公司 一种高清虚拟布景的实现方法及系统
CN102375542A (zh) * 2011-10-27 2012-03-14 Tcl集团股份有限公司 一种肢体遥控电视的方法及电视遥控装置
US20130120372A1 (en) * 2011-11-14 2013-05-16 Electronics And Telecommunications Research Institute Apparatus and method for providing mixed reality contents for learning through story-based virtual experience
CN102625129A (zh) * 2012-03-31 2012-08-01 福州一点通广告装饰有限公司 远程真人三维虚拟仿场景互动的实现方法
CN203606621U (zh) * 2013-12-18 2014-05-21 四川金手指时代投资管理有限公司 5d互动型多媒体系统

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193371A (zh) * 2017-04-28 2017-09-22 上海交通大学 一种基于虚拟现实的实时人机交互系统及方法
CN107346534A (zh) * 2017-07-13 2017-11-14 河北中科恒运软件科技股份有限公司 介导现实中的视频物体阴影检测和消除方法及系统
CN107346534B (zh) * 2017-07-13 2020-10-30 河北中科恒运软件科技股份有限公司 介导现实中的视频物体阴影检测和消除方法及系统
CN107402633A (zh) * 2017-07-25 2017-11-28 深圳市鹰硕技术有限公司 一种基于图像模拟技术的安全教育系统
CN107402633B (zh) * 2017-07-25 2019-06-28 深圳市鹰硕技术有限公司 一种基于图像模拟技术的安全教育方法
CN107797836A (zh) * 2017-08-25 2018-03-13 上海壹账通金融科技有限公司 虚拟现实页面的生成方法、装置、服务器和存储介质
WO2019037607A1 (zh) * 2017-08-25 2019-02-28 深圳壹账通智能科技有限公司 虚拟现实页面的生成方法、装置、服务器和存储介质
CN107797836B (zh) * 2017-08-25 2020-03-27 深圳壹账通智能科技有限公司 虚拟现实页面的生成方法、装置、服务器和存储介质
CN112614394A (zh) * 2020-12-15 2021-04-06 中铁第四勘察设计院集团有限公司 一种基于bim的地铁应急培训演练系统及方法

Also Published As

Publication number Publication date
CN106204751B (zh) 2020-07-17

Similar Documents

Publication Publication Date Title
CN106204751A (zh) 现实对象与虚拟场景的实时整合方法和整合系统
CN109003301B (zh) 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统
CN108986189B (zh) 基于三维动画中实时多人动作捕捉并直播的方法和系统
Chen et al. Real-time 3D unstructured environment reconstruction utilizing VR and Kinect-based immersive teleoperation for agricultural field robots
CN109448099A (zh) 画面的渲染方法、装置、存储介质及电子装置
CN104392045B (zh) 一种基于智能移动终端的实时增强虚拟现实系统及方法
CN105429989A (zh) 虚拟现实设备的模拟旅游方法及系统
CN106843507B (zh) 一种虚拟现实多人互动的方法及系统
Kurillo et al. Immersive 3d environment for remote collaboration and training of physical activities
CN107247834A (zh) 一种基于图像识别的三维环境模型重构方法、设备及系统
CN109671141B (zh) 图像的渲染方法和装置、存储介质、电子装置
CN104656893B (zh) 一种信息物理空间的远程交互式操控系统及方法
CN112198959A (zh) 虚拟现实交互方法、装置及系统
CN102945564A (zh) 基于视频透视式增强现实的真三维建模系统和方法
CN113298858A (zh) 一种虚拟形象的动作生成方法、装置、终端以及存储介质
WO2008144843A1 (en) Systems and methods for applying a 3d scan of a physical target object to a virtual environment
CN104990518A (zh) 一种基于fpga的三维扫描控制装置和方法
CN109803109A (zh) 一种可穿戴增强现实远程视频系统及视频通话方法
CN107015655A (zh) 博物馆虚拟场景ar体验眼镜装置及其实现方法
CN108762508A (zh) 一种基于vr体验舱的人体与虚拟人合成系统及方法
CN108572731A (zh) 基于多Kinect和UE4的动捕数据表现方法及装置
CN106095098A (zh) 体感交互装置以及体感交互方法
CN105933637A (zh) 一种视频通信的方法及系统
CN106390454A (zh) 一种现实场景虚拟游戏系统
CN115220578A (zh) 一种基于光学动作捕捉的交互式vr系统与方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant