CN107976811B - 一种基于虚拟现实混合的仿真实验室及其仿真方法 - Google Patents
一种基于虚拟现实混合的仿真实验室及其仿真方法 Download PDFInfo
- Publication number
- CN107976811B CN107976811B CN201711425366.3A CN201711425366A CN107976811B CN 107976811 B CN107976811 B CN 107976811B CN 201711425366 A CN201711425366 A CN 201711425366A CN 107976811 B CN107976811 B CN 107976811B
- Authority
- CN
- China
- Prior art keywords
- virtual
- scene
- rendering
- host
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 28
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000009877 rendering Methods 0.000 claims abstract description 68
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 19
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 15
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 15
- 230000003993 interaction Effects 0.000 claims abstract description 7
- 239000004973 liquid crystal related substance Substances 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 2
- 239000000203 mixture Substances 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 claims description 2
- 208000002173 dizziness Diseases 0.000 abstract description 6
- 238000007654 immersion Methods 0.000 abstract 1
- 230000008859 change Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000981 bystander Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012258 culturing Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种基于虚拟现实混合的仿真实验室及其仿真方法,涉及虚拟仿真教学实训室领域,包括:头显设备;手柄;拍摄相机;定位器,固定在拍摄相机上;游戏场景渲染主机,用于将虚拟场景拆分成平面图像,并将所述平面图像的数据传输给渲染合成主机;视频采集盒;渲染合成主机,用于将所述平面图像的数据和拍摄相机拍摄的体验者的图像数据通过合成软件合成三维虚拟现实混合场景,并将三维虚拟显示场景的数据传输给观看屏幕;显示设备。本发明解决了现有的裸眼3D沉浸式交互系统无法适用于教学实训领域中评估者对体验者进行评估,且传统的仿真实验室看到的画面容易产生眩晕的问题。
Description
技术领域
本发明涉及虚拟仿真教学实训室领域,尤其涉及一种基于虚拟现实混合的仿真实验室及其仿真方法。
背景技术
在教学实训领域,轨道交通车辆制动教学是用于对学员进行培训,培养学员对轨道交通车辆制动单元结构特点的了解掌握,从而高效地、科学地进行学习;现有的轨道交通教学大多数采用书本内容结合教师的PPT等方式的教学,学习效率不高;另一方面实训基地因铁路轨道本身占地面积大、投入费用高、设置场景固定,很多实训场地无法投入建设,即使建设对应的实训基地,实训过程中无法实现根据需求更换场景或者交互,从而导致实训效果差。
为了解决这个问题,可以采用一种基于仿真教学实训室的裸眼3D沉浸式交互系统,具体包括:渲染主机,用于连接控制引擎和显示器件,且结合渲染引擎实现画面的渲染;渲染引擎,用于利用ventuz等软件实现融合和同步后,通过连接显示器件呈现裸眼3D画面;显示器件,用于通过与渲染主机连接后将渲染的画面显示;路由器,用于通过无线网卡连接渲染主机和控制引擎;控制引擎,用于连接路由器实现实时交互控制。但是在实际的应用中,裸眼3D沉浸式交互方法虽然有一定的好处,但是,体验者只能站在特定的位置才能体验到这种沉浸式的感官,对于旁观者,并不能体验到其中的场景。
在教学实训领域中,需要对体验者的训练情况进行评估,如果采用裸眼3D沉浸式交互系统,没有站在特定位置的评估者将无法对体验者的训练情况进行评估;因此,对于体验者的评估情况需要将体验者在VR眼镜中看到的画面传输到评估者能够看到的屏幕上,这样评估者能够看到VR体验者的动作以及体验者看到的实时画面,对VR体验者进行更加精准的评估。但是,由于VR眼镜的镜片是存在弧度的,现有的系统直接将VR体验者看到的画面传输到评估者所看到的屏幕上,画面会产生变形,评估者长时间观看,很容易产生眩晕。但是,目前并没有一种系统发现并解决这个问题。
发明内容
本发明的目的在于:为解决现有的裸眼3D沉浸式交互系统无法适用于教学实训领域中评估者对体验者进行评估,无法将仿真式实验室更好地应在教学领域中的问题,本发明提供一种稳定传输的基于虚拟现实混合的仿真实验室及其仿真方法。
本发明的技术方案如下:
一方面,本发明提供一种基于虚拟现实混合的仿真实验室,包括:
头显设备,用于体验者观看虚拟场景,并将所述虚拟场景传输给游戏场景渲染主机;
手柄,用于体验者与虚拟场景之间进行交互;
拍摄相机,用于拍摄戴有头显设备且位于绿背景中的体验者,并将拍摄的体验者的图像数据传输给渲染合成主机;
定位器,固定在拍摄相机上,用于追踪拍摄相机的位置信息,并将位置信息发送给游戏场景渲染主机;
游戏场景渲染主机,用于将虚拟场景拆分成平面图像,并将所述平面图像的数据传输给渲染合成主机;
视频采集盒,用于将游戏场景渲染主机中的平面图像的数据实时传输到渲染合成主机内部;
渲染合成主机,用于将所述平面图像的数据和拍摄相机拍摄的体验者的图像数据通过合成软件合成三维虚拟现实混合场景,并将三维虚拟显示场景的数据传输给观看屏幕;
显示设备,用于显示虚拟显示场景。
具体地,所述游戏场景渲染主机生成的平画图像包括前景、背景、通道。
优选地,所述渲染合成主机采用VENTUZ合成软件合成所述平面图像的数据和拍摄相机拍摄的体验者的图像数据。
具体地,所述显示设备为LED显示屏或者液晶显示屏。
具体地,所述渲染合成主机与显示设备之间通过HDMI接口或SDI接口连接。
另一方面,本发明提供一种基于虚拟现实混合的仿真实验室的仿真方法,包括如下步骤:
S1:将定位器固定在拍摄相机上,定位器用于获取拍摄相机的位置信息;
S2:体验者通过头显设备观看虚拟场景,通过手柄与虚拟场景之间进行交互,在虚拟场景中,建立虚拟拍摄相机,通过虚拟拍摄相机获取特定角度的虚拟场景;
S3:通过游戏场景渲染主机将特定视角的虚拟场景拆分成平面图像,并将这些平面图像传输给渲染合成主机;选取虚拟场景的视角根据定位器获取的拍摄相机的位置以及旋转角度的变化而变化;
S4:进行S3的同时,通过拍摄相机拍摄体验者图像,拍摄相机将体验者图像传输给渲染合成主机;
S5:渲染合成主机将游戏场景渲染主机传输的平面图像和拍摄相机拍摄的体验者图像合成三维虚拟现实混合场景,并将三维虚拟现实混合场景的图像传输给显示设备;
S6:显示设备将三维虚拟现实混合场景展示出来。
所述S2中,体验者通过头显设备观看虚拟场景时,是位于绿背景前方。
具体地,所述S3中,确定特定视角的虚拟场景的具体步骤为:
S31:在虚拟场景中创建虚拟相机和虚拟定位器,并将虚拟定位器与所述S1中的定位器建立父子关系;具体的,定位器的数据为父,虚拟定位器的数据为子,定位器的数据变化时带动虚拟定位器;
S32:根据定位器的位置在虚拟场景中创建一个虚拟小圆球一,这个小圆球的位置用来确定拍摄相机在虚拟环境中的位置信息;
S33:将虚拟相机移动至虚拟小圆球一处;
S34:在拍摄相机前方放置一个有棱角的物体,同时在一个棱角处画一个红点,移动拍摄相机使得红点刚好处于相机的正中心位置;
S35:采用手柄在红点处对应的虚拟场景中创建一个虚拟小圆球二,虚拟小圆球二为拍摄相机拍摄画面的中心;
S36:通过虚拟小圆球一和虚拟小圆球二确定虚拟相机的旋转角度信息;
S37:在虚拟相机的中心处创建一条线,同时建立虚拟相机和拍摄相机间的父子关系,此时,虚拟相机就和真实相机的位置重合了。
采用上述方案后,本发明的有益效果如下:
(1)将本发明的仿真实验室运用在实训教学领域中后,评估者对体验者的评估不再是只能看到虚拟场景或者是体验者的单独画面,而是将体验者放到整个虚拟场景中,给评估者更加真实的感受,评估者能够看到VR体验者的动作以及虚拟场景,对VR体验者有着更加请准的评估。
(2)本发明的方法中,由于体验者穿戴的VR头显设备的头显镜面是弯曲的,体验者看到的虚拟场景实际上是弯曲的,如果直接将这个弯曲的虚拟场景给评估者观看,则会让人产生眩晕,因此,本发明是通过虚拟相机选取特定角度的虚拟场景,而并不是体验者看到的虚拟场景,解决了评估者会产生眩晕的问题。
(3)本发明中,虚拟相机的位置根据实际的拍摄相机的位置和角度的变化而变化,方便评估者从各个角度观看渲染场景和体验者组成的虚拟现实混合场景,能够更加精准地对体验者的操作进行更加精准的评估。
附图说明
图1为本发明的结构示意图;
图2为本发明实施例中确定虚拟相机位置的数据传输图;
具体实施方式
下面将结合本发明实施例中的附图,对本实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1所示,一种基于虚拟现实混合的仿真实验室,包括:
头显设备,用于体验者观看虚拟场景,并将所述虚拟场景传输给游戏场景渲染主机;所述头显设备就是通常所述VR眼镜。
手柄,用于体验者与虚拟场景之间进行交互;一般来说,头显设备和手柄是成套设置的;本发明中,所用的头显设备和手柄是使用HTC公司生产的VIVE系列的。
拍摄相机,用于拍摄戴有头显设备且位于绿背景中的的体验者,并将拍摄的体验者的图像数据传输给渲染合成主机;体验者站在绿背景前,这是为了方便在图像处理过程中将体验者的快速、精准地从背景中扣出。
定位器,固定在拍摄相机上,用于追踪拍摄相机的位置信息,并将位置信息发送给游戏场景渲染主机。
游戏场景渲染主机,用于将虚拟场景拆分成平面图像,游戏场景渲染主机生成的平画图像包括前景、背景、通道,并将所述平面图像的数据传输给渲染合成主机;游戏场景渲染主机和头显设备之间的数据传输采用USB接口以及HDMI接口。
视频采集盒,用于将游戏场景渲染主机中的平面图像的数据实时传输到渲染合成主机内部。渲染合成主机采用VENTUZ合成软件合成所述平面图像的数据和拍摄相机拍摄的体验者的图像数据。
渲染合成主机,用于将所述平面图像的数据和拍摄相机拍摄的体验者的图像数据通过合成软件合成三维虚拟现实混合场景,并将三维虚拟显示场景的数据传输给观看屏幕。
显示设备,用于显示虚拟显示场景,显示设备为LED显示屏或者液晶显示屏。渲染合成主机与显示设备之间通过HDMI接口或SDI接口连接。
实施例2
如图1所示,一种基于虚拟现实混合的仿真实验室的仿真方法,包括如下步骤:
S1:将定位器固定在拍摄相机上,定位器用于获取拍摄相机的位置信息和拍摄角度信息;
S2:体验者位于绿背景前方,然后体验者通过头显设备观看虚拟场景,通过手柄与虚拟场景之间进行交互,在虚拟场景中,建立虚拟拍摄相机,通过虚拟拍摄相机获取特定角度的虚拟场景;
S3:通过游戏场景渲染主机将特定角度的虚拟场景拆分成平面图像,并将这些平面图像传输给渲染合成主机;选取虚拟场景的角度根据拍摄相机位置的变化而变化;
S4:进行S3的同时,通过拍摄相机拍摄体验者图像,拍摄相机将体验者图像传输给渲染合成主机;
S5:渲染合成主机将游戏场景渲染主机传输的平面图像和拍摄相机拍摄的体验者图像合成三维虚拟现实混合场景,并将三维虚拟现实混合场景的图像传输给显示设备;
S6:显示设备将三维虚拟现实混合场景展示出来。
实施例3
在实施例2的基础上,所述S3中,确定特定角度的虚拟场景的具体步骤为:
S31:在虚拟场景中创建虚拟相机和虚拟定位器,并将虚拟定位器与所述S1中的定位器建立父子关系;具体的,定位器的数据为父,虚拟定位器的数据为子,定位器的数据变化时带动虚拟定位器;
S32:根据定位器的位置在虚拟场景中创建一个虚拟小圆球一,这个小圆球的位置用来确定拍摄相机在虚拟环境中的位置信息;
S33:将虚拟相机移动至虚拟小圆球一处;
S34:在拍摄相机前方放置一个有棱角的物体,同时在一个棱角处画一个红点,移动拍摄相机使得红点刚好处于相机的正中心位置;
S35:采用手柄在红点处对应的虚拟场景中创建一个虚拟小圆球二,虚拟小圆球二为拍摄相机拍摄画面的中心;
S36:通过虚拟小圆球一和虚拟小圆球二确定虚拟相机的旋转角度信息;
S37:在虚拟相机的中心处创建一条线,同时建立虚拟相机和拍摄相机间的父子关系,此时,虚拟相机就和真实相机的位置重合了。
工作原理:拍摄相机对体验者以及体验者后的绿背景进行拍摄,然后将拍摄的画面传送给渲染渲染合成主机,对于体验者以及绿背景之间的图像分割,是在渲染合成主机中进行的,应当理解,对于图像的分割这一点是必然的常规步骤,因此在本发明的步骤描述中没有说明。游戏场景渲染主机获取特定角度的虚拟场景,这个特定角度的虚拟场景是由虚拟相机拍摄的,因此,需要获得虚拟相机的位置与镜头的拍摄角度,如何获取虚拟相机的位置与镜头的拍摄角度后续说明。拍摄相机拍摄到的体验者的图像是平面二维图像,而虚拟场景是三维的场景,所以,游戏场景渲染主机对虚拟场景进行传输的过程中,需要将三维的虚拟场景先拆分成平面的二维图像,该平面二维图像与体验者的二维图像共同通过渲染合成主机合成三维的场景以及体验者,游戏场景渲染主机将虚拟场景拆分成含有背景、前景和通道的多个二维图像,然后将这些二维图像传输给渲染合成主机,渲染合成主机通过ventuz软件将游戏场景渲染主机传输的平面图像和拍摄相机拍摄的体验者图像合成三维虚拟现实混合场景,然后将三维虚拟现实混合场景通过显示设备进行展示,评估者直接观看显示设备,就可以同时看到体验者以及体验者所处的虚拟环境,对体验者的行为进行更好的评估。在实际运用中,本发明的仿真实验室或者方法不仅仅可以用来评估,也可以运用在其他娱乐来给旁人观看,以达到更好的娱乐效果。
由于体验者穿戴的VR头显设备的头显镜面是弯曲的,体验者看到的虚拟场景实际上是弯曲的,如果直接将这个弯曲的虚拟场景给评估者观看,则会让人产生眩晕,因此,本发明是通过虚拟相机选取特定角度的虚拟场景,而并不是体验者看到的虚拟场景,解决了评估者会产生眩晕的问题,而选取特定角度的虚拟场景需要通过虚拟相机来确定,下面,将对描述虚拟相机具体的位置以及旋转角度的确定的原理进行说明:如图2所示,定位器可以定位拍摄相机的定位位置,在虚拟场景中建立虚拟定位器和虚拟相机以及虚拟手柄,虚拟定位器、虚拟相机和虚拟手柄应该和显示世界的定位器、手柄和定位器分别建立父子关系。虚拟定位器的位置信息可以直接通过定位器获取,获得了虚拟定位器的位置信息就可以直接获取虚拟拍摄相机的位置信息,接下来就是匹配虚拟拍摄相机的旋转角度,在本发明中,创建虚拟小圆球一和虚拟小圆球二,当虚拟小圆球一和虚拟小圆球二在一条直线上时,虚拟相机和拍摄相机的拍摄角度重合,从而虚拟相机可以和拍摄相机的位置形成完全重合的状态。本发明中,虚拟相机的位置根据实际的拍摄相机的位置和角度的变化而变化,方便评估者从各个角度观看渲染场景和体验者组成的虚拟现实混合场景,能够更加精准地对体验者的操作进行更加精准的评估。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (4)
1.一种基于虚拟现实混合的仿真实验室,其特征在于,包括:头显设备,用于体验者观看虚拟场景,并将所述虚拟场景传输给游戏场景渲染主机;手柄,用于体验者与虚拟场景之间进行交互;拍摄相机,用于拍摄戴有头显设备且位于绿背景中的体验者,并将拍摄的体验者的图像数据传输给渲染合成主机;定位器,固定在拍摄相机上,用于追踪拍摄相机的位置信息,并将位置信息发送给游戏场景渲染主机;游戏场景渲染主机,用于将虚拟场景拆分成平面图像,并将所述平面图像的数据传输给渲染合成主机;视频采集盒,用于将游戏场景渲染主机中的平面图像的数据实时传输到渲染合成主机内部;渲染合成主机,用于将所述平面图像的数据和拍摄相机拍摄的体验者的图像数据通过合成软件合成三维虚拟现实混合场景,并将三维虚拟显示场景的数据传输给观看屏幕;显示设备,用于显示虚拟显示场景;
该基于虚拟现实混合的仿真实验室的仿真方法包括如下步骤:
S1:将定位器固定在拍摄相机上,定位器用于获取拍摄相机的位置信息;
S2:体验者通过头显设备观看虚拟场景,通过手柄与虚拟场景之间进行交互,在虚拟场景中,建立虚拟拍摄相机,通过虚拟拍摄相机获取特定视角的虚拟场景;
S3:通过游戏场景渲染主机将特定视角的虚拟场景拆分成平面图像,并将这些平面图像传输给渲染合成主机;选取虚拟场景的视角根据定位器获取的拍摄相机的位置以及旋转角度的变化而变化;
S4:进行S3的同时,通过拍摄相机拍摄体验者图像,拍摄相机将体验者图像传输给渲染合成主机;
S5:渲染合成主机将游戏场景渲染主机传输的平面图像和拍摄相机拍摄的体验者图像合成三维虚拟现实混合场景,并将三维虚拟现实混合场景的图像传输给显示设备;
S6:显示设备将三维虚拟现实混合场景展示出来;
所述S2中,体验者通过头显设备观看虚拟场景时,是位于绿背景前方;
所述S3中,确定特定视角的虚拟场景的具体步骤为:
S31:在虚拟场景中创建虚拟相机和虚拟定位器,并将虚拟定位器与所述S1中的定位器建立父子关系;定位器的数据为父,虚拟定位器的数据为子,定位器的数据变化时带动虚拟定位器;
S32:根据定位器的位置在虚拟场景中创建一个虚拟小圆球一,这个小圆球的位置用来确定拍摄相机在虚拟环境中的位置信息;
S33:将虚拟相机移动至虚拟小圆球一处;
S34:在拍摄相机前方放置一个有棱角的物体,同时在一个棱角处画一个红点,移动拍摄相机使得红点刚好处于拍摄相机的正中心位置;
S35:采用手柄在红点处对应的虚拟场景中创建一个虚拟小圆球二,虚拟小圆球二为拍摄相机拍摄画面的中心;
S36:通过虚拟小圆球一和虚拟小圆球二确定虚拟相机的旋转角度信息;
S37:在虚拟相机的中心处创建一条线,同时建立虚拟相机和拍摄相机间的父子关系,虚拟相机就和拍摄相机的位置重合了。
2.根据权利要求1所述的一种基于虚拟现实混合的仿真实验室,其特征在于,所述渲染合成主机采用VENTUZ合成软件合成所述平面图像的数据和拍摄相机拍摄的体验者的图像数据。
3.根据权利要求1所述的一种基于虚拟现实混合的仿真实验室,其特征在于,所述显示设备为LED显示屏或者液晶显示屏。
4.根据权利要求1所述的一种基于虚拟现实混合的仿真实验室,其特征在于,所述渲染合成主机与显示设备之间通过HDMI接口或SDI接口连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711425366.3A CN107976811B (zh) | 2017-12-25 | 2017-12-25 | 一种基于虚拟现实混合的仿真实验室及其仿真方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711425366.3A CN107976811B (zh) | 2017-12-25 | 2017-12-25 | 一种基于虚拟现实混合的仿真实验室及其仿真方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107976811A CN107976811A (zh) | 2018-05-01 |
CN107976811B true CN107976811B (zh) | 2023-12-29 |
Family
ID=62007832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711425366.3A Active CN107976811B (zh) | 2017-12-25 | 2017-12-25 | 一种基于虚拟现实混合的仿真实验室及其仿真方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107976811B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108806381A (zh) * | 2018-06-26 | 2018-11-13 | 石家庄微泽科技有限公司 | 沉浸式虚拟现实的铁路车务系统实训平台和实训方法 |
CN108831237A (zh) * | 2018-06-26 | 2018-11-16 | 石家庄微泽科技有限公司 | 沉浸式虚拟现实的机车乘务员非正常行车实训考核系统 |
CN109032350B (zh) * | 2018-07-10 | 2021-06-29 | 深圳市创凯智能股份有限公司 | 眩晕感减轻方法、虚拟现实设备及计算机可读存储介质 |
CN108922302A (zh) * | 2018-08-20 | 2018-11-30 | 国家电网有限公司 | 一种触电事故仿真系统 |
CN108922306A (zh) * | 2018-09-13 | 2018-11-30 | 杭州行开科技有限公司 | 一种针对物理实验的裸眼3d互动系统及方法 |
CN109493672A (zh) * | 2018-12-13 | 2019-03-19 | 国网浙江省电力有限公司绍兴供电公司 | 真空断路器操作的仿真培训系统及仿真培训方法 |
CN109961520B (zh) * | 2019-01-29 | 2023-05-09 | 深圳职业技术学院 | 一种基于第三视角技术的vr/mr教室及其构建方法 |
CN110609622A (zh) * | 2019-09-18 | 2019-12-24 | 深圳市瑞立视多媒体科技有限公司 | 结合3d与虚拟现实技术实现多人交互方法、系统及介质 |
CN110675684A (zh) * | 2019-09-27 | 2020-01-10 | 陕西天竞智能操作工程有限责任公司 | 智能演练系统及设备 |
CN110866978A (zh) * | 2019-11-07 | 2020-03-06 | 辽宁东智威视科技有限公司 | 一种实时混合现实视频拍摄中的相机同步方法 |
CN111369854A (zh) * | 2020-03-20 | 2020-07-03 | 广西生态工程职业技术学院 | 一种Vr虚拟现实实验室的操作系统及方法 |
CN113547527B (zh) * | 2020-04-26 | 2022-12-02 | 中移(成都)信息通信科技有限公司 | 幼教机器人及幼教机器人系统 |
CN111586304B (zh) * | 2020-05-25 | 2021-09-14 | 重庆忽米网络科技有限公司 | 一种基于5g及vr技术的全景摄像系统及方法 |
CN115830199B (zh) * | 2022-07-29 | 2023-08-29 | 深圳职业技术学院 | 基于xr技术的泛在实训校园构建方法、系统及存储介质 |
CN115802165B (zh) * | 2023-02-10 | 2023-05-12 | 成都索贝数码科技股份有限公司 | 一种应用于异地同场景直播连线的镜头移动拍摄方法 |
CN116502923B (zh) * | 2023-06-27 | 2023-09-01 | 南昌菱形信息技术有限公司 | 虚拟仿真教学实训平台的仿真方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105959595A (zh) * | 2016-05-27 | 2016-09-21 | 西安宏源视讯设备有限责任公司 | 一种虚拟现实实时交互中虚拟对现实自主响应方法 |
CN106131530A (zh) * | 2016-08-26 | 2016-11-16 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d虚拟现实展示系统及其展示方法 |
CN106896925A (zh) * | 2017-04-14 | 2017-06-27 | 陈柳华 | 一种虚拟现实与真实场景融合的装置 |
CN107158695A (zh) * | 2017-06-16 | 2017-09-15 | 苏州蜗牛数字科技股份有限公司 | 一种现实与虚拟场景混合展现的方法及系统 |
CN207601427U (zh) * | 2017-12-25 | 2018-07-10 | 河南新汉普影视技术有限公司 | 一种基于虚拟现实混合的仿真实验室 |
CN207898959U (zh) * | 2017-12-25 | 2018-09-25 | 河南新汉普影视技术有限公司 | 一种稳定的基于虚拟现实混合的仿真实验室 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
US9846968B2 (en) * | 2015-01-20 | 2017-12-19 | Microsoft Technology Licensing, Llc | Holographic bird's eye view camera |
-
2017
- 2017-12-25 CN CN201711425366.3A patent/CN107976811B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105959595A (zh) * | 2016-05-27 | 2016-09-21 | 西安宏源视讯设备有限责任公司 | 一种虚拟现实实时交互中虚拟对现实自主响应方法 |
CN106131530A (zh) * | 2016-08-26 | 2016-11-16 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d虚拟现实展示系统及其展示方法 |
CN106896925A (zh) * | 2017-04-14 | 2017-06-27 | 陈柳华 | 一种虚拟现实与真实场景融合的装置 |
CN107158695A (zh) * | 2017-06-16 | 2017-09-15 | 苏州蜗牛数字科技股份有限公司 | 一种现实与虚拟场景混合展现的方法及系统 |
CN207601427U (zh) * | 2017-12-25 | 2018-07-10 | 河南新汉普影视技术有限公司 | 一种基于虚拟现实混合的仿真实验室 |
CN207898959U (zh) * | 2017-12-25 | 2018-09-25 | 河南新汉普影视技术有限公司 | 一种稳定的基于虚拟现实混合的仿真实验室 |
Also Published As
Publication number | Publication date |
---|---|
CN107976811A (zh) | 2018-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107976811B (zh) | 一种基于虚拟现实混合的仿真实验室及其仿真方法 | |
US11076142B2 (en) | Real-time aliasing rendering method for 3D VR video and virtual three-dimensional scene | |
CN105704479B (zh) | 3d显示系统用的测量人眼瞳距的方法及系统和显示设备 | |
CN106157359B (zh) | 一种虚拟场景体验系统的设计方法 | |
US10235806B2 (en) | Depth and chroma information based coalescence of real world and virtual world images | |
JPWO2017094543A1 (ja) | 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法 | |
CN110427107A (zh) | 虚拟与现实互动教学方法及系统、服务器、存储介质 | |
CN107240147A (zh) | 图像渲染方法及系统 | |
CN107783306A (zh) | 一种基于仿真教学实训室的裸眼3d沉浸式交互方法及系统 | |
CN108830944B (zh) | 光学透视式三维近眼显示系统及显示方法 | |
CN106980369A (zh) | 虚拟现实项目的第三视角视频的合成和输出系统及方法 | |
CN207601427U (zh) | 一种基于虚拟现实混合的仿真实验室 | |
CN207898959U (zh) | 一种稳定的基于虚拟现实混合的仿真实验室 | |
CN110708540B (zh) | 一种动态串扰测试系统及动态串扰测试方法 | |
CN210609485U (zh) | 一种实时互动虚拟现实视景分享系统 | |
CN105301789A (zh) | 一种跟随人眼位置的立体显示装置 | |
EP3057316A1 (en) | Generation of three-dimensional imagery to supplement existing content | |
Kara et al. | The viewing conditions of light-field video for subjective quality assessment | |
CN103248910A (zh) | 三维成像系统及其图像再现方法 | |
US20110164052A1 (en) | Compositional structure, mechanisms and processes for the inclusion of binocular stereo information into representational media | |
Zheng et al. | Metal: Explorations into sharing 3d educational content across augmented reality headsets and light field displays | |
Knecht et al. | A framework for perceptual studies in photorealistic augmented reality | |
CN113891063B (zh) | 一种全息展示方法及装置 | |
CN115423916A (zh) | 基于xr技术的沉浸式互动直播构建方法、系统及介质 | |
White | A simple, low‐cost stereographic video capture and viewing solution for teaching psychomotor skills using online delivery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20231208 Address after: 450000, Floor 1, D5-7, High tech Enterprise Accelerator Industrial Park, Zhengzhou High tech Industrial Development Zone, Henan Province Applicant after: Henan nuokong Information Technology Co.,Ltd. Address before: Building B, 9th Floor, News Building, No. 85 Huayuan Road, Jinshui District, Zhengzhou City, Henan Province, 450000 Applicant before: HENAN NEW HELP FILM TECHNOLOGY CO.,LTD. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |