CN109427093B - 一种混合现实系统 - Google Patents
一种混合现实系统 Download PDFInfo
- Publication number
- CN109427093B CN109427093B CN201710748599.0A CN201710748599A CN109427093B CN 109427093 B CN109427093 B CN 109427093B CN 201710748599 A CN201710748599 A CN 201710748599A CN 109427093 B CN109427093 B CN 109427093B
- Authority
- CN
- China
- Prior art keywords
- server
- camera
- mixed reality
- equipment
- substrate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及混合现实领域,尤其涉及一种混合现实系统。本发明通过将第二MR设备与实体摄像机物理固定,使得第二MR设备的拍摄角度随实体摄像机的移动而变化,无论实体摄像机如何移动,与其固定的第二MR设备都具有与实体摄像机适配的拍摄角度;同时,通过服务器还可同步第一MR设备的空间数据和用户动作数据至第二MR设备,使得第二MR设备获取到的虚拟场景与用户佩戴第一MR设备所看到的虚拟场景除观看角度外均一致;从而可根据第二MR设备获取到的虚拟场景与实体摄像机获取到的实际场景合成以实体摄像机当前位置对应的视角展示佩戴第一MR设备的用户观看到的混合现实场景。
Description
技术领域
本发明涉及混合现实领域,尤其涉及一种混合现实系统。
背景技术
目前公知的VR(虚拟现实)技术通过计算机生成实时动态的三维立体图像来模拟环境,并使用传感设备来实现交互。VR技术是创建了一个新的虚拟世界,无法和现实世界产生联系。
近年来由Microsoft公司提出MR(Mix Reality混合现实)技术,旨在将虚拟和现实融合在一起。大致过程如下:
1)支持MR的设备通过不断扫描体验者周围的现实环境并实时建模。
2)使用空间理解(Spatial Understanding)技术计算出设备在现实空间中的物理坐标。
3)使用空间映射(Spatial Mapping)技术,以MR设备为坐标原点,将现实世界映射到虚拟坐标系中。
4)将计算生成的虚拟环境叠加到现实世界上,并通过手势来实现和虚拟事物的交互,相比于VR设备有更自然的用户体验。
Microsoft公司开发了一种名为Hololens的混合现实头戴式显示器,并提供了一个工具用于管理Hololens设备,该工具可查看佩戴者的主观视角,即第三者可看到佩戴者通过Hololens设备看到的虚拟现实结合的混合现实场景,但是该工具仅能以佩戴者的视角观看混合现实场景,而无法从其它角度观看混合现实场景。
发明内容
本发明所要解决的技术问题是:如何以第三人称视角展示佩戴MR设备的用户观看到的混合现实场景。
为了解决上述技术问题,本发明采用的技术方案为:
本发明提供一种混合现实系统,包括第一MR设备、第二MR设备、实体摄像机、第一服务器和显示设备;
所述第一MR设备、所述第二MR设备和所述实体摄像机分别与所述第一服务器连接;
所述第二MR设备与所述实体摄像机物理固定;
所述第一服务器与所述显示设备连接;
所述第一服务器用于同步所述第一MR设备的数据至所述第二MR设备,以及合成与所述实体摄像机对应的真实场景和与所述第二MR设备对应的虚拟场景,得到混合现实场景。
本发明还提供一种混合现实系统,包括第一MR设备、第二MR设备、实体摄像机、第二服务器、第三服务器和显示设备:
所述第一MR设备和所述第二MR设备分别与所述第二服务器连接;
所述实体摄像机与所述第二MR设备分别与所述第三服务器连接;所述实体摄像机与所述第二MR设备物理固定;
所述第三服务器与所述显示设备连接;
所述第二服务器用于同步所述第一MR设备的数据至所述第二MR设备;
所述第三服务器用于合成与所述实体摄像机对应的真实场景和与所述第二MR设备对应的虚拟场景,得到混合现实场景。
本发明的有益效果在于:本发明通过将第二MR设备与实体摄像机物理固定,使得第二MR设备的拍摄角度随实体摄像机的移动而变化,无论实体摄像机如何移动,与其固定的第二MR设备都具有与实体摄像机适配的拍摄角度;同时,通过服务器还可同步第一MR设备的空间数据和用户动作数据至第二MR设备,使得第二MR设备获取到的虚拟场景与用户佩戴第一MR设备所看到的虚拟场景除观看角度外均一致;从而可根据第二MR设备获取到的虚拟场景与实体摄像机获取到的实际场景合成以实体摄像机当前位置对应的视角展示佩戴第一MR设备的用户观看到的混合现实场景。
附图说明
图1为本发明提供的一种混合现实系统的具体实施方式的结构框图;
图2为本发明提供的一种混合现实系统的具体实施方式的进一步结构框图;
图3为本发明提供的用于固定实体摄像机和第二MR设备的组件结构图;
图4为本发明提供的用于固定实体摄像机和第二MR设备的组件的另一结构图;
图5为物理固定实体摄像机的效果图;
图6为物理固定实体摄像机和第二MR设备的效果图;
图7为本发明另提供的一种混合现实系统的具体实施方式的结构框图;
图8为本发明另提供的一种混合现实系统的具体实施方式的进一步结构框图;
图9为本发明另提供的一种混合现实系统的具体实施方式的进一步结构框图;
图10为本发明提供的混合现实系统的实施例二的结构框图;
标号说明:
1、第一MR设备;2、第二MR设备;3、实体摄像机;4、第一服务器;
5、显示设备;6、第三MR设备;7、基板;8、凸台;9、通孔;10、凸起;11、第二服务器;12、第三服务器;13、导播系统;14、拍摄组件。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图予以说明。
名词解释:
请参照图1至图10,
如图1所示,本发明提供一种混合现实系统,包括第一MR设备1、第二MR设备2、实体摄像机3、第一服务器4和显示设备5;
所述第一MR设备1、所述第二MR设备2和所述实体摄像机3分别与所述第一服务器4连接;
所述第二MR设备2与所述实体摄像机3物理固定;
所述第一服务器4与所述显示设备5连接;
所述第一服务器4用于同步所述第一MR设备1的数据至所述第二MR设备2,以及合成与所述实体摄像机3对应的真实场景和与所述第二MR设备2对应的虚拟场景,得到混合现实场景。
进一步地,如图2所示,包括第三MR设备6;
所述第三MR设备6与所述第一服务器4连接;
所述第一服务器4发送与所述第一MR设备1对应的数据至所述第三MR设备6。
由上述描述可知,通过佩戴第三MR设备可从其它角度观看佩戴第一MR设备的用户观看到的混合现实场景。
进一步地,如图3至图6所示,还包括基板7、第一连接件和第二连接件;
所述基板7的上表面设有凸台8;
所述凸台8上设有与所述实体摄像机3的镜头适配的凹槽;
所述基板7上设有通孔9;
所述第一连接件穿过所述通孔9固定位于所述基板7的下表面的所述第二MR设备2;
所述第二连接件穿过所述通孔9固定位于所述基板7的上表面的所述实体摄像机3。
由上述描述可知,实现第二MR设备与实体摄像机物理固定,有效避免摄像师在移动过程中由于抖动等原因造成第二MR设备与实体摄像机之间的相对偏移,提高了第二MR设备获取到的虚拟场景与实体摄像机获取到的真实场景的匹配度。
进一步地,如图3至图6所示,还包括:
所述基板7的下表面设有三个以上凸起10。
由上述描述可知,通过三个以上凸起卡住第二MR设备,以达到更好的固定效果。
如图7所示,本发明还提供一种混合现实系统,包括第一MR设备1、第二MR设备2、实体摄像机3、第二服务器11、第三服务器12和显示设备5:
所述第一MR设备1和所述第二MR设备2分别与所述第二服务器11连接;
所述实体摄像机3与所述第二MR设备2分别与所述第三服务器12连接;所述实体摄像机3与所述第二MR设备2物理固定;
所述第三服务器12与所述显示设备5连接;
所述第二服务器11用于同步所述第一MR设备1的数据至所述第二MR设备2;
所述第三服务器12用于合成与所述实体摄像机3对应的真实场景和与所述第二MR设备2对应的虚拟场景,得到混合现实场景。
进一步地,如图8所示,还包括导播系统13:
所述实体摄像机3与所述第二MR设备2构成一拍摄组件14;
所述一拍摄组件14与所述第三服务器12一一对应;
所述第三服务器12通过所述导播系统13与所述显示设备5连接。
由上述描述可知,由于用于获取与实体摄像机的拍摄角度对应的虚拟场景的第二MR设备和获取实际场景的实体摄像机与用于合成混合现实场景的第三服务器一一对应,使得导播系统可方便地获悉当前导播系统上呈现的一混合现实场景与哪一组实体摄像机和第二MR设备对应,从而可方便指导对应组的摄像师调整拍摄角度。
进一步地,如图9所示,还包括第三MR设备6;
所述第三MR设备6与所述第二服务器11连接;
所述第二服务器11同步与所述第一MR设备1对应的数据至所述第三MR设备6。
进一步地,如图3至图6所示,还包括基板7、第一连接件和第二连接件;
所述基板7的上表面设有凸台8;
所述凸台8上设有与所述实体摄像机3的镜头适配的凹槽;
所述基板7上设有通孔9;
所述第一连接件穿过所述通孔9固定位于所述基板7的下表面的所述第二MR设备2;
所述第二连接件穿过所述通孔9固定位于所述基板7的上表面的所述实体摄像机3。
进一步地,如图3至图6所示,还包括:
所述基板7的下表面设有三个以上凸起10。
本发明的实施例一为:
如图2所示,本实施例提供一种混合现实系统,包括第一MR设备1、第二MR设备2、实体摄像机3、第一服务器4、显示设备5、第三MR设备6;
所述第一MR设备1、所述第二MR设备2、所述第三MR设备6和所述实体摄像机3分别与所述第一服务器4连接;
所述第二MR设备2与所述实体摄像机3物理固定;
所述第一服务器4与所述显示设备5连接;
所述第一服务器4用于同步所述第一MR设备1的数据至所述第二MR设备2和所述第三MR设备6,以及合成与所述实体摄像机3对应的真实场景和与所述第二MR设备2对应的虚拟场景,得到混合现实场景。
可选地,如图3至图6所示,所述第二MR设备2与所述实体摄像机3通过一固定组件物理固定;所述固定组件包括基板7、第一连接件和第二连接件;
所述基板7的上表面设有凸台8;
所述凸台8上设有与所述实体摄像机3的镜头适配的凹槽;
所述基板7上设有通孔9;
所述基板7的下表面设有三个以上凸起10;
所述第一连接件穿过所述通孔9固定位于所述基板7的下表面的所述第二MR设备2;
所述第二连接件穿过所述通孔9固定位于所述基板7的上表面的所述实体摄像机3;
可选地,第一连接件和第二连接件为螺钉;多个螺钉分别穿过一通孔固定第二MR设备2或实体摄像机3;
可选地,第一连接件和第二连接件为绑带;多条绑带分别穿过两个通孔将第二MR设备2或实体摄像机3绑定。
可选地,所述第二MR设备2与所述实体摄像机3通过斯坦尼康稳定器或摇臂物理固定。
可选地,第一服务器4同步所述第一MR设备1的数据至所述第二MR设备2和所述第三MR设备6包括以下步骤:
预设一位置恒定的虚拟物体;
以所述虚拟物体为参照物映射所述第一MR设备1对应的第一空间模型、所述第二MR设备2对应的第二空间模型和所述第三MR设备6对应的第三空间模型至同一坐标系;
当第一MR设备1对应的虚拟场景中的虚拟物体移动时,获取所述虚拟物体移动轨迹对应的坐标序列;所述坐标序列与所述坐标系适配;
所述第一服务器4发送所述坐标序列和所述虚拟物体的唯一标识至所述第二MR设备2和所述第三MR设备6。
其中,MR设备,如Microsoft公司开发的Hololens,在运行应用时会以它自身位置为坐标原点、以它正前方在水平面的投影为Z轴正方向、竖直朝上方向为Y轴正方向建立左手坐标系;两台不同的MR设备,先后扫描同一个空间,分别在各自的坐标系里对同一空间进行建模,分别得到第一空间模型和第二空间模型;通过预先放置在空间中的世界锚点(即在现实空间中某个位置固定不变的虚拟物体)来建立共同的世界坐标系,计算出两个MR设备坐标系到世界坐标系的转换矩阵,进而实现重合不同MR设备所构建的虚拟场景。
本实施例通过将第二MR设备与实体摄像机物理固定,使得第二MR设备的拍摄角度随实体摄像机的移动而变化,无论实体摄像机如何移动,与其固定的第二MR设备都具有与实体摄像机适配的拍摄角度;同时,通过第一服务器还可同步第一MR设备的用户动作数据及空间数据至第二MR设备,使得第二MR设备获取到的虚拟场景与用户佩戴第一MR设备所看到的虚拟场景除观看角度外均一致;从而可根据第二MR设备获取到的虚拟场景与实体摄像机获取到的实际场景合成以实体摄像机当前位置对应的视角展示佩戴第一MR设备的用户观看到的混合现实场景;同时,本实施例提供的混合现实系统中还包括第三MR设备,第三MR设备通过第一服务器同步第一MR设备的数据,使得佩戴第三MR设备的用户可以旁观者的角度观看佩戴第一MR设备的用户所观看到的混合现实场景。因此,本实施例实现了第三者可通过佩戴第三MR设备或直接使用肉眼从显示设备(如,大屏幕)上从第三人称角度观看佩戴第一MR设备的用户所看到的混合现实场景。
本发明的实施例二为:
如图10所示,本实施例提供一种混合现实系统,包括第一MR设备1、第二MR设备2、第三MR设备6、实体摄像机3、第二服务器11、第三服务器12和显示设备5、导播系统13:
所述第一MR设备1、所述第二MR设备2和所述第三MR设备分别与所述第二服务器11连接;
所述实体摄像机3与所述第二MR设备2分别与所述第三服务器12连接;所述实体摄像机3与所述第二MR设备2物理固定;
所述实体摄像机3与所述第二MR设备2构成一拍摄组件14;
所述一拍摄组件14与所述第三服务器12一一对应;
所述第三服务器12通过所述导播系统13与所述显示设备5连接;
所述第二服务器11用于同步所述第一MR设备1的数据至所述第二MR设备2和所述第三MR设备6;
所述第三服务器12用于合成与所述实体摄像机3对应的真实场景和与所述第二MR设备2对应的虚拟场景,得到混合现实场景。
可选地,如图3至图6所示,所述第二MR设备2与所述实体摄像机3通过一固定组件物理固定;所述固定组件包括基板7、第一连接件和第二连接件;
所述基板7的上表面设有凸台8;
所述凸台8上设有与所述实体摄像机3的镜头适配的凹槽;
所述基板7上设有通孔9;
所述基板7的下表面设有三个以上凸起10;
所述第一连接件穿过所述通孔9固定位于所述基板7的下表面的所述第二MR设备2;
所述第二连接件穿过所述通孔9固定位于所述基板7的上表面的所述实体摄像机3;
可选地,第一连接件和第二连接件为螺钉;多个螺钉分别穿过一通孔固定第二MR设备2或实体摄像机3;
可选地,第一连接件和第二连接件为绑带;多条绑带分别穿过两个通孔将第二MR设备2或实体摄像机3绑定。
可选地,所述第二MR设备2与所述实体摄像机3通过斯坦尼康稳定器或摇臂物理固定。
可选地,第二服务器11同步所述第一MR设备1的数据至所述第二MR设备2和所述第三MR设备6包括以下步骤:
预设一位置恒定的虚拟物体;
以所述虚拟物体为参照物映射所述第一MR设备1对应的第一空间模型、所述第二MR设备2对应的第二空间模型和所述第三MR设备6对应的第三空间模型至同一坐标系;
当第一MR设备1对应的虚拟场景中的虚拟物体移动时,获取所述虚拟物体移动轨迹对应的坐标序列;所述坐标序列与所述坐标系适配;
所述第二服务器11发送所述坐标序列和所述虚拟物体的唯一标识至所述第二MR设备2和所述第三MR设备6。
其中,MR设备,如Microsoft公司开发的Hololens,在运行应用时会以它自身位置为坐标原点、以它正前方在水平面的投影为Z轴正方向、竖直朝上方向为Y轴正方向建立左手坐标系;两台不同的MR设备,先后扫描同一个空间,分别在各自的坐标系里对同一空间进行建模,分别得到第一空间模型和第二空间模型;通过预先放置在空间中的世界锚点(即在现实空间中某个位置固定不变的虚拟物体)来建立共同的世界坐标系,计算出两个MR设备坐标系到世界坐标系的转换矩阵,进而实现重合不同MR设备所构建的虚拟场景。
本实施例通过将第二MR设备与实体摄像机物理固定,使得第二MR设备的拍摄角度随实体摄像机的移动而变化,无论实体摄像机如何移动,与其固定的第二MR设备都具有与实体摄像机适配的拍摄角度;同时,通过第二服务器还可同步第一MR设备的用户动作数据及空间数据至第二MR设备和第三MR设备,使得第二MR设备和第三MR设备获取到的虚拟场景与用户佩戴第一MR设备所看到的虚拟场景除观看角度外均一致;从而不仅可通过佩戴第三MR设备观察到佩戴第一MR设备的用户所看到的混合现实场景,还可通过第三服务器合成第二MR设备获取到的虚拟场景与实体摄像机获取到的实际场景,得到以实体摄像机当前位置对应的视角展示佩戴第一MR设备的用户观看到的混合现实场景,并通过显示设备转播。因此,本实施例实现了第三者可通过佩戴第三MR设备或直接使用肉眼从显示设备(如,大屏幕)上从第三人称角度观看佩戴第一MR设备的用户所看到的混合现实场景。
综上所述,本发明提供的混合现实系统,通过将第二MR设备与实体摄像机物理固定,使得第二MR设备的拍摄角度随实体摄像机的移动而变化,无论实体摄像机如何移动,与其固定的第二MR设备都具有与实体摄像机适配的拍摄角度;同时,通过服务器还可同步第一MR设备的空间数据和用户动作数据至第二MR设备,使得第二MR设备获取到的虚拟场景与用户佩戴第一MR设备所看到的虚拟场景除观看角度外均一致;从而可根据第二MR设备获取到的虚拟场景与实体摄像机获取到的实际场景合成以实体摄像机当前位置对应的视角展示佩戴第一MR设备的用户观看到的混合现实场景。进一步地,通过佩戴第三MR设备可从其它角度观看佩戴第一MR设备的用户观看到的混合现实场景。进一步地,实现第二MR设备与实体摄像机物理固定,有效避免摄像师在移动过程中由于抖动等原因造成第二MR设备与实体摄像机之间的相对偏移,提高了第二MR设备获取到的虚拟场景与实体摄像机获取到的真实场景的匹配度。进一步地,通过三个以上凸起卡住第二MR设备,以达到更好的固定效果。进一步地,由于用于获取与实体摄像机的拍摄角度对应的虚拟场景的第二MR设备和获取实际场景的实体摄像机与用于合成混合现实场景的第三服务器一一对应,使得导播系统可方便地获悉当前导播系统上呈现的一混合现实场景与哪一组实体摄像机和第二MR设备对应,从而可方便指导对应组的摄像师调整拍摄角度。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (5)
1.一种混合现实系统,其特征在于,包括第一MR设备、第二MR设备、实体摄像机、第一服务器和显示设备;
所述第一MR设备、所述第二MR设备和所述实体摄像机分别与所述第一服务器连接;
所述第二MR设备与所述实体摄像机物理固定;
所述第一服务器与所述显示设备连接;
所述第一服务器用于同步所述第一MR设备的数据至所述第二MR设备,以及合成与所述实体摄像机对应的真实场景和与所述第二MR设备对应的虚拟场景,得到混合现实场景;
还包括第三MR设备;
所述第三MR设备与所述第一服务器连接;
所述第一服务器发送与所述第一MR设备对应的数据至所述第三MR设备;
还包括基板、第一连接件和第二连接件;
所述基板的上表面设有凸台;
所述凸台上设有与所述实体摄像机的镜头适配的凹槽;
所述基板上设有通孔;
所述第一连接件穿过所述通孔固定位于所述基板的下表面的所述第二MR设备;
所述第二连接件穿过所述通孔固定位于所述基板的上表面的所述实体摄像机。
2.根据权利要求1所述的混合现实系统,其特征在于,还包括:
所述基板的下表面设有三个以上凸起。
3.一种混合现实系统,其特征在于,包括第一MR设备、第二MR设备、实体摄像机、第二服务器、第三服务器和显示设备:
所述第一MR设备和所述第二MR设备分别与所述第二服务器连接;
所述实体摄像机与所述第二MR设备分别与所述第三服务器连接;所述实体摄像机与所述第二MR设备物理固定;
所述第三服务器与所述显示设备连接;
所述第二服务器用于同步所述第一MR设备的数据至所述第二MR设备;
所述第三服务器用于合成与所述实体摄像机对应的真实场景和与所述第二MR设备对应的虚拟场景,得到混合现实场景;
还包括第三MR设备;
所述第三MR设备与所述第二服务器连接;
所述第二服务器同步与所述第一MR设备对应的数据至所述第三MR设备;
还包括基板、第一连接件和第二连接件;
所述基板的上表面设有凸台;
所述凸台上设有与所述实体摄像机的镜头适配的凹槽;
所述基板上设有通孔;
所述第一连接件穿过所述通孔固定位于所述基板的下表面的所述第二MR设备;
所述第二连接件穿过所述通孔固定位于所述基板的上表面的所述实体摄像机。
4.根据权利要求3所述的混合现实系统,其特征在于,还包括导播系统:
所述实体摄像机与所述第二MR设备构成一拍摄组件;
所述一拍摄组件与所述第三服务器一一对应;
所述第三服务器通过所述导播系统与所述显示设备连接。
5.根据权利要求3所述的混合现实系统,其特征在于,还包括:
所述基板的下表面设有三个以上凸起。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710748599.0A CN109427093B (zh) | 2017-08-28 | 2017-08-28 | 一种混合现实系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710748599.0A CN109427093B (zh) | 2017-08-28 | 2017-08-28 | 一种混合现实系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109427093A CN109427093A (zh) | 2019-03-05 |
CN109427093B true CN109427093B (zh) | 2022-10-21 |
Family
ID=65502398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710748599.0A Active CN109427093B (zh) | 2017-08-28 | 2017-08-28 | 一种混合现实系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109427093B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109862286B (zh) * | 2019-03-28 | 2021-08-17 | 深圳创维-Rgb电子有限公司 | 图像显示方法、装置、设备和计算机存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101174332A (zh) * | 2007-10-29 | 2008-05-07 | 张建中 | 一种将真实世界实时场景与虚拟现实场景结合交互的方法和装置以及系统 |
CN106898049A (zh) * | 2017-01-18 | 2017-06-27 | 北京商询科技有限公司 | 一种用于混合现实设备的空间匹配方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160267720A1 (en) * | 2004-01-30 | 2016-09-15 | Electronic Scripting Products, Inc. | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience |
-
2017
- 2017-08-28 CN CN201710748599.0A patent/CN109427093B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101174332A (zh) * | 2007-10-29 | 2008-05-07 | 张建中 | 一种将真实世界实时场景与虚拟现实场景结合交互的方法和装置以及系统 |
CN106898049A (zh) * | 2017-01-18 | 2017-06-27 | 北京商询科技有限公司 | 一种用于混合现实设备的空间匹配方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109427093A (zh) | 2019-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107976811B (zh) | 一种基于虚拟现实混合的仿真实验室及其仿真方法 | |
Hadizadeh et al. | Eye-tracking database for a set of standard video sequences | |
CN105809701B (zh) | 全景视频姿态标定方法 | |
US9521362B2 (en) | View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking | |
US9595127B2 (en) | Three-dimensional collaboration | |
US20120162384A1 (en) | Three-Dimensional Collaboration | |
Dey et al. | Tablet versus phone: Depth perception in handheld augmented reality | |
US20120002014A1 (en) | 3D Graphic Insertion For Live Action Stereoscopic Video | |
US20160269685A1 (en) | Video interaction between physical locations | |
CN108292489A (zh) | 信息处理装置和图像生成方法 | |
US10606347B1 (en) | Parallax viewer system calibration | |
CN111007939B (zh) | 一种基于深度感知的虚拟现实系统空间定位方法 | |
JPWO2017094543A1 (ja) | 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法 | |
CN205987184U (zh) | 一种基于虚拟现实的实训系统 | |
WO2019017976A1 (en) | PHYSICAL INPUT DEVICE IN VIRTUAL REALITY | |
CN115202485B (zh) | 一种基于xr技术的姿态同步互动展馆展示系统 | |
Gilson et al. | High fidelity immersive virtual reality | |
CN109427093B (zh) | 一种混合现实系统 | |
Zhang et al. | Full-reference stability assessment of digital video stabilization based on riemannian metric | |
CN109427094B (zh) | 一种获取混合现实场景的方法及系统 | |
CN109087399B (zh) | 一种通过定位图快速同步ar空间坐标系的方法 | |
Nicolini et al. | A framework for the study of vision in active observers | |
CN113891063B (zh) | 一种全息展示方法及装置 | |
CN115423916A (zh) | 基于xr技术的沉浸式互动直播构建方法、系统及介质 | |
CN109429057A (zh) | 同步的3d全景视频播放系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |