CN109427094A - 一种获取混合现实场景的方法及系统 - Google Patents
一种获取混合现实场景的方法及系统 Download PDFInfo
- Publication number
- CN109427094A CN109427094A CN201710748613.7A CN201710748613A CN109427094A CN 109427094 A CN109427094 A CN 109427094A CN 201710748613 A CN201710748613 A CN 201710748613A CN 109427094 A CN109427094 A CN 109427094A
- Authority
- CN
- China
- Prior art keywords
- mixed reality
- scene
- mounted display
- reality head
- video camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及混合现实技术领域,尤其涉及一种获取混合现实场景的方法及系统。本发明通过第一混合现实头戴式显示器生成第一虚拟场景;实体摄像机获取真实场景;所述实体摄像机与第二混合现实头戴式显示器物理固定;映射第一混合现实头戴式显示器对应的第一空间模型和第二混合现实头戴式显示器对应的第二空间模型至同一坐标系;根据所述坐标系叠加所述第一虚拟场景和所述真实场景,得到混合现实场景。实现以第三人称视角展示佩戴混合现实头戴式显示器的用户观看到的混合现实场景。
Description
技术领域
本发明涉及混合现实技术领域,尤其涉及一种获取混合现实场景的方法及系统。
背景技术
目前公知的VR(虚拟现实)技术通过计算机生成实时动态的三维立体图像来模拟环境,并使用传感设备来实现交互。VR技术是创建了一个新的虚拟世界,无法和现实世界产生联系。
近年来由Microsoft公司提出MR(Mix Reality混合现实)技术,旨在将虚拟和现实融合在一起。大致过程如下:
1)支持MR的设备通过不断扫描体验者周围的现实环境并实时建模。
2)使用空间理解(Spatial Understanding)技术计算出设备在现实空间中的物理坐标。
3)使用空间映射(Spatial Mapping)技术,以MR设备为坐标原点,将现实世界映射到虚拟坐标系中。
4)将计算生成的虚拟环境叠加到现实世界上,并通过手势来实现和虚拟事物的交互,相比于VR设备有更自然的用户体验。
Microsoft公司开发了一种名为Hololens的混合现实头戴式显示器,并提供了一个工具用于管理Hololens设备,该工具可查看佩戴者的主观视角,即第三者可看到佩戴者通过Hololens设备看到的虚拟现实结合的混合现实场景,但是该工具仅能以佩戴者的视角观看混合现实场景,而无法从其它角度观看混合现实场景。
发明内容
本发明所要解决的技术问题是:如何以第三人称视角展示佩戴混合现实头戴式显示器的用户观看到的混合现实场景。
为了解决上述技术问题,本发明采用的技术方案为:
本发明提供一种获取混合现实场景的方法,包括:
S1、第一混合现实头戴式显示器生成第一虚拟场景;
S2、实体摄像机获取真实场景;所述实体摄像机与第二混合现实头戴式显示器物理固定;
S3、映射第一混合现实头戴式显示器对应的第一空间模型和第二混合现实头戴式显示器对应的第二空间模型至同一坐标系;
S4、根据所述坐标系叠加所述第一虚拟场景和所述真实场景,得到混合现实场景。
本发明还提供一种获取混合现实场景的系统,包括:
第一混合现实头戴式显示器;
第二混合现实头戴式显示器;
实体摄像机;
终端;所述终端包括一个或多个处理器及存储器,所述存储器存储有程序,并且被配置成由所述一个或多个处理器执行以下步骤:
S1、获取第一混合现实头戴式显示器生成的第一虚拟场景;
S2、获取实体摄像机拍摄的真实场景;所述实体摄像机与第二混合现实头戴式显示器物理固定;
S3、映射第一混合现实头戴式显示器对应的第一空间模型和第二混合现实头戴式显示器对应的第二空间模型至同一坐标系;
S4、根据所述坐标系叠加所述第一虚拟场景和所述真实场景,得到混合现实场景。
本发明的有益效果在于:通过将与实体摄像机物理固定的第二混合现实头戴式显示器对应的第二空间模型和用户佩戴的第一混合现实头戴式显示器对应的第一空间模型映射至同一坐标系,使得通过计算第二混合现实头戴式显示器在所述坐标系中的坐标即可知实体摄像机的坐标,实现将现实空间中实体摄像机的位置信息映射至混合现实头戴式显示器构建的空间模型,从而实现实体摄像机在任一位置获取真实场景时,都能够获取与所述真实场景匹配的虚拟场景,叠加所述真实场景和所述虚拟场景即可得到,以实体摄像机当前位置对应的视角展示佩戴混合现实头戴式显示器的用户观看到的混合现实场景。
附图说明
图1为本发明提供的一种获取混合现实场景的方法的具体实施方式的流程框图;
图2为本发明提供的一种获取混合现实场景的系统的具体实施方式的结构框图;
标号说明:
1、第一混合现实头戴式显示器;2、第二混合现实头戴式显示器;3、实体摄像机;4、终端;41、处理器;42、存储器。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图予以说明。
请参照图1至图2,
如图1所示,本发明提供一种获取混合现实场景的方法,包括:
S1、第一混合现实头戴式显示器生成第一虚拟场景;
S2、实体摄像机获取真实场景;所述实体摄像机与第二混合现实头戴式显示器物理固定;
S3、映射第一混合现实头戴式显示器对应的第一空间模型和第二混合现实头戴式显示器对应的第二空间模型至同一坐标系;
S4、根据所述坐标系叠加所述第一虚拟场景和所述真实场景,得到混合现实场景。
进一步地,所述S3具体为:
预设一位置恒定的虚拟物体;
以所述虚拟物体为参照物映射所述第一空间模型和所述第二空间模型至同一坐标系。
进一步地,所述S3之前,还包括:
水平放置所述实体摄像机;
修改所述第二混合现实头戴式显示器的初始水平旋转偏移量为零;
第二混合现实头戴式显示器生成第四虚拟场景;
根据所述真实场景和所述第四虚拟场景计算第二混合现实头戴式显示器相对于实体摄像机的垂直旋转偏移量,得到相对垂直旋转偏移量;
根据所述相对垂直旋转偏移量修改第二混合现实头戴式显示器的初始垂直旋转偏移量。
由上述描述可知,实体摄像机与第二混合现实头戴式显示器物理固定时,难以保证第二混合现实头戴式显示器与实体摄像机平行,使得第二混合现实头戴式显示器的实时旋转偏移量无法准确反映实体摄像机的实时旋转偏移量,旋转偏移量对最终效果的影响甚大,例如,被拍摄对象距离摄像机10m,1°的旋转偏差将造成至少17cm的平移错位。本发明通过先借助水平仪将实体摄像机水平放置,依据混合现实头戴式显示器在建立自身坐标系时XOZ平面和现实的水平面是一致的,无论第二混合现实头戴式显示器的当前水平旋转偏移量是多少,都将第二混合现实头戴式显示器的初始水平旋转偏移量修改为零,加上初始垂直旋转偏移量的修改,即将第二混合现实头戴式显示器对应的虚拟摄像机的初始朝向修改成与实体摄像机初始朝向一致,从而实现第二混合现实头戴式显示器的实时旋转偏移量与实体摄像机的实时旋转偏移量一致。
进一步地,所述S4具体为:
实时获取第二混合现实头戴式显示器在所述坐标系中的坐标,得到第一坐标;
映射所述第一虚拟场景至所述坐标系,得到第二虚拟场景;
获取所述实体摄像机的视场角;
根据所述视场角、所述第一坐标和第二混合现实头戴式显示器的当前旋转偏移量转换所述第二虚拟场景,得到第三虚拟场景;
渲染所述第三虚拟场景至所述真实场景。
进一步地,还包括:
获取所述实体摄像机的分辨率;
配置与所述分辨率对应的渲染参数。
由上述描述可知,由于本发明输出的最终图像由虚、实图像叠加而成,实体摄像机拍摄的真实场景作为底图,分辨率由实体摄像机来决定;因此,根据实体摄像机的分辨率配置将虚拟场景渲染至真实场景的渲染参数,有利于提高合成后的混合现实场景的效果。此外,电视媒体等行业无需从内部改造摄像设备,就可以录制符合传播要求的视频内容。
如图2所示,本发明还提供一种获取混合现实场景的系统,包括:
第一混合现实头戴式显示器1;
第二混合现实头戴式显示器2;
实体摄像机3;
终端4;所述终端包括一个或多个处理器41及存储器42,所述存储器42存储有程序,并且被配置成由所述一个或多个处理器41执行以下步骤:
S1、获取第一混合现实头戴式显示器生成的第一虚拟场景;
S2、获取实体摄像机拍摄的真实场景;所述实体摄像机与第二混合现实头戴式显示器物理固定;
S3、映射第一混合现实头戴式显示器对应的第一空间模型和第二混合现实头戴式显示器对应的第二空间模型至同一坐标系;
S4、根据所述坐标系叠加所述第一虚拟场景和所述真实场景,得到混合现实场景。
进一步地,所述S3具体为:
预设一位置恒定的虚拟物体;
以所述虚拟物体为参照物映射所述第一空间模型和所述第二空间模型至同一坐标系。
进一步地,所述S3之前,还包括:
水平放置所述实体摄像机;
修改所述第二混合现实头戴式显示器的初始水平旋转偏移量为零;
第二混合现实头戴式显示器生成第四虚拟场景;
根据所述真实场景和所述第四虚拟场景计算第二混合现实头戴式显示器相对于实体摄像机的垂直旋转偏移量,得到相对垂直旋转偏移量;
根据所述相对垂直旋转偏移量修改第二混合现实头戴式显示器的初始垂直旋转偏移量。
进一步地,所述S4具体为:
实时获取第二混合现实头戴式显示器在所述坐标系中的坐标,得到第一坐标;
映射所述第一虚拟场景至所述坐标系,得到第二虚拟场景;
获取所述实体摄像机的视场角;
根据所述视场角、所述第一坐标和第二混合现实头戴式显示器的当前旋转偏移量转换所述第二虚拟场景,得到第三虚拟场景;
渲染所述第三虚拟场景至所述真实场景。
进一步地,还包括:
获取所述实体摄像机的分辨率;
配置与所述分辨率对应的渲染参数。
本发明的实施例一为:
本实施例提供一种获取混合现实场景的方法,包括:
S1、修改第二混合现实头戴式显示器的初始旋转偏移量为零;与第二混合现实头戴式显示器物理固定的实体摄像机水平放置;
S2、第一混合现实头戴式显示器生成第一虚拟场景;
S3、实体摄像机获取真实场景;所述实体摄像机与所示第二混合现实头戴式显示器物理固定;
S4、映射第一混合现实头戴式显示器对应的第一空间模型和第二混合现实头戴式显示器对应的第二空间模型至同一坐标系;具体为:
S41、预设一位置恒定的虚拟物体;
S42、以所述虚拟物体为参照物映射所述第一空间模型和所述第二空间模型至同一坐标系;
其中,混合现实头戴式显示器,如Microsoft公司开发的Hololens,在运行应用时会以它自身位置为坐标原点、以它正前方在水平面的投影为Z轴正方向、竖直朝上方向为Y轴正方向建立左手坐标系;两台不同的混合现实头戴式显示器,先后扫描同一个空间,分别在各自的坐标系里对同一空间进行建模,分别得到第一空间模型和第二空间模型;通过预先放置在空间中的世界锚点(即在现实空间中某个位置固定不变的虚拟物体)来建立共同的世界坐标系,计算出两个混合现实头戴式显示器坐标系到世界坐标系的转换矩阵,进而实现重合不同混合现实头戴式显示器设备所构建的虚拟场景;
S5、根据所述坐标系叠加所述第一虚拟场景和所述真实场景,得到混合现实场景;具体为:
S51、实时获取第二混合现实头戴式显示器在所述坐标系中的坐标,得到第一坐标;
S52、映射所述第一虚拟场景至所述坐标系,得到第二虚拟场景;
S53、获取所述实体摄像机的视场角;
S54、根据所述视场角、所述第一坐标和第二混合现实头戴式显示器的当前旋转偏移量转换所述第二虚拟场景,得到第三虚拟场景;
S55、获取所述实体摄像机的分辨率;配置与所述分辨率对应的渲染参数;
S56、渲染所述第三虚拟场景至所述真实场景。
如图2所示,本发明的实施例二为:
本实施例提供一种获取混合现实场景的系统,包括:
第一混合现实头戴式显示器1;
第二混合现实头戴式显示器2;
实体摄像机3;
终端4;所述终端包括一个或多个处理器41及存储器42,所述存储器42存储有程序,并且被配置成由所述一个或多个处理器41执行以下步骤:
S1、获取第一混合现实头戴式显示器生成的第一虚拟场景;
S2、获取实体摄像机拍摄的真实场景;所述实体摄像机与第二混合现实头戴式显示器物理固定;
S3、根据实体摄像机的初始旋转偏移量修改第二混合现实头戴式显示器的初始旋转偏移量;与第二混合现实头戴式显示器物理固定的实体摄像机水平放置;具体为:
S31、水平放置所述实体摄像机;
S32、修改所述第二混合现实头戴式显示器的初始水平旋转偏移量为零;
S33、根据所述真实场景和所述第四虚拟场景计算第二混合现实头戴式显示器相对于实体摄像机的垂直旋转偏移量,得到相对垂直旋转偏移量;根据所述相对垂直旋转偏移量修改第二混合现实头戴式显示器的初始垂直旋转偏移量;
其中,在第四虚拟场景中放置一个虚拟的竖向细长模型,位于虚拟摄像机的视野正中央;在真实场景中距离实体摄像机较远位置放置一根竖杆,位于实体摄像机视野的正中间;
叠加第四虚拟场景和真实场景,若虚拟的竖向细长模型和竖杆没有重合,则:
保持虚拟摄像机位置不动,沿水平方向调整虚拟摄像机的旋转量(即绕竖直的Y轴转动),此时,虚拟的竖向细长模型在虚拟图像中的运动方向和虚拟摄像机的旋转方向相反;
旋转虚拟摄像机直至虚拟的竖向细长模型和竖杆重合,此时虚拟摄像机绕Y轴的旋转量再取负值即为垂直旋转偏移量;
S34、修改所述第二混合现实头戴式显示器的初始垂直旋转偏移量为所述实体摄像机的初始旋转偏移量;
S4、映射第一混合现实头戴式显示器对应的第一空间模型和第二混合现实头戴式显示器对应的第二空间模型至同一坐标系;具体为:
S41、预设一位置恒定的虚拟物体;
S42、以所述虚拟物体为参照物映射所述第一空间模型和所述第二空间模型至同一坐标系;
S5、根据所述坐标系叠加所述第一虚拟场景和所述真实场景,得到混合现实场景;具体为:
S51、实时获取第二混合现实头戴式显示器在所述坐标系中的坐标,得到第一坐标;
S52、映射所述第一虚拟场景至所述坐标系,得到第二虚拟场景;
S53、获取所述实体摄像机的视场角;
S54、根据所述视场角、所述第一坐标和第二混合现实头戴式显示器的当前旋转偏移量转换所述第二虚拟场景,得到第三虚拟场景;
其中,由于第二和第三虚拟场景都是由终端的渲染器渲染而成,所以该步骤只是对虚拟摄像机参数的修改,例如:视场角是直接设置渲染器对应的虚拟摄像机的视场角参数;偏移量也是直接修改的渲染器对应的虚拟摄像机的旋转量;使得虚拟摄像机和实体摄像机的参数完全一致,从而模拟从实体摄像机的角度拍摄虚拟场景;
S55、获取所述实体摄像机的分辨率;配置与所述分辨率对应的渲染参数;
S56、渲染所述第三虚拟场景至所述真实场景。
综上所述,本发明提供的一种获取混合现实场景的方法及系统,通过将与实体摄像机物理固定的第二混合现实头戴式显示器对应的第一空间模型和用户佩戴的第一混合现实头戴式显示器对应的第二空间模型映射至同一坐标系,使得通过计算第二混合现实头戴式显示器在所述坐标系中的坐标即可知实体摄像机的坐标,实现将现实空间中实体摄像机的位置信息映射至混合现实头戴式显示器构建的空间模型,从而实现实体摄像机在任一位置获取真实场景时,都能够获取与所述真实场景匹配的虚拟场景,叠加所述真实场景和所述虚拟场景即可得到,以实体摄像机当前位置对应的视角展示佩戴混合现实头戴式显示器的用户观看到的混合现实场景。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种获取混合现实场景的方法,其特征在于,包括:
S1、第一混合现实头戴式显示器生成第一虚拟场景;
S2、实体摄像机获取真实场景;所述实体摄像机与第二混合现实头戴式显示器物理固定;
S3、映射第一混合现实头戴式显示器对应的第一空间模型和第二混合现实头戴式显示器对应的第二空间模型至同一坐标系;
S4、根据所述坐标系叠加所述第一虚拟场景和所述真实场景,得到混合现实场景。
2.根据权利要求1所述的获取混合现实场景的方法,其特征在于,所述S3具体为:
预设一位置恒定的虚拟物体;
以所述虚拟物体为参照物映射所述第一空间模型和所述第二空间模型至同一坐标系。
3.根据权利要求1所述的获取混合现实场景的方法,其特征在于,所述S3之前,还包括:
水平放置所述实体摄像机;
修改所述第二混合现实头戴式显示器的初始水平旋转偏移量为零;
第二混合现实头戴式显示器生成第四虚拟场景;
根据所述真实场景和所述第四虚拟场景计算第二混合现实头戴式显示器相对于实体摄像机的垂直旋转偏移量,得到相对垂直旋转偏移量;
根据所述相对垂直旋转偏移量修改第二混合现实头戴式显示器的初始垂直旋转偏移量。
4.根据权利要求1所述的获取混合现实场景的方法,其特征在于,所述S4具体为:
实时获取第二混合现实头戴式显示器在所述坐标系中的坐标,得到第一坐标;
映射所述第一虚拟场景至所述坐标系,得到第二虚拟场景;
获取所述实体摄像机的视场角;
根据所述视场角、所述第一坐标和第二混合现实头戴式显示器的当前旋转偏移量转换所述第二虚拟场景,得到第三虚拟场景;渲染所述第三虚拟场景至所述真实场景。
5.根据权利要求4所述的获取混合现实场景的方法,其特征在于,还包括:
获取所述实体摄像机的分辨率;
配置与所述分辨率对应的渲染参数。
6.一种获取混合现实场景的系统,其特征在于,包括:
第一混合现实头戴式显示器;
第二混合现实头戴式显示器;
实体摄像机;
终端;所述终端包括一个或多个处理器及存储器,所述存储器存储有程序,并且被配置成由所述一个或多个处理器执行以下步骤:
S1、获取第一混合现实头戴式显示器生成的第一虚拟场景;
S2、获取实体摄像机拍摄的真实场景;所述实体摄像机与第二混合现实头戴式显示器物理固定;
S3、映射第一混合现实头戴式显示器对应的第一空间模型和第二混合现实头戴式显示器对应的第二空间模型至同一坐标系;
S4、根据所述坐标系叠加所述第一虚拟场景和所述真实场景,得到混合现实场景。
7.根据权利要求6所述的获取混合现实场景的系统,其特征在于,所述S3具体为:
预设一位置恒定的虚拟物体;
以所述虚拟物体为参照物映射所述第一空间模型和所述第二空间模型至同一坐标系。
8.根据权利要求6所述的获取混合现实场景的系统,其特征在于,所述S3之前,还包括:
水平放置所述实体摄像机;
修改所述第二混合现实头戴式显示器的初始水平旋转偏移量为零;
第二混合现实头戴式显示器生成第四虚拟场景;
根据所述真实场景和所述第四虚拟场景计算第二混合现实头戴式显示器相对于实体摄像机的垂直旋转偏移量,得到相对垂直旋转偏移量;
根据所述相对垂直旋转偏移量修改第二混合现实头戴式显示器的初始垂直旋转偏移量。
9.根据权利要求6所述的获取混合现实场景的系统,其特征在于,所述S4具体为:
实时获取第二混合现实头戴式显示器在所述坐标系中的坐标,得到第一坐标;
映射所述第一虚拟场景至所述坐标系,得到第二虚拟场景;
获取所述实体摄像机的视场角;
根据所述视场角、所述第一坐标和第二混合现实头戴式显示器的当前旋转偏移量转换所述第二虚拟场景,得到第三虚拟场景;渲染所述第三虚拟场景至所述真实场景。
10.根据权利要求9所述的获取混合现实场景的系统,其特征在于,还包括:
获取所述实体摄像机的分辨率;
配置与所述分辨率对应的渲染参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710748613.7A CN109427094B (zh) | 2017-08-28 | 2017-08-28 | 一种获取混合现实场景的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710748613.7A CN109427094B (zh) | 2017-08-28 | 2017-08-28 | 一种获取混合现实场景的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109427094A true CN109427094A (zh) | 2019-03-05 |
CN109427094B CN109427094B (zh) | 2022-10-21 |
Family
ID=65502392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710748613.7A Active CN109427094B (zh) | 2017-08-28 | 2017-08-28 | 一种获取混合现实场景的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109427094B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111899590A (zh) * | 2020-08-25 | 2020-11-06 | 成都合纵连横数字科技有限公司 | 一种仿真操作培训过程的混合现实观摩方法 |
CN116320363A (zh) * | 2023-05-25 | 2023-06-23 | 四川中绳矩阵技术发展有限公司 | 一种多角度虚拟现实拍摄方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN205581784U (zh) * | 2016-04-14 | 2016-09-14 | 江苏华博创意产业有限公司 | 一种基于现实场景的可交互混合现实平台 |
US20160267720A1 (en) * | 2004-01-30 | 2016-09-15 | Electronic Scripting Products, Inc. | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience |
CN106997617A (zh) * | 2017-03-10 | 2017-08-01 | 深圳市云宙多媒体技术有限公司 | 混合现实虚拟呈现方法及装置 |
-
2017
- 2017-08-28 CN CN201710748613.7A patent/CN109427094B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160267720A1 (en) * | 2004-01-30 | 2016-09-15 | Electronic Scripting Products, Inc. | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience |
CN205581784U (zh) * | 2016-04-14 | 2016-09-14 | 江苏华博创意产业有限公司 | 一种基于现实场景的可交互混合现实平台 |
CN106997617A (zh) * | 2017-03-10 | 2017-08-01 | 深圳市云宙多媒体技术有限公司 | 混合现实虚拟呈现方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111899590A (zh) * | 2020-08-25 | 2020-11-06 | 成都合纵连横数字科技有限公司 | 一种仿真操作培训过程的混合现实观摩方法 |
CN111899590B (zh) * | 2020-08-25 | 2022-03-11 | 成都合纵连横数字科技有限公司 | 一种仿真操作培训过程的混合现实观摩方法 |
CN116320363A (zh) * | 2023-05-25 | 2023-06-23 | 四川中绳矩阵技术发展有限公司 | 一种多角度虚拟现实拍摄方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109427094B (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105404393B (zh) | 低延迟虚拟现实显示系统 | |
CN105809701B (zh) | 全景视频姿态标定方法 | |
CN105913478A (zh) | 360度全景显示方法、显示模块及移动终端 | |
CN106340064B (zh) | 一种混合现实沙盘装置和方法 | |
CN105137705B (zh) | 一种虚拟球幕的创建方法和装置 | |
US10606347B1 (en) | Parallax viewer system calibration | |
CN109743892A (zh) | 虚拟现实内容的显示方法和装置 | |
WO2019076348A1 (zh) | 一种虚拟现实vr界面生成的方法和装置 | |
CN106447788B (zh) | 观看视角的指示方法及装置 | |
CN111080704B (zh) | 视频增强现实的方法及装置 | |
CN110599432B (zh) | 影像处理系统及影像处理方法 | |
CN109741431A (zh) | 一种二三维一体化电子地图框架 | |
WO2017113729A1 (zh) | 360度图像加载方法、加载模块及移动终端 | |
CN109427094A (zh) | 一种获取混合现实场景的方法及系统 | |
Baker et al. | Splat: Spherical localization and tracking in large spaces | |
CN104217461B (zh) | 一种基于深度图模拟实时凹凸效果的视差映射方法 | |
CN115187729A (zh) | 三维模型生成方法、装置、设备和存储介质 | |
CN113835703B (zh) | 一种web前端绘制自动驾驶监控可视化地图的方法 | |
CN113936121A (zh) | 一种ar标注设置方法以及远程协作系统 | |
Santos et al. | Supporting outdoor mixed reality applications for architecture and cultural heritage | |
KR102176805B1 (ko) | 뷰 방향이 표시되는 vr 컨텐츠 제공 시스템 및 방법 | |
TWI694355B (zh) | 即時渲染影像的追蹤系統、追蹤方法以及非暫態電腦可讀取媒體 | |
CN109427095A (zh) | 一种显示混合现实场景的方法及系统 | |
CN111932446B (zh) | 三维全景地图的构建方法及装置 | |
EP3322186A1 (en) | Method and device for transmitting data representative of an image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |