CN116030228B - 一种基于web的mr虚拟画面展示方法及装置 - Google Patents

一种基于web的mr虚拟画面展示方法及装置 Download PDF

Info

Publication number
CN116030228B
CN116030228B CN202310145758.3A CN202310145758A CN116030228B CN 116030228 B CN116030228 B CN 116030228B CN 202310145758 A CN202310145758 A CN 202310145758A CN 116030228 B CN116030228 B CN 116030228B
Authority
CN
China
Prior art keywords
web
dimensional
visual field
virtualized
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310145758.3A
Other languages
English (en)
Other versions
CN116030228A (zh
Inventor
金海武
杨利
郑熳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yuanshu Technology Co ltd
Original Assignee
Hangzhou Yuanshu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Yuanshu Technology Co ltd filed Critical Hangzhou Yuanshu Technology Co ltd
Priority to CN202310145758.3A priority Critical patent/CN116030228B/zh
Publication of CN116030228A publication Critical patent/CN116030228A/zh
Application granted granted Critical
Publication of CN116030228B publication Critical patent/CN116030228B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明涉及虚拟现实画面展示技术领域,揭露了一种基于web的mr虚拟画面展示方法,包括:获取6DoF位姿,利用位置信息及6DoF位姿将现实三维场景进行拆分为虚拟化前景及虚拟化背景,获取物体的边缘位置信息,利用角域计算公式,根据6DoF位姿及边缘位置信息计算视野遮蔽角域,根据视野遮蔽角域划分可视化视野域及不可视化视野域,将不可视化视野域按照虚拟化前景展示,若可视化视野域中可以观察到web三维虚拟模型,则进行分类画面展示,若不可以观察到,则按照述虚拟化背景进行画面展示。本发明还提出一种基于web的mr虚拟画面展示装置、电子设备以及计算机可读存储介质。本发明可以解决虚拟模型与现实物体之间的重叠部分的展示方式存在计算量大的问题。

Description

一种基于web的mr虚拟画面展示方法及装置
技术领域
本发明涉及虚拟现实画面展示技术领域,尤其涉及一种基于web的mr虚拟画面展示方法、装置、电子设备及计算机可读存储介质。
背景技术
近年来,随着人工智能的发展,虚拟现实VR(Virtual Reality)和增强现实AR(Augmented Reality)开始得到广泛的应用。而将虚拟现实和增强现实混合使用,就可以实现完全沉浸式的视觉效果,称之为混合虚拟现实(Mixed Reality,简称MR)。
混合虚拟现实需要体现出虚拟模型与现实物体之间的交互,不同于虚拟现实与增强现实,而当虚拟模型与现实物体之间的图像存在重叠时,混合虚拟现实技术需要进行重叠展示,不能出现虚拟模型被遮挡的部分,从而实现虚拟模型与现实物体的完美融合,当前展示虚拟模型与现实物体之间的重叠部分图像需要识别物体位置点之间复杂的相对位置关系,因此这种虚拟模型与现实物体之间的重叠部分的展示方式存在计算量大的问题。
发明内容
本发明提供一种基于web的mr虚拟画面展示方法、装置及计算机可读存储介质,其主要目的在于解决虚拟模型与现实物体之间的重叠部分的展示方式存在计算量大的问题。
为实现上述目的,本发明提供的一种基于web的mr虚拟画面展示方法,包括:
获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景;
获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景;
获取所述现实三维场景中物体的边缘位置信息;
利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,其中所述角域计算公式如下:
Figure GDA0004216347900000021
其中,σpq表示用户在观察点p与所述虚拟化前景中物体中第q个物体的m个边缘位置点形成的观察射线集与所述现实三维场景中的各个物体面的交点集合,l表示射线方程求解函数,xp、yp、zp表示观察点p的空间位置坐标,x1,2,…,i,…,m、y1,2,…,i,…,m、z1,2,…,i,…,m表示第q个物体的m个边缘位置点的空间坐标,xi、yi、zi表示所述观察点p与所述虚拟化前景中物体中第q个物体的第i个边缘位置点形成的射线方程变量,s1表示所述虚拟化前景中的第1个物体的空间平面方程,s2表示所述虚拟化前景中的第2个物体的空间平面方程,sn表示所述虚拟化前景中的第n个物体的空间平面方程;
根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域;
将所述不可视化视野域按照所述虚拟化前景进行画面展示;
判断所述可视化视野域中是否可以观察到所述web三维虚拟模型;
若所述可视化视野域中可以观察到所述web三维虚拟模型,则将所述可视化视野域进行分类画面展示;
若所述可视化视野域中不可以观察到所述web三维虚拟模型,则按照所述虚拟化背景进行画面展示。
可选地,所述获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景,包括:
获取现实三维场景中各个物体的空间坐标;
利用预构建的mark标识对所述各个物体的空间坐标进行标识,得到定位现实场景;
接收所述web三维虚拟模型的虚拟坐标;
根据所述虚拟坐标确定所述web三维虚拟模型在所述定位现实场景中的位置信息;
获取原始现实场景,根据所述位置信息,利用预构建的云渲染后端对所述原始现实场景进行云渲染,得到后端渲染图片;
将所述后端渲染图片进行H.264编码,并流式化传输置预构建的web前端,得到H.264图像流;
按照预定的融合公式,将所述H.264图像流与预构建的web前端渲染图片进行融合渲染,得到所述虚拟现实场景,其中所述融合公式如下所示:
I=IfrontWfront+IbackWback=IfrontWfront+(IDLVSHVAO+IIL)Wback
其中,I表示所述虚拟现实场景的光照辐射度,Ifront表示web前端渲染图片的光照辐射度,Wfront表示web前端渲染图片的光照辐射度的权重,iback表示云渲染后端渲染的光照辐射度,Wback是云渲染后端渲染的光照辐射度的权重,IDL表示云渲染后端的局部光照渲染辐射度,VSH指阴影渲染后光照的可见度,VAO指环境光遮罩渲染后光照的可见度,IIL指间接光照渲染后的光照辐射度。
可选地,所述获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景,包括:
获取用户在所述现实三维场景中的空间移动坐标;
根据所述用户的观察点在所述现实三维场景中构建6DoF位姿坐标系,获取用户在所述6DoF位姿坐标系中的俯仰角度、偏摆角度及翻滚角度;
根据所述空间移动坐标及所述俯仰角度、偏摆角度及翻滚角度确定所述用户的6DoF位姿;
根据所述6DoF位姿确定所述用户在所述现实三维场景中的视野中心点及视野图像;
根据所述用户的观察点及所述视野中心点作视线线段;
判断所述web三维虚拟模型上沿着所述视线线段朝向所述用户的观察点方向是否存在所述现实三维场景中的物体区域;
若所述web三维虚拟模型上沿着所述视线线段朝向所述用户的观察点方向存在所述现实三维场景中的物体区域,则将所述物体区域作为虚拟化前景;
在所述视野图像中去除所述虚拟化前景及所述web三维虚拟模型所在的图像区域,得到所述虚拟化背景。
可选地,所述获取所述现实三维场景中物体的边缘位置信息,包括:
提取所述现实场景中物体的边缘线条,得到边缘多边形;
按照预定的间距在所述边缘多边形上选取边缘特征点,得到边缘特征点集。
可选地,所述利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,包括:
利用所述角域计算公式,根据所述用户的观察点及所述边缘特征点计算每个边缘特征点的观察射线;
提取所述观察射线与所述现实三维场景中物体的交点,得到视线终止点集;
将所述视线终止点集按照所述视线线段的方向平移至所述视野图像上,得到视野遮蔽点集;
连接所述视野遮蔽点集中的视野遮蔽点,得到所述视野遮蔽角域。
可选地,所述根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域,包括:
利用所述每个物体的视野遮蔽角域将所述视野图像进行区块划分,得到区块化视野图像;
将所述区块化视野图像中视野遮蔽角域内的图像作为不可视化视野域;
将所述区块化视野图像中视野遮蔽角域外的图像作为可视化视野域。
可选地,所述判断所述可视化视野域中是否可以观察到所述web三维虚拟模型,包括:
判断所述web三维虚拟模型是否存在向外超越所述观察射线的部分;
若所述web三维虚拟模型存在向外超越所述观察射线的部分,则所述可视化视野域中可以观察到所述web三维虚拟模型;
若所述web三维虚拟模型不存在向外超越所述观察射线的部分,则所述可视化视野域中不可以观察到所述web三维虚拟模型。
可选地,所述将所述可视化视野域进行分类画面展示,包括:
在所述可视化视野域内识别web三维虚拟模型区域及虚拟化背景区域;
将所述web三维虚拟模型区域作为虚拟图像截取窗口;
利用所述虚拟图像截取窗口在所述web三维虚拟模型中截取虚拟部分图像;
将所述虚拟化背景区域作为背景图像截取窗口;
利用所述背景图像截取窗口在所述虚拟化背景中截取背景部分图像;
将所述虚拟部分图像及背景部分图像分别在所述web三维虚拟模型区域及虚拟化背景区域进行画面展示。
可选地,所述利用所述虚拟图像截取窗口在所述web三维虚拟模型中截取虚拟部分图像,包括:
提取所述虚拟图像截取窗口的轮廓特征;
利用所述轮廓特征在所述web三维虚拟模型中进行轮廓特征匹配,得到所述web三维虚拟模型的轮廓吻合区域;
提取所述轮廓吻合区域的图像,得到所述虚拟部分图像。
为了解决上述问题,本发明还提供一种基于web的mr虚拟画面展示装置,所述装置包括:
虚拟现实场景建模模块,用于获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景;
现实三维场景拆分模块,用于获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景;
视野遮蔽角域计算模块,用于获取所述现实三维场景中物体的边缘位置信息;利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,其中所述角域计算公式如下:
Figure GDA0004216347900000051
其中,σpq表示用户在观察点p与所述虚拟化前景中物体中第q个物体的m个边缘位置点形成的观察射线集与所述现实三维场景中的各个物体面的交点集合,l表示射线方程求解函数,xp、yp、zp表示观察点p的空间位置坐标,x1,2,…,i,…,m、y1,2,…,i,…,m、z1,2,…,i,…,m表示第q个物体的m个边缘位置点的空间坐标,xi、yi、zi表示所述观察点p与所述虚拟化前景中物体中第q个物体的第i个边缘位置点形成的射线方程变量,s1表示所述虚拟化前景中的第1个物体的空间平面方程,s2表示所述虚拟化前景中的第2个物体的空间平面方程,sn表示所述虚拟化前景中的第n个物体的空间平面方程;
视野域划分模块,用于根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域;
画面展示模块,用于将所述不可视化视野域按照所述虚拟化前景进行画面展示;判断所述可视化视野域中是否可以观察到所述web三维虚拟模型;
若所述可视化视野域中可以观察到所述web三维虚拟模型,则将所述可视化视野域进行分类画面展示;若所述可视化视野域中不可以观察到所述web三维虚拟模型,则按照所述虚拟化背景进行画面展示。为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以实现上述所述的基于web的mr虚拟画面展示方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的基于web的mr虚拟画面展示方法。
相比于背景技术所述:虚拟模型与现实物体之间的重叠部分的展示方式存在计算量大的现象,本发明实施例首先需要将web三维虚拟模型在所述现实三维场景中建模,从而得到虚拟现实场景,在展示mr虚拟画面时,需要根据用户的6DoF位姿及web三维虚拟模型的位置信息进行现实三维场景的拆分,得到虚拟化前景及虚拟化背景,通过所述现实三维场景中物体的边缘位置信息及所述角域计算公式计算所述视野遮蔽角域,再根据所述视野遮蔽角域对虚拟现实场景进行划分,得到可视化视野域及不可视化视野域,再根据所述可视化视野域及不可视化视野域进行分类展示,所述不可视化视野域直接按照所述虚拟化前景进行画面展示,当所述可视化视野域中是否可以观察到所述web三维虚拟模型时,将所述可视化视野域进行分类画面展示,当所述可视化视野域中不可以观察到所述web三维虚拟模型,则按照所述虚拟化背景进行画面展示。因此本发明提出的基于web的mr虚拟画面展示方法、装置、电子设备及计算机可读存储介质,可以解决当前虚拟模型与现实物体之间的重叠部分的展示方式存在计算量大的问题。
附图说明
图1为本发明一实施例提供的基于web的mr虚拟画面展示方法的流程示意图;
图2为本发明一实施例提供的基于web的mr虚拟画面展示装置的功能模块图;
图3为本发明一实施例提供的实现所述基于web的mr虚拟画面展示方法的电子设备的结构示意图。
本发明目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于web的mr虚拟画面展示方法。所述基于web的mr虚拟画面展示方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于web的mr虚拟画面展示方法可以由安装在终端设备或服务端设备的软件或硬件来执行。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
实施例1:
参照图1所示,为本发明一实施例提供的基于web的mr虚拟画面展示方法的流程示意图。在本实施例中,所述基于web的mr虚拟画面展示方法包括:
S1、获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景。
可解释的,所述web三维虚拟模型指利用互联网构建的虚拟模型,例如:在互联网上获取预先构建的家庭装修模型、宠物活动模型以及教育教具演化模型、博物馆3D虚拟展品等虚拟化模型。所述家庭装修模型可以为装修后的模型组合,例如:虚拟冰箱模型、虚拟吊灯模型、虚拟桌椅模型以及虚拟衣柜模型等,利用所述家庭装修模型可以在毛坯房中进行虚拟建模,看到装修后的虚拟场景。所述位置信息指空间位置坐标。所述虚拟现实场景指利用混合现实(Mixed Reality,简称MR)技术构建的混合虚拟场景。
本发明实施例中,所述获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景,包括:
获取现实三维场景中各个物体的空间坐标;
利用预构建的mark标识对所述各个物体的空间坐标进行标识,得到定位现实场景;
接收所述web三维虚拟模型的虚拟坐标;
根据所述虚拟坐标确定所述web三维虚拟模型在所述定位现实场景中的位置信息;
获取原始现实场景,根据所述位置信息,利用预构建的云渲染后端对所述原始现实场景进行云渲染,得到后端渲染图片;
将所述后端渲染图片进行H.264编码,并流式化传输置预构建的web前端,得到H.264图像流;
按照预定的融合公式,将所述H.264图像流与预构建的web前端渲染图片进行融合渲染,得到所述虚拟现实场景,其中所述融合公式如下所示:
I=IfrontWfront+IbackWback=IfrontWfront+(IDLVSHVAO+IIL)Wback
其中,I表示所述虚拟现实场景的光照辐射度,Ifront表示web前端渲染图片的光照辐射度,Wfront表示web前端渲染图片的光照辐射度的权重,Iback表示云渲染后端渲染的光照辐射度,Wback是云渲染后端渲染的光照辐射度的权重,IDL表示云渲染后端的局部光照渲染辐射度,VSH指阴影渲染后光照的可见度,VAO指环境光遮罩渲染后光照的可见度,IIL指间接光照渲染后的光照辐射度。
可解释的,所述mark标识可以为5*5的黑白海明码。所述虚拟坐标指所述web三维虚拟模型上各个点的在所述现实三维场景中的三维坐标。
应理解的,所述web三维虚拟模型的位置信息应该结合现实三维场景中物体的空间坐标进行确定,例如:在博物馆中构建文物雕塑的3D雕塑模型时,需要将3D模型放置于预定的实体展示台上,为了将3D雕塑模型于实体展示台很好的结合在一起,需要先确定所述实体展示台在现实场景中特征点的位置坐标,并进行标识,再根据该实体展示台的位置坐标确定3D雕塑模型的虚拟坐标(在确定的时候,所述3D雕塑模型与实体展示台的接触点面的位置坐标应该重合,3D雕塑模型与实体展示台的未接触点面的z轴位置坐标应垂直高于3D雕塑模型的投影面),从而得到所述web三维虚拟模型在现实三维场景中的位置信息。
S2、获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景。
可理解的,所述6DoF位姿指用户观察所述现实三维场景的六个自由度的数值,即沿着xyz三个直角坐标轴的移动自由度和绕这三个坐标轴的转动自由度,分别为前后、上下、左右和俯仰、偏摆及翻滚,其中所述俯仰可以沿x轴的转动进行调节,偏摆可以为沿y轴的转动进行调节,翻滚可以为沿z轴的转动进行调节。
应明白的,所述虚拟化前景指在所述web三维虚拟模型前面(对所述web三维虚拟模型存在遮挡)的物体部分,所述虚拟化背景指在所述web三维虚拟模型后面的物体(或所述现实三维场景中的物体未被所述web三维虚拟模型遮挡的物体)。
本发明实施例中,所述获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景,包括:
获取用户在所述现实三维场景中的空间移动坐标;
根据所述用户的观察点在所述现实三维场景中构建6DoF位姿坐标系,获取用户在所述6DoF位姿坐标系中的俯仰角度、偏摆角度及翻滚角度;
根据所述空间移动坐标及所述俯仰角度、偏摆角度及翻滚角度确定所述用户的6DoF位姿;
根据所述6DoF位姿确定所述用户在所述现实三维场景中的视野中心点及视野图像;
根据所述用户的观察点及所述视野中心点作视线线段;
判断所述web三维虚拟模型上沿着所述视线线段朝向所述用户的观察点方向是否存在所述现实三维场景中的物体区域;
若所述web三维虚拟模型上沿着所述视线线段朝向所述用户的观察点方向存在所述现实三维场景中的物体区域,则将所述物体区域作为虚拟化前景;
在所述视野图像中去除所述虚拟化前景及所述web三维虚拟模型所在的图像区域,得到所述虚拟化背景。
例如:博物馆中存在多个3D雕塑模型的实体展示台,此时游客在博物馆中行走,根据所述6DoF位姿可以确定游客的视线及呈现的场景,此时实体展示台可能存在相互遮挡的情况,此时存在遮挡游客视线的实体展示台就是虚拟化前景,而不存在遮挡游客视线的实体展示台就是虚拟化背景,虚拟化背景也可以为墙面、地面等未被遮挡视线的物体区域。所述视野图像即为游客观看到的画面。
应明白的,所述俯仰角度、偏摆角度及翻滚角度指转动自由度。所述空间移动坐标指着xyz三个直角坐标轴的前后、上下、左右移动后的空间坐标。所述视野图像指用户在MR头戴显示器中看到的视野图像。所述视野中心点指所述视野图像的中心点。
S3、获取所述现实三维场景中物体的边缘位置信息。
应明白的,所述边缘位置信息指所述现实三维场景中物体的边缘线的组成点的空间位置坐标。
本发明实施例中,所述获取所述现实三维场景中物体的边缘位置信息,包括:
提取所述现实场景中物体的边缘线条,得到边缘多边形;
按照预定的间距在所述边缘多边形上选取边缘特征点,得到边缘特征点集。
应理解的,由于所述现实三维场景中可能存在遮挡游客视线的物体,因此需要获取该物体详细的边缘位置坐标进行分析,例如:当某个实体展示台为高1.5米、长0.5m、宽0.6m的长方体时,此时根据该实体展示台在虚拟现实场景中的位置坐标及游客的6DoF位姿即可确定该实体展示台在游客视野图像中的形状及视野占据区域等信息。
可解释的,所述间距可以为1cm。
S4、利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域。
本发明实施例中,所述视野遮蔽角域指用户在观察点看到所述现实三维场景中各个物体的图像所在区域,所述观察点距离物体越近,所述视野遮蔽角域越大,即物体将用户遮蔽的视野越大,用户看到的物体也就越少。所述视野遮蔽角域可以为用户观察的椎体底面积。因为光线是直的,因此用户的视野是从观察点至边缘多边形的边缘再至物体表面的多个射线组成的椎体获得的,所述视野遮蔽角域可以理解为同一平面上的椎体底面。
详细地,所述所述角域计算公式如下:
Figure GDA0004216347900000101
其中,σpq表示用户在观察点p与所述虚拟化前景中物体中第q个物体的m个边缘位置点形成的观察射线集与所述现实三维场景中的各个物体面的交点集合,l表示射线方程求解函数,xp、yp、zp表示观察点p的空间位置坐标,x1,2,…,i,…,m、y1,2,…,i,…,m、z1,2,…,i,…,m表示第q个物体的m个边缘位置点的空间坐标,xi、yi、zi表示所述观察点p与所述虚拟化前景中物体中第q个物体的第i个边缘位置点形成的射线方程变量,s1表示所述虚拟化前景中的第1个物体的空间平面方程,s2表示所述虚拟化前景中的第2个物体的空间平面方程,sn表示所述虚拟化前景中的第n个物体的空间平面方程。
本发明实施例中,所述利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,包括:
利用所述角域计算公式,根据所述用户的观察点及所述边缘特征点计算每个边缘特征点的观察射线;
提取所述观察射线与所述现实三维场景中物体的交点,得到视线终止点集;
将所述视线终止点集按照所述视线线段的方向平移至所述视野图像上,得到视野遮蔽点集;
连接所述视野遮蔽点集中的视野遮蔽点,得到所述视野遮蔽角域。
可理解的,例如:当所述虚拟化前景中物体存在某个实体展示台且高1.5米、长0.5m、宽0.6m的长方体,此时所述边缘特征点可以为该实体展示台的上表面、下表面八个顶点,以获取12条棱线,此时观察射线即为经过游客的眼部观察点与相关顶点的射线,视线终止点集可以为观察射线与地面或墙面的交点集合,也可以理解为眼部观察点对实体展示台的投影区域边缘。所述视野遮蔽点集表示所述视线终止点集转换为视野图像中对应的点集。所述视野遮蔽角域即可表示所述视野图像中游客被遮挡的区域。
应明白的,由于各条观察射线在所述现实三维场景中的终点可能落在各个物体的表面上,因此一般观察射线的终点都是不在一个平面上的,因此需要观察射线的终点平移至同一平面,再构成所述视野遮蔽角域。
S5、根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域。
应明白的,所述可视化视野域指所述虚拟现实场景中未被遮挡的区域,所述不可视化视野域指所述虚拟现实场景中被物体遮挡的区域。例如:所述web三维虚拟模型为3D雕塑模型时,当该3D雕塑模型存在部分区域被实体展示台遮挡,此时,实体展示台在游客的视野图像上为不可视化视野域,而3D雕塑模型未被遮挡的区域及不存在被遮挡的场馆区域在游客的视野图像上为可视化视野域。
本发明实施例中,所述根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域,包括:
利用所述每个物体的视野遮蔽角域将所述视野图像进行区块划分,得到区块化视野图像;
将所述区块化视野图像中视野遮蔽角域内的图像作为不可视化视野域;
将所述区块化视野图像中视野遮蔽角域外的图像作为可视化视野域。
可理解的,所述视野图像中视野遮蔽角域内的部分即为对游客存在视线遮挡的部分,应此虚拟现实场景中处于所述视野遮蔽角域后的物体或虚拟物体都不会被看见,因此为不可视化视野域。
S6、将所述不可视化视野域按照所述虚拟化前景进行画面展示。
本发明实施例中,所述不可视化视野域存在遮挡所述web三维虚拟模型,因此不可视化视野域还应以原来的图像即所述虚拟化前景的图像进行显示。
S7、判断所述可视化视野域中是否可以观察到所述web三维虚拟模型。
本发明实施例中,所述判断所述可视化视野域中是否可以观察到所述web三维虚拟模型,包括:
判断所述web三维虚拟模型是否存在向外超越所述观察射线的部分;
若所述web三维虚拟模型存在向外超越所述观察射线的部分,则所述可视化视野域中可以观察到所述web三维虚拟模型;
若所述web三维虚拟模型不存在向外超越所述观察射线的部分,则所述可视化视野域中不可以观察到所述web三维虚拟模型。
可解释的,当游客在行走的过程中,3D雕塑模型可能存在部分被遮挡的情况,即一部分处于可视化视野域,另一部分处于不可视化视野域,此时只需要展示处于可视化视野域的部分;当所述3D雕塑模型未存在被遮挡的情况,则全部处于可视化视野域。
若所述可视化视野域中可以观察到所述web三维虚拟模型,则执行S8、将所述可视化视野域进行分类画面展示。
本发明实施例中,所述将所述可视化视野域进行分类画面展示,包括:
在所述可视化视野域内识别web三维虚拟模型区域及虚拟化背景区域;
将所述web三维虚拟模型区域作为虚拟图像截取窗口;
利用所述虚拟图像截取窗口在所述web三维虚拟模型中截取虚拟部分图像;
将所述虚拟化背景区域作为背景图像截取窗口;
利用所述背景图像截取窗口在所述虚拟化背景中截取背景部分图像;
将所述虚拟部分图像及背景部分图像分别在所述web三维虚拟模型区域及虚拟化背景区域进行画面展示。
进一步地,当所述3D雕塑模型部分被实体展示台遮挡或完全未被遮挡时,3D雕塑模型未被遮挡的区域即为web三维虚拟模型区域,可视化视野域中其余区域即为虚拟化背景区域。此时,3D雕塑模型未被遮挡的区域即为虚拟图像截取窗口,只需要利用所述虚拟图像截取窗口在3D雕塑模型上截取相应的部分图像即可。而虚拟化背景区域可能为墙面,只需要按照所述背景图像截取窗口在墙面上截取对应部分的图像,最后将3D雕塑模型上截取的部分图像与墙面上截取的部分图像结合展示即可。
本发明实施例中,所述利用所述虚拟图像截取窗口在所述web三维虚拟模型中截取虚拟部分图像,包括:
提取所述虚拟图像截取窗口的轮廓特征;
利用所述轮廓特征在所述web三维虚拟模型中进行轮廓特征匹配,得到所述web三维虚拟模型的轮廓吻合区域;
提取所述轮廓吻合区域的图像,得到所述虚拟部分图像。
若所述可视化视野域中不可以观察到所述web三维虚拟模型,则执行S9、按照所述虚拟化背景进行画面展示。
本发明实施例中,所述可视化视野域中不可以观察到所述web三维虚拟模型时,所述web三维虚拟模型可能完全被物体遮挡,或所述虚拟化背景中未被所述web三维虚拟化模型遮挡的部分不存在所述web三维虚拟化模型。
相比于背景技术所述:虚拟模型与现实物体之间的重叠部分的展示方式存在计算量大的现象,本发明实施例首先需要将web三维虚拟模型在所述现实三维场景中建模,从而得到虚拟现实场景,在展示mr虚拟画面时,需要根据用户的6DoF位姿及web三维虚拟模型的位置信息进行现实三维场景的拆分,得到虚拟化前景及虚拟化背景,通过所述现实三维场景中物体的边缘位置信息及所述角域计算公式计算所述视野遮蔽角域,再根据所述视野遮蔽角域对虚拟现实场景进行划分,得到可视化视野域及不可视化视野域,再根据所述可视化视野域及不可视化视野域进行分类展示,所述不可视化视野域直接按照所述虚拟化前景进行画面展示,当所述可视化视野域中是否可以观察到所述web三维虚拟模型时,将所述可视化视野域进行分类画面展示,当所述可视化视野域中不可以观察到所述web三维虚拟模型,则按照所述虚拟化背景进行画面展示。因此本发明提出的基于web的mr虚拟画面展示方法、装置、电子设备及计算机可读存储介质,可以解决当前虚拟模型与现实物体之间的重叠部分的展示方式存在计算量大的问题。
实施例2:
如图2所示,是本发明一实施例提供的基于web的mr虚拟画面展示装置的功能模块图。
本发明所述基于web的mr虚拟画面展示装置100可以安装于电子设备中。根据实现的功能,所述基于web的mr虚拟画面展示装置100可以包括虚拟现实场景建模模块101、现实三维场景拆分模块102、视野遮蔽角域计算模块103、视野域划分模块104及画面展示模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
所述虚拟现实场景建模模块101,用于获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景;
所述现实三维场景拆分模块102,用于获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景;
所述视野遮蔽角域计算模块103,用于获取所述现实三维场景中物体的边缘位置信息;利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,其中所述角域计算公式如下:
Figure GDA0004216347900000151
其中,σpq表示用户在观察点p与所述虚拟化前景中物体中第q个物体的m个边缘位置点形成的观察射线集与所述现实三维场景中的各个物体面的交点集合,l表示射线方程求解函数,xp、yp、zp表示观察点p的空间位置坐标,x1,2,…,i,…,m、y1,2,…,i,…,m、z1,2,…,i,…,m表示第q个物体的m个边缘位置点的空间坐标,xi、yi、zi表示所述观察点p与所述虚拟化前景中物体中第q个物体的第i个边缘位置点形成的射线方程变量,s1表示所述虚拟化前景中的第1个物体的空间平面方程,s2表示所述虚拟化前景中的第2个物体的空间平面方程,sn表示所述虚拟化前景中的第n个物体的空间平面方程;
所述视野域划分模块104,用于根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域;
所述画面展示模块105,用于将所述不可视化视野域按照所述虚拟化前景进行画面展示;判断所述可视化视野域中是否可以观察到所述web三维虚拟模型;
若所述可视化视野域中可以观察到所述web三维虚拟模型,则将所述可视化视野域进行分类画面展示;若所述可视化视野域中不可以观察到所述web三维虚拟模型,则按照所述虚拟化背景进行画面展示。
详细地,本发明实施例中所述基于web的mr虚拟画面展示装置100中的所述各模块在使用时采用与上述的图1中所述的基于web的mr虚拟画面展示方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
实施例3:
如图3所示,是本发明一实施例提供的实现基于web的mr虚拟画面展示方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、总线12和通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于web的mr虚拟画面展示程序。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于web的mr虚拟画面展示程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如基于web的mr虚拟画面展示程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于web的mr虚拟画面展示程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景;
获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景;
获取所述现实三维场景中物体的边缘位置信息;
利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,其中所述角域计算公式如下:
Figure GDA0004216347900000171
其中,σpq表示用户在观察点p与所述虚拟化前景中物体中第q个物体的m个边缘位置点形成的观察射线集与所述现实三维场景中的各个物体面的交点集合,l表示射线方程求解函数,xp、yp、zp表示观察点p的空间位置坐标,x1,2,…,i,…,m、y1,2,…,i,…,m、z1,2,…,i,…,m表示第q个物体的m个边缘位置点的空间坐标,xi、yi、zi表示所述观察点p与所述虚拟化前景中物体中第q个物体的第i个边缘位置点形成的射线方程变量,s1表示所述虚拟化前景中的第1个物体的空间平面方程,s2表示所述虚拟化前景中的第2个物体的空间平面方程,sn表示所述虚拟化前景中的第n个物体的空间平面方程;
根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域;
将所述不可视化视野域按照所述虚拟化前景进行画面展示;
判断所述可视化视野域中是否可以观察到所述web三维虚拟模型;
若所述可视化视野域中可以观察到所述web三维虚拟模型,则将所述可视化视野域进行分类画面展示;
若所述可视化视野域中不可以观察到所述web三维虚拟模型,则按照所述虚拟化背景进行画面展示。
具体地,所述处理器10对上述指令的具体实现方法可参考图1至图2对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景;
获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景;
获取所述现实三维场景中物体的边缘位置信息;
利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,其中所述角域计算公式如下:
Figure GDA0004216347900000191
其中,σpq表示用户在观察点p与所述虚拟化前景中物体中第q个物体的m个边缘位置点形成的观察射线集与所述现实三维场景中的各个物体面的交点集合,l表示射线方程求解函数,xp、yp、zp表示观察点p的空间位置坐标,x1,2,…,i,…,m、y1,2,…,i,…,m、z1,2,…,i,…,m表示第q个物体的m个边缘位置点的空间坐标,xi、yi、zi表示所述观察点p与所述虚拟化前景中物体中第q个物体的第i个边缘位置点形成的射线方程变量,s1表示所述虚拟化前景中的第1个物体的空间平面方程,s2表示所述虚拟化前景中的第2个物体的空间平面方程,sn表示所述虚拟化前景中的第n个物体的空间平面方程;
根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域;
将所述不可视化视野域按照所述虚拟化前景进行画面展示;
判断所述可视化视野域中是否可以观察到所述web三维虚拟模型;
若所述可视化视野域中可以观察到所述web三维虚拟模型,则将所述可视化视野域进行分类画面展示;
若所述可视化视野域中不可以观察到所述web三维虚拟模型,则按照所述虚拟化背景进行画面展示。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种基于web的mr虚拟画面展示方法,其特征在于,所述方法包括:
获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景;
获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景;
获取所述现实三维场景中物体的边缘位置信息;
利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,其中所述角域计算公式如下:
Figure QLYQS_4
其中,/>
Figure QLYQS_5
表示用户在观察点p与所述虚拟化前景中物体中第q个物体的m个边缘位置点形成的观察射线集与所述现实三维场景中的各个物体面的交点集合,/>
Figure QLYQS_12
表示射线方程求解函数,/>
Figure QLYQS_3
、/>
Figure QLYQS_10
、/>
Figure QLYQS_14
表示观察点p的空间位置坐标,/>
Figure QLYQS_15
、/>
Figure QLYQS_1
、/>
Figure QLYQS_7
表示第q个物体的m个边缘位置点的空间坐标,/>
Figure QLYQS_9
、/>
Figure QLYQS_11
、/>
Figure QLYQS_2
表示所述观察点p与所述虚拟化前景中物体中第q个物体的第i个边缘位置点形成的射线方程变量,/>
Figure QLYQS_6
表示所述虚拟化前景中的第1个物体的空间平面方程,/>
Figure QLYQS_8
表示所述虚拟化前景中的第2个物体的空间平面方程,/>
Figure QLYQS_13
表示所述虚拟化前景中的第n个物体的空间平面方程;
根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域;
将所述不可视化视野域按照所述虚拟化前景进行画面展示;
判断所述可视化视野域中是否可以观察到所述web三维虚拟模型;
若所述可视化视野域中可以观察到所述web三维虚拟模型,则将所述可视化视野域进行分类画面展示;
若所述可视化视野域中不可以观察到所述web三维虚拟模型,则按照所述虚拟化背景进行画面展示。
2.如权利要求1所述的基于web的mr虚拟画面展示方法,其特征在于,所述获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景,包括:
获取现实三维场景中各个物体的空间坐标;
利用预构建的mark标识对所述各个物体的空间坐标进行标识,得到定位现实场景;
接收所述web三维虚拟模型的虚拟坐标;
根据所述虚拟坐标确定所述web三维虚拟模型在所述定位现实场景中的位置信息;
获取原始现实场景,根据所述位置信息,利用预构建的云渲染后端对所述原始现实场景进行云渲染,得到后端渲染图片;
将所述后端渲染图片进行H.264编码,并流式化传输置预构建的web前端,得到H.264图像流;
按照预定的融合公式,将所述H.264图像流与预构建的web前端渲染图片进行融合渲染,得到所述虚拟现实场景,其中所述融合公式如下所示:
Figure QLYQS_18
其中,/>
Figure QLYQS_22
表示所述虚拟现实场景的光照辐射度,/>
Figure QLYQS_25
表示web前端渲染图片的光照辐射度,
Figure QLYQS_17
表示web前端渲染图片的光照辐射度的权重,/>
Figure QLYQS_21
表示云渲染后端渲染的光照辐射度,/>
Figure QLYQS_23
是云渲染后端渲染的光照辐射度的权重,/>
Figure QLYQS_24
表示云渲染后端的局部光照渲染辐射度,/>
Figure QLYQS_16
指阴影渲染后光照的可见度,/>
Figure QLYQS_19
指环境光遮罩渲染后光照的可见度,/>
Figure QLYQS_20
指间接光照渲染后的光照辐射度。
3.如权利要求2所述的基于web的mr虚拟画面展示方法,其特征在于,所述获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景,包括:
获取用户在所述现实三维场景中的空间移动坐标;
根据所述用户的观察点在所述现实三维场景中构建6DoF位姿坐标系,获取用户在所述6DoF位姿坐标系中的俯仰角度、偏摆角度及翻滚角度;
根据所述空间移动坐标及所述俯仰角度、偏摆角度及翻滚角度确定所述用户的6DoF位姿;
根据所述6DoF位姿确定所述用户在所述现实三维场景中的视野中心点及视野图像;
根据所述用户的观察点及所述视野中心点作视线线段;
判断所述web三维虚拟模型上沿着所述视线线段朝向所述用户的观察点方向是否存在所述现实三维场景中的物体区域;
若所述web三维虚拟模型上沿着所述视线线段朝向所述用户的观察点方向存在所述现实三维场景中的物体区域,则将所述物体区域作为虚拟化前景;
在所述视野图像中去除所述虚拟化前景及所述web三维虚拟模型所在的图像区域,得到所述虚拟化背景。
4.如权利要求1所述的基于web的mr虚拟画面展示方法,其特征在于,所述获取所述现实三维场景中物体的边缘位置信息,包括:
提取所述现实场景中物体的边缘线条,得到边缘多边形;
按照预定的间距在所述边缘多边形上选取边缘特征点,得到边缘特征点集。
5.如权利要求3所述的基于web的mr虚拟画面展示方法,其特征在于,所述利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,包括:
利用所述角域计算公式,根据所述用户的观察点及边缘特征点计算每个边缘特征点的观察射线;
提取所述观察射线与所述现实三维场景中物体的交点,得到视线终止点集;
将所述视线终止点集按照所述视线线段的方向平移至所述视野图像上,得到视野遮蔽点集;
连接所述视野遮蔽点集中的视野遮蔽点,得到所述视野遮蔽角域。
6.如权利要求5所述的基于web的mr虚拟画面展示方法,其特征在于,所述根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域,包括:
利用所述每个物体的视野遮蔽角域将所述视野图像进行区块划分,得到区块化视野图像;
将所述区块化视野图像中视野遮蔽角域内的图像作为不可视化视野域;
将所述区块化视野图像中视野遮蔽角域外的图像作为可视化视野域。
7.如权利要求6所述的基于web的mr虚拟画面展示方法,其特征在于,所述判断所述可视化视野域中是否可以观察到所述web三维虚拟模型,包括:
判断所述web三维虚拟模型是否存在向外超越所述观察射线的部分;
若所述web三维虚拟模型存在向外超越所述观察射线的部分,则所述可视化视野域中可以观察到所述web三维虚拟模型;
若所述web三维虚拟模型不存在向外超越所述观察射线的部分,则所述可视化视野域中不可以观察到所述web三维虚拟模型。
8.如权利要求6所述的基于web的mr虚拟画面展示方法,其特征在于,所述将所述可视化视野域进行分类画面展示,包括:
在所述可视化视野域内识别web三维虚拟模型区域及虚拟化背景区域;
将所述web三维虚拟模型区域作为虚拟图像截取窗口;
利用所述虚拟图像截取窗口在所述web三维虚拟模型中截取虚拟部分图像;
将所述虚拟化背景区域作为背景图像截取窗口;
利用所述背景图像截取窗口在所述虚拟化背景中截取背景部分图像;
将所述虚拟部分图像及背景部分图像分别在所述web三维虚拟模型区域及虚拟化背景区域进行画面展示。
9.如权利要求8所述的基于web的mr虚拟画面展示方法,其特征在于,所述利用所述虚拟图像截取窗口在所述web三维虚拟模型中截取虚拟部分图像,包括:
提取所述虚拟图像截取窗口的轮廓特征;
利用所述轮廓特征在所述web三维虚拟模型中进行轮廓特征匹配,得到所述web三维虚拟模型的轮廓吻合区域;
提取所述轮廓吻合区域的图像,得到所述虚拟部分图像。
10.一种基于web的mr虚拟画面展示装置,其特征在于,所述装置包括:
虚拟现实场景建模模块,用于获取web三维虚拟模型在预构建的现实三维场景中的位置信息,根据所述位置信息将所述web三维虚拟模型在所述现实三维场景中建模,得到虚拟现实场景;
现实三维场景拆分模块,用于获取用户的6DoF位姿,利用所述位置信息及6DoF位姿将所述现实三维场景进行拆分,得到虚拟化前景及虚拟化背景;
视野遮蔽角域计算模块,用于获取所述现实三维场景中物体的边缘位置信息;利用预构建的角域计算公式,根据所述6DoF位姿及所述边缘位置信息计算所述虚拟化前景中每个物体的视野遮蔽角域,其中所述角域计算公式如下:
Figure QLYQS_29
其中,/>
Figure QLYQS_32
表示用户在观察点p与所述虚拟化前景中物体中第q个物体的m个边缘位置点形成的观察射线集与所述现实三维场景中的各个物体面的交点集合,/>
Figure QLYQS_35
表示射线方程求解函数,/>
Figure QLYQS_27
、/>
Figure QLYQS_37
、/>
Figure QLYQS_38
表示观察点p的空间位置坐标,/>
Figure QLYQS_39
、/>
Figure QLYQS_26
、/>
Figure QLYQS_31
表示第q个物体的m个边缘位置点的空间坐标,/>
Figure QLYQS_33
、/>
Figure QLYQS_36
、/>
Figure QLYQS_28
表示所述观察点p与所述虚拟化前景中物体中第q个物体的第i个边缘位置点形成的射线方程变量,/>
Figure QLYQS_30
表示所述虚拟化前景中的第1个物体的空间平面方程,/>
Figure QLYQS_34
表示所述虚拟化前景中的第2个物体的空间平面方程,/>
Figure QLYQS_40
表示所述虚拟化前景中的第n个物体的空间平面方程;
视野域划分模块,用于根据所述每个物体的视野遮蔽角域将所述虚拟现实场景划分为可视化视野域及不可视化视野域;
画面展示模块,用于将所述不可视化视野域按照所述虚拟化前景进行画面展示;判断所述可视化视野域中是否可以观察到所述web三维虚拟模型;
若所述可视化视野域中可以观察到所述web三维虚拟模型,则将所述可视化视野域进行分类画面展示;若所述可视化视野域中不可以观察到所述web三维虚拟模型,则按照所述虚拟化背景进行画面展示。
CN202310145758.3A 2023-02-22 2023-02-22 一种基于web的mr虚拟画面展示方法及装置 Active CN116030228B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310145758.3A CN116030228B (zh) 2023-02-22 2023-02-22 一种基于web的mr虚拟画面展示方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310145758.3A CN116030228B (zh) 2023-02-22 2023-02-22 一种基于web的mr虚拟画面展示方法及装置

Publications (2)

Publication Number Publication Date
CN116030228A CN116030228A (zh) 2023-04-28
CN116030228B true CN116030228B (zh) 2023-06-27

Family

ID=86081434

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310145758.3A Active CN116030228B (zh) 2023-02-22 2023-02-22 一种基于web的mr虚拟画面展示方法及装置

Country Status (1)

Country Link
CN (1) CN116030228B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815755A (zh) * 2019-04-12 2020-10-23 Oppo广东移动通信有限公司 虚拟物体被遮挡的区域确定方法、装置及终端设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5290865B2 (ja) * 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定方法および装置
US10269177B2 (en) * 2016-10-06 2019-04-23 Google Llc Headset removal in virtual, augmented, and mixed reality using an eye gaze database
WO2019019248A1 (zh) * 2017-07-28 2019-01-31 深圳市瑞立视多媒体科技有限公司 一种虚拟现实交互方法、装置及系统
CN111862333B (zh) * 2019-04-28 2024-05-28 广东虚拟现实科技有限公司 基于增强现实的内容处理方法、装置、终端设备及存储介质
US11494995B2 (en) * 2019-10-29 2022-11-08 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11493989B2 (en) * 2019-11-08 2022-11-08 Magic Leap, Inc. Modes of user interaction
CN111447340A (zh) * 2020-05-29 2020-07-24 深圳市瑞立视多媒体科技有限公司 混合现实虚拟预演拍摄系统
CN111679742A (zh) * 2020-06-10 2020-09-18 浙江商汤科技开发有限公司 基于ar的交互控制方法、装置、电子设备及存储介质
WO2022040970A1 (zh) * 2020-08-26 2022-03-03 南京翱翔信息物理融合创新研究院有限公司 一种同步实现三维重建和ar虚实注册的方法、系统及装置
CN215387277U (zh) * 2021-02-19 2022-01-04 广州市旗鱼软件科技有限公司 一种混合现实消防演练系统及仿真灭火器
CN113379870A (zh) * 2021-03-12 2021-09-10 广东虚拟现实科技有限公司 基于虚拟训练场景训练的显示方法、装置及存储介质
CN112870707B (zh) * 2021-03-19 2022-11-18 腾讯科技(深圳)有限公司 虚拟场景中的虚拟物体展示方法、计算机设备及存储介质
CN115690363A (zh) * 2021-07-23 2023-02-03 广州视享科技有限公司 虚拟物体显示方法、装置和头戴式显示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815755A (zh) * 2019-04-12 2020-10-23 Oppo广东移动通信有限公司 虚拟物体被遮挡的区域确定方法、装置及终端设备

Also Published As

Publication number Publication date
CN116030228A (zh) 2023-04-28

Similar Documents

Publication Publication Date Title
KR102164471B1 (ko) 복합 현실 환경을 작성하기 위한 시스템 등
US10593098B2 (en) Smooth draping layer for rendering vector data on complex three dimensional objects
Neumann et al. Augmented virtual environments (ave): Dynamic fusion of imagery and 3d models
EP3170151B1 (en) Blending between street view and earth view
US9330501B2 (en) Systems and methods for augmenting panoramic image data with performance related data for a building
Tian et al. Handling occlusions in augmented reality based on 3D reconstruction method
CN111833458B (zh) 图像显示方法及装置、设备、计算机可读存储介质
CN112529097B (zh) 样本图像生成方法、装置以及电子设备
US6791563B2 (en) System, method and computer program product for global rendering
CN111161398A (zh) 一种图像生成方法、装置、设备及存储介质
CN112053440A (zh) 单体化模型的确定方法及通信装置
WO2014170757A2 (en) 3d rendering for training computer vision recognition
US20140306953A1 (en) 3D Rendering for Training Computer Vision Recognition
US20230260218A1 (en) Method and apparatus for presenting object annotation information, electronic device, and storage medium
US10275939B2 (en) Determining two-dimensional images using three-dimensional models
CN116030228B (zh) 一种基于web的mr虚拟画面展示方法及装置
Dorffner et al. Generation and visualization of 3D photo-models using hybrid block adjustment with assumptions on the object shape
CN115527000B (zh) 一种用于无人机倾斜摄影模型批量单体化的方法及装置
JP2023527438A (ja) リアルタイム深度マップを用いたジオメトリ認識拡張現実効果
CN116310041A (zh) 内构效果的渲染方法及装置、电子设备、存储介质
CN109949396A (zh) 一种渲染方法、装置、设备和介质
CN113177975B (zh) 基于球幕相机及激光雷达的深度计算方法及三维建模方法
Zhu et al. Synthesizing 360-degree live streaming for an erased background to study renovation using mixed reality
Engel et al. An immersive visualization system for virtual 3d city models
JP7365981B2 (ja) 情報端末装置、方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant