CN110490979B - 一种Web环境下基于深度图的虚实融合装置及方法 - Google Patents
一种Web环境下基于深度图的虚实融合装置及方法 Download PDFInfo
- Publication number
- CN110490979B CN110490979B CN201910686547.4A CN201910686547A CN110490979B CN 110490979 B CN110490979 B CN 110490979B CN 201910686547 A CN201910686547 A CN 201910686547A CN 110490979 B CN110490979 B CN 110490979B
- Authority
- CN
- China
- Prior art keywords
- main
- camera
- viewpoint
- client
- depth map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种Web环境下基于深度图的虚实融合装置及方法。本发明涉及计算机图形学领域;本发明对虚实融合流程进行重构,采用前后端协同绘制架构,平衡前后端的计算能力,减轻了网络带宽压力,基于绘制模板;客户端无需GPU即可进行虚实融合,极大地提高了绘制效率,降低了客户端硬件配置要求;在客户端采用JS进行无插件式绘制,避免了浏览器与插件不兼容的问题,提高了效率与兼容性。
Description
技术领域
本发明涉及计算机图形学领域,尤其涉及一种Web环境下的虚实融合装置及方法。
背景技术
目前,虚实融合是典型的数据和计算密集应用,需要较高的硬件支持。在Web环境下,现有虚实融合技术有三种:基于插件、基于远程绘制和基于WebGL的方式。
基于插件的方式能充分发挥客户端的计算能力,但在Web环境下,廉价客户端普遍存在,难以满足所需的软硬件配置。此外由于需要下载和安装插件,客户体验差,存在安全性风险,跨平台性也差。
基于远程绘制的虚实融合方法,视频在服务端接入,在服务端融合后再以视频流方式推送到客户端,传输量很大。由于绝大部分工作均在服务端处理,客户端的计算能力基本没发挥,服务端容易成为性能瓶颈,难以应对多路视频接入和多用户并发访问。
目前兴起的基于WebGL的虚实融合方法属于无插件式方法,能平衡服务器和客户端的计算能力,用户体验好,但由于需要传输三维场景数据,以及WebGL本身的效率问题,只适合于小场景。
网络带宽受限、廉价客户端和多用户并发访问是Web应用需要面对的现实问题,针对Web环境的上述特点,如何平衡服务端和客户端的计算能力,减少网络数据传输量和提高融合效率是面向Web的虚实融合方法需要解决的关键问题。
发明内容
本发明的目的在于提供一种Web环境下基于深度图的虚实融合装置及方法。
本发明的技术方案是:一种Web环境下基于深度图的虚实融合装置,包括客户端和服务端,所述客户端用于提交请求和接收服务端返回的信息进行自主绘制,所述服务端用于接收客户端请求,生成客户端自主绘制需要的一系列信息并返回给客户端;
所述客户端和服务端相互间用于交互信息:所述客户端向服务端传输的信息包括主视点、视点操作类型及摄像头名称;所述服务端向客户端传输的信息包括主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、摄像头深度图及主视点背景图;
其中,所述主视点包括位置、朝向和向上方向三个矢量,所述主视点背景图和摄像头深度图采用压缩或非压缩格式,所述摄像头深度图根据客户端请求摄像头数量,为0个或多个;
其操作方法具体包括以下步骤,其中,服务端按需绘制:
1)、客户端请求参数分析:接受客户端用户请求,获取主视点、视点操作类型和摄像头名称的信息,然后根据获取的主视点重置三维引擎的主视点;根据获取的视点操作类型修改三维引擎的主视点;
2)、生成主视点背景图:生成主视点下的背景图;
3)、生成主视点深度图:生成主视点下的深度图;
4)、生成摄像头深度图:根据摄像头名称查询摄像头信息,获得摄像头视点信息,把主视点切换到摄像头视点,生成摄像头深度图;
5)、把主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、摄像头深度图和主视点背景图返回给请求的客户端;
客户端自主绘制:
1)、获取服务端传来的主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、摄像头深度图和主视点背景图;
2)、根据主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图,计算主视点背景图各像素在摄像头空间的深度值和视频纹理坐标;
3)、根据步骤2)中计算的深度值,与摄像头深度图中对应像素的深度值进行比较,确定在视频覆盖范围内的主视点背景图像素,若深度值相等,则该像素在视频覆盖范围内,用二维数组记录视频覆盖范围内的像素的视频纹理坐标,生成绘制模板;
4)、视频帧融合:对绘制模板中确定的视频覆盖范围内的所有像素,用该像素的视频纹理坐标采样视频帧作为该像素颜色,不在覆盖区的像素直接使用主视点背景图像素颜色。
本发明的有益效果是:本发明对虚实融合流程进行重构,采用前后端协同绘制架构,平衡前后端的计算能力,减轻了网络带宽压力;基于绘制模板,客户端无需GPU即可进行虚实融合,极大地提高了绘制效率,降低了客户端硬件配置要求;在客户端采用JS进行无插件式绘制,避免了浏览器与插件不兼容的问题,提高了效率与兼容性。
附图说明
图1是本发明的技术路线图;
图2是本发明中主视点的视域模型图;
图3是本发明中摄像头的视域示意图;
图4是本发明中主视点和摄像头视域融合图;
图5是本发明中纹理坐标计算步骤的结构示意图。
具体实施方式
本发明如图所述;包括客户端和服务端,所述客户端用于提交请求和接收服务端返回的信息进行自主绘制,所述服务端用于接收客户端请求,生成客户端自主绘制需要的一系列信息并返回给客户端;
所述客户端和服务端相互间用于交互信息:所述客户端向服务端传输的信息包括主视点、视点操作类型及摄像头名称;所述服务端向客户端传输的信息包括主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、摄像头深度图及主视点背景图;
其中,所述主视点包括位置、朝向和向上方向三个矢量,所述主视点背景图和摄像头深度图采用压缩或非压缩格式,所述摄像头深度图根据客户端请求摄像头数量,为0个或多个;
其操作方法具体包括以下步骤,
其中,服务端按需绘制:
1)、客户端请求参数分析:接受客户端用户请求,获取主视点、视点操作类型和摄像头名称的信息,然后根据获取的主视点重置三维引擎的主视点,根据获取的视点操作类型修改三维引擎的主视点;
2)、生成主视点背景图:根据主视点的视域(见图2),生成主视点的背景图,并把主视点的背景图各个像素的RGB值以无符号整数形式存储;
3)、生成主视点深度图:开启深度测试,根据主视点的视域(见图2),生成主视点的深度图;
4)、生成摄像头深度图:根据摄像头名称查询摄像头信息,获得摄像头视点信息,把主视点切换到摄像头视点,开启深度测试,根据摄像头的视域(见图3),生成摄像头深度图;
5)、把主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、摄像头深度图、主视点背景图返回给请求的客户端;
客户端自主绘制:
1)、获取服务器传来的主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、摄像头深度图、主视点背景图;
2)、根据主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、主视点背景图,计算主视点背景图各像素在摄像头空间的深度值和视频纹理坐标(图5):将屏幕空间中的像素坐标变换到世界坐标系,通过视图变换变换到摄像头观察坐标系,再通过摄像头投影矩阵变换到齐次裁剪坐标系,最后通过归一化和视口变换得到纹理坐标。
3)、根据步骤2)中计算的深度值,与摄像头深度图中对应像素的深度值进行比较,确定在视频覆盖范围内的主视点背景图像素,若深度值相等,则该像素在视频覆盖范围内;用二维数组记录视频覆盖范围内的像素的视频纹理坐标,生成绘制模板;如图4中,a2-b2弧面,深度值比较结果为大于,即使用模型本身纹理;a1-b2弧面,深度值比较结果为等于,即得到了绘制模板;
4)、视频帧融合:对绘制模板中确定的视频覆盖范围内的所有像素,用该像素的视频纹理坐标采样视频帧作为该像素颜色,不在覆盖区的像素直接使用主视点背景图像素颜色;在canvas标签中绘制融合之后的图。
本发明对虚实融合流程进行重构,采用前后端协同绘制架构,平衡前后端的计算能力,减轻了网络带宽压力,基于绘制模板,客户端无需GPU即可进行虚实融合,极大地提高了绘制效率,降低了客户端硬件配置要求;其次,在客户端采用JS进行无插件式绘制,避免了浏览器与插件不兼容的问题,提高了效率与兼容性。
Claims (1)
1.一种Web环境下基于深度图的虚实融合装置,其特征在于,包括客户端和服务端,所述客户端用于提交请求和接收服务端返回的信息进行自主绘制,所述服务端用于接收客户端请求,生成客户端自主绘制需要的一系列信息并返回给客户端;
所述客户端和服务端相互间用于交互信息:所述客户端向服务端传输的信息包括主视点、视点操作类型及摄像头名称;所述服务端向客户端传输的信息包括主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、摄像头深度图及主视点背景图;
其中,所述主视点包括位置、朝向和向上方向三个矢量,所述主视点背景图和摄像头深度图采用压缩或非压缩格式,所述摄像头深度图根据客户端请求摄像头数量,为0个或多个;
其操作方法的具体步骤如下:
其中,服务端按需绘制:
1)、客户端请求参数分析:接受客户端用户请求,获取主视点、视点操作类型和摄像头名称的信息,然后根据获取的主视点重置三维引擎的主视点;根据获取的视点操作类型修改三维引擎的主视点;
2)、生成主视点背景图:生成主视点下的背景图;
3)、生成主视点深度图:生成主视点下的深度图;
4)、生成摄像头深度图:根据摄像头名称查询摄像头信息,获得摄像头视点信息,把主视点切换到摄像头视点,生成摄像头深度图;
5)、把主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、摄像头深度图和主视点背景图返回给请求的客户端;
客户端自主绘制:
1)、获取服务端传来的主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图、摄像头深度图和主视点背景图;
2)、根据主视点、主视点投影矩阵、摄像头视图投影矩阵、主视点深度图,计算主视点背景图各像素在摄像头空间的深度值和视频纹理坐标;
3)、根据步骤2)中计算的深度值,与摄像头深度图中对应像素的深度值进行比较,确定在视频覆盖范围内的主视点背景图像素,若深度值相等,则该像素在视频覆盖范围内,用二维数组记录视频覆盖范围内的像素的视频纹理坐标,生成绘制模板;
4)、视频帧融合:对绘制模板中确定的视频覆盖范围内的所有像素,用该像素的视频纹理坐标采样视频帧作为该像素颜色,不在覆盖区的像素直接使用主视点背景图像素颜色。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910686547.4A CN110490979B (zh) | 2019-07-29 | 2019-07-29 | 一种Web环境下基于深度图的虚实融合装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910686547.4A CN110490979B (zh) | 2019-07-29 | 2019-07-29 | 一种Web环境下基于深度图的虚实融合装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110490979A CN110490979A (zh) | 2019-11-22 |
CN110490979B true CN110490979B (zh) | 2023-07-21 |
Family
ID=68548718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910686547.4A Active CN110490979B (zh) | 2019-07-29 | 2019-07-29 | 一种Web环境下基于深度图的虚实融合装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110490979B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112383591B (zh) * | 2020-10-27 | 2024-02-23 | 西安万像电子科技有限公司 | 图像管理方法、设备及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106887032A (zh) * | 2015-12-15 | 2017-06-23 | 中国电信股份有限公司 | 三维场景渲染方法和系统以及相关设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108282449B (zh) * | 2017-01-06 | 2020-10-09 | 华为技术有限公司 | 一种应用于虚拟现实技术的流媒体的传输方法和客户端 |
-
2019
- 2019-07-29 CN CN201910686547.4A patent/CN110490979B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106887032A (zh) * | 2015-12-15 | 2017-06-23 | 中国电信股份有限公司 | 三维场景渲染方法和系统以及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110490979A (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102319177B1 (ko) | 이미지 내의 객체 자세를 결정하는 방법 및 장치, 장비, 및 저장 매체 | |
WO2020001168A1 (zh) | 三维重建方法、装置、设备和存储介质 | |
WO2019238114A1 (zh) | 动态模型三维重建方法、装置、设备和存储介质 | |
US20160021355A1 (en) | Preprocessor for Full Parallax Light Field Compression | |
WO2012037863A1 (zh) | 三维模型数据化简、渐进传输方法及装置 | |
CN106846495B (zh) | 实现增强现实的方法与装置 | |
CN111652961B (zh) | 一种基于gpu的气象数据体绘制方法 | |
CN102930593B (zh) | 一种双目系统中基于gpu的实时绘制方法 | |
CN111932663B (zh) | 基于多层级非对称通信管理的并行绘制方法 | |
CN113873264A (zh) | 显示图像的方法、装置、电子设备及存储介质 | |
CN110598139A (zh) | 基于5G云计算的Web浏览器增强现实实时定位的方法 | |
CN113256781A (zh) | 虚拟场景的渲染和装置、存储介质及电子设备 | |
CN112085031A (zh) | 目标检测方法及系统 | |
WO2023207379A1 (zh) | 图像处理方法、装置、设备及存储介质 | |
CN110490979B (zh) | 一种Web环境下基于深度图的虚实融合装置及方法 | |
CN110418127B (zh) | 一种Web环境下基于像素模板的虚实融合装置的操作方法 | |
CN116248955A (zh) | 一种基于ai抽帧补帧的vr云渲染图像增强方法 | |
CN110740352A (zh) | 显卡透传环境下基于spice协议的差异图像显示方法 | |
CN114968152A (zh) | 减少virtio-gpu额外性能损耗的方法 | |
CN109872268B (zh) | 一种高码速率遥感卫星原始数据实时快视方法 | |
CN115761190A (zh) | 基于场景映射的多用户增强现实相片浏览方法及系统 | |
CN111311645A (zh) | 超高清视频切画目标跟踪识别方法 | |
CN111383158A (zh) | 遥感图像预处理方法 | |
CN113254123A (zh) | 云桌面场景的识别方法和装置、存储介质及电子装置 | |
CN107451540B (zh) | 一种可压缩的3d识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |