CN113810734A - 视频融合方法、装置、设备、系统及计算机可读存储介质 - Google Patents

视频融合方法、装置、设备、系统及计算机可读存储介质 Download PDF

Info

Publication number
CN113810734A
CN113810734A CN202010542387.9A CN202010542387A CN113810734A CN 113810734 A CN113810734 A CN 113810734A CN 202010542387 A CN202010542387 A CN 202010542387A CN 113810734 A CN113810734 A CN 113810734A
Authority
CN
China
Prior art keywords
video fusion
video
picture
filled
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010542387.9A
Other languages
English (en)
Other versions
CN113810734B (zh
Inventor
黄黎滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Uniview Technologies Co Ltd
Original Assignee
Zhejiang Uniview Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Uniview Technologies Co Ltd filed Critical Zhejiang Uniview Technologies Co Ltd
Priority to CN202010542387.9A priority Critical patent/CN113810734B/zh
Publication of CN113810734A publication Critical patent/CN113810734A/zh
Application granted granted Critical
Publication of CN113810734B publication Critical patent/CN113810734B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种视频融合方法、装置、设备、系统及计算机可读存储介质;在本方案中,服务端仅执行渲染操作,不需要执行视频融合操作,服务端将视频融合区域的位置、待填充位置及渲染后的图像画面发送至客户端后,由客户端执行视频融合操作。可以看出,由于本方案在进行视频融合时,服务端不执行视频融合操作,因此客户端便不需要将实况视频传输到服务端,因此服务端也不需要对视频进行解码,从而有效的减少网络带宽对视频传输带来的影响,并将视频解码性能分摊到客户端上,有效的降低了服务端由于视频融合带来的性能压力,提升了多路视频融合渲染性能。

Description

视频融合方法、装置、设备、系统及计算机可读存储介质
技术领域
本发明涉及视频处理技术领域,更具体地说,涉及一种视频融合方法、装置、设备、系统及计算机可读存储介质。
背景技术
随着三维地图应用的广泛普及,三维地图的视频融合及渲染对于客户端和服务器的性能压力越来越大。目前,可通过客户端或者服务端在渲染三维模型时进行视频融合渲染,客户端在执行该过程时,由于不需要将视频发送至服务端,可以有效的减少网络带宽对视频传输带来的影响,避免网络宽带较差时,由于服务端不能及时接收到视频,导致不能进行视频融合的现象出现,但是通过客户端执行该过程时,需要对视频进行解码后再执行视频融合及渲染操作,对本地客户端的性能要求非常高;服务端在执行该过程时,虽然可以降低对本地客户端的性能要求,但是服务器在进行融合之前,同样需要对接收到的视频进行解码,然后再执行视频融合及渲染过程,性能压力也很大,势必会极大的影响服务器的渲染能力。
发明内容
本发明的目的在于提供一种视频融合方法、装置、设备、系统及计算机可读存储介质,以降低视频融合给服务端和客户端带来的性能压力,提升服务端和客户端的视频融合及渲染性能。
为实现上述目的,本发明提供一种视频融合方法,所述视频融合方法基于服务端,包括:
接收客户端发送的渲染请求,并生成对应的渲染后的图像画面;
利用所述渲染请求确定三维场景下的当前视角点位置,根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
将所述视频融合区域的位置、所述待填充位置及渲染后的图像画面发送至所述客户端,以使所述客户端将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
其中,所述根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置,包括:
获取所述当前视角点位置下的视频融合区域的第一三维坐标;
确定所述第一三维坐标在成像平面的第二三维坐标;
将所述第二三维坐标转换为二维屏幕坐标,并根据所述成像平面的长宽值获得所述视频融合区域在成像平面上的二维比例坐标,以通过所述二维比例坐标确定渲染后的图像画面中的待填充位置。
其中,所述确定所述第一三维坐标在成像平面的第二三维坐标,包括:
在三维场景下,确定当前视角点与所述视频融合区域间的成像平面;
将所述当前视角点位置与所述视频融合区域的第一三维坐标连线,将连线与所述成像平面交点的三维坐标作为所述第一三维坐标在所述成像平面的第二三维坐标。
为实现上述目的,本发明进一步提供一种视频融合方法,所述视频融合方法基于客户端,包括:
向服务端发送渲染请求,以使所述服务端生成对应的渲染后的图像画面,根据所述渲染请求确定三维场景下的当前视角点位置,并根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置,
接收所述服务端发送的所述视频融合区域的位置、所述待填充位置及渲染后的图像画面;
将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
其中,所述将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置,包括:
获取摄像机拍摄的至少一路实况视频的实况画面;
根据所述视频融合区域的位置确定所述实况画面中的目标实况画面;
将所述目标实况画面的像素值通过删减或者插值方式,替换所述渲染后的图像画面中待填充位置的像素值。
为实现上述目的,本发明进一步提供一种视频融合装置,所述视频融合装置基于服务端,包括:
第一接收模块,用于接收客户端发送的渲染请求,并生成对应的渲染后的图像画面;
当前视角点位置确定模块,用于利用所述渲染请求确定三维场景下的当前视角点位置;
待填充位置确定模块,用于根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
第一发送模块,用于将所述视频融合区域的位置、所述待填充位置及渲染后的图像画面发送至所述客户端,以使所述客户端将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
为实现上述目的,本发明进一步提供一种视频融合装置,所述视频融合装置基于客户端,包括:
第二发送模块,用于向服务端发送渲染请求,以使所述服务端生成对应的渲染后的图像画面,根据所述渲染请求确定三维场景下的当前视角点位置,并根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
第二接收模块,用于接收所述服务端发送的所述视频融合区域的位置、所述待填充位置及渲染后的图像画面;
填充模块,用于将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
为实现上述目的,本发明进一步提供一种基于服务端的电子设备,包括:
存储器,用于存储计算机程序;处理器,用于执行所述计算机程序时实现如上述的基于服务端的视频融合的步骤。
为实现上述目的,本发明进一步提供一种基于客户端的电子设备,包括:
存储器,用于存储计算机程序;处理器,用于执行所述计算机程序时实现如上述的基于客户端的视频融合的步骤。
为实现上述目的,本发明进一步提供一种视频融合系统,包括上述的基于服务端的电子设备和基于客户端的电子设备。
通过以上方案可知,本发明实施例提供的一种视频融合方法、装置、设备、系统及计算机可读介质;在本方案中,服务端仅执行渲染操作,不需要执行视频融合操作,也即:服务端将视频融合区域的位置、待填充位置及渲染后的图像画面发送至客户端后,通过客户端执行视频融合操作。由于本方案在进行视频融合时,服务端不执行视频融合操作,因此客户端便不需要将实况视频传输到服务端,因此服务端也不需要对视频进行解码,从而有效的减少网络带宽对视频传输带来的影响,并将视频解码性能分摊到客户端上,有效的降低了服务端由于视频融合带来的性能压力,提升了多路视频融合渲染性能。
附图说明
为了更清楚地说明本发明实施例或背景技术中的技术方案,下面将对实施例或背景技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例公开的实况画面示意图;
图2为本发明实施例公开的一种视频融合系统结构示意图;
图3为本发明实施例公开的一种视频融合方法流程示意图;
图4为本发明实施例公开的基于虚拟相机的画面示意图;
图5为本发明实施例公开的成像平面中的四边形示意图;
图6为本发明实施例公开的虚拟摄像机投影示意图;
图7为本发明实施例公开的另一种视频融合方法流程示意图;
图8为本发明实施例公开的一种裁剪画面示意图;
图9为本发明实施例公开的一种视频融合装置结构示意图;
图10为本发明实施例公开的另一种视频融合装置结构示意图;
图11为本发明实施例公开的一种基于服务端的电子设备结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
可以理解的是,三维地图下的视频融合,即在三维模型中叠加摄像机实况或者回放视频的功能,即在原有的三维模型下,根据摄像机的安装位置,将摄像机视频画面以投影或者幕布的方式在三维中渲染播放,通常需要将摄像机视频解码后以三维材质的方式添加到三维引擎中,并且实时解码渲染,以达到动态的三维地图效果。通常会以倾斜摄影模型来呈现,这样会使得效果更加的逼真。其中,幕布即在三维场景中增加一块多边形平面,也可以是空间多边形,即不在同一平面上,幕布方式的视频融合,视频画面是播放在幕布上的,并不在三维模型上,旋转角度后可以明显看到幕布与三维模型之间的间隙。投影即在三维场景中直接改变三维模型的材质,类似播放电影和幻灯片一样将视频画面投影到三维模型上,模型上的材质发生改变,这种方式视频是贴合在三维模型上,任意旋转角度后是看不到间隙的。参见图1,为本实施例公开的在倾斜摄影的三维场景中叠加摄像机1的实况画面示意图。
目前,三维城市地图类型主要有白模城市模型、精细城市模型以及倾斜摄影模型。传统的地图加载方式,是将底图和模型文件加载到本地,然后用本地PC机渲染显示,也就是说在放大缩小移动等操作的情况下,会去获取底图和模型文件,传输到本地PC后,由客户端或者浏览器来渲染显示。这种方式下相对来说服务端的压力较轻,只需要根据坐标位置实时计算后传输文件即可,本地PC渲染压力较大,尤其在需要渲染三维模型的情况下,需要高性能的PC机。
进而,考虑到本地PC渲染所带来的高性能配置要求,部分厂家开始将渲染工作转移到服务端,在服务端增加高性能的显卡,由服务器进行渲染后,通过虚拟相机(即三维场景中的视角点位置)获得渲染后的画面,将渲染画面压缩后进行视频流传输,本地客户端PC只需要和播放实时视频一样解码播放即可,当需要互动操作时,将鼠标位置信息发送给服务端,服务器将虚拟相机移动或缩放到所需的位置,再将新画面压缩传输,继而达到实时交互的要求。这种方式下,本地客户端PC配置要求会大大降低,只需要一台普通的笔记本电脑即可查看高清晰度的三维城市地图。当然对服务器的配置要求会很高,并且能同时查看的互动的客户端数量也是有限制的,这样的情况下如果要增加视频融合业务,必然会增加服务器的负担,在需要渲染原有三维模型的情况下,同时需要解码一路或者几路的高清视频,从而大大降低了服务器的渲染能力。
因此在本申请中,公开了一种视频融合方法、装置、设备、系统及计算机可读存储介质,以降低视频融合带来的性能压力,提升视频融合渲染性能。为了便于理解,下面对本申请的技术方案所适用的系统架构进行介绍,参见图2,为本发明实施例公开的一种视频融合系统结构示意图;该系统包括客户端11和服务器12。
客户端11为操作者查看三维地图的终端,如:计算机、平板电脑、手机等终端设备。操作者通过客户端查看三维地图时,在执行放大缩小移动等操作的情况下,会向服务器发送渲染请求,服务器根据该请求执行渲染操作。
服务器12接收客户端发送的渲染请求,并生成对应的渲染后的图像画面,再利用所述渲染请求确定三维场景下的当前视角点位置,根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置,并将视频融合区域的位置、待填充位置及渲染后的图像画面发送至客户端,通过客户端11将实况画面中与所述视频融合区域的位置对应的画面,填充至图像画面中的待填充位置。
可以看出,本方案在服务端渲染的基础上,将视频融合业务直接在客户端PC上叠加,将视频解码性能分摊到客户端上,即通过客户端在三维渲染后的实时画面中叠加实况画面,将两种融合在一起。服务端在配置好视频融合的位置后,不需要叠加视频,仅需要渲染原有的三维模型即可。通过本方案,视频流不需要在传输到服务端,仅在服务器上进行视频渲染融合到三维模型中,视频融合业务极大的降低了服务器的性能压力,而对于用户来说丝毫不会有任何视觉上的差异体验。
参见图3,本发明实施例提供的一种视频融合方法流程示意图;其中,本实施例所述的视频融合方法基于服务端,具体包括:
S101、接收客户端发送的渲染请求,并生成对应的渲染后的图像画面;
在本申请中,客户端为操作者查看三维地图的终端,并且,操作者通过客户端查看三维地图时,在执行放大缩小移动等操作的情况下,均会向服务器发送渲染请求,服务端接收到该渲染请求后,便执行渲染操作。
需要说明的是,目前的视频融合方案大多都是在客户端本地上或者在服务器上增加幕布或者投影的方式,将实况画面融合到三维场景中去。在本申请中,首先需要在服务端配置好摄像机点位和所需投影位置或者幕布位置,该投影位置或者幕布位置即为本申请所述的视频融合区域的位置。具体来说,视频融合目前都是需要手动配置的,通过对点的方式完成,在本实施例中为了方便描述,以幕布为例,配置幕布所在的位置,例如图1中的四边形ABCD,配置后实况视频画面能和倾斜摄影模型大致匹配在一起。
S102、利用渲染请求确定三维场景下的当前视角点位置,根据当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
需要说明的是,客户端的系统启动后,便会有一个初始视角点位置,客户端的操作者通过客户端查看三维地图时,若通过鼠标、键盘等装置执行了放大缩小移动等操作,则当前视角点位置就会发生改变。因此客户端向服务端发送的渲染请求中,会携带了操作者执行放大缩小移动等操作的执行参数,服务器通过该执行参数便可更新当前视角点位置。例如:若系统启动后的初始视角点位置为位置一,此时操作者执行了画面缩小操作,客户端便将该画面缩小操作的执行参数作为渲染请求中携带的参数发送给服务器,服务器通过分析该执行参数确定当前视角点位置,此时的位置便更新为位置二。
可以理解的是,三维场景中查看当前视角点位置下的画面时,具体是通过三维引擎中的虚拟相机来查看的,虚拟相机所在的位置就是视角点位置,当前视角点位置下看到的画面即是虚拟相机拍摄后的成像画面,参见图4,为本发明实施例提供的基于虚拟相机的画面示意图,图中由ABCD组成的四边形即为当前视角点位置下的视频融合区域。本申请在确定待填充位置时,具体为:在平行于近裁剪面和远裁剪面之间的成像平面中,将虚拟相机与ABCD连线后获得的成像平面中的abcd作为待填充位置。
需要说明的是,如果当前视角点位置下不存在视频融合区域,则直接将融合后的画面压缩成视频流传输给客户端,否则,继续执行根据当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置这一步骤。
S103、将视频融合区域的位置、待填充位置及渲染后的图像画面发送至客户端,以使客户端将实况画面中与视频融合区域的位置对应的画面,填充至图像画面中的待填充位置。
在本申请中,该视频融合区域的位置和待填充位置均为二维坐标位置。服务器计算出视频融合区域的位置和待填充位置之后,需要将上述两个位置发送至客户端。客户端发现有位置信息传回时,请求摄像机视频流,将需要填充的待填充位置替换成摄像机裁剪后的视频码流。
综上可以看出,本方案在原有服务端渲染三维模型的基础上,为了解决三维模型中进行视频融合后性能压力问题,采用服务端渲染的情况下,通过客户端进行多路视频的融合叠加,使得视频融合业务不再影响服务端的三维渲染能力,再不增加服务器和客户端硬件性能的情况下,极大的增加视频融合解码能力,提高解码路数。
基于上述实施例,在本实施例中,根据当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置时,具体包括如下:
S11、获取所述当前视角点位置下的视频融合区域的第一三维坐标;
需要说明的是,由于服务端已经预先配置完所有视频融合的幕布位置或投影位置,即整个三维场景中所有适合配置视频叠加的位置都配置完成。因此,若当前视角点位置下存在视频融合区域,则可从预先配置的内容中获取该视频融合区域的三维坐标,在本申请中,为了区分,将当前视角点位置下的视频融合区域的三维坐标称为第一三维坐标。需要说明的是,该第一三维坐标的数量可以看出视频融合区域的形状确定,如图4中的视频融合区域为四边形,则对应的第一三维坐标包括:A位置处的三维坐标、B位置处的三维坐标、C位置处的三维坐标和D位置处的三维坐标。
S12、确定所述第一三维坐标在成像平面的第二三维坐标;
其中,本申请在确定第一三维坐标在成像平面的第二三维坐标时,包括如下步骤:在三维场景下,确定当前视角点与所述视频融合区域间的成像平面;将当前视角点位置与视频融合区域的第一三维坐标连线,将连线与成像平面交点的三维坐标作为第一三维坐标在成像平面的第二三维坐标。
参见图4,若在三维场景中增加四边形ABCD作为幕布,在三维虚拟相机的当前视角点P位置下的成像画面中同样可以看到四边形ABCD,通过P点分别与ABCD四个点的连线,可以在成像平面中得到abcd四边形。该成像平面是平行于近裁剪面和远裁剪面之间的任意平面,记录下四边形abcd的世界坐标系下的三维坐标,在本实施例中,将该三维坐标称为第二三维坐标,参见图5,为本实施例公开的成像平面中的四边形示意图,将第二三维坐标用POS1,POS2,POS3,POS4进行标记。该第二三维坐标具体可以根据当前视角点位置、第一三维坐标和成像平面位置确定。
S13、将所述第二三维坐标转换为二维屏幕坐标,并根据所述成像平面的长宽值获得所述视频融合区域在成像平面上的二维比例坐标,以通过所述二维比例坐标确定渲染后的图像画面中的待填充位置。
需要说明的是,本申请计算出第二三维坐标POS1,POS2,POS3,POS4的位置后,需要将POS1、POS2、POS3、POS4这几个三维坐标转换成二维比例坐标,通过该二维比例坐标便可确定渲染后的图像画面中的待填充位置。具体来说,该步骤包括如下几个步骤:
1)计算虚拟摄像机的投影矩阵Mp。由于虚拟摄像机为透视投影,其数学上的意义为截锥六面体,参见图6,为本实施例所述的虚拟摄像机投影示意图,若近裁剪面的左下角坐标为(l,b,n),近裁剪面的右上角坐标为(r,t,n),近裁剪面距离为n,远裁剪面距离为f,通过六个平面和相关点的运算可以推导得到:
Figure BDA0002539436830000091
其中,
Figure BDA0002539436830000092
2)计算虚拟摄像机的视图矩阵,即从世界三维坐标系转换到摄像机二维坐标系的换算矩阵Mv。视图矩阵包含两部分,虚拟摄像机的旋转变换矩阵R和位移变换矩阵T,视图矩阵为:
Figure BDA0002539436830000101
3)通过四边形abcd世界三维坐标计算相机坐标系下的二维坐标,以a点为例,POS1=(x1,y1,z1),可推导该点相机坐标系下的空间坐标V=(x1',y1',n),其中,V=Mv·Mp·POS1。
4)记当前成像平面的长宽值分别为:w、h,此时四边形abcd在屏幕中的比例坐标就是(x1'/w,y1'/h),(x2'/w,y2'/h),(x3'/w,y3'/h),(x4'/w,y4'/h)。
进一步,得到二维比例坐标(x1'/w,y1'/h),(x2'/w,y2'/h),(x3'/w,y3'/h),(x4'/w,y4'/h)后,只需要在这个区域内填充摄像机视频画面即可,填充方式为:清除三维渲染画面中这个区域的视频像素值,填充对应的真实相机的实况像素值。
需要说明的是,本实施例中的幕布同样可以是多边形,甚至是空间多边形(多边形不在一个平面上),但是,幕布是空间多边形的情况与幕布在同一平面的情况相同,同样可将多边形的各个顶点,分别与成像平面相交,得到三维世界坐标,随后通过坐标转换,得到相机坐标系下的二维空间坐标,再根据屏幕的长宽大小,获得屏幕中的比例坐标,同样视频画面也会进行多个点的裁剪,最后将裁剪后的视频替换到对应位置。
综上可以看出,由于目前无论是客户端渲染方式还是服务端渲染方式,都无法解决视频融合后的性能压力,随着叠加的视频路数的增加,都会成倍的增加渲染性能压力,导致正常的三维渲染能力下降。因此在本方案中,为了解决在三维地图中视频融合后性能瓶颈问题,提出了利用服务端进行三维渲染,并在对位置计算后发送至客户端,通过客户端将摄像机视频流叠加到服务端渲染后的视频流中,达到视频融合的效果,有效的降低了服务端由于视频融合带来的性能压力,提升了多路视频融合渲染性能。
参见图7,为本发明实施例提供的一种视频融合方法流程示意图;需要说明的是,本实施例所述的融合方法是基于客户端的执行的,上述实施例所述的融合方法是基于服务端执行的,两者仅仅执行角度是不同的,因此相同部分可以相互参照。
在本实施例中,该视频融合方法具体包括:
S201、向服务端发送渲染请求,以使服务端生成对应的渲染后的图像画面,根据渲染请求确定三维场景下的当前视角点位置,并根据当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
S202、接收服务端发送的视频融合区域的位置、待填充位置及渲染后的图像画面;
S203、将实况画面中与视频融合区域的位置对应的画面,填充至图像画面中的待填充位置。
其中,本方案将实况画面中与视频融合区域的位置对应的画面,填充至图像画面中的待填充位置,包括:
获取摄像机拍摄的至少一路实况视频的实况画面;根据视频融合区域的位置确定实况画面中的目标实况画面;将目标实况画面的像素值通过删减或者插值方式,替换渲染后的图像画面中待填充位置的像素值。
需要说明的是,由于本方案具体是通过服务端执行渲染操作,将视频融合的压力分摊至客户端,因此本方案在执行多路视频融合操作时不会出现性能压力。客户端接收到服务端发送的视频融合区域的位置、待填充位置及渲染后的图像画面后,发现该图像画面需要融合多路视频,则从摄像机获取对应的视频,从而填充至对应的待填充位置。
可以理解的是,服务器在预先配置时,需要区分摄像机视频画面是否进行过裁剪,因为视频画面并不是完整的贴合到三维模型中的,为了和三维模型对应,在视频融合的配置过程中有些画面被过度拉伸,而过度拉伸的部分画面会被裁剪掉,不需要再放到三维渲染中去。因此服务器在预先配置幕布位置ABCD之外,还需要记录视频裁剪的位置,参见图8,为本发明实施例提供的一种裁剪画面示意图,幕布位置为ABCD,其中BDE这个三角是要裁剪的,那就需要记录E点的坐标,此时服务端向客户端发送的视频融合区域的位置、待填充位置应该分别为ABCE和abcd。
在进行视频融合时,无论是否需要裁剪视频画面,最终均需要按照对应点的位置填充到三维渲染画面中,即A点对应a点,B点对应b点,C点对应c点,D点或E点对应d点,也即:如果ABCD中不存在裁剪位置,则将ABCD填充至abcd,如果存在裁剪位置E,则将ABCE填充至abcd。在此具体以ABCE填充至abcd为例进行说明:在填充时,由于ABCD(E)和abcd两个图像中像素点数量不一致,因此存在缩放计算,即按照比例关系将ABCE的像素点删减或者插值的方式填充至abcd,然后才将视频融合后的视频画面在客户端上进行播放显示。该填充过程具体可包括如下步骤:
1)首先计算三维渲染画面中的abcd所占像素值;假设三维渲染画面的分辨率是1920*1080,根据abcd四个点所在的比例坐标,分别计算acbd四条边的长度。
2)根据acbd四条边的长度,对ABCE视频的像素值计算;假设ABCD视频的分辨率同样是1920*1080,即AB边的像素值需删减后和ab边相同。
3)分别将AB、BE、EC、CA四条边与ab、bd、dc、ca四边删减或者插值后相等,然后逐个像素点进行替换。
其中,本申请中的删减或者插值方式具体为:
若目标实况画面的像素值大于待填充位置的像素值,则通过删减方式,将目标实况画面的像素值均匀删减后替换待填充位置的像素值,如:若目标实况画面的像素值为100,待填充位置的像素值为10,则从100个像素值中均匀删除像素值后剩余10个像素值填充至待填充位置;若目标实况画面的像素值小于待填充位置的像素值,则通过插值方式,将目标实况画面的像素值均匀插值替换待填充位置的像素值,如:若目标实况画面的像素值为10,待填充位置的像素值为100,则将这10个像素值均匀插值替换至待填充位置的100个像素值中,从而实现在目标实况画面与待填充位置的像素值不同的情况下,实现了两个画面的融合。
综上可以看出,本申请通过服务端利用三维投影关系计算得到融合视频在三维渲染视频流中的待填充位置,通过客户端将实况像素值与待填充位置的像素值按照比例关系进行像素点删减或者插值计算,替换到三维渲染视频流中。这种由客户端实现像素值替换过程的方式,可将视频解码能力分摊到到各个客户端PC机上,从而使得视频融合性能压力分别由服务器和客户端PC来完成,融合路数取决于各自PC机实况解码性能,降低了服务器的视频渲染压力。
下面对本发明实施例提供的视频融合装置进行介绍,下文描述的视频融合装置与上文描述的视频融合方法可以相互参照。
参见图9,本发明实施例提供的一种视频融合装置结构示意图;所述视频融合装置基于服务端,包括:
第一接收模块21,用于接收客户端发送的渲染请求,并生成对应的渲染后的图像画面;
当前视角点位置确定模块22,用于利用所述渲染请求确定三维场景下的当前视角点位置;
待填充位置确定模块23,用于根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
第一发送模块24,用于将所述视频融合区域的位置、所述待填充位置及渲染后的图像画面发送至所述客户端,以使所述客户端将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
其中,所述待填充位置确定模块包括:
第一坐标获取单元,用于获取所述当前视角点位置下的视频融合区域的第一三维坐标;
第二坐标确定单元,用于确定所述第一三维坐标在成像平面的第二三维坐标;
坐标转换单元,用于将所述第二三维坐标转换为二维屏幕坐标,并根据所述成像平面的长宽值获得所述视频融合区域在成像平面上的二维比例坐标,以通过所述二维比例坐标确定渲染后的图像画面中的待填充位置。
其中,所述坐标确定单元具体用于:在三维场景下,确定当前视角点与所述视频融合区域间的成像平面;将所述当前视角点位置与所述视频融合区域的第一三维坐标连线,将连线与所述成像平面交点的三维坐标作为所述第一三维坐标在所述成像平面的第二三维坐标。
参见图10,本发明实施例提供的一种视频融合装置结构示意图;所述视频融合装置基于客户端,包括:
第二发送模块31,用于向服务端发送渲染请求,以使所述服务端生成对应的渲染后的图像画面,根据所述渲染请求确定三维场景下的当前视角点位置,并根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
第二接收模块32,用于接收所述服务端发送的所述视频融合区域的位置、所述待填充位置及渲染后的图像画面;
填充模块33,用于将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
其中,所述填充模块包括:
实况画面获取单元,用于获取摄像机拍摄的至少一路实况视频的实况画面;
目标实况画面确定单元,用于根据所述视频融合区域的位置确定所述实况画面中的目标实况画面;
像素值替换单元,用于将所述目标实况画面的像素值通过删减或者插值方式,替换所述渲染后的图像画面中待填充位置的像素值。
参见图11,为本发明实施例公开的一种基于服务端的电子设备结构示意图;包括:存储器41,用于存储计算机程序;处理器42,用于执行计算机程序时实现上述任意方法实施例所述的基于服务端的视频融合方法的步骤。
进一步,本申请还公开了另一种基于客户端的电子设备,该设备包括:存储器,用于存储计算机程序;处理器,用于执行所述计算机程序时实现上述任意方法实施例所述的基于客户端的视频融合方法的步骤。
需要说明的是,若该电子设备为基于服务端,则该电子设备可以为服务器,如果该电子设备基于客户端,则该电子设备可以为计算机、平板电脑、手机等终端设备。具体来说,该电子设备可以包括存储器41、处理器42和总线43。
其中,存储器41包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序,该存储器为非易失性存储介质中的操作系统和计算机可读指令的运行提供环境。处理器42在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,为网关设备提供计算和控制能力,执行所述存储器41中保存的计算机程序时,可以实现前述任一实施例公开的视频融合方法的步骤。
该总线43可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
进一步地,设备还可以包括网络接口44,网络接口44可选的可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该设备与其他电子设备之间建立通信连接。
图11仅示出了具有组件41-44的设备,本领域技术人员可以理解的是,图11示出的结构并不构成对设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
进一步,本发明实施例还公开了一种视频融合系统,包括上述基于服务端的电子设备和基于客户端的电子设备。
本发明实施例还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法实施例所述基于服务端的视频融合方法的步骤,和/或,实现上述方法实施例所述的基于客户端的视频融合方法的步骤。
其中,该存储介质可以包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种视频融合方法,其特征在于,所述视频融合方法基于服务端,包括:
接收客户端发送的渲染请求,并生成对应的渲染后的图像画面;
利用所述渲染请求确定三维场景下的当前视角点位置,根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
将所述视频融合区域的位置、所述待填充位置及渲染后的图像画面发送至所述客户端,以使所述客户端将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
2.根据权利要求1所述的视频融合方法,其特征在于,所述根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置,包括:
获取所述当前视角点位置下的视频融合区域的第一三维坐标;
确定所述第一三维坐标在成像平面的第二三维坐标;
将所述第二三维坐标转换为二维屏幕坐标,并根据所述成像平面的长宽值获得所述视频融合区域在成像平面上的二维比例坐标,通过所述二维比例坐标确定渲染后的图像画面中的待填充位置。
3.根据权利要求2所述的视频融合方法,其特征在于,所述确定所述第一三维坐标在成像平面的第二三维坐标,包括:
在三维场景下,确定当前视角点与所述视频融合区域间的成像平面;
将所述当前视角点位置与所述视频融合区域的第一三维坐标连线,将连线与所述成像平面交点的三维坐标作为所述第一三维坐标在所述成像平面的第二三维坐标。
4.一种视频融合方法,其特征在于,所述视频融合方法基于客户端,包括:
向服务端发送渲染请求,以使所述服务端生成对应的渲染后的图像画面,根据所述渲染请求确定三维场景下的当前视角点位置,并根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置,
接收所述服务端发送的所述视频融合区域的位置、所述待填充位置及渲染后的图像画面;
将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
5.根据权利要求4所述的视频融合方法,其特征在于,所述将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置,包括:
获取摄像机拍摄的至少一路实况视频的实况画面;
根据所述视频融合区域的位置确定所述实况画面中的目标实况画面;
将所述目标实况画面的像素值通过删减或者插值方式,替换所述渲染后的图像画面中待填充位置的像素值。
6.一种视频融合装置,其特征在于,所述视频融合装置基于服务端,包括:
第一接收模块,用于接收客户端发送的渲染请求,并生成对应的渲染后的图像画面;
当前视角点位置确定模块,用于利用所述渲染请求确定三维场景下的当前视角点位置;
待填充位置确定模块,用于根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
第一发送模块,用于将所述视频融合区域的位置、所述待填充位置及渲染后的图像画面发送至所述客户端,以使所述客户端将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
7.一种视频融合装置,其特征在于,所述视频融合装置基于客户端,包括:
第二发送模块,用于向服务端发送渲染请求,以使所述服务端生成对应的渲染后的图像画面,根据所述渲染请求确定三维场景下的当前视角点位置,并根据所述当前视角点位置下的视频融合区域确定渲染后的图像画面中的待填充位置;
第二接收模块,用于接收所述服务端发送的所述视频融合区域的位置、所述待填充位置及渲染后的图像画面;
填充模块,用于将实况画面中与所述视频融合区域的位置对应的画面,填充至所述图像画面中的待填充位置。
8.一种基于服务端的电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至3任一项所述的基于三维地图的视频融合的步骤。
9.一种基于客户端的电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求4或5所述的基于三维地图的视频融合的步骤。
10.一种视频融合系统,其特征在于,包括如权利要求8所述的基于服务端的电子设备和如权利要求9所述的基于客户端的电子设备。
CN202010542387.9A 2020-06-15 2020-06-15 视频融合方法、装置、设备、系统及计算机可读存储介质 Active CN113810734B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010542387.9A CN113810734B (zh) 2020-06-15 2020-06-15 视频融合方法、装置、设备、系统及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010542387.9A CN113810734B (zh) 2020-06-15 2020-06-15 视频融合方法、装置、设备、系统及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN113810734A true CN113810734A (zh) 2021-12-17
CN113810734B CN113810734B (zh) 2024-04-05

Family

ID=78892542

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010542387.9A Active CN113810734B (zh) 2020-06-15 2020-06-15 视频融合方法、装置、设备、系统及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN113810734B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055700A (zh) * 2023-03-23 2023-05-02 北京清扬通信有限公司 一种降低网络流量的多路视频处理方法、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100011012A1 (en) * 2008-07-09 2010-01-14 Rawson Andrew R Selective Compression Based on Data Type and Client Capability
CN103004227A (zh) * 2010-07-14 2013-03-27 阿尔卡特朗讯公司 从多个内容项生成复合视图的方法、服务器和终端
CN109417632A (zh) * 2016-07-08 2019-03-01 Vid拓展公司 使用几何图形投影的360度视频编码
CN110800293A (zh) * 2017-06-27 2020-02-14 三星电子株式会社 用于提供多个虚拟现实视图的系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100011012A1 (en) * 2008-07-09 2010-01-14 Rawson Andrew R Selective Compression Based on Data Type and Client Capability
CN103004227A (zh) * 2010-07-14 2013-03-27 阿尔卡特朗讯公司 从多个内容项生成复合视图的方法、服务器和终端
CN109417632A (zh) * 2016-07-08 2019-03-01 Vid拓展公司 使用几何图形投影的360度视频编码
CN110800293A (zh) * 2017-06-27 2020-02-14 三星电子株式会社 用于提供多个虚拟现实视图的系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055700A (zh) * 2023-03-23 2023-05-02 北京清扬通信有限公司 一种降低网络流量的多路视频处理方法、设备及介质
CN116055700B (zh) * 2023-03-23 2023-06-20 北京清扬通信有限公司 一种降低网络流量的多路视频处理方法、设备及介质

Also Published As

Publication number Publication date
CN113810734B (zh) 2024-04-05

Similar Documents

Publication Publication Date Title
US11303881B2 (en) Method and client for playing back panoramic video
CN109983757B (zh) 全景视频回放期间的视图相关操作
US20200288097A1 (en) Method, apparatus, medium, terminal, and device for multi-angle free-perspective interaction
CN107590771B (zh) 具有用于在建模3d空间中投影观看的选项的2d视频
CN109983500B (zh) 重新投影全景视频图片的平板投影以通过应用进行渲染
US9781356B1 (en) Panoramic video viewer
KR102317524B1 (ko) 이미지 스플라이싱 방법 및 장치, 그리고 저장 매체
CN112204993B (zh) 使用重叠的被分区的分段的自适应全景视频流式传输
US8549571B2 (en) Video streaming method and system
JP2020509647A (ja) 画像のマッピングと処理方法、装置、及び、機械可読媒体
EP4300985A2 (en) Adaptive panoramic video streaming using composite pictures
KR102546358B1 (ko) 장면의 타일식 3차원 이미지 표현을 생성하기 위한 장치 및 방법
CN113223130B (zh) 一种路径漫游方法、终端设备以及计算机存储介质
CN111669561B (zh) 多角度自由视角图像数据处理方法及装置、介质、设备
CN110710203B (zh) 用于生成和渲染沉浸式视频内容的方法、系统和介质
CN114782648A (zh) 图像处理方法、装置、电子设备及存储介质
CN113891167A (zh) 投屏方法和电子设备
Frieß et al. Foveated encoding for large high-resolution displays
CN113810734B (zh) 视频融合方法、装置、设备、系统及计算机可读存储介质
CN114928718A (zh) 视频监控方法、装置、电子设备及存储介质
CN117280680A (zh) 动态网格对齐的并行方式
CN113810755B (zh) 全景视频预览的方法、装置、电子设备及存储介质
CN115512089A (zh) 一种bim模型的快速浏览方法
CN114900743A (zh) 基于视频推流的场景渲染过渡方法以及系统
CN114900742A (zh) 基于视频推流的场景旋转过渡方法以及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant