CN115546377B - 一种视频融合方法、装置、电子设备及存储介质 - Google Patents
一种视频融合方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115546377B CN115546377B CN202211528984.1A CN202211528984A CN115546377B CN 115546377 B CN115546377 B CN 115546377B CN 202211528984 A CN202211528984 A CN 202211528984A CN 115546377 B CN115546377 B CN 115546377B
- Authority
- CN
- China
- Prior art keywords
- video
- real
- time monitoring
- monitoring video
- virtual scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/02—Non-photorealistic rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种视频融合方法、装置、电子设备及存储介质,所述方法包括:获取实时监控视频;构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景,其中,所述构建GIS系统包括:在所述GIS系统中加载三维模型,构建类真实的虚拟场景;将所述实时监控视频投射到GIS系统中;对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。本发明提供的视频融合方法无需载体,能够实时且不规则裁剪融合的视频,提升了用户体验,通过将三维模型加载至GIS地理信息系统中,能够减少载体的使用,提高应用场景模拟的真实性,提高视频处理的效果。
Description
技术领域
本发明涉及视频处理技术领域,尤其涉及一种视频融合方法、装置、电子设备及存储介质。
背景技术
尽管视频处理技术和地理信息系统(Geographic Information System,简称GIS系 统)在国内外发展已经很成熟,但是不可忽视的是视频与GIS系统的融合还有很多问题待解决。
目前,视频融合技术主要采取创建载体以加载视频的方式进行拼接,这种处理方式局限于三维模型的形状,而且容易出现视频穿透模型、视频重复的问题,导致用户体验较差。
发明内容
本发明提供一种视频融合方法、装置、电子设备及存储介质,用以解决现有技术中由于受限于三维模型的形状、且容易穿透模型、使视频重复的技术问题,本发明以通过对视频不规则裁剪、构建类真实虚拟场景,以提高用户体验的目的。
第一方面,本发明提供一种视频融合方法,包括:
获取实时监控视频;
构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;
将所述实时监控视频投射到GIS系统中;
对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。
进一步,根据本发明提供的视频融合方法,所述构建GIS系统,包括:
在所述GIS系统中加载三维模型,构建类真实的虚拟场景。
进一步,根据本发明提供的视频融合方法,在所述GIS系统中加载三维模型,构建类真实的虚拟场景,包括:
构建GIS地理信息系统环境;
将获取的卫星正视影像数据加载至所述GIS地理信息系统环境中,形成数字地球场景;
同时,将三维模型加载至所述GIS地理信息系统环境中,构建类真实的虚拟场景。
进一步,根据本发明提供的视频融合方法,将所述实时监控视频投射到GIS系统中,包括:
在GIS系统中创建光照阴影,通过后处理的方式渲染所述实时监控视频;
调整光照的方向和范围模拟所述实时监控视频所对应监控摄像头的拍摄方向,确定视频真实位置信息。
进一步,根据本发明提供的视频融合方法,在所述确定视频真实位置信息之后,包括:
根据所述视频真实位置信息创建光源相机,确定光源相机的视锥投影为一个可调整大小及长宽比的矩形;
根据所述光源相机的视锥投影创建一个光照阴影矩阵,将所述光照阴影矩阵投影到三维模型上;
在所述三维模型上创建后处理,将视频的文档对象模型、光照阴影矩阵以及视频真实位置信息输入后处理中,对确定的视频真实位置进行渲染。
进一步,根据本发明提供的视频融合方法,对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中,包括:
通过框选所述实时监控视频的有效区域,获取视频有效区域的范围坐标信息;
根据所述视频有效区域的范围坐标信息创建一张有两种颜色的Base64图片;
在后处理中根据所述Base64图片的颜色,确定是否显示所述实时监控视频的颜色,以达到视频裁剪的效果。
进一步,根据本发明提供的视频融合方法,所述通过框选所述实时监控视频的有效区域,获取视频有效区域的范围坐标信息,包括:
创建所述实时监控视频的文档对象模型;
创建画布,在画布上渲染所述实时监控视频的文档对象模型,使其显示所述实时监控视频中的一帧画面,在画布上连续点选若干坐标信息,闭合坐标即获得视频有效区域的范围坐标信息。
第二方面,本发明还提供一种视频融合装置,包括:
获取模块,用于获取实时监控视频;
构建模块,用于构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;
投射模块,用于将所述实时监控视频投射到GIS系统中;
裁剪模块,用于对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。
第三方面,本发明还提供一种电子设备,包括:
处理器、存储器和总线,其中,
所述处理器和所述存储器通过所述总线完成相互间的通信;
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如上任一项中所述视频融合方法的步骤。
第四方面,本发明还提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使计算机执行如上所述视频融合方法的步骤。
第五方面,本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上任一项所述视频融合方法的步骤。
本发明提供一种视频融合方法、装置、电子设备及存储介质,所述方法包括:获取实时监控视频;构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;将所述实时监控视频投射到GIS系统中;对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。本发明提供的视频融合方法无需载体,能够实时且不规则裁剪融合的视频,提升了用户体验。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的一种视频融合方法的流程示意图;
图2是本发明提供的一种视频融合方法的整体流程示意图;
图3是本发明提供的一种视频融合装置的结构示意图;
图4是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明提供的视频融合方法,如图1所示,本发明提供一种视频融合方法,包括:
步骤101:获取实时监控视频。
在本实施例中,需要获取实时的监控视频,如车辆驾驶中,行车记录仪实时采集到的行驶视频,还可以使无人机驾驶中实时拍摄的视频,具体的获取方式可以是根据移动终端采集的方式、还可以是摄像机实时拍摄的方式,还可以是行车记录仪实时记录的方式等,具体可以根据用户的实际需要进行设定,在此不作具体限定。
步骤102:构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景。
在本实施例中,需要构建GIS (Geographic Information System,简称GIS系)系统,是指地理信息系统,通过将三维模型加载到GIS系统中的方式,构建出类真实的虚拟场景,在该虚拟场景中对获取的视频进行实时分析。其中,类真实的虚拟场景是指虚拟场景接近于真实的场景,相似度接近于百分之百的虚拟场景。
需要说明的是,在本实施例中,如图2所示,所述构建GIS系统,包括:
在所述GIS系统中加载三维模型,构建类真实的虚拟场景。
具体包括:
构建GIS地理信息系统环境;
将获取的卫星正视影像数据加载至所述GIS地理信息系统环境中,形成数字地球场景;
同时,将三维模型加载至所述GIS地理信息系统环境中,构建类真实的虚拟场景。
在本实施例中,选择支持WebGL的Cecium数字地球引擎,搭建GIS地理信息系统环境;然后加载卫星正视影像数据至GIS地理信息系统环境中,作为基础图层,形成数字地球场景;同时,将三维模型加载至GIS地理信息系统环境中,构建出类真实的虚拟场景,其中,三维模型为3D Tiles标准的b3dm格式。需要说明的是,在本实施例中,选取的是支持WebGL的Cecium数字地球引擎,在其他实施例中还可以选择其他的引擎装置,可以根据用户的实际需要进行选择,在此不作具体限定。
步骤103:将所述实时监控视频投射到GIS系统中。
在本实施例中,将得到的实时监控视频投射到GIS系统中,具体可以是,创建光照阴影,通过后处理渲染视频,调整光照的方向和范围来模拟实时监控视频所对应的监控摄像头的拍摄方向,确定出真实视频的位置信息。
步骤104:对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。
在本实施例中,需要对投射进来的实时监控视频进行不规则裁剪,裁剪的方式可以是矩形,还可以是圆形等,实现的是不规则裁剪,且将裁剪后的实时监控视频融合到构建的虚拟场景中,实现对应场景的展示。
根据本发明提供的视频融合方法,通过获取实时监控视频;构建GIS系统,通过在GIS系统中加载三维模型构建类真实的虚拟场景;将所述实时监控视频投射到GIS系统中;对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。本发明提供的视频融合方法无需载体,能够实时且不规则裁剪融合的视频,提升了用户体验;通过将三维模型加载至GIS地理信息系统中,能够减少载体的使用,提高应用场景模拟的真实性,提高视频处理的效果。
基于上述任一实施例,在本发明的一个实施例中,如图2所示,将所述实时监控视频投射到GIS系统中,包括:
在GIS系统中创建光照阴影,通过后处理的方式渲染所述实时监控视频;
调整光照的方向和范围模拟所述实时监控视频所对应监控摄像头的拍摄方向,确定视频真实位置信息。
其中,在所述确定视频真实位置信息之后,包括:
根据所述视频真实位置信息创建光源相机,确定光源相机的视锥投影为一个可调整大小及长宽比的矩形;
根据所述光源相机的视锥投影创建一个光照阴影矩阵,将所述光照阴影矩阵投影到三维模型上;
在所述三维模型上创建后处理,将视频的文档对象模型、光照阴影矩阵以及视频真实位置信息输入后处理中,对确定的视频真实位置进行渲染。
在本实施例中,需要创建光照阴影,通过后处理的方式渲染实时监控视频,然后调整光照的方向和范围模拟该实时监控视频所对应监控摄像头的拍摄方向,确定出视频真实位置信息;进而,根据监控的真实位置信息创建光源相机,确定光源相机的视锥,使投影为一个可调整大小及长宽比的矩形。
其中,具体可以是用创建的光源相机来创建一个光照阴影,使光照阴影可以投射到三维模型或底图上;然后创建一个视频dom(文档对象模型),然后再创建一个后处理,将视频dom、创建的光照阴影的矩阵、光源相机的坐标位置信息作为参数传入后处理,在后处理的glsl着色器中根据光源相机的坐标位置信息、光照阴影的矩阵确定出视频真实位置,并对其进行渲染,使其完全投射到GIS系统中。需要说明的是,文档对象模型(DocumentObject Model,简称dom),是W3C组织推荐的处理可扩展置标语言的标准编程接口,是一种与平台和语言无关的应用程序接口(API)。
根据本发明提供的视频融合方法,通过将实时监控视频投射到GIS系统中构建的虚拟场景中,能够减少载体的使用,提高应用场景模拟的真实性,提高视频处理的效果。
基于上述任一实施例,在本发明的一个实施例中,对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中,包括:
通过框选所述实时监控视频的有效区域,获取视频有效区域的范围坐标信息;
根据所述视频有效区域的范围坐标信息创建一张有两种颜色的Base64图片;
在后处理中根据所述Base64图片的颜色,确定是否显示所述实时监控视频的颜色,以达到视频裁剪的效果。
其中,所述通过框选所述实时监控视频的有效区域,获取视频有效区域的范围坐标信息,具体包括:
创建所述实时监控视频的文档对象模型;
创建画布,在画布上渲染所述实时监控视频的文档对象模型,使其显示所述实时监控视频中的一帧画面,在画布上连续点选若干坐标信息,闭合坐标即获得视频有效区域的范围坐标信息。
在本实施例中,具体是通过创建实时监控视频的dom(文档对象模型),然后创建canvas(画布),在canvas上渲染实时监控视频的dom,使其显示该视频中的一帧画面,在canvas上连续点选若干坐标,闭合坐标即获得一个视频有效区域,进而得到该视频有效区域的范围坐标信息。
进一步的,根据上述获得的闭合区域坐标,将整个canvas渲染成区域内为颜色1,区域外为颜色2的区域,且将canvas保存为Base64的图片,其中,Base64是一种基于64个可打印字符来表示二进制数据的表示方法。
然后,根据上述保存的Base64图片创建图片dom,将图片dom传入创建的后处理中,在后处理的glsl中根据图片的颜色来确定该像素点是否显示视频颜色。其中,颜色1和颜色2是任意两种不同的颜色,可以根据用户的实际需要进行选择,在此不作具体限定。
根据本发明提供的视频融合方法,在GIS系统中构建的虚拟场景中能够实现对实时监控视频的任意形式的裁剪,不受规则限制,提高视频处理的效果,满足用户的各种需求,提升了用户体验。
图3为本发明提供的视频融合装置,如图3所示,本发明提供的视频融合装置,包括:
获取模块301,用于获取实时监控视频;
构建模块302,用于构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;其中,所述构建GIS系统包括:在所述GIS系统中加载三维模型,构建类真实的虚拟场景;
投射模块303,用于将所述实时监控视频投射到GIS系统中;
裁剪模块304,用于对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。
根据本发明提供的视频融合装置,通过获取实时监控视频;构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;将所述实时监控视频投射到GIS系统中;对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。本发明提供的视频融合装置无需载体,能够实时且不规则裁剪融合的视频,提升了用户体验;通过将三维模型加载至GIS地理信息系统中,能够减少载体的使用,提高应用场景模拟的真实性,提高视频处理的效果。
由于本发明实施例所述方法与上述实施例所述系统的原理相同,对于更加详细的解释内容在此不再赘述。
图4为本发明实施例中提供的电子设备实体结构示意图,如图4所示,本发明提供一种电子设备,包括:处理器(processor)401、存储器(memory)402和总线403;
其中,处理器401、存储器402通过总线403完成相互间的通信;
处理器401用于调用存储器402中的程序指令,以执行上述各方法实施例中所提供的方法,例如包括:获取实时监控视频;构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;其中,所述构建GIS系统包括:在所述GIS系统中加载三维模型,构建类真实的虚拟场景;将所述实时监控视频投射到GIS系统中;对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。
本发明实施例中提供一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使所述计算机执行上述各方法实施例中所提供的方法,例如包括:获取实时监控视频;构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;其中,所述构建GIS系统包括:在所述GIS系统中加载三维模型,构建类真实的虚拟场景;将所述实时监控视频投射到GIS系统中;对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。
本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各实施例所提供的方法,该方法包括:获取实时监控视频;构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;其中,所述构建GIS系统包括:在所述GIS系统中加载三维模型,构建类真实的虚拟场景;将所述实时监控视频投射到GIS系统中;对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例中所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (7)
1.一种视频融合方法,其特征在于,包括:
获取实时监控视频;
构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;其中,所述构建GIS系统包括:在所述GIS系统中加载三维模型,构建类真实的虚拟场景;
在GIS系统中创建光照阴影,通过后处理的方式渲染所述实时监控视频;
调整光照的方向和范围模拟所述实时监控视频所对应监控摄像头的拍摄方向,确定视频真实位置信息以将所述实时监控视频投射到GIS系统中;
根据所述视频真实位置信息创建光源相机,确定光源相机的视锥投影为一个可调整大小及长宽比的矩形;
根据所述光源相机的视锥投影创建一个光照阴影矩阵;
将视频的文档对象模型、光照阴影矩阵以及光源相机的坐标位置信息作为参数输入后处理中,在后处理的glsl着色器中对确定的视频真实位置进行渲染;
对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。
2.根据权利要求1所述的视频融合方法,其特征在于,在所述GIS系统中加载三维模型,构建类真实的虚拟场景,包括:
构建GIS地理信息系统环境;
将获取的卫星正视影像数据加载至所述GIS地理信息系统环境中,形成数字地球场景;
同时,将三维模型加载至所述GIS地理信息系统环境中,构建类真实的虚拟场景。
3.根据权利要求1所述的视频融合方法,其特征在于,对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中,包括:
通过框选所述实时监控视频的有效区域,获取视频有效区域的范围坐标信息;
根据所述视频有效区域的范围坐标信息创建一张有两种颜色的Base64图片;
在后处理中根据所述Base64图片的颜色,确定是否显示所述实时监控视频的颜色,以达到视频裁剪的效果。
4.根据权利要求3所述的视频融合方法,其特征在于,所述通过框选所述实时监控视频的有效区域,获取视频有效区域的范围坐标信息,包括:
创建所述实时监控视频的文档对象模型;
创建画布,在画布上渲染所述实时监控视频的文档对象模型,使其显示所述实时监控视频中的一帧画面,在画布上连续点选若干坐标信息,闭合坐标即获得视频有效区域的范围坐标信息。
5.一种视频融合装置,其特征在于,包括:
获取模块,用于获取实时监控视频;
构建模块,用于构建GIS系统,通过仿真在所述GIS系统中构建类真实的虚拟场景;其中,所述构建GIS系统包括:在所述GIS系统中加载三维模型,构建类真实的虚拟场景;
投射模块,用于在GIS系统中创建光照阴影,通过后处理的方式渲染所述实时监控视频;调整光照的方向和范围模拟所述实时监控视频所对应监控摄像头的拍摄方向,确定视频真实位置信息以将所述实时监控视频投射到GIS系统中;根据所述视频真实位置信息创建光源相机,确定光源相机的视锥投影为一个可调整大小及长宽比的矩形;根据所述光源相机的视锥投影创建一个光照阴影矩阵;将视频的文档对象模型、光照阴影矩阵以及光源相机的坐标位置信息作为参数输入后处理中,在后处理的glsl着色器中对确定的视频真实位置进行渲染;
裁剪模块,用于对所述实时监控视频进行不规则裁剪,将裁剪后的实时监控视频融合到构建的虚拟场景中。
6.一种电子设备,其特征在于,包括:处理器、存储器和总线,其中,
所述处理器和所述存储器通过所述总线完成相互间的通信;
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至4中任一项所述视频融合方法的步骤。
7.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使计算机执行如权利要求1至4中任一项所述视频融合方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211528984.1A CN115546377B (zh) | 2022-12-01 | 2022-12-01 | 一种视频融合方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211528984.1A CN115546377B (zh) | 2022-12-01 | 2022-12-01 | 一种视频融合方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115546377A CN115546377A (zh) | 2022-12-30 |
CN115546377B true CN115546377B (zh) | 2023-04-18 |
Family
ID=84722704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211528984.1A Active CN115546377B (zh) | 2022-12-01 | 2022-12-01 | 一种视频融合方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115546377B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116996742B (zh) * | 2023-07-18 | 2024-08-13 | 数元科技(广州)有限公司 | 一种基于三维场景的视频融合方法及系统 |
CN117336459B (zh) * | 2023-10-10 | 2024-04-30 | 雄安雄创数字技术有限公司 | 一种三维视频融合方法、装置、电子设备及存储介质 |
CN117560578B (zh) * | 2024-01-12 | 2024-04-16 | 北京睿呈时代信息科技有限公司 | 基于三维场景渲染且视点无关的多路视频融合方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226838A (zh) * | 2013-04-10 | 2013-07-31 | 福州林景行信息技术有限公司 | 地理场景中移动监控目标的实时空间定位方法 |
WO2017160381A1 (en) * | 2016-03-16 | 2017-09-21 | Adcor Magnet Systems, Llc | System for georeferenced, geo-oriented real time video streams |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105894566A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 模型渲染方法及装置 |
CN110379010A (zh) * | 2019-06-25 | 2019-10-25 | 北京邮电大学 | 基于视频融合的三维地理信息可视化方法及系统 |
CN112365397A (zh) * | 2020-11-20 | 2021-02-12 | 天津七所精密机电技术有限公司 | 一种二维视频信息与三维地理信息融合的方法 |
CN112584060A (zh) * | 2020-12-15 | 2021-03-30 | 北京京航计算通讯研究所 | 一种视频融合系统 |
-
2022
- 2022-12-01 CN CN202211528984.1A patent/CN115546377B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226838A (zh) * | 2013-04-10 | 2013-07-31 | 福州林景行信息技术有限公司 | 地理场景中移动监控目标的实时空间定位方法 |
WO2017160381A1 (en) * | 2016-03-16 | 2017-09-21 | Adcor Magnet Systems, Llc | System for georeferenced, geo-oriented real time video streams |
Also Published As
Publication number | Publication date |
---|---|
CN115546377A (zh) | 2022-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115546377B (zh) | 一种视频融合方法、装置、电子设备及存储介质 | |
CN106548516B (zh) | 三维漫游方法和装置 | |
US20180276882A1 (en) | Systems and methods for augmented reality art creation | |
CN107832108A (zh) | 3D canvas网页元素的渲染方法、装置及电子设备 | |
CN109377554B (zh) | 大型三维模型绘制方法、设备、系统及存储介质 | |
WO2018133692A1 (zh) | 实现增强现实的方法、计算机设备及存储介质 | |
CN107248194A (zh) | 一种基于云计算的cae数据三维显示交互方法 | |
CN110968962B (zh) | 基于云渲染在移动端或大屏三维展示方法及系统 | |
CN114531553B (zh) | 生成特效视频的方法、装置、电子设备及存储介质 | |
CN109741431B (zh) | 一种二三维一体化电子地图框架 | |
EP4290464A1 (en) | Image rendering method and apparatus, and electronic device and storage medium | |
WO2023207963A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN114842120B (zh) | 一种图像渲染处理方法、装置、设备及介质 | |
CN117390322A (zh) | 虚拟空间构建方法、装置、电子设备及非易失性存储介质 | |
CN114928718A (zh) | 视频监控方法、装置、电子设备及存储介质 | |
CN105931284B (zh) | 三维纹理tin数据与大场景数据的融合方法及装置 | |
CN111818265B (zh) | 基于增强现实模型的交互方法、装置、电子设备及介质 | |
WO2023125132A1 (zh) | 特效图像处理方法、装置、电子设备及存储介质 | |
CN117237514A (zh) | 图像处理方法和图像处理装置 | |
CN114520903B (zh) | 渲染显示方法、装置、电子设备和存储介质 | |
CN115588064A (zh) | 视频生成方法、装置、电子设备及存储介质 | |
CN115487495A (zh) | 数据渲染方法以及装置 | |
CN114359498A (zh) | 地图显示方法、装置、设备及计算机程序产品 | |
CN113192173A (zh) | 三维场景的图像处理方法、装置及电子设备 | |
CN114049425B (zh) | 图像中的照明仿真方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |