CN111415416A - 一种监控实时视频与场景三维模型融合方法及系统 - Google Patents
一种监控实时视频与场景三维模型融合方法及系统 Download PDFInfo
- Publication number
- CN111415416A CN111415416A CN202010243738.6A CN202010243738A CN111415416A CN 111415416 A CN111415416 A CN 111415416A CN 202010243738 A CN202010243738 A CN 202010243738A CN 111415416 A CN111415416 A CN 111415416A
- Authority
- CN
- China
- Prior art keywords
- scene
- dimensional model
- real
- monitoring
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 80
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000000007 visual effect Effects 0.000 claims abstract description 30
- 238000013507 mapping Methods 0.000 claims abstract description 17
- 238000009877 rendering Methods 0.000 claims abstract description 10
- 230000004927 fusion Effects 0.000 claims abstract description 9
- 230000001788 irregular Effects 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 7
- 238000012800 visualization Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 150000001875 compounds Chemical class 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 3
- 238000010276 construction Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/65—Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种监控实时视频与场景三维模型融合方法及系统,包括建立监控场景真实感三维模型,视频监控摄像机位姿计算,摄像机视频帧图像到场景三维模型映射关系计算,摄像机实时动态监控视频流传输解码至可视化客户端,动态监控视频流实时三维模型纹理映射和渲染。本发明提出了一套实时监控视频与场景三维模型无缝融合的技术方案,实现视频画面按照严密的几何关系融入到三维场景中,利用动态监控视频数据,增强了场景三维可视化表达效果,为三维实时“Video+GIS”建设提供了一种高效、可靠和可行的方法,具有成本低、可操作性强等优势,在智慧城市、公共管理、安防监控等领域具有广阔的应用前景。
Description
技术领域
本发明属于视频监控和公共安全领域,提供监控实时视频与场景三维模型融合技术方案。
背景技术
三维场景的渲染可以真实、直观地表达客观世界,也是GIS领域和计算机视觉领域的研究热点之一。将现实世界抽象成数字三维模型,可以从各角度观察其逼真的效果,在智慧城市、公共管理、安防监控等领域具有广泛的应用。但是目前对三维场景的渲染往往侧重于模型数据的获取处理、组织表达等内容,其实时性并不高,三维模型数据生产周期又比较长,所以很难满足人们对于三维场景实时性认知的需求。
近些年,“视频+GIS”的应用形式变成一个新的热点,将实时监控的视频流数据与监控场景的三维模型数据进行结合,可以很好地解决以上问题。实时监控视频流可以实时、动态地显示真实场景的变化,三维模型则能精准、真实地反映现实世界的空间特征。将实时监控视频流与被监控场景的三维模型进行实时融合,并解决好实时视频和场景三维模型在时空上的一致性,可以将不同位置、不同角度布设的多个监控视频纳入到统一空间基准的全空间三维场景中,可以实现任意位置、任意角度的监控视频查看、回放、监控路线跟踪、目标跟踪等功能,为智慧城市、公共管理、安防监控提供更具现势性、更方便、更丰富的全景监控,具有广泛的应用前景。
发明内容
本发明提供了一种监控实时视频与场景三维模型融合方法及系统,通过对监控场景进行实景三维建模,建立具有统一地理空间参考的场景三维模型,并以此恢复监控摄像机的空间几何位姿,从而将实时监控视频恢复到场景三维模型中,实现实时监控视频与场景三维模型融合可视化表达。
为实现上述目的,本发明提供一种监控实时视频与场景三维模型融合方法,包括如下步骤:
步骤1,建立监控场景真实感三维模型,作为视频监控的背景地图平台,包括以下子步骤,
步骤1.1,采用无人机倾斜摄影获取监控场景的多视影像;
步骤1.2,对多视影像进行空三和密集匹配,获取监控场景实景三维模型;
步骤1.3,根据地面控制点对实景三维模型进行地理参考坐标转换,将实景三维模型纳入到统一的绝对坐标系;
步骤2,视频监控摄像机位姿计算,以作为将摄像机监控视频纳入到场景三维模型的基础;
步骤3,摄像机视频帧图像到场景三维模型映射关系计算,包括以下步骤,
步骤3.1,根据摄像机位姿、摄像机视场角和焦距,计算摄像机视场可视范围;
步骤3.2,对摄像机可视范围和场景三维模型进行求交运算,计算摄像机可视的三维模型顶点;
步骤3.3,根据摄像机可视的三维模型顶点建立不规则三角形格网;
步骤3.4,采用深度缓存可视分析算法,建立摄像机视频帧图像与可视的三维模型不规则格网面片的映射关系;
步骤4,摄像机实时动态监控视频流传输解码至可视化客户端;
步骤5,动态监控视频流实时三维模型纹理映射和渲染,包括以下步骤,
步骤5.1,根据客户端可视化请求,将实时视频流帧转换成标准纹理图像;
步骤5.2,根据步骤4建立摄像机视频帧图像到场景三维模型映射关系,以纹理映射的方式将视频帧标准纹理图像贴合到三维模型表面;
步骤5.3,按照三维场景可视化刷新频率,在三维场景中实时渲染实时视频流;
步骤5.4,根据监控管理需求,调整参数,实现实时监控视频与场景三维模型融合可视化表达;所述参数包括场景可视化比例、角度和光照。
而且,步骤1.1中,无人机倾斜摄影测量多视影像不少于5个视角,分别为前视、后视、左视、右视和下视,形成360度覆盖;无人机倾斜摄影测量的影像分辨率不低于5cm。
而且,步骤2包括以下子步骤,
步骤2.1,获取一个监控视频摄像机任意一帧图像;
步骤2.2,从摄像机帧图像上选取与场景实景三维对应的N个点对(xi,yi,Xi,Yi,Zi),,其中i为点号,(xi,yi)为摄像机帧图像坐标,(Xi,Yi,Zi)为实景三维场景中对应的点坐标
步骤2.3,按照式(1)根据最小二乘法或奇异值分解计算摄像机位姿;
步骤2.4,重复步骤2.1~2.3,计算出所有摄像机对应的位姿。
而且,步骤4包括以下子步骤,
步骤4.1,搭建多路摄像机实时监控网络存储和控制服务器;
步骤4.2,在服务器端,建立监控摄像机视频流数据解码服务;
步骤4.3,根据客户端请求,根据实时视频流所采用的传输协议,选择合适的编解码方式,将摄像机实时动态视频流按帧请求传输到可视化客户端。
而且,步骤5.3中,刷新频率不低于30frame/second。
一种监控实时视频与场景三维模型融合系统,用于实现如上所述的一种监控实时视频与场景三维模型融合方法。
本发明具有如下积极效果:
1)本发明提出了一套实时监控视频与场景三维模型无缝融合的方法和技术流程,实现视频画面按照严密的几何关系融入到三维场景中。
2)本发明利用动态监控视频数据,增强了场景三维可视化表达效果。
3)本发明提供了一种更具现势性、更方便、更丰富的全景三维实时监控方法,扩大了视频监控应用场景。
本发明将实时监控视频流与被监控场景的三维模型进行实时融合,并解决好实时视频和场景三维模型在时空上的一致性,为三维实时“Video+GIS”建设提供了一种高效、可靠和可行的方法,具有成本低、可操作性强等优势,在智慧城市、公共管理、安防监控等领域具有广阔的应用前景。
附图说明
图1为本发明的流程图。
具体实施方式
以下结合附图和实施例具体说明本发明的技术方案。
本发明通过对监控视频摄像机的空间几何位姿计算,将实时监控视频恢复到监控场景三维模型中,实现监控实时视频与场景三维模型严密配准融合。
如图1所示,实施例提供一种实时监控视频与监控场景三维模型融合方法,包括以下步骤:
步骤1),建立监控场景真实感三维模型,该步骤主要是建立监控场景高精度真实感实景三维模型,作为视频监控的背景地图平台。
首先,需要采用无人机倾斜摄影测量的方式获取监控场景的多视影像,该过程使用到的特征指标有:
①无人机倾斜摄影测量多视影像不少于5个视角,分别为前视、后视、左视、右视和下视,形成360度覆盖。
②无人机倾斜摄影测量的影像分辨率不低于5cm。
其次,对多视影像进行空三和密集匹配,获取实景三维模型,需要进一步对实景三维模型进行模型和纹理修补,确保模型无漏洞、全覆盖。
最后,根据地面控制点对实景三维模型进行地理参考坐标转换,将实景三维模型纳入到统一的绝对坐标系,该过程使用到的特征指标有:
①控制点数量不少于4个。
②控制点坐标绝对精度优于1cm。
步骤2),视频监控摄像机位姿计算,为将摄像机监控视频纳入到场景三维模型奠定基础。
具体实施时,摄像机帧图像与场景实景三维模型对应点应该选取纹理丰富区域的特征点,如角点、拐点,特征点对数不少于5个,并在图像上均匀分布。场景复杂区域需要提高特征点对数量,以确保摄像机位姿计算精度。
实施例中视频监控摄像机位姿计算,具体实现如下:
步骤2.1,获取一个监控视频摄像机任意一帧图像。
步骤2.2,从摄像机帧图像上选取与场景实景三维对应的N个点对(xi,yi,Xi,Yi,Zi),,其中i为点号,(xi,yi)为摄像机帧图像坐标,(Xi,Yi,Zi)为实景三维场景中对应的点坐标。
步骤2.3,按照式(1)根据最小二乘法或奇异值分解计算摄像机位姿。
步骤2.4,重复步骤2.1~2.3,计算出所有摄像机对应的位姿。具体实施时,公式(1)需要根据最小二乘法或奇异值分解法进行线性化,构建线性化误差方程,通过迭代或矩阵运算求解位姿参数。
步骤3),摄像机视频帧图像到场景三维模型映射关系计算,
首先根据摄像机位姿、摄像机视场角和焦距等参数,计算摄像机视场可视范围;具体实施时,可调用OpenGL库,输入摄像机位姿、摄像机视场角和焦距等参数,可以方便地得到摄像机视场可视范围。
其次,对摄像机可视范围和场景三维模型进行求交运算,计算摄像机可视的三维模型顶点。具体实施时,可调用OpenGL库,输入两个立体对象,可以方便地得到摄像机可视的三维模型顶点。
再次,根据摄像机可视的三维模型顶点建立不规则三角形格网,不规则三角网面片大小不宜太大,优选建议应控制在20cm×20cm×20cm以内。
最后,采用深度缓存消隐可视分析算法,建立摄像机视频帧图像与可视的三维模型不规则格网面片的映射关系。深度缓存消隐可视分析算法为现有技术,本发明不予赘述。
步骤4),摄像机实时动态监控视频流传输解码至可视化客户端,
首先搭建多路摄像机实时监控网络存储和控制服务器,存储和控制服务器宜分开搭建。
其次,在服务器端,建立监控摄像机视频流数据解码服务,视频解码格式采用国际通用的标准,如MPEG4、WebM、Ogg等,同时需要兼容不同内核的浏览器;
最后,根据实时视频流所采用的传输协议,选择合适的编解码方式,将摄像机实时动态视频流按帧请求传输到可视化客户端。视频流的传输协议采用RTSP(Real TimeStreaming Protocol,实时流媒体协议)、RTP(Real time Transport Protocol,实时传输协议)/RTCP(Real-time Transport Control Protocol,实时传输控制协议)协议。
步骤5),动态监控视频流实时三维模型纹理映射和渲染。
步骤5.1),根据客户端可视化请求,将实时视频流帧转换成标准纹理图像。
步骤5.2),根据步骤4)所得摄像机视频帧图像到场景三维模型映射关系,以纹理映射的方式将视频帧标准纹理图像贴合到三维模型表面。
步骤5.3),按照三维场景可视化刷新频率,在三维场景中实时渲染实时视频流,刷新频率不低于30frame/second。具体实施时,可以循环执行步骤5.1~5.2,实现实时渲染。
步骤5.4),调整场景可视化比例、角度、光照等参数,在三维场景中动态更新渲染视频纹理,实现实时监控视频与场景三维模型融合可视化表达。具体实施时,可以同步执行步骤5.1~5.3,以实现动态更新。
具体实施时,以上流程可采用计算机软件技术实现自动运行。运行方法的系统装置也应当在本发明的保护范围内。
显然,本发明的上述实施例只是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定,对于本领域的普通技术人员来说,在上述说明的基础上还可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (6)
1.一种监控实时视频与场景三维模型融合方法,其特征在于,包括如下步骤:
步骤1,建立监控场景真实感三维模型,作为视频监控的背景地图平台,包括以下子步骤,
步骤1.1,采用无人机倾斜摄影获取监控场景的多视影像;
步骤1.2,对多视影像进行空三和密集匹配,获取监控场景实景三维模型;
步骤1.3,根据地面控制点对实景三维模型进行地理参考坐标转换,将实景三维模型纳入到统一的绝对坐标系;
步骤2,视频监控摄像机位姿计算,以作为将摄像机监控视频纳入到场景三维模型的基础;
步骤3,摄像机视频帧图像到场景三维模型映射关系计算,包括以下步骤,
步骤3.1,根据摄像机位姿、摄像机视场角和焦距,计算摄像机视场可视范围;
步骤3.2,对摄像机可视范围和场景三维模型进行求交运算,计算摄像机可视的三维模型顶点;
步骤3.3,根据摄像机可视的三维模型顶点建立不规则三角形格网;
步骤3.4,采用深度缓存可视分析算法,建立摄像机视频帧图像与可视的三维模型不规则格网面片的映射关系;
步骤4,摄像机实时动态监控视频流传输解码至可视化客户端;
步骤5,动态监控视频流实时三维模型纹理映射和渲染,包括以下步骤,
步骤5.1,根据客户端可视化请求,将实时视频流帧转换成标准纹理图像;
步骤5.2,根据步骤4建立摄像机视频帧图像到场景三维模型映射关系,以纹理映射的方式将视频帧标准纹理图像贴合到三维模型表面;
步骤5.3,按照三维场景可视化刷新频率,在三维场景中实时渲染实时视频流;
步骤5.4,根据监控管理需求,调整参数,实现实时监控视频与场景三维模型融合可视化表达;所述参数包括场景可视化比例、角度和光照。
2.根据权利要求1所述的一种监控实时视频与场景三维模型融合方法,其特征在于:步骤1.1中,无人机倾斜摄影测量多视影像不少于5个视角,分别为前视、后视、左视、右视和下视,形成360度覆盖;无人机倾斜摄影测量的影像分辨率不低于5cm。
4.根据权利要求1所述的一种监控实时视频与场景三维模型融合方法,其特征在于:步骤4包括以下子步骤,
步骤4.1,搭建多路摄像机实时监控网络存储和控制服务器;
步骤4.2,在服务器端,建立监控摄像机视频流数据解码服务;
步骤4.3,根据客户端请求,根据实时视频流所采用的传输协议,选择合适的编解码方式,将摄像机实时动态视频流按帧请求传输到可视化客户端。
5.根据权利要求1所述的一种监控实时视频与场景三维模型融合方法,其特征在于:步骤5.3中,刷新频率不低于30frame/second。
6.一种监控实时视频与场景三维模型融合系统,其特征在于:用于实现如权利要求1至5所述的一种监控实时视频与场景三维模型融合方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010243738.6A CN111415416B (zh) | 2020-03-31 | 2020-03-31 | 一种监控实时视频与场景三维模型融合方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010243738.6A CN111415416B (zh) | 2020-03-31 | 2020-03-31 | 一种监控实时视频与场景三维模型融合方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111415416A true CN111415416A (zh) | 2020-07-14 |
CN111415416B CN111415416B (zh) | 2023-12-15 |
Family
ID=71494708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010243738.6A Active CN111415416B (zh) | 2020-03-31 | 2020-03-31 | 一种监控实时视频与场景三维模型融合方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111415416B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112033374A (zh) * | 2020-08-24 | 2020-12-04 | 武汉航天远景科技股份有限公司 | 一种基于实景三维的单片测量方法 |
CN112261293A (zh) * | 2020-10-20 | 2021-01-22 | 华雁智能科技(集团)股份有限公司 | 变电站远程巡检方法、装置和电子设备 |
CN112312230A (zh) * | 2020-11-18 | 2021-02-02 | 秒影工场(北京)科技有限公司 | 一种对影片自动进行3d特效生成的方法 |
CN112584060A (zh) * | 2020-12-15 | 2021-03-30 | 北京京航计算通讯研究所 | 一种视频融合系统 |
CN112584120A (zh) * | 2020-12-15 | 2021-03-30 | 北京京航计算通讯研究所 | 一种视频融合方法 |
CN112584254A (zh) * | 2020-11-30 | 2021-03-30 | 北京邮电大学 | 基于Cesium的RTSP视频流加载方法及装置 |
CN112802208A (zh) * | 2021-03-30 | 2021-05-14 | 中国民用航空总局第二研究所 | 一种航站楼内三维可视化方法及装置 |
CN113516745A (zh) * | 2021-04-02 | 2021-10-19 | 深圳市斯维尔科技股份有限公司 | 图像数据处理方法及计算机可读存储介质 |
CN113674188A (zh) * | 2021-08-04 | 2021-11-19 | 深圳中兴网信科技有限公司 | 视频分析方法、装置、电子设备和可读存储介质 |
CN113784107A (zh) * | 2021-09-17 | 2021-12-10 | 国家能源集团陕西富平热电有限公司 | 一种用于视频信号的三维可视化显示方法和系统 |
CN113891048A (zh) * | 2021-10-28 | 2022-01-04 | 江苏濠汉信息技术有限公司 | 一种轨道机车超视距影像图传系统 |
CN115103174A (zh) * | 2022-05-27 | 2022-09-23 | 南昌威爱信息科技有限公司 | 用于递送体积视频内容的方法和装置 |
CN117495694A (zh) * | 2023-11-09 | 2024-02-02 | 大庆安瑞达科技开发有限公司 | 一种视频和地图三维场景融合的方法、电子设备及存储介质 |
CN117560578A (zh) * | 2024-01-12 | 2024-02-13 | 北京睿呈时代信息科技有限公司 | 基于三维场景渲染且视点无关的多路视频融合方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5745126A (en) * | 1995-03-31 | 1998-04-28 | The Regents Of The University Of California | Machine synthesis of a virtual video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
US20070052807A1 (en) * | 2005-09-07 | 2007-03-08 | Fuji Xerox Co., Ltd. | System and method for user monitoring interface of 3-D video streams from multiple cameras |
US20080246759A1 (en) * | 2005-02-23 | 2008-10-09 | Craig Summers | Automatic Scene Modeling for the 3D Camera and 3D Video |
CN103400409A (zh) * | 2013-08-27 | 2013-11-20 | 华中师范大学 | 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法 |
CN103716586A (zh) * | 2013-12-12 | 2014-04-09 | 中国科学院深圳先进技术研究院 | 一种基于三维空间场景的监控视频融合系统和方法 |
CN109618134A (zh) * | 2018-12-10 | 2019-04-12 | 北京智汇云舟科技有限公司 | 一种无人机动态视频三维地理信息实时融合系统及方法 |
CN109872401A (zh) * | 2019-02-18 | 2019-06-11 | 中国铁路设计集团有限公司 | 一种无人机视频增强现实实现方法 |
CN110009561A (zh) * | 2019-04-10 | 2019-07-12 | 南京财经大学 | 一种监控视频目标映射到三维地理场景模型的方法及系统 |
CN110379010A (zh) * | 2019-06-25 | 2019-10-25 | 北京邮电大学 | 基于视频融合的三维地理信息可视化方法及系统 |
CN110517356A (zh) * | 2019-08-21 | 2019-11-29 | 佳都新太科技股份有限公司 | 实现多路视频融合的三维增强现实的系统、方法及设备 |
-
2020
- 2020-03-31 CN CN202010243738.6A patent/CN111415416B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5745126A (en) * | 1995-03-31 | 1998-04-28 | The Regents Of The University Of California | Machine synthesis of a virtual video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
US20080246759A1 (en) * | 2005-02-23 | 2008-10-09 | Craig Summers | Automatic Scene Modeling for the 3D Camera and 3D Video |
US20070052807A1 (en) * | 2005-09-07 | 2007-03-08 | Fuji Xerox Co., Ltd. | System and method for user monitoring interface of 3-D video streams from multiple cameras |
CN103400409A (zh) * | 2013-08-27 | 2013-11-20 | 华中师范大学 | 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法 |
CN103716586A (zh) * | 2013-12-12 | 2014-04-09 | 中国科学院深圳先进技术研究院 | 一种基于三维空间场景的监控视频融合系统和方法 |
CN109618134A (zh) * | 2018-12-10 | 2019-04-12 | 北京智汇云舟科技有限公司 | 一种无人机动态视频三维地理信息实时融合系统及方法 |
CN109872401A (zh) * | 2019-02-18 | 2019-06-11 | 中国铁路设计集团有限公司 | 一种无人机视频增强现实实现方法 |
CN110009561A (zh) * | 2019-04-10 | 2019-07-12 | 南京财经大学 | 一种监控视频目标映射到三维地理场景模型的方法及系统 |
CN110379010A (zh) * | 2019-06-25 | 2019-10-25 | 北京邮电大学 | 基于视频融合的三维地理信息可视化方法及系统 |
CN110517356A (zh) * | 2019-08-21 | 2019-11-29 | 佳都新太科技股份有限公司 | 实现多路视频融合的三维增强现实的系统、方法及设备 |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112033374A (zh) * | 2020-08-24 | 2020-12-04 | 武汉航天远景科技股份有限公司 | 一种基于实景三维的单片测量方法 |
CN112261293B (zh) * | 2020-10-20 | 2022-05-10 | 华雁智能科技(集团)股份有限公司 | 变电站远程巡检方法、装置和电子设备 |
CN112261293A (zh) * | 2020-10-20 | 2021-01-22 | 华雁智能科技(集团)股份有限公司 | 变电站远程巡检方法、装置和电子设备 |
CN112312230A (zh) * | 2020-11-18 | 2021-02-02 | 秒影工场(北京)科技有限公司 | 一种对影片自动进行3d特效生成的方法 |
CN112584254A (zh) * | 2020-11-30 | 2021-03-30 | 北京邮电大学 | 基于Cesium的RTSP视频流加载方法及装置 |
CN112584060A (zh) * | 2020-12-15 | 2021-03-30 | 北京京航计算通讯研究所 | 一种视频融合系统 |
CN112584120A (zh) * | 2020-12-15 | 2021-03-30 | 北京京航计算通讯研究所 | 一种视频融合方法 |
CN112802208A (zh) * | 2021-03-30 | 2021-05-14 | 中国民用航空总局第二研究所 | 一种航站楼内三维可视化方法及装置 |
CN113516745A (zh) * | 2021-04-02 | 2021-10-19 | 深圳市斯维尔科技股份有限公司 | 图像数据处理方法及计算机可读存储介质 |
CN113674188A (zh) * | 2021-08-04 | 2021-11-19 | 深圳中兴网信科技有限公司 | 视频分析方法、装置、电子设备和可读存储介质 |
CN113784107A (zh) * | 2021-09-17 | 2021-12-10 | 国家能源集团陕西富平热电有限公司 | 一种用于视频信号的三维可视化显示方法和系统 |
CN113891048A (zh) * | 2021-10-28 | 2022-01-04 | 江苏濠汉信息技术有限公司 | 一种轨道机车超视距影像图传系统 |
CN115103174A (zh) * | 2022-05-27 | 2022-09-23 | 南昌威爱信息科技有限公司 | 用于递送体积视频内容的方法和装置 |
CN117495694A (zh) * | 2023-11-09 | 2024-02-02 | 大庆安瑞达科技开发有限公司 | 一种视频和地图三维场景融合的方法、电子设备及存储介质 |
CN117495694B (zh) * | 2023-11-09 | 2024-05-31 | 大庆安瑞达科技开发有限公司 | 一种视频和地图三维场景融合的方法、电子设备及存储介质 |
CN117560578A (zh) * | 2024-01-12 | 2024-02-13 | 北京睿呈时代信息科技有限公司 | 基于三维场景渲染且视点无关的多路视频融合方法及系统 |
CN117560578B (zh) * | 2024-01-12 | 2024-04-16 | 北京睿呈时代信息科技有限公司 | 基于三维场景渲染且视点无关的多路视频融合方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111415416B (zh) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111415416B (zh) | 一种监控实时视频与场景三维模型融合方法及系统 | |
CN112053446B (zh) | 一种基于三维gis的实时监控视频与三维场景融合方法 | |
CN106296783B (zh) | 一种结合空间全局3d视图和全景图片的空间展示方法 | |
US9024947B2 (en) | Rendering and navigating photographic panoramas with depth information in a geographic information system | |
CN110516014B (zh) | 一种面向城市道路监控视频映射到二维地图的方法 | |
CN103226838A (zh) | 地理场景中移动监控目标的实时空间定位方法 | |
CN110992484B (zh) | 一种交通动态视频在真景三维平台中的显示方法 | |
CN110660125B (zh) | 用于电力配网系统的三维建模装置 | |
US20210352210A1 (en) | Method and device for generating a panoramic image | |
CN113379901A (zh) | 利用大众自拍全景数据建立房屋实景三维的方法及系统 | |
CN113487723B (zh) | 基于可量测全景三维模型的房屋在线展示方法及系统 | |
CN116109684B (zh) | 面向变电场站在线视频监测二三维数据映射方法及装置 | |
CN115294207A (zh) | 智慧校园监控视频与三维gis模型的融合调度系统及方法 | |
CN105208372A (zh) | 具有交互可量测功能及真实感的3d景观生成系统及方法 | |
US10275939B2 (en) | Determining two-dimensional images using three-dimensional models | |
CN114332364A (zh) | 一种基于地基云图的三维云场景建模与可视化方法 | |
CN105187794B (zh) | 一种视频监控系统及视频大规模调度方法 | |
TWI738538B (zh) | 無人載具之三維影像重組方法及系統 | |
CN117036633B (zh) | 大场景三维模型数据的高效、批量属性挂接方法及系统 | |
Gao et al. | Research and application of 3d panoramic technology on equipment visualization | |
CN118247448A (zh) | 路灯与实景融合重建方法、装置、电子设备及存储介质 | |
Han et al. | Integration and application of video surveillance system and 3DGIS | |
Zhao et al. | Integration Method of Monitoring Video and Geospatial Data Based on 3D Modeling | |
CN116416402A (zh) | 一种基于mr协同数字沙盘的数据展示方法和系统 | |
Zhang et al. | Research on the Deployment Strategy of a Ring Sparse Array Camera Applied to Real-Time Scene Fusion of Digital Twins |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |