CN110009561B - 一种监控视频目标映射到三维地理场景模型的方法及系统 - Google Patents
一种监控视频目标映射到三维地理场景模型的方法及系统 Download PDFInfo
- Publication number
- CN110009561B CN110009561B CN201910285390.4A CN201910285390A CN110009561B CN 110009561 B CN110009561 B CN 110009561B CN 201910285390 A CN201910285390 A CN 201910285390A CN 110009561 B CN110009561 B CN 110009561B
- Authority
- CN
- China
- Prior art keywords
- video
- image
- target
- geographic
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012544 monitoring process Methods 0.000 claims abstract description 32
- 230000000007 visual effect Effects 0.000 claims abstract description 21
- 230000004927 fusion Effects 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 239000000523 sample Substances 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 5
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009833 condensation Methods 0.000 description 1
- 230000005494 condensation Effects 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明实施例公开了一种监控视频目标映射到三维地理场景模型的方法及系统,涉及视频流与三维模型实时融合技术领域,该方法包括以下步骤:首先读取监控探头视频图像,然后在三维地理场景模型中采集同名点对,获取同名点对的图像坐标和地理坐标,建立视频图像与地理空间的映射关系;再通过视频目标检测处理,获取图像中视频目标区域与子图影像;最后使用视频与地理空间映射关系模型,将视频目标子图影像映射于地理场景模型中实现可视化融合。实施本发明的有益效果是建立了视频目标与地理场景的映射关系,增强了监控视频在地理场景中融合表达的效果,为视频地理场景信息一体化的快速检索与高效理解提供极大的便利。
Description
背景技术
监控视频被广泛应用于安防、交通、环境监测等多个领域。近十年来,我国每年新增的摄像头数量已达数百万个,并且逐年快速增长。监控视频数据具有数据量大、高价值信息稀疏分布等特性,制约着人对视频信息的快速理解与有效使用,造成了视频人工浏览检索效率低下、视频数据传输冗余等问题。另一方面,当前监控视频表达多釆用“井”字窗格、各自独立的视图模式,但仅依靠监控图像数据无法有效完成视频目标对象时空行为分析、视频场景模拟、区域状态监测等诸多复杂的监控任务。由于地理信息具有空间性、时序性、多维性等优势,将监控视频与地理信息进行融合分析,可在地理空间中挖掘视频隐含的时空信息,降低视频处理难度,因此,监控视频与GIS的融合表达与分析技术逐渐受到重视。
然而对于监控视频与三维地理空间数据的融合,当前现有的融合模式往往在实际部署和使用中,会存在以下困难和问题:
第一、视频在三维地理空间数据的映射结果失真;
第二、不能有效表达图像的空间信息;
第三、缺乏对视频中动态信息的智能分析表达。
基于以上的问题,亟需一种新的监控视频目标映射到三维地理场景模型的方法及系统的技术方案。
发明内容
为此,本发明实施例提供一种监控视频目标映射到三维地理场景模型的方法及系统,以解决现有技术中视频映射结果失真,不能有效表达图像的空间信息以及缺乏对视频中动态信息的智能分析表达的问题。
为了实现上述目的,本发明实施例提供如下技术方案:
根据本发明实施例的第一方面,一种监控视频目标映射到三维地理场景模型的方法,包括以下步骤:
S1:获取接入监控探头的视频序列图像信息,并在视频图像和三维地理场景模型采集同名点对,获取同名点的图像坐标和地理坐标;
S2:基于同名点对坐标数据,建立视频图像与地理空间的映射关系;
S3:采用基于深度学习Mask RCNN的方法实现视频目标的检测与分割,从视频图像中获得视频目标图像范围并提取子图;
S4:基于视频图像与地理空间的相互映射关系,实现视频目标的地理空间定位;
S5:基于相机位置、视线方向、视频目标位置,实现视频目标子图在虚拟地理场景模型中的可视化表达;
S6:重复步骤S3、S4、S5,对实时视频流的每一帧图像循环处理,得到每一帧视频图像中的视频目标位置与子图,与三维场景模型进行融合表达。
进一步地,步骤S1所述的视频图像为截取监控视频的第一帧图像。
进一步地,步骤S1所述的三维地理场景模型指根据真实地理场景量测信息构建的三维场景模型,所述视频图像和虚拟地理场景上采集同名点对的数量不少于3对,且不能全部共线。
进一步地,步骤S2所述的建立视频图像与地理空间的映射关系,包括以下步骤:
S20:记选取图像平面的某一点q坐标为q(x,y),q在三维地理空间所对应的点Q坐标为Q(X,Y,Z),将q和Q写为齐次坐标形式:
q=[x y 1]T
Q=[X Y Z 1]T;
S21:将映射关系表达模型通过单应矩阵M、q与Q的关系的数学形式进行表达:
q=MQ;
S22:把经过了放缩、平移、旋转三种变化的视频图像平面到三维地理空间对应的单映矩阵M进行分解,经简化矩阵M后的数学表达式为:
其中s是放缩系数,fμ、fν分别是透镜的物理焦距长度与成像传感器每个单元横、纵轴方向尺寸的乘积,u、ν是相机中图像成像中心相对于主光轴的偏移量,[r1 r2 t]中的r1、r2表示坐标系之间的旋转关系,t表示坐标系之间的平移关系;
S23:将已经获得的其它两对同名点图像坐标与地理空间坐标写成齐次坐标形式,把三对齐次坐标组带入所述映射关系表达模型中,求得所述单映矩阵M的解。
进一步地,步骤S3所述视频目标包括视频图像中出现的行人、非机动车以及机动车三类对象,所述视频目标子图定义为,视频图像中每个实体对象的最小外接矩形边框区域。
进一步地,步骤S3所述的从视频图像中获得视频目标图像范围并提取子图,包括以下步骤:
S30:根据监控视频图像序列,逐帧截取视频并保存成图像格式;
S31:将视频图像送入Mask RCNN模型中,得到具有物体标识、位置信息以及矩形框选的分割目标子图后的图片;
S32:保存分割后的目标子图,并记录其外接矩形信息(x,y,w,h,num),其中x、y分别是矩形左上角的横、纵坐标,w、h分别是矩形的宽和高,num代表截取的子图在原视频中的帧序号。
进一步地,步骤S4所述视频目标的地理空间定位,包括以下步骤:
S40:根据所述目标子图外接矩形信息(x,y,w,h,num),分别求出矩形的左上、左下和右上三点的坐标qLT(x,y)、qLL(x,y+h)和qRT(x+w,y),并计算目标子图的矩形质心坐标qCentroid(xCentroid,yCentroid),其中:
xCentroid=(x+w)/2
yCentroid=(y+h)/2;
S41:根据步骤S2求解出的视频图像与三维地理空间的映射关系,将所述目标子图外接矩形三个顶点坐标qLT、qLL、qRT和所述矩形质心坐标qCentroid映射到三维地理空间中,得到它们在三维空间中的坐标QLT(XLT,YLT,ZLT)、QLL(XLL,YLL,ZLL)、QRT(XRT,YRT,ZRT)和QCentroid(XCentroid,YCentroid,ZCentroid);
S42:把所有目标子图调整到宽、高分别为的固定大小,由此确定目标子图在三维地理空间的坐标位置QCentroid(XCentroid,YCentroid,ZCentroid)、成像大小以及所在帧数num,的计算仅进行一次,直接应用于后面的视频序列。
进一步地,步骤S5所述的虚拟场景模型中视频目标可视化表达,包括以下步骤:
S51:根据所截取视频帧的宽Wp、高Hp,计算相机在三维地理场景中的视域,根据相机在地理空间的位置,确定相机在三维地理场景中的位置及视角;
S52:设置目标子图在三维地理空间中显示的帧率fps,根据fps对相机视域内的目标子图不断进行更新,包括在三维地理空间中的相机视域内显示当前帧所有的目标子图,不再显示旧的目标子图,不同的目标子图的显示与更新互不干扰。
进一步地,步骤S3所述视频图像中若无视频目标,则直接跳过此视频帧,不进行步骤S4、S5的处理。
根据本发明实施例的第二方面,一种监控视频目标映射到三维地理场景模型的系统,所述系统包括:
同名点获取模块:用于在视频图像和三维地理场景模型采集同名点对,获取同名点的图像坐标和地理坐标;
映射模型构建模块:用于基于同名点对坐标数据,建立视频图像与地理空间的映射关系;
视频目标检测与子图提取模块:用于实现视频目标的检测与分割,从视频图像中获得视频目标图像范围并提取子图;
视频目标定位模块:用于基于视频图像与地理空间的相互映射关系,实现视频目标的地理空间定位;
三维场景中视频目标可视化表达模块:用于基于相机位置、视线方向、视频目标位置,实现视频目标子图在虚拟地理场景模型中的可视化表达。
本发明实施例具有如下优点:
能够从视频中提取用户所感兴趣的视频目标进行独立显示,实现了城镇公共环境下监控视频目标到三维地理场景模型的映射。映射结果具有精确性与实时性,有效表达了视频图像的空间信息以及有对视频中动态信息的智能分析表达,为视频地理场景信息一体化的快速检索与高效理解提供极大的便利,同时也可实现有效的区域实时状态监控,以保障社会公共安全,为地理环境监测、突发事件预警及处理等工作提供有力支撑。
附图说明
为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引伸获得其它的实施附图。
本说明书所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容得能涵盖的范围内。
图1为本发明实施例中提供的一种监控视频目标映射到三维地理场景模型的方法流程图;
图2为本发明实施例中提供的一种视频图像平面坐标到三维空间坐标映射关系示意图;
图3为本发明实施例中提供的一种视频图像中提取目标子图示意图;
图4为本发明实施例中提供的一种视频目标与三维场景融合的存储数据与模型示意图;
图5为本发明实施例中提供的一种虚拟三维地理空间相机视角选取示意图;
图6为本发明实施例中提供的一种对应实际场景的虚拟三维地理空间相机视域示意图;
图7为本发明实施例中提供的一种监控视频目标在三维地理场景中的可视化表达效果示意图;
图8为本发明实施例中提供的一种监控视频目标映射到三维地理场景模型的系统架构示意图。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,提供一种监控视频目标映射到三维地理场景模型的方法,包括以下步骤:
S1:获取接入监控探头的视频序列图像信息,并在视频图像和三维地理场景模型采集同名点对,获取同名点的图像坐标和地理坐标;
其中同名点是预先在地理空间中标记的,地理坐标已知,且采用与三维地理模型相同的坐标系。
S2:基于同名点对坐标数据,建立视频图像与地理空间的映射关系;
S3:采用基于深度学习Mask RCNN的方法实现视频目标的检测与分割,从视频图像中获得视频目标图像范围并提取子图;
S4:基于视频图像与地理空间的相互映射关系,实现视频目标的地理空间定位;
S5:基于相机位置、视线方向、视频目标位置,实现视频目标子图在虚拟地理场景模型中的可视化表达;
S6:重复步骤S3、S4、S5,对实时视频流的每一帧图像循环处理,得到每一帧视频图像中的视频目标位置与子图,与三维场景模型进行融合表达,直到结束获取接入监控探头的视频序列图像信息。
进一步地,步骤S1所述的视频图像为截取监控视频的第一帧图像。
进一步地,步骤S1所述的三维地理场景模型指根据真实地理场景量测信息构建的三维场景模型,所述视频图像和虚拟地理场景上采集同名点对的数量不少于3对,且不能全部共线。
基于单应矩阵法通过寻找已知的图像空间与地理空间同名点求解映射矩阵,从而实现基于映射矩阵的图像坐标与地理坐标映射变换。具体参见图2,摄站中心记为C,像方空间坐标系记为OiXiYi,物方空间坐标系记为OgXgYgZg,通过求解OiXiYi与OgXgYgZg的映射关系,实现视频场景空间化。
单应矩阵法通过假定物方空间为二维平面,将二维平面上的点映射到摄像机成像仪上,计算一组在同一个三维平面上的点在不同的二维图像中的投影位置。
进一步地,步骤S2所述的建立视频图像与地理空间的映射关系,包括以下步骤:
S20:记选取图像平面的某一点q坐标为q(x,y),q在三维地理空间所对应的点Q坐标为Q(X,Y,Z),将q和Q写为齐次坐标形式:
q=[x y 1]T
Q=[X Y Z 1]T;
S21:将映射关系表达模型通过单应矩阵M、q与Q的关系的数学形式进行表达:
q=MQ;
S22:把经过了放缩、平移、旋转三种变化的视频图像平面到三维地理空间对应的单映矩阵M进行分解,经简化矩阵M后的数学表达式为:
其中s是放缩系数,fμ、fν分别是透镜的物理焦距长度与成像传感器每个单元横、纵轴方向尺寸的乘积,u、ν是相机中图像成像中心相对于主光轴的偏移量,[r1 r2 t]中的r1、r2表示坐标系之间的旋转关系,t表示坐标系之间的平移关系;
S23:将已经获得的其它两对同名点图像坐标与地理空间坐标写成齐次坐标形式,把三对齐次坐标组带入所述映射关系表达模型中,求得所述单映矩阵M的解。
进一步地,步骤S3所述视频目标包括视频图像中出现的行人、非机动车以及机动车三类对象,所述视频目标子图定义为,视频图像中每个实体对象的最小外接矩形边框区域。
进一步地,步骤S3所述的从视频图像中获得视频目标图像范围并提取子图,包括以下步骤:
S30:根据监控视频图像序列,逐帧截取视频并保存成图像格式;
S31:将视频图像送入Mask RCNN模型中,得到具有物体标识、位置信息以及矩形框选的分割目标子图后的图片,其效果图如图3所示;
Mask RCNN具体的处理过程如下:
(1)采用标准神经网络作为图像特征提取器,将图像从RGB的张量转化成特征图,作为下一阶段的输入。
(2)使用区域建议网络(RPN),通过滑动对图像不同区域进行扫描,为每个区域生成两个输出:区域类别(即前景或者背景)和边框精调,通过精调区域,尽可能使得前景包含在区域类别中。
(3)通过ROI分类器将目标细化分类(如人、车等),边界回归器对边框的位置和尺寸进行更进一步的微调,使得其将目标完全封装。然后通过ROIAlign进行池化操作,将剪切出来的特征图重新调整为固定尺寸。
(4)将池化后的特征图采用全卷积网络(FCN)生成掩码,即Mask过程(分割)。
S32:保存分割后的目标子图,并记录其外接矩形信息(x,y,w,h,num),其中x、y分别是矩形左上角的横、纵坐标,w、h分别是矩形的宽和高,num代表截取的子图在原视频中的帧序号。
进一步地,步骤S4所述视频目标的地理空间定位,包括以下步骤:
S40:根据所述目标子图外接矩形信息(x,y,w,h,num),分别求出矩形的左上、左下和右上三点的坐标qLT(x,y)、qLL(x,y+h)和qRT(x+w,y),并计算目标子图的矩形质心坐标qCentroid(xCentroid,yCentroid),其中:
xCentroid=(x+w)/2
yCentroid=(y+h)/2;
S41:根据步骤S2求解出的视频图像与三维地理空间的映射关系,将所述目标子图外接矩形三个顶点坐标qLT、qLL、qRT和所述矩形质心坐标qCentroid映射到三维地理空间中,得到它们在三维空间中的坐标QLT(XLT,YLT,ZLT)、QLL(XLL,YLL,ZLL)、QRT(XRT,YRT,ZRT)和QCentroid(XCentroid,YCentroid,ZCentroid);
S42:把所有目标子图调整到宽、高分别为的固定大小,由此确定目标子图在三维地理空间的坐标位置QCentroid(XCentroid,YCentroid,ZCentroid)、成像大小以及所在帧数num,得到的数据模型如图4所示,的计算仅进行一次,直接应用于后面的视频序列。
(1)接入监控探头获取视频图像,从检测到目标的第一帧图像开始算起,从前m帧视频中选取n个目标子图外接矩形(一般情况下,m≥1000,n≥100),分别计算出目标子图外接矩形qLT、qLL、qRT三个顶点和质心qCentroid坐标映射到三维地理空间中的坐标QLT、QLL、QRT和QCentroid。
(2)分别求出目标子图外接矩形在三维空间中所对应的宽W、高H。
其中W、H计算公式如下:
W=|XLT-XRT|
H=|ZLT-ZLL|
进一步地,步骤S5所述的虚拟场景模型中视频目标可视化表达,包括以下步骤:
S51:根据所截取视频帧的宽Wp、高Hp,计算相机在三维地理场景中的视域,根据相机在地理空间的位置,确定相机在三维地理场景中的位置及视角;
关于计算相机在三维地理场景中的视域的具体方法包括:根据所截取视频帧的宽Wp、高Hp,得到视频帧的左上、左下、右上和右下四点的平面坐标vLT(0,0)、vLL(0,Hp)、vRT(Wp,0)和vRL(Wp,Hp)通过映射矩阵M,得到它们在三维空间中的坐标点VLT、VLL、VRT和VRL,由VLT、VLL、VRT和VRL四个点所构成的外接多边形即为相机在三维地理场景中的视域。
关于相机在三维地理场景中的位置及视角的选取,参见图5,在监控相机的地理空间位置与姿态固定的前提下,通过在虚拟场景中选择合适的虚拟相机位置与视角,获得相应的虚拟场景可视化效果。通过对拍摄场景进行实地量测,获得场景高程坐标Z0与相机的地理空间位置坐标tcam=(Xcam,Ycam,Zcam)。由映射矩阵M,求得图像中心点在地理场景中的映射点tcen=(Xcen,Xcen,Z0)。设定虚拟场景视角的视野角为VFA(View Field Angle)。为保证相机视域包含于虚拟场景的可视化范围内,需要确定VFA的最小取值VFAmin:
VFAmin=2*cos-1∠(tcen,tcam,tm)
其中,tm为视域多边形R的所有边缘角点中,至tcen距离最大的那一个。以tcam为虚拟场景中的相机定位点,以向量作为虚拟相机的视角中心线,取场景视野角VFA(VFA≥VFAmin),并在地理场景中显示相机视域多边形R,作为视频浓缩背景,得到结果如图6所示。
S52:设置目标子图在三维地理空间中显示的帧率fps,根据fps对相机视域内的目标子图不断进行更新,包括在三维地理空间中的相机视域内显示当前帧所有的目标子图,不再显示旧的目标子图,不同的目标子图的显示与更新互不干扰。监控视频目标在三维地理空间表达的可视化效果如图7所示。
进一步地,步骤S3所述视频图像中若无视频目标,则直接跳过此视频帧,不进行步骤S4、S5的处理。
参见图8,提供一种监控视频目标映射到三维地理场景模型的系统,所述系统包括:
同名点获取模块:用于在视频图像和三维地理场景模型采集同名点对,获取同名点的图像坐标和地理坐标;
映射模型构建模块:用于基于同名点对坐标数据,建立视频图像与地理空间的映射关系;
视频目标检测与子图提取模块:用于实现视频目标的检测与分割,从视频图像中获得视频目标图像范围并提取子图;
视频目标定位模块:用于基于视频图像与地理空间的相互映射关系,实现视频目标的地理空间定位;
三维场景中视频目标可视化表达模块:用于基于相机位置、视线方向、视频目标位置,实现视频目标子图在虚拟地理场景模型中的可视化表达。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“模块”或“平台”。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (7)
1.一种监控视频目标映射到三维地理场景模型的方法,其特征在于,包括以下步骤:
S1:获取接入监控探头的视频序列图像信息,并在视频图像和三维地理场景模型采集同名点对,获取同名点的图像坐标和地理坐标;
S2:基于同名点对坐标数据,建立视频图像与地理空间的映射关系;
S3:采用基于深度学习Mask RCNN的方法实现视频目标的检测与分割,从视频图像中获得视频目标图像范围并提取子图;
S4:基于视频图像与地理空间的相互映射关系,实现视频目标的地理空间定位;
S5:基于相机位置、视线方向、视频目标位置,实现视频目标子图在虚拟地理场景模型中的可视化表达;
S6:重复步骤S3、S4、S5,对实时视频流的每一帧图像循环处理,得到每一帧视频图像中的视频目标位置与子图,与三维场景模型进行融合表达;
步骤S1所述的视频图像为截取监控视频的第一帧图像;
步骤S1所述的三维地理场景模型指根据真实地理场景量测信息构建的三维场景模型,所述视频图像和虚拟地理场景上采集同名点对的数量不少于3对,且不能全部共线;
步骤S2所述的建立视频图像与地理空间的映射关系,包括以下步骤:
S20:记选取图像平面的某一点q坐标为q(x,y),q在三维地理空间所对应的点Q坐标为Q(X,Y,Z),将q和Q写为齐次坐标形式:
q=[x y 1]T
Q=[X Y Z 1]T;
S21:将映射关系表达模型通过单应矩阵M、q与Q的关系的数学形式进行表达:
q=MQ;
S22:把经过了放缩、平移、旋转三种变化的视频图像平面到三维地理空间对应的单映矩阵M进行分解,经简化矩阵M后的数学表达式为:
其中s是放缩系数,fμ、fν分别是透镜的物理焦距长度与成像传感器每个单元横、纵轴方向尺寸的乘积,u、ν是相机中图像成像中心相对于主光轴的偏移量,[r1 r2 t]中的r1、r2表示坐标系之间的旋转关系,t表示坐标系之间的平移关系;
S23:将已经获得的其它两对同名点图像坐标与地理空间坐标写成齐次坐标形式,把三对齐次坐标组带入所述映射关系表达模型中,求得所述单映矩阵M的解。
2.根据权利要求1所述的一种监控视频目标映射到三维地理场景模型的方法,其特征在于,步骤S3所述视频目标包括视频图像中出现的行人、非机动车以及机动车三类对象,所述视频目标子图定义为,视频图像中每个实体对象的最小外接矩形边框区域。
3.根据权利要求1所述的一种监控视频目标映射到三维地理场景模型的方法,其特征在于,步骤S3所述的从视频图像中获得视频目标图像范围并提取子图,包括以下步骤:
S30:根据监控视频图像序列,逐帧截取视频并保存成图像格式;
S31:将视频图像送入Mask RCNN模型中,得到具有物体标识、位置信息以及矩形框选的分割目标子图后的图片;
S32:保存分割后的目标子图,并记录其外接矩形信息(x,y,w,h,num),其中x、y分别是矩形左上角的横、纵坐标,w、h分别是矩形的宽和高,num代表截取的子图在原视频中的帧序号。
4.根据权利要求3所述的一种监控视频目标映射到三维地理场景模型的方法,其特征在于,步骤S4所述视频目标的地理空间定位,包括以下步骤:
S40:根据所述目标子图外接矩形信息(x,y,w,h,num),分别求出矩形的左上、左下和右上三点的坐标qLT(x,y)、qLL(x,y+h)和qRT(x+w,y),并计算目标子图的矩形质心坐标qCentroid(xCentroid,yCentroid),其中:
xCentroid=(x+w)/2
yCentroid=(y+h)/2;
S41:根据步骤S2求解出的视频图像与三维地理空间的映射关系,将所述目标子图外接矩形三个顶点坐标qLT、qLL、qRT和所述矩形质心坐标qCentroid映射到三维地理空间中,得到它们在三维空间中的坐标QLT(XLT,YLT,ZLT)、QLL(XLL,YLL,ZLL)、QRT(XRT,YRT,ZRT)和QCentroid(XCentroid,YCentroid,ZCentroid);
S42:把所有目标子图调整到宽、高分别为的固定大小,由此确定目标子图在三维地理空间的坐标位置QCentroid(XCentroid,YCentroid,ZCentroid)、成像大小以及所在帧数num,的计算仅进行一次,直接应用于后面的视频序列。
5.根据权利要求4所述的一种监控视频目标映射到三维地理场景模型的方法,其特征在于,步骤S5所述的虚拟地理场景模型中视频目标可视化表达,包括以下步骤:
S51:根据所截取视频帧的宽Wp、高Hp,计算相机在三维地理场景中的视域,根据相机在地理空间的位置,确定相机在三维地理场景中的位置及视角;
S52:设置目标子图在三维地理空间中显示的帧率fps,根据fps对相机视域内的目标子图不断进行更新,包括在三维地理空间中的相机视域内显示当前帧所有的目标子图,不再显示旧的目标子图,不同的目标子图的显示与更新互不干扰。
6.根据权利要求1或5所述的一种监控视频目标映射到三维地理场景模型的方法,其特征在于,步骤S3所述视频图像中若无视频目标,则直接跳过此视频帧,不进行步骤S4、S5的处理。
7.一种监控视频目标映射到三维地理场景模型的系统,其特征在于,应用于权利要求1至6中任一项所述的监控视频目标映射到三维地理场景模型的方法,所述系统包括:
同名点获取模块:用于在视频图像和三维地理场景模型采集同名点对,获取同名点的图像坐标和地理坐标;
映射模型构建模块:用于基于同名点对坐标数据,建立视频图像与地理空间的映射关系;
视频目标检测与子图提取模块:用于实现视频目标的检测与分割,从视频图像中获得视频目标图像范围并提取子图;
视频目标定位模块:用于基于视频图像与地理空间的相互映射关系,实现视频目标的地理空间定位;
三维场景中视频目标可视化表达模块:用于基于相机位置、视线方向、视频目标位置,实现视频目标子图在虚拟地理场景模型中的可视化表达。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910285390.4A CN110009561B (zh) | 2019-04-10 | 2019-04-10 | 一种监控视频目标映射到三维地理场景模型的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910285390.4A CN110009561B (zh) | 2019-04-10 | 2019-04-10 | 一种监控视频目标映射到三维地理场景模型的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110009561A CN110009561A (zh) | 2019-07-12 |
CN110009561B true CN110009561B (zh) | 2023-04-18 |
Family
ID=67170863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910285390.4A Active CN110009561B (zh) | 2019-04-10 | 2019-04-10 | 一种监控视频目标映射到三维地理场景模型的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110009561B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161130B (zh) * | 2019-11-25 | 2024-05-17 | 北京智汇云舟科技有限公司 | 一种基于三维地理信息的视频矫正方法 |
CN111143504B (zh) * | 2019-12-31 | 2023-03-28 | 信阳师范学院 | 一种多摄像机室内视频地图构建方法 |
CN111240617B (zh) * | 2019-12-31 | 2020-09-25 | 飞燕航空遥感技术有限公司 | 基于三维地图的视频投放方法、系统和环境监控方法、系统 |
CN111354226B (zh) * | 2020-03-06 | 2022-05-06 | 智慧航海(青岛)科技有限公司 | 基于三维图像的自主驾驶船舶航行远程监控方法和装置 |
CN111563185A (zh) * | 2020-03-19 | 2020-08-21 | 平安城市建设科技(深圳)有限公司 | 基于gis系统的视频画面显示方法、装置、终端及存储介质 |
CN111415416B (zh) * | 2020-03-31 | 2023-12-15 | 武汉大学 | 一种监控实时视频与场景三维模型融合方法及系统 |
CN111597288B (zh) * | 2020-05-20 | 2022-06-21 | 福建省伟志地理信息科学研究院 | 一种基于视频融合的三维地理信息可视化方法及系统 |
CN111696216B (zh) * | 2020-06-16 | 2023-10-03 | 浙江大华技术股份有限公司 | 三维增强现实全景融合方法及系统 |
CN112053446B (zh) * | 2020-07-11 | 2024-02-02 | 南京国图信息产业有限公司 | 一种基于三维gis的实时监控视频与三维场景融合方法 |
CN111915739A (zh) * | 2020-08-13 | 2020-11-10 | 广东申义实业投资有限公司 | 一种实时三维全景信息互动影息系统 |
CN112995603A (zh) * | 2021-03-03 | 2021-06-18 | 广东电网有限责任公司 | 地下管网的可视化方法、装置、设备及存储介质 |
CN113192125B (zh) * | 2021-03-26 | 2024-02-20 | 南京财经大学 | 虚拟视点优选的地理场景中多相机视频浓缩方法及系统 |
CN113297950B (zh) * | 2021-05-20 | 2023-02-17 | 首都师范大学 | 动态目标检测方法 |
CN114329689A (zh) * | 2021-11-23 | 2022-04-12 | 科华数据股份有限公司 | 一种3d可视化方法、设备及计算机可读存储介质 |
CN117152400B (zh) * | 2023-10-30 | 2024-03-19 | 武汉苍穹融新科技有限公司 | 交通道路上多路连续视频与三维孪生场景融合方法及系统 |
CN117725556A (zh) * | 2024-02-18 | 2024-03-19 | 天津市特种设备监督检验技术研究院(天津市特种设备事故应急调查处理中心) | 一种起重机的机械故障检测识别方法及系统 |
CN117934729B (zh) * | 2024-03-21 | 2024-06-11 | 西安众望能源科技有限公司 | 一种油气田视频监控实时三维投影融合方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101931790A (zh) * | 2009-06-23 | 2010-12-29 | 北京航天长峰科技工业集团有限公司 | 一种三维视频监控方法及系统 |
CN104331929A (zh) * | 2014-10-29 | 2015-02-04 | 深圳先进技术研究院 | 基于视频地图与增强现实的犯罪现场还原方法 |
CN106204656A (zh) * | 2016-07-21 | 2016-12-07 | 中国科学院遥感与数字地球研究所 | 基于视频和三维空间信息的目标定位和跟踪系统及方法 |
CN108182218A (zh) * | 2017-12-21 | 2018-06-19 | 深圳先进技术研究院 | 一种基于地理信息系统的视频人物识别方法、系统及电子设备 |
CN109598794A (zh) * | 2018-11-30 | 2019-04-09 | 苏州维众数据技术有限公司 | 三维gis动态模型的构建方法 |
-
2019
- 2019-04-10 CN CN201910285390.4A patent/CN110009561B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101931790A (zh) * | 2009-06-23 | 2010-12-29 | 北京航天长峰科技工业集团有限公司 | 一种三维视频监控方法及系统 |
CN104331929A (zh) * | 2014-10-29 | 2015-02-04 | 深圳先进技术研究院 | 基于视频地图与增强现实的犯罪现场还原方法 |
CN106204656A (zh) * | 2016-07-21 | 2016-12-07 | 中国科学院遥感与数字地球研究所 | 基于视频和三维空间信息的目标定位和跟踪系统及方法 |
CN108182218A (zh) * | 2017-12-21 | 2018-06-19 | 深圳先进技术研究院 | 一种基于地理信息系统的视频人物识别方法、系统及电子设备 |
CN109598794A (zh) * | 2018-11-30 | 2019-04-09 | 苏州维众数据技术有限公司 | 三维gis动态模型的构建方法 |
Non-Patent Citations (2)
Title |
---|
Mask R-CNN详解;技术挖掘者;《https://blog.csdn.net/wzz18191171661/article/details/79453780》;20180306;第1-14页 * |
从零开始学习「张氏相机标定法」(二)单应矩阵;计算机视觉life;《https://www.sohu.com/a/223594989_100007727》;20180223;第1-5页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110009561A (zh) | 2019-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110009561B (zh) | 一种监控视频目标映射到三维地理场景模型的方法及系统 | |
CN110148223B (zh) | 三维地理场景模型中监控视频目标浓缩表达方法及系统 | |
CN109598794B (zh) | 三维gis动态模型的构建方法 | |
JP5306652B2 (ja) | 集積された画像プロセッサ | |
CN108694741B (zh) | 一种三维重建方法及装置 | |
US20150138310A1 (en) | Automatic scene parsing | |
CN107665505B (zh) | 基于平面检测实现增强现实的方法及装置 | |
CN107111880A (zh) | 针对计算机视觉的遮挡处置 | |
US20160042515A1 (en) | Method and device for camera calibration | |
CN112686877B (zh) | 基于双目相机的三维房屋损伤模型构建测量方法及系统 | |
CN110992484B (zh) | 一种交通动态视频在真景三维平台中的显示方法 | |
KR101759798B1 (ko) | 실내 2d 평면도의 생성 방법, 장치 및 시스템 | |
JP2000020728A (ja) | 画像処理装置及び方法 | |
CN110634138A (zh) | 一种基于视觉感知的桥梁变形的监测方法、装置及设备 | |
CN111383204A (zh) | 视频图像融合方法、融合装置、全景监控系统及存储介质 | |
CN115641401A (zh) | 一种三维实景模型的构建方法及相关装置 | |
CN110598139A (zh) | 基于5G云计算的Web浏览器增强现实实时定位的方法 | |
CN107862713A (zh) | 针对轮询会场的摄像机偏转实时检测预警方法及模块 | |
CN109064533B (zh) | 一种3d漫游方法及系统 | |
CN111161130B (zh) | 一种基于三维地理信息的视频矫正方法 | |
CN114387346A (zh) | 一种图像识别、预测模型处理方法、三维建模方法和装置 | |
CN105631849B (zh) | 多边形目标的变化检测方法及装置 | |
CN113763438B (zh) | 一种点云配准方法、装置、设备及存储介质 | |
WO2020196520A1 (en) | Method, system and computer readable media for object detection coverage estimation | |
CN109242900B (zh) | 焦平面定位方法、处理装置、焦平面定位系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |