CN109934844A - 一种融合地理空间信息的多目标跟踪方法及系统 - Google Patents
一种融合地理空间信息的多目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN109934844A CN109934844A CN201910082117.1A CN201910082117A CN109934844A CN 109934844 A CN109934844 A CN 109934844A CN 201910082117 A CN201910082117 A CN 201910082117A CN 109934844 A CN109934844 A CN 109934844A
- Authority
- CN
- China
- Prior art keywords
- target
- foreground target
- monitor video
- camera
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明提供一种融合地理空间信息的多目标跟踪方法及系统,该跟踪方法包括以下步骤:获取拍摄监控视频数据相机的内参矩阵和外参矩阵,根据相机的内参矩阵和外参矩阵建立图像空间与地理空间的映射模型;获取相机的监控视频数据,对监控视频数据进行目标检测获取前景目标,并对前景目标进行跟踪,得到前景目标的跟踪轨迹;利用所述映射模型将得到的前景目标和前景目标的跟踪轨迹转换到地理空间,并将转换后的前景目标和前景目标跟踪轨迹与真实地图融合,实现前景目标跟踪在真实地图的可视化表达。本发明提供的技术方案能够得到前景目标跟踪在真实地图中可视化表达,解决多目标跟踪时由于没有与实际地理空间结合而造成跟踪结果可视效果差的问题。
Description
技术领域
本发明属于多目标跟踪技术领域,具体涉及一种融合地理空间信息的多目标跟踪方法及系统。
背景技术
随着科技的发展和人们安全意识的加强,各小区、厂区和街道上设置的监控摄像头越来越多,通过这些监控摄像头能够对相应的区域进行监视。由于监控摄像头的数量众多,所检测到的数据量也非常庞大,并且这些摄像头所记录下的视频是一种非结构化数据,在对这些数据进行处理时又将会衍生出新的信息和意想不到的数据特征。
视频的多目标跟踪技术是应用监控摄像头所获取数据的一个重要研究方向,常见的视频多目标跟踪技术有多假设跟踪、联合概率数据滤波、简单在线实时跟踪、马尔科夫决策、循环神经网络等多目标跟踪方法。
但是这些多目标跟踪方法是基于视频影像本身的跟踪方法,即使影像目标的检测、跟踪等精度提高,分析得到的结果也仅仅是影像中的坐标,如申请公布号为CN108573496A的中国发明专利申请文件所公开的基于LSTM网络和深度增强学习的多目标跟踪方法,就是只能够得到影像中的坐标。这种多目标跟踪方法的弊端在于:以监控视频的目标跟踪为例,监控者们更想得到的是实际地理位置中目标的动态方位、速度、运动轨迹等信息,而现有的多目标跟踪无法完成该任务。
发明内容
本发明的目的在于提供一种融合地理空间信息的多目标跟踪方法,用于解决由于目前多目标跟踪过程中得到的目标运动轨迹只是影像上位置、没有与实际地理空间结合,而导致可视效果差的问题;相应的,本发明还提供一种融合地理空间信息的多目标跟踪系统,用于解决由于目前多目标跟踪过程中得到的目标运动轨迹只是影像上位置、没有与实际地理空间结合,而导致可视效果差的问题。
为实现上述目的,本发明提供的技术方案是:
一种融合地理空间信息的多目标跟踪方法,该跟踪方法包括以下步骤:
(1)获取拍摄监控视频数据相机的内参矩阵和外参矩阵,根据相机的内参矩阵和外参矩阵建立图像空间与地理空间的映射模型;
(2)获取相机的监控视频数据,对监控视频数据进行目标检测获取前景目标,并对前景目标进行跟踪,得到前景目标的跟踪轨迹;
(3)利用所述映射模型将得到的前景目标和前景目标的跟踪轨迹转换到地理空间,并将转换后的前景目标和前景目标跟踪轨迹与真实地图融合,实现前景目标跟踪在真实地图的可视化表达。
本发明所提供的技术方案,在得到前景目标的跟踪轨迹后,将前景目标和前景目标的跟踪轨迹转换到地理空间中,并将转换后的前景目标和前景目标跟踪轨迹与真实地图融合,从而使前景目标跟踪在真实地图中可视化表达,解决由于目前多目标跟踪过程中得到的目标运动轨迹只是影像上位置、没有与实际地理空间结合,而导致可视效果差的问题。
进一步的,所述步骤(2)中处理过程为:
步骤A:对监控视频数据进行差分处理,筛除无前景目标帧和变化小于设定阈值的帧;
步骤B:将筛选后的监控视频数据导入YOLOv3检测器中,获取前景目标在视频影像中的坐标框及类别;
步骤C:将获取的前景目标数据置入DeepSort多目标跟踪器,获取监控视频数据中的各前景目标跟踪轨迹。
对监控视频数据进行差分处理能够减少监控视频数据中的干扰信号,增加对监控视频数据处理的可靠性;通过YOLOv3检测器能够准确获取前景目标在视频影像中的坐标框及类别,通过DeepSort多目标跟踪器能够快速获取监控视频数据中的各前景目标跟踪轨迹。
进一步的,所述步骤(1)中相机的内参数矩阵通过张正友标定法标定得到;相机的外参矩阵通过对n点透视问题Perspective-n-Points进行求解得到。
通过张正友标定法标定得到相机的内参数矩阵,能够得到相机的畸变参数;通过对n点透视问题Perspective-n-Points进行求解得到相机的外参矩阵,求解结果的精度较高。
进一步的,为了提高可视化效果,实现前景目标和目标轨迹不同模式的显示,所述真实地图为影像地图或者矢量地图。
进一步的,所述步骤A采用基于背景建模的运动目标检测方法实现。
背景建模的运动目标检测方法主要是针对于视频数据,要求背景在一定的时间段内保持不变,该检测方法运算速度通常较快,且所检测的前景目标为目标的掩膜形状。
进一步的,该方法还包括对步骤C得到的前景目标跟踪轨迹校正的步骤。
通过对前景目标跟踪轨迹校正,能够使前景目标的跟踪轨迹更加准确。
一种融合地理空间信息的多目标跟踪系统,包括处理器、存储器以及在所述存储器上存储并用于在所述处理器上执行的计算机程序;所述处理器执行所述计算机程序时实现的过程包括如下步骤:
(1)获取拍摄监控视频数据相机的内参矩阵和外参矩阵,根据相机的内参矩阵和外参矩阵建立图像空间与地理空间的映射模型;
(2)获取相机的监控视频数据,对监控视频数据进行目标检测获取前景目标,并对前景目标进行跟踪,得到前景目标的跟踪轨迹;
(3)利用所述映射模型将得到的前景目标和前景目标的跟踪轨迹转换到地理空间,并将转换后的前景目标和前景目标跟踪轨迹与真实地图融合,实现前景目标跟踪在真实地图的可视化表达。
本发明所提供的技术方案,在得到前景目标的跟踪轨迹后,将前景目标和前景目标的跟踪轨迹转换到地理空间中,并将转换后的前景目标和前景目标跟踪轨迹与真实地图融合,从而使前景目标跟踪在真实地图中可视化表达,解决由于目前多目标跟踪过程中得到的目标运动轨迹只是影像上位置、没有与实际地理空间结合,而导致可视效果差的问题。
进一步的,所述步骤(2)中处理过程为:
步骤A:对监控视频数据进行差分处理,筛选出无前景目标帧和变化小于设定阈值的帧;
步骤B:将筛选后的监控视频数据导入YOLOv3检测器中,获取前景目标在视频影像中的坐标框及类别;
步骤C:将获取的前景目标数据置入DeepSort多目标跟踪器,获取监控视频数据中的各前景目标跟踪轨迹。
对监控视频数据进行差分处理能够减少监控视频数据中的干扰信号,增加对监控视频数据处理的可靠性;通过YOLOv3检测器能够准确获取前景目标在视频影像中的坐标框及类别,通过DeepSort多目标跟踪器能够快速获取监控视频数据中的各前景目标跟踪轨迹。
进一步的,所述步骤(1)中相机的内参数矩阵通过张正友标定法标定得到;相机的外参矩阵通过对n点透视问题Perspective-n-Points进行求解得到。
通过张正友标定法标定得到相机的内参数矩阵,能够得到相机的畸变参数;通过对n点透视问题Perspective-n-Points进行求解得到相机的外参矩阵,求解结果的精度较高。
进一步的,为了提高可视化效果,实现前景目标和目标轨迹不同模式的显示,所述真实地图为影像地图或者矢量地图。
附图说明
图1为本发明方法实施例中融合地理空间信息的多目标跟踪方法的流程图;
图2为本发明方法实施例中融合地理空间信息的多目标跟踪方法的数据传递示意图;
图3a为本发明方法实施例中视频图像空间中的视角;
图3b为本发明方法实施例中地理物方空间中的视角;
图4为本发明方法实施例中截取的部分帧与所对应的跟踪结果;
图5a为本发明方法实施例中多目标跟踪轨迹在图像空间中的可视化表达;
图5b为本发明方法实施例中多目标跟踪轨迹在地理物方空间中的可视化表达;
图5c为本发明方法实施例中原始跟踪轨迹节点;
图5d为本发明方法实施例中通过三次多项式拟合后的轨迹节点;
图6a为本发明方法实施例中采用无人机遥感影像图作为底图的融合方式;
图6b为本发明方法实施例中采用矢量底图作为底图的融合模式;
图7为本发明方法实施例中跟踪轨迹层、前景目标层、背景层和真实地图层的示意图;
图8a为本发明方法实施例中采用真实地图层+背景层+前景目标层+轨迹层的融合模式;
图8b为本发明方法实施例中采用真实地图层+前景目标层+轨迹层的融合模式;
图8c为本发明方法实施例中采用矢量地图层+背景层+前景目标层+轨迹层的融合模式;
图8d为本发明方法实施例中采用矢量地图层+前景目标层+轨迹层的融合模式;
图9为本发明系统实施例中计算机程序设计架构的示意图;
图10为本发明系统实施例中可视化表达层界面的示意图。
具体实施方式
下面结合具体实施方式对本发明的技术方案作进一步说明。
方法实施例:
本实施例提供一种融合地理空间信息的多目标跟踪方法,用于对监控摄像头获取的视频数据进行多目标跟踪,并解决目前多目标跟踪过程中得到的目标运动轨迹只是在影像上的位置,没有与实际地理空间相结合,可视效果差的问题。
本实施例所提供的融合地理空间信息的融合地理空间信息的多目标跟踪方法,其处理的流程如图1所示,处理过程中数据的传递方向如图2所示,该融合地理空间信息的多目标跟踪方法包括如下步骤:
(1)获取拍摄监控视频数据相机的内参矩阵和外参矩阵,根据相机的内参矩阵和外参矩阵建立图像空间与地理空间的映射模型。
本实施例中获取拍摄监控视频数据相机的内参矩阵时采用的是张正友标定法拍摄10-20张标定板图像进行标定,采用张正友标定法获取相机的内参矩阵属于现有技术,这里不多做说明;采用张正友标定法获取相机内参矩阵时还能够得到相机是否存在畸变,如果相机存在畸变,则获取相机畸变参数并对其进行畸变校正。
本实施例中通过对n点透视问题Perspective-n-Points求解得到拍摄监控视频数据相机的外参矩阵,该求解相机外参矩阵的方法属于现有技术,其求解结果精度较高且应用较广。
设地理空间中点p的坐标为(Xw,Yw,Zw),通过旋转矩阵R和平移向量t经点p转换为相机坐标系下后其坐标为(Xc,Yc,Zc),坐标(Xc,Yc,Zc)与其对应图像坐标(u,v)可以通过透视投影比例关系来描述,透视投影比例关系为:
上式中f为相机焦距,dx、dy为相机传感器在水平与垂直方向的像元物理尺寸,u0、v0为图像像素主点坐标,K是内参矩阵,仅根据与相机内部结构相关的参数所决定。[R|t]是由相机相对世界坐标系的旋转矩阵R和平移向量t所决定的外参矩阵。P为相机投影矩阵。
假设地面为一平面,将图像坐标系中的点映射至世界坐标中,设图像坐标系中点m在世界坐标中对应的点为M,则:
m=[x,y,1]T
M=[Xw,Yw,0,1]T
m=HM
即
因此可求出:
上述所求解的H矩阵是图像空间与地理空间的映射模型,该映射模型为平面上地理空间的点透视变化至图像空间中的点时所采用的转换关系;为了求解图像空间点投射至物方空间中时所采用的转换关系,需要求出H矩阵的逆矩阵,即:
H-1==(K[r1,r2,t])-
假设世界坐标的高程为0时,即将其看作平面时,通过计算相机内参矩阵K与外参矩阵[r1,r2|t]即可求解出H矩阵。
(2)获取相机的监控视频数据,对监控视频数据进行目标检测获取前景目标,并对前景目标进行跟踪,得到前景目标的跟踪轨迹。
本实施例中该步骤包括如下处理过程:
步骤A:对监控视频数据进行差分处理,筛除无前景目标帧和变化小于设定阈值的帧;
在差分处理过程中,需要实时建立背景模型,建立的流程如下:
设监控视频数据中各像素的像素值序列为{X1,X2,…,Xn},采用M个高斯分布对其进行综合描述,当前元素的像素值概率密度计算公式为:
其中M是高斯模型数量,ωi,n是在n时间处第i个高斯模型所占权重,μi,n是n时间处第i个高斯模型所得期望,∑i,n是n时间处第i个高斯模型所计算的协方差矩阵,η是概率密度,其计算公式为:
当像素值与K个高斯分布均不匹配时,权重最低者将被剔除,M个高斯分布的权重更新公式为:
ωi,n=(1-α)ωi,n-1+α(Li,n)
其中α代表学习速率,Li,n代表模型是否被匹配,匹配时为1,反之为0;ωi,n代表时间从1到n时,当前像素值由第i个高斯分布产生的后验概率的低通滤波平均值。
背景模型所采用的公式为:
其中B个分布为当前时间的背景模型,T为判定阈值。
基于背景建模的目标检测方法所得到的前景图像为二值化图像,所以为了满足可视化表达的要求,以所求得的差分影像作为掩膜,对当前帧进行掩膜提取操作,获取真实的目标提取结果。
设当前帧为It,背景图像为Bt,设定阈值为Ti,t,对于当前帧像素(x,y),如果满足关系:
|It(x,y)-Bt(x,y)|>Ti,t
则判断为该像素点为前景像素点,当前帧为前景目标帧,而筛除的就是无前景目标帧和变化小于设定阈值的帧。
步骤B:将筛选后的监控视频数据导入YOLOv3检测器中,获取前景目标在视频影像中的坐标框及类别;
通过步骤A筛除监控视频数据中的无前景目标和变化小于设定阈值的帧后,将其输入到YOLOv3检测器中,利用YOLOv3检测器训练出的前景目标检测模型进行处理,输出检测框、类别和置信度。
步骤C:将获取的前景目标数据置入DeepSort多目标跟踪器,获取监控视频数据中的各前景目标跟踪轨迹。
将YOLOv3检测器输出的数据作为DeepSort多目标跟踪器的输入数据,YOLOv3检测器输出的数据在DeepSort多目标跟踪器中通过改进的递归卡尔曼滤波预测位置并跟踪,采用马氏距离与深度描述子的余弦距离作为融合后的度量,采用匈牙利算法进行级联匹配,最后输出监控视频数据中各前景目标的跟踪轨迹。
(3)利用所述映射模型将得到的前景目标和前景目标的跟踪轨迹转换到地理空间,并将转换后的前景目标和前景目标跟踪轨迹与真实地图融合,实现前景目标跟踪在真实地图的可视化表达。
将以目标的中心作为轨迹的节点初值,根据相机相对地平面的位姿以及目标在图像中所占比例大小进行校正,校正方法为:设根据DeepSort多目标跟踪器获取的监控视频数据ti中前景目标Om的检测框为(u,v,γ,h),其中u、v、γ和h分别对应检测框左下点的横坐标、纵坐标、宽高比例和高度,则监控视频数据ti中前景目标Om在图像坐标系中对应的轨迹节点Tj(u',v')为:
式中δ、σ为校正值,对监控视频中每一帧的轨迹节点做最小二乘法运算,得到的改正数投影至图像坐标系中的两个坐标轴上,即可得到δ、σ。
由于DeepSort多目标跟踪器获取的检测框并不能达到绝对的精度,因此将所有前景目标的轨迹节点连接所得到的轨迹Trajn具有一定误差,所以需要对所有轨迹节点进行三次多项式拟合来降低由于检测所带来的误差,设拟合时所采用的三次多项式为:
y=a0+a1x+…+akxk(k=3)
各轨迹节点到该多项式的偏差平方和为:
经过求偏导化简后得到如下矩阵表达形式:
即
X×A=Y
A=(XTX)-XTY
结合得到的映射矩阵,当获得图像坐标系中的当前目标的轨迹节点的点集:
通过映射矩阵可计算得到物方空间中目标的轨迹节点集在图像空间对应的点集,经过上述三次多项式拟合后得到的地理空间中轨迹节点集为:
最后根据前景目标在地理空间中轨迹节点集得到地图中的影像,本实施例中的地图为无人机遥感影像地图;作为其他实施方式,也可以采用矢量地图,或者采用其他正视影像地图。
本实施例中采用基于背景建模的目标检测方法得到前景图像,作为其他实施方式,也可以采用基于目标建模的检测方法得到前景图像。
由于DeepSort跟踪器需要高精度的检测数据,因此本实施例中将监控视频数据通过YOLOv3检测器进行处理后作为DeepSort跟踪器的输入量;作为其他实施方式,也可以采用SSD(Single shot MutiBox Detector)、Faster R-CNN、R-FCN(Region-based FullyConvolutional Networks)等方法对监控视频数据进行处理以提高其精度。
本实施例所采用的Deepsort跟踪器获取监控视频数据中的前景目标跟踪轨迹;作为其他实施方式,也可以采用其他方法得到监控视频数据中的前景目标跟踪轨迹,如IOU(Intersection over Union)、MOTDT(Real-time Multiple People Tracking withDeeply Learned Candidate Selection and Person Re-identification)等。
下面对本实施例所提供的融合地理空间信息的多目标跟踪方法进行实验验证:
在验证本实施例所提供的融合地理空间信息的多目标跟踪方法时,采用的是校园某一区域的监控视频,真实地图为无人机在120米高度拍摄的无人机遥感地图,像素分辨率为0.08米。本实施例所提供的融合地理空间信息的多目标跟踪方法,使用的硬件环境采用了型号为Intel XEON CPU E5-1607、主频为3.00GHz、内存为16G的处理器,型号为NVIDIAGTX1060、显存为6G的显卡。
实验数据是由USB外置相机采集,像素为640×480,通过张正友标定法得到的拍摄监控视频数据相机的内参矩阵为:
畸变参数为:
[-0.3855 0.2610 0.0037 -0.0037]
由于该相机存在桶形畸变,且该桶形畸变一定程度上影响了映射结果,因此对视频影像首先进行畸变校正,再将畸变校正后的结果选取对应点进行PNP的计算,获取相机外参数矩阵。世界坐标与图像坐标对应点对如表1所示。
表1
地理空间坐标系 | 图像坐标系 |
(460471.188545,3853986.285574,0) | (411.572036,52.501202) |
(460477.726312,3853997.308430,0) | (64.504398,6.506124) |
(460457.092360,3853990.164838,0) | (295.583308,419.436340) |
(460457.107798,3853986.005468,0) | (607.761291,401.538110) |
(460469.792619,3853994.166355,0) | (125.351499,86.497767) |
标定出的相机在地理空间中的坐标为(460449.5046,3853990.102,7.625628456),相机的三个旋转角为[-178.157° 55.4671° 91.3326°]。
采用EPNP(efficient Perspective-n-Points)算法和Iteration算法对n点透视问题Perspective-n-Points进行求解,得到拍摄监控视频数据相机的外参矩阵为:
此时监控视频背景通过地理映射模型投射前后的对比如图3a和图3b所示,其中图3a为视频图像空间中的视角,图3b为地理物方空间中的视角,此时视频的背景已具有地理信息,可实现查询、测量等功能。
图4是在实验过程中截取的部分帧与所对应的跟踪结果,跟踪的目标有四个,图4中边框含有白色的是采用递归卡尔曼滤波所得到的预测框,边框为纯色的是由差分YOLOv3检测器所得出的检测框,并且各目标都设有ID号,为每个通过匈牙利算法进行级联匹配后所确定的跟踪结果,图4中四个跟踪目标的ID号分别为ID1、ID2、ID3和ID4。
视频数据中编号为ID1的目标在图像空间中的部分跟踪轨迹节点与通过映射模型投射至地理物方空间中对应节点如表2所示。
表2
图5a为多目标跟踪轨迹在图像空间中的可视化表达,图5b为多目标跟踪轨迹在地理物方空间中的可视化表达;图5c是原始跟踪轨迹节点,将这些轨迹节点通过三次多项式拟合后的误差较小的平滑轨迹,如图5d所示。
图6a为采用无人机遥感影像图作为底图的融合模式,该底图可最大程度反映真实的场景,但由于更新的原因,在特殊情况下可与背景层叠加显示;图6b为采用矢量地图作为底图的融合模式,这种模式可突出前景动态目标等摘要信息,使表达更加美化简明。
图7为跟踪轨迹层、前景目标层、背景层和真实地图层,采用不同的融合模式进行融合,可根据需求实现不同的可视化效果。
图8a所示的是前景目标与地理信息采用真实地图层+背景层+前景目标层+轨迹层的融合模式,这种融合模式表达元素最为全面,背景层的融合可利用视频对真实场景更新,表达出地图层不具备的信息。图8b所示为在图8a所示融合模式的基础上去除了背景层,该表达模式主要应用于背景场景变化较小的情况下。图8c所示为前景目标与地理信息采用矢量地图层+背景层+前景目标层+轨迹层的融合模式,图8d所示图8c所示融合模式的基础上去除了背景层,图8c所示和图8d所示的融合模式在可视化效果中更为直观,当对场景信息关注度较小时可采用该类融合模式。
系统实施例:
本实施例提供一种融合地理空间信息的多目标跟踪系统,包括处理器、存储器以及在存储器上存储并用于在处理器上执行的计算机程序;处理器执行所述计算机程序时实现如上述方法实施例中所提供的融合地理空间信息的多目标跟踪方法。
本实施例所提供的融合地理空间信息的多目标跟踪系统,其存储器上存储的计算机程序的设计架构自上而下分别为数据层、功能层及可视化表达层,如图9所示。数据层主要是用于数据信息的存储,包括原始视频影像数据、经过处理分析的前景目标数据、所得到的跟踪轨迹数据以及地理信息数据,方便于后续功能层的调用;功能层展示了该系统所具备的所有功能,包括目标的检测、前景目标的提取、多目标的跟踪、监控视频与地理信息的映射转换、以及融合地理信息的目标轨迹的可视化表达及后续分析功能。可视化表达层利用C#+ARCGIS进行二次开发,实现了地图展示、基本的空间分析功能、定点监控视频的播放功能,以及融合地理信息后的监控视频多目标跟踪可视化表达,如图10所示。
Claims (10)
1.一种融合地理空间信息的多目标跟踪方法,其特征在于,该跟踪方法包括以下步骤:
(1)获取拍摄监控视频数据相机的内参矩阵和外参矩阵,根据相机的内参矩阵和外参矩阵建立图像空间与地理空间的映射模型;
(2)获取相机的监控视频数据,对监控视频数据进行目标检测获取前景目标,并对前景目标进行跟踪,得到前景目标的跟踪轨迹;
(3)利用所述映射模型将得到的前景目标和前景目标的跟踪轨迹转换到地理空间,并将转换后的前景目标和前景目标跟踪轨迹与真实地图融合,实现前景目标跟踪在真实地图的可视化表达。
2.根据权利要求1所述的融合地理空间信息的多目标跟踪方法,其特征在于,所述步骤(2)中处理过程为:
步骤A:对监控视频数据进行差分处理,筛除无前景目标帧和变化小于设定阈值的帧;
步骤B:将筛选后的监控视频数据导入YOLOv3检测器中,获取前景目标在视频影像中的坐标框及类别;
步骤C:将获取的前景目标数据置入DeepSort多目标跟踪器,获取监控视频数据中的各前景目标跟踪轨迹。
3.根据权利要求1所述的融合地理空间信息的多目标跟踪方法,其特征在于,所述步骤(1)中相机的内参数矩阵通过张正友标定法标定得到;相机的外参矩阵通过对n点透视问题Perspective-n-Points进行求解得到。
4.根据权利要求1所述的融合地理空间信息的多目标跟踪方法,其特征在于,所述真实地图为无人遥感影像地图或者矢量地图。
5.根据权利要求2所述的融合地理空间信息的多目标跟踪方法,其特征在于,所述步骤A采用基于背景建模的运动目标检测方法实现。
6.根据权利要求2所述的融合地理空间信息的多目标跟踪方法,其特征在于,该方法还包括对步骤C得到的前景目标跟踪轨迹校正的步骤。
7.一种融合地理空间信息的多目标跟踪系统,包括处理器、存储器以及在所述存储器上存储并用于在所述处理器上执行的计算机程序;其特征在于,所述处理器执行所述计算机程序时实现的过程包括如下步骤:
(1)获取拍摄监控视频数据相机的内参矩阵和外参矩阵,根据相机的内参矩阵和外参矩阵建立图像空间与地理空间的映射模型;
(2)获取相机的监控视频数据,对监控视频数据进行目标检测获取前景目标,并对前景目标进行跟踪,得到前景目标的跟踪轨迹;
(3)利用所述映射模型将得到的前景目标和前景目标的跟踪轨迹转换到地理空间,并将转换后的前景目标和前景目标跟踪轨迹与真实地图融合,实现前景目标跟踪在真实地图的可视化表达。
8.根据权利要求7所述的融合地理空间信息的多目标跟踪系统,其特征在于,所述步骤(2)中处理过程为:
步骤A:对监控视频数据进行差分处理,筛除无前景目标帧和变化小于设定阈值的帧;
步骤B:将筛选后的监控视频数据导入YOLOv3检测器中,获取前景目标在视频影像中的坐标框及类别;
步骤C:将获取的前景目标数据置入DeepSort多目标跟踪器,获取监控视频数据中的各前景目标跟踪轨迹。
9.根据权利要求7所述的融合地理空间信息的多目标跟踪系统,其特征在于,所述步骤(1)中相机的内参数矩阵通过张正友标定法标定得到;相机的外参矩阵通过对n点透视问题Perspective-n-Points进行求解得到。
10.根据权利要求7所述的融合地理空间信息的多目标跟踪系统,其特征在于,所述真实地图为无人遥感影像地图或者矢量地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910082117.1A CN109934844A (zh) | 2019-01-28 | 2019-01-28 | 一种融合地理空间信息的多目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910082117.1A CN109934844A (zh) | 2019-01-28 | 2019-01-28 | 一种融合地理空间信息的多目标跟踪方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109934844A true CN109934844A (zh) | 2019-06-25 |
Family
ID=66985283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910082117.1A Pending CN109934844A (zh) | 2019-01-28 | 2019-01-28 | 一种融合地理空间信息的多目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109934844A (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110632941A (zh) * | 2019-09-25 | 2019-12-31 | 北京理工大学 | 一种复杂环境下无人机目标跟踪的轨迹生成方法 |
CN110720929A (zh) * | 2019-09-23 | 2020-01-24 | 浙江工业大学 | 基于二值传感器有界递归优化融合的血液氧气含量估计方法 |
CN110782484A (zh) * | 2019-10-25 | 2020-02-11 | 上海浦东临港智慧城市发展中心 | 一种无人机视频人员识别追踪的方法 |
CN110782483A (zh) * | 2019-10-23 | 2020-02-11 | 山东大学 | 基于分布式相机网络的多视图多目标跟踪方法及系统 |
CN111027370A (zh) * | 2019-10-16 | 2020-04-17 | 合肥湛达智能科技有限公司 | 一种多目标跟踪及行为分析检测方法 |
CN111027461A (zh) * | 2019-12-06 | 2020-04-17 | 长安大学 | 基于多维单步lstm网络的车辆轨迹预测方法 |
CN111127513A (zh) * | 2019-12-02 | 2020-05-08 | 北京交通大学 | 一种多目标跟踪方法 |
CN111192297A (zh) * | 2019-12-31 | 2020-05-22 | 山东广域科技有限责任公司 | 一种基于度量学习的多摄像头目标关联跟踪方法 |
CN111554105A (zh) * | 2020-05-29 | 2020-08-18 | 浙江科技学院 | 一种复杂交通路口的智能流量识别与统计方法 |
CN111612851A (zh) * | 2020-05-20 | 2020-09-01 | 北京百度网讯科技有限公司 | 用于标定相机的方法、装置、设备以及存储介质 |
CN111723664A (zh) * | 2020-05-19 | 2020-09-29 | 烟台市广智微芯智能科技有限责任公司 | 一种用于开放式区域的行人计数方法及系统 |
CN111754552A (zh) * | 2020-06-29 | 2020-10-09 | 华东师范大学 | 一种基于深度学习的多摄像头协同目标跟踪方法 |
CN111831770A (zh) * | 2020-06-30 | 2020-10-27 | 中国人民解放军战略支援部队信息工程大学 | 一种高速测控目标视图控制方法及装置 |
CN112200909A (zh) * | 2020-09-24 | 2021-01-08 | 上海麦图信息科技有限公司 | 一种集成并显示机场地面对象综合信息的场监系统 |
CN112215071A (zh) * | 2020-09-10 | 2021-01-12 | 华蓝设计(集团)有限公司 | 异质交通流下自动驾驶车载多目标耦合识别与追踪方法 |
CN112215873A (zh) * | 2020-08-27 | 2021-01-12 | 国网浙江省电力有限公司电力科学研究院 | 用于对变电站内多目标跟踪定位的方法 |
CN112329521A (zh) * | 2020-09-24 | 2021-02-05 | 上海品览数据科技有限公司 | 一种基于深度学习的多目标跟踪视频巡店方法 |
CN112633162A (zh) * | 2020-12-22 | 2021-04-09 | 重庆大学 | 适于高速公路外场遮挡条件下的行人快速检测及跟踪方法 |
CN112650298A (zh) * | 2020-12-30 | 2021-04-13 | 广东工业大学 | 一种无人机追踪降落方法及系统 |
CN112800828A (zh) * | 2020-12-18 | 2021-05-14 | 零八一电子集团有限公司 | 地面栅格占有概率目标轨迹方法 |
CN112837296A (zh) * | 2021-02-05 | 2021-05-25 | 深圳瀚维智能医疗科技有限公司 | 基于超声视频的病灶检测方法、装置、设备及存储介质 |
CN113837087A (zh) * | 2021-09-24 | 2021-12-24 | 上海交通大学宁波人工智能研究院 | 一种基于YOLOv3的动物目标检测系统和方法 |
CN115984970A (zh) * | 2023-03-13 | 2023-04-18 | 浙江宇视科技有限公司 | 行人身高确定方法、装置、电子设备和存储介质 |
CN116168344A (zh) * | 2023-02-21 | 2023-05-26 | 航天正通汇智(北京)科技股份有限公司 | 一种基于阵列计算视觉的安保监测方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104299236A (zh) * | 2014-10-20 | 2015-01-21 | 中国科学技术大学先进技术研究院 | 一种基于场景标定结合插值的目标定位方法 |
CN105898200A (zh) * | 2014-12-01 | 2016-08-24 | 支录奎 | 一种对嫌疑目标定位轨迹跟踪的网络摄像机及系统 |
CN106446002A (zh) * | 2016-08-01 | 2017-02-22 | 三峡大学 | 一种基于运动目标在地图中轨迹的视频检索方法 |
CN106767810A (zh) * | 2016-11-23 | 2017-05-31 | 武汉理工大学 | 一种基于移动终端的wifi和视觉信息的室内定位方法及系统 |
-
2019
- 2019-01-28 CN CN201910082117.1A patent/CN109934844A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104299236A (zh) * | 2014-10-20 | 2015-01-21 | 中国科学技术大学先进技术研究院 | 一种基于场景标定结合插值的目标定位方法 |
CN105898200A (zh) * | 2014-12-01 | 2016-08-24 | 支录奎 | 一种对嫌疑目标定位轨迹跟踪的网络摄像机及系统 |
CN106446002A (zh) * | 2016-08-01 | 2017-02-22 | 三峡大学 | 一种基于运动目标在地图中轨迹的视频检索方法 |
CN106767810A (zh) * | 2016-11-23 | 2017-05-31 | 武汉理工大学 | 一种基于移动终端的wifi和视觉信息的室内定位方法及系统 |
Non-Patent Citations (1)
Title |
---|
AIHGF: "Github 项目- 基于YOLOV3 和 DeepSort 的实时多人追踪", 《HTTPS://BLOG.CSDN.NET/ZZIAHGF/ARTICLE/DETAILS/85344859》 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110720929A (zh) * | 2019-09-23 | 2020-01-24 | 浙江工业大学 | 基于二值传感器有界递归优化融合的血液氧气含量估计方法 |
CN110632941A (zh) * | 2019-09-25 | 2019-12-31 | 北京理工大学 | 一种复杂环境下无人机目标跟踪的轨迹生成方法 |
CN111027370A (zh) * | 2019-10-16 | 2020-04-17 | 合肥湛达智能科技有限公司 | 一种多目标跟踪及行为分析检测方法 |
CN110782483B (zh) * | 2019-10-23 | 2022-03-15 | 山东大学 | 基于分布式相机网络的多视图多目标跟踪方法及系统 |
CN110782483A (zh) * | 2019-10-23 | 2020-02-11 | 山东大学 | 基于分布式相机网络的多视图多目标跟踪方法及系统 |
CN110782484A (zh) * | 2019-10-25 | 2020-02-11 | 上海浦东临港智慧城市发展中心 | 一种无人机视频人员识别追踪的方法 |
CN111127513A (zh) * | 2019-12-02 | 2020-05-08 | 北京交通大学 | 一种多目标跟踪方法 |
CN111127513B (zh) * | 2019-12-02 | 2024-03-15 | 北京交通大学 | 一种多目标跟踪方法 |
CN111027461A (zh) * | 2019-12-06 | 2020-04-17 | 长安大学 | 基于多维单步lstm网络的车辆轨迹预测方法 |
CN111027461B (zh) * | 2019-12-06 | 2022-04-29 | 长安大学 | 基于多维单步lstm网络的车辆轨迹预测方法 |
CN111192297A (zh) * | 2019-12-31 | 2020-05-22 | 山东广域科技有限责任公司 | 一种基于度量学习的多摄像头目标关联跟踪方法 |
CN111723664A (zh) * | 2020-05-19 | 2020-09-29 | 烟台市广智微芯智能科技有限责任公司 | 一种用于开放式区域的行人计数方法及系统 |
CN111612851A (zh) * | 2020-05-20 | 2020-09-01 | 北京百度网讯科技有限公司 | 用于标定相机的方法、装置、设备以及存储介质 |
CN111612851B (zh) * | 2020-05-20 | 2023-04-07 | 阿波罗智联(北京)科技有限公司 | 用于标定相机的方法、装置、设备以及存储介质 |
CN111554105A (zh) * | 2020-05-29 | 2020-08-18 | 浙江科技学院 | 一种复杂交通路口的智能流量识别与统计方法 |
CN111554105B (zh) * | 2020-05-29 | 2021-08-03 | 浙江科技学院 | 一种复杂交通路口的智能流量识别与统计方法 |
CN111754552A (zh) * | 2020-06-29 | 2020-10-09 | 华东师范大学 | 一种基于深度学习的多摄像头协同目标跟踪方法 |
CN111831770A (zh) * | 2020-06-30 | 2020-10-27 | 中国人民解放军战略支援部队信息工程大学 | 一种高速测控目标视图控制方法及装置 |
CN111831770B (zh) * | 2020-06-30 | 2023-02-03 | 中国人民解放军战略支援部队信息工程大学 | 一种高速测控目标视图控制方法及装置 |
CN112215873A (zh) * | 2020-08-27 | 2021-01-12 | 国网浙江省电力有限公司电力科学研究院 | 用于对变电站内多目标跟踪定位的方法 |
CN112215071A (zh) * | 2020-09-10 | 2021-01-12 | 华蓝设计(集团)有限公司 | 异质交通流下自动驾驶车载多目标耦合识别与追踪方法 |
CN112329521A (zh) * | 2020-09-24 | 2021-02-05 | 上海品览数据科技有限公司 | 一种基于深度学习的多目标跟踪视频巡店方法 |
CN112200909A (zh) * | 2020-09-24 | 2021-01-08 | 上海麦图信息科技有限公司 | 一种集成并显示机场地面对象综合信息的场监系统 |
CN112800828A (zh) * | 2020-12-18 | 2021-05-14 | 零八一电子集团有限公司 | 地面栅格占有概率目标轨迹方法 |
CN112633162A (zh) * | 2020-12-22 | 2021-04-09 | 重庆大学 | 适于高速公路外场遮挡条件下的行人快速检测及跟踪方法 |
CN112633162B (zh) * | 2020-12-22 | 2024-03-22 | 重庆大学 | 适于高速公路外场遮挡条件下的行人快速检测及跟踪方法 |
CN112650298B (zh) * | 2020-12-30 | 2021-08-17 | 广东工业大学 | 一种无人机追踪降落方法及系统 |
CN112650298A (zh) * | 2020-12-30 | 2021-04-13 | 广东工业大学 | 一种无人机追踪降落方法及系统 |
CN112837296A (zh) * | 2021-02-05 | 2021-05-25 | 深圳瀚维智能医疗科技有限公司 | 基于超声视频的病灶检测方法、装置、设备及存储介质 |
CN113837087A (zh) * | 2021-09-24 | 2021-12-24 | 上海交通大学宁波人工智能研究院 | 一种基于YOLOv3的动物目标检测系统和方法 |
CN113837087B (zh) * | 2021-09-24 | 2023-08-29 | 上海交通大学宁波人工智能研究院 | 一种基于YOLOv3的动物目标检测系统和方法 |
CN116168344A (zh) * | 2023-02-21 | 2023-05-26 | 航天正通汇智(北京)科技股份有限公司 | 一种基于阵列计算视觉的安保监测方法及装置 |
CN115984970A (zh) * | 2023-03-13 | 2023-04-18 | 浙江宇视科技有限公司 | 行人身高确定方法、装置、电子设备和存储介质 |
CN115984970B (zh) * | 2023-03-13 | 2023-08-18 | 浙江宇视科技有限公司 | 行人身高确定方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934844A (zh) | 一种融合地理空间信息的多目标跟踪方法及系统 | |
CN109919974B (zh) | 基于r-fcn框架多候选关联的在线多目标跟踪方法 | |
WO2021196294A1 (zh) | 一种跨视频人员定位追踪方法、系统及设备 | |
CN111476827B (zh) | 目标跟踪方法、系统、电子装置及存储介质 | |
Liu et al. | Hierarchical ensemble of background models for PTZ-based video surveillance | |
CN113159466B (zh) | 一种短时光伏发电功率预测系统及方法 | |
CN113447923A (zh) | 目标检测方法、装置、系统、电子设备及存储介质 | |
CN104361603B (zh) | 枪机图像目标标定方法及其系统 | |
CN112001298B (zh) | 行人检测方法、装置、电子设备和存储介质 | |
CN115376109B (zh) | 障碍物检测方法、障碍物检测装置以及存储介质 | |
CN110555377A (zh) | 一种基于鱼眼相机俯视拍摄的行人检测与跟踪方法 | |
CN112634368A (zh) | 场景目标的空间与或图模型生成方法、装置及电子设备 | |
CN112634369A (zh) | 空间与或图模型生成方法、装置、电子设备和存储介质 | |
CN114973028B (zh) | 一种航拍视频图像实时变化检测方法及系统 | |
CN110636248A (zh) | 目标跟踪方法与装置 | |
CN113313765A (zh) | 定位方法、装置、电子设备和存储介质 | |
CN105894505A (zh) | 一种基于多摄像机几何约束的快速行人定位方法 | |
CN112541403B (zh) | 一种利用红外摄像头的室内人员跌倒检测方法 | |
CN115767424A (zh) | 一种基于rss与csi融合的视频定位方法 | |
Xu et al. | Partial descriptor update and isolated point avoidance based template update for high frame rate and ultra-low delay deformation matching | |
CN116758409A (zh) | 一种基于单锚框采样的遥感图像目标检测方法 | |
Fanfani et al. | Addressing Domain Shift in Pedestrian Detection from Thermal Cameras without Fine-Tuning or Transfer Learning | |
Lai et al. | Method for the Automatic Generation and Application of Landmark Control Point Library | |
WO2020197495A1 (en) | Method and system for feature matching | |
Tian et al. | High confidence detection for moving target in aerial video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190625 |