CN114066945B - 基于像素空间分辨率的视频追踪方法及系统 - Google Patents

基于像素空间分辨率的视频追踪方法及系统 Download PDF

Info

Publication number
CN114066945B
CN114066945B CN202210052405.4A CN202210052405A CN114066945B CN 114066945 B CN114066945 B CN 114066945B CN 202210052405 A CN202210052405 A CN 202210052405A CN 114066945 B CN114066945 B CN 114066945B
Authority
CN
China
Prior art keywords
target
spatial resolution
area
grid
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210052405.4A
Other languages
English (en)
Other versions
CN114066945A (zh
Inventor
王一梅
钱程扬
丁倩
杨亚宁
蒋如乔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yuance Information Technology Co ltd
Original Assignee
Suzhou Industrial Park Surveying Mapping And Geoinformation Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Industrial Park Surveying Mapping And Geoinformation Co ltd filed Critical Suzhou Industrial Park Surveying Mapping And Geoinformation Co ltd
Priority to CN202210052405.4A priority Critical patent/CN114066945B/zh
Publication of CN114066945A publication Critical patent/CN114066945A/zh
Application granted granted Critical
Publication of CN114066945B publication Critical patent/CN114066945B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及视频追踪技术领域,公开了一种基于像素空间分辨率的视频追踪方法及系统,本发明的基于像素空间分辨率的视频追踪方法及系统通过计算监控的空间可视范围,对监控画面划分网格并计算空间分辨率,结合预测区域确定预测监控,并通过空间分辨率阈值筛选目标监控,保证目标监控拍摄的预测区域画面可辨别追踪目标,排除无效监控,可以大幅减少计算量,提高视频追踪效率,为城市监测、突发事件预警及处理等工作提供有力支撑。

Description

基于像素空间分辨率的视频追踪方法及系统
技术领域
本发明涉及视频追踪技术领域,特别涉及一种基于像素空间分辨率的视频追踪方法及系统。
背景技术
随着城市的发展,城市内布设的监控越来越密集,构建的视频网络也越来越完善,这些监控视频为城市管理提供了重要的信息资源。利用城市监控,通过对监控画面的计算与分析,实现对人员、车辆等要素的追踪已成为智慧城市治理的重要技术手段,如何高效准确地进行视频追踪变得愈发重要。
目前,基于计算机视觉和深度学习等相关技术,利用计算机可实现对监控视频中的对象进行目标检测、识别和追踪。在视频追踪过程中,由于追踪目标的空间位置会发生动态变化,需要实时调取相关摄像头。现有研究基于视频AI技术,结合路网与监控的关联关系,通过定位对象位置,运用缓冲区分析或网络分析,确定关联摄像头。
如果仅依靠视频AI识别技术,往往需要对大量的视频进行特征匹配计算,该方式要求强大的算力支撑,需要消耗大量的计算资源,可能检索出大量相同特征的目标,导致追踪效果极其不稳定,视频切换效果不佳。而结合路网与监控的关联关系,极大地减少了计算量,但由于其根据空间关系进行判断,并没有考虑监控的可视范围,会存在摄像头仅仅是空间临近,而没有覆盖需要的区域的情况。因此,如何根据监控的可视范围有效获取监控实现视频追踪是当前亟需解决的问题。
发明内容
本发明要解决的技术问题是提供一种计算量少、追踪效率高的基于像素空间分辨率的视频追踪方法。
为了解决上述问题,本发明提供了一种基于像素空间分辨率的视频追踪方法,所述基于像素空间分辨率的视频追踪方法包括:
根据目标区域内各个监控的视频图像计算各个监控的空间可视范围;
对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算各个网格的空间分辨率;
根据追踪目标出现的初始位置预测追踪目标的轨迹,确定追踪目标可能出现的范围,作为预测区域;
将各个监控的空间可视范围与预测区域进行空间相交分析,确定可以拍摄到预测区域的监控,作为预测监控,并得到各个预测监控的空间可视范围与预测区域的相交区域;
根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值;
从预测监控中筛选出对应相交区域内所有网格的空间分辨率均小于空间分辨率阈值的监控,作为目标监控;
利用深度学习算法对目标监控的视频流进行特征提取,当识别到追踪目标时,以追踪目标所在位置作为追踪目标的新的初始位置,并继续预测追踪目标的轨迹。
作为本发明的进一步改进,所述根据目标区域内各个监控的视频图像计算各个监控的空间可视范围,包括:
获取目标区域内各个监控的视频图像,在视频图像和地图中选取同名控制点,记录同名控制点的图像坐标和地理坐标;
基于单应矩阵法,根据已经采集的同名控制点求取单应矩阵,建立视频图像点与地理空间点的映射关系;
基于视频图像点和地理空间点的映射关系,获取视频图像四个角点在地图上对应的坐标,以确定监控的空间可视范围。
作为本发明的进一步改进,所述对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算网格的空间分辨率,包括:
将目标区域内各个监控的视频画面均匀划分成M*N的网格;
根据视频图像和地理空间的映射关系,分别计算各个网格对应的空间范围,并得到各个网格的四个顶点坐标;
根据各个网格的四个顶点坐标计算各个网格对应的实际面积,并利用如下公式计算得到各个网格的空间分辨率:
Figure 661822DEST_PATH_IMAGE001
其中,Resolution为各个网格的空间分辨率,Area为各个网格对应的实际面积,M≥2,N≥2。
作为本发明的进一步改进,所述预测追踪目标的轨迹,确定追踪目标可能出现的范围,为预测区域,包括:
结合路网数据,由追踪目标初始位置确定其所在道路;
根据道路与道路间的连通关系,获取与该道路相通的所有道路,确定追踪目标可能出现的范围为所在道路及相连道路,所在道路及相连道路即为预测区域。
作为本发明的进一步改进,所述根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值,公式如下:
Figure 662008DEST_PATH_IMAGE002
其中,Y为空间分辨率阈值,S为追踪目标的面积,P为可分辨追踪目标的最小像素数量。
为了解决上述问题,本发明还提供了一种基于像素空间分辨率的视频追踪系统,所述基于像素空间分辨率的视频追踪系统包括:
空间可视范围计算模块,用于根据目标区域内各个监控的视频图像计算各个监控的空间可视范围;
网格空间分辨率计算模块,用于对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算各个网格的空间分辨率;
预测区域计算模块,用于根据追踪目标出现的初始位置预测追踪目标的轨迹,确定追踪目标可能出现的范围,作为预测区域;
相交计算模块,用于将各个监控的空间可视范围与预测区域进行空间相交分析,确定可以拍摄到预测区域的监控,作为预测监控,并得到各个预测监控的空间可视范围与预测区域的相交区域;
空间分辨率阈值计算模块,用于根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值;
目标监控筛选模块,用于从预测监控中筛选出对应相交区域内所有网格的空间分辨率均小于空间分辨率阈值的监控,作为目标监控;
特征提取模块,用于利用深度学习算法对目标监控的视频流进行特征提取,当识别到追踪目标时,以追踪目标所在位置作为追踪目标的新的初始位置,并继续预测追踪目标的轨迹。
作为本发明的进一步改进,所述空间可视范围计算模块,包括:
同名点坐标记录子模块,用于获取目标区域内各个监控的视频图像,在视频图像和地图中选取同名控制点,记录同名控制点的图像坐标和地理坐标;
映射关系建立子模块,用于基于单应矩阵法,根据已经采集的同名控制点求取单应矩阵,建立视频图像点与地理空间点的映射关系;
可视范围确定子模块,用于基于视频图像点和地理空间点的映射关系,获取视频图像四个角点在地图上对应的坐标,以确定监控的空间可视范围。
作为本发明的进一步改进,所述网格空间分辨率计算模块,包括:
网格划分子模块,用于将目标区域内各个监控的视频画面均匀划分成M*N的网格;
网格空间范围计算子模块,用于根据视频图像和地理空间的映射关系,分别计算各个网格对应的空间范围,并得到各个网格的四个顶点坐标;
空间分辨率计算子模块,用于根据各个网格的四个顶点坐标计算各个网格对应的实际面积,并利用如下公式计算得到各个网格的空间分辨率:
Figure 956723DEST_PATH_IMAGE001
其中,Resolution为各个网格的空间分辨率,Area为各个网格对应的实际面积,M≥2,N≥2。
作为本发明的进一步改进,所述预测区域计算模块,包括:
所在道路确定子模块,用于结合路网数据,由追踪目标初始位置确定其所在道路;
预测区域确定子模块,用于根据道路与道路间的连通关系,获取与该道路相通的所有道路,确定追踪目标可能出现的范围为所在道路及相连道路,所在道路及相连道路即为预测区域。
作为本发明的进一步改进,所述根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值,公式如下:
Figure 197211DEST_PATH_IMAGE002
其中,Y为空间分辨率阈值,S为追踪目标的面积,P为可分辨追踪目标的最小像素数量。
本发明的有益效果:
本发明基于像素空间分辨率的视频追踪方法及系统通过计算监控的空间可视范围,对监控画面划分网格并计算空间分辨率,结合预测区域确定预测监控,并通过空间分辨率阈值筛选目标监控,保证目标监控拍摄的预测区域画面可辨别追踪目标,排除无效监控,可以大幅减少计算量,提高视频追踪效率,为城市监测、突发事件预警及处理等工作提供有力支撑。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1是本发明优选实施例中基于像素空间分辨率的视频追踪方法的流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
如图1所示,为本发明优选实施例中的基于像素空间分辨率的视频追踪方法,所述基于像素空间分辨率的视频追踪方法包括以下步骤:
步骤S1、根据目标区域内各个监控的视频图像计算各个监控的空间可视范围;可选地,步骤S1包括以下步骤:
步骤S11、获取目标区域内各个监控的视频图像,在视频图像和地图中选取同名控制点,记录同名控制点的图像坐标和地理坐标;可选地,图像坐标记为(x,y),地理坐标记为(X,Y,Z)。
进一步地,选取同名控制点时,尽量选择具有明显特征的点位,同名控制点至少是4对,且不能全部共线,以保证准确性和有效性。
步骤S12、基于单应矩阵法,根据已经采集的同名控制点求取单应矩阵,建立视频图像点与地理空间点的映射关系;
其中,单应矩阵为H,视频图像点与地理空间点的映射关系表达模型如下:
Figure 6904DEST_PATH_IMAGE003
因为转换的是齐次坐标,所以单应矩阵H与尺度无关,自由度为8,即H33=1,得到:
Figure 686147DEST_PATH_IMAGE004
将四对齐次坐标组代入映射关系表达模型中,求得对应的单应矩阵H的解。
步骤S13、基于视频图像点和地理空间点的映射关系,获取视频图像四个角点在地图上对应的坐标,以确定监控的空间可视范围。
例如视频的分辨率为1920*1080,则分别求取四个角点(0,0)、(1920,0)、(0,1080)、(1920,1080)对应的坐标。
步骤S2、对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算各个网格的空间分辨率;可选地,步骤S2包括以下步骤:
步骤S21、将目标区域内各个监控的视频画面均匀划分成M*N的网格;例如50*50等。
步骤S22、根据视频图像和地理空间的映射关系,分别计算各个网格对应的空间范围,并得到各个网格的四个顶点坐标;
例如左上角的第一个网格对应的空间范围,由其四个顶点(0,0)、(M,0)、(0,N)、(M,N)对应的坐标确定;
步骤S23、根据各个网格的四个顶点坐标计算各个网格对应的实际面积,并利用如下公式计算得到各个网格的空间分辨率:
Figure 507473DEST_PATH_IMAGE001
其中,Resolution为各个网格的空间分辨率,Area为各个网格对应的实际面积,M≥2,N≥2。
步骤S3、根据追踪目标出现的初始位置预测追踪目标的轨迹,确定追踪目标可能出现的范围,作为预测区域;可选地,步骤S3包括以下步骤:
步骤S31、结合路网数据,由追踪目标初始位置确定其所在道路;
步骤S32、根据道路与道路间的连通关系,获取与该道路相通的所有道路,确定追踪目标可能出现的范围为所在道路及相连道路,所在道路及相连道路即为预测区域。
步骤S4、将各个监控的空间可视范围与预测区域进行空间相交分析,确定可以拍摄到预测区域的监控,作为预测监控,并得到各个预测监控的空间可视范围与预测区域的相交区域;例如两个多边形的面相交得到一个多边形的面,属于现有技术,在此不多赘述。
步骤S5、根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值;公式如下:
Figure 309075DEST_PATH_IMAGE002
其中,Y为空间分辨率阈值,S为追踪目标的面积,P为可分辨追踪目标的最小像素数量。
例如一辆车的面积为6平方米,而当它仅为2个像素时,认为不可辨认,则空间分辨率的阈值设为
Figure 215852DEST_PATH_IMAGE005
,只有空间分辨率小于该阈值的监控才需要参与接下来的计算,将空间分辨率大于等于该阈值的监控作为无效监控不参与接下来的计算。
步骤S6、从预测监控中筛选出对应相交区域内所有网格的空间分辨率均小于空间分辨率阈值的监控,作为目标监控;可以进一步排除掉无效监控,减少计算量。
步骤S7、利用深度学习算法对目标监控的视频流进行特征提取,当识别到追踪目标时,以追踪目标所在位置作为追踪目标的新的初始位置,并继续预测追踪目标的轨迹。即返回步骤S3,直至追踪到追踪目标最近时间点出现的位置。
其中,特征包括车辆的外观、形状等,具体可以采用YOLOv3算法等深度学习算法,当预测概率大于95%,则判定识别到追踪目标,YOLOv3算法等深度学习算法属于现有技术,在此不多赘述。
本发明基于像素空间分辨率的视频追踪方法通过计算监控的空间可视范围,对监控画面划分网格并计算空间分辨率,结合预测区域确定预测监控,并通过空间分辨率阈值筛选目标监控,保证目标监控拍摄的预测区域画面可辨别追踪目标,排除无效监控,可以大幅减少计算量,提高视频追踪效率,为城市监测、突发事件预警及处理等工作提供有力支撑。
本发明优选实施例还公开了一种基于像素空间分辨率的视频追踪系统,所述基于像素空间分辨率的视频追踪系统包括:
空间可视范围计算模块,用于根据目标区域内各个监控的视频图像计算各个监控的空间可视范围;
网格空间分辨率计算模块,用于对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算各个网格的空间分辨率;
预测区域计算模块,用于根据追踪目标出现的初始位置预测追踪目标的轨迹,确定追踪目标可能出现的范围,作为预测区域;
相交计算模块,用于将各个监控的空间可视范围与预测区域进行空间相交分析,确定可以拍摄到预测区域的监控,作为预测监控,并得到各个预测监控的空间可视范围与预测区域的相交区域;
空间分辨率阈值计算模块,用于根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值;
目标监控筛选模块,用于从预测监控中筛选出对应相交区域内所有网格的空间分辨率均小于空间分辨率阈值的监控,作为目标监控;
特征提取模块,用于利用深度学习算法对目标监控的视频流进行特征提取,当识别到追踪目标时,以追踪目标所在位置作为追踪目标的新的初始位置,并继续预测追踪目标的轨迹。
可选地,所述空间可视范围计算模块,包括以下子模块:
同名点坐标记录子模块,用于获取目标区域内各个监控的视频图像,在视频图像和地图中选取同名控制点,记录同名控制点的图像坐标和地理坐标;
可选地,图像坐标记为(x,y),地理坐标记为(X,Y,Z)。
进一步地,选取同名控制点时,尽量选择具有明显特征的点位,同名控制点时至少是4对,且不能全部共线,以保证准确性和有效性。
映射关系建立子模块,用于基于单应矩阵法,根据已经采集的同名控制点求取单应矩阵,建立视频图像点与地理空间点的映射关系;
其中,单应矩阵为H,视频图像点与地理空间点的映射关系表达模型如下:
Figure 433206DEST_PATH_IMAGE003
因为转换的是齐次坐标,所以单应矩阵H与尺度无关,自由度为8,即H33=1,得到:
Figure 499251DEST_PATH_IMAGE004
将四对齐次坐标组代入映射关系表达模型中,求得对应的单应矩阵H的解。
可视范围确定子模块,用于基于视频图像点和地理空间点的映射关系,获取视频图像四个角点在地图上对应的坐标,以确定监控的空间可视范围。
例如视频的分辨率为1920*1080,则分别求取四个角点(0,0)、(1920,0)、(0,1080)、(1920,1080)对应的坐标。
可选地,所述网格空间分辨率计算模块,包括以下子模块:
网格划分子模块,用于将目标区域内各个监控的视频画面均匀划分成M*N的网格;
网格空间范围计算子模块,用于根据视频图像和地理空间的映射关系,分别计算各个网格对应的空间范围,并得到各个网格的四个顶点坐标;
例如左上角的第一个网格对应的空间范围,由其四个顶点(0,0)、(M,0)、(0,N)、(M,N)对应的坐标确定;
空间分辨率计算子模块,用于根据各个网格的四个顶点坐标计算各个网格对应的实际面积,并利用如下公式计算得到各个网格的空间分辨率:
Figure 81542DEST_PATH_IMAGE001
其中,Resolution为各个网格的空间分辨率,Area为各个网格对应的实际面积,M≥2,N≥2。
可选地,所述预测区域计算模块,包括以下子模块:
所在道路确定子模块,用于结合路网数据,由追踪目标初始位置确定其所在道路;
预测区域确定子模块,用于根据道路与道路间的连通关系,获取与该道路相通的所有道路,确定追踪目标可能出现的范围为所在道路及相连道路,所在道路及相连道路即为预测区域。
所述根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值,公式如下:
Figure 865828DEST_PATH_IMAGE002
其中,Y为空间分辨率阈值,S为追踪目标的面积,P为可分辨追踪目标的最小像素数量。
例如一辆车的面积为6平方米,而当它仅为2个像素时,认为不可辨认,则空间分辨率的阈值设为
Figure 558977DEST_PATH_IMAGE005
,只有空间分辨率小于该阈值的监控才需要参与接下来的计算,将空间分辨率大于等于该阈值的监控作为无效监控不参与接下来的计算。
本发明基于像素空间分辨率的视频追踪系统通过计算监控的空间可视范围,对监控画面划分网格并计算空间分辨率,结合预测区域确定预测监控,并通过空间分辨率阈值筛选目标监控,保证目标监控拍摄的预测区域画面可辨别追踪目标,排除无效监控,可以大幅减少计算量,提高视频追踪效率,为城市监测、突发事件预警及处理等工作提供有力支撑。
以上实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。

Claims (6)

1.基于像素空间分辨率的视频追踪方法,其特征在于,包括:
根据目标区域内各个监控的视频图像计算各个监控的空间可视范围;
对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算各个网格的空间分辨率;
根据追踪目标出现的初始位置预测追踪目标的轨迹,确定追踪目标可能出现的范围,作为预测区域;
将各个监控的空间可视范围与预测区域进行空间相交分析,确定可以拍摄到预测区域的监控,作为预测监控,并得到各个预测监控的空间可视范围与预测区域的相交区域;
根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值;
从预测监控中筛选出对应相交区域内所有网格的空间分辨率均小于空间分辨率阈值的监控,作为目标监控;
利用深度学习算法对目标监控的视频流进行特征提取,当识别到追踪目标时,以追踪目标所在位置作为追踪目标的新的初始位置,并继续预测追踪目标的轨迹;
所述对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算网格的空间分辨率,包括:
将目标区域内各个监控的视频画面均匀划分成M*N的网格;
根据视频图像和地理空间的映射关系,分别计算各个网格对应的空间范围,并得到各个网格的四个顶点坐标;
根据各个网格的四个顶点坐标计算各个网格对应的实际面积,并利用如下公式计算得到各个网格的空间分辨率:
Figure FDA0003527628880000011
其中,Resolution为各个网格的空间分辨率,Area为各个网格对应的实际面积,M≥2,N≥2;
所述根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值,公式如下:
Figure FDA0003527628880000021
其中,Y为空间分辨率阈值,S为追踪目标的面积,P为可分辨追踪目标的最小像素数量。
2.如权利要求1所述的基于像素空间分辨率的视频追踪方法,其特征在于,所述根据目标区域内各个监控的视频图像计算各个监控的空间可视范围,包括:
获取目标区域内各个监控的视频图像,在视频图像和地图中选取同名控制点,记录同名控制点的图像坐标和地理坐标;
基于单应矩阵法,根据已经采集的同名控制点求取单应矩阵,建立视频图像点与地理空间点的映射关系;
基于视频图像点和地理空间点的映射关系,获取视频图像四个角点在地图上对应的坐标,以确定监控的空间可视范围。
3.如权利要求1所述的基于像素空间分辨率的视频追踪方法,其特征在于,根据追踪目标出现的初始位置预测追踪目标的轨迹,确定追踪目标可能出现的范围,作为预测区域,包括:
结合路网数据,由追踪目标初始位置确定其所在道路;
根据道路与道路间的连通关系,获取与该道路相通的所有道路,确定追踪目标可能出现的范围为所在道路及相连道路,所在道路及相连道路即为预测区域。
4.基于像素空间分辨率的视频追踪系统,其特征在于,包括:
空间可视范围计算模块,用于根据目标区域内各个监控的视频图像计算各个监控的空间可视范围;
网格空间分辨率计算模块,用于对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算各个网格的空间分辨率;
预测区域计算模块,用于根据追踪目标出现的初始位置预测追踪目标的轨迹,确定追踪目标可能出现的范围,作为预测区域;
相交计算模块,用于将各个监控的空间可视范围与预测区域进行空间相交分析,确定可以拍摄到预测区域的监控,作为预测监控,并得到各个预测监控的空间可视范围与预测区域的相交区域;
空间分辨率阈值计算模块,用于根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值;
目标监控筛选模块,用于从预测监控中筛选出对应相交区域内所有网格的空间分辨率均小于空间分辨率阈值的监控,作为目标监控;
特征提取模块,用于利用深度学习算法对目标监控的视频流进行特征提取,当识别到追踪目标时,以追踪目标所在位置作为追踪目标的新的初始位置,并继续预测追踪目标的轨迹;
所述网格空间分辨率计算模块,包括:
网格划分子模块,用于将目标区域内各个监控的视频画面均匀划分成M*N的网格;
网格空间范围计算子模块,用于根据视频图像和地理空间的映射关系,分别计算各个网格对应的空间范围,并得到各个网格的四个顶点坐标;
空间分辨率计算子模块,用于根据各个网格的四个顶点坐标计算各个网格对应的实际面积,并利用如下公式计算得到各个网格的空间分辨率:
Figure FDA0003527628880000031
其中,Resolution为各个网格的空间分辨率,Area为各个网格对应的实际面积,M≥2,N≥2;
所述根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值,公式如下:
Figure FDA0003527628880000032
其中,Y为空间分辨率阈值,S为追踪目标的面积,P为可分辨追踪目标的最小像素数量。
5.如权利要求4所述的基于像素空间分辨率的视频追踪系统,其特征在于,所述空间可视范围计算模块,包括:
同名点坐标记录子模块,用于获取目标区域内各个监控的视频图像,在视频图像和地图中选取同名控制点,记录同名控制点的图像坐标和地理坐标;
映射关系建立子模块,用于基于单应矩阵法,根据已经采集的同名控制点求取单应矩阵,建立视频图像点与地理空间点的映射关系;
可视范围确定子模块,用于基于视频图像点和地理空间点的映射关系,获取视频图像四个角点在地图上对应的坐标,以确定监控的空间可视范围。
6.如权利要求4所述的基于像素空间分辨率的视频追踪系统,其特征在于,所述预测区域计算模块,包括:
所在道路确定子模块,用于结合路网数据,由追踪目标初始位置确定其所在道路;
预测区域确定子模块,用于根据道路与道路间的连通关系,获取与该道路相通的所有道路,确定追踪目标可能出现的范围为所在道路及相连道路,所在道路及相连道路即为预测区域。
CN202210052405.4A 2022-01-18 2022-01-18 基于像素空间分辨率的视频追踪方法及系统 Active CN114066945B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210052405.4A CN114066945B (zh) 2022-01-18 2022-01-18 基于像素空间分辨率的视频追踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210052405.4A CN114066945B (zh) 2022-01-18 2022-01-18 基于像素空间分辨率的视频追踪方法及系统

Publications (2)

Publication Number Publication Date
CN114066945A CN114066945A (zh) 2022-02-18
CN114066945B true CN114066945B (zh) 2022-04-19

Family

ID=80231257

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210052405.4A Active CN114066945B (zh) 2022-01-18 2022-01-18 基于像素空间分辨率的视频追踪方法及系统

Country Status (1)

Country Link
CN (1) CN114066945B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240260A (zh) * 2014-10-09 2014-12-24 武汉大学 一种基于叉路识别的道路智能提取方法
CN106127802A (zh) * 2016-06-16 2016-11-16 南京邮电大学盐城大数据研究院有限公司 一种运动目标轨迹追踪方法
CN110413656A (zh) * 2019-06-20 2019-11-05 南京信大气象科技有限公司 一种基于高空间分辨率数值模式的急流轴自动识别方法
CN112801018A (zh) * 2021-02-07 2021-05-14 广州大学 一种跨场景目标自动识别与追踪方法及应用

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110279682A1 (en) * 2009-11-12 2011-11-17 Le Li Methods for Target Tracking, Classification and Identification by Using Foveal Sensors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240260A (zh) * 2014-10-09 2014-12-24 武汉大学 一种基于叉路识别的道路智能提取方法
CN106127802A (zh) * 2016-06-16 2016-11-16 南京邮电大学盐城大数据研究院有限公司 一种运动目标轨迹追踪方法
CN110413656A (zh) * 2019-06-20 2019-11-05 南京信大气象科技有限公司 一种基于高空间分辨率数值模式的急流轴自动识别方法
CN112801018A (zh) * 2021-02-07 2021-05-14 广州大学 一种跨场景目标自动识别与追踪方法及应用

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于双目视觉系统的运动目标跟踪算法研究;宋伟等;《北京交通大学学报》;20131215(第06期);17-21,30 *

Also Published As

Publication number Publication date
CN114066945A (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
CN110009561B (zh) 一种监控视频目标映射到三维地理场景模型的方法及系统
CN110674746B (zh) 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质
CN101615295B (zh) 图像处理系统和图像处理方法
CN106845364B (zh) 一种快速自动目标检测方法
CN111652097A (zh) 一种图像毫米波雷达融合目标检测方法
KR20190058230A (ko) 감시카메라 배치 모델링 시스템 및 방법
CN110659391A (zh) 一种视频侦查方法及装置
CN110659546B (zh) 一种违法摊位检测方法及装置
US20220044558A1 (en) Method and device for generating a digital representation of traffic on a road
CN113034586B (zh) 道路倾角检测方法和检测系统
CN111683221B (zh) 嵌入矢量红线数据的自然资源实时视频监测方法及系统
CN105469427A (zh) 一种用于视频中目标跟踪方法
CN116343103B (zh) 一种基于三维gis场景与视频融合的自然资源监管方法
CN112950717A (zh) 一种空间标定方法和系统
CN116883610A (zh) 基于车辆识别与轨迹映射的数字孪生路口构建方法和系统
Mousse et al. People counting via multiple views using a fast information fusion approach
CN110276379B (zh) 一种基于视频图像分析的灾情信息快速提取方法
Zhou et al. Street-view imagery guided street furniture inventory from mobile laser scanning point clouds
CN114066945B (zh) 基于像素空间分辨率的视频追踪方法及系统
CN116778094A (zh) 一种基于优选视角拍摄的建筑物变形监测方法及装置
CN116863357A (zh) 一种无人机遥感堤坝影像定标与智能分割变化检测方法
CN109685833A (zh) 移动目标跟踪方法
CN114973147A (zh) 基于激光雷达建图的分布式监控摄像机定位方法及系统
Tang Development of a multiple-camera tracking system for accurate traffic performance measurements at intersections
CN114882003A (zh) 一种检测相机的拍摄位姿变化的方法、介质及计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 215000 No. 101, Suhong Middle Road, Suzhou Industrial Park, Jiangsu Province

Patentee after: Yuance Information Technology Co.,Ltd.

Address before: 215000 No. 101, Suhong Middle Road, Suzhou Industrial Park, Jiangsu Province

Patentee before: SUZHOU INDUSTRIAL PARK SURVEYING MAPPING AND GEOINFORMATION Co.,Ltd.

CP01 Change in the name or title of a patent holder