CN114615468A - 一种基于安防监控的智能定位方法 - Google Patents

一种基于安防监控的智能定位方法 Download PDF

Info

Publication number
CN114615468A
CN114615468A CN202210254231.XA CN202210254231A CN114615468A CN 114615468 A CN114615468 A CN 114615468A CN 202210254231 A CN202210254231 A CN 202210254231A CN 114615468 A CN114615468 A CN 114615468A
Authority
CN
China
Prior art keywords
node
pedestrian
monitoring
heat
target pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202210254231.XA
Other languages
English (en)
Inventor
张向东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Huanyu Intelligent Fire Technology Co ltd
Original Assignee
Jiangsu Huanyu Intelligent Fire Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Huanyu Intelligent Fire Technology Co ltd filed Critical Jiangsu Huanyu Intelligent Fire Technology Co ltd
Priority to CN202210254231.XA priority Critical patent/CN114615468A/zh
Publication of CN114615468A publication Critical patent/CN114615468A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明涉及监控定位技术领域,具体涉及一种基于安防监控的智能定位方法。该方法包括:将每个监控探头作为一个节点,根据节点的位置生成监控定位区域的监控节点网络;选取初始节点,识别初始节点的监控视频中的行人包围框,当目标行人消失在初始节点的视野范围时,根据目标行人的移动方向确定该目标行人再次出现的第二节点,进而通过目标行人的消失位置和再次出现位置拟合目标行人的移动轨迹;将不同行人的移动轨迹的交点作为热度点,根据热度点的热度值生成监控盲区的热度区域,并依据热度区域的中心点位置调节监控探头的角度;通过调节后的监控节点网络获取行人的实际移动轨迹。本发明实施例能够提高人员定位精度和定位效率。

Description

一种基于安防监控的智能定位方法
技术领域
本发明涉及监控定位技术领域,具体涉及一种基于安防监控的智能定位方法。
背景技术
随着经济的发展,现代化安防监控技术水平逐渐提高,已经由传统的视频监控技术向智能化技术监控领域发展。目前,通过安防监控进行定位的方法主要包括:视频监控定位和无线通讯定位。主要的实现方法为:利用无线定位传感器的射频信号传输实现对人员的定位;或者通过视频监控获取人员的特征信息,例如服装,人脸等实现对人员的位置更新,实现人员定位。
利用无线定位设备的人群类型较为局限,不能实现对指定目标人员的定位需求,且无线定位设备的位置信息存在滞后性和不确定性,无法实现准确实时定位。而通过视频监控直接对识别人员位置更新的方法,受限于监控盲区的影响,导致定位信息不能实时更新。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种一种基于安防监控的智能定位方法,所采用的技术方案具体如下:
本发明提供一种一种基于安防监控的智能定位方法,该方法包括以下步骤:
将每个监控探头作为一个节点,根据所述节点的位置生成监控定位区域的监控节点网络;
选取初始节点,识别所述初始节点的监控视频中的行人包围框,当目标行人消失在所述初始节点的视野范围时,根据所述目标行人的移动方向确定该目标行人再次出现的第二节点,进而通过所述目标行人的消失位置和再次出现位置拟合所述目标行人的移动轨迹;
将不同行人的移动轨迹的交点作为热度点,根据所述热度点的热度值生成监控盲区的热度区域,并依据所述热度区域的中心点位置调节所述监控探头的角度;通过调节后的监控节点网络获取行人的实际移动轨迹。
优选的,所述监控节点网络的生成方法为:
将所述监控定位区域的边缘上的所述节点相连,从边缘节点出发,与最近的内部节点相连,生成所述监控节点网络。
优选的,所述行人包围框的识别方法为:
对所述监控视频中的每一帧视频图像进行目标检测,由存在行人图像特征的像素点组成的最小矩形框作为所述行人包围框。
优选的,所述第二节点的获取方法为:
将出现所述行人包围框的视频图像作为关键帧图像保留,在所述初始节点的监控视频中获取相邻关键帧图像中属于同一目标行人的行人包围框,通过对所述目标行人在所述初始节点的视野范围消失之前的预设数量的关键帧图像中的行人包围框进行稀疏光流分析,获取所述目标行人的光流方向,从所述初始节点出发,在所述光流方向上延伸,在延伸方向上的最近的节点作为所述第二节点。
优选的,所述属于同一目标行人的行人包围框的获取方法为:
保留所述关键帧图像中所述行人包围框内的像素值,生成包围框图像,选取所述包围框图像中所述目标行人的行为包围框,计算其特征向量,将所述特征向量与相邻帧包围框图像中每个行人包围框的特征向量进行相似度对比,得到属于同一目标行人的所述行人包围框。
优选的,所述移动轨迹的获取步骤还包括:
将所述目标行人在所述初始节点的监控视频中的行人包围框的位置拟合成一条轨迹曲线,由所述轨迹曲线与所述关键帧图像的边缘组成所述目标行人的途经范围,当所述途经范围的面积小于所述关键帧图像面积的预设比例时,拟合所述移动轨迹。
优选的,所述移动轨迹的获取方法为:
获取所述消失位置和所述再次出现位置之间的直线距离和所述目标行人的行走时间,根据所述直线距离和所述行走时间拟合出所述目标行人在所述消失位置和所述再次出现位置之间的轨迹曲线。
优选的,所述热度区域的获取方法为:
以所述初始节点和所述第二节点之间热度值最高的热度点作为聚类中心,设置热度差异阈值作为最小密度,对所有热度点进行密度聚类,得到所述热度区域。
优选的,该方法还包括以下步骤:
当某个节点出现异常时,根据异常节点的位置确定该异常节点的补偿节点,通过调节所述补偿节点的角度预测所述异常节点的视野范围内行人的预测移动轨迹。
优选的,所述补偿节点的获取方法为:
当所述异常节点为所述边缘节点时,该异常节点没有补偿节点;当所述异常节点为所述监控节点网络的内部节点时,以该异常节点的所有相邻节点作为所述补偿节点。
本发明实施例至少具有如下有益效果:
通过监控探头位置生成监控节点网络,根据监控节点网络各节点监控视频得到目标行人的轨迹曲线,依据轨迹曲线获取热度区域,然后调节监控探头的角度,得到目标行人的实际移动轨迹。本发明实施例能够实现监控网络对人员定位之间的关联性分析,利用定位轨迹曲线获取人员在监控盲区的粗定位信息和监控探头的角度调节,进而获取行人的实际移动轨迹,提高人员定位精度和定位效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例提供的一种基于安防监控的智能定位方法的步骤流程图;
图2为本发明一个实施例提供的位置估计区域中位置点的位置概率获取示意图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于安防监控的智能定位方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构、或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种基于安防监控的智能定位方法的具体方案。
需要说明的是,本发明实施例适用于枪型监控。监控探头的位置分布固定,监控视角固定,能够实现对任意人员的定位记录,本发明实施例默认监控视频质量能够满足实现人员检测和视频分析的要求。
请参阅图1,其示出了本发明一个实施例提供的一种基于安防监控的智能定位方法的步骤流程图,该方法包括以下步骤:
步骤S001,将每个监控探头作为一个节点,根据节点的位置生成监控定位区域的监控节点网络。
具体的,将监控定位区域的边缘上的节点相连,从边缘节点出发,与最近的内部节点相连,生成监控节点网络。
将每一个监控探头看作是监控节点,根据监控定位区域内监控探头的位置坐标信息,生成监控节点,然后将监控定位区域边缘的监控探头相连,得到监控节点网络的最大作用范围。从监控定位区域的边缘节点出发,与最近邻的内部节点相连,直至连接所有节点,生成监控节点网络。
生成监控节点网络能够实现监控网络对人员定位之间的关联性分析,有利于后续得到节点所产生的人员定位信息。
步骤S002,选取初始节点,识别初始节点的监控视频中的行人包围框,当目标行人消失在初始节点的视野范围时,根据目标行人的移动方向确定该目标行人再次出现的第二节点,进而通过目标行人的消失位置和再次出现位置拟合目标行人的移动轨迹。
具体的步骤包括:
1.选取监控节点网络任意一个边缘节点作为初始节点,对初始节点的监控视频中的每一帧视频图像进行目标检测,由存在行人图像特征的像素点组成的最小矩形框作为行人包围框。
通过目标检测网络对视频流中每一帧视频图像进行目标检测,目标检测网络结构为Encoder-FC结构,网络输入为单帧视频图像,输出为目标包围框。通过目标编码器对图像特征进行提取,获取图像特征图,然后将视频图像中存在行人图像特征的图像像素点通过全连接网络输出,组成的最小矩形框即为行人包围框。
作为一个示例,本发明实施例中目标检测网络采用YOLOV5网络实现,在其他实施例中也可以采用Faster RCNN网络等能够达到相同效果的目标检测网络。
2.获取属于同一目标行人的行人包围框。
保留关键帧图像中行人包围框内的像素值,生成包围框图像,选取包围框图像中目标行人的行为包围框,计算其特征向量,将特征向量与相邻帧包围框图像中每个行人包围框的特征向量进行相似度对比,得到属于同一目标行人的行人包围框。
作为一个示例,本发明实施例中相似度对比采用余弦距离,将余弦距离大于距离阈值0.9的行人包围框判断为同一行人的行人包围框,用于后续对目标行人的轨迹跟踪。
3.获取初始节点的第二节点。
将出现行人包围框的视频图像作为关键帧图像保留,在初始节点的监控视频中获取相邻关键帧图像中属于同一目标行人的行人包围框,通过对目标行人在初始节点的视野范围消失之前的预设数量的关键帧图像中的行人包围框进行稀疏光流分析,获取目标行人的光流方向,从初始节点出发,在光流方向上延伸,在延伸方向上的最近的节点作为第二节点。
根据初始节点中相邻关键帧之间的同一行人的包围框图像进行稀疏光流分析,获取当前节点的视频图像中,该行人的光流方向
Figure BDA0003548186780000041
和光流速度
Figure BDA0003548186780000042
需要说明的是,光流方向的取值范围为0到360度。
4.拟合目标行人的移动轨迹。
将目标行人在初始节点的监控视频中的行人包围框的位置拟合成一条轨迹曲线,由轨迹曲线与关键帧图像的边缘组成目标行人的途经范围,当途经范围的面积小于关键帧图像面积的预设比例时,拟合移动轨迹。
作为一个示例,本发明实施例中预设比例为1/8。
获取消失位置和再次出现位置之间的直线距离和目标行人的行走时间,根据直线距离和行走时间拟合出目标行人在消失位置和再次出现位置之间的轨迹曲线。
根据初始节点的视频图像中目标行人包围框的光流速度均值
Figure BDA0003548186780000043
和行走时间t,得到节点之间的行走距离
Figure BDA0003548186780000044
通过实际地理位置获取直线距离L0,当行走距离和直线距离之间满足L=L0时,目标行人直线行走;当行走距离L>L0时,目标行人没有直线行走,此时需要对两个位置的包围框的轨迹曲线进行二次拟合:f(x)=ax2+bx+c,其中,a,b,c分别为拟合曲线的系数,得到轨迹曲线,拟合的结果保证轨迹曲线的长度为L′=L。
将节点之间的连接线视为平面坐标系的x轴,时间间隔t越长,轨迹曲线距离两点之间的直线就越远,函数关系式中轨迹曲线的顶点纵坐标
Figure BDA0003548186780000051
越大,横坐标为两节点连接线的中点的横坐标。
步骤S003,将不同行人的移动轨迹的交点作为热度点,根据热度点的热度值生成监控盲区的热度区域,并依据热度区域的中心点位置调节监控探头的角度;通过调节后的监控节点网络获取行人的实际移动轨迹。
具体的步骤包括:
1.以初始节点和第二节点之间热度值最高的热度点作为聚类中心,设置热度差异阈值作为最小密度,对所有热度点进行密度聚类,得到热度区域。
以步骤S002中同样的方法生成每个目标行人的轨迹曲线,轨迹曲线为二次曲线。将预设时间段内不同行人的轨迹曲线在视野盲区内的交点作为热度点,每个热度点的热度值为经过该热度点的轨迹曲线数量N。
以热度值最高的热度点作为聚类中心,计算每个热度点与聚类中心的热度差异,设置热度差异阈值作为最大热度差异,对所有热度点进行密度聚类,当聚类簇中不再新增小于热度差异阈值的热度点时,该聚类簇聚类完毕,不再更新聚类中心,得到热度区域。
作为一个示例,本发明实施例中预设时间段为一天,热度差异阈值为3。
每两个相邻节点之间按照上述步骤得到热度区域。
2.根据热度区域的中心点位置对监控探头的监控角度进行调节,使热度区域中心点位于监控图像的中心点。
根据所有热度区域是中心点位置对监控节点昂罗中的所有监控探头进行角度调节,通过监控角度调节后,达到最大限度的行人轨迹拟合和位置定位,能够捕捉到更多行人的轨迹图像。
3.通过调节后的监控节点网络获取行人的实际移动轨迹。
在调节后的监控节点网络中,获取每个行人在每个节点的监控视频中的移动轨迹,通过节点所在的实际地理位置判断属于同一行人的移动轨迹是否相互连接,当属于同一行人的移动轨迹能够连接时,将相邻的移动轨迹拼接;当属于同一行人的移动轨迹不能连接时,对缺失轨迹进行趋势拟合,得到该行人的实际移动轨迹。
优选的,本发明实施例还包括以下步骤:
当某个节点出现异常时,根据异常节点的位置确定该异常节点的补偿节点,通过调节补偿节点的角度预测异常节点的视野范围内行人的预测移动轨迹。
具体的,当异常节点为边缘节点时,该异常节点没有补偿节点;当异常节点为监控节点网络的内部节点时,以该异常节点的所有相邻节点作为补偿节点。
当异常节点为边缘节点时,边缘节点外侧没有其他节点,无法为异常节点提供补偿,此时,通过边缘异常监控节点作为行人包围框的消失位置与相邻的监控节点图像中行人包围框再次出现位置点进行轨迹曲线拟合,得到热度区域,通过热度区域对相邻监控节点的监控角度进行调节。
当监控异常节点为监控节点网络的内部节点时,异常节点的相邻节点数不少于2个,则将异常节点的补偿节点之间进行热度点聚类。由于缺少异常节点的监控视频图像信息,所以,需要对补偿节点之间的曲线拟合次数提高,变为三次曲线拟合,使视野盲区内生成更多的热度点,在对热度点进行聚类时,能够得到更大的热度区域,使该热度区域替代异常节点的图像信息,作为行人途经异常节点区域的预测区域,预测区域的聚类中心为热度最高的热度点。
获取行人的消失位置所在的第一补偿节点的监控图像中该行人的第一光流方向,和再次出现的位置所在的第二补偿节点的监控图像中该行人的第二光流方向,以第一光流方向所在直线与预测区域边缘的初始交点为起点,以第二光流方向所在直线与预测区域边缘的初始交点为终点,生成预测轨迹线段,请参阅图2,过聚类中心201作与预测轨迹线段202平行的预测区域聚类中心线203,以预测轨迹线202、预测区域聚类中心线203以及预测区域边缘204形成一个位置估计区域。
获取行人从消失位置到在补偿节点的监控图像中再次出现的位置之间的第二时间间隔t′,将第二时间间隔t′均分为M个时间段,对应M个时间点,为第m个时间点t′m在位置估计区域中可能出现的每个位置点赋予一个位置概率
Figure BDA0003548186780000061
其中,d表示位置点到预测区域聚类中心线的欧氏距离,d0表示满足高斯分布的标准位置点到预测区域聚类中心线的距离。
由于聚类中心的热度最高,行人的移动轨迹在整个第二时间间隔t′内满足以聚类中心为最高点,以
Figure BDA0003548186780000062
为均值的高斯分布,如图2中虚线205所示。标准位置点到预测区域聚类中心线的距离
Figure BDA0003548186780000063
Figure BDA0003548186780000064
m=1,2,…,M,其中,f(t′m)表示随着时间节点从进入位置估计区域到离开位置估计区域的过程中,二维高斯分布在时间段上不断移动的激活函数,当t′m在第m个时间段内时,f(t′m)=1;当t′m在其他时间段时,f(t′m)=0。
随着t′m的增大,第m个时间点在位置估计区域中可能出现的位置点越远离消失位置;d越小,越靠近预测区域中心线的位置,位置概率越大,在每个时间段中位置概率的概率分布满足高斯分布,如图2中虚线206所示。至此,在不同时间节点能够估计出行人的位置点,组成行人的预测移动轨迹。
需要说明的是,当监控异常节点为多个且为相邻的监控节点时,需要对曲线拟合次数再进行提高,每增加一个监控异常节点,次数增加1,监控异常节点数越多,次数越大。当监控异常节点为多个但不相邻时,根据相邻节点去获取异常节点的预测区域即可。
需要说明的是,为了定位轨迹区域和预测区域的准确性,需要对长时间序列内进行预测区域聚类,然后选择多个预测区域之间的交集区域作为最终的预测区域,然后以同样的方法为预测区域中位置坐标点随时间进行概率赋值,实现预测区域对视野盲区中行人的位置进行定位。
作为一个示例,本发明实施例中时间序列长度为一个月,采集时间间隔为1天。
当监控网络中,某一个监控探头出现故障,即视为一个异常节点。此时,由于异常节点的原因,造成当前的监控节点的监控区域变为视野盲区。为了保证整体监控节点网络的定位效果,选择与异常节点相近的监控节点作为异常节点的补偿节点,利用补偿节点之间的轨迹曲线形成的热度区域,实现行人在监控异常节点范围内的定位信息估计,降低异常节点对监控节点网络的定位信息缺失的影响,提高整体监控节点网络的定位效果。
综上所述,本发明实施例将每个监控探头作为一个节点,根据节点的位置生成监控定位区域的监控节点网络;选取初始节点,识别初始节点的监控视频中的行人包围框,当目标行人消失在初始节点的视野范围时,根据目标行人的移动方向确定该目标行人再次出现的第二节点,进而通过目标行人的消失位置和再次出现位置拟合目标行人的移动轨迹;将不同行人的移动轨迹的交点作为热度点,根据热度点的热度值生成监控盲区的热度区域,并依据热度区域的中心点位置调节监控探头的角度;通过调节后的监控节点网络获取行人的实际移动轨迹。本发明实施例能够实现对人员的实时定位和监控探头角度调节,提高人员定位精度和定位效率。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于安防监控的智能定位方法,其特征在于,该方法包括以下步骤:
将每个监控探头作为一个节点,根据所述节点的位置生成监控定位区域的监控节点网络;
选取初始节点,识别所述初始节点的监控视频中的行人包围框,当目标行人消失在所述初始节点的视野范围时,根据所述目标行人的移动方向确定该目标行人再次出现的第二节点,进而通过所述目标行人的消失位置和再次出现位置拟合所述目标行人的移动轨迹;
将不同行人的移动轨迹的交点作为热度点,根据所述热度点的热度值生成监控盲区的热度区域,并依据所述热度区域的中心点位置调节所述监控探头的角度;通过调节后的监控节点网络获取行人的实际移动轨迹。
2.根据权利要求1所述的方法,其特征在于,所述监控节点网络的生成方法为:
将所述监控定位区域的边缘上的所述节点相连,从边缘节点出发,与最近的内部节点相连,生成所述监控节点网络。
3.根据权利要求1所述的方法,其特征在于,所述行人包围框的识别方法为:
对所述监控视频中的每一帧视频图像进行目标检测,由存在行人图像特征的像素点组成的最小矩形框作为所述行人包围框。
4.根据权利要求3所述的方法,其特征在于,所述第二节点的获取方法为:
将出现所述行人包围框的视频图像作为关键帧图像保留,在所述初始节点的监控视频中获取相邻关键帧图像中属于同一目标行人的行人包围框,通过对所述目标行人在所述初始节点的视野范围消失之前的预设数量的关键帧图像中的行人包围框进行稀疏光流分析,获取所述目标行人的光流方向,从所述初始节点出发,在所述光流方向上延伸,在延伸方向上的最近的节点作为所述第二节点。
5.根据权利要求4所述的方法,其特征在于,所述属于同一目标行人的行人包围框的获取方法为:
保留所述关键帧图像中所述行人包围框内的像素值,生成包围框图像,选取所述包围框图像中所述目标行人的行为包围框,计算其特征向量,将所述特征向量与相邻帧包围框图像中每个行人包围框的特征向量进行相似度对比,得到属于同一目标行人的所述行人包围框。
6.根据权利要求4所述的方法,其特征在于,所述移动轨迹的获取步骤还包括:
将所述目标行人在所述初始节点的监控视频中的行人包围框的位置拟合成一条轨迹曲线,由所述轨迹曲线与所述关键帧图像的边缘组成所述目标行人的途经范围,当所述途经范围的面积小于所述关键帧图像面积的预设比例时,拟合所述移动轨迹。
7.根据权利要求1所述的方法,其特征在于,所述移动轨迹的获取方法为:
获取所述消失位置和所述再次出现位置之间的直线距离和所述目标行人的行走时间,根据所述直线距离和所述行走时间拟合出所述目标行人在所述消失位置和所述再次出现位置之间的轨迹曲线。
8.根据权利要求1所述的方法,其特征在于,所述热度区域的获取方法为:
以所述初始节点和所述第二节点之间热度值最高的热度点作为聚类中心,设置热度差异阈值作为最小密度,对所有热度点进行密度聚类,得到所述热度区域。
9.根据权利要求2所述的方法,其特征在于,该方法还包括以下步骤:
当某个节点出现异常时,根据异常节点的位置确定该异常节点的补偿节点,通过调节所述补偿节点的角度预测所述异常节点的视野范围内行人的预测移动轨迹。
10.根据权利要求9所述的方法,其特征在于,所述补偿节点的获取方法为:
当所述异常节点为所述边缘节点时,该异常节点没有补偿节点;当所述异常节点为所述监控节点网络的内部节点时,以该异常节点的所有相邻节点作为所述补偿节点。
CN202210254231.XA 2022-03-15 2022-03-15 一种基于安防监控的智能定位方法 Withdrawn CN114615468A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210254231.XA CN114615468A (zh) 2022-03-15 2022-03-15 一种基于安防监控的智能定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210254231.XA CN114615468A (zh) 2022-03-15 2022-03-15 一种基于安防监控的智能定位方法

Publications (1)

Publication Number Publication Date
CN114615468A true CN114615468A (zh) 2022-06-10

Family

ID=81862680

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210254231.XA Withdrawn CN114615468A (zh) 2022-03-15 2022-03-15 一种基于安防监控的智能定位方法

Country Status (1)

Country Link
CN (1) CN114615468A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116546171A (zh) * 2023-06-30 2023-08-04 傲拓科技股份有限公司 一种监控设备数据采集方法
CN117010840A (zh) * 2023-08-25 2023-11-07 内蒙古路桥集团有限责任公司 基于班前教育的自适应综合管理系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116546171A (zh) * 2023-06-30 2023-08-04 傲拓科技股份有限公司 一种监控设备数据采集方法
CN116546171B (zh) * 2023-06-30 2023-09-01 傲拓科技股份有限公司 一种监控设备数据采集方法
CN117010840A (zh) * 2023-08-25 2023-11-07 内蒙古路桥集团有限责任公司 基于班前教育的自适应综合管理系统

Similar Documents

Publication Publication Date Title
CN107563313B (zh) 基于深度学习的多目标行人检测与跟踪方法
CN114615468A (zh) 一种基于安防监控的智能定位方法
Golightly et al. Corner detection and matching for visual tracking during power line inspection
CN110660082A (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN111882586B (zh) 一种面向剧场环境的多演员目标跟踪方法
CN101324956A (zh) 基于均值漂移的抗遮挡运动目标跟踪方法
CN112991391A (zh) 一种基于雷达信号和视觉融合的车辆检测与跟踪方法
CN111739053B (zh) 一种复杂场景下的在线多行人检测跟踪方法
CN110458862A (zh) 一种遮挡背景下的运动目标跟踪方法
Khalkhali et al. Vehicle tracking with Kalman filter using online situation assessment
CN110781785A (zh) 基于Faster RCNN算法改进的交通场景下行人检测方法
CN106780567B (zh) 一种融合颜色和梯度直方图的免疫粒子滤波扩展目标跟踪方法
CN109255799B (zh) 一种基于空间自适应相关滤波器的目标跟踪方法及系统
CN116403139A (zh) 一种基于目标检测的视觉跟踪定位方法
CN103281476A (zh) 基于电视图像运动目标的自动跟踪方法
CN110426671B (zh) Wsn中基于模型概率实时修正的imm目标跟踪方法及装置
CN115278520A (zh) 一种基于指纹库迁移重构的5g室内定位方法
CN116266359A (zh) 目标物的跟踪方法、装置、计算机设备和存储介质
Zhang et al. Spatiotemporal Gaussian mixture model to detect moving objects in dynamic scenes
Yang et al. Improved visual background extractor with adaptive range change
CN116824641B (zh) 姿态分类方法、装置、设备和计算机存储介质
Jang et al. Adaptive robust estimation of affine parameters from block motion vectors
CN111161323A (zh) 一种基于相关滤波的复杂场景目标跟踪方法及系统
Khan et al. Foreground detection using motion histogram threshold algorithm in high-resolution large datasets
Saif et al. Adaptive long term motion pattern analysis for moving object detection using UAV aerial images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20220610

WW01 Invention patent application withdrawn after publication