CN112733770A - 一种区域入侵监测方法和装置 - Google Patents
一种区域入侵监测方法和装置 Download PDFInfo
- Publication number
- CN112733770A CN112733770A CN202110060335.2A CN202110060335A CN112733770A CN 112733770 A CN112733770 A CN 112733770A CN 202110060335 A CN202110060335 A CN 202110060335A CN 112733770 A CN112733770 A CN 112733770A
- Authority
- CN
- China
- Prior art keywords
- target
- real
- foreground
- video image
- foreground target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012544 monitoring process Methods 0.000 title claims abstract description 26
- 239000000203 mixture Substances 0.000 claims abstract description 42
- 230000033001 locomotion Effects 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims description 19
- 238000005286 illumination Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000035945 sensitivity Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 4
- 238000012806 monitoring device Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 28
- 238000012423 maintenance Methods 0.000 abstract description 8
- 230000009545 invasion Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000000979 retarding effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及电力运维领域,提供了一种区域入侵监测方法和装置,其方法包括步骤:通过自适应高斯混合模型获取实时视频图像的前景目标;基于贝叶斯网络框架构建Camshift跟踪算法;利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标。根据实时采集的视频图像,首先采用自适应混合高斯模型为背景更新方法,用连通区检测算法分割出前景目标,并利用改进的Camshift跟踪算法进一步跟踪并分析目标速度和运动轨迹。提高了越界目标检测的准确率,检测时间提高到60ms左右,满足了现场应用需求。
Description
技术领域
本发明涉及电力运维领域,尤指一种区域入侵监测方法和装置。
背景技术
电力运维场景复杂,尤其夜晚视线模糊不清,容易出现非法人员或物体入侵禁止区域的情况,仅依靠监控人员的巡逻或者视频监控是远远不够的。为了提高电力运维的安全性,目前已布置热成像智能监控系统或者视频监控系统来监测非法人员越界。热成像监控系统在夜间能有效的监测自身温度与环境温度不同的人和动物。
但是目前区域入侵侦测尚存在以下问题:1)电力运维场景的环境是特殊的,光照较弱,大部分环境都是有阴影的,只有极个别环境是有高光的。2)检测的目标颜色和背景的颜色比较相同,所以很难进行区分。3)环境中存在比较要做的场景种噪音和振动,并且摄像头在拍摄的时候会有轻微的振动,会导致图像拍出来的质量偏弱。4)在施工的现场里尘土相对来说比较多,噪声也比较大,给运动的目标的自动检测带来了很大的困难。5)智能化低,受背景环境以及其他目标的干扰等各种因素的影响,对越界人或物体的检测以及跟踪不够稳定。
发明内容
本发明的目的是提供一种区域入侵监测方法和装置,能够智能化、精确的进行区域入侵监测。
本发明提供的技术方案如下:
一种区域入侵监测方法,包括步骤:
通过自适应高斯混合模型获取实时视频图像的前景目标;
基于贝叶斯网络框架构建Camshift跟踪算法;
利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标。
进一步优选地,在所述通过自适应高斯混合模型获取实时视频图像的前景目标之前,还包括步骤:
基于狄利克雷过程构建可扩展高斯混合模型;
通过聚类分量的新增及归并机制,训练所述可扩展高斯混合模型;
通过基于批次处理方式的可扩展变分推理算法,优化所述可扩展高斯混合模型,训练生成所述自适应高斯混合模型。
进一步优选地,所述通过自适应高斯混合模型获取实时视频图像的前景目标,包括步骤:
提取HOG特征;
利用所述HOG特征和所述自适应高斯混合模型,检测所述实时视频图像中的前景目标。
进一步优选地,所述通过自适应高斯混合模型获取实时视频图像的前景目标,包括步骤:
通过连通区域算法对二值图像进行处理,标记所有目标像素点,得到并记录等价标记对;
基于所述等价标记对,获取实时视频图像的前景目标。
进一步优选地,所述提取HOG特征,包括步骤:
利用伽马变换归一化所述实时视频图像;
对所述实时视频图像进行光照敏感度设置,以引入减缓因子优化所述自适应高斯混合模型的参数,所述参数包括像素值、均值和方差;
设置滑动窗口,以在所述实时视频图像上滑动提取所述前景目标的HOG特征。
进一步优选地,包括步骤:
采用K-means算法生成数据簇中心,选取欧氏距离衡量所述前景目标的特征描述子,以检测所述前景目标;
其中,所述欧氏距离为两点在m维空间上的真实距离,2个n维向量A(x11,x12,…,x1n)和B(x21,x22,…,x2n)的欧氏距离为:
进一步优选地,所述利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标,包括步骤:
基于所述贝叶斯网络框架构建预处理模型,以获取所述前景目标在所述实时视频图像中的目标区域范围;
创建空间上下文模型,在所述目标区域范围内根据距离相似性判断所述前景目标的位置信息;
创建颜色上下文模型,通过颜色相似性对所述前景目标的位置信息进行验证。
进一步优选地,所述利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标,还包括步骤:
以所述前景目标为中心划定矩形框区域,保存所述矩形框区域的中心坐标,检测所述前景目标的运动速度是否在速度阈值内;
当小于所述速度阈值时,根据所述矩形框区域的中心坐标计算所述前景目标移动的位移和路程。
进一步优选地,所述基于所述贝叶斯网络框架构建预处理模型,以获取所述前景目标在所述实时视频图像中的目标区域范围,包括步骤:
建立基于所述前景目标和局部区域背景的预处理模型;
结合所述特征描述子的时空上下文信息,对所述实时视频图像进行滤波处理,得到所述实时视频图像的置信图,计算公式为:
根据所述置信图确定所述前景目标的目标区域范围;
其中,c(x)为置信度,x为所述前景目标的位置;o为当前帧实时视频图像的前景目标;c(x)最大时的点为所述前景目标在下一帧实时视频图像的位置。
一种区域入侵监测装置,包括:
获取模块,用于通过自适应高斯混合模型获取实时视频图像的前景目标;
构建模块,用于基于贝叶斯网络框架构建Camshift跟踪算法;
跟踪模块,用于利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标。
本发明提供的一种区域入侵监测方法和装置至少具有以下有益效果:
1)根据实时采集的视频图像,首先采用自适应混合高斯模型为背景更新方法,用连通区检测算法分割出前景目标,并利用改进的Camshift跟踪算法进一步跟踪并分析目标速度和运动轨迹。提高了越界目标检测的准确率,检测时间提高到60ms左右,满足了现场应用需求。
2)在本发明中,采用了Camshift一种结合色彩与光照信息作为特征描述子的跟踪校正策略,利用颜色匹配的方法进行目标相似度对比,在运动目标运动的过程中,颜色信息变化不大,所以算法具有良好的鲁棒性。
3)在目标跟踪时,针对目标遮挡引起的各种可能情况进行了分析,引入了对运动目标的可靠性度量,增强了越界目标跟踪的稳定性和可靠性。
附图说明
下面将以明确易懂的方式,结合附图说明优选实施方式,对一种一种区域入侵监测方法和装置的上述特性、技术特征、优点及其实现方式予以进一步说明。
图1是本发明中一种区域入侵监测方法的一个实施例的流程图;
图2是本发明中HOG特征提取的流程图;
图3是本发明中基于特征描述子的运动目标跟踪流程图;
图4是本发明中目标轨迹跟踪与越界目标的判断流程图;
图5是本发明中一种区域入侵监测装置的一个实施例的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其他实施例中也可以实现本申请。在其他情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所述描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其他特征、整体、步骤、操作、元素、组件和/或集合的存在或添加。
为使图面简洁,各图中只示意性地表示出了与本发明相关的部分,它们并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”不仅表示“仅此一个”,也可以表示“多于一个”的情形。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
另外,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
实施例一
本发明的一个实施例,如图1所示,一种区域入侵监测方法,包括:
S100通过自适应高斯混合模型获取实时视频图像的前景目标。
具体的,在电力运维场景中,根据实时采集的视频图像,采用改进的自适应高斯混合模型(GMM)为背景建模方法,用连通区检测算法分割出前景目标(人体,车辆等),降低光照变化的敏感性。
S200基于贝叶斯网络框架构建Camshift跟踪算法。
具体的,利用改进的Camshift算法进一步跟踪并分析目标速度和运动轨迹。改进的Camshift算法是通过贝叶斯网络框架搭建模型的。
在目标跟踪时,Camshift算法针对目标遮挡引起的各种可能情况进行了分析,引入了对运动目标的可靠性度量,增强了越界目标跟踪的稳定性和可靠性。
S300利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标。
具体的,在目标跟踪过程中,采用了Camshift一种结合色彩与光照信息作为特征描述子的跟踪校正策略,利用颜色匹配的方法进行目标相似度对比,在运动目标运动的过程中,颜色信息变化不大,所以算法具有良好的鲁棒性。
示例性的,如图4所示,在本实施例中,目标轨迹跟踪与越界目标的判断流程,具体包括:当检测到目标时,以目标为中心划定区域,检测目标的目前运动速度是否在范围内。如果在范围内,则计算目标的位移和路程。判断位移路程比是否在预设范围内,若不在预设范围内,则确认该目标非法越界,进行报警处理。
在本实施例中,根据实时采集的视频图像,首先采用自适应混合高斯模型为背景更新方法,用连通区检测算法分割出前景目标,并利用改进的Camshift跟踪算法进一步跟踪并分析目标速度和运动轨迹。在目标跟踪时,针对目标遮挡引起的各种可能情况进行了分析,引入了对运动目标的可靠性度量,增强了越界目标跟踪的稳定性和可靠性。设计的方法提高了越界目标检测的准确率,检测时间提高到60ms左右,满足了现场应用需求。
实施例二
基于上述实施例,在本实施例中与上述实施例相同的部分就不一一赘述了,本实施例提供一种区域入侵监测方法,包括:
优选地,在所述通过自适应高斯混合模型获取实时视频图像的前景目标之前,还包括步骤:
基于狄利克雷过程构建可扩展高斯混合模型。
通过聚类分量的新增及归并机制,训练所述可扩展高斯混合模型。
通过基于批次处理方式的可扩展变分推理算法,优化所述可扩展高斯混合模型,训练生成所述自适应高斯混合模型。
具体的,通过构建基于狄利克雷过程的可扩展GMM,通过聚类分量的新增及归并机制,使模型复杂度根据数据规模自适应变化,从而增强先验模型结构的紧密度,以降低对光照变化的敏感性。此外,对高斯混合模型的推理过程进行优化,给出一种基于批次处理方式的可扩展变分推理算法,求解图像去噪中所有隐变量的变分后验分布,实现先验学习。
优选地,所述通过自适应高斯混合模型获取实时视频图像的前景目标,包括步骤:
提取HOG特征;利用所述HOG特征和所述自适应高斯混合模型,检测所述实时视频图像中的前景目标。
优选地,所述提取HOG特征,包括步骤:
利用伽马变换归一化所述实时视频图像;对所述实时视频图像进行光照敏感度设置,以引入减缓因子优化所述自适应高斯混合模型的参数,所述参数包括像素值、均值和方差;设置滑动窗口,以在所述实时视频图像上滑动提取所述前景目标的HOG特征。
具体包括:
1)归一化伽马。使用伽马变换归一化图像,降低图像局部的阴影和光照变化。
2)光照敏感度设置。引入减缓因子等从局部和全局光照变化两个方面改进混合高斯背景模型的参数更新,包括像素值及其均值与方差。
3)滑动窗口设置。分割图像为若干个滑动窗口(block),block用于在整幅图像上滑动提取运动目标HOG特征。
4)计算梯度。将block均匀分成4个单元(cell),block之间采用重叠两个细胞单元(cell)的形式进行滑动。计算出图像的像素点(x,y)的水平方向和垂直方向的梯度,水平方向上的梯度Ix(x,y)为:
Ix(x,y)=I(x+1,y)-I(x-1,y) (1)
水平方向上的梯度Iy(x,y)为:
Iy(x,y)=I(x,y+1)-I(x,y-1) (2)
得出像素点(x,y)的梯度幅值m(x,y)为:
同样可得像素点(x,y)的梯度方向θ(x,y)为:
5)累加计算获得空间细胞的梯度方向。将梯度方向均匀分成m个方向,如果梯度方向存在正负,则将360°均匀分成m个区间,否则将180°均匀分成m个区间。将相同cell上所有相同梯度方向的点梯度幅值进行基于权重的累加计算,得出该cell的梯度直方图(HOG)。
6)在重叠的细胞块内进行归一化对比。归一化每个block内的多个cell l梯度直方图为一个直方图来表示当前block的HOG特征。
7)收集检测窗口上所有块的HOG。通过滑动block窗口完成整幅图像的HOG特征的提取。
8)输出HOG特征。
在前景检测过程中,利用方向梯度直方图(HOG)特征来检测视频帧中的前景目标,考虑局部和全局光照变化,引入减缓因子改进混合高斯背景模型的参数更新方案,提高了检测的准确度。
具体的,在HOG的目标检测中,优选地,包括步骤:
采用K-means算法生成数据簇中心,选取欧氏距离衡量所述前景目标的特征描述子,以检测所述前景目标。
其中,所述欧氏距离为两点在m维空间上的真实距离,2个n维向量A(x11,x12,…,x1n)和B(x21,x22,…,x2n)的欧氏距离为:
示例性的,如图2所示,本实施例中HOG特征提取具体包括:接收图像输入,进行颜色空间标准化处理,计算像素梯度,进行空间和方向上的梯度统计,生成特征向量,将特征向量基于SVM进行分类,输出分类结果,以完成HOG特征提取。
优选地,所述通过自适应高斯混合模型获取实时视频图像的前景目标,包括步骤:
通过连通区域算法对二值图像进行处理,标记所有目标像素点,得到并记录等价标记对;基于所述等价标记对,获取实时视频图像的前景目标。
具体的,所述的连通区检测算法,是对二值图像进行处理,假设目标为白色(255),背景为黑色(0)。标记算法首先对二值图像进行一次完整的扫描,标记所有目标像素点的同时,得到并记录等价标记对。首先对二值图像的每一个像素进行8连通区域的标记,即:对任意一个像素的上、下、左、右、左上、右上、右下、左下,共8个相邻像素进行比较。
优选地,所述利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标,包括步骤:
基于所述贝叶斯网络框架构建预处理模型,以获取所述前景目标在所述实时视频图像中的目标区域范围;创建空间上下文模型,在所述目标区域范围内根据距离相似性判断所述前景目标的位置信息;创建颜色上下文模型,通过颜色相似性对所述前景目标的位置信息进行验证。
示例性的,Camshift跟踪算法主要原理是将跟踪目标的色彩信息做为特征,将这些信息计算处理后投影到下一帧图像中,计算出这幅图像中的目标。用这幅图像作为新的源图分析下一帧图像,重复这个过程就可以实现对目标的连续跟踪。在每次搜寻前将搜寻窗口的初始值设置为运动目标当前的位置和大小,由于搜寻窗口就在运动目标可能出现的区域附近,搜索时这样就可以节省大量的搜寻时间,使算法具有了良好的实时性。同时算法是通过颜色匹配找到运动目标;在运动目标运动的过程中,颜色信息变化不大,所以算法具有良好的鲁棒性。
优选地,所述基于所述贝叶斯网络框架构建预处理模型,以获取所述前景目标在所述实时视频图像中的目标区域范围,包括步骤:
建立基于所述前景目标和局部区域背景的预处理模型;
结合所述特征描述子的时空上下文信息,对所述实时视频图像进行滤波处理,得到所述实时视频图像的置信图,计算公式为:
根据所述置信图确定所述前景目标的目标区域范围;
其中,c(x)为置信度,x为所述前景目标的位置;o为当前帧实时视频图像的前景目标;c(x)最大时的点为所述前景目标在下一帧实时视频图像的位置。
具体的,算法流程如下:
1)建立一个基于目标和局部区域背景内的预处理模型;结合时空上下文信息,对图像进行滤波处理,得到图像的置信图,最后图像的最大似然概率的位置为所求目标位置。首先将跟踪问题转化成目标的置信图c(x):
式中,x表示目标可能出现的位置,o表示当前帧的目标,c(x)的值最大时的点就是下一帧图像目标出现的位置。
2)创建空间上下文模型:
P(x,m(z)|o)=hSC(x-z)
hSC(x-z)是一个关于目标x和局部上下文位置z的相对距离和方向的函数。
3)创建颜色上下文先验模型:
P(x,m(z)|o)=I(Z)wσ(Z-X*)
式中,I(Z)是表示点Z的灰度,代表了Z的时间与空间外观,W表示Z离X越近,所代表的权值越大。
优选地,所述利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标,还包括步骤:
以所述前景目标为中心划定矩形框区域,保存所述矩形框区域的中心坐标,检测所述前景目标的运动速度是否在速度阈值内;
当小于所述速度阈值时,根据所述矩形框区域的中心坐标计算所述前景目标移动的位移和路程。
具体的,对检测到的物体以目标为中心划定区域,然后每隔帧保存矩形框中心坐标,检测目标运动速度是否在阈值σ内,若小于σ,则通过得到的坐标计算位移和路程。
采用Sigmoid核函数作为支持向量机(SVM)的核函数,而解决非线性情况时的核函数的选择问题,将低维空间样本映射到高维特征空间上,同时在高维空间求解得到最佳的分类超平面,公式如下:
k(x,xj)=tanh(v(x,xj)+c)。
示例性的,在本实施例中,如图3所示,基于特征描述子的运动目标(人体/车辆)跟踪流程,具体包括:
开始人体目标跟踪,输入图像序列,如果存在下一帧图片,则压缩帧到指定大小,进行直方图均衡化、中值滤波、并提取HOG特征。通过检测器匹配,以获取特征描述子,当存在特征描述子时,计算欧式距离。当欧式距离低于阈值时,更新存储的特征描述子。当欧式距离不低于阈值时,替换存储的特征描述子并转移跟踪目标,以更新人体跟踪区域。
本发明提供了电力运维场景下区域入侵监测方法,根据实时采集的视频图像,首先采用自适应混合高斯模型为背景更新方法,用连通区检测算法分割出前景目标,并利用改进的Camshift跟踪算法进一步跟踪并分析目标速度和运动轨迹。在目标跟踪时,针对目标遮挡引起的各种可能情况进行了分析,引入了对运动目标的可靠性度量,增强了越界目标跟踪的稳定性和可靠性。设计的方法提高了越界目标检测的准确率,检测时间提高到60ms左右,满足了现场应用需求。
在检测过程中,利用方向梯度直方图(HOG)特征来检测视频帧中的运动目标,提高了检测的准确度;在目标跟踪过程中,采用了一种结合特征描述子的跟踪校正策略,利用基于欧氏距离的方法进行目标相似度对比,并以此更新跟踪结果,降低了背景环境如光照等因素的干扰。Camshift跟踪算法主要是利用局部上下文信息在下一帧中预测目标出现的位置,该算法基于贝叶斯框架,利用置信图和FFT提高计算效率。
实施例三
基于上述实施例,在本实施例中与上述实施例中相同的部分就不一一赘述了,如图5所示,本实施例提供一种区域入侵监测装置,包括:
获取模块501,用于通过自适应高斯混合模型获取实时视频图像的前景目标。
构建模块502,用于基于贝叶斯网络框架构建Camshift跟踪算法。
跟踪模块503,用于利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标。
在本实施例中,通过该装置可以执行电力运维场景下区域入侵监测方法,根据实时采集的视频图像,首先采用自适应混合高斯模型为背景更新方法,用连通区检测算法分割出前景目标,并利用改进的Camshift跟踪算法进一步跟踪并分析目标速度和运动轨迹。在目标跟踪时,针对目标遮挡引起的各种可能情况进行了分析,引入了对运动目标的可靠性度量,增强了越界目标跟踪的稳定性和可靠性。设计的方法提高了越界目标检测的准确率,检测时间提高到60左右,满足了现场应用需求。
另外,通过该装置可以实现一种所述的GMM+Camshift的运动目标检测与跟踪方法,在检测过程中,利用方向梯度直方图(HOG)特征来检测视频帧中的运动目标,提高了检测的准确度;在目标跟踪过程中,采用了一种结合特征描述子的跟踪校正策略,利用基于欧氏距离的方法进行目标相似度对比,并以此更新跟踪结果,降低了背景环境如光照等因素的干扰。Camshift跟踪算法主要是利用局部上下文信息在下一帧中预测目标出现的位置,该算法基于贝叶斯框架,利用置信图和FFT提高计算效率。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其他的方式实现。示例性的,以上所描述的实施例仅仅是示意性的,示例性的,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,示例性的,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性、机械或其他的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可能集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各程序模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的程序模块完成,即将所述装置的内部结构划分成不同的程序单元或模块,以完成以上描述的全部或者部分功能。实施例中的各程序模块可以集成在一个处理单元中,也可是各个单元单独物理存在,也可以两个或两个以上单元集成在一个处理单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件程序单元的形式实现。另外,各程序模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详细描述或记载的部分,可以参见其他实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
应当说明的是,上述实施例均可根据需要自由组合。以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种区域入侵监测方法,其特征在于,包括步骤:
通过自适应高斯混合模型获取实时视频图像的前景目标;
基于贝叶斯网络框架构建Camshift跟踪算法;
利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标。
2.根据权利要求1所述区域入侵监测方法,其特征在于,在所述通过自适应高斯混合模型获取实时视频图像的前景目标之前,还包括步骤:
基于狄利克雷过程构建可扩展高斯混合模型;
通过聚类分量的新增及归并机制,训练所述可扩展高斯混合模型;
通过基于批次处理方式的可扩展变分推理算法,优化所述可扩展高斯混合模型,训练生成所述自适应高斯混合模型。
3.根据权利要求1所述区域入侵监测方法,其特征在于,所述通过自适应高斯混合模型获取实时视频图像的前景目标,包括步骤:
提取HOG特征;
利用所述HOG特征和所述自适应高斯混合模型,检测所述实时视频图像中的前景目标。
4.根据权利要求1所述区域入侵监测方法,其特征在于,所述通过自适应高斯混合模型获取实时视频图像的前景目标,包括步骤:
通过连通区域算法对二值图像进行处理,标记所有目标像素点,得到并记录等价标记对;
基于所述等价标记对,获取实时视频图像的前景目标。
5.根据权利要求1所述区域入侵监测方法,其特征在于,所述提取HOG特征,包括步骤:
利用伽马变换归一化所述实时视频图像;
对所述实时视频图像进行光照敏感度设置,以引入减缓因子优化所述自适应高斯混合模型的参数,所述参数包括像素值、均值和方差;
设置滑动窗口,以在所述实时视频图像上滑动提取所述前景目标的HOG特征。
7.根据权利要求4所述区域入侵监测方法,其特征在于,所述利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标,包括步骤:
基于所述贝叶斯网络框架构建预处理模型,以获取所述前景目标在所述实时视频图像中的目标区域范围;
创建空间上下文模型,在所述目标区域范围内根据距离相似性判断所述前景目标的位置信息;
创建颜色上下文模型,通过颜色相似性对所述前景目标的位置信息进行验证。
8.根据权利要求7所述区域入侵监测方法,其特征在于,所述利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标,还包括步骤:
以所述前景目标为中心划定矩形框区域,保存所述矩形框区域的中心坐标,检测所述前景目标的运动速度是否在速度阈值内;
当小于所述速度阈值时,根据所述矩形框区域的中心坐标计算所述前景目标移动的位移和路程。
10.一种区域入侵监测装置,其特征在于,包括:
获取模块,用于通过自适应高斯混合模型获取实时视频图像的前景目标;
构建模块,用于基于贝叶斯网络框架构建Camshift跟踪算法;
跟踪模块,用于利用所述Camshift跟踪算法,对所述前景目标进行速度和轨迹分析,以连续跟踪所述前景目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110060335.2A CN112733770A (zh) | 2021-01-18 | 2021-01-18 | 一种区域入侵监测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110060335.2A CN112733770A (zh) | 2021-01-18 | 2021-01-18 | 一种区域入侵监测方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112733770A true CN112733770A (zh) | 2021-04-30 |
Family
ID=75591983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110060335.2A Pending CN112733770A (zh) | 2021-01-18 | 2021-01-18 | 一种区域入侵监测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112733770A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139521A (zh) * | 2021-05-17 | 2021-07-20 | 中国大唐集团科学技术研究院有限公司中南电力试验研究院 | 一种用于电力监控的行人越界标监测方法 |
CN116823872A (zh) * | 2023-08-25 | 2023-09-29 | 尚特杰电力科技有限公司 | 基于目标追踪和图像分割的风机巡检方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102110296A (zh) * | 2011-02-24 | 2011-06-29 | 上海大学 | 一种复杂场景下的运动目标跟踪方法 |
CN105139419A (zh) * | 2015-08-03 | 2015-12-09 | 硅革科技(北京)有限公司 | 一种足球比赛视频的球员及球体跟踪方法 |
CN106446824A (zh) * | 2016-09-21 | 2017-02-22 | 防城港市港口区思达电子科技有限公司 | 一种车辆检测和跟踪方法 |
CN106485732A (zh) * | 2016-09-09 | 2017-03-08 | 南京航空航天大学 | 一种视频序列的目标跟踪方法 |
CN109345566A (zh) * | 2018-09-28 | 2019-02-15 | 上海应用技术大学 | 运动目标跟踪方法及系统 |
CN112233145A (zh) * | 2020-10-23 | 2021-01-15 | 湖南工程学院 | 一种基于rgb-d时空上下文模型的多目标遮挡跟踪方法 |
-
2021
- 2021-01-18 CN CN202110060335.2A patent/CN112733770A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102110296A (zh) * | 2011-02-24 | 2011-06-29 | 上海大学 | 一种复杂场景下的运动目标跟踪方法 |
CN105139419A (zh) * | 2015-08-03 | 2015-12-09 | 硅革科技(北京)有限公司 | 一种足球比赛视频的球员及球体跟踪方法 |
CN106485732A (zh) * | 2016-09-09 | 2017-03-08 | 南京航空航天大学 | 一种视频序列的目标跟踪方法 |
CN106446824A (zh) * | 2016-09-21 | 2017-02-22 | 防城港市港口区思达电子科技有限公司 | 一种车辆检测和跟踪方法 |
CN109345566A (zh) * | 2018-09-28 | 2019-02-15 | 上海应用技术大学 | 运动目标跟踪方法及系统 |
CN112233145A (zh) * | 2020-10-23 | 2021-01-15 | 湖南工程学院 | 一种基于rgb-d时空上下文模型的多目标遮挡跟踪方法 |
Non-Patent Citations (8)
Title |
---|
BAOGUO WEI 等: "Object Tracking via Modified CamShift in Sequential Bayesian Filtering Framework", 《2010 3RD INTERNATIONAL CONGRESS ON IMAGE AND SIGNAL PROCESSING (CISP2010)》, 29 November 2010 (2010-11-29), pages 358 - 362 * |
吴昊: "分布式运动检测与跟踪系统的设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2012, 15 October 2012 (2012-10-15), pages 138 - 2703 * |
张墨华 等: "面向图像先验建模的可扩展高斯混合模型", 《计算机工程》, vol. 46, no. 4, 15 April 2020 (2020-04-15), pages 220 - 227 * |
支祖利: "基于 ABCshift 结合 LBP 纹理特征的目标跟踪算法", 《东莞理工学院学报》, vol. 25, no. 3, 20 June 2018 (2018-06-20), pages 73 - 77 * |
李伟: "基于智能视频分析的小区异常事件检测", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2018, 15 February 2018 (2018-02-15), pages 138 - 2510 * |
李想: "快速的目标跟踪算法研", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2019, 15 February 2019 (2019-02-15), pages 138 - 2210 * |
杨智慧: "小区视频智能监控系统开发研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2015, 15 April 2015 (2015-04-15), pages 136 - 1051 * |
邱楠 等: "小区视频监控的入侵检测算法", 《沈阳航空航天大学学报》, vol. 32, no. 4, 25 August 2015 (2015-08-25), pages 83 - 89 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139521A (zh) * | 2021-05-17 | 2021-07-20 | 中国大唐集团科学技术研究院有限公司中南电力试验研究院 | 一种用于电力监控的行人越界标监测方法 |
CN113139521B (zh) * | 2021-05-17 | 2022-10-11 | 中国大唐集团科学技术研究院有限公司中南电力试验研究院 | 一种用于电力监控的行人越界标监测方法 |
CN116823872A (zh) * | 2023-08-25 | 2023-09-29 | 尚特杰电力科技有限公司 | 基于目标追踪和图像分割的风机巡检方法及系统 |
CN116823872B (zh) * | 2023-08-25 | 2024-01-26 | 尚特杰电力科技有限公司 | 基于目标追踪和图像分割的风机巡检方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cao et al. | Vehicle detection and motion analysis in low-altitude airborne video under urban environment | |
Wang et al. | Robust video-based surveillance by integrating target detection with tracking | |
Bertini et al. | Multi-scale and real-time non-parametric approach for anomaly detection and localization | |
CN111932583A (zh) | 一种基于复杂背景下的时空信息一体化智能跟踪方法 | |
CN107240118B (zh) | 一种基于rgb颜色直方图的判别式跟踪方法 | |
US20070291991A1 (en) | Unusual action detector and abnormal action detecting method | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN102254394A (zh) | 一种基于视频差异分析的输电线路杆塔防盗监控方法 | |
CN106570490A (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
Gualdi et al. | Contextual information and covariance descriptors for people surveillance: an application for safety of construction workers | |
CN112733770A (zh) | 一种区域入侵监测方法和装置 | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
Masmoudi et al. | Vision based system for vacant parking lot detection: Vpld | |
CN112616023A (zh) | 复杂环境下的多摄像机视频目标追踪方法 | |
Afonso et al. | Automatic estimation of multiple motion fields from video sequences using a region matching based approach | |
Alsanad et al. | Real-time fuel truck detection algorithm based on deep convolutional neural network | |
CN107886060A (zh) | 基于视频的行人自动检测与跟踪方法 | |
Anagnostopoulos et al. | A template-guided approach to vehicle surveillance and access control | |
Landabaso et al. | Robust tracking and object classification towards automated video surveillance | |
US20190228275A1 (en) | Method and system to allow object detection in visual images by trainable classifiers utilizing a computer-readable storage medium and processing unit | |
Thangaraj et al. | A competent frame work for efficient object detection, tracking and classification | |
CN106372650B (zh) | 一种基于运动预测的压缩跟踪方法 | |
Li et al. | Multitarget tracking of pedestrians in video sequences based on particle filters | |
CN112819859A (zh) | 一种应用于智慧安防的多目标跟踪方法及装置 | |
Soeleman et al. | Tracking Moving Objects based on Background Subtraction using Kalman Filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |