CN106373143A - 一种自适应跨摄像机多目标跟踪方法及系统 - Google Patents
一种自适应跨摄像机多目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN106373143A CN106373143A CN201510434243.0A CN201510434243A CN106373143A CN 106373143 A CN106373143 A CN 106373143A CN 201510434243 A CN201510434243 A CN 201510434243A CN 106373143 A CN106373143 A CN 106373143A
- Authority
- CN
- China
- Prior art keywords
- target
- target object
- video
- feature
- tracks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种自适应跨摄像机多目标跟踪方法及系统,涉及计算机视觉领域的跨摄像机多目标跟踪技术。本发明方法包括:先固定跟踪窗口大小并使用预先建立的跟踪模型得到当前视频帧目标物体的位置,再在所得到的位置处变换跟踪窗口的大小,使用所述跟踪模型得到目标物体的尺度,根据得到的目标物体珠尺度在线更新跟踪模型;根据更新的跟踪模型,对当前视频帧目标物体的图像进行对数极坐标变换,对对数极坐标变换后的目标物体的图像进行混合高斯建模,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失。本发明还公开了一种自适应跨摄像机多目标跟踪系统。本申请技术方案有效地提高的跟踪算法的准确性和鲁棒性。
Description
技术领域
本发明涉及计算机视觉领域的跨摄像机多目标跟踪技术,具体为一种自适应跨摄像机多目标跟踪方法及系统。
背景技术
在智能视频监控中,单个摄像头的监控范围十分有限,并不能对整个监控场景进行有效覆盖。为了实现更大范围的监控,比如在城市的道路网络中跟踪某辆汽车或是在大型火车站内寻找某个可疑目标,通常需要多个监控摄像机协同工作。在无重叠区域拓扑结构未知的多摄像头监控网络中,多目标匹配与跟踪问题是其中的热点和难点。跨摄像机的多目标匹配与跟踪将不同监控摄像头中的同一运动目标联系起来,是监控网络中运动分析、行为理解等后续工作的基础,因此可以说跨摄像机的多目标匹配与跟踪是智能视频监控中的不可或缺环节。
尽管跨摄像机的多目标匹配与跟踪已经得到一定的关注和研究,然而,在现实环境中实现高效、鲁棒的目标跟踪算法仍然是一个极具挑战性的问题。这是因为在实际场景中,环境复杂多变,设计高效的跨摄像机的目标跟踪算法需要解决各种问题,这些问题包括场景光照变化、相互遮挡、目标尺度和姿势变化、不同摄像机之间的视角差异、不同摄像机之间的参数差异。
现有的目标跟踪算法一般可以分为生成模型方法和判别模型方法。基于生成模型的跟踪算法着重于准确地描述目标的特征,然后搜索具有最大相似度的物体作为目标;而基于判别模型的跟踪算法着重于把目标和背景分离开,往往采集背景区域作为负样本,目标物体作为正样本进行训练,得到一个二分类器,这种方法的好处是利用了背景的信息,能够有效地减弱背景中与目标相似的物体对于跟踪算法的影响。所以基于判别模型的跟踪算法往往具有更好的跟踪效果。
但是无论使用上述哪种方法,都没有考虑到目标消失情况的判断,而这种情况在实际场景中是经常出现的。目标绝大部分主流目标跟踪算法都只考虑到目标跟踪的准确度,缺少目标消失以后的有效判断机制,因此很难在实际场景中得到广泛的应用。Kalal等人于2012年发表在《IEEE TransactionsonPattern Analysis and Machine Intelligence》(国际电气和电子工程师协会模式分析和机器智能学报)第34卷1409页至1422页中“Tracking-learning-detection”一文中提出了目标物体消失判断的一种方法,这种方法使首先计算目标区域的光流,然后根据光流的混乱程度来判断物体是否消失,但是目前的光流计算方法是个病态问题,计算得到的光流并不可靠,因此根据光流来判断物体是否消失在理论上就存在较多问题,该方法在实际应用中也显示出较高的误判概率。Traver等人于2010年发表在《Roboticsand Autonomous Systems》(机器人技术和自动系统学报)第58卷378页至398页的“A review of log-polar imaging for visual perception in robotics”中指出,对数极坐标转换后的图像与人眼看物体的特征非常吻合,而人眼对于目标物体的消失判断是非常准确的。因此,我们可以模仿人眼对于目标物体的观察属性,利用对数极坐标转换来进行目标的消失判断。同时Hare等人于2011年发表在《IEEE International Conference onComputer Vision》(国际电气和电子工程师协会计算机视觉国际会议)上的“Struck:Structured output trackingwith kernels”中提出了一种基于结构化输出约束的online SVM分类器框架,该分类器可以有效地把前景目标与背景目标相分离。
发明内容
本发明所要解决的技术问题是,提供一种自适应跨摄像机多目标跟踪方法及系统,以解决现有跨摄像机多目标跟踪准确性低的问题。
为了解决上述技术问题,本发明公开了一种自适应跨摄像机多目标跟踪方法,该方法包括:
先固定跟踪窗口大小并使用预先建立的跟踪模型得到当前视频帧目标物体的位置,再在所得到的位置处变换跟踪窗口的大小,使用所述跟踪模型得到目标物体的尺度,根据得到的目标物体珠尺度在线更新跟踪模型;
根据更新的跟踪模型,对当前视频帧目标物体的图像进行对数极坐标变换,对对数极坐标变换后的目标物体的图像进行混合高斯建模,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失。
可选地,上述方法还包括:
在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库,当跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪。
可选地,上述方法中,按照如下公式,对当前视频帧目标物体的位置进行对数极坐标变换:
其中,经过对数极坐标转换后的图像的横轴和纵轴为ρ和θ。
可选地,上述方法中,按照如下公式对对数极坐标变换后的目标物体的图像进行混合高斯建模
其中:qt(x,y)表示目标的特征图像在(x,y)处的像素值,H表示混合高斯模型的个数,表示t时刻(x,y)坐标处第i个高斯模型的权重,N()表示正态分布,表示t时刻(x,y)坐标处第i个高斯模型的的均值,表示t时刻(x,y)坐标处第i个高斯模型的的方差。
可选地,上述方法中,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失的过程包括:
使用目标物体的混合高斯模型对下一帧视频图像中的跟踪目标物体的图像进行检测,统计非目标的像素占总像素的比例,若非目标的像素点总像素的比例达到或超过预先设定的阈值,则判断目标物体消失。
可选地,上述方法中,若非目标的像素点总像素的比例达到或超过预先设定的阈值时,还进行时域滤波操作;
仅当非目标的像素点总像素的比例达到或超过预先设定的阈值,且满足时域滤波的消失判断条件时,才判断目标物体消失。
可选地,上述方法中,在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库的过程包括:
周期性地对跟踪目标物体的图像提取色彩、饱和度和值HSV分块直方图特征、边缘方向直方图特征、主颜色特征和方向梯度直方图HOG特征,将这四种特征进行融合得到目标特征,存入目标特征库。
可选地,上述方法还包括:
在目标特征库容量达到上限时,用新的目标特征替换目标特征库中最原始的目标特征。
可选地,上述方法中,当跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪的过程包括:
对整段匹配视频使用混合高斯模型进行前景物体提取,使用目标特征库计算跟踪目标与所有前景物体的相似度,选择相似度最高的前景物体作为跨摄像机跟踪的目标。
本发明还公开了一种自适应跨摄像机多目标跟踪系统,该系统包括:
更新模块,固定跟踪窗口大小并使用预先建立的跟踪模型得到当前视频帧目标物体的位置,在所得到的位置处变换跟踪窗口的大小,使用所述跟踪模型得到目标物体的尺度,根据得到的目标物体珠尺度在线更新跟踪模型;
判断模块,根据更新的跟踪模型,对当前视频帧目标物体的图像进行对数极坐标变换,对对数极坐标变换后的目标物体的图像进行混合高斯建模,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失。
可选地,上述系统还包括:
目标物体的特征库建立模块,在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库;
跟踪模块,在跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪。
可选地,上述系统中,按照如下公式,对当前视频帧目标物体的位置进行对数极坐标变换:
其中,经过对数极坐标转换后的图像的横轴和纵轴为ρ和θ。
可选地,上述系统中,按照如下公式对对数极坐标变换后的目标物体的图像进行混合高斯建模:
其中:qt(x,y)表示目标的特征图像在(x,y)处的像素值,H表示混合高斯模型的个数,表示t时刻(x,y)坐标处第i个高斯模型的权重,N()表示正态分布,表示t时刻(x,y)坐标处第i个高斯模型的的均值,表示t时刻(x,y)坐标处第i个高斯模型的方差。
可选地,上述系统中,所述判断模块度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失指:
使用目标物体的混合高斯模型对下一帧视频图像中的跟踪目标物体的图像进行检测,统计非目标的像素占总像素的比例,若非目标的像素点总像素的比例达到或超过预先设定的阈值,则判断目标物体消失。
可选地,上述系统中,非目标的像素点总像素的比例达到或超过预先设定的阈值时,所述判断模块还进行时域滤波操作;
仅当非目标的像素点总像素的比例达到或超过预先设定的阈值,且满足时域滤波的消失判断条件时,才判断目标物体消失。
可选地,上述系统中,所述目标物体的特征库建立模块,在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库指:
周期性地对跟踪目标物体的图像提取色彩、饱和度和值HSV分块直方图特征、边缘方向直方图特征、主颜色特征和方向梯度直方图HOG特征,将这四种特征进行融合得到目标特征,存入目标特征库。
可选地,上述系统中,所述目标物体的特征库建立模块在目标特征库容量达到上限时,用新的目标特征替换目标特征库中最原始的目标特征。
可选地,上述系统中,所述跟踪模块,在跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪指:
对整段匹配视频使用混合高斯模型进行前景物体提取,使用目标特征库计算跟踪目标与所有前景物体的相似度,选择相似度最高的前景物体作为跨摄像机跟踪的目标。
本申请技术方案利用online SVM框架来实现自适应尺度变换的跟踪算法,并融合了基于对数极坐标变换和混合高斯建模的消失判断机制,有效地提高的跟踪算法的准确性和鲁棒性。同时,本申请技术方案能够同时对多个目标进行跨摄像机跟踪,具有极强的鲁棒性,而且能够达到实时要求,能够应用到实际场景中。
附图说明
图1为本发明方法的整体流程示意图。
图2为实例1中的单目标跟踪结果图。
图3为实例2中的多目标跟踪结果图。
图4为实例3中的单目标跟踪结果图。
图5为实例3中的跨摄像机匹配结果图;
图6为本发明系统的具体实施结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下文将结合附图对本发明技术方案作进一步详细说明。需要说明的是,在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
实施例1
本实施例提供一种自适应跨摄像机多目标跟踪方法,主要包括如下操作:
先固定跟踪窗口大小并使用预先建立的跟踪模型得到当前视频帧目标物体的位置,再在所得到的位置处变换跟踪窗口的大小,使用所述跟踪模型得到目标物体的尺度,根据得到的目标物体珠尺度在线更新跟踪模型;
根据更新的跟踪模型,对当前视频帧目标物体的图像进行对数极坐标变换,对对数极坐标变换后的目标物体的图像进行混合高斯建模,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失。
另外,按照上述方法操作时,还可以在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库,当跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪。
具体地,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失的过程又分为如下操作:
使用目标物体的混合高斯模型对下一帧视频图像中的跟踪目标物体的图像进行检测,统计非目标的像素占总像素的比例,若非目标的像素点总像素的比例达到或超过预先设定的阈值,则判断目标物体消失。
要说明的是,当非目标的像素点总像素的比例达到或超过预先设定的阈值时,还可以进行时域滤波操作,这样,仅当非目标的像素点总像素的比例达到或超过预先设定的阈值,且满足时域滤波的消失判断条件时,才判断目标物体消失,从而提高判断结果的可靠性。
在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库的过程包括:
周期性地对跟踪目标物体的图像提取HSV分块直方图特征、边缘方向直方图特征、主颜色特征和hog特征,将这四种特征进行融合得到目标特征,存入目标特征库即可。
其中,在目标特征库容量达到上限时,还可以用新的目标特征替换目标特征库中最原始的目标特征。
当跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪的操作如下:
对整段匹配视频使用混合高斯模型进行前景物体提取,使用目标特征库计算跟踪目标与所有前景物体的相似度,选择相似度最高的前景物体作为跨摄像机跟踪的目标。
从本实施例方法,可以看出,本申请技术方案主要以online SVM分类器为跟踪算法基础框架,在跟踪时,对上一帧图像的目标位置周围进行搜索,利用online SVM对搜索范围内的区域进行评分,评分最高的区域即为当前帧目标的位置,再利用先搜索位置再搜索尺度的方法来快速准确地跟踪目标的尺度,跟踪完成以后,在目标周围采样正样本和负样本来在线更新目标模型;对对数极坐标变换后的目标图像进行混合高斯建模来度量目标的中心偏移和变化程度,以此判别目标是否已经跟丢或消失。同时在跟踪过程中,对每一个目标提取多个目标模板并计算特征,用于跨摄像机匹配。当目标离开这段视频以后,由用户指定一段视频进行跨摄像机匹配,先对待匹配视频中的每一帧进行高斯建模和前景提取,对每一个前景物体计算特征,然后使用每一个跟踪目标的模板特征与前景特征进行匹配,得到对应的相似度,最后在整段视频中找到匹配相似度最高的物体作为目标物体,对该目标进行继续跟踪。重复上述步骤即可实现跨摄像机多目标跟踪。
具体地,上述方法的实现过程如图1所示,包括以下操作步骤:
步骤100:初始化输入。
由用户输入需要跟踪的视频、单个或多个跟踪目标所在的初始帧以及初始矩形框。
步骤200:跟踪模型建立。
读取目标所在初始帧,在距离目标位置R的范围内采集样本,样本的矩形框大小与目标矩形框大小一致,对所有样本提取haar-like特征,同时记录每个样本的矩形框位置。得到了训练样本以后,就通过求解如下的凸优化目标函数得到online SVM跟踪模型:
其中:ξi是松弛变量,C是调和参数,δΦi(y)=Φ(xi,yi)-Φ(xi,y);表示两个不同位置的矩形框之间的覆盖度。
使用拉普拉斯对偶法对上式中的结构化输出SVM问题进行转化:
我们对公式(4)中目标函数的变量w,ξ求导,使之为零,得到一组条件:
将上式重新代入拉普拉斯对偶问题中,得到最终的对偶问题:
由于上式与一般SVM的形式有点差别,无法使用通用的SVM求解算法。所以对上式进行一定的参数变换,使之与一般的额SVM具有相同的形式:
使用上式参数转换后得到的对偶问题为:
其中:如果y=yi,δ(y,yi)=1;反之,δ(y,yi)=0。
上式的优化方程使用经典的SMO(sequential minimal optimization)算法求解。最后我们得到的跟踪算法模型为:
其中,内积使用核函数进行表示,为本文采用高斯核k(x,x′)=e-γ||x-x′||。
上式中的h(x,y)计算的是一个评分,评分越高表明与目标特征的相似度越高,越可能是目标物体。
步骤300:跟踪目标模板库建立。
对于每一个跟踪目标,建立目标模板库,模板库的容量为P。首先对初始目标图像提取HSV分块直方图特征、边缘方向直方图特征、主颜色特征和hog特征,把这四种特征进行融合得到目标特征,把该特征加入模板库。然后每间隔帧数Q对目标图像提取上述特征,把该特征加入模板库。当模板库中的模板数量达到容量上限时,把除了初始模板以外最早的模板进行删除,用最新的模板进行替换。
步骤400:消失判断模型建立。
得到初始目标物体的图像模板以后,先对目标图像作对数极坐标转换,公式如下:
其中,经过对数极坐标转换后的图像的横轴和纵轴为和。
然后,对目标的对数极坐标图像进行混合高斯建模:
其中:qt(x,y)表示目标的特征图像在(x,y)处的像素值,H表示混合高斯模型的个数,表示t时刻(x,y)坐标处第i个高斯模型的权重,N()表示正态分布,表示t时刻(x,y)坐标处第i个高斯模型的的均值,表示t时刻(x,y)坐标处第i个高斯模型的的方差。
步骤500:输入下一帧视频图像。
步骤600:跟踪目标的位置和尺度。
该步骤600又分为如下各具体操作:
步骤600.1、目标位置跟踪。
首先固定搜索窗口的尺度为上一帧的目标尺度,初始搜索位置为上一帧的目标位置,然后在当前视频帧中,在初始搜索位置的领域大小为r的范围内进行遍历搜索,使用跟踪模型中的online SVM评分器h(x,y)对所有搜索窗口进行评分,评分最高的一个作为当前视频帧中目标的位置。
步骤600.2、目标尺度搜索。
得到了当前视频帧中目标的位置以后,我们就需要确定目标的尺度大小,即目标矩形框的长和宽。首先使用上一帧中目标的尺度作为初始搜索尺度,对初始搜索尺度乘以一系列系数得到尺度搜索空间,然后我们使用
尺度搜索空间的各个尺度在目标位置处截取一系列的图像作为候选目标图像,然后再对这些候选目标图像提取haar-like特征,使用online SVM评分器h(x,y)对所有候选目标的特征进行评分,评分最高者对应的尺度就作为当前视频帧中目标的尺度大小。
步骤600.3、跟踪模型更新。
跟踪模型更新使用步骤200中的online SVM分类器优化求解方法即可。
步骤600.4、目标模板库更新。
使用步骤300所述的方法对目标模板库进行更新即可。
步骤700:目标消失判断。
当得到了当前视频帧目标的位置和尺度,我们就需要判断该目标是都已经消失。我们先对目标图像进行对数极坐标转换,然后通过步骤消失判断机制中的高斯模型判断目标是都消失。具体的方法如下:
对于输入图像的每一个像素点,先对该像素点处的H个高斯模型按照
W进行排序,然后按照排序从高到低进行搜索,如果该像素点与当前高斯模型的均值的差小于2.5倍的标准差,就认为该像素点属于当前高斯模型,然后计算该高斯模型以及排名大于该高斯模型的其他高斯模型的参数的和,如果这个值大于阈值,则认为该点为背景点,反之,则认为该点为前景点,对相应的高斯模型进行更新。如果没有找到与该像素点对应的高斯模型,则认为该点为前景点,使用该像素点作为均值构建一个新的高斯模型,并替换掉原先排名最低的那个高斯模型。
高斯模型的更新使用下式:
其中,参数表示高斯模型的更新速率。
然后在每一帧统计当前对数极坐标图像被高斯模型判断为前景的像素点的个数,并计算其占总像素点数的比例,即
其中:nt表示t时刻对数极坐标图像被高斯模型判断为前景的像素点的个数,Nt表示对数极坐标图像的总像素点数。
当上式中的比例大于阈值T1时,就触发了消失判断机制,此时怀疑目标有可能已经消失,但是不是非常确定,因为有可能只是目标物体改变姿态所引发的误判,所以下面可以进行时域滤波,减小误判的发生。下式表示了消失判断机制,也就是说,对随后的K帧所发生的情况进行统计,当随后K帧中有至少M(M≤K)帧的前景像素点个数占总像素点数的比例大于阈值T2,就认为目标真正消失。
当目标被判断为真正消失以后,为了防止误差的引入和累积,会停止跟踪模型和消失判断机制中的高斯模型的更新,而且此时跟踪算法的目标位置搜索范围r会变大,变为r2。同时,可以将目标消失的信息返回给上层用户。当目标被消失判断模型判断为重新出现,即ηt<T3的时候,跟踪算法和消失判断算法的模型恢复更新,跟踪算法的搜索范围恢复正常。
步骤800:返回目标矩形框和消失判断结果给上层用户,重复步骤500至700直到目标离开视频。
步骤900:跨摄像机目标匹配。
该步骤900又分为如下操作:
步骤900.1、下一段待匹配视频输入。
当目标离开原始视频以后,由用户指定下一段需要进行跨摄像机匹配的视频。
步骤900.2、前景目标提取。
使用混合高斯模型对输入视频的每一帧图像进行背景建模和前景提取,对前景图像提取连通区域得到每一帧中的所有前景物体。
步骤900.3、前景目标特征提取和跨摄像机匹配。
再对所有前景物体提取步骤3中所述的特征。然后,对每一个跟踪目标,使用目标模板库与这些前景的特征进行匹配,得到匹配相似度。这样,对于每一个跟踪目标,在该段视频中都有一条相似度曲线,曲线中的任意一点都代表在该时间点处视频中最相似的前景物体与跟踪目标之间的相似度度量值。最后,只需要找到曲线峰值处所对应的前景物体和时间点,把该前景物体作为匹配得到的目标物体,把该时间点作为匹配得到的目标的初始出现时间。
步骤900.4、继续跟踪。
在匹配得到该视频中的目标物体以后,从该目标出现的初始时间开始,使用步骤200至800中的方法对目标进行跟踪。
步骤900.5、多摄像机目标连续跟踪。
重复步骤900.1至900.5即可在多个摄像机的视频中对同一目标进行连续的跟踪。
下面结合具体应用场景说明上述方法的实施过程。
实例1:
本实例对某一段带有严重遮挡的室内场景视频中的脸部进行跟踪,该视频中的人物使用书本去遮挡脸部。该实施例包括以下步骤:
步骤1:初始化输入。
输入视频序列所在路径、初始跟踪矩形框给跟踪算法,该视频中初始矩形框中的目标为人物的脸部,如图2中图2a所示。
步骤2:跟踪模型建立。
读取目标所在初始帧,在距离目标位置R=40像素点的范围内采集样本,样本的矩形框大小与目标矩形框大小一致,对所有样本提取haar-like特征,同时记录每个样本的矩形框位置。得到了训练样本以后,就通过求解如下的凸优化目标函数得到online SVM跟踪模型:
其中:ξi是松弛变量,C是调和参数,实施例中取C=100,δΦi(y)=Φ(xi,yi)-Φ(xi,y);
表示两个不同位置的矩形框之间的覆盖度。
使用拉普拉斯对偶法对上式中的结构化输出SVM问题进行转化:
我们对公式(4)中目标函数的变量求导,使之为零,得到一组条件:
将上式重新代入拉普拉斯对偶问题中,得到最终的对偶问题:
由于上式与一般SVM的形式有点差别,无法使用通用的SVM求解算法。所以对上式进行一定的参数变换,使之与一般的额SVM具有相同的形式:
使用上式参数转换后得到的对偶问题为:
其中:如果y=yi,δ(y,yi)=1;反之,δ(y,yi)=0。
上式的优化方程使用经典的SMO(sequential minimal optimization)算法求解。最后我们得到的跟踪算法模型为:
其中,内积使用核函数进行表示,为本文采用高斯核k(x,x′)=e-γ||x-x′||,在本实施例中,取γ=0.2。
上式中的h(x,y)计算的是一个评分,评分越高表明与目标特征的相似度越高,越可能是目标物体。
步骤3:消失判断模型建立。
得到初始目标物体的图像模板以后,先对目标图像作对数极坐标转换,公式如下:
其中,经过对数极坐标转换后的图像的横轴和纵轴为和。
然后,对目标的对数极坐标图像进行混合高斯建模:
其中:qt(x,y)表示目标的特征图像在(x,y)处的像素值,H表示混合高斯模型的个数,表示t时刻(x,y)坐标处第i个高斯模型的权重,N()表示正态分布,表示t时刻(x,y)坐标处第i个高斯模型的的均值,表示t时刻(x,y)坐标处第i个高斯模型的的方差。在本实施例中,取H=8,初始权重w0=0.05,初始均值μ0为目标特征图像像素值,初始方差σ0=900。
步骤4:输入下一帧视频图像。
步骤5:跟踪目标的位置和尺度。
5.1、目标位置跟踪。
首先固定搜索窗口的尺度为上一帧的目标尺度,初始搜索位置为上一帧的目标位置,然后在当前视频帧中,在初始搜索位置的领域大小为r=20的范围内进行遍历搜索,使用跟踪模型中的online SVM评分器h(x,y)对所有搜索窗口进行评分,评分最高的一个作为当前视频帧中目标的位置。
5.2、目标尺度搜索。
得到了当前视频帧中目标的位置以后,我们就需要确定目标的尺度大小,即目标矩形框的长和宽。首先使用上一帧中目标的尺度作为初始搜索尺度,取尺度系数S=0.9+0.01i,i=0,2,.,用这些尺度系数与初始搜索尺度相乘构成尺度搜索空间,然后我们使用尺度搜索空间的各个尺度在目标位置处截取一系列的图像作为候选目标图像,然后再对这些候选目标图像提取haar-like特征,使用online SVM评分器h(x,y)对所有候选目标的特征进行评分,评分最高者对应的尺度就作为当前视频帧中目标的尺度大小。
5.3、跟踪模型更新。
跟踪模型更新使用步骤2中的online SVM分类器优化求解方法。
步骤6:目标消失判断。
当得到了当前视频帧目标的位置和尺度,我们就需要判断该目标是都已经消失。我们先对目标图像进行对数极坐标转换,然后通过步骤消失判断机制中的高斯模型判断目标是都消失。具体的方法如下:
对于输入图像的每一个像素点,先对该像素点处的H个高斯模型按照进行排序,然后按照排序从高到低进行搜索,如果该像素点与当前高斯模型的均值的差小于2.5倍的标准差,就认为该像素点属于当前高斯模型,然后计算该高斯模型以及排名大于该高斯模型的其他高斯模型的参数的和,如果这个值大于阈值ε,则认为该点为背景点,反之,则认为该点为前景点,对相应的高斯模型进行更新。如果没有找到与该像素点对应的高斯模型,则认为该点为前景点,使用该像素点作为均值构建一个新的高斯模型,并替换掉原先排名最低的那个高斯模型。
高斯模型的更新使用下式:
其中,参数表示高斯模型的更新速率。
然后我们会在每一帧统计当前对数极坐标图像被高斯模型判断为前景的像素点的个数,并计算其占总像素点数的比例,即
其中:nt表示t时刻对数极坐标图像被高斯模型判断为前景的像素点的个数,Nt表示对数极坐标图像的总像素点数。
当上式中的比例大于阈值T1时,就触发了我们的消失判断机制,此时我们怀疑目标有可能已经消失,但是不是非常确定,因为有可能只是目标物体改变姿态所引发的误判,所以下面我们要进行时域滤波,减小误判的发生。下式表示了我们的消失判断机制,也就是说,我们对随后的K帧所发生的情况进行统计,当随后K帧中有至少M(M≤K)帧的前景像素点个数占总像素点数的比例大于阈值T2,就认为目标真正消失。在本实施例中,阈值T1=0.4,T2=0.3,K=4,M=2
当目标被判断为真正消失以后,为了防止误差的引入和累积,我们会停止跟踪模型和消失判断机制中的高斯模型的更新,而且此时跟踪算法的目标位置搜索范围r会变大,变为r2。同时,我们会把目标消失的信息返回给上层用户。当目标被消失判断模型判断为重新出现,即ηt<T3的时候,跟踪算法和消失判断算法的模型恢复更新,跟踪算法的搜索范围恢复正常。
在本实施例中,搜索范围r=20,r2=30,T2=0.1。
步骤7:返回目标矩形框和消失判断结果给上层用户,重复步骤4至6直到视频结束或者用户中断。
图2显示了本实施例的结果,时间顺序为从左到右、从上到下,矩形框内为跟踪的目标物体,此实施例中为一个人的脸部,矩形框的颜色为白色表示目标物体正常跟踪,矩形框的颜色为黑色表示目标消失。可以看出,在本实施例中,跟踪算法准确地跟踪住了目标物体,当目标被其他物体大面积遮挡以后,能够准确地判断出目标消失。
实例2:
本实施例对某一段道路视频中的两个行人进行同时跟踪,该视频中的光照变化较大,目标车辆的分辨率较低。该实施例包括以下步骤:
步骤1:初始化输入。
由用户选择视频序列,并且框选想要跟踪的一个或多个目标,该视频中的跟踪目标为两个行人,如图3a所示。
步骤2:跟踪模型建立。
读取目标所在初始帧,在距离目标位置R=40像素点的范围内采集样本,样本的矩形框大小与目标矩形框大小一致,对所有样本提取haar-like特征,同时记录每个样本的矩形框位置。得到了训练样本以后,就通过求解如下的凸优化目标函数得到online SVM跟踪模型:
其中:ξi是松弛变量,C是调和参数,实施例中取C=100,δΦi(y)=Φ(xi,yi)-Φ(xi,y); 表示两个不同位置的矩形框之间的覆盖度。
使用拉普拉斯对偶法对上式中的结构化输出SVM问题进行转化:
我们对公式(4)中目标函数的变量求导,使之为零,得到一组条件:
将上式重新代入拉普拉斯对偶问题中,得到最终的对偶问题:
由于上式与一般SVM的形式有点差别,无法使用通用的SVM求解算法。所以对上式进行一定的参数变换,使之与一般的额SVM具有相同的形式:
使用上式参数转换后得到的对偶问题为:
其中:如果y=yi,δ(y,yi)=1;反之,δ(y,yi)=0。
上式的优化方程使用经典的SMO(sequential minimal optimization)算法求解。最后我们得到的跟踪算法模型为:
其中,内积使用核函数进行表示,为本文采用高斯核k(x,x′)=e-γ||1k(x,x′)=e-γ||x-x′||,在本实施例中,取γ=0.2。
上式中的h(x,y)计算的是一个评分,评分越高表明与目标特征的相似度越高,越可能是目标物体。
步骤3:消失判断模型建立。
得到初始目标物体的图像模板以后,先对目标图像作对数极坐标转换,公式如下:
其中,经过对数极坐标转换后的图像的横轴和纵轴为和。
然后,对目标的对数极坐标图像进行混合高斯建模:
其中:qt(x,y)表示目标的特征图像在(x,y)处的像素值,H表示混合高斯模型的个数,表示t时刻(x,y)坐标处第i个高斯模型的权重,N()表示正态分布,表示t时刻(x,y)坐标处第i个高斯模型的的均值,表示t时刻(x,y)坐标处第i个高斯模型的的方差。在本实施例中,取H=8,初始权重w0=0.05,初始均值μ0为目标特征图像像素值,初始方差σ0=900。
步骤4:输入下一帧视频图像。
步骤5:跟踪目标的位置和尺度。
5.1、目标位置跟踪。
首先固定搜索窗口的尺度为上一帧的目标尺度,初始搜索位置为上一帧的目标位置,然后在当前视频帧中,在初始搜索位置的领域大小为r=20的范围内进行遍历搜索,使用跟踪模型中的online SVM评分器h(x,y)对所有搜索窗口进行评分,评分最高的一个作为当前视频帧中目标的位置。
5.2、目标尺度搜索。
得到了当前视频帧中目标的位置以后,我们就需要确定目标的尺度大小,即目标矩形框的长和宽。首先使用上一帧中目标的尺度作为初始搜索尺度,取尺度系数S=0.9+0.01i,i=0,2,.,用这些尺度系数与初始搜索尺度相乘构成尺度搜索空间,然后我们使用尺度搜索空间的各个尺度在目标位置处截取一系列的图像作为候选目标图像,然后再对这些候选目标图像提取haar-like特征,使用online SVM评分器h(x,y)对所有候选目标的特征进行评分,评分最高者对应的尺度就作为当前视频帧中目标的尺度大小。
5.3、跟踪模型更新。
跟踪模型更新使用步骤2中的online SVM分类器优化求解方法。
步骤6:目标消失判断。
当得到了当前视频帧目标的位置和尺度,我们就需要判断该目标是都已经消失。我们先对目标图像进行对数极坐标转换,然后通过步骤消失判断机制中的高斯模型判断目标是都消失。具体的方法如下:
对于输入图像的每一个像素点,先对该像素点处的H个高斯模型按照
w进行排序,然后按照排序从高到低进行搜索,如果该像素点与当前高斯模型的均值的差小于2.5倍的标准差,就认为该像素点属于当前高斯模型,然后计算该高斯模型以及排名大于该高斯模型的其他高斯模型的参数的和,如果这个值大于阈值,则认为该点为背景点,反之,则认为该点为前景点,对相应的高斯模型进行更新。如果没有找到与该像素点对应的高斯模型,则认为该点为前景点,使用该像素点作为均值构建一个新的高斯模型,并替换掉原先排名最低的那个高斯模型。
高斯模型的更新使用下式:
其中,参数表示高斯模型的更新速率。
然后我们会在每一帧统计当前对数极坐标图像被高斯模型判断为前景的像素点的个数,并计算其占总像素点数的比例,即
其中:nt表示t时刻对数极坐标图像被高斯模型判断为前景的像素点的个数,Nt表示对数极坐标图像的总像素点数。
当上式中的比例大于阈值T1时,就触发了我们的消失判断机制,此时我们怀疑目标有可能已经消失,但是不是非常确定,因为有可能只是目标物体改变姿态所引发的误判,所以下面我们要进行时域滤波,减小误判的发生。下式表示了我们的消失判断机制,也就是说,我们对随后的K帧所发生的情况进行统计,当随后K帧中有至少M(M≤K)帧的前景像素点个数占总像素点数的比例大于阈值T2,就认为目标真正消失。在本实施例中,阈值T1=0.4,T2=0.3,K=4,M=2
当目标被判断为真正消失以后,为了防止误差的引入和累积,我们会停止跟踪模型和消失判断机制中的高斯模型的更新,而且此时跟踪算法的目标位置搜索范围r会变大,变为r2。同时,我们会把目标消失的信息返回给上层用户。当目标被消失判断模型判断为重新出现,即ηt<T3的时候,跟踪算法和消失判断算法的模型恢复更新,跟踪算法的搜索范围恢复正常。
在本实施例中,搜索范围r=20,r2=30,T2=0.1。
步骤7:返回目标矩形框和消失判断结果给上层用户,重复步骤4至6直到视频结束或者用户中断。
图3显示了本实施例的结果,时间顺序为从左到右、从上到下,矩形框内为跟踪的目标物体,此实施例中跟踪目标为两个行人。可以看出,在本实施例中,跟踪算法准确地跟踪住了两个目标行人。当这两个目标行人出现相互遮挡时,跟踪算法仍然没有发生跟丢的情况,说明了本文的跟踪方法的鲁棒性很强。同时在图3最后一幅图中,其中一个行人离开了视频边界,跟踪算法可以准确地判断出目标离开边界的情况,并且停止对该目标进行跟踪。从该实施例可以看出,本发明的跟踪方法能够有效地跟踪多个目标,在遮挡情况下仍然保持了跟踪的准确性。
实例3:
本实例对两段视频中的学生进行跨摄像机跟踪和匹配。其中一段视频是室内场景,我们对该视频内的一个学生进行跟踪;另外一段视频是走廊场景,其中出现了前一段视频中的跟踪目标,并且还有许多其他学生出现,作为干扰情况,我们对该视频中的目标学生进行匹配。该实施例包括以下步骤:
步骤1:初始化输入。
由用户选择视频序列,并且用矩形框选取感兴趣的跟踪目标,该视频中的跟踪目标为一个男学生,如图4a所示。
步骤2:跟踪模型建立。
读取目标所在初始帧,在距离目标位置R=40像素点的范围内采集样本,样本的矩形框大小与目标矩形框大小一致,对所有样本提取haar-like特征,同时记录每个样本的矩形框位置。得到了训练样本以后,就通过求解如下的凸优化目标函数得到online SVM跟踪模型:
其中:ξi是松弛变量,C是调和参数,实施例中取C=100,δΦi(y)=Φ(xi,yi)=Φ(xi,y); 表示两个不同位置的矩形框之间的覆盖度。
使用拉普拉斯对偶法对上式中的结构化输出SVM问题进行转化:
我们对公式(4)中目标函数的变量求导,使之为零,得到一组条件:
将上式重新代入拉普拉斯对偶问题中,得到最终的对偶问题:
由于上式与一般SVM的形式有点差别,无法使用通用的SVM求解算法。所以对上式进行一定的参数变换,使之与一般的额SVM具有相同的形式:
使用上式参数转换后得到的对偶问题为:
其中:如果y=yi,δ(y,yi)=1;反之,δ(y,yi)=0。
上式的优化方程使用经典的SMO(sequential minimal optimization)算法求解。最后我们得到的跟踪算法模型为:
其中,内积使用核函数进行表示,为本文采用高斯核k(x,x′)=e-γ||x-x′||,在本实施例中,取γ=0.2。
上式中的h(x,y)计算的是一个评分,评分越高表明与目标特征的相似度越高,越可能是目标物体。
步骤3:跟踪目标模板库建立。
对于跟踪目标,建立目标模板库,模板库的容量为P=4。首先对初始目标图像提取HSV分块直方图特征、边缘方向直方图特征、主颜色特征和hog特征,把这四种特征进行融合得到目标特征,把该特征加入模板库。然后每间隔帧数Q=20对目标图像提取上述特征,把该特征加入模板库。当模板库中的模板数量达到容量上限时,把除了初始模板以外最早的模板进行删除,用最新的模板进行替换。
步骤4:消失判断模型建立。
得到初始目标物体的图像模板以后,先对目标图像作对数极坐标转换,公式如下:
其中,经过对数极坐标转换后的图像的横轴和纵轴为和。
然后,对目标的对数极坐标图像进行混合高斯建模:
其中:qt(x,y)表示目标的特征图像在(x,y)处的像素值,H表示混合高斯模型的个数,表示t时刻(x,y)坐标处第i个高斯模型的权重,N()表示正态分布,表示t时刻(x,y)坐标处第i个高斯模型的的均值,表示t时刻(x,y)坐标处第i个高斯模型的的方差。在本实施例中,取H=8,初始权重w0=0.05,初始均值μ0为目标特征图像像素值,初始方差σ0=900。
步骤5:输入下一帧视频图像。
步骤6:跟踪目标的位置和尺度。
6.1、目标位置跟踪。
首先固定搜索窗口的尺度为上一帧的目标尺度,初始搜索位置为上一帧的目标位置,然后在当前视频帧中,在初始搜索位置的领域大小为r=20的范围内进行遍历搜索,使用跟踪模型中的online SVM评分器h(x,y)对所有搜索窗口进行评分,评分最高的一个作为当前视频帧中目标的位置。
6.2、目标尺度搜索。
得到了当前视频帧中目标的位置以后,我们就需要确定目标的尺度大小,即目标矩形框的长和宽。首先使用上一帧中目标的尺度作为初始搜索尺度,取尺度系数S=0.9+0.01i,i=0,2,.,用这些尺度系数与初始搜索尺度相乘构成尺度搜索空间,然后我们使用尺度搜索空间的各个尺度在目标位置处截取一系列的图像作为候选目标图像,然后再对这些候选目标图像提取haar-like特征,使用online SVM评分器h(x,y)对所有候选目标的特征进行评分,评分最高者对应的尺度就作为当前视频帧中目标的尺度大小。
6.3、跟踪模型更新。
跟踪模型更新使用步骤2中的online SVM分类器优化求解方法。
步骤7:目标消失判断。
当得到了当前视频帧目标的位置和尺度,我们就需要判断该目标是都已经消失。我们先对目标图像进行对数极坐标转换,然后通过步骤消失判断机制中的高斯模型判断目标是都消失。具体的方法如下:
对于输入图像的每一个像素点,先对该像素点处的H个高斯模型按照
W进行排序,然后按照排序从高到低进行搜索,如果该像素点与当前高斯模型的均值的差小于2.5倍的标准差,就认为该像素点属于当前高斯模型,然后计算该高斯模型以及排名大于该高斯模型的其他高斯模型的参数的和,如果这个值大于阈值,则认为该点为背景点,反之,则认为该点为前景点,对相应的高斯模型进行更新。如果没有找到与该像素点对应的高斯模型,则认为该点为前景点,使用该像素点作为均值构建一个新的高斯模型,并替换掉原先排名最低的那个高斯模型。
高斯模型的更新使用下式:
其中,参数表示高斯模型的更新速率。
然后我们会在每一帧统计当前对数极坐标图像被高斯模型判断为前景的像素点的个数,并计算其占总像素点数的比例,即
其中:nt表示t时刻对数极坐标图像被高斯模型判断为前景的像素点的个数,Nt表示对数极坐标图像的总像素点数。
当上式中的比例大于阈值T1时,就触发了我们的消失判断机制,此时我们怀疑目标有可能已经消失,但是不是非常确定,因为有可能只是目标物体改变姿态所引发的误判,所以下面我们要进行时域滤波,减小误判的发生。下式表示了我们的消失判断机制,也就是说,我们对随后的K帧所发生的情况进行统计,当随后K帧中有至少M(M≤K)帧的前景像素点个数占总像素点数的比例大于阈值T2,就认为目标真正消失。在本实施例中,阈值T1=0.4,T2=0,K=4,M=2
当目标被判断为真正消失以后,为了防止误差的引入和累积,我们会停止跟踪模型和消失判断机制中的高斯模型的更新,而且此时跟踪算法的目标位置搜索范围r会变大,变为r2。同时,我们会把目标消失的信息返回给上层用户。当目标被消失判断模型判断为重新出现,即ηt<T3的时候,跟踪算法和消失判断算法的模型恢复更新,跟踪算法的搜索范围恢复正常。
在本实施例中,搜索范围r=20,r2=30,T2=0.1。
步骤8:返回目标矩形框和消失判断结果给上层用户,重复步骤5至7直到目标离开视频,如图4d所示。
步骤9:跨摄像机目标匹配。
9.1、下一段待匹配视频输入。
当目标离开原始视频以后,由用户指定下一段需要进行跨摄像机匹配的视频,如图5a所示。
9.2、前景目标提取。
使用混合高斯模型对输入视频的每一帧图像进行背景建模和前景提取,对前景图像提取连通区域得到每一帧中的所有前景物体。
9.3、前景目标特征提取和跨摄像机匹配。
再对所有前景物体提取步骤3中所述的特征。然后,对每一个跟踪目标,使用目标模板库与这些前景的特征进行匹配,得到匹配相似度。这样,对于每一个跟踪目标,在该段视频中都有一条相似度曲线,曲线中的任意一点都代表在该时间点处视频中最相似的前景物体与跟踪目标之间的相似度度量值。最后,我们只需要找到曲线峰值处所对应的前景物体和时间点,把该前景物体作为匹配得到的目标物体,把该时间点作为匹配得到的目标的初始出现时间。
9.4、继续跟踪。
在匹配得到该视频中的目标物体以后,从该目标出现的初始时间开始,使用步骤2至8中的方法对目标进行跟踪。
9.5、多摄像机目标连续跟踪。
重复步骤9.1至9.5即可在多个摄像机的视频中对同一目标进行连续的跟踪。
图4显示了本实施例的跟踪结果,图5显示了本实施例的跨摄像机匹配结果,时间顺序为从左到右、从上到下。在图4的每一幅图像中,左边为跟踪视频,矩形框内为跟踪的目标物体,此实施例中为一个学生,左下角为跟踪目标的消失判断结果,可以看出本发明的跟踪方法准确地跟踪住了该学生,直到他离开视频边界。在图6中的每一幅图像中,右上角为四张目标模板图像;右边为跨摄像机匹配的视频,目标学生在该视频中出现了六次;右下角为相似度曲线,该曲线中有六个尖峰,分别对应了跟踪目标在该视频中的六次出现情况。从图4和图5中的结果可以看出,本发明中的跨摄像机跟踪方法可以准确地跟踪目标物体,并且通过跨摄像机匹配成功找到另一段视频中的目标物体,跟踪效果好并且鲁棒性极强。
实施例2
本实施例提供一种自适应跨摄像机多目标跟踪系统,可实现上述实施例1的方法,该系统至少包括如下各模块。
更新模块,固定跟踪窗口大小并使用预先建立的跟踪模型得到当前视频帧目标物体的位置,在所得到的位置处变换跟踪窗口的大小,使用所述跟踪模型得到目标物体的尺度,根据得到的目标物体珠尺度在线更新跟踪模型;
判断模块,根据更新的跟踪模型,对当前视频帧目标物体的图像进行对数极坐标变换,对对数极坐标变换后的目标物体的图像进行混合高斯建模,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失。
具体地,判断模块可以按照如下公式,对当前视频帧目标物体的位置进行对数极坐标变换:
其中,经过对数极坐标转换后的图像的横轴和纵轴为ρ和θ。
判断模块还可以按照如下公式对对数极坐标变换后的目标物体的图像进行混合高斯建模:
其中:qt(x,y)表示目标的特征图像在(x,y)处的像素值,H表示混合高斯模型的个数,表示t时刻(x,y)坐标处第i个高斯模型的权重,N()表示正态分布,表示t时刻(x,y)坐标处第i个高斯模型的的均值,表示t时刻(x,y)坐标处第i个高斯模型的方差。
而判断模块度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失的过程如下:
使用目标物体的混合高斯模型对下一帧视频图像中的跟踪目标物体的图像进行检测,统计非目标的像素占总像素的比例,若非目标的像素点总像素的比例达到或超过预先设定的阈值,则判断目标物体消失。
优选地,非目标的像素点总像素的比例达到或超过预先设定的阈值时,判断模块还可以进行时域滤波操作;即仅当非目标的像素点总像素的比例达到或超过预先设定的阈值,且满足时域滤波的消失判断条件时,才判断目标物体消失,从而大大提高判断结果的可靠性。
另外,上述系统还可以包括目标物体的特征库建立模块。
其中,目标物体的特征库建立模块,在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库;
具体地,目标物体的特征库建立模块,可以周期性地对跟踪目标物体的图像提取HSV分块直方图特征、边缘方向直方图特征、主颜色特征和hog特征,再将这四种特征进行融合得到目标特征,存入目标特征库,即建立完成了目标物体的特征库。
另外,目标物体的特征库建立模块在目标特征库容量达到上限时,还可以用新的目标特征替换目标特征库中最原始的目标特征。
跟踪模块,在跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪。
具体地,跟踪模块对整段匹配视频使用混合高斯模型进行前景物体提取,使用目标特征库计算跟踪目标与所有前景物体的相似度,选择相似度最高的前景物体作为跨摄像机跟踪的目标。
其中,更新模块和判断模块可构成目标跟踪单元和跨视频目标匹配单元,而目标物体的特征库建立模块可置于运动目标检测单元中,此时,整个系统的架构如图6所示。
从上述实施例可以看出,本申请技术方案与其他现有技术相比,具有以下优势和创新性:
(1)本申请技术方案,针对无重叠区域拓扑结构未知的多摄像头监控网络对多个目标进行跨摄像机连续跟踪,该方案具有极高的鲁棒性,而且能够达到实时要求。
(2)本申请技术方案采用了快速有效的目标尺度变换方法,能够实时准确地得到目标的尺度,并且对于跟踪算法运算速度的影响极小。
(3)本申请技术方案采用对数极坐标变换和混合高斯模型建立目标消失判断机制,并且加入时域滤波增强消失判断的鲁棒性。
(4)本申请技术方案将跟踪算法和消失判断机制有机的结合在一起,通过消失判断机制来控制跟踪模型和消失判断模型的更新,有效的减少了模型错误的引入和累积,提高了跟踪算法的准确性和鲁棒性。
本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序来指令相关硬件完成,所述程序可以存储于计算机可读存储介质中,如只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现。相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本申请不限制于任何特定形式的硬件和软件的结合。
以上所述,仅为本发明的较佳实例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (18)
1.一种自适应跨摄像机多目标跟踪方法,其特征在于,该方法包括:
先固定跟踪窗口大小并使用预先建立的跟踪模型得到当前视频帧目标物体的位置,再在所得到的位置处变换跟踪窗口的大小,使用所述跟踪模型得到目标物体的尺度,根据得到的目标物体珠尺度在线更新跟踪模型;
根据更新的跟踪模型,对当前视频帧目标物体的图像进行对数极坐标变换,对对数极坐标变换后的目标物体的图像进行混合高斯建模,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失。
2.如权利要求1所述的方法,其特征在于,该方法还包括:
在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库,当跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪。
3.如权利要求1或2所述的方法,其特征在于,按照如下公式,对当前视频帧目标物体的位置进行对数极坐标变换:
其中,经过对数极坐标转换后的图像的横轴和纵轴为ρ和θ。
4.如权利要求1或2所述的方法,其特征在于,按照如下公式对对数极坐标变换后的目标物体的图像进行混合高斯建模
其中:qt(x,y)表示目标的特征图像在(x,y)处的像素值,H表示混合高斯模型的个数,表示t时刻(x,y)卫坐标处第i个高斯模型的权重,N()表示正态分布,表示t时刻(x,y)坐标处第i个高斯模型的的均值,表示t时刻(x,y)坐标处第i个高斯模型的的方差。
5.如权利要求1或2所述的方法,其特征在于,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失的过程包括:
使用目标物体的混合高斯模型对下一帧视频图像中的跟踪目标物体的图像进行检测,统计非目标的像素占总像素的比例,若非目标的像素点总像素的比例达到或超过预先设定的阈值,则判断目标物体消失。
6.如权利要求5所述的方法,其特征在于,若非目标的像素点总像素的比例达到或超过预先设定的阈值时,还进行时域滤波操作;
仅当非目标的像素点总像素的比例达到或超过预先设定的阈值,且满足时域滤波的消失判断条件时,才判断目标物体消失。
7.如权利要求2所述的方法,其特征在于,在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库的过程包括:
周期性地对跟踪目标物体的图像提取色彩、饱和度和值HSV分块直方图特征、边缘方向直方图特征、主颜色特征和方向梯度直方图HOG特征,将这四种特征进行融合得到目标特征,存入目标特征库。
8.如权利要求7所述的方法,其特征在于,该方法还包括:
在目标特征库容量达到上限时,用新的目标特征替换目标特征库中最原始的目标特征。
9.如权利要求2、7或8所述的方法,其特征在于,当跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪的过程包括:
对整段匹配视频使用混合高斯模型进行前景物体提取,使用目标特征库计算跟踪目标与所有前景物体的相似度,选择相似度最高的前景物体作为跨摄像机跟踪的目标。
10.一种自适应跨摄像机多目标跟踪系统,其特征在于,该系统包括:
更新模块,固定跟踪窗口大小并使用预先建立的跟踪模型得到当前视频帧目标物体的位置,在所得到的位置处变换跟踪窗口的大小,使用所述跟踪模型得到目标物体的尺度,根据得到的目标物体珠尺度在线更新跟踪模型;
判断模块,根据更新的跟踪模型,对当前视频帧目标物体的图像进行对数极坐标变换,对对数极坐标变换后的目标物体的图像进行混合高斯建模,度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失。
11.如权利要求10所述的系统,其特征在于,该系统还包括:
目标物体的特征库建立模块,在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库;
跟踪模块,在跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪。
12.如权利要求10或11所述的系统,其特征在于,所述判断模块按照如下公式,对当前视频帧目标物体的位置进行对数极坐标变换:
其中,经过对数极坐标转换后的图像的横轴和纵轴为ρ和θ。
13.如权利要求10或11所述的系统,其特征在于,所述判断模块按照如下公式对对数极坐标变换后的目标物体的图像进行混合高斯建模:
其中:qt(x,y)表示目标的特征图像在(x,y)处的像素值,H表示混合高斯模型的个数,表示t时刻(x,y)坐标处第i个高斯模型的权重,N()表示正态分布,表示t时刻(x,y)坐标处第i个高斯模型的的均值,表示t时刻(x,y)坐标处第i个高斯模型的方差。
14.如权利要求10或11所述的系统,其特征在于,所述判断模块度量目标物体的中心偏移和变化程度,判别目标物体是否已经消失指:
使用目标物体的混合高斯模型对下一帧视频图像中的跟踪目标物体的图像进行检测,统计非目标的像素占总像素的比例,若非目标的像素点总像素的比例达到或超过预先设定的阈值,则判断目标物体消失。
15.如权利要求14所述的系统,其特征在于,非目标的像素点总像素的比例达到或超过预先设定的阈值时,所述判断模块还进行时域滤波操作;
仅当非目标的像素点总像素的比例达到或超过预先设定的阈值,且满足时域滤波的消失判断条件时,才判断目标物体消失。
16.如权利要求11所述的系统,其特征在于,所述目标物体的特征库建立模块,在跟踪的同时提取并保存目标物体的特征,建立目标物体的特征库指:
周期性地对跟踪目标物体的图像提取色彩、饱和度和值HSV分块直方图特征、边缘方向直方图特征、主颜色特征和方向梯度直方图HOG特征,将这四种特征进行融合得到目标特征,存入目标特征库。
17.如权利要求16所述的系统,其特征在于,
所述目标物体的特征库建立模块在目标特征库容量达到上限时,用新的目标特征替换目标特征库中最原始的目标特征。
18.如权利要求11、16或17所述的系统,其特征在于,所述跟踪模块,在跟踪的目标物体离开该视频时,在另一段视频中匹配并检测最相似的目标物体,继续进行跟踪指:
对整段匹配视频使用混合高斯模型进行前景物体提取,使用目标特征库计算跟踪目标与所有前景物体的相似度,选择相似度最高的前景物体作为跨摄像机跟踪的目标。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510434243.0A CN106373143A (zh) | 2015-07-22 | 2015-07-22 | 一种自适应跨摄像机多目标跟踪方法及系统 |
PCT/CN2015/092765 WO2016131300A1 (zh) | 2015-07-22 | 2015-10-23 | 一种自适应跨摄像机多目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510434243.0A CN106373143A (zh) | 2015-07-22 | 2015-07-22 | 一种自适应跨摄像机多目标跟踪方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106373143A true CN106373143A (zh) | 2017-02-01 |
Family
ID=56692220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510434243.0A Withdrawn CN106373143A (zh) | 2015-07-22 | 2015-07-22 | 一种自适应跨摄像机多目标跟踪方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN106373143A (zh) |
WO (1) | WO2016131300A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280846A (zh) * | 2018-01-16 | 2018-07-13 | 中国科学院福建物质结构研究所 | 基于几何图形匹配的目标跟踪修正方法及其装置 |
CN109194929A (zh) * | 2018-10-24 | 2019-01-11 | 北京航空航天大学 | 基于WebGIS的目标关联视频快速筛选方法 |
CN109212513A (zh) * | 2018-09-29 | 2019-01-15 | 河北德冠隆电子科技有限公司 | 多目标在雷达间数据传递、数据融合及连续跟踪定位方法 |
CN110223329A (zh) * | 2019-05-10 | 2019-09-10 | 华中科技大学 | 一种多摄像机多目标跟踪方法 |
CN111008992A (zh) * | 2019-11-28 | 2020-04-14 | 驭势科技(南京)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN111091584A (zh) * | 2019-12-23 | 2020-05-01 | 浙江宇视科技有限公司 | 一种目标跟踪方法、装置、设备和存储介质 |
CN111369587A (zh) * | 2019-06-13 | 2020-07-03 | 杭州海康威视系统技术有限公司 | 一种跟踪方法及装置 |
CN111833382A (zh) * | 2020-02-13 | 2020-10-27 | 珠海安联锐视科技股份有限公司 | 一种基于摇头摄像机的目标跟踪方法 |
CN112686178A (zh) * | 2020-12-30 | 2021-04-20 | 中国电子科技集团公司信息科学研究院 | 一种多视角目标轨迹生成方法、装置和电子设备 |
CN112699874A (zh) * | 2020-12-30 | 2021-04-23 | 中孚信息股份有限公司 | 一种面向任意旋转方向图像的文字识别方法及系统 |
CN114119989A (zh) * | 2021-11-29 | 2022-03-01 | 北京百度网讯科技有限公司 | 图像特征提取模型的训练方法、装置及电子设备 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018148889A1 (zh) * | 2017-02-15 | 2018-08-23 | 富士通株式会社 | 基于视频监控的视频分析系统和视频分析方法 |
CN110135224B (zh) * | 2018-02-09 | 2022-10-14 | 中国科学院上海高等研究院 | 一种监控视频的前景目标提取方法及系统、存储介质及终端 |
CN109308704B (zh) * | 2018-08-02 | 2024-01-16 | 平安科技(深圳)有限公司 | 背景剔除方法、装置、计算机设备及存储介质 |
CN109445453A (zh) * | 2018-09-12 | 2019-03-08 | 湖南农业大学 | 一种基于OpenCV的无人机实时压缩跟踪方法 |
CN109359552B (zh) * | 2018-09-21 | 2020-11-13 | 中山大学 | 一种高效的跨摄像头行人双向跟踪方法 |
CN109326007B (zh) * | 2018-10-10 | 2022-11-29 | 炫彩互动网络科技有限公司 | 一种适用于虚拟现实的动态更新模板追踪方法 |
CN111105436B (zh) * | 2018-10-26 | 2023-05-09 | 曜科智能科技(上海)有限公司 | 目标跟踪方法、计算机设备及存储介质 |
CN109615641B (zh) * | 2018-11-23 | 2022-11-29 | 中山大学 | 基于kcf算法的多目标行人跟踪系统及跟踪方法 |
EP3667557B1 (en) | 2018-12-13 | 2021-06-16 | Axis AB | Method and device for tracking an object |
CN111402286B (zh) * | 2018-12-27 | 2024-04-02 | 杭州海康威视系统技术有限公司 | 一种目标跟踪方法、装置、系统及电子设备 |
CN110084830B (zh) * | 2019-04-07 | 2022-12-09 | 西安电子科技大学 | 一种视频运动目标检测与跟踪方法 |
CN110147750B (zh) * | 2019-05-13 | 2021-08-24 | 深圳先进技术研究院 | 一种基于运动加速度的图像搜索方法、系统及电子设备 |
CN110189365B (zh) * | 2019-05-24 | 2023-04-07 | 上海交通大学 | 抗遮挡相关滤波跟踪方法 |
CN110599519B (zh) * | 2019-08-27 | 2022-11-08 | 上海交通大学 | 基于领域搜索策略的抗遮挡相关滤波跟踪方法 |
CN110889863B (zh) * | 2019-09-03 | 2023-03-24 | 河南理工大学 | 一种基于目标感知相关滤波的目标跟踪方法 |
CN110889864B (zh) * | 2019-09-03 | 2023-04-18 | 河南理工大学 | 一种基于双层深度特征感知的目标跟踪方法 |
CN110532989B (zh) * | 2019-09-04 | 2022-10-14 | 哈尔滨工业大学 | 一种海上目标自动探测方法 |
CN111145121B (zh) * | 2019-12-27 | 2023-02-28 | 安徽工业大学 | 一种强化多特征融合的置信项滤波器目标跟踪方法 |
CN111462187A (zh) * | 2020-04-09 | 2020-07-28 | 成都大学 | 基于多特征融合的非刚体目标跟踪方法 |
CN112699718B (zh) * | 2020-04-15 | 2024-05-28 | 南京工程学院 | 一种尺度和光照自适应的结构化多目标跟踪方法及其应用 |
CN111583294B (zh) * | 2020-04-22 | 2023-05-12 | 西安工业大学 | 一种结合尺度自适应与模型更新的目标跟踪方法 |
CN112037159B (zh) * | 2020-07-29 | 2023-06-23 | 中天智控科技控股股份有限公司 | 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统 |
CN112508962A (zh) * | 2020-09-27 | 2021-03-16 | 绍兴文理学院 | 基于时间关联图像序列的目标图像区域子序列分离方法 |
CN112712571B (zh) * | 2020-12-25 | 2023-12-01 | 科大讯飞股份有限公司 | 基于视频的物体平面贴图方法、装置以及设备 |
CN112950674B (zh) * | 2021-03-09 | 2024-03-05 | 厦门市公安局 | 一种基于多种识别技术协同的跨摄像头轨迹跟踪方法、装置及存储介质 |
CN113379798B (zh) * | 2021-06-03 | 2022-11-22 | 中国电子科技集团公司第二十八研究所 | 一种基于交互评价模型的相关滤波跟踪方法 |
CN113643327B (zh) * | 2021-08-18 | 2023-10-20 | 江西理工大学 | 一种响应置信度多特征融合的核相关滤波目标跟踪方法 |
CN114945071A (zh) * | 2022-03-31 | 2022-08-26 | 深圳闪回科技有限公司 | 一种回收机器内置摄像头拍照控制方法、装置及系统 |
CN115499585B (zh) * | 2022-09-07 | 2024-04-16 | 湖南中信安科技有限责任公司 | 一种混杂场景执法视频焦点局部修正方法与系统 |
CN117037006B (zh) * | 2023-10-09 | 2023-12-15 | 山东中宇航空科技发展有限公司 | 一种高续航能力的无人机跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853511A (zh) * | 2010-05-17 | 2010-10-06 | 哈尔滨工程大学 | 一种抗遮挡目标轨迹预测跟踪方法 |
CN102629385A (zh) * | 2012-02-28 | 2012-08-08 | 中山大学 | 一种基于多摄像机信息融合的目标匹配与跟踪系统及方法 |
CN103489199A (zh) * | 2012-06-13 | 2014-01-01 | 通号通信信息集团有限公司 | 视频图像目标跟踪处理方法和系统 |
CN104240266A (zh) * | 2014-09-04 | 2014-12-24 | 成都理想境界科技有限公司 | 基于颜色-结构特征的目标对象跟踪方法 |
CN104463900A (zh) * | 2014-12-31 | 2015-03-25 | 天津汉光祥云信息科技有限公司 | 一种多摄像机间目标自动追踪方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7418113B2 (en) * | 2005-04-01 | 2008-08-26 | Porikli Fatih M | Tracking objects in low frame rate videos |
CN102930539B (zh) * | 2012-10-25 | 2015-08-26 | 江苏物联网研究发展中心 | 基于动态图匹配的目标跟踪方法 |
-
2015
- 2015-07-22 CN CN201510434243.0A patent/CN106373143A/zh not_active Withdrawn
- 2015-10-23 WO PCT/CN2015/092765 patent/WO2016131300A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853511A (zh) * | 2010-05-17 | 2010-10-06 | 哈尔滨工程大学 | 一种抗遮挡目标轨迹预测跟踪方法 |
CN102629385A (zh) * | 2012-02-28 | 2012-08-08 | 中山大学 | 一种基于多摄像机信息融合的目标匹配与跟踪系统及方法 |
CN103489199A (zh) * | 2012-06-13 | 2014-01-01 | 通号通信信息集团有限公司 | 视频图像目标跟踪处理方法和系统 |
CN104240266A (zh) * | 2014-09-04 | 2014-12-24 | 成都理想境界科技有限公司 | 基于颜色-结构特征的目标对象跟踪方法 |
CN104463900A (zh) * | 2014-12-31 | 2015-03-25 | 天津汉光祥云信息科技有限公司 | 一种多摄像机间目标自动追踪方法 |
Non-Patent Citations (4)
Title |
---|
HYUNG JIN CHANG,ET AL.: ""Tracking failure detection by imitating human visual"", 《IEEE》 * |
SAM HARE,ET AL.: ""Struck: Structured output tracking with kernels"", 《IEEE》 * |
V. JAVIER TRAVER,ET AL.: ""A review of log-polar imaging for visual perception inrobotics"", 《ROBOTICS AND AUTONOMOUS SYSTEMS》 * |
张震等: ""基于LPT和改进背景减算法的运动目标检测方法"", 《机电一体化》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280846A (zh) * | 2018-01-16 | 2018-07-13 | 中国科学院福建物质结构研究所 | 基于几何图形匹配的目标跟踪修正方法及其装置 |
CN108280846B (zh) * | 2018-01-16 | 2020-12-29 | 中国科学院福建物质结构研究所 | 基于几何图形匹配的目标跟踪修正方法及其装置 |
CN109212513B (zh) * | 2018-09-29 | 2021-11-12 | 河北德冠隆电子科技有限公司 | 多目标在雷达间数据传递、数据融合及连续跟踪定位方法 |
CN109212513A (zh) * | 2018-09-29 | 2019-01-15 | 河北德冠隆电子科技有限公司 | 多目标在雷达间数据传递、数据融合及连续跟踪定位方法 |
CN109194929A (zh) * | 2018-10-24 | 2019-01-11 | 北京航空航天大学 | 基于WebGIS的目标关联视频快速筛选方法 |
CN110223329A (zh) * | 2019-05-10 | 2019-09-10 | 华中科技大学 | 一种多摄像机多目标跟踪方法 |
CN111369587A (zh) * | 2019-06-13 | 2020-07-03 | 杭州海康威视系统技术有限公司 | 一种跟踪方法及装置 |
CN111369587B (zh) * | 2019-06-13 | 2023-05-02 | 杭州海康威视系统技术有限公司 | 一种跟踪方法及装置 |
CN111008992A (zh) * | 2019-11-28 | 2020-04-14 | 驭势科技(南京)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN111008992B (zh) * | 2019-11-28 | 2024-04-05 | 驭势科技(浙江)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN111091584A (zh) * | 2019-12-23 | 2020-05-01 | 浙江宇视科技有限公司 | 一种目标跟踪方法、装置、设备和存储介质 |
CN111091584B (zh) * | 2019-12-23 | 2024-03-08 | 浙江宇视科技有限公司 | 一种目标跟踪方法、装置、设备和存储介质 |
CN111833382B (zh) * | 2020-02-13 | 2021-03-09 | 珠海安联锐视科技股份有限公司 | 一种基于摇头摄像机的目标跟踪方法 |
CN111833382A (zh) * | 2020-02-13 | 2020-10-27 | 珠海安联锐视科技股份有限公司 | 一种基于摇头摄像机的目标跟踪方法 |
CN112699874A (zh) * | 2020-12-30 | 2021-04-23 | 中孚信息股份有限公司 | 一种面向任意旋转方向图像的文字识别方法及系统 |
CN112686178A (zh) * | 2020-12-30 | 2021-04-20 | 中国电子科技集团公司信息科学研究院 | 一种多视角目标轨迹生成方法、装置和电子设备 |
CN112699874B (zh) * | 2020-12-30 | 2023-02-17 | 中孚信息股份有限公司 | 一种面向任意旋转方向图像的文字识别方法及系统 |
CN112686178B (zh) * | 2020-12-30 | 2024-04-16 | 中国电子科技集团公司信息科学研究院 | 一种多视角目标轨迹生成方法、装置和电子设备 |
CN114119989A (zh) * | 2021-11-29 | 2022-03-01 | 北京百度网讯科技有限公司 | 图像特征提取模型的训练方法、装置及电子设备 |
CN114119989B (zh) * | 2021-11-29 | 2023-08-11 | 北京百度网讯科技有限公司 | 图像特征提取模型的训练方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2016131300A1 (zh) | 2016-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106373143A (zh) | 一种自适应跨摄像机多目标跟踪方法及系统 | |
CN103699908B (zh) | 基于联合推理的视频多目标跟踪方法 | |
Ding et al. | A long video caption generation algorithm for big video data retrieval | |
CN110348445B (zh) | 一种融合空洞卷积和边缘信息的实例分割方法 | |
CN108304798B (zh) | 基于深度学习及运动一致性的街面秩序事件视频检测方法 | |
CN110135296A (zh) | 基于卷积神经网络的机场跑道fod检测方法 | |
CN106127204A (zh) | 一种全卷积神经网络的多方向水表读数区域检测算法 | |
CN109859245A (zh) | 视频目标的多目标跟踪方法、装置及存储介质 | |
CN114970321A (zh) | 一种基于动态轨迹流的场景流数字孪生方法及系统 | |
CN110427797B (zh) | 一种基于几何条件限制的三维车辆检测方法 | |
CN104299243B (zh) | 一种基于霍夫森林的目标跟踪方法 | |
CN109598684A (zh) | 结合孪生网络的相关滤波跟踪方法 | |
CN108647649A (zh) | 一种视频中异常行为的检测方法 | |
CN103593679A (zh) | 一种基于在线机器学习的视觉人手跟踪方法 | |
CN105608417A (zh) | 交通信号灯检测方法及装置 | |
CN110348437A (zh) | 一种基于弱监督学习与遮挡感知的目标检测方法 | |
CN105404894A (zh) | 无人机用目标追踪方法及其装置 | |
CN103955950B (zh) | 一种利用关键点特征匹配的图像跟踪方法 | |
CN108154159A (zh) | 一种基于多级检测器的具有自恢复能力的目标跟踪方法 | |
CN109389185A (zh) | 使用三维卷积神经网络的视频烟雾识别方法 | |
CN112613668A (zh) | 基于人工智能的景区危险区域管控方法 | |
CN104599291B (zh) | 基于结构相似度和显著性分析的红外运动目标检测方法 | |
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
Fradi et al. | Spatio-temporal crowd density model in a human detection and tracking framework | |
CN103020614A (zh) | 基于时空兴趣点检测的人体运动识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170201 |
|
WW01 | Invention patent application withdrawn after publication |