CN101141633B - 一种复杂场景中的运动目标检测与跟踪方法 - Google Patents

一种复杂场景中的运动目标检测与跟踪方法 Download PDF

Info

Publication number
CN101141633B
CN101141633B CN2007100356355A CN200710035635A CN101141633B CN 101141633 B CN101141633 B CN 101141633B CN 2007100356355 A CN2007100356355 A CN 2007100356355A CN 200710035635 A CN200710035635 A CN 200710035635A CN 101141633 B CN101141633 B CN 101141633B
Authority
CN
China
Prior art keywords
target
frame
value
color
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2007100356355A
Other languages
English (en)
Other versions
CN101141633A (zh
Inventor
王耀南
万琴
王磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN2007100356355A priority Critical patent/CN101141633B/zh
Publication of CN101141633A publication Critical patent/CN101141633A/zh
Application granted granted Critical
Publication of CN101141633B publication Critical patent/CN101141633B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种复杂场景中的运动目标检测与跟踪方法,包括多运动目标检测和多运动目标跟踪两个步骤:在多运动目标检测中,针对复杂场景的监控,建立基于自适应非参数核密度估计的背景模型,能有效抑制微小物体运动的干扰,并消除目标阴影,检测出多运动目标;在多运动目标跟踪中,建立目标模型,通过“匹配矩阵”来确定目标的运动状态,并根据目标不同运动情况采取相应跟踪策略。针对多目标相互遮挡问题,通过概率推理方法“恢复”目标信息,分析目标遮挡程度。本发明的算法能较好地实现运动目标跟踪,获得运动目标的轨迹,具有良好的实时性和适应环境变化的能力。本发明适用范围广,精确度高,是具有通用性的智能视觉监控核心方法。

Description

一种复杂场景中的运动目标检测与跟踪方法
技术领域
本发明主要涉及到智能视觉监控领域,特指一种复杂场景中的运动目标检测与跟踪方法。
背景技术
视觉处理系统采用图象传感器对监控场景中的运动目标(如行人、车辆等)进行实时观测,通过检测、识别和跟踪图象序列中的运动目标,监视场景中目标的活动,并能理解和描述目标的各自行为和相互间行为。视觉监控技术在20世纪60年代出现,基于视频的监控系统的发展是从模拟监控(CCTV)开始,监控系统的鲁棒性、自动化程度低。随着传感器、计算机软硬件、信号处理和通信等视觉监控所需的技术和设备发展,使得视觉监控的广泛应用和迅猛发展有了坚实的物质基础。在监控系统中采用高性能计算机获取、处理图象成为可能,复杂背景下的运动目标跟踪目前主要采用单摄象机监控场景,运动目标的检测、识别是研究重点,到目前,美国,欧洲和日本等发达国家已发展到自动化视觉监控技术,正迅速向全数字智能视觉监控技术发展。
目前,采用摄像机作为主要传感器的视频监控系统被广泛应用于各种场合如银行、停车场、超市、宾馆、住宅小区等,但是传统的模拟监控系统中图象数据的采集,传输,显示和存储大多是基于模拟信号,需要人工不间断的观察多个监视器画面,不仅花费人力物力而且经常发生漏警和误警,不能做到实时有效发现、制止危险事件,从而极大地降低了系统的可靠性和可信度,视频图象数据往往仅作为事故发生后处理的证据而失去了其主动实时的特点,更无法做到异常事件预警。要使得视频监控系统具有预警、实时监测等“智能化”功能,需要系统能对大量的视频信息进行处理分析、理解,将提取的有用信息反映给监控人员。随着计算机软件、硬件快速发展,利用计算机视觉技术对监控系统中的视频信息进行分析、处理,使监控系统向智能化方向成为可能。基于数字图象的视觉监控系统具有实时、隐蔽和可视化的特点,它的研究发展使得效率低、误检率高的传统模拟监控系统转变为高效的、无人值守的智能视觉监控系统,具有广泛的应用前景和潜在的商业价值,是近年来计算机视觉领域的前沿研究方向。
发明内容
本发明要解决的技术问题就在于:室外监控场景的背景干扰大,如树叶、水波、雨点的微小运动,需要抑制干扰,得到背景模型从而正确检测目标;多运动目标跟踪结果能作为实际场景监控中目标运动分析、判断并自动预警的依据,而多目标运动情况复杂,尤其在目标相互遮挡时,如何识别目标、跟踪目标是关键问题。本发明提出了复杂场景中背景建模、目标检测方法,以及场景固定时对多个运动目标分析特征建立目标模型、根据不同运动情况进行跟踪,获得目标运动轨迹。本发明提出的方法实现了初步的监控“智能化”,多目标跟踪结果能作为行为分析理解、系统主动预警的依据,可广泛应用于视觉安防,机器视觉检测、人机接口等领域,是一种具有通用性的智能视觉监控的核心方法。
为解决上述技术问题,本发明提供的技术方案为:一种复杂场景中的运动目标检测与跟踪方法,其特征在于步骤为:
(1)、基于自适应非参数核密度估计的多运动目标检测:
①、将监控视频中的前t帧图象(未出现目标)作为初始背景模型,即初始采样集;
②、从输入的第t+1帧图象开始检测目标:当前帧图象象素点作为估计点,根据自适应非参数核密度估计方法,得到估计点属于背景模型的概率值,并将当前帧象素点作为新采样点更新背景模型,即更新采样集;
③、判断上一步中象素点(估计点)概率值是否小于阈值T;如小于阈值T,则该象素点是目标点;
④、按以上①~③步骤依次处理当前帧图象所有象素点,得到的目标点集合,即为检测到的目标区域;
(2)、多运动目标跟踪:
⑤、对当前帧图象中检测到的目标区域,建立目标模型:颜色模型、运动模型、形状模型;
⑥、建立当前帧检测的目标与上一帧目标的匹配矩阵,矩阵元素是两帧间目标模型的匹配度,得到目标匹配情况;
⑦、根据匹配情况,分析当前帧目标运动状态;
⑧、记录当前帧目标信息并更新此目标模型;
⑨、如视频输入未结束,返回目标检测模块,再执行目标跟踪模块,即上述步骤⑤~⑧。
所述自适应非参数核密度估计法中核密度估计器的带宽选择,提出基于采样点、估计点的概率分布特征选择带宽,即公式(3)。并可从数学理论上推导发现:该估计器能更好地反映出估计点和采样点概率分布的接近程度,从而大大提高了估计器的准确率。
H ( x i , x ) = Σ x i + Σ x - - - ( 3 )
其中,
Figure S07135635520070918D000032
表示采样点方差,∑x表示估计点方差。
所述自适应非参数核密度估计法采集颜色、梯度特征作为采样点、估计点取值,通过公式(5)、公式(6)和公式(7)计算当前帧图象各象素点(估计点x)的概率,
p ^ ( x | Φ b ) = p ^ ( x c | Φ bc ) × p ^ ( x g | Φ bg ) - - - ( 5 )
p ^ ( x c | Φ bc ) = 1 n ( 2 π ) 3 / 2 Σ i = 1 n 1 | | Σ xc i + Σ xc | | 1 / 2 exp ( - 1 2 ( x c - x ci ) T ( Σ xc i + Σ xc ) - 1 ( x c - x ci ) (6)
p ^ ( x g | Φ bg ) = 1 n ( 2 π ) 3 / 2 Σ i = 1 n 1 | | Σ xg i + Σ xg | | 1 / 2 exp ( - 1 2 ( x g - x gi ) T ( Σ xg i + Σ xg ) - 1 ( x g - x gi ) (7)
其中,
Figure S07135635520070918D000036
p(xg|
Figure S07135635520070918D00003091857QIETU
bg)分别表示基于颜色特征、梯度特征的非参数密度估计。
所述步骤③中,如果当前帧象素的概率估计 p ^ ( x | &Phi; b ) < T , 则说明该象素属于背景模型的概率值低,则认为是前景目标点,目标点的集合构成目标区域,即能从当前帧图象中分割出目标,其中阈值T通过期望的误警率来设定。根据Neyman-Pearson规则,误警率ε定义为:
&epsiv; = &Integral; &Omega; 2 p ^ ( x | &Phi; b ) dx - - - ( 8 )
其中Ω2是拒绝领域。
所述步骤⑤中,颜色模型、运动模型和形状模型分别为:
(1)、颜色模型,在目标分割生成的掩摸区域内,将每个象素的RGB值转换为HSV值,并将三维HSV矢量量化后用一维颜色直方图表示。颜色模型在每一帧中的更新方程为:
H ^ i ( k + 1 ) = H ^ i ( k ) + &beta; ( k + 1 ) ( H i ( k + 1 ) - H ^ i ( k ) ) - - - ( 9 )
其中,0<β<1,根据实验确定; H ^ i ( 0 ) = H i ( 0 ) , i=1,...,M,M为颜色直方图最大位数(在一维HSV直方图中,M=72),Hi(k+1)是第k+1帧颜色直方图的第i位;
(2)、运动模型,检测出的运动目标以外接矩形框标注,对于实时视频序列,每两帧时间间隔Δt比较小,可以认为目标在相邻帧间运动变化缓慢,近似为匀速运动,并分别针对矩形框中心点坐标的x、y方向建立目标二维运动模型,则目标运动可用线性动态模型表示为:
X(t)=AX(t-1)+W(t-1)      Y(t)=Cx(t)+V(t)
X ( t ) = p p &CenterDot;         Y(t)=[p]                             (10)
其中,X(t)、X(t-1)是t、t-1时刻状态向量,其分量分别为象素点位置p和速度
Figure S07135635520070918D000042
Y(t)是t时刻观测向量(即从图象中得到的实际数据);W为系统噪声,假设W为高斯分布,均值为零,协方差矩阵为Q,取Q=0.01*I,其中I为2×2的单位矩阵;V为观测噪声,其均值为零,协方差矩阵为R,R可以通过求的背景图象中某象素点观测值的方差得到;根据式(10),由经典卡尔曼滤波器方程可得到对状态向量X在当前帧中的估计值,及在下一帧中的预测值;
(3)、形状模型,目标形状表示为目标区域外接矩形框的长宽比,设某目标外接矩形框平均长度为
Figure S07135635520070918D000043
宽度为
Figure S07135635520070918D000044
则根据下式得到其形状模型的长度更新(宽度更新同理可得):
h ^ ( k + 1 ) = h ^ ( k ) + &beta; ( k + 1 ) ( h ( k + 1 ) - h ^ ( k ) ) - - - ( 13 )
其中, h ^ ( 0 ) = h ( 0 ) , h(k+1)表示在k+1帧目标外接矩形框的长度值,宽度更新
Figure S07135635520070918D000047
可同理得到,则
Figure S07135635520070918D000048
是更新后目标形状长宽比。
在上述步骤⑦中,为了确定相邻帧间目标匹配关系,根据目标模型在相邻帧间建立“匹配矩阵”,设定匹配矩阵的行号i代表当前帧检测到的目标,列号j代表上一帧检测的目标,计算当前帧目标与上一帧目标的运动模型匹配度Mij、形状模型相似度Sij、颜色模型相似度Hij,并将和值:Tij=Mij+Sij+Hij作为匹配矩阵元素值记录,通过匹配矩阵,可得到对应于不同的运动状态的五种匹配情况,从而可确定当前帧中多运动目标的运动状态,所述五种匹配情况分别是:
(1)、如i行无匹配,则i行所代表的目标为新出现目标,对应为运动状态“出现新目标”;
(2)、如i行与列中某一元素匹配,则i行代表目标为运动正常情况,对应为运动状态“目标运动正常”,和匹配情况“正常情况”;
(3)、如i行与列中多个元素匹配,则i行所代表目标在当前帧发生遮挡,对应为运动状态“目标遮挡及分离”,和匹配情况“遮挡情况”;
(4)、如j列中与行有多个元素匹配,则行中匹配目标是遮挡目标分离产生,对应为运动状态“目标遮挡及分离”;
(5)、如j列目标与行中无目标匹配,则说明j列代表的目标在当前帧消失,对应为运动状态“目标消失”,和匹配情况“无匹配”。
上述步骤⑦中,通过匹配矩阵判断当前帧目标运动状态是发生目标遮挡,按下述步骤跟踪目标:
(1)、通过目标在当前帧中的预测值产生多个“虚目标”:设目标j被遮挡,由目标j产生的“虚目标i”表示为 B i j = { p i j , h i 1 , h i 2 , . . . , h i 72 } , 其中
Figure S07135635520070918D000052
表示“虚目标”中心点,满足高斯分布,{hi1,hi2,...,hi72}是目标HSV空间一维颜色直方图的各位数;
(2)、建立各“虚目标”模型,再通过它们与目标在上一帧的模型建立匹配矩阵,确定最佳匹配的“虚目标”,即“恢复”目标信息。
(3)、基于概率方法分析遮挡目标:由于目标颜色具有稳定性,根据目标被遮挡前的颜色概率分布(先验概率),估计当前帧遮挡目标在目标组中的颜色概率(后验概率),分析目标被遮挡程度:
①、先验概率:目标在发生遮挡前,其颜色直方图代表了目标颜色概率分布,可得到目标i区域中每个象素的概率P(x|i),假设当遮挡情况发生,目标i与其他目标相互遮挡,形成新目标组I。我们可通过获得目标i在被遮挡前掩膜区域内的象素数目,通过公式(17)估计其遮挡前在目标组I中的深度:
P ( i ) = A i &Sigma; j &Element; I A j - - - ( 17 )
其中Ai表示目标i未被遮挡前掩膜区域面积,即包含的象素数目。
②、后验概率:根据先验概率,通过公式(18)求得其在遮挡目标组I中颜色分布,即后验概率:
P ( i | x x , y ) = P ( x x , y | i ) P ( i ) &Sigma; j &Element; I P ( x x , y | j ) P ( j ) - - - ( 18 )
式中P(xx,y|i)是在目标i区域内坐标x,y处的象素值在目标i颜色直方图中的概率。采用颜色直方图表示目标颜色分布可使得式子的求解简单、实时有效。通过式(18)可得到在目标i区域中某象素在遮挡目标组I中属于目标i的概率,求得的值越大说明该象素在目标组I中属于原目标i概率越大,也即象素未被遮挡的可能性越大,值越低则越可能属于遮挡部分或目标组中其他目标。
与现有技术相比,本发明的优点就在于:
1、提出建立基于自适应非参数核密度估计的背景模型,并且核密度估计器的带宽由采样点、估计点的概率分布特征确定,能有效抑制干扰,背景模型准确性高。
2、对于采样点、估计点特征选取问题,提出将颜色、梯度特征相结合,避免目标检测结果中出现“空洞”,并能消除目标阴影。
3、考虑到算法计算复杂度,在基本不影响计算精度的前提下,部分计算进行了有效的简化,降低了计算复杂度,大大提高了算法的实时性。
4、对于目标特征描述,提出将颜色特征、形状特征、运动状态有机结合,建立目标模型,反映了目标的重要属性:颜色恒常性、形状及运动特点,是后续跟踪分析的基础。
5、设计“匹配矩阵”分析帧间目标匹配情况,并根据匹配结果,提出将目标运动状态分为四类,分别采取相应跟踪策略。算法实现了多运动目标在不同运动情况下的跟踪,并能获得目标运动轨迹。
6、针对目标遮挡时其信息丢失而无法跟踪的情况,提出基于概率统计分析方法分析被遮挡目标的运动、遮挡情况。算法能有效恢复目标的丢失信息,解决了目标遮挡时的跟踪问题。
附图说明
图1是多运动目标检测、跟踪基本流程图;
图2是目标检测流程图;
图3是多运动目标跟踪流程图;
图4是跟踪过程中四种运动状态相互转换图;
图5是跟踪流程第3)步在目标遮挡时的算法流程图。
具体实施方式
以下将结合附图和具体实施过程对本发明做进一步详细说明。
本发明公开了一种复杂场景中的运动目标检测与跟踪方法,步骤为:
(1)、基于自适应非参数核密度估计的多运动目标检测:
①、将监控视频中的前t帧图象(未出现目标)作为初始背景模型,即初始采样集;
②、从输入的第t+1帧图象开始检测目标:当前帧图象象素点作为估计点,根据自适应非参数核密度估计方法,得到估计点属于背景模型的概率值,并将当前帧象素点作为新采样点更新背景模型,即更新采样集;
③、判断上一步中象素点(估计点)概率值是否小于阈值T;如小于阈值T,则该象素点是目标点;
④、按以上①~③步骤依次处理当前帧图象所有象素点,得到的目标点集合,即为检测到的目标区域;
(2)、多运动目标跟踪:
⑤、对当前帧图象中检测到的目标区域,建立目标模型:颜色模型、运动模型、形状模型;
⑥、建立当前帧检测的目标与上一帧目标的匹配矩阵,矩阵元素是两帧间目标模型的匹配度,得到目标匹配情况;
⑦、根据匹配情况,确定当前帧目标运动状态;
⑧、记录当前帧目标信息并更新此目标模型;
⑨、如视频输入未结束,返回目标检测模块,再执行目标跟踪模块,即上述步骤⑤~⑧。
在具体实施中,摄象机得到的固定场景下的监控视频,首先输入多运动目标检测模块,通过背景建模、背景更新、背景减除及阈值化等算法处理,检测出的运动目标区域作为下一步多运动目标跟踪模块的输入。在该模块中,能实现对固定场景中多个运动目标的跟踪,获取各个目标在场景中的运动轨迹。本发明复杂场景中的运动目标检测与跟踪方法的运行环境:PC机(PentiumIV-1.5GHZ,内存256M,硬盘40G),加拿大Matrox公司Meteor图像采集卡,开发工具:VC++6.0,实时视频图像分辨率384×288,处理速度可达15-17帧/秒,基本达到实时性要求。
下面将根据步骤详细描述具体实现方法:
1、基于自适应非参数核密度估计的多运动目标检测方法:
运动目标的正确检测是目标跟踪的前提条件,对于摄象机固定的复杂场景监控,光线变化;树叶、水波晃动等微小物体运动会造成较大干扰,本发明提出的基于自适应非参数密度估计的多运动目标检测方法,基本思想是根据象素点的采样值概率分布建立背景模型并实时更新,估计当前帧象素点概率,根据概率阈值判断其是否属于背景,不属于背景的象素点集合即为目标区域。实验证明该方法能较好地抑制干扰,提高检测准确率。
以上算法具体说明如下:
1.1建立背景模型及更新:
1)建立背景模型(即确定初始采样集)
Figure S07135635520070918D000081
说明:
此步骤得到初始采样集作为背景模型,下一步(1.2节)将根据此采样集,计算当前帧(从第t+1帧开始)图象各象素点属于背景的概率。
Figure S07135635520070918D000082
算法:
对输入视频的前t帧图象(目标未出现)中每帧图象的象素点(采样点)x获取初始采样集,即得到初始背景模型:Фb={x1,x2,...,xn},其中x1,x2,...,xn表示象素点x在图象帧1到图象帧n(n=t)的采样值。
但是由于每个象素点的采样集都包含n个采样点,如大小为h*w的图象,采样点共有h*w*n个!计算花销很大,为了减少计算复杂度,本发明提出将象素在每5帧图象中的采样点均值作为其新采样值:
Фb={
Figure S07135635520070918D00008092344QIETU
,i=1,2,...,n},其中n=t/5,
Figure S07135635520070918D00008092407QIETU
表示集合{xi,xi+1,...,xi+4}(i=1,...,n-(i+4))的均值。
实验证明该方法基本不影响计算精度,并可以在保证准确性的基础上降低计算复杂度,提高实时性。
2)背景模型更新
Figure S07135635520070918D000083
说明:
固定监控场景处于动态变化中,如发生光线变化、树叶、水波等微小物体的运动,背景模型要能反映监控场景的变化,需要进行实时更新。在计算当前帧象素概率估计(1.2节)后,进行背景模型更新,即更新采样集。
Figure S07135635520070918D000084
算法:
本发明采用采样点先进先出原则更新采样集,即各象素点(采样点)x的新采样值取代原采样集的第一个采样值,如象素i下一个新采样值代替采样集Фi中的第一个采样值
Figure S07135635520070918D000092
以此类推。
1.2当前帧象素点属于背景的概率估计:自适应非参数核密度估计法
下面根据采样集(更新前),估计当前帧(从第t+1帧开始)象素点属于背景的概率。
1)基本原理:
Figure S07135635520070918D000093
说明:
推导本发明提出的自适应非参数核密度估计方法的基本原理,即得到的公式(4)。
Figure S07135635520070918D000094
算法:
本发明提出自适应非参数核密度估计方法,能抑制干扰,得到有效的概率估计。将当前帧象素点x作为估计点,其属于背景(采样集)的概率为:
p ^ ( x | &Phi; b ) = 1 n &Sigma; i = 1 n 1 | | H | | 1 / 2 K ( H - 1 / 2 ( x - x i &prime; ) ) - - - ( 1 )
其中,x表示当前估计点;
Figure S07135635520070918D000096
表示采样集中的采样点;K是d维核函数(d表示采样点、估计点维数),取d维高斯密度函数,则核函数K表示为:
K H ( x ) = 1 ( 2 &pi; ) d / 2 | H | 1 / 2 exp ( - 1 2 x T H - 1 x ) - - - ( 2 )
H表示带宽,是d×d对称正定矩阵,带宽H的确定对核密度估计非常重要,带宽太小会导致采样特征错误,带宽太大会丢失重要的细节信息。本发明提出基于采样点、估计点的概率分布特征选择带宽,并可从数学理论上推导发现:该估计器能更好地反映出估计点和采样点概率分布的接近程度,从而大大提高了估计器的准确率。带宽H表示为:
H ( x i , x ) = &Sigma; x i + &Sigma; x - - - ( 3 )
其中,
Figure S07135635520070918D000099
表示采样点方差,∑x表示估计点方差。
将式(2)、(3)带入(1),得到象素x概率估计的完整公式:
p ^ ( x | &Phi; b ) = 1 n ( 2 &pi; ) d / 2 &Sigma; i = 1 n 1 | | &Sigma; x i + &Sigma; x | | 1 / 2 exp ( - 1 2 ( x - x i ) T ( &Sigma; x i + &Sigma; x ) - 1 ( x - x i ) ) - - - ( 4 )
2)采样点、估计点特征选取
说明:
确定公式(4)中采样点
Figure S07135635520070918D0000912
估计点x的取值,即象素点的特征选取;再根据选取特征的概率分布特点,推导公式(4)的等价表示,即得到公式(5)~(7)。
Figure S07135635520070918D000101
算法:
本发明提出将颜色、梯度特征作为采样点、估计点取值。因为当背景、前景的色度没有区别时,如仅依靠象素级的颜色信息,检测率低。因此我们引入了梯度信息,采用sobel算子在x,y方向得到象素梯度值,则采样点xi取值表示为:xi=[xr,xg,xb,xgr,xgg,xgb]∈Rd(d=6),其中xr,xg,xb表示采样点RGB颜色值,xgr,xgg,xgb表示采样点RGB通道对应的梯度值。估计点x也同样取其RGB颜色值和梯度值。
则式(4)将对6维向量计算,为了进一步减少计算复杂度,假设颜色、梯度信息是独立的(该假设基本不影响计算精度),得到:
p ^ ( x | &Phi; b ) = p ^ ( x c | &Phi; bc ) &times; p ^ ( x g | &Phi; bg ) - - - ( 5 )
其中,
Figure S07135635520070918D000103
p(xgbg)分别表示基于颜色特征、梯度特征的非参数密度估计:
p ^ ( x c | &Phi; bc ) = 1 n ( 2 &pi; ) 3 / 2 &Sigma; i = 1 n 1 | | &Sigma; xc i + &Sigma; xc | | 1 / 2 exp ( - 1 2 ( x c - x ci ) T ( &Sigma; xc i + &Sigma; xc ) - 1 ( x c - x ci ) (6)
p ^ ( x g | &Phi; bg ) = 1 n ( 2 &pi; ) 3 / 2 &Sigma; i = 1 n 1 | | &Sigma; xg i + &Sigma; xg | | 1 / 2 exp ( - 1 2 ( x g - x gi ) T ( &Sigma; xg i + &Sigma; xg ) - 1 ( x g - x gi ) (7)
则系统采用公式(5)~(7)计算当前帧图象各象素点(估计点x)的概率。
1.3确定阈值T并分割背景、前景(目标)
Figure S07135635520070918D000106
说明:
确定象素概率判定阈值T,并据此分割得到前景、背景。
Figure S07135635520070918D000107
算法:
如果当前帧象素的概率估计 p ^ ( x | &Phi; b ) < T , 则说明该象素属于背景模型的概率值低,则认为是前景目标点。目标点的集合构成目标区域,即能从当前帧图象中分割出目标。
阈值T通过期望的误警率来设定。根据Neyman-Pearson规则,误警率ε定义为:
&epsiv; = &Integral; &Omega; 2 p ^ ( x | &Phi; b ) dx - - - ( 8 )
其中,Ω2是拒绝领域。如在背景减除中,它代表前景数据空间。如果我们希望达到ε<α,则通过期望误警率ε可计算出阈值T。
2、多运动目标跟踪方法:
跟踪等价于在连续的图像帧间创建基于位置、速度、形状、纹理、色彩等有关特征的对应匹配问题,对于单个目标,可以通过获得目标在每一帧中的位置得到运动轨迹,即建立跟踪,但对于多个目标,情况较为复杂,在运动目标遮挡、暂时消失等情况下目标信息丢失使跟踪失败。本发明提出了基于目标模型的跟踪方法,在建立目标模型的基础上,针对目标不同运动情况,特别是多运动目标相互遮挡,提出了有效的解决方法。
将总流程图(图1)中多目标跟踪模块的主要步骤表示在图3该模块框中,其主要流程步骤包括:
⑤、对当前帧图象中检测到的目标区域,建立目标模型:颜色模型、运动模型、形状模型,在2.1节中阐述;
⑥、建立当前帧检测的目标与上一帧目标的匹配矩阵,矩阵元素是两帧间目标模型的匹配度,得到目标匹配情况,在2.2节中阐述;
⑦、根据匹配情况,确定当前帧目标运动状态,在2.3节中阐述;
⑧、记录当前帧目标信息并更新此目标模型。
⑨、如视频输入未结束,返回目标检测模块,再执行目标跟踪模块,即步骤1)~4)。
2.1建立目标模型
说明:
当检测到新目标出现时,建立其颜色、运动、形状模型,在该目标跟踪过程中,计算当前帧目标与上一帧目标的各模型相似度,作为下一步(2.2节)建立的匹配矩阵的元素,匹配完成后更新当前帧目标各模型参数。
Figure S07135635520070918D000112
算法:
1)颜色模型
为了更好的描述目标颜色特性,我们选择HSV颜色空间,它更符合人类视觉感知特征。在目标分割生成的掩摸区域内,将每个象素的RGB值转换为HSV值,并将三维HSV矢量量化后用一维颜色直方图表示。颜色模型在每一帧中的更新方程为:
H ^ i ( k + 1 ) = H ^ i ( k ) + &beta; ( k + 1 ) ( H i ( k + 1 ) - H ^ i ( k ) ) - - - ( 9 )
其中,0<β<1,根据实验确定。 H ^ i ( 0 ) = H i ( 0 ) , i=1,...,M,M为颜色直方图最大位数(在一维HSV直方图中,M=72),Hi(k+1)是第k+1帧颜色直方图的第i位。
2)运动模型
检测出的运动目标以外接矩形框标注,对于实时视频序列,每两帧时间间隔Δt比较小,可以认为目标在相邻帧间运动变化缓慢,近似为匀速运动,并分别针对矩形框中心点坐标的x、y方向建立目标二维运动模型,则目标运动可用线性动态模型表示为:
X(t)=AX(t-1)+W(t-1)     Y(t)=Cx(t)+V(t)
X ( t ) = p p &CenterDot;         Y(t)=[p]              (10)
其中,X(t)、X(t-1)是t、t-1时刻状态向量,其分量分别为象素点位置p和速度
Figure S07135635520070918D000122
Y(t)是t时刻观测向量(即从图象中得到的实际数据)。W为系统噪声,假设W为高斯分布,均值为零,协方差矩阵为Q,取Q=0.01*I,其中I为2×2的单位矩阵。V为观测噪声,其均值为零,协方差矩阵为R,R可以通过求的背景图象中某象素点观测值的方差得到。
根据式(10),由经典卡尔曼滤波器方程可得到对状态向量X在当前帧中的估计值,及在下一帧中的预测值。
3)形状模型:
为降低算法复杂度,目标形状表示为目标区域外接矩形框的长宽比,设某目标外接矩形框平均长度为
Figure S07135635520070918D000123
宽度为
Figure S07135635520070918D000124
则根据下式得到其形状模型的长度更新(宽度更新同理可得):
h ^ ( k + 1 ) = h ^ ( k ) + &beta; ( k + 1 ) ( h ( k + 1 ) - h ^ ( k ) ) - - - ( 13 )
其中, h ^ ( 0 ) = h ( 0 ) , h(k+1)表示在k+1帧目标外接矩形框的长度值。宽度更新可同理得到,则是更新后目标形状长宽比。
2.2建立匹配矩阵
Figure S07135635520070918D000129
说明:
跟踪目标i,需要在当前帧多个目标中找出哪一个目标与i对应。本发明通过“匹配矩阵”,分析当前帧目标与上一帧目标的对应匹配关系。
Figure S07135635520070918D0001210
算法:
为了确定相邻帧间目标匹配关系,本发明提出“匹配矩阵”方法。根据目标模型在相邻帧间建立“匹配矩阵”。
设定匹配矩阵的行号i代表当前帧检测到的目标,列号j代表上一帧检测的目标。计算当前帧目标与上一帧目标的运动模型匹配度Mij、形状模型相似度Sij、颜色模型相似度Hij,并将和值:Tij=Mij+Sij+Hij作为匹配矩阵元素值记录。
对于得到的匹配矩阵,需要针对表示当前帧目标的每行寻找最佳的某个上一帧目标匹配,这样的问题在数学上称为指派问题。采用解决线性指派问题的匈牙利算法,必须使得匹配矩阵为n行n列矩阵,如匹配矩阵不满足要求,通过增加假设目标及其测量值(设为0)使其行、列数相同。
通过匹配矩阵,可得到对应于不同的运动状态的五种匹配情况,从而可确定当前帧中多运动目标的运动状态,并更新其模型参数。五种匹配情况分别是:
1)如i行无匹配,则i行所代表的目标为新出现目标;
2)如i行与列中某一元素匹配,则i行代表目标为运动正常情况;
3)如i行与列中多个元素匹配,则i行所代表目标在当前帧发生遮挡;
4)如j列中与行有多个元素匹配,则行中匹配目标是遮挡目标分离产生;
5)如j列目标与行中无目标匹配,则说明j列代表的目标在当前帧消失。
由于以上五种匹配情况在目标跟踪过程中会相互转换,为描述跟踪过程,将这五种匹配情况表示为四种“目标运动状态”:出现新目标、目标运动正常、目标遮挡及分离、目标消失;和三种“匹配情况”:正常情况、遮挡情况、无匹配。
Figure S07135635520070918D000131
情况1)对应为运动状态“出现新目标”;
Figure S07135635520070918D000132
情况2)对应为运动状态“目标运动正常”,和匹配情况“正常情况”;
Figure S07135635520070918D000133
情况3)对应为运动状态“目标遮挡及分离”,和匹配情况“遮挡情况”;
Figure S07135635520070918D000134
情况4)对应为运动状态“目标遮挡及分离”;
Figure S07135635520070918D000135
情况5)对应为运动状态“目标消失”,和匹配情况“无匹配”。
2.3运动情况分析及相应跟踪策略:
1)运动情况分析:
说明:
根据相邻帧间目标匹配情况,将目标在监控场景中的运动分为四种情况,并据当前帧匹配情况,确定目标运动状态。
Figure S07135635520070918D000137
算法:
四种运动情况包括:出现新目标、目标运动正常、目标遮挡及分离、目标消失,这几种运动情况可根据跟踪中目标匹配情况的不同而相互转换(如图4)。
①、出现新目标:
根据当前帧匹配矩阵,判定目标运动状态是“出现新目标”。如果连续Tn帧(实验中取值为4)目标匹配都是“正常情况”,则转为“目标运动正常”状态:如出现目标匹配情况是“无匹配”,则转为“目标消失”状态,连续Tn帧内都是“目标消失”状态,则终止跟踪,删除目标。
②、目标运动正常:
在“目标运动正常”状态时,得到相邻帧间的目标匹配是“正常情况”,则继续“正常跟踪”;如目标匹配出现“无匹配”情况则转为“目标消失”状态;如目标匹配是“遮挡情况”则转为“目标遮挡及分离”状态。
③、目标遮挡及分离:
目标相互遮挡时,依据下一点给出的“目标遮挡时的跟踪”算法,恢复被遮挡目标信息,并以该目标信息继续跟踪,如出现遮挡目标分离,即匹配矩阵中,分离的目标能与当前帧目标一一对应,即匹配为“正常情况”,则由“目标遮挡及分离”状态转为“目标运动正常”状态;如匹配矩阵中出现分离的多个目标与某当前帧目标匹配,即该目标匹配是“遮挡情况”,则运动状态不便;如某分离的目标出现“无匹配”情况则转为“目标消失”状态。
④、目标消失
如目标是“目标消失”状态后,根据其目标模型得到的相邻帧间匹配矩阵,出现连续Tn帧“无匹配”情况,则认为目标消失,该目标跟踪的终止;如Tn帧内目标匹配出现“正常情况”则转为“目标运动正常”状态;如Tn帧内目标匹配出现“遮挡情况”则转为“目标遮挡及分离”状态。
下面针对目标发生遮挡情况的跟踪算法详细介绍。
2)目标遮挡时的跟踪
当目标出现相互遮挡时,多个目标检测为一个目标组,原目标信息可能丢失,而实现跟踪需要识别出目标组中的各个目标,以便在目标分离后仍能有效跟踪目标。目标在被遮挡前的特征是识别遮挡目标组中不同目标的重要依据。在本发明中,针对遮挡情况下的跟踪,通过改进基于目标模型的跟踪方法,实现在目标相互遮挡时能识别不同目标。
①、被遮挡目标的匹配
说明:
在通过匹配情况判断当前帧某目标运动状态是“遮挡”后,跟踪流程第3)步采用的算法如图5所示:由于在当前帧目标被遮挡,其参数无法获取而丢失,因此,首先通过目标在当前帧中的预测值产生多个“虚目标”;建立各“虚目标”模型;再通过它们与目标在上一帧的模型建立匹配矩阵;根据匹配矩阵确定最佳匹配“虚目标”,将其作为恢复的目标参数;最后根据恢复的目标信息分析目标遮挡程度。
Figure S07135635520070918D000152
算法:
设目标j被遮挡,由目标j产生的“虚目标i”表示为:
B i j = { p i j , h i 1 , h i 2 , . . . , h i 72 } ,    p i j ~ &eta; ( y ^ j ( k | k - 1 ) , S j ( k ) )
其中
Figure S07135635520070918D000155
表示“虚目标”中心点,满足高斯分布,均值为第j个目标由卡尔曼滤波器得到的预测位置
Figure S07135635520070918D000156
方差为Sj(k)。{hi1,hi2,...,hi72}是HSV空间一维颜色直方图的各位数。则颜色相似性可计算为:
H j ( B i j ) = &Sigma; i = 1 72 min ( h ik N ^ j , h ^ jk ) - - - ( 14 )
式中,
Figure S07135635520070918D000158
表示目标j的在当前帧中估计的象素点数数目和。
将“虚目标”位置作为当前帧目标的测量值,针对遮挡前原目标得到运动模型匹配度。则“虚目标”与未遮挡前目标的匹配度可表示为:
T j i = M j ( B i j ) + H j ( B i j ) - - - ( 15 )
根据得到的匹配度建立匹配矩阵,确定最佳匹配的“虚目标”,即“恢复”目标信息。而在当前帧图象中是否能标记遮挡目标,需要判断该目标是否被完全遮挡。下面中将给出分析遮挡目标可见部分的算法。
②、基于概率方法分析遮挡目标:
Figure S07135635520070918D0001510
说明:
由于目标颜色具有稳定性,根据目标被遮挡前的颜色概率分布(先验概率),估计当前帧遮挡目标在目标组中的颜色概率(后验概率),此概率能反映目标被遮挡程度。
Figure S07135635520070918D0001511
算法:
先验概率:
目标在发生遮挡前,其颜色直方图代表了目标颜色概率分布,可得到目标i区域中每个象素的概率P(x|i),如已知t时刻的象素概率,t+1时刻的象素概率更新为:
P t + 1 ( x | i ) = &beta; P t ( x | i ) + ( 1 - &beta; ) P t + 1 new ( x | i ) - - - ( 16 )
其中,0<β<1,是t+1时刻的象素概率。
假设当遮挡情况发生,目标i与其他目标相互遮挡,形成新目标组I。我们可通过获得目标i在被遮挡前掩膜区域内的象素数目,估计其遮挡前在目标组I中的深度:
P ( i ) = A i &Sigma; j &Element; I A j - - - ( 17 )
其中Ai表示目标i未被遮挡前掩膜区域面积,即包含的象素数目。
后验概率:
目标i发生遮挡形成目标组I,虽然由于相互遮挡不能直接分割出目标以更新目标颜色直方图,但目标的颜色直方图代表目标颜色分布特征具有稳定性,同时我们可通过目标遮挡前的颜色直方图作为先验概率,求得其在遮挡目标组I中颜色分布,即后验概率:
P ( i | x x , y ) = P ( x x , y | i ) P ( i ) &Sigma; j &Element; I P ( x x , y | j ) P ( j ) - - - ( 18 )
式中P(xx,y|i)是在目标i区域内坐标x,y处的象素值在目标i颜色直方图中的概率。采用颜色直方图表示目标颜色分布可使得式子的求解简单、实时有效。通过式(18)可得到在目标i区域中某象素在遮挡目标组I中属于目标i的概率,求得的值越大说明该象素在目标组I中属于原目标i概率越大,也即象素未被遮挡的可能性越大,值越低则越可能属于遮挡部分或目标组中其他目标。
实验中首先计算目标j在目标组中的颜色后验概率,如概率达到“可见”阈值Tp(实验中取值为0.6)的象素点数目超过阈值Tpresent(实验中设为目标j未被遮挡前面积的1/2),且其“虚目标”匹配度大于更新阈值Tnew(实验中设定为0.5)则将目标j的匹配“虚目标”信息更新当前目标j模型,并标记目标位置。如在最佳“虚目标”区域内可见象素点数目小于Tlost(实验中设为实验中设为目标j未被遮挡前面积的1/4),且其“虚目标”匹配度小于Tnew,则将目标j视为被完全遮挡,则不能标记目标位置。

Claims (6)

1.一种复杂场景中的运动目标检测与跟踪方法,其特征在于步骤为:
(1)、基于自适应非参数核密度估计的多运动目标检测:
①、将监控视频中未出现目标的前t帧图象作为初始背景模型,即初始采样集;
②、从输入的第t+1帧图象开始检测目标:当前帧图象象素点作为估计点,根据自适应非参数核密度估计方法,得到估计点属于背景模型的概率值,并将当前帧象素点作为新采样点更新背景模型,即更新采样集;
③、判断上一步中象素点(估计点)概率值是否小于阈值T;如小于阈值T,则该象素点是目标点;
④、按以上①~③步骤依次处理当前帧图象所有象素点,得到的目标点集合,即为检测到的目标区域;
所述自适应非参数核密度估计法采用颜色、梯度特征作为采样点、估计点取值,通过公式(5)、公式(6)和公式(7)计算当前帧图象各象素点(估计点)的概率,
p ^ ( x | &Phi; b ) = p ^ ( x c | &Phi; bc ) &times; p ^ ( x g | &Phi; bg ) - - - ( 5 )
p ^ ( x c | &Phi; bc ) = 1 n ( 2 &pi; ) 3 / 2 &Sigma; i = 1 n 1 | | &Sigma; xc i + &Sigma; xc | | 1 / 2 exp ( - 1 2 ( x c - x ci ) T ( &Sigma; xc i + &Sigma; xc ) - 1 ( x c - x ci ) )
(6)
p ^ ( x g | &Phi; bg ) = 1 n ( 2 &pi; ) 3 / 2 &Sigma; i = 1 n 1 | | &Sigma; xg i + &Sigma; xg | | 1 / 2 exp ( - 1 2 ( x g - x gi ) T ( &Sigma; xg i + &Sigma; xg ) - 1 ( x g - x gi ) )
(7)
其中,
Figure FSB00000232639100014
分别表示基于颜色特征、梯度特征的非参数密度估计;x表示估计点,xc表示估计点的颜色特征值、xci表示采样点的颜色特征值、
Figure FSB00000232639100015
表示采样点颜色特征值的方差、∑xc表示估计点颜色特征值的方差、xg表示估计点的梯度特征值、xgi表示采样点的梯度特征值、
Figure FSB00000232639100016
表示采样点梯度特征值的方差、∑xg表示估计点梯度特征值的方差;
(2)、多运动目标跟踪:
⑤、对当前帧图象中检测到的目标区域,建立目标模型:颜色模型、运动模型、形状模型;
⑥、建立当前帧检测的目标与上一帧目标的匹配矩阵,矩阵元素是两帧间目标模型的匹配度,得到目标匹配情况;
⑦、根据匹配情况,分析当前帧目标运动状态;
⑧、记录当前帧目标信息并更新此目标模型;
⑨、如视频输入未结束,返回目标检测的步骤,再执行目标跟踪的步骤,即上述步骤⑤~⑧。
2.根据权利要求1所述的复杂场景中的运动目标检测与跟踪方法,其特征在于:所述自适应非参数核密度估计法中核密度估计器的带宽选择,提出基于采样点、估计点的概率分布特征选择带宽,即下列公式(3)
H ( x i , x ) = &Sigma; x i + &Sigma; x - - - ( 3 )
其中,
Figure FSB00000232639100022
表示采样点方差,∑x表示估计点方差。
3.根据权利要求1所述的复杂场景中的运动目标检测与跟踪方法,其特征在于:所述步骤③中,如果当前帧象素的概率估计
Figure FSB00000232639100023
则说明该象素属于背景模型的概率值低,则认为是前景目标点,目标点的集合构成目标区域,即能从当前帧图象中分割出目标,其中阈值T通过期望的误警率来设定,根据Neyman-Pearson规则,误警率ε定义为:
&epsiv; = &Integral; &Omega; 2 p ^ ( x | &Phi; b ) dx - - - ( 8 )
其中Ω2是拒绝领域,其代表前景数据空间。
4.根据权利要求1所述的复杂场景中的运动目标检测与跟踪方法,其特征在于所述步骤⑤中,颜色模型、运动模型和形状模型分别为:
(1)、颜色模型,在目标分割生成的掩摸区域内,将每个象素的RGB值转换为HSV值,并将三维HSV矢量量化后用一维颜色直方图表示,颜色模型在每一帧中的更新方程为:
H ^ i ( k + 1 ) = H ^ i ( k ) + &beta; ( k + 1 ) ( H i ( k + 1 ) - H ^ i ( k ) ) - - - ( 9 )
其中,0<β<1,根据实验确定;
Figure FSB00000232639100031
i=1,...,M,M为颜色直方图最大位数,Hi(k+1)是第k+1帧颜色直方图的第i位;
(2)、运动模型,检测出的运动目标以外接矩形框标注,对于实时视频序列,每两帧时间间隔Δt比较小,可以认为目标在相邻帧间运动变化缓慢,近似为匀速运动,并分别针对矩形框中心点坐标的x、y方向建立目标二维运动模型,则目标运动可用线性动态模型表示为:
X(t)=AX(t-1)+W(t-1)  Y(t)=CX(t)+V(t)
X ( t ) = p p &CenterDot; Y(t)=[p]    (10)
其中,X(t)、X(t-1)是t、t-1时刻状态向量,其分量分别为象素点位置p和速度
Figure FSB00000232639100033
Y(t)是t时刻观测向量即从图象中得到的实际数据;W为系统噪声,假设W为高斯分布,均值为零,协方差矩阵为Q,取Q=0.01*I,其中I为2×2的单位矩阵;V为观测噪声,其均值为零,协方差矩阵为R,R可以通过求背景图象中某象素点观测值的方差得到;根据式(10),由经典卡尔曼滤波器方程可得到状态向量X在当前帧中的估计值,及在下一帧中的预测值;
(3)、形状模型,目标形状表示为目标区域外接矩形框的长宽比,设某目标外接矩形框平均长度为
Figure FSB00000232639100034
,宽度为
Figure FSB00000232639100035
,则根据下式得到其形状模型的长度更新:
h ^ ( k + 1 ) = h ^ ( k ) + &beta; ( k + 1 ) ( h ( k + 1 ) - h ^ ( k ) ) - - - ( 13 )
其中,
Figure FSB00000232639100037
h(k+1)表示在k+1帧目标外接矩形框的长度值,宽度更新
Figure FSB00000232639100038
可同理得到,则
Figure FSB00000232639100039
是更新后目标形状长宽比。
5.根据权利要求4所述的复杂场景中的运动目标检测与跟踪方法,其特征在于:在上述步骤⑥和⑦中,为了确定相邻帧间目标匹配关系,根据目标模型在相邻帧间建立“匹配矩阵”,设定匹配矩阵的行号i代表当前帧检测到的目标,列号j代表上一帧检测的目标,计算当前帧目标与上一帧目标的运动模型匹配度Mij、形状模型相似度Sij、颜色模型相似度Hij,并将和值:Tij=Mij+Sij+Hij作为匹配矩阵元素值记录,通过匹配矩阵,可得到对应于不同的运动状态的五种匹配情况,从而可确定当前帧中多运动目标的运动状态,所述五种匹配情况及相应运动状态分别是:
(1)、如i行无匹配,则i行所代表的目标为新出现目标,对应为运动状态“出现新目标”;
(2)、如i行与列中某一元素匹配,则i行代表目标为运动正常情况,对应为运动状态“目标运动正常”,和匹配情况“正常情况”;
(3)、如i行与列中多个元素匹配,则i行所代表目标在当前帧发生遮挡,对应为运动状态“目标遮挡及分离”,和匹配情况“遮挡情况”;
(4)、如j列中与行有多个元素匹配,则行中匹配目标是遮挡目标分离产生,对应为运动状态“目标遮挡及分离”;
(5)、如j列目标与行中无目标匹配,则说明j列代表的目标在当前帧消失,对应为运动状态“目标消失”,和匹配情况“无匹配”。
6.根据权利要求5所述的复杂场景中的运动目标检测与跟踪方法,其特征在于:在上述步骤⑦中,通过匹配矩阵判断当前帧目标运动状态是发生目标遮挡,按下述步骤跟踪目标:
(1)、通过目标在当前帧中的预测值产生多个“虚目标”:设目标j被遮挡,由目标j产生的“虚目标i”表示为
Figure FSB00000232639100041
其中
Figure FSB00000232639100042
表示“虚目标”中心点,满足高斯分布,{hi1,hi2,...,hi72}是目标HSV空间一维颜色直方图的各位数;
(2)、建立各“虚目标”模型,再通过它们与目标在上一帧的模型建立匹配矩阵,确定最佳匹配的“虚目标”,即“恢复”目标信息;
(3)、基于概率方法分析遮挡目标:由于目标颜色具有稳定性,根据目标被遮挡前的颜色概率分布即先验概率,估计当前帧遮挡目标在目标组中的颜色概率即后验概率,分析目标被遮挡程度:
①、先验概率:目标在发生遮挡前,其颜色直方图代表了目标颜色概率分布,可得到目标i区域中每个象素的概率P(x|i),假设当遮挡情况发生,目标i与其他目标相互遮挡,形成新目标组I,通过获得目标i在被遮挡前掩膜区域内的象素数目,通过公式(17)估计其遮挡前在目标组I中的深度:
P ( i ) = A i &Sigma; j &Element; I A j - - - ( 17 )
其中Ai表示目标i未被遮挡前掩膜区域面积,即包含的象素数目;
②、后验概率:根据先验概率,通过公式(18)求得其在遮挡目标组I中颜色分布,即后验概率:
P ( i | x x , y ) = P ( x x , y | i ) P ( i ) &Sigma; j &Element; I P ( x x , y | j ) P ( j ) - - - ( 18 )
式中P(xx,y|i)是在目标i区域内坐标x,y处的象素值在目标i颜色直方图中的概率,通过式(18)可得到在目标i区域中某象素在遮挡目标组I中属于目标i的概率,求得的值越大说明该象素在目标组I中属于原目标i概率越大,也即象素未被遮挡的可能性越大,值越低则越可能属于遮挡部分或目标组中其他目标。
CN2007100356355A 2007-08-28 2007-08-28 一种复杂场景中的运动目标检测与跟踪方法 Expired - Fee Related CN101141633B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2007100356355A CN101141633B (zh) 2007-08-28 2007-08-28 一种复杂场景中的运动目标检测与跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2007100356355A CN101141633B (zh) 2007-08-28 2007-08-28 一种复杂场景中的运动目标检测与跟踪方法

Publications (2)

Publication Number Publication Date
CN101141633A CN101141633A (zh) 2008-03-12
CN101141633B true CN101141633B (zh) 2011-01-05

Family

ID=39193331

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007100356355A Expired - Fee Related CN101141633B (zh) 2007-08-28 2007-08-28 一种复杂场景中的运动目标检测与跟踪方法

Country Status (1)

Country Link
CN (1) CN101141633B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426179A (zh) * 2012-05-17 2013-12-04 深圳中兴力维技术有限公司 一种基于均值偏移多特征融合的目标跟踪方法及装置
TWI638338B (zh) * 2017-08-31 2018-10-11 元智大學 多場景的移動物體偵測方法及其影像處理裝置

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9782660B2 (en) * 2007-11-30 2017-10-10 Nike, Inc. Athletic training system and method
CN101303732B (zh) * 2008-04-11 2011-06-22 西安交通大学 基于车载单目相机的运动目标感知与告警方法
CN101567088B (zh) * 2008-04-22 2012-01-04 华为技术有限公司 一种运动物体检测的方法和装置
CN101286237B (zh) * 2008-05-22 2010-04-14 重庆大学 基于视觉仿生的运动目标检测方法
JP4507129B2 (ja) * 2008-06-06 2010-07-21 ソニー株式会社 追尾点検出装置および方法、プログラム、並びに記録媒体
US9483864B2 (en) * 2008-12-05 2016-11-01 International Business Machines Corporation System and method for photorealistic imaging using ambient occlusion
CN101764923B (zh) * 2008-12-23 2013-03-27 北京中星微电子有限公司 消除运动检测中的噪声的方法及装置
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
CN101957655B (zh) * 2009-07-17 2013-06-05 深圳泰山在线科技有限公司 一种基于标志点的动作识别方法及终端设备
CN101957997B (zh) * 2009-12-22 2012-02-22 北京航空航天大学 一种动态场景中基于区域均值核密度估计的运动目标检测方法
DE102010003336A1 (de) 2010-03-26 2011-09-29 Robert Bosch Gmbh Verfahren zur Visualisierung von Aktivitätsschwerpunkten in Überwachungsszenen
CN102214359B (zh) * 2010-04-07 2013-02-13 北京智安邦科技有限公司 基于层级式特征匹配的目标跟踪装置
CN101800890B (zh) * 2010-04-08 2013-04-24 北京航空航天大学 一种高速公路监控场景下多车辆视频跟踪方法
US20110255599A1 (en) * 2010-04-15 2011-10-20 Sony Corporation Apparatus and method for motion estimation
CN101833781B (zh) * 2010-04-22 2012-09-05 清华大学 基于几何信息的相似对象隐藏部分自动补全方法
CN102377984A (zh) * 2010-08-09 2012-03-14 纬创资通股份有限公司 监视影像录制方法和监视系统以及计算机程序产品
CN101982825B (zh) * 2010-11-04 2013-01-09 杭州海康威视系统技术有限公司 一种智能交通监控场景下的视频图像处理方法和装置
CN102056192A (zh) * 2010-11-09 2011-05-11 广东石油化工学院 基于核密度估计与非参数置信传播的wsn网内数据融合方法
GB2485390A (en) * 2010-11-12 2012-05-16 Sony Corp Video Surveillance System that Detects Changes by Comparing a Current Image with a Reference Image
CN102243765A (zh) * 2011-05-06 2011-11-16 大连民族学院 基于多相机的多目标定位跟踪方法及系统
CN102289817B (zh) * 2011-07-19 2013-04-17 中国科学院自动化研究所 基于群组上下文的行人计数方法
CN103020982B (zh) * 2011-09-28 2015-08-26 中国航天科工集团第二研究院二〇七所 一种基于跟踪反馈的非参数运动目标检测方法
CN102521580A (zh) * 2011-12-21 2012-06-27 华平信息技术(南昌)有限公司 实时目标匹配跟踪方法及系统
CN102622763A (zh) * 2012-02-21 2012-08-01 芮挺 阴影检测与消除方法
CN103426178B (zh) * 2012-05-17 2017-02-15 深圳中兴力维技术有限公司 一种基于均值偏移的复杂场景下目标跟踪方法及装置
CN103685866B (zh) * 2012-09-05 2016-12-21 杭州海康威视数字技术股份有限公司 视频稳像方法及其装置
CN103679742B (zh) * 2012-09-06 2016-08-03 株式会社理光 对象跟踪方法和装置
CN102883144B (zh) * 2012-09-26 2015-04-22 青岛海信网络科技股份有限公司 视频监控系统及视频监控方法
CN103020987B (zh) * 2012-11-27 2015-12-23 天津艾思科尔科技有限公司 基于多背景模型的快速前景检测方法
CN103065300B (zh) * 2012-12-24 2015-03-25 安科智慧城市技术(中国)有限公司 一种视频标注方法和装置
CN103903246A (zh) * 2012-12-26 2014-07-02 株式会社理光 物体检测方法和装置
CN103903248A (zh) * 2012-12-28 2014-07-02 重庆凯泽科技有限公司 一种基于双目视觉立体跟踪算法
GB201304798D0 (en) * 2013-03-15 2013-05-01 Univ Dundee Medical apparatus visualisation
CN103218827B (zh) * 2013-03-21 2016-03-02 上海交通大学 基于形状传递联合分割和图匹配校正的轮廓跟踪方法
CN103310462B (zh) * 2013-05-22 2016-07-06 成都信通易安科技有限公司 一种基于联合特征模型的多人体跟踪方法
CN103268478B (zh) * 2013-05-23 2016-01-06 西安科技大学 一种基于历史像素集匹配度的遗留物快速检测方法
CN103440667B (zh) * 2013-07-19 2016-08-10 杭州师范大学 一种遮挡状态下运动目标稳定追踪的自动装置
CN103440626B (zh) * 2013-08-16 2016-10-19 北京智谷睿拓技术服务有限公司 照明方法和照明系统
CN103500455B (zh) * 2013-10-15 2016-05-11 北京航空航天大学 一种基于无偏有限冲击响应滤波器(ufir)的改进机动目标跟踪方法
CN103559723B (zh) * 2013-10-17 2016-04-20 同济大学 一种基于自适应核函数和均值移位的人体跟踪方法
CN104657776B (zh) * 2013-11-22 2018-06-05 华为技术有限公司 神经网络系统、基于神经网络系统的图像解析方法和装置
CN103729620B (zh) * 2013-12-12 2017-11-03 北京大学 一种基于多视角贝叶斯网络的多视角行人检测方法
CN103729462B (zh) * 2014-01-13 2016-09-14 武汉大学 一种基于稀疏表示处理遮挡的行人检索方法
CN104121902B (zh) * 2014-06-28 2017-01-25 福州大学 基于Xtion摄像机的室内机器人视觉里程计实现方法
CN105243654B (zh) * 2014-07-09 2019-10-01 北京航空航天大学 一种多飞机跟踪方法及系统
CN104182609B (zh) * 2014-07-17 2017-06-06 电子科技大学 基于去相关的无偏转换量测的三维目标跟踪方法
CN104268851A (zh) * 2014-09-05 2015-01-07 浙江捷尚视觉科技股份有限公司 一种基于深度信息的atm自助营业厅行为分析方法
CN104298970B (zh) 2014-09-26 2017-10-27 博奥生物集团有限公司 一种基于颜色特征的摄像头识别和检测方法
CN104266673B (zh) 2014-09-26 2016-06-08 博奥生物集团有限公司 一种利用摄像头识别反应单元种类的方法
CN104614733B (zh) * 2015-01-30 2015-12-09 福州华鹰重工机械有限公司 一种动态障碍物检测方法
CN104751490B (zh) * 2015-04-09 2018-04-17 阔地教育科技有限公司 一种基于在线课堂的目标锁定方法及装置
CN104881882A (zh) * 2015-04-17 2015-09-02 广西科技大学 一种运动目标跟踪与检测方法
CN104751492B (zh) * 2015-04-17 2017-10-27 中国科学院自动化研究所 基于动态耦合条件随机场的目标区域跟踪方法
CN104766341B (zh) * 2015-05-04 2018-01-12 福建师范大学 一种基于dsm和核密度估计的遥感影像建筑物变化检测方法
CN104872025B (zh) * 2015-06-08 2017-04-12 广东省农业科学院畜牧研究所 一种鱼缸鱼类活动轨迹记录方法
CN104951758B (zh) * 2015-06-11 2018-07-13 大连理工大学 市区环境下基于视觉的车载行人检测与跟踪方法及系统
CN105243355A (zh) * 2015-09-09 2016-01-13 大连理工大学 一种基于事件驱动的煤层气井站异常场景远程无线安全监测方法
CN105184824B (zh) * 2015-09-30 2018-09-11 重庆师范大学 基于图像传感网的智能农业驱鸟系统
CN105488811B (zh) * 2015-11-23 2018-06-12 华中科技大学 一种基于深度梯度的目标跟踪方法与系统
CN105761504B (zh) * 2016-05-17 2018-02-09 重庆大学 基于非均匀视频图像帧采集的车速实时测量方法
CN106056626B (zh) * 2016-05-26 2018-10-23 河海大学 一种基于前景背景模型交互的运动目标检测方法
CN106096508B (zh) * 2016-05-30 2019-09-13 无锡天脉聚源传媒科技有限公司 一种图像中确定目标遮掩的方法及装置
JP6776719B2 (ja) * 2016-08-17 2020-10-28 富士通株式会社 移動体群検出プログラム、移動体群検出装置、及び移動体群検出方法
CN106920253A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种基于遮挡分层的多目标跟踪方法
CN107330410B (zh) * 2017-07-03 2020-06-30 南京工程学院 复杂环境下基于深度学习的异常检测方法
CN107292916B (zh) * 2017-08-08 2020-10-27 阔地教育科技有限公司 目标关联方法、存储设备、直录播互动终端
CN107657639A (zh) * 2017-08-09 2018-02-02 武汉高德智感科技有限公司 一种快速定位目标的方法和装置
CN107507225B (zh) * 2017-09-05 2020-10-27 明见(厦门)技术有限公司 运动目标检测方法、装置、介质及计算设备
CN109521419B (zh) * 2017-09-20 2021-07-20 比亚迪股份有限公司 基于车辆雷达的目标跟踪方法和装置
CN107992827A (zh) * 2017-12-03 2018-05-04 湖南工程学院 一种基于三维模型的多运动目标跟踪的方法及装置
CN108062763B (zh) * 2017-12-29 2020-10-16 纳恩博(北京)科技有限公司 目标跟踪方法及装置、存储介质
CN110059521B (zh) * 2018-01-18 2022-05-13 浙江宇视科技有限公司 目标跟踪方法及装置
CN108764951B (zh) * 2018-03-23 2021-01-12 广州杰赛科技股份有限公司 用户相似度获得方法和装置、设备、存储介质
CN108592869B (zh) * 2018-04-18 2021-03-23 山东富友慧明测控设备有限公司 一种高支模超载监测方法及装置
CN108876806A (zh) * 2018-05-07 2018-11-23 广东省电信规划设计院有限公司 基于大数据分析的目标跟踪方法和系统、存储介质及设备
CN109035295B (zh) * 2018-06-25 2021-01-12 广州杰赛科技股份有限公司 多目标跟踪方法、装置、计算机设备和存储介质
WO2020024210A1 (zh) * 2018-08-02 2020-02-06 深圳大学 集成核密度估计器窗口参数优化方法、装置及终端设备
CN109215058A (zh) * 2018-09-17 2019-01-15 北京云测信息技术有限公司 一种用于图像识别人脸跟踪的标注方法
CN109816690A (zh) * 2018-12-25 2019-05-28 北京飞搜科技有限公司 基于深度特征的多目标追踪方法及系统
CN109859149B (zh) * 2019-01-25 2023-08-08 成都泰盟软件有限公司 一种设定目标查找区域小动物运动跟踪方法
CN109816699B (zh) * 2019-01-30 2021-07-27 国网智能科技股份有限公司 一种基于背景抑制帧间差分法的云台角度计算方法
CN110992305A (zh) * 2019-10-31 2020-04-10 中山大学 基于深度学习和多目标跟踪技术的包裹计数方法及系统
CN111192296A (zh) * 2019-12-30 2020-05-22 长沙品先信息技术有限公司 一种基于视频监控的行人多目标检测与跟踪方法
WO2021189448A1 (zh) * 2020-03-27 2021-09-30 深圳市大疆创新科技有限公司 目标跟踪方法、目标跟踪装置、可移动平台和存储介质
CN111476815B (zh) * 2020-04-03 2022-05-17 浙江大学 基于运动区域颜色概率的运动目标检测方法
CN112116634B (zh) * 2020-07-30 2024-05-07 西安交通大学 一种半在线机置的多目标跟踪方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1564600A (zh) * 2004-04-22 2005-01-12 上海交通大学 动态场景下的运动物体检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1564600A (zh) * 2004-04-22 2005-01-12 上海交通大学 动态场景下的运动物体检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Anurag Mittal,et al.Motion-Based Background Subtraction using Adaptive Kernel Density Estimation.Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’04).2004,文献第2页右栏至第7页右栏. *
万琴.实时视频中多运动目标检测与跟踪研究.硕士学位论文.2006,文献第18页至第23页,第52页至第58页,第67页至第71页. *
万琴等.一种多运动目标检测、跟踪方法研究与实现.计算机应用研究.2007,(1),全文. *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426179A (zh) * 2012-05-17 2013-12-04 深圳中兴力维技术有限公司 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN103426179B (zh) * 2012-05-17 2016-12-14 深圳中兴力维技术有限公司 一种基于均值偏移多特征融合的目标跟踪方法及装置
TWI638338B (zh) * 2017-08-31 2018-10-11 元智大學 多場景的移動物體偵測方法及其影像處理裝置

Also Published As

Publication number Publication date
CN101141633A (zh) 2008-03-12

Similar Documents

Publication Publication Date Title
CN101141633B (zh) 一种复杂场景中的运动目标检测与跟踪方法
WO2019101220A1 (zh) 基于深度学习网络和均值漂移的船只自动跟踪方法及系统
CN101120382B (zh) 跟踪用相机获得的场景视频中的移动物体的方法
US20090309966A1 (en) Method of detecting moving objects
CN104378582A (zh) 一种基于ptz摄像机巡航的智能视频分析系统及方法
Bloisi et al. Argos—A video surveillance system for boat traffic monitoring in Venice
CN104134222A (zh) 基于多特征融合的车流监控图像检测和跟踪系统及方法
CN115995063A (zh) 作业车辆检测与跟踪方法和系统
Rodríguez et al. An adaptive, real-time, traffic monitoring system
CN109919053A (zh) 一种基于监控视频的深度学习车辆停车检测方法
CN104966304A (zh) 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法
CN111881749B (zh) 基于rgb-d多模态数据的双向人流量统计方法
CN104680559A (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN110688884B (zh) 客流统计方法及装置
CN105321189A (zh) 基于连续自适应均值漂移多特征融合的复杂环境目标跟踪方法
CN102111530A (zh) 移动物体检测装置与方法
Arya et al. Real-time vehicle detection and tracking
CN114463390A (zh) 耦合车队跟驰强化的多孪生对抗网络跨相机车辆追踪方法
CN114693909A (zh) 一种基于多传感器机器视觉融合的微观车辆轨迹感知设备
Xia et al. Automatic multi-vehicle tracking using video cameras: An improved CAMShift approach
CN117636268A (zh) 一种面向冰雪环境的无人机航拍自然驾驶数据集构建方法
Liu et al. Video monitoring of Landslide based on background subtraction with Gaussian mixture model algorithm
Dave et al. Statistical survey on object detection and tracking methodologies
Parsola et al. Automated system for road extraction and traffic volume estimation for traffic jam detection
CN110322474B (zh) 一种基于无人机平台的图像动目标实时检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110105

Termination date: 20200828

CF01 Termination of patent right due to non-payment of annual fee