CN104751492A - 基于动态耦合条件随机场的目标区域跟踪方法 - Google Patents
基于动态耦合条件随机场的目标区域跟踪方法 Download PDFInfo
- Publication number
- CN104751492A CN104751492A CN201510182218.8A CN201510182218A CN104751492A CN 104751492 A CN104751492 A CN 104751492A CN 201510182218 A CN201510182218 A CN 201510182218A CN 104751492 A CN104751492 A CN 104751492A
- Authority
- CN
- China
- Prior art keywords
- tracking
- energy
- target area
- pixel
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000008878 coupling Effects 0.000 title claims abstract description 43
- 238000010168 coupling process Methods 0.000 title claims abstract description 43
- 238000005859 coupling reaction Methods 0.000 title claims abstract description 43
- 230000003287 optical effect Effects 0.000 claims abstract description 34
- 230000006870 function Effects 0.000 claims abstract description 23
- 239000000203 mixture Substances 0.000 claims abstract description 9
- 230000011218 segmentation Effects 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 7
- 238000009499 grossing Methods 0.000 claims description 4
- 238000011524 similarity measure Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 6
- 239000003086 colorant Substances 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 10
- 238000001914 filtration Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种基于动态耦合条件随机场的目标区域跟踪方法,包括:提取待跟踪目标区域的密集光流信息和像素颜色信息,建立光流和颜色的混合高斯模型,获得待跟踪目标区域的运动和外观模型;建立分别对应于跟踪和分割的动态条件随机场并进行耦合从而得到动态耦合条件随机场,获取观测特征并结合图像序列中的时空上下文信息,建立图模型的能量函数;进行图模型参数学习,通过求解动态耦合条件随机场的最小化能量函数并进行匹配确定当前的目标区域。本发明所述目标区域跟踪方法具有较高的准确性和鲁棒性,可应用于智能视频监控领域。
Description
技术领域
本发明属于智能视频监控领域,尤其涉及基于动态耦合条件随机场的目标区域跟踪方法。
背景技术
智能视频监控是一种重要的信息采集手段,而目标跟踪是智能视频监控中的一个挑战性问题。根据不同的应用需求,跟踪具有多种形式,例如静止或运动摄像机、自动或人工初始化、单目标或多目标等,每种形式都已经出现了大量研究成果。从跟踪结果的角度,跟踪问题主要表现为两种层面:轨迹层面和区域层面。轨迹层面的跟踪只需要获得目标的轨迹(即每帧图像中目标的中心位置),不需要确定目标的具体区域。区域层面的跟踪不仅要对目标进行连续定位,还要尽可能精确地确定目标所在区域,需要对目标区域进行分割。两者相比,区域层面的跟踪有利于精确地定位目标和测量目标的几何和运动属性,但是它的实现难度要远大于轨迹层面的跟踪。本发明针对区域层面的跟踪,侧重于单台静止摄像机下的多目标跟踪,并且考虑环境中的运动阴影、光照变化、目标遮挡等不利因素。
一种传统的区域层面的跟踪思路是将前景分割和目标跟踪作为两个问题分别进行处理(即先检测后跟踪):先做前景分割,再从分割得到的前景区域提取特征,然后利用这些特征做目标跟踪。这种处理思路的主要缺点是前景分割的错误总是向后传播,导致目标跟踪的错误。实际上,前景分割和目标跟踪是密切相关的:一方面,前景分割的结果直接决定特征提取的准确性,进一步影响目标跟踪的性能;另一方面,区域层面的跟踪结果(目标区域的序列)又可以提供自顶向下前景分割的提示信息。因此,同时进行前景分割和目标跟踪,利用二者之间的相关性,实现双向信息流动,可以提高目标跟踪的性能。
周杰等人于2008年在Pattern Recognition上发表的论文“Trackingmultiple objects through occlusion with online sampling and positionestimation”,在前景分割的基础上,利用局部块的颜色和位置特征,将相互遮挡的目标分割为具体区域;该方法属于传统的区域层面的跟踪方法,另外在分割目标时没有考虑相邻局部块的相关性。Bugeau等人于2008年在EURASIP Journal on Image and Video Processing上发表的论文“Trackand cut:Simultaneous tracking and segmentation of multiple objects withgraph cuts”,利用目标的颜色、运动等特征,在候选观测的基础上,通过最小化能量函数(考虑像素的空间相关性),同时进行目标的分割和跟踪;但是该方法需要首先获得前景区域作为目标的候选观测,并且没有考虑运动阴影等干扰,前景分割的错误很容易传播到目标跟踪阶段。Papadakis等人于2011年在IEEE Transactions on Pattern Analysis and MachineIntelligence上发表的论文“Tracking with occlusions via graph cuts”,通过预测目标的可见和被遮挡部分,提出了一种新的遮挡表示和管理方法,对多目标的出现、消失和遮挡情形实现了有效建模,并通过图割优化过程分割得到目标区域;但是该方法没有考虑阴影干扰。Khatoonabadi等人于2013年在IEEE Transactions on Image Processing上发表的论文“Videoobject tracking in the compressed domain using spatio-temporal Markovrandom fields”,在H.264/AVC压缩视频中跟踪运动目标,根据压缩码流中的运动矢量和块编码模式,建立时空马尔科夫随机场模型,实现被跟踪目标的块分割;该方法以块为单位、仅利用块运动矢量特征进行目标分割和跟踪,在复杂环境下很难获得准确的目标区域。Aeschliman等人于2010年在IEEE Conference on Computer Vision and Pattern Recognition上发表的论文“A probabilistic framework for joint segmentation and tracking”,提出了一种概率框架,通过贝叶斯推理,联合考虑目标的分割和跟踪,提高了多目标跟踪的鲁棒性;但是该方法在分割目标时没有利用像素的空间相关性,得到的目标区域含有大量的孔洞和断裂,另外还没有考虑运动阴影等干扰,在实验中将阴影误判成目标的一部分。David Tsai等人于2012年在International Journal of Computer Vision上发表的论文“Motion coherenttracking using multi-label MRF optimization”,提出了一种多标记马尔科夫随机场模型,能量函数融合了分割和运动估计,通过Fast-PD推理实现离线的目标分割与跟踪;但是该方法只能跟踪单个目标,并且输出结果有一定延迟。
从技术发展现状可知,视频监控场合下的目标区域跟踪仍然是一个尚未解决的问题。目标区域跟踪面临着许多困难:环境光照情况复杂,存在运动阴影、亮区等干扰,影响目标分割的准确性;目标(尤其是行人)的尺寸、形状、颜色等外观特征在图像序列中经常缓慢甚至快速地变化;目标可能发生遮挡。已有的目标区域跟踪方法尚不能很好地处理这些困难情况。为了实现更有效的目标区域跟踪,本发明提出一种基于动态耦合条件随机场的目标区域跟踪方法,在提取强鲁棒性图像特征的基础上,利用图像序列中的时空上下文信息,特别是利用前景分割和目标跟踪的相关性,优化目标区域的分割和跟踪。
发明内容
本发明提供一种基于动态耦合条件随机场(Dynamic CoupledConditional Random Field)的目标区域跟踪方法,以实现更为准确的目标区域跟踪。
本发明提供一种基于动态耦合条件随机场的目标区域跟踪方法,包括:
提取待跟踪目标区域的密集光流信息和像素颜色信息,建立光流和颜色的混合高斯模型,获得待跟踪目标区域的运动和外观模型;
建立分别对应于跟踪和分割的动态条件随机场并进行耦合从而得到动态耦合条件随机场,获取观测特征并结合图像序列中的时空上下文信息,建立图模型的能量函数;
进行图模型参数学习,通过求解动态耦合条件随机场的最小化能量函数并进行匹配确定目标区域。
本发明的有益效果为:
首先,利用概率图模型的结构化建模和推理能力,特别是利用前景分割和目标跟踪的相关性,提出一种新的目标区域跟踪方法,克服了传统方法存在的误差向后传播问题;其次,融合利用多特征和时空上下文信息,提出的跟踪方法在复杂光照条件和遮挡情况下有较强的鲁棒性;再次,无需对被跟踪目标的类别进行指定,可以跟踪车辆、行人等感兴趣目标,扩大了应用范围。综上所述,本发明的目标区域跟踪方法具有较高的准确性和鲁棒性,在智能视频监控领域具有显著的应用价值。
附图说明
图1为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一的计算流程图;
图2为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一中密集光流提取的示意图;
图3为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一中耦合条件随机场的模型结构图;
图4为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一中动态耦合条件随机场的模型结构图;
图5为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一中利用光流信息将像素反向投影到前一帧图像得到对应像素的示意图;
图6为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一中高斯背景减除的结果示意图;
图7为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一中第一个应用例目标区域跟踪结果示意图;
图8为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一中第二个应用例目标区域跟踪结果示意图;
图9为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一中第三个应用例目标区域跟踪结果示意图;
图中,图6a为背景图像,图6b为当前图像,图6c为前景检测结果;图7a、图7b、图7c、图7d为4帧图像,深色和浅灰色区域为目标区域跟踪结果示意图;图8a、图8b、图8c、图8d为4帧图像,深色和浅灰色区域为目标区域跟踪结果。
具体实施方式
图1为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一的计算流程图,如图1所示,本发明基于动态耦合条件随机场的目标区域跟踪方法,包括:
S1、提取待跟踪目标区域的密集光流信息和像素颜色信息,建立光流和颜色的混合高斯模型,获得待跟踪目标区域的运动和外观模型;
优选的,所述提取待跟踪目标区域的密集光流信息和像素颜色信息,建立光流和颜色的混合高斯模型,获得待跟踪目标区域的运动和外观模型包括:
S11、从输入视频中读取每帧图像,在第一帧图像中手工标记待跟踪目标区域;
S12、利用当前帧和前一帧图像,计算并提取待跟踪目标区域的密集光流,再对所述密集光流进行噪声滤除的步骤,具体可以在3×3空间邻域内进行中值滤波,图2为本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一中密集光流提取的示意图,图2a和图2b为相邻的两帧图像,图2c和图2d分别表示x和y方向的密集光流,如图2c和图2d所示,最后利用混合高斯模型进行建模,获得待跟踪目标区域的运动模型;
S13、提取待跟踪目标区域的颜色信息,利用混合高斯模型进行建模,获得待跟踪目标区域的外观模型;
在本发明实施例中,利用5个高斯分布建立混合高斯模型,通过k-均值聚类方法来学习混合高斯模型的参数,包括每个高斯分布的均值、方差和权重,并结合待跟踪目标区域的密集光流和颜色信息的混合高斯模型,获得目标区域的运动和外观模型;
S2、建立分别对应于跟踪和分割的动态条件随机场并进行耦合从而得到动态耦合条件随机场,获取观测特征并结合图像序列中的时空上下文信息,建立图模型的能量函数;
优选的,所述建立分别对应于跟踪和分割的动态条件随机场并进行耦合从而得到动态耦合条件随机场,获取观测特征并结合图像序列中的时空上下文信息,建立图模型的能量函数包括:
S21、建立分别对应于跟踪和分割的动态条件随机场;对于大小为Wt×Ht的目标,建立具有相同尺寸的分别对应于跟踪和分割的动态条件随机场,其中Wt和Ht分别表示目标在t时刻的宽度和高度。
S22、利用两个随机场之间的边表示兼容关系(也即前景像素属于目标,目标像素属于前景),建立耦合条件随机场,如图3所示,这样可以保证跟踪和分割的一致性;然后在时间域延伸,建立完整的动态耦合条件随机场,如图4所示;
S23、通过对像素的反向投影、高斯背景减除、密集光流和颜色提取获取多种观测特征,并结合图像序列中的时空上下文信息,建立图模型的能量函数,所述图模型的节点对应图像中的各个像素,所述图模型中的边表示节点之间的依赖关系;
优选的,所述通过对像素的反向投影、高斯背景减除、密集光流和颜色提取获取多种观测特征,并结合图像序列中的时空上下文信息,建立图模型的能量函数包括:
S231、计算当前帧搜索区域的密集光流,利用密集光流将像素反向投影到前一帧图像得到对应像素,计算相邻帧之间的时间连续性能量项R,如图5所示;对于当前帧的像素i,其位置为(xi,yi),标记为利用该像素的光流将其反向投影得到它在前一帧图像中的对应像素i′,位置为(xi′,yi′),像素标记为则像素i的能量项U(i)可用下式表示:
其中,|·|表示求绝对值运算,δ(·)是克罗内克函数,Mi′为像素i′的四邻域,l为目标标记;
S232、利用高斯背景减除,如图6所示,计算统计意义的时间连续性能量项B;对于当前帧的像素i,能量项B(i)可用下式表示:
(2)
其中,g(i)表示是否为前景像素;
S233、综合计算U和B能量项的加权和作为跟踪过程的时间连续性能量项;
S234、利用空间中相邻像素取值的一致性,计算跟踪过程的局部平滑能量项;对于当前帧的像素i,给定观测下的局部平滑能量项可用下式表示:
其中,θη是能量项的权重,dist(i,j)是像素i和j的欧式距离。如果则该项能量为零,否则能量为正;
S235、计算并提取当前帧搜索区域的密集光流及颜色信息,对所述光流进行噪声滤除,具体可以在3×3空间邻域内进行中值滤波,再利用步骤所述待跟踪目标区域的运动和外观模型,计算分割过程的全局相似性能量项;对于当前帧的像素i,给定观测下的全局相似性能量项可用下式表示:
其中,和分别为给定像素颜色和光流信息,其属于目标的概率,θp和ωp为权重;
S236、利用目标像素之间外观的一致性,计算分割过程的局部平滑能量项;对于当前帧的像素i,给定观测下的局部平滑能量项可用下式表示:
其中,θτ是该能量项的权重。参数从图像中自动计算得到,〈·〉表示计算在当前帧图像的期望。如果则该项能量为零,否则能量为正。
S237、为了保证跟踪和分割的一致性,计算跟踪和分割过程的兼容关系能量项;对于当前帧的像素i,给定观测下的兼容关系能量项可用下式表示:
其中,θγ为该能量项的权重;如果则该项能量为零,否则能量为正;
S3、进行图模型参数学习,通过求解动态耦合条件随机场的最小化能量函数并进行匹配确定目标区域。
优选的,所述进行图模型参数学习,通过求解动态耦合条件随机场的最小化能量函数并进行匹配确定当前的目标区域包括:
S31、通过分段训练方法,针对每个能量项分别独立地学习得到图模型的参数;
S32、通过环状置信传播算法进行图模型推理,求得动态耦合条件随机场的最小化能量函数的跟踪问题的解;
S33、分别建立跟踪和分割过程的输出结果的直方图,将输出结果的直方图与待跟踪目标初始的直方图进行匹配,选择最优匹配为目标区域;
需要说明的是,在本发明所述目标区域跟踪方法实施例一中,相邻两次消息传递节点的信息变化小于10-4时,算法达到收敛。
应用本发明基于动态耦合条件随机场的目标区域跟踪方法实施例一的三个应用例跟踪结果如图7、图8和图9所示,图8和图9中,深色和浅灰色区域为目标区域跟踪结果;图7中,不同的车辆分别被标记为深色和浅灰色,图8中,车辆与行人发生了交互,产生了遮挡,其中,车辆和行人的区域分别被正确地标记为深色和浅灰色;图9中,左侧图像为原始图像,右侧为跟踪结果,两个行人的跟踪结果分别标记为深色和浅色区域;
本发明基于动态耦合条件随机场的目标区域跟踪方法,利用概率图模型的结构化建模和推理能力,特别是利用前景分割和目标跟踪的相关性,提出一种新的目标区域跟踪方法,克服了传统方法存在的误差向后传播问题;并融合利用多特征和时空上下文信息,提出的跟踪方法在复杂光照条件和遮挡情况下有较强的鲁棒性;且无需对被跟踪目标的类别进行指定,可以跟踪车辆、行人等感兴趣目标,扩大了应用范围。综上所述,本发明所述目标区域跟踪方法具有较高的准确性和鲁棒性,在智能视频监控领域具有显著的应用价值。综上所述,本发明所述目标区域跟踪方法具有较高的鲁棒性,克服了传统跟踪方法存在的误差向后传播问题,提高了跟踪准确性,精度高、泛化好,可应用于智能视频监控领域。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (5)
1.一种基于动态耦合条件随机场的目标区域跟踪方法,其特征在于,包括:
提取待跟踪目标区域的密集光流信息和像素颜色信息,建立光流和颜色的混合高斯模型,获得待跟踪目标区域的运动和外观模型;
建立分别对应于跟踪和分割的动态条件随机场并进行耦合从而得到动态耦合条件随机场,获取观测特征并结合图像序列中的时空上下文信息,建立图模型的能量函数;
进行图模型参数学习,通过求解动态耦合条件随机场的最小化能量函数并进行匹配确定目标区域。
2.根据权利要求1所述的基于动态耦合条件随机场的目标区域跟踪方法,其特征在于,所述提取待跟踪目标区域的密集光流信息和像素颜色信息,建立光流和颜色的混合高斯模型,获得待跟踪目标区域的运动和外观模型包括:
从输入视频中读取每帧图像,在第一帧图像中手工标记待跟踪目标区域;
利用当前帧和前一帧图像,计算并提取待跟踪目标区域的密集光流,利用混合高斯模型进行建模,获得待跟踪目标区域的运动模型;
提取待跟踪目标区域的颜色信息,利用混合高斯模型进行建模,获得待跟踪目标区域的外观模型。
3.根据权利要求1所述的基于动态耦合条件随机场的目标区域跟踪方法,其特征在于,所述建立分别对应于跟踪和分割的动态条件随机场并进行耦合从而得到动态耦合条件随机场,获取观测特征并结合图像序列中的时空上下文信息,建立图模型的能量函数包括:
建立分别对应于跟踪和分割的动态条件随机场;
利用两个随机场之间的边表示兼容关系,建立耦合条件随机场,然后在时间域延伸,建立完整的动态耦合条件随机场;
通过对像素的反向投影、高斯背景减除、密集光流和颜色提取获取多种观测特征,并结合图像序列中的时空上下文信息,建立图模型的能量函数,所述图模型的节点对应图像中的各个像素,所述图模型中的边表示节点之间的依赖关系。
4.根据权利要求3所述的基于动态耦合条件随机场的目标区域跟踪方法,其特征在于,所述通过对像素的反向投影、高斯背景减除、密集光流和颜色提取获取多种观测特征,并结合图像序列中的时空上下文信息,建立图模型的能量函数包括:
计算当前帧搜索区域的密集光流,利用密集光流将像素反向投影到前一帧图像得到对应像素,计算相邻帧之间的时间连续性能量项R;对于当前帧的像素i,其位置为(xi,yi),标记为利用该像素的光流将其反向投影得到它在前一帧图像中的对应像素i′,位置为(xi′,yi′),像素标记为则像素i的能量项U(i)可用下式表示:
其中,|·|表示求绝对值运算,δ(·)是克罗内克函数,Mi′为像素i′的四邻域,l为目标标记;
利用高斯背景减除,计算统计意义的时间连续性能量项B;对于当前帧的像素i,能量项B(i)可用下式表示:
其中,g(i)表示是否为前景像素;
综合计算所述能量项U和B的加权和作为跟踪过程的时间连续性能量项;
利用空间中相邻像素取值的一致性,计算跟踪过程的局部平滑能量项;对于当前帧的像素i,给定观测下的局部平滑能量项可用下式表示:
其中,θη是能量项的权重,dist(i,j)是像素i和j的欧式距离,如果则该项能量为零,否则能量为正;
计算并提取当前帧搜索区域的密集光流及颜色信息,利用所述待跟踪目标的运动模型和外观模型,计算分割过程的全局相似性能量项;对于当前帧的像素i,给定观测下的全局相似性能量项可用下式表示:
其中,和分别为给定像素颜色和光流信息时,其属于目标的概率,θρ和ωρ为权重;
利用目标像素之间外观的一致性,计算分割过程的局部平滑能量项;对于当前帧的像素i,给定观测下的局部平滑能量项可用下式表示:
其中,θτ是该能量项的权重,参数从图像中自动计算得到,<·>表示计算在当前帧图像的期望,如果则该项能量为零,否则能量为正。
计算跟踪和分割过程的兼容关系能量项;对于当前帧的像素i,给定观测下的兼容关系能量项可用下式表示:
其中,是该能量项的权重,θγ为该能量项的权重;如果则该项能量为零,否则能量为正。
5.根据权利要求1所述的基于动态耦合条件随机场的目标区域跟踪方法,其特征在于,所述进行图模型参数学习,通过求解动态耦合条件随机场的最小化能量函数并进行匹配确定目标区域包括:
通过分段训练方法,针对每个能量项分别独立地学习得到图模型的参数;
通过环状置信传播算法进行图模型推理,求得动态耦合条件随机场的最小化能量函数的跟踪问题的解;
分别建立跟踪和分割过程的输出结果的直方图,将输出结果的直方图与待跟踪目标初始的直方图进行匹配,选择最优匹配为目标区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510182218.8A CN104751492B (zh) | 2015-04-17 | 2015-04-17 | 基于动态耦合条件随机场的目标区域跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510182218.8A CN104751492B (zh) | 2015-04-17 | 2015-04-17 | 基于动态耦合条件随机场的目标区域跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104751492A true CN104751492A (zh) | 2015-07-01 |
CN104751492B CN104751492B (zh) | 2017-10-27 |
Family
ID=53591111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510182218.8A Expired - Fee Related CN104751492B (zh) | 2015-04-17 | 2015-04-17 | 基于动态耦合条件随机场的目标区域跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104751492B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105719297A (zh) * | 2016-01-21 | 2016-06-29 | 中国科学院深圳先进技术研究院 | 基于视频的物体切割方法及装置 |
CN107122735A (zh) * | 2017-04-26 | 2017-09-01 | 中山大学 | 一种基于深度学习和条件随机场的多目标跟踪方法 |
CN107944350A (zh) * | 2017-11-07 | 2018-04-20 | 浙江大学 | 一种基于外观和几何信息融合的单目视觉道路识别算法 |
CN107992899A (zh) * | 2017-12-15 | 2018-05-04 | 四川大学 | 一种机场场面运动目标检测识别方法 |
CN110827327A (zh) * | 2018-08-13 | 2020-02-21 | 中国科学院长春光学精密机械与物理研究所 | 一种基于融合的长期目标跟踪方法 |
CN110929620A (zh) * | 2019-11-15 | 2020-03-27 | 浙江大华技术股份有限公司 | 目标跟踪方法、装置及存储装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101141633A (zh) * | 2007-08-28 | 2008-03-12 | 湖南大学 | 一种复杂场景中的运动目标检测与跟踪方法 |
US20080170751A1 (en) * | 2005-02-04 | 2008-07-17 | Bangjun Lei | Identifying Spurious Regions In A Video Frame |
CN101399969A (zh) * | 2007-09-28 | 2009-04-01 | 三星电子株式会社 | 基于运动相机的运动目标检测与跟踪的系统、设备和方法 |
EP2175421A1 (en) * | 2008-10-13 | 2010-04-14 | Thomson Licensing | Device and method for tracking an object in a sequence of frames |
EP2639767A1 (en) * | 2012-03-12 | 2013-09-18 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | A method of interrelating shared object information in multiple images, an image processing system and a computer program product |
-
2015
- 2015-04-17 CN CN201510182218.8A patent/CN104751492B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080170751A1 (en) * | 2005-02-04 | 2008-07-17 | Bangjun Lei | Identifying Spurious Regions In A Video Frame |
CN101141633A (zh) * | 2007-08-28 | 2008-03-12 | 湖南大学 | 一种复杂场景中的运动目标检测与跟踪方法 |
CN101399969A (zh) * | 2007-09-28 | 2009-04-01 | 三星电子株式会社 | 基于运动相机的运动目标检测与跟踪的系统、设备和方法 |
EP2175421A1 (en) * | 2008-10-13 | 2010-04-14 | Thomson Licensing | Device and method for tracking an object in a sequence of frames |
EP2639767A1 (en) * | 2012-03-12 | 2013-09-18 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | A method of interrelating shared object information in multiple images, an image processing system and a computer program product |
Non-Patent Citations (4)
Title |
---|
L ZHU等: "Tracking multiple objects through occlusion with online sampling and position estimation", 《PATTERN RECOGNITION》 * |
S KHATOONABADI等: "Video Object Tracking in the Compressed Domain Using Spatio-Temporal Markov Random Fields", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
Y WANG等: "A dynamic conditional random field model for foreground and shadow segmentation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
YUQIANG LIU等: "Visual Vehicle Tracking Based on Conditional Random Fields", 《IEEE 17TH INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC)》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105719297A (zh) * | 2016-01-21 | 2016-06-29 | 中国科学院深圳先进技术研究院 | 基于视频的物体切割方法及装置 |
CN107122735A (zh) * | 2017-04-26 | 2017-09-01 | 中山大学 | 一种基于深度学习和条件随机场的多目标跟踪方法 |
CN107122735B (zh) * | 2017-04-26 | 2020-07-14 | 中山大学 | 一种基于深度学习和条件随机场的多目标跟踪方法 |
CN107944350A (zh) * | 2017-11-07 | 2018-04-20 | 浙江大学 | 一种基于外观和几何信息融合的单目视觉道路识别算法 |
CN107944350B (zh) * | 2017-11-07 | 2020-09-01 | 浙江大学 | 一种基于外观和几何信息融合的单目视觉道路识别方法 |
CN107992899A (zh) * | 2017-12-15 | 2018-05-04 | 四川大学 | 一种机场场面运动目标检测识别方法 |
CN110827327A (zh) * | 2018-08-13 | 2020-02-21 | 中国科学院长春光学精密机械与物理研究所 | 一种基于融合的长期目标跟踪方法 |
CN110827327B (zh) * | 2018-08-13 | 2023-04-18 | 中国科学院长春光学精密机械与物理研究所 | 一种基于融合的长期目标跟踪方法 |
CN110929620A (zh) * | 2019-11-15 | 2020-03-27 | 浙江大华技术股份有限公司 | 目标跟踪方法、装置及存储装置 |
CN110929620B (zh) * | 2019-11-15 | 2023-04-07 | 浙江大华技术股份有限公司 | 目标跟踪方法、装置及存储装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104751492B (zh) | 2017-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tang et al. | Multiple people tracking by lifted multicut and person re-identification | |
CN104751492B (zh) | 基于动态耦合条件随机场的目标区域跟踪方法 | |
Luiten et al. | Track to reconstruct and reconstruct to track | |
Tang et al. | Single-camera and inter-camera vehicle tracking and 3D speed estimation based on fusion of visual and semantic features | |
Ošep et al. | Track, then decide: Category-agnostic vision-based multi-object tracking | |
Milan et al. | Joint tracking and segmentation of multiple targets | |
CN103325112B (zh) | 动态场景中运动目标快速检测方法 | |
Zhou et al. | Efficient road detection and tracking for unmanned aerial vehicle | |
Yun et al. | Scene conditional background update for moving object detection in a moving camera | |
Shi et al. | High-accuracy stereo matching based on adaptive ground control points | |
US9129379B2 (en) | Method and apparatus for bilayer image segmentation | |
Rout | A survey on object detection and tracking algorithms | |
Košecka | Detecting changes in images of street scenes | |
Pinto et al. | Visual motion perception for mobile robots through dense optical flow fields | |
Kachach et al. | Hybrid three-dimensional and support vector machine approach for automatic vehicle tracking and classification using a single camera | |
Subudhi et al. | Moving object detection using spatio-temporal multilayer compound Markov Random Field and histogram thresholding based change detection | |
Roy et al. | A comprehensive survey on computer vision based approaches for moving object detection | |
Yang et al. | Image segmentation and proto-objects detection based visual tracking | |
Minematsu et al. | Evaluation of foreground detection methodology for a moving camera | |
Zamalieva et al. | Exploiting temporal geometry for moving camera background subtraction | |
Hehn et al. | Instance stixels: Segmenting and grouping stixels into objects | |
Hanif et al. | Deep multi-view correspondence for identity-aware multi-target tracking | |
Sultana et al. | Unsupervised deep context prediction for background foreground separation | |
Ekekrantz et al. | Unsupervised object discovery and segmentation of RGBD-images | |
Chattopadhyay et al. | Prominent moving object segmentation from moving camera video shots using iterative energy minimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171027 |
|
CF01 | Termination of patent right due to non-payment of annual fee |