CN111161323A - 一种基于相关滤波的复杂场景目标跟踪方法及系统 - Google Patents
一种基于相关滤波的复杂场景目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN111161323A CN111161323A CN201911419540.2A CN201911419540A CN111161323A CN 111161323 A CN111161323 A CN 111161323A CN 201911419540 A CN201911419540 A CN 201911419540A CN 111161323 A CN111161323 A CN 111161323A
- Authority
- CN
- China
- Prior art keywords
- image
- filter
- target
- tracking
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000004044 response Effects 0.000 claims abstract description 62
- 238000012549 training Methods 0.000 claims abstract description 46
- 230000000295 complement effect Effects 0.000 claims abstract description 15
- 238000011156 evaluation Methods 0.000 claims abstract description 8
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 11
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 238000007499 fusion processing Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明提供了一种基于相关滤波的复杂场景目标跟踪方法:步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;步骤3、通过评价标准对响应图像判断是否属于复杂场景决定当前帧的滤波器训练方式;步骤4、重复步骤2‑3,直到读取完视频序列的所有帧,目标跟踪结束。采用本方法避免了背景杂乱以及目标严重形变等复杂场景跟踪漂移的问题。
Description
技术领域
本发明涉及计算机视觉目标跟踪领域,特别涉及一种基于相关滤波的复杂场景目标跟 踪方法及系统。
背景技术
目标跟踪是计算机视觉领域中的一个基本问题,是目前的研究热点之一。其基本定义 为,给定视频序列的初始帧以及目标的位置框,在接下来的视频序列中自动给出该目标的 位置框。目标跟踪在很多实时视觉应用中扮演着重要角色,例如自动驾驶、智能监视系统、 无人机监控、智能交通控制和人机交互等。由于其智能性和重要性而受到了广泛关注。
目标跟踪算法根据观测模型的不同可以大致分为生成式方法和判别式方法。生成式方 法的典型代表为稀疏编码,判别式方法的典型代表为相关滤波。本发明选用了近年来逐渐 占据主流地位的相关滤波方法。通过由目标图像训练的滤波器对图像进行滤波处理,在得 到的响应图中寻找最大值位置,即图像中目标的位置。在此种情况下,目标跟踪的过程近 似为对搜索区域图像进行相关滤波的过程,寻找目标也就是寻找滤波器响应图像的最大值 位置。以最早关于相关滤波的算法MOSSE为例,其利用了输出结果的最小均方误差来训练 滤波器。定义滤波器为H,一系列训练图像为F,卷积操作的期望输出为G,则第i帧的最 小化问题公式为:
将训练得到的滤波器作用于搜索区域即可得到响应图像。响应值的大小反映了该处图像与 初始化目标的相关性,选定响应值最大处作为目标位置。针对相关滤波中样本数量不足对 分类器结果的影响,通常采用循环密集采样的方式,利用中心图像块循环移位增加样本。 由于循环矩阵时域和频域的特殊性质,在训练滤波器过程中,复杂矩阵求逆转变为简单矩 阵点除;在目标跟踪时,滤波器相关性操作变为频域内的点乘操作。此举大幅减少运算量, 显著提高了跟踪速度。
尽管相关滤波具有实时性的优势,但当出现背景复杂、形变严重、光照变化及目标遮挡 等情况时,容易发生跟踪漂移。因为相关滤波的关键是训练一个具有判别性的相关滤波器, 用于区分前景和背景。而当背景杂乱或目标出现形变时,会严重影响滤波器的判别性,导 致目标丢失。
发明内容
有鉴于此,本发明针对传统的相关滤波跟踪算法在背景杂乱以及目标严重形变等复杂 场景跟踪漂移的问题,提出了一种基于相关滤波的应用于复杂场景的目标跟踪方法,添加 动态约束项自适应地学习目标周围背景信息,达到抑制背景,突出目标的目的,同时结合 了基于颜色直方图的跟踪结果,以达到和相关滤波结果互补,应对形变与复杂背景的目的。
本发明采用的技术方案如下:一种基于相关滤波的复杂场景目标跟踪方法,包括以下 步骤:
步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;
步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操 作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关 滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;
步骤3、通过评价标准对响应图像判断是否属于复杂场景,若不属于复杂场景则采用传 统相关滤波训练方法训练当前帧的滤波器,若属于复杂场景则在传统相关滤波训练方法中 整合背景信息训练当前帧的滤波器;
步骤4、重复步骤2-3,直到读取完视频序列的所有帧,目标跟踪结束。
进一步的,所述步骤3中评价标准为平均峰值相关能量APCE。
进一步的,所述步骤3中对相应图像是否属于复杂场景的具体判断方法为:计算响应图 像的平均峰值相关能量APCE,若APCE低于历史平均值,则表示该图像属于复杂场景;反之, 则表示该图像不属于复杂场景。
进一步的,所述步骤3中,整合背景信息训练当前帧的滤波器的具体方法为:在传统相 关滤波方法中,添加目标周围的背景信息作为动态约束项进行学习,得到整合背景区域作 为约束项的滤波器。
进一步的,所述背景区域为目标区域上下左右相邻的与目标框等大的图像区域或响应图 像中具有次高响应峰值对应所在的位置区域。
进一步的,所述步骤4中,互补融合过程如下:
P(t)=(1-γ)PCF(t)+γPCH(t)
其中,PCF(t)为相关滤波跟踪结果,PCH(t)为基于颜色直方图的跟踪结果,γ为互补权 重,通过控制γ得到最优融合结果。
本发明还提供了一种基于相关滤波的复杂场景目标跟踪系统,包括:初始化模块、相关 滤波跟踪模块、判断场景复杂度模块、自适应学习背景模块、自适应互补颜色直方图跟踪 结果模块;
初始化模块,对第一帧图像进行滤波器初始化,得到初始的滤波器;
相关滤波跟踪模块,读取视频下一帧图像,并与上一帧训练的滤波器卷积得到响应图像 及相关滤波跟踪结果;
判断场景复杂度模块,用于判断是否需要整合背景信息训练滤波器;通过对上一帧的响 应图像进行判断,若响应图像峰值模糊或出现多个局部峰值,则需要整合背景信息进行训 练滤波器,若响应图像具有一个明确的峰值,则不需整合背景信息,直接采用传统相关滤 波方法训练滤波器;
自适应学习模块,用于根据判断场景复杂度模块判断,进行滤波器的训练;
自适应互补颜色直方图跟踪结果模块,自适应的融合通过颜色直方图进行跟踪的目标结 果与相关滤波跟踪结果,输出最终目标跟踪结果。
进一步的,所述自适应学习模块训练整合背景信息的滤波器的具体过程为:在传统相关 滤波方法的公式基础上,添加目标周围的背景信息作为动态约束项进行学习,得到整合背 景区域作为约束项的滤波器。
与现有技术相比,采用上述技术方案的有益效果为:
1、利用相关滤波为基础进行目标跟踪,保证了跟踪速度,可作为实时跟踪的基础。
2、自适应的学习目标周围背景信息,将其整合为动态约束项加入训练模型中,使滤波 器更具判别性,增加背景杂乱与复杂场景下跟踪的成功率与精确度。
3、自适应的互补了颜色直方图方法的跟踪结果,弥补了传统相关滤波对于形变以及光 照变化的不敏感,提高了跟踪精度。
附图说明
图1是本发明的目标跟踪方法流程图。
具体实施方式
下面结合附图对本发明做进一步描述。
本发明提供了一种基于相关滤波的复杂场景目标跟踪方法,其基本思想是:利用场景 复杂度进行自适应的学习,在训练模型中整合目标周围的背景信息作为动态的约束项,防 止跟踪漂移,同时结合基于颜色直方图的目标跟踪方法的结果,弥补形变给目标跟踪带来 的影响,以此提高跟踪精度与准确度。如图1所示,具体步骤如下:
步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;
步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操 作,得到响应图像,从而得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基 于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;
步骤3、通过评价标准对响应图像判断是否属于复杂场景,若不属于复杂场景则采用传 统相关滤波训练方法训练当前帧的滤波器,若属于复杂场景则在传统相关滤波训练方法中 整合背景信息训练当前帧的滤波器;
步骤4、重复步骤2-3,直到读取完视频序列的所有帧,目标跟踪结束。
对于步骤1,首先将带有标注框的第一帧图像经过传统相关滤波训练得到初始化滤波器。 此时,认为所训练得到的滤波器是最为准确的,因为初始标注框的位置是已知的、准确的, 此时我们所采用的目标训练样本就是我们需要跟踪的目标,是最为准确的样本。经过第一 帧训练得到的滤波器将在下一帧进行卷积操作。
对于步骤2,当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图 像,从而得到当前帧相关滤波跟踪结果,其中,响应图像中最大值的位置就是目标中心的 位置,跟踪结果即为该目标中心位置的坐标和目标尺寸。相关滤波器对光照变化、尺度变 化等情况具有很强的鲁棒性,但是,由于模型依赖于空间信息,因此滤波器对变形很敏感。 同时,基于颜色直方图的跟踪器能够很好地处理形变,但当光照明显变化时,可能会导致 跟踪器跟踪不准确。因此,本发明将这两种跟踪器结合起来,在保持相关滤波跟踪优点的 同时,减轻了形变对跟踪结果的影响。为了进行融合,本发明提出了一个线性函数,从相 关滤波跟踪结果PCF(t)和基于颜色直方图的跟踪结果PCH(t)经过互补权重γ控制得到最佳 的线性组合,
P(t)=(1-γ)PCF(t)+γPCH(t)
在滤波器进行相关滤波跟踪过程中,所使用的图像特征可以是手工特征或深度特征, 若在相关滤波跟踪时所使用的特征为手工特征,则在结果层面进行融合,即对跟踪结果进 行融合;若在相关滤波跟踪时所使用的特征为深度特征,则在响应图像层面进行融合,即 对响应图像进行融合。
其中,基于颜色直方图的目标跟踪方法如下:
首先分别提取前景和背景区域,并分别计算它们的颜色直方图分布;然后计算候选区 域的颜色直方图分布,并与前景和背景区域的颜色直方图进行比较,得到候选区域属于目 标区域的概率;同时在每帧图像中更新前景和背景区域的颜色直方图,以适应场景的变化。 在本实施例中,采取RGB颜色模型计算颜色直方图,每个颜色通道有32bins。
对于步骤3,通过本帧的响应图像得分来判断本帧场景复杂度,具体为:通过前一帧训 练得到的滤波器与本帧图像的搜索区域进行卷积操作,得到响应图像;通过评价标准对响 应图像进行判断,当响应图像显示出场景复杂时,就在本帧训练滤波器的过程中,整合目 标周围的背景信息,加强滤波器的判别性。
在本发明中采用了平均峰值相关能量APCE(Average Peak-to-CorrelationEnergy) 作为评价标准。则APCE的定义如下:
其中,Rmax,Rmin与Rr,c分别表示响应图像中的最大值,最小值以及第r行、第c列的响应值大小。
由上式可知,APCE反映了响应图像的波动情况、峰值、复杂度,能够反映跟踪结果的 可靠性。由于运动模糊、背景杂乱等复杂场景,响应图随机波动,并且在真实目标周围有多个峰值。而理想的响应图应该在真实的目标位置有一个明确的峰值,而在所有其他区域波动较小。因此,当响应图明显波动时,即响应图像峰值模糊或出现多个局部峰值,表示 该响应图像属于复杂场景,训练滤波器的过程中需要整合背景信息进行学习;而响应图像 在真实目标位置有一个明确的峰值,且在其他区域波动较小,则表示该响应图像不属于复 杂场景。
为了消除偶然的一帧图像的误差,我们需要结合既往多帧图像的响应图像进行分析。 如果当前帧响应图像的APCE低于其历史平均值时,我们就考虑在训练滤波器过程中整合背 景信息进行学习实现对于背景的抑制;当APCE高于历史平均值时,则不需要整合背景信息。
在步骤3中对于需要整合背景信息进行训练滤波器的具体方法为:背景信息作为动态 的约束项加入训练模型,从而得到整合背景信息的滤波器。
训练具体过程为:首先对图像中目标周围的背景信息进行采样,这些选定的背景图像 块将被视为负样本。它们可以代表不同的背景和不同的干扰因素。换言之,我们希望学习 的滤波器在目标区域具有高响应,而对于所选背景图像块具有最低响应。为了实现这一点, 本发明将背景图像区域作为约束项添加进传统相关滤波公式中。
Sf{x}=f*J{x}
当结合背景信息进行学习时,目标函数可以表示为:
其中αk表示赋给第k个训练样本xk的权重,yk为响应结果的期望输出;第二项中的ω:Ω→R,通过在ω中分配更高的权重来抑制位于目标区域之外的滤波器中的系数,反之亦然;第三项则为本发明中提到的有关背景区域的约束项,xki表示在目标训练样本xk周围的第i个背景样本。通过帕塞瓦尔定理以及迭代法原理,本发明得到了目标函数的封闭解,即解决普通的问题:
由此,便可得到整合背景区域作为约束项的滤波器,实现对于背景信息的学习。
优选的,背景区域选取目标区域上下左右相邻的与目标框等大的图像区域,因为目标 在这些区域出现的可能性较高,以此作为训练样本,可提高效用;同时也可以选用在响应 图像中,除了目标位置的次高响应峰值对应的位置,因为这个位置出现的可能是相似目标, 所以此举可以抑制相似目标的干扰。
本发明还提供了一种基于相关滤波的复杂场景目标跟踪系统,其特征在于,包括:初 始化模块、相关滤波跟踪模块、判断场景复杂度模块、自适应学习背景模块、自适应互补颜色直方图跟踪结果模块;
初始化模块,对第一帧图像进行滤波器初始化,得到初始的滤波器;
相关滤波跟踪模块,读取视频下一帧图像,并与上一帧训练的滤波器卷积得到响应图像 及相关滤波跟踪结果;
判断场景复杂度模块,用于判断是否需要整合背景信息训练滤波器;通过对上一帧的 响应图像进行判断,若响应图像峰值模糊或出现多个局部峰值,则需要整合背景信息训练 滤波器,若响应图像具有一个明确的峰值,则不需整合背景信息,直接采用传统相关滤波 方法训练滤波器;
自适应学习模块,用于根据判断场景复杂度模块判断,进行滤波器的训练;在传统相 关滤波方法的公式基础上,添加目标周围的背景信息作为动态约束项进行学习,得到判别 能力更强的滤波器,使得得到的滤波器在目标处能够取得较大响应值,而在背景处响应值 很小甚至趋近于零;经过此滤波器与搜索区域卷积得到响应图像与跟踪结果。
自适应互补颜色直方图跟踪结果模块,自适应的融合通过颜色直方图进行跟踪的目标 结果与相关滤波跟踪结果,输出最终目标跟踪结果。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特 征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。如果本领域 技术人员,在不脱离本发明的精神所做的非实质性改变或改进,都应该属于本发明权利要 求保护的范围。
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特 征和/或步骤以外,均可以以任何方式组合。
本说明书中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代 特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而 已。
Claims (8)
1.一种基于相关滤波的复杂场景目标跟踪方法,其特征在于,包括以下步骤:
步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;
步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;
步骤3、通过评价标准对响应图像判断是否属于复杂场景,若不属于复杂场景则采用传统相关滤波训练方法训练当前帧的滤波器,若属于复杂场景则在传统相关滤波训练方法中整合背景信息训练当前帧的滤波器;
步骤4、重复步骤2-3,直到读取完视频序列的所有帧,目标跟踪结束。
2.根据权利要求1所述的复杂场景目标跟踪方法,其特征在于,所述步骤3中评价标准为平均峰值相关能量APCE。
3.根据权利要求2所述的复杂场景目标跟踪方法,其特征在于,所述步骤3中对相应图像是否属于复杂场景的具体判断方法为:计算响应图像的平均峰值相关能量APCE,若APCE低于历史平均值,则表示该图像属于复杂场景;反之,则表示该图像不属于复杂场景。
4.根据权利要求3所述的复杂场景目标跟踪方法,其特征在于,所述步骤3中,整合背景信息训练当前帧的滤波器的具体方法为:在传统相关滤波方法中,添加目标周围的背景信息作为动态约束项进行学习,得到整合背景区域作为约束项的滤波器。
5.根据权利要求4所述的复杂场景目标跟踪方法,其特征在于,所述背景区域为目标区域上下左右相邻的与目标框等大的图像区域或响应图像中具有次高响应峰值对应所在的位置区域。
6.根据权利要求1所述的复杂场景目标跟踪方法,其特征在于,所述步骤2中,互补融合过程如下:
P(t)=(1-γ)PCF(t)+γPCH(t)
其中,PCF(t)为相关滤波跟踪结果,PCH(t)为基于颜色直方图的跟踪结果,γ为互补权重,通过控制γ得到最优融合结果。
7.一种基于相关滤波的复杂场景目标跟踪系统,其特征在于,包括:初始化模块、相关滤波跟踪模块、判断场景复杂度模块、自适应学习背景模块、自适应互补颜色直方图跟踪结果模块;
初始化模块,对第一帧图像进行滤波器初始化,得到初始的滤波器;
相关滤波跟踪模块,读取视频下一帧图像,并与上一帧训练的滤波器卷积得到响应图像及相关滤波跟踪结果;
判断场景复杂度模块,用于判断是否需要整合背景信息训练滤波器;通过对上一帧的响应图像进行判断,若响应图像峰值模糊或出现多个局部峰值,则需要整合背景信息进行训练滤波器,若响应图像具有一个明确的峰值,则不需整合背景信息,直接采用传统相关滤波方法训练滤波器;
自适应学习模块,用于根据判断场景复杂度模块判断,进行滤波器的训练;
自适应互补颜色直方图跟踪结果模块,自适应的融合通过颜色直方图进行跟踪的目标结果与相关滤波跟踪结果,输出最终目标跟踪结果。
8.根据权利要求7所述的复杂场景目标跟踪系统,其特征在于,所述自适应学习模块训练整合背景信息的滤波器的具体过程为:在传统相关滤波方法的公式基础上,添加目标周围的背景信息作为动态约束项进行学习,得到整合背景区域作为约束项的滤波器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911419540.2A CN111161323B (zh) | 2019-12-31 | 2019-12-31 | 一种基于相关滤波的复杂场景目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911419540.2A CN111161323B (zh) | 2019-12-31 | 2019-12-31 | 一种基于相关滤波的复杂场景目标跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111161323A true CN111161323A (zh) | 2020-05-15 |
CN111161323B CN111161323B (zh) | 2023-11-28 |
Family
ID=70560333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911419540.2A Active CN111161323B (zh) | 2019-12-31 | 2019-12-31 | 一种基于相关滤波的复杂场景目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111161323B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393493A (zh) * | 2021-05-28 | 2021-09-14 | 京东数科海益信息科技有限公司 | 目标对象的跟踪方法及装置 |
CN113706580A (zh) * | 2021-08-11 | 2021-11-26 | 西安交通大学 | 一种基于相关滤波跟踪器的目标跟踪方法、系统、设备及介质 |
Citations (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6701029B1 (en) * | 1999-11-08 | 2004-03-02 | Automatic Recognition And Control, Inc. | Ring-wedge data analysis of digital images |
US20080316328A1 (en) * | 2005-12-27 | 2008-12-25 | Fotonation Ireland Limited | Foreground/background separation using reference images |
US20100322534A1 (en) * | 2009-06-09 | 2010-12-23 | Colorado State University Research Foundation | Optimized correlation filters for signal processing |
US20110188744A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | High dynamic range image generation and rendering |
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas系统 |
US20170134631A1 (en) * | 2015-09-15 | 2017-05-11 | SZ DJI Technology Co., Ltd. | System and method for supporting smooth target following |
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
CN107067410A (zh) * | 2016-05-27 | 2017-08-18 | 北京理工大学 | 一种基于增广样本的流形正则化相关滤波目标跟踪方法 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107492112A (zh) * | 2017-07-11 | 2017-12-19 | 西北工业大学 | 一种基于无人机平台的目标跟踪方法 |
US20180182109A1 (en) * | 2016-12-22 | 2018-06-28 | TCL Research America Inc. | System and method for enhancing target tracking via detector and tracker fusion for unmanned aerial vehicles |
CN108280845A (zh) * | 2017-12-26 | 2018-07-13 | 浙江工业大学 | 一种针对复杂背景的尺度自适应目标跟踪方法 |
US20180268559A1 (en) * | 2017-03-16 | 2018-09-20 | Electronics And Telecommunications Research Institute | Method for tracking object in video in real time in consideration of both color and shape and apparatus therefor |
CN108664930A (zh) * | 2018-05-11 | 2018-10-16 | 西安天和防务技术股份有限公司 | 一种智能的多目标检测跟踪方法 |
CN108694723A (zh) * | 2018-05-11 | 2018-10-23 | 西安天和防务技术股份有限公司 | 一种复杂背景下目标稳定跟踪方法 |
CN108734723A (zh) * | 2018-05-11 | 2018-11-02 | 江南大学 | 一种基于自适应权重联合学习的相关滤波目标跟踪方法 |
CN108986146A (zh) * | 2017-12-11 | 2018-12-11 | 罗普特(厦门)科技集团有限公司 | 一种基于背景信息与自适应回归标签的相关滤波跟踪方法 |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN109035300A (zh) * | 2018-07-05 | 2018-12-18 | 桂林电子科技大学 | 一种基于深度特征与平均峰值相关能量的目标跟踪方法 |
CN109064497A (zh) * | 2018-07-16 | 2018-12-21 | 南京信息工程大学 | 一种基于颜色聚类补充学习的视频跟踪方法 |
CN109146917A (zh) * | 2017-12-29 | 2019-01-04 | 西安电子科技大学 | 一种弹性更新策略的目标跟踪方法 |
CN109166139A (zh) * | 2018-07-18 | 2019-01-08 | 天津大学 | 一种结合快速背景抑制的尺度自适应目标跟踪方法 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
CN109753846A (zh) * | 2017-11-03 | 2019-05-14 | 北京深鉴智能科技有限公司 | 目标跟踪硬件实现系统和方法 |
US20190156123A1 (en) * | 2017-11-23 | 2019-05-23 | Institute For Information Industry | Method, electronic device and non-transitory computer readable storage medium for image annotation |
CN110009664A (zh) * | 2019-04-11 | 2019-07-12 | 南京航空航天大学金城学院 | 一种基于响应图融合的红外目标跟踪方法及装置 |
US20190287264A1 (en) * | 2018-03-14 | 2019-09-19 | Tata Consultancy Services Limited | Context based position estimation of target of interest in videos |
CN110555870A (zh) * | 2019-09-09 | 2019-12-10 | 北京理工大学 | 基于神经网络的dcf跟踪置信度评价与分类器更新方法 |
-
2019
- 2019-12-31 CN CN201911419540.2A patent/CN111161323B/zh active Active
Patent Citations (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6701029B1 (en) * | 1999-11-08 | 2004-03-02 | Automatic Recognition And Control, Inc. | Ring-wedge data analysis of digital images |
US20080316328A1 (en) * | 2005-12-27 | 2008-12-25 | Fotonation Ireland Limited | Foreground/background separation using reference images |
US20100322534A1 (en) * | 2009-06-09 | 2010-12-23 | Colorado State University Research Foundation | Optimized correlation filters for signal processing |
US20110188744A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | High dynamic range image generation and rendering |
US20170134631A1 (en) * | 2015-09-15 | 2017-05-11 | SZ DJI Technology Co., Ltd. | System and method for supporting smooth target following |
CN107067410A (zh) * | 2016-05-27 | 2017-08-18 | 北京理工大学 | 一种基于增广样本的流形正则化相关滤波目标跟踪方法 |
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas系统 |
US20180182109A1 (en) * | 2016-12-22 | 2018-06-28 | TCL Research America Inc. | System and method for enhancing target tracking via detector and tracker fusion for unmanned aerial vehicles |
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
US20180268559A1 (en) * | 2017-03-16 | 2018-09-20 | Electronics And Telecommunications Research Institute | Method for tracking object in video in real time in consideration of both color and shape and apparatus therefor |
KR20180105876A (ko) * | 2017-03-16 | 2018-10-01 | 한국전자통신연구원 | 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107492112A (zh) * | 2017-07-11 | 2017-12-19 | 西北工业大学 | 一种基于无人机平台的目标跟踪方法 |
CN109753846A (zh) * | 2017-11-03 | 2019-05-14 | 北京深鉴智能科技有限公司 | 目标跟踪硬件实现系统和方法 |
US20190156123A1 (en) * | 2017-11-23 | 2019-05-23 | Institute For Information Industry | Method, electronic device and non-transitory computer readable storage medium for image annotation |
CN108986146A (zh) * | 2017-12-11 | 2018-12-11 | 罗普特(厦门)科技集团有限公司 | 一种基于背景信息与自适应回归标签的相关滤波跟踪方法 |
CN108280845A (zh) * | 2017-12-26 | 2018-07-13 | 浙江工业大学 | 一种针对复杂背景的尺度自适应目标跟踪方法 |
CN109146917A (zh) * | 2017-12-29 | 2019-01-04 | 西安电子科技大学 | 一种弹性更新策略的目标跟踪方法 |
US20190287264A1 (en) * | 2018-03-14 | 2019-09-19 | Tata Consultancy Services Limited | Context based position estimation of target of interest in videos |
CN108734723A (zh) * | 2018-05-11 | 2018-11-02 | 江南大学 | 一种基于自适应权重联合学习的相关滤波目标跟踪方法 |
CN108694723A (zh) * | 2018-05-11 | 2018-10-23 | 西安天和防务技术股份有限公司 | 一种复杂背景下目标稳定跟踪方法 |
CN108664930A (zh) * | 2018-05-11 | 2018-10-16 | 西安天和防务技术股份有限公司 | 一种智能的多目标检测跟踪方法 |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN109035300A (zh) * | 2018-07-05 | 2018-12-18 | 桂林电子科技大学 | 一种基于深度特征与平均峰值相关能量的目标跟踪方法 |
CN109064497A (zh) * | 2018-07-16 | 2018-12-21 | 南京信息工程大学 | 一种基于颜色聚类补充学习的视频跟踪方法 |
CN109166139A (zh) * | 2018-07-18 | 2019-01-08 | 天津大学 | 一种结合快速背景抑制的尺度自适应目标跟踪方法 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
CN110009664A (zh) * | 2019-04-11 | 2019-07-12 | 南京航空航天大学金城学院 | 一种基于响应图融合的红外目标跟踪方法及装置 |
CN110555870A (zh) * | 2019-09-09 | 2019-12-10 | 北京理工大学 | 基于神经网络的dcf跟踪置信度评价与分类器更新方法 |
Non-Patent Citations (10)
Title |
---|
GUOKAI SHI: "Online adaptive complementation tracker", pages 191 * |
LUCA BERTINETTO: "Staple: Complementary Learners for Real-Time Tracking", pages 1401 - 1409 * |
MATTHIAS MUELLER: "Context-Aware Correlation Filter Tracking", pages 1387 - 1395 * |
SURYO ADHI WIBOWO等: "Visual Tracking Based on Complementary Learners with Distractor Handling", 《MATHEMATICAL PROBLEMS IN ENGINEERING》, pages 1 - 13 * |
WANCHENG ZHANG: "Siamese Visual Tracking with Robust Adaptive Learning", 《2019 IEEE INTERNATIONAL WORKSHOP ON ANTI-COUNTERFEITING, SECURITY, IDENTIFICATION, ASID》, pages 153 - 157 * |
候志强: "融合检测机制的鲁棒相关滤波视觉跟踪算法", 《应用光学》, vol. 40, no. 5, pages 795 - 804 * |
刘波: "自适应上下文感知相关滤波跟踪", 《中国光学》, vol. 12, no. 2, pages 265 - 273 * |
张博: "利用视觉显著性和扰动模型的上下文感知跟踪", 《光学精密工程》, vol. 26, no. 8, pages 2112 - 2121 * |
王艳川: "基于双模型融合的自适应目标跟踪算法", vol. 34, no. 12, pages 3828 - 3833 * |
王赛楠: "基于相关滤波的视觉跟踪算法研究", no. 9, pages 138 - 657 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393493A (zh) * | 2021-05-28 | 2021-09-14 | 京东数科海益信息科技有限公司 | 目标对象的跟踪方法及装置 |
CN113393493B (zh) * | 2021-05-28 | 2024-04-05 | 京东科技信息技术有限公司 | 目标对象的跟踪方法及装置 |
CN113706580A (zh) * | 2021-08-11 | 2021-11-26 | 西安交通大学 | 一种基于相关滤波跟踪器的目标跟踪方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111161323B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111797716B (zh) | 一种基于Siamese网络的单目标跟踪方法 | |
CN106408592B (zh) | 一种基于目标模板更新的目标跟踪方法 | |
CN110796168A (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN112836640B (zh) | 一种单摄像头多目标行人跟踪方法 | |
CN113327272B (zh) | 一种基于相关滤波的鲁棒性长时跟踪方法 | |
CN110555870B (zh) | 基于神经网络的dcf跟踪置信度评价与分类器更新方法 | |
CN111951297B (zh) | 一种基于结构化逐像素目标注意机制的目标跟踪方法 | |
CN104680559A (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN113763427B (zh) | 一种基于从粗到精遮挡处理的多目标跟踪方法 | |
CN110781785A (zh) | 基于Faster RCNN算法改进的交通场景下行人检测方法 | |
CN111882586A (zh) | 一种面向剧场环境的多演员目标跟踪方法 | |
CN114708300A (zh) | 一种可抗遮挡的自适应目标跟踪方法及系统 | |
CN111161323A (zh) | 一种基于相关滤波的复杂场景目标跟踪方法及系统 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN106384359A (zh) | 运动目标跟踪方法和电视 | |
CN112613565B (zh) | 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法 | |
CN112287906B (zh) | 一种基于深度特征融合的模板匹配跟踪方法及系统 | |
CN116777956A (zh) | 基于多尺度航迹管理的运动目标筛选方法 | |
CN116665097A (zh) | 一种结合上下文感知的自适应目标跟踪方法 | |
CN115082517B (zh) | 基于数据增强的赛马场景多目标追踪方法 | |
CN103886607B (zh) | 一种针对扰动目标的检测及抑制方法 | |
CN116129386A (zh) | 可行驶区域检测方法、系统及计算机可读介质 | |
CN113362390B (zh) | 一种基于椭圆检测的快速圆形目标定位视频处理方法 | |
CN111915647B (zh) | 一种对象标签引导的自适应视频目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |