CN109949344B - 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 - Google Patents
一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 Download PDFInfo
- Publication number
- CN109949344B CN109949344B CN201910201149.9A CN201910201149A CN109949344B CN 109949344 B CN109949344 B CN 109949344B CN 201910201149 A CN201910201149 A CN 201910201149A CN 109949344 B CN109949344 B CN 109949344B
- Authority
- CN
- China
- Prior art keywords
- target
- background
- response
- image block
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于颜色概率目标建议窗口的核相关滤波跟踪方法,能够在相关滤波框架下稳定的进行尺度估计,提高算法在尺度变化方面的鲁棒性。由前景颜色直方图概率图和EdgeBoxes生成的目标建议窗口相比单一的EdgeBoxes生成的目标建议窗口具有更高的质量,因此使用此方法可以得到更为准确的尺度估计。同时设计了一种自适应的模板更新方法,通过APCE判据和颜色概率均值判断目标跟踪的效果以及目标表观模型和背景的变化程度自适应的调整模板更新学习率。经过实验证明,本发明可以有效的应对相关滤波算法面对尺度变化、大面积遮挡、背景干扰时跟踪漂移和跟踪失败状况的发生,使得相关滤波算法在面对上述问题时能够更加准确的跟踪目标。
Description
技术领域
本发明属于计算机视觉目标跟踪技术领域,具体涉及一种基于颜色概率目标建议窗口的核相关滤波跟踪方法。
背景技术
目标跟踪就是在连续的视频序列中,建立所要跟踪物体的位置关系,得到物体完整的运动轨迹。它需要结合人工智能、图像识别以及模式控制等许多畛域的核心思想和关键技术,目前虽然取得了一些研究成果,在实际复杂场景中经常会有外观变形,光照变化,快速运动和运动模糊,背景相似干扰,平面外旋转,平面内旋转,尺度变化,遮挡和出视野等外界因素的变动,这些变动使得目标跟踪变得更加困难。
KCF是一种判别式跟踪方法,其一般是在追踪过程中训练一个目标检测器,使用目标检测器去检测下一帧预测位置是否是目标,然后再使用新检测结果去更新训练集进而更新目标检测器。该方法的优点为检测过程快速而准确,但该跟踪方法未能应对尺寸变化及背景遮挡等情况。尺度变化是跟踪中比较基础和常见的问题,如果目标缩小,滤波器就会学习到大量背景信息,如果目标扩大,滤波器就会跟踪到目标局部纹理,这两种情况都很可能出现非预期的结果,导致漂移和失败。
在物体检测领域,近来具有顶级性能的物体检测系统均采用了“目标建议窗口”方法来提取可能包含目标物体的候选区域。该类方法可以在没有任何先验知识的情况下,在输入图像中提取任意尺度、宽高比的候选边界框,目标候选方法不仅能够避免对大量的边界框进行分类,还能预先滤除大部分错误的边界框,大幅提高检测精度。因此将目标建议窗口EdgeBoxes融入跟踪器中,以提升跟踪器对尺度和宽高比的适应力。
发明内容
本发明的目的就在于针对上述问题进行改善,提供了一种基于颜色概率目标建议窗口的核相关滤波跟踪方法。
本发明包括以下步骤:
一种基于颜色概率目标建议窗口的核相关滤波跟踪方法,包括以下步骤:
步骤一:输入第i和i-1帧视频帧Fi、Fi-1,初始化第一帧跟踪目标(l1,w1,h1),其中l1为目标的中心位置,(w1,h1)为目标的长宽,计算目标在当前帧的前景和背景直方图fghist,bghist;为了避免在计算它们的直方图时错误标记来自目标和周围背景的像素,每个视频帧Fi被划分为三个区域:确定的前景区域(l1,ξ1w1,ξ1h1),确定的背景区域(l1,ξ2w1,ξ2h1)-(l1,ξ3w1,ξ3h1)和混合区域(l1,ξ3w1,ξ3h1),混合区域来自目标和背景的像素混合在一起),其中,ξ1,ξ2,ξ3分别为前景区域、背景区域以及混合区域的扩张系数;
步骤二:在Fi的(li-1,sdwi-1,sdhi-1)处提取扩大后的图像块zd,其中li-1为前一帧的目标中心位置,(wi-1,hi-1)为前一帧目标的长宽,sd是一个尺度因子,图像块需要包含一定的背景信息,通常sd取值大于1小于2.5;
步骤三:对zd提取d维特征图x,用zd,α,x和公式计算目标响应置信图,可以得到目标响应置信图中的最大响应值对应的坐标位置即初步位置用来进行初步位置估计,同时记录响应最大、最小和响应置信图(w,h)位置上的响应Fmax,Fmin,Fw,h,其中α为通过图像块计算得到的参数矩阵,为核矩阵的第一行;
步骤五:计算前景直方图在当前图像块的直方图反向投影得到前景直方图概率图pf(x),计算背景直方图在当前图像块的直方图反向投影得到背景直方图概率图pb(x),通过公式计算图像块zp每个像素的颜色概率p(F|x),得到颜色概率图像块zc;
步骤六:对图像块zp提取目标建议窗口;由于Edgeboxes在目标建议窗口生产的方法中召回率高、速度快,因此基于Edgeboxes提取目标建议窗口;实施Edgeboxes后得到目标建议窗口数组P1[1,2,....100];
步骤七:对图像块zc提取目标建议窗口;实施Edgeboxes后得到目标建议窗口数组P2[1,2,....100],合并P1,P2为P;
步骤八:对前两百个对象建议P[1,2,....,200]实施提案拒绝,即非极大值抑制,得到P′;非极大值抑制的方法为:通过将两个边界框的交集面积除以它们的并集面积计算每一个目标候选边界框与初步目标物体边界框的重叠率,如果重叠率大于阈值u1或者小于阈值u2,则将该目标候选剔除;
步骤九:用α,x和公式计算非极大值抑制后的对象建议数组P′中的每个对象建议P的响应,计算前对每个P线性插值缩放到sdw1×sdh1,得到响应最大的对象建议框其中,sum(·)表示矩阵中所有元素的叠加操作,为核矩阵的第一行;为响应最大对象建议框中心位置,为响应最大对象建议框的长和宽;
步骤十:通过上一步骤求得的响应最大对象建议框以及公式更新初步估计的位置和尺度得到新的跟踪位置和尺度(li,wi,hi);上式的γ为阻尼因子,用带阻尼的更新来最终确定目标的位置和大小,可以防止过于敏感的目标状态变化,同时还能降低跟踪错误或是目标候选错误带来的影响,从而让跟踪器更为鲁棒;
步骤十一:通过步骤三中记录的响应最大、最小和响应置信图(w,h)位置上的响应Fmax,Fmin,Fw,h以及公式计算跟踪效果判据APCE来判断跟踪的效果好坏,当APCE判据相对于历史均值急剧下降时,跟踪效果不佳,其中mean(·)表示求平均值操作,∑(·)表示求和操作;进一步地,计算颜色概率均值判断目标表观特征以及背景变化程度,其中和分别表示当前帧和前一帧颜色概率图(w,h)位置上的像素值,(W,H)表示图像块的长宽;
最后通过公式自适应的调节学习率进行模板更新,其中η为模板更新的学习率,η1,η2,η3为自适应学习率的值,σ为APCE判据判断跟踪效果的阈值,γ1为颜色概率均值判断目标表观特征以及背景变化的程度的阈值;
当APCE判据相对于历史均值急剧下降即APCE<σ,此时跟踪效果不佳,设置学习率为η1;当ACPE≥σ,跟踪效果较好时,再通过颜色概率均值判断目标表观特征以及背景变化程度,当颜色概率均值小于阈值γ1时,说明目标表观特征和背景变化较慢,选用适中的学习率η2;当颜色概率均值大于阈值γ1时,说明目标表观特征和背景变化较快,选用较大的学习率η3;从而达到自适应的调整模板更新学习率的目的。
有益效果:与已有技术相比,本方法的益处在于:
1、原始KCF算法依赖于预先定义好的采样模式,因而灵活性严重受限,无法处理突发、快速的尺度和宽高比变化。如果目标缩小,滤波器就会学习到大量背景信息,如果目标扩大,滤波器就会跟踪到目标局部纹理,这两种情况都很可能出现非预期的结果,导致漂移和失败。而改进后的方法通过对区域颜色概率图生成目标建议窗口作为相关滤波器的尺度估计候选窗口。可以较准确的估计跟踪目标的尺度变化,提高跟踪准确率和成功率。
2、原始KCF算法每一帧都进行模板更新,当目标被遮挡或短暂消失时的更新会导致模板被污染。所以需要一种自适应的模型更新策略,当APCE判据相对于历史均值急剧下降时,跟踪效果不佳,设置学习率为0,不进行模板更新。当跟踪效果较好时,再通过颜色概率均值判断目标表观特征以及背景变化程度,从而自适应的调整模板更新学习率。这样一来大大减少了模型漂移的情况,二来减少了模型更新的次数,进一步达到了加速的效果。
附图说明
图1是基于颜色概率目标建议窗口的核相关滤波跟踪方法整体流程图;
图2是基于颜色概率目标建议窗口的核相关滤波跟踪方法。
具体实施方式
以下结合附图对本发明进行进一步说明。
步骤一:输入第i和i-1帧视频帧Fi、Fi-1,初始化第一帧跟踪目标(l1,w1,h1),其中l1为目标中心位置,(w1,h1)为目标的大小。计算目标在当前帧的前景和背景直方图fghist,bghist。为了避免在计算它们的直方图时错误标记来自目标和周围背景的像素,每个视频帧Fi被划分为三个区域:确定的前景,确定的背景和混合区域(来自目标和背景的像素混合在一起)。确定的前景区域(l1,ξ1w1,ξ1h1),确定的背景区域(l1,ξ2w1,ξ2h1)-(l1,ξ3w1,ξ3h1)和混合区域(l1,ξ3w1,ξ3h1)(来自目标和背景的像素混合在一起)。其中,ξ1=0.8,ξ2=3.5,ξ3=1.2分别为前景区域、背景区域以及混合区域的扩张系数;
步骤二:在视频帧Fi的(li-1,sdwi-1,sdhi-1)处提取扩大后的图像块zd。其分别为前一帧的目标中心位置和长宽,sd为尺度因子,图像块需包含一些背景信息所以通常取值大于1小于2.5,本发明中取值为2.0。
步骤三:对zd提取d维特征图x,用zd,α,x和公式计算目标响应置信图,可以得到目标响应置信图中的最大响应值对应的坐标位置即初步位置用来进行初步位置估计,同时记录响应最大、最小和响应置信图(w,h)位置上的响应Fmax,Fmin,Fw,h,其中α为通过图像块计算得到的参数矩阵,为核矩阵的第一行;
步骤五:计算前景直方图在当前图像块的直方图反向投影得到前景直方图概率图pf(x),计算背景直方图在当前图像块的直方图反向投影得到背景直方图概率图pb(x),通过公式计算图像块zp每个像素的颜色概率p(F|x),得到颜色概率图像块zc;
步骤六:对图像块zp提取目标建议窗口,由于Edgeboxes在目标建议窗口生产的方法中召回率高、速度快,因此基于Edgeboxes提取目标建议窗口。实施Edgeboxes后得到目标建议窗口数组P1[1,2,....100]。
步骤七:对图像块zc提取目标建议窗口,实施Edgeboxes后得到目标建议窗口数组P2[1,2,....100],合并P1,P2为P。
步骤八:对前两百个对象建议P[1,2,....,200]实施提案拒绝(非极大值抑制),得到P′。非极大值抑制的方法为:通过将两个边界框的交集面积除以它们的并集面积计算每一个目标候选边界框与初步目标物体边界框的重叠率,如果重叠率大于阈值u1=0.9或者小于阈值u2=0.6,则将该目标候选剔除;
步骤九:用α,x和公式计算非极大值抑制后的对象建议数组P′中的每个对象建议P的响应。计算器前对每个P线性插值缩放到sdw1×sdh1,得到响应最大的对象建议框其中,sum(·)表示矩阵中所有元素的叠加操作,为核矩阵的第一行;为响应最大对象建议框中心位置,为响应最大对象建议框的长和宽;
步骤十:通过上一步骤求得的响应最大对象建议框以及公式更新初步估计的位置和尺度得到新的跟踪位置和尺度(li,wi,hi);上式的γ为阻尼因子取值为0.7,用带阻尼的更新来最终确定目标的位置和大小,可以防止过于敏感的目标状态变化,同时还能降低跟踪错误或是目标候选错误带来的影响,从而让跟踪器更为鲁棒;
步骤十一:通过步骤三中记录的响应最大、最小和响应置信图(w,h)位置上的响应Fmax,Fmin,Fw,h以及公式计算跟踪效果判据APCE来判断跟踪的效果好坏,当APCE判据相对于历史均值急剧下降时,跟踪效果不佳。其中mean(·)表示求平均值操作,∑(·)表示求和操作;进一步地,计算颜色概率均值判断目标表观特征以及背景变化程度,其中和分别表示当前帧和前一帧颜色概率图(w,h)位置上的像素值,(W,H)表示图像块的长宽;最后通过公式自适应的调节学习率进行模板更新。其中η为模板更新的学习率,η1,η2,η3为自适应学习率的值,σ为APCE判据判断跟踪效果的阈值,γ1为颜色概率均值判断目标表观特征以及背景变化的程度的阈值;当APCE判据相对于历史均值急剧下降即APCE<σ,此时跟踪效果不佳,其中σ取7.2,设置学习率为η1=0,不进行模板更新。当ACPE≥σ,跟踪效果较好时,再通过颜色概率均值判断目标表观特征以及背景变化程度,当颜色概率均值小于阈值γ1=0.63时,说明目标表观特征和背景变化较慢,选用适中的学习率η2=0.0125。当颜色概率均值大于阈值γ1=0.63时,说明目标表观特征和背景变化较快,选用较大的学习率η3=0.07。从而达到自适应的调整模板更新学习率的目的。
Claims (1)
1.一种基于颜色概率目标建议窗口的核相关滤波跟踪方法,其特征在于:包括以下步骤:
步骤一:输入第i和i-1帧视频帧Fi、Fi-1,初始化第一帧跟踪目标(l1,w1,h1),其中l1为目标的中心位置,(w1,h1)为目标的长宽,计算目标在当前帧的前景和背景直方图fghist,bghist;为了避免在计算它们的直方图时错误标记来自目标和周围背景的像素,每个视频帧Fi被划分为三个区域:确定的前景区域(l1,ξ1w1,ξ1h1),确定的背景区域(l1,ξ2w1,ξ2h1)-(l1,ξ3w1,ξ3h1)和混合区域(l1,ξ3w1,ξ3h1),混合区域来自目标和背景的像素混合在一起,其中,ξ1,ξ2,ξ3分别为前景区域、背景区域以及混合区域的扩张系数;
步骤二:在Fi的(li-1,sdwi-1,sdhi-1)处提取扩大后的图像块zd,其中li-1为前一帧的目标中心位置,(wi-1,hi-1)为前一帧目标的长宽,sd是一个尺度因子,图像块需要包含背景信息,sd取值大于1小于2.5;
步骤三:对zd提取d维特征图x,用zd,α,x和公式计算目标响应置信图,可以得到目标响应置信图中的最大响应值对应的坐标位置即初步位置用来进行初步位置估计,同时记录响应最大、最小和响应置信图(w,h)位置上的响应Fmax,Fmin,Fw,h,其中α为通过图像块计算得到的参数矩阵,为核矩阵的第一行;
步骤五:计算前景直方图在当前图像块的直方图反向投影得到前景直方图概率图pf(x),计算背景直方图在当前图像块的直方图反向投影得到背景直方图概率图pb(x),通过公式计算图像块zp每个像素的颜色概率p(F|x),得到颜色概率图像块zc;
步骤六:对图像块zp提取目标建议窗口;由于Edgeboxes在目标建议窗口生产的方法中召回率高、速度快,因此基于Edgeboxes提取目标建议窗口;实施Edgeboxes后得到目标建议窗口数组P1[1,2,....100];
步骤七:对图像块zc提取目标建议窗口;实施Edgeboxes后得到目标建议窗口数组P2[1,2,....100],合并P1,P2为P;
步骤八:对前两百个对象建议P[1,2,....,200]实施提案拒绝,即非极大值抑制,得到P′;非极大值抑制的方法为:通过将两个边界框的交集面积除以它们的并集面积计算每一个目标候选边界框与初步目标物体边界框的重叠率,如果重叠率大于阈值u1或者小于阈值u2,则将该目标候选剔除;
步骤九:用α,x和公式计算非极大值抑制后的对象建议数组P′中的每个对象建议P的响应,计算前对每个P线性插值缩放到sdw1×sdh1,得到响应最大的对象建议框其中,sum(·)表示矩阵中所有元素的叠加操作,为核矩阵的第一行;为响应最大对象建议框中心位置,为响应最大对象建议框的长和宽;
步骤十:通过上一步骤求得的响应最大对象建议框以及公式更新初步估计的位置和尺度得到新的跟踪位置和尺度(li,wi,hi);上式的γ为阻尼因子,用带阻尼的更新来最终确定目标的位置和大小,可以防止过于敏感的目标状态变化,同时还能降低跟踪错误或是目标候选错误带来的影响,从而让跟踪器更为鲁棒;
步骤十一:通过步骤三中记录的响应最大、最小和响应置信图(w,h)位置上的响应Fmax,Fmin,Fw,h以及公式计算跟踪效果判据APCE来判断跟踪的效果好坏,当APCE判据相对于历史均值急剧下降时,跟踪效果不佳,其中mean(·)表示求平均值操作,∑(·)表示求和操作;进一步地,计算颜色概率均值判断目标表观特征以及背景变化程度,其中和分别表示当前帧和前一帧颜色概率图(w,h)位置上的像素值,(W,H)表示图像块的长宽;
最后通过公式自适应的调节学习率进行模板更新,其中η为模板更新的学习率,η1,η2,η3为自适应学习率的值,σ为APCE判据判断跟踪效果的阈值,γ1为颜色概率均值判断目标表观特征以及背景变化的程度的阈值;
当APCE判据相对于历史均值急剧下降即APCE<σ,此时跟踪效果不佳,其中σ取7.2,设置学习率为η1=0;当ACPE≥σ,跟踪效果较好时,再通过颜色概率均值判断目标表观特征以及背景变化程度,当颜色概率均值小于阈值γ1=0.63时,说明目标表观特征和背景变化较慢,选用学习率η2=0.0125;当颜色概率均值大于阈值γ1=0.63时,说明目标表观特征和背景变化较快,选用学习率η3=0.07;从而达到自适应的调整模板更新学习率的目的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910201149.9A CN109949344B (zh) | 2019-03-18 | 2019-03-18 | 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910201149.9A CN109949344B (zh) | 2019-03-18 | 2019-03-18 | 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109949344A CN109949344A (zh) | 2019-06-28 |
CN109949344B true CN109949344B (zh) | 2022-12-27 |
Family
ID=67009003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910201149.9A Active CN109949344B (zh) | 2019-03-18 | 2019-03-18 | 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109949344B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533690B (zh) * | 2019-08-08 | 2022-02-11 | 河海大学 | 特征融合与学习率优化的核相关滤波水下目标跟踪方法 |
CN110472577B (zh) * | 2019-08-15 | 2022-02-15 | 江南大学 | 一种基于自适应相关滤波的长时视频跟踪方法 |
CN111028269B (zh) * | 2019-12-26 | 2023-12-26 | 陕西理工大学 | 一种简单模拟时域正则化的目标跟踪模型更新方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015163830A1 (en) * | 2014-04-22 | 2015-10-29 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | Target localization and size estimation via multiple model learning in visual tracking |
CN105787481A (zh) * | 2016-04-05 | 2016-07-20 | 湖南人文科技学院 | 一种基于目标性潜在区域分析的目标检测算法及其应用 |
CN105844647A (zh) * | 2016-04-06 | 2016-08-10 | 哈尔滨伟方智能科技开发有限责任公司 | 一种基于颜色属性的核相关目标跟踪方法 |
CN106611165A (zh) * | 2016-12-26 | 2017-05-03 | 广东工业大学 | 一种基于相关滤波和颜色匹配的汽车车窗检测方法及装置 |
CN107452015A (zh) * | 2017-07-28 | 2017-12-08 | 南京工业职业技术学院 | 一种具有重检测机制的目标跟踪系统 |
CN107610156A (zh) * | 2017-09-02 | 2018-01-19 | 西安电子科技大学 | 基于引导滤波和核相关滤波的红外弱小目标跟踪方法 |
CN107748873A (zh) * | 2017-10-31 | 2018-03-02 | 河北工业大学 | 一种融合背景信息的多峰目标跟踪方法 |
CN108053419A (zh) * | 2017-12-27 | 2018-05-18 | 武汉蛋玩科技有限公司 | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 |
CN108776975A (zh) * | 2018-05-29 | 2018-11-09 | 安徽大学 | 一种基于半监督特征和滤波器联合学习的视觉跟踪方法 |
CN108876818A (zh) * | 2018-06-05 | 2018-11-23 | 国网辽宁省电力有限公司信息通信分公司 | 一种基于似物性和相关滤波的目标跟踪方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180204076A1 (en) * | 2017-01-13 | 2018-07-19 | The Regents Of The University Of California | Moving object detection and classification image analysis methods and systems |
KR102275452B1 (ko) * | 2017-03-16 | 2021-07-12 | 한국전자통신연구원 | 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치 |
KR101953626B1 (ko) * | 2017-06-29 | 2019-03-06 | 서강대학교산학협력단 | 다중 히스토그램을 이용한 객체 추적 방법 및 이를 이용한 객체 추적 시스템 |
-
2019
- 2019-03-18 CN CN201910201149.9A patent/CN109949344B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015163830A1 (en) * | 2014-04-22 | 2015-10-29 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | Target localization and size estimation via multiple model learning in visual tracking |
CN105787481A (zh) * | 2016-04-05 | 2016-07-20 | 湖南人文科技学院 | 一种基于目标性潜在区域分析的目标检测算法及其应用 |
CN105844647A (zh) * | 2016-04-06 | 2016-08-10 | 哈尔滨伟方智能科技开发有限责任公司 | 一种基于颜色属性的核相关目标跟踪方法 |
CN106611165A (zh) * | 2016-12-26 | 2017-05-03 | 广东工业大学 | 一种基于相关滤波和颜色匹配的汽车车窗检测方法及装置 |
CN107452015A (zh) * | 2017-07-28 | 2017-12-08 | 南京工业职业技术学院 | 一种具有重检测机制的目标跟踪系统 |
CN107610156A (zh) * | 2017-09-02 | 2018-01-19 | 西安电子科技大学 | 基于引导滤波和核相关滤波的红外弱小目标跟踪方法 |
CN107748873A (zh) * | 2017-10-31 | 2018-03-02 | 河北工业大学 | 一种融合背景信息的多峰目标跟踪方法 |
CN108053419A (zh) * | 2017-12-27 | 2018-05-18 | 武汉蛋玩科技有限公司 | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 |
CN108776975A (zh) * | 2018-05-29 | 2018-11-09 | 安徽大学 | 一种基于半监督特征和滤波器联合学习的视觉跟踪方法 |
CN108876818A (zh) * | 2018-06-05 | 2018-11-23 | 国网辽宁省电力有限公司信息通信分公司 | 一种基于似物性和相关滤波的目标跟踪方法 |
Non-Patent Citations (9)
Title |
---|
"Applying Detection Proposals to Visual Tracking for Scale and Aspect Ratio Adaptability";Dafei Huang 等;《International Journal of Computer Vision》;20161226;第122卷(第3期);524–541 * |
"Large margin object tracking with circulant feature maps";Wang M 等;《IEEE Conference on Computer Vision and Pattern Recognition》;20171109;4021-4029 * |
"Robust Scale Adaptive Visual Tracking with Correlation Filters";Chunbao Li等;《Appl. Sci.》;20181024;第8卷(第11期);2037 * |
"The Visual Object Tracking VOT2015 Challenge Results";M. Kristan 等;《 2015 IEEE International Conference on Computer Vision Workshop (ICCVW)》;20151231;564-586 * |
"基于多表观模型的长期视觉目标跟踪算法研究";栗宝俊;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20180615(第(2018)06期);I138-1719 * |
"基于机器视觉的无人机跟踪系统研究";朱俊辉;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20200815(第(2020)08期);C031-123 * |
"基于车牌检测的前方车辆识别方法";赵逸群 等;《吉林大学学报(信息科学版)》;20190315;第37卷(第02期);168-173 * |
"多旋翼无人机地面移动目标追踪与软着陆研究";张磊;《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》;20190115(第(2019)01期);C031-279 * |
"自适应特征选择的相关滤波跟踪算法";刘万军 等;《光学学报 网络首发》;20190225;1-21 * |
Also Published As
Publication number | Publication date |
---|---|
CN109949344A (zh) | 2019-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517288B (zh) | 基于全景多路4k视频图像的实时目标检测跟踪方法 | |
Zhang et al. | Moving cast shadows detection using ratio edge | |
CN109949344B (zh) | 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 | |
CN112819772B (zh) | 一种高精度快速图形检测识别方法 | |
CN111914698B (zh) | 图像中人体的分割方法、分割系统、电子设备及存储介质 | |
CN111340842B (zh) | 一种基于联合模型的相关滤波目标跟踪方法 | |
US20140050392A1 (en) | Method and apparatus for detecting and tracking lips | |
CN110555868A (zh) | 一种复杂地面背景下运动小目标检测方法 | |
CN111581313A (zh) | 一种基于实例分割的语义slam鲁棒性改进方法 | |
CN111598788B (zh) | 一种基于四叉树分解与非局部先验的单幅图像去雾方法 | |
CN109858454A (zh) | 一种基于双模型自适应核相关滤波追踪方法 | |
CN111914832A (zh) | 一种rgb-d相机在动态场景下的slam方法 | |
CN112288780A (zh) | 多特征动态加权的目标跟踪算法 | |
Min et al. | COEB-SLAM: A Robust VSLAM in Dynamic Environments Combined Object Detection, Epipolar Geometry Constraint, and Blur Filtering | |
CN116777956A (zh) | 基于多尺度航迹管理的运动目标筛选方法 | |
CN111950599A (zh) | 一种动态环境下融合边缘信息的稠密视觉里程计方法 | |
CN116665097A (zh) | 一种结合上下文感知的自适应目标跟踪方法 | |
CN112991395B (zh) | 一种基于前景条件概率优化尺度和角度的视觉跟踪方法 | |
CN107392936B (zh) | 一种基于meanshift的目标跟踪方法 | |
Xu et al. | Moving target tracking based on adaptive background subtraction and improved camshift algorithm | |
CN112508168B (zh) | 基于预测框自动修正的边框回归神经网络构建方法 | |
CN114067240A (zh) | 一种融合行人特性的在线更新策略行人单目标跟踪方法 | |
CN102917222A (zh) | 基于自适应六边形搜索及五帧背景对齐的动背景视频对象提取 | |
Takada et al. | Human tracking in crowded scenes using target information at previous frames | |
Mohammadi et al. | Enhanced adaptive bandwidth tracking using mean shift algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |