CN109887005B - 基于视觉注意机制的tld目标跟踪方法 - Google Patents

基于视觉注意机制的tld目标跟踪方法 Download PDF

Info

Publication number
CN109887005B
CN109887005B CN201910140403.9A CN201910140403A CN109887005B CN 109887005 B CN109887005 B CN 109887005B CN 201910140403 A CN201910140403 A CN 201910140403A CN 109887005 B CN109887005 B CN 109887005B
Authority
CN
China
Prior art keywords
target
tld
classifier
pixel
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910140403.9A
Other languages
English (en)
Other versions
CN109887005A (zh
Inventor
任红格
史涛
李军
李福进
张俊琴
刘矗
秦琴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Chengjian University
Original Assignee
Tianjin Chengjian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Chengjian University filed Critical Tianjin Chengjian University
Priority to CN201910140403.9A priority Critical patent/CN109887005B/zh
Publication of CN109887005A publication Critical patent/CN109887005A/zh
Application granted granted Critical
Publication of CN109887005B publication Critical patent/CN109887005B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于视觉注意机制的TLD目标跟踪方法,属于人工智能技术领域。本发明以原TLD目标跟踪方法为基础,对TLD的检测模块进行视觉注意机制的显著区域提取能够排除非显著区域的干扰,通过视觉显著性可有效筛选显著信息,形成视觉显著图,再对显著图进行分类,再对TLD算法的检测模块进一步优化,集成分类器建立目标模型和背景模型,再将集成分类器的输出作为最近邻分类器的输入,筛选出相似样本。本发明在外界环境干扰下稳定性较好,在目标发生遮挡和快速转转时,视觉注意机制对目标特征实时更新,表现出良好性能。

Description

基于视觉注意机制的TLD目标跟踪方法
技术领域
本发明涉及了一种基于视觉注意机制的TLD目标跟踪方法,属于人工智能技术领域。
技术背景
随着机器视觉技术的发展,目标跟踪已经慢慢成为很有前景的发展方向逐渐成为研究的热点。运动目标的跟踪已经成熟的运用到当下社会中的交通辅助、机器人的研发、人体行为分析和视频监控中,目标的跟踪已经慢慢的变成很有前景的发展方向,而此项技术的日趋成熟,是依靠计算机技术的飞速发展,计算和存储的成本也已经大幅度降低。我国的对目标跟踪技术的钻研,开始于上世纪60年代末,到现在已经经过了五十多年的成长,目前我国的目标跟踪技术已经有了很大的发展。国内的清华大学、国防科技大学、北京理工大学和中国科学院等高校研究院对目标跟踪技术开展理论加实践的钻研,已经取得很大成果,目前很多目标跟踪的方法已经得到了产品的检验,并已经被运用到了实际的工程跟踪系统。
TLD目标跟踪方法作为一种半监督在线学习的跟踪方法,其与传统目标跟踪方法的一个显著区别就是,没有单纯的局限于跟踪或者检测,而是将跟踪与检测相结合,引入在线学习机制,成功解决了传统跟踪方法目标丢失后无法获取,无法实现长时跟踪的问题;有效地解决了跟踪过程中目标形变、光照变化和部分遮挡等问题。算法主要分为三个部分:跟踪模块、检测模块和学习模块。跟踪器模块估计目标在帧与帧之间的运动,给出目标的轨迹;检测器进行全局检测,发现定位所有目标可能存在的区域;学习器对检测结果进行评估,根据跟踪结果对检测器进行训练,且计算简单、运算速度快,对目标跟踪过程中出现的光照改变,尺度改变有很好的性能。TLD算法在目标跟踪方面得到广泛应用。
相关的专利如申请号CN108320306 A的发明专利公开了一种融合TLD和KCF的视频目标跟踪方法特征是确定初始目标帧中目标区域位置和大小,同时将初始帧输入到TLD算法模块和KCF算法模块中;TLD算法模块和KCF算法模块并行运行,如果对当前帧的处理TLD算法模块和KCF算法模块只有一个模块有跟踪目标输出,则把该输出作为当前帧的跟踪结果;如果两个跟踪模块都有跟踪目标输出,则分别计算跟踪目标输出与目标模型M之间的相似度St和Sk,选择St和Sk中最大者作为目标跟踪结果。申请公布号CN104574439 A的发明专利公开了一种融合卡尔曼滤波与TLD算法的目标跟踪方法,其特征在于分析和利用卡尔曼滤波器的原理,并对其加以改进,再利用改进的卡尔曼滤波器增强TLD算法;通过改进的卡尔曼滤波来增强TLD算法,即根据目标位置的时间步长,获得同步更新的参数传递矩阵;缩小TLD算法的检测区域。但是,以上专利目标跟踪在复杂环境中容易导致漂移现象,跟踪结果的稳定性不高,目标出现遮挡和尺度变化时跟踪的稳定性方面取得的结果尚不尽如人意。
发明内容:
针对目标跟踪在复杂环境中容易导致漂移现象,跟踪结果的稳定不高这一问题,本发明以原TLD目标跟踪方法为基础,提出一种基于视觉注意机制的TLD目标跟踪方法,在外界环境干扰下稳定性较好,在目标发生遮挡和快速转转时,视觉注意机制对目标特征实时更新,表现出良好性能,为完成对目标跟踪的特征提取和特征更新包括如下步骤:
步骤1:对TLD的检测模块进行视觉注意机制的显著区域提取能够排除非显著区域的干扰,通过视觉显著性可有效筛选显著信息,形成视觉显著图,再对显著图进行分类;
步骤2:再对TLD算法的检测模块进一步优化,集成分类器建立目标模型和背景模型,再将集成分类器的输出作为最近邻分类器的输入,筛选出相似样本。
采用上述技术方案的本发明,与现有技术相比,其突出的特点是:
在原始TLD算法的基础上,是一种特征提取更准确,跟踪效果更稳定的STLD算法。
作为优选,本发明更进一步的技术方案是:
给予视觉注意机制的显著区域提取是先对每个特征的不同尺度的特征图进行归一化处理,形成一幅该特征的综合显著图,然后再将不同特征的显著图进行归一化处理获得最好的视觉显著图。
步骤二中计算图像中每个像素颜色的概率分布如公式:
Figure GDA0004160082350000031
其中ωc表示像素x标记为C类的权值,μc为标记C类颜色的均值,∑c为协方差矩阵,Ix为x的像素值。
步骤二中,对集成分类器建立目标模型和背景模型,并对模型进行更新,避免因遮挡和尺度变化导致跟踪漂移,提高目标跟踪的稳定性。
附图说明
图1是本发明实施例Itti模型图;
图2是本发明实施例K均值聚类过程图;
图3是本发明实施例集成分类器示意图;
图4是本发明实施例最近邻分类器示意图。
具体实施方式
下面结合实施例对本发明作进一步说明,目的仅在于更好地理解本发明内容,因此,所举之例并不限制本发明的保护范围。
一种基于视觉注意机制的TLD目标跟踪方法,包括如下步骤:
步骤一:基于对比度的方法利用图像中每一个区域的像素与背景像素的各个区域对比来计算显著区域,Itti算法为了模拟感受野的中心—外周拮抗的结构,对各种特征分别在特征金字塔的不同尺度间作差,先把输入图像表示成9层的高斯金字塔,如图1所示,然后对金字塔每一层分别提取各种特征。算子的数学描述如公式(1):
Figure GDA0004160082350000032
其中P为中心像素,Q为周边像素,先对每个特征的不同尺度的特征图进行归一化处理,形成一幅该特征的综合显著图,然后再将不同特征的显著图进行归一化处理获得最好的视觉显著图;
利用k均值聚类的方法,如图2所示,将视觉显著图的颜色分布进行简单分类将颜色差不多的像素点归于一类,自然图像中颜色呈正态性分布,即p(x|ωii)~N(μi,∑i),因此用多元正态分布来构建图中像素颜色的直方图,根据高斯混合模式(GaussianMixture Models)计算图像中每个像素颜色的概率分布如公式(2):
Figure GDA0004160082350000041
其中ωc表示像素x标记为C类的权值,μc为标记C类颜色的均值,∑c为协方差矩阵,Ix为x的像素值,设ωc=1/c,再通过期望值最大算法,可求得个参数的实际值,再代入公式(3):
Figure GDA0004160082350000042
其中xh,xv分别为像素x的横纵坐标,Gh,Gv分别为像素颜色分布的中心位置,Mc为中间变量。
步骤二:中集成分类器赋予每个窗口一个后验概率,当后验概率大于百分之50时,表明扫描窗口与目标有相似特征,找到相似候选区域,经过筛选进入最近邻分类器,通过后验概率的大小判断当前扫描窗口是否需要进入下一级分类器,如果概率小于百分之50,则舍弃,集成分类器原理如图3所示,利用颜色直方图构建的模型能有效缓解快速旋转下的背景干扰问题,接着建立目标颜色图像的概率模型,根据颜色直方图提取的显著区域,利用集成分类器对目标像素和背景像素进行建模,如公式(4):
Figure GDA0004160082350000043
其中O,B分别表示目标像素区域和背景像素区域,P(bc|c∈O)表示O中像素c属于区间bc的直方图概率,P(bc|c∈Ω)表示像素空间Ω中属于区间bc的直方图概率,P(c∈O|O,B,bc)为集成分类器模型。
将集成分类器的输出作为集成分类器的输入,如图4所示,选择其中一个分类结构,从结构中计算待分类样本与已分类样本的距离关系,从中找到K个距离相同的样本类别,出现频率较高的类别样本为筛选出的相似样本,最近邻分类器是检测模块的最后一级分类器,通过计算待分类样本与样本库中正、负样本模型的相关相似度进行分类,相关相似度的计算方法如公式(5):
Figure GDA0004160082350000051
其中Sr为样本相似度,S+为正样本近邻相似度,S-为负样本近邻相似度。
本发明以原始TLD目标跟踪方法为基础,改进为SGLD算法,将TLD算法与视觉注意机制相结合。即首先基于视觉注意机制显著区域检测的思想对TLD的检测模块进行改进,通过视觉显著区域提取,提高样本选取质量,再通过集成分类器建立目标模型和候选模型,提高跟踪方法的稳定性能。实验结果表明改进后的算法在光照变化,部分遮挡和尺度变化等复杂环境下具有较好的稳定性,实时性也有较大提高,是一种特征提取更准确,跟踪效果更稳定的STLD算法。

Claims (3)

1.一种基于视觉注意机制的TLD目标跟踪方法,其特征在于,以原始TLD算法为原型,融入视觉注意机制显著提取,再对TLD算法的集成分类器进行建模,算法结合设计包括如下步骤:
步骤一:对TLD的检测模块进行视觉注意机制的显著区域提取能够排除非显著区域的干扰,通过视觉显著性可有效筛选显著信息,形成视觉显著图,再对显著图进行分类;利用k均值聚类的方法,将视觉显著图的颜色分布进行简单分类将颜色差不多的像素点归于一类,自然图像中颜色呈正态性分布,即p(x|ωii)~N(μii),因此用多元正态分布来构建图中像素颜色的直方图,根据高斯混合模式(Gaussian Mixture Models)计算图像中每个像素颜色的概率分布如公式(2):
Figure FDA0004177948920000011
其中ωc表示像素x标记为C类的权值,μc为标记C类颜色的均值,Σc为协方差矩阵,Ix为x的像素值,设ωc=1/c,再通过期望值最大算法,可求得个参数的实际值,再代入公式(3):
Figure FDA0004177948920000012
其中xh,xv分别为像素x的横纵坐标,Gh,Gv分别为像素颜色分布的中心位置,Mc为中间变量;
步骤二:再对TLD算法的检测模块进一步优化,集成分类器建立目标模型和背景模型,再将集成分类器的输出作为最近邻分类器的输入,筛选出相似样本;中集成分类器赋予每个窗口一个后验概率,当后验概率大于百分之50时,表明扫描窗口与目标有相似特征,找到相似候选区域,经过筛选进入最近邻分类器,通过后验概率的大小判断当前扫描窗口是否需要进入下一级分类器,如果概率小于百分之50,则舍弃,集成分类器原理,利用颜色直方图构建的模型能有效缓解快速旋转下的背景干扰问题,接着建立目标颜色图像的概率模型,根据颜色直方图提取的显著区域,利用集成分类器对目标像素和背景像素进行建模,如公式(4):
Figure FDA0004177948920000021
其中O,B分别表示目标像素区域和背景像素区域,P(bc|c∈O)表示O中像素c属于区间bc的直方图概率,P(bc|c∈Ω)表示像素空间Ω中属于区间bc的直方图概率,P(c∈O|O,B,bc)为集成分类器模型;
将集成分类器的输出作为集成分类器的输入,选择其中一个分类结构,从结构中计算待分类样本与已分类样本的距离关系,从中找到K个距离相同的样本类别,出现频率较高的类别样本为筛选出的相似样本,最近邻分类器是检测模块的最后一级分类器,通过计算待分类样本与样本库中正、负样本模型的相关相似度进行分类,相关相似度的计算方法如公式(5):
Figure FDA0004177948920000022
其中Sr为样本相似度,S+为正样本近邻相似度,S-为负样本近邻相似度。
2.根据权利要求1所述的基于视觉注意机制的TLD目标跟踪方法,其特征在于:给予视觉注意机制的显著区域提取是先对每个特征的不同尺度的特征图进行归一化处理,形成一幅该特征的综合显著图,然后再将不同特征的显著图进行归一化处理获得最好的视觉显著图。
3.根据权利要求1所述的基于视觉注意机制的TLD目标跟踪方法,其特征在于:步骤二中,对集成分类器建立目标模型和背景模型,并对模型进行更新,避免因遮挡和尺度变化导致跟踪漂移,提高目标跟踪的稳定性。
CN201910140403.9A 2019-02-26 2019-02-26 基于视觉注意机制的tld目标跟踪方法 Active CN109887005B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910140403.9A CN109887005B (zh) 2019-02-26 2019-02-26 基于视觉注意机制的tld目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910140403.9A CN109887005B (zh) 2019-02-26 2019-02-26 基于视觉注意机制的tld目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109887005A CN109887005A (zh) 2019-06-14
CN109887005B true CN109887005B (zh) 2023-05-30

Family

ID=66929266

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910140403.9A Active CN109887005B (zh) 2019-02-26 2019-02-26 基于视觉注意机制的tld目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109887005B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113311700B (zh) * 2020-02-27 2022-10-04 陕西师范大学 一种非平均机制引导的uuv集群协同控制方法

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049751A (zh) * 2013-01-24 2013-04-17 苏州大学 一种改进的加权区域匹配高空视频行人识别方法
CN103077521A (zh) * 2013-01-08 2013-05-01 天津大学 一种用于视频监控的感兴趣区域提取方法
CN103116896A (zh) * 2013-03-07 2013-05-22 中国科学院光电技术研究所 一种基于视觉显著性模型的自动检测跟踪方法
CN103186717A (zh) * 2013-01-18 2013-07-03 中国科学院合肥物质科学研究院 一种基于启发式宽度优先搜索肿瘤相关基因的方法
CN103400129A (zh) * 2013-07-22 2013-11-20 中国科学院光电技术研究所 一种基于频域显著性的目标跟踪方法
CN103514448A (zh) * 2013-10-24 2014-01-15 北京国基科技股份有限公司 船形识别方法和系统
CN103942562A (zh) * 2014-03-27 2014-07-23 河海大学 基于多分类器组合的高光谱图像分类方法
CN104156715A (zh) * 2014-09-01 2014-11-19 杭州朗和科技有限公司 一种终端设备、信息采集方法及装置
CN105631456A (zh) * 2015-12-15 2016-06-01 安徽工业大学 一种基于粒子群优化itti模型的白细胞区域提取方法
CN105868775A (zh) * 2016-03-23 2016-08-17 深圳市颐通科技有限公司 基于pso算法的不平衡样本分类方法
CN106204615A (zh) * 2016-07-20 2016-12-07 安徽大学 一种基于中心矩形构图先验的显著目标检测方法
CN107403175A (zh) * 2017-09-21 2017-11-28 昆明理工大学 一种运动背景下的视觉跟踪方法及视觉跟踪系统
CN107430680A (zh) * 2015-03-24 2017-12-01 英特尔公司 多层皮肤检测和融合手势匹配
CN108447078A (zh) * 2018-02-28 2018-08-24 长沙师范学院 基于视觉显著性的干扰感知跟踪算法
CN108537134A (zh) * 2018-03-16 2018-09-14 北京交通大学 一种视频语义场景分割及标注方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020065828A1 (en) * 2000-07-14 2002-05-30 Goodspeed John D. Network communication using telephone number URI/URL identification handle
US9497213B2 (en) * 2013-03-15 2016-11-15 Fireeye, Inc. System and method to manage sinkholes

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077521A (zh) * 2013-01-08 2013-05-01 天津大学 一种用于视频监控的感兴趣区域提取方法
CN103186717A (zh) * 2013-01-18 2013-07-03 中国科学院合肥物质科学研究院 一种基于启发式宽度优先搜索肿瘤相关基因的方法
CN103049751A (zh) * 2013-01-24 2013-04-17 苏州大学 一种改进的加权区域匹配高空视频行人识别方法
CN103116896A (zh) * 2013-03-07 2013-05-22 中国科学院光电技术研究所 一种基于视觉显著性模型的自动检测跟踪方法
CN103400129A (zh) * 2013-07-22 2013-11-20 中国科学院光电技术研究所 一种基于频域显著性的目标跟踪方法
CN103514448A (zh) * 2013-10-24 2014-01-15 北京国基科技股份有限公司 船形识别方法和系统
CN103942562A (zh) * 2014-03-27 2014-07-23 河海大学 基于多分类器组合的高光谱图像分类方法
CN104156715A (zh) * 2014-09-01 2014-11-19 杭州朗和科技有限公司 一种终端设备、信息采集方法及装置
CN107430680A (zh) * 2015-03-24 2017-12-01 英特尔公司 多层皮肤检测和融合手势匹配
CN105631456A (zh) * 2015-12-15 2016-06-01 安徽工业大学 一种基于粒子群优化itti模型的白细胞区域提取方法
CN105868775A (zh) * 2016-03-23 2016-08-17 深圳市颐通科技有限公司 基于pso算法的不平衡样本分类方法
CN106204615A (zh) * 2016-07-20 2016-12-07 安徽大学 一种基于中心矩形构图先验的显著目标检测方法
CN107403175A (zh) * 2017-09-21 2017-11-28 昆明理工大学 一种运动背景下的视觉跟踪方法及视觉跟踪系统
CN108447078A (zh) * 2018-02-28 2018-08-24 长沙师范学院 基于视觉显著性的干扰感知跟踪算法
CN108537134A (zh) * 2018-03-16 2018-09-14 北京交通大学 一种视频语义场景分割及标注方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Visual saliency detection based on Bayesian model;XIE Y;《IEEE International Conference on Image Processing》;20111231;第61-64页 *
基于特征融合视觉显著性的医学图像分割;吴迪等;《中国医学物理学杂志》;20180625(第06期);第56-61页 *
基于视觉显著图的结构反稀疏在线目标跟踪;胡正平等;《信号处理》;20170125(第01期);第47-56页 *
基于集成分类算法的自动图像标注;蒋黎星等;《自动化学报》;20120815(第08期);第31-36页 *

Also Published As

Publication number Publication date
CN109887005A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN108154118B (zh) 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN106096561B (zh) 基于图像块深度学习特征的红外行人检测方法
CN106845374B (zh) 基于深度学习的行人检测方法及检测装置
CN108346159A (zh) 一种基于跟踪-学习-检测的视觉目标跟踪方法
Xu et al. Learning-based shadow recognition and removal from monochromatic natural images
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
CN112184752A (zh) 一种基于金字塔卷积的视频目标跟踪方法
CN110210551A (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
Tvoroshenko et al. Analysis of existing methods for searching object in the video stream
CN110033473A (zh) 基于模板匹配和深度分类网络的运动目标跟踪方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN109993052B (zh) 一种复杂场景下尺度自适应的目标跟踪方法和系统
CN111723693A (zh) 一种基于小样本学习的人群计数方法
CN106096658B (zh) 基于无监督深度空间特征编码的航拍图像分类方法
CN106815323A (zh) 一种基于显著性检测的跨域视觉检索方法
CN112489089B (zh) 一种微型固定翼无人机机载地面运动目标识别与跟踪方法
CN112613565B (zh) 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法
CN114663707A (zh) 基于Faster RCNN改进的少样本目标检测方法
CN112085765A (zh) 结合粒子滤波及度量学习的视频目标跟踪方法
CN116109950A (zh) 一种低空域反无人机视觉检测、识别与跟踪方法
Tarchoun et al. Hand-Crafted Features vs Deep Learning for Pedestrian Detection in Moving Camera.
CN112818905A (zh) 一种基于注意力和时空信息的有限像素车辆目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20210121

Address after: No.26 Jinjing Road, Xiqing District, Tianjin 300380

Applicant after: Tianjin Chengjian University

Address before: 063210 Tangshan City Caofeidian District, Hebei Province, Tangshan Bay eco Town, Bohai Road, 21

Applicant before: NORTH CHINA University OF SCIENCE AND TECHNOLOGY

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant