CN107748873B - 一种融合背景信息的多峰目标跟踪方法 - Google Patents
一种融合背景信息的多峰目标跟踪方法 Download PDFInfo
- Publication number
- CN107748873B CN107748873B CN201711054038.7A CN201711054038A CN107748873B CN 107748873 B CN107748873 B CN 107748873B CN 201711054038 A CN201711054038 A CN 201711054038A CN 107748873 B CN107748873 B CN 107748873B
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- ith frame
- ith
- output response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000004044 response Effects 0.000 claims abstract description 61
- 238000012549 training Methods 0.000 claims abstract description 55
- 239000011159 matrix material Substances 0.000 claims abstract description 30
- 238000001914 filtration Methods 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 8
- 239000000284 extract Substances 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 22
- 230000009977 dual effect Effects 0.000 claims description 19
- 238000005070 sampling Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000012847 principal component analysis method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种融合背景信息的多峰目标跟踪方法,该方法利用目标附近的背景信息,在当前帧目标搜索框的左上、上、右上、左、右、左下、下、右下8个具体位置提取相同大小的背景信息作为候选目标搜索框,利用相关滤波跟踪方法的循环矩阵和高斯核函数计算候选目标框的响应,同时训练更新分类器参数,提高目标发生旋转变化时成功率;考虑到相似目标干扰情况的存在,利用多峰目标检测策略,即目标位于目标输出响应图多个峰值中的任意一个的可能性,提高目标跟踪的精确度。
Description
技术领域
本发明属于计算机视觉的目标跟踪技术领域,具体是基于一种融合背景信息的多峰目标跟踪方法。
背景技术
随着目标跟踪技术的快速发展,其已成为计算机视觉中的重要组成部分,广泛应用于人机交互、安防监控和无人驾驶等方面。目前,目标跟踪仍面临着严重的挑战,如何解决目标跟踪中的旋转变化、尺度变化、相似目标干扰、算法漂移等问题,以及如何提高目标跟踪的精确度和成功率仍是视觉跟踪的研究难点和热点。
目标跟踪技术是一种通过分析和理解视频信息,实现对特定目标定位的综合性技术。能分为生成式跟踪和判别式跟踪,生成式跟踪方法是对目标表观模型进行建模,搜索与目标外观模型最相似的图像区域作为跟踪目标。判别式跟踪方法是将目标跟踪看成一个二元分类的问题,将目标从背景中分离出来,其主要是基于相关滤波方法。
Heriques等人(Henriques J F,Rui C,Martins P,et al.High-Speed Trackingwith Kernelized Correlation Filters[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2014,37(3):583-596.)提出相关滤波跟踪方法(KCF),主要采用核策略和循环矩阵,提取梯度方向直方图特征,扩展相关滤波器为多通道,提高跟踪精确度。Zhang Baochang等人(Zhang B,Li Z,Cao X,et al.Output Constraint Transfer forKernelized Correlation Filter in Tracking[J].IEEE Transactions on SystemsMan&Cybernetics Systems,2016,PP(99):1-11.)基于相关滤波跟踪方法提出目标输出约束算法,主要采用目标输出响应服从高斯分布,解决目标模型漂移问题。但这两种方法都有相同的缺点,固定尺寸的目标搜索窗未考虑到目标尺度变化;利用正样本的稠密采样来产生大量样本,这不能充分考虑到真实的目标背景信息;单一的梯度方向直方图特征对目标形变的鲁棒性低,不能解决目标形变问题;求解目标输出响应时选取最大值位置作为目标位置,未考虑到相似目标干扰情况;目标模型每帧都更新一次会增加计算量和产生过拟合现象。
发明内容
针对现有技术的不足,本发明拟解决的技术问题是,提供一种融合背景信息的多峰目标跟踪方法。该方法能提取目标的真实背景信息以解决目标旋转变化问题,利用多峰目标检测策略解决相似目标干扰问题,采用目标期望输出响应服从高斯分布解决目标跟踪遇到的算法漂移问题,这样有利于提高跟踪精确度和速度,实现目标跟踪。
本发明解决所述技术问题采用的技术方案是:提供一种融合背景信息的多峰目标跟踪方法,该方法利用目标附近的背景信息,在当前帧目标搜索框的左上、上、右上、左、右、左下、下、右下8个具体位置提取相同大小的背景信息作为候选目标搜索框,利用相关滤波跟踪方法的循环矩阵和高斯核函数计算候选目标框的响应,同时训练更新分类器参数,提高目标发生旋转变化时成功率;考虑到相似目标干扰情况的存在,利用多峰目标检测策略,即目标位于目标输出响应图多个峰值中的任意一个的可能性,提高目标跟踪的精确度。
上述方法的具体步骤是:
第一步、输入跟踪目标位置和尺寸:
从视频数据库中给定第一帧目标的目标位置信息(X1,Y1)和尺寸信息(W1,H1),视频序列的总帧数为n;依据第一帧目标位置获得第二帧训练样本的正样本信息;依据第一帧目标位置同时通过获得第二帧目标搜索框的位置信息(X1,Y1)和尺寸信息(2W1,2H1),然后获得第二帧输入样本的正样本信息;
第二步、提取第i帧训练样本和输入样本的目标特征:
运行到第i帧时,依据第i-1帧求得的目标位置和尺度信息,即(Xi-1,Yi-1,Wi-1,Hi-1),在第i-1帧图片中获得第i帧训练样本的正样本信息,再通过训练样本的正样本稠密采样获得第i帧大量训练样本,然后分别提取第i帧大量训练样本的灰度特征Gray、方向梯度直方图特征HOG、颜色命名特征CN,然后将颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG串联表示目标特征,即xi;
依据第i-1帧目标位置获得第i帧目标搜索框,具体是以第i-1帧目标的中心位置为第i帧的目标搜索框的中心位置,即(Xi-1,Yi-1),目标搜索框的大小为(2Wi-1,2Hi-1);此时目标搜索框内的图片就是第i帧输入样本的正样本,通过输入样本的正样本稠密采样获得第i帧大量输入样本,再分别提取第i帧大量输入样本的灰度特征Gray、方向梯度直方图特征HOG、颜色命名特征CN,然后将颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG串联表示目标特征,即zi;
第三步、建立第i帧最小损失函数:
提取第i帧大量训练样本的目标特征xi后,设定第i帧目标期望输出响应yi服从高斯分布,则有同时使用高斯先验不等式|(yi-μi)/σi|<θ约束输出响应yi,建立最小损失函数为式(1):
其中,f(xi)=wTxi表示第i帧目标输出响应;yi表示第i帧目标期望输出响应;λ1表示正则化因子;表示分类器参数,式中αi表示对偶空间的第i帧分类器参数,表示目标外观模型;μi,分别表示第i帧目标期望输出响应高斯分布的期望和方差;θ是约束yi的固定参数;
第四步、优化第i帧最小损失函数:
在第i帧目标搜索框的左上、上、右上、左、右、左下、下、右下8个具体位置增加8个候选目标搜索框,优化后的最小损失函数为式(2),通过调整8个候选目标搜索框的参数λ2的取值,进而使得候选目标搜索框对优化后的最小损失函数的回归解为0:
其中,表示第i帧的循环矩阵,m=1,…,8,分别对应八个候选目标搜索框;
第五步、训练第i帧分类器参数:
将第i帧大量训练样本的目标特征xi按照训练分类器参数,应用高斯核计算第i帧大量训练样本的目标特征xi的自核相关矩阵进而得到 为αi的傅里叶变换的共轭矩阵,由求出αi,完成第i帧分类器参数的训练;
第六步、计算第i帧输入样本目标输出响应:
运用第二步计算的第i帧大量输入样本的目标特征zi,按照式(3)计算第i帧输入样本目标输出响应,
其中,为应用高斯核计算训练样本的目标特征xi和输入样本的目标特征zi的核相关矩阵,表示第五步得到的的共轭矩阵,^表示傅里叶变换;
然后根据式(4)选择候选目标峰,再应用公式计算多峰目标响应p(zi)t;
其中,B是标识局部最大值位置的矩阵,分别为第i帧输入样本目标输出响应值、第i帧输入样本目标输出响应最大值、第i帧输入样本候选目标峰,·表示点乘运算,t表示第i帧候选目标峰的个数;
第七步、确定第i帧目标位置和目标尺寸,更新对偶空间的分类器参数和目标外观模型:
计算第i帧目标位置和目标尺寸:根据尺度池策略设定尺度池sl,先计算高斯尺度分布权重再计算不同尺度的最大输出响应为选择不同尺度的最大输出响应中p(sl)i最大值的位置(Xi,Yi)和第i帧具体变换尺度sli,求得第i帧目标位置(Xi,Yi)和目标尺寸为(sliWi,sliHi);
每隔5帧更新对偶空间的分类器参数,目标外观模型每帧都更新,第i帧对偶空间的分类器参数和目标外观模型的更新公式为:其中αi由的共轭矩阵的傅里叶逆变换得到,η表示学习速率;
第八步、循环跟踪:
重复第二步-第七步,得到所有帧视频序列的目标位置和目标尺寸,完成目标跟踪。
与现有技术相比,本发明的有益效果是:
(1)本发明提出假设目标期望输出响应服从高斯分布,约束输出响应,同时使用高斯先验方法,约束高斯分布的期望、方差,利用高斯分布简单、规律性强的特点,有效降低算法漂移问题,相对于相关滤波跟踪方法KCF将跟踪的精确度和成功率分别提高12.40%、11.03%。
(2)本发明考虑到目标的真实背景信息,在当前帧目标搜索框的左上、上、右上、左、右、左下、下、右下方向增加8个候选目标搜索框,这8个候选目标搜索框的具体位置见图2,候选目标搜索框的尺寸和目标搜索框的尺寸相同,增加候选目标搜索框即增加目标的真实背景信息,能优化分类器参数,提高分类器训练样本的能力,也能有效解决目标旋转变化问题,相对于相关滤波跟踪方法(KCF)能将跟踪的精确度和成功率分别提高8.89%、12.57%。
(3)在用相关滤波跟踪方法计算目标输出响应时,采用多峰目标检测策略,改变传统的只考虑目标输出响应最高峰,将满足阈值条件的多个峰都作为候选目标峰考虑,能避免相似目标和背景嘈杂的干扰,相对于相关滤波跟踪方法(KCF)能将跟踪的精确度和成功率分别提高1.75%、3.29%。
(4)从训练样本和输入样本中提取目标颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG,采用主成分分析法将CN的维数从11维降低到2维,选择2种主要颜色特征,既能充分表达颜色信息也能减少计算量,再用多特征融合策略将CN、Gray、HOG串联表示目标特征,对光照变化、运动模糊、对目标形变都有较高的鲁棒性,相对于相关滤波跟踪方法(KCF)能提高跟踪的精确度和成功率。
(5)在目标外观模型和对偶空间的分类器参数更新时,改变传统的目标外观模型和对偶空间的分类器参数均每帧插值更新的策略,采用目标外观模型每帧更新,对偶空间的分类器参数每隔5帧更新一次,能减少相关滤波跟踪方法(KCF)的计算量,也能减轻过拟合现象,减少计算量,提高跟踪速度。
附图说明
图1是本发明融合背景信息的多峰目标跟踪方法的流程图。
图2是本发明的8个候选目标搜索框。
具体实施方式
下面结合实施例及附图进一步解释本发明,但并不以此作为对本申请保护范围的限定。
本发明融合背景信息的多峰目标跟踪方法(简称方法,参见图1),利用目标附近的背景信息,在当前帧目标搜索框的左上、上、右上、左、右、左下、下、右下8个具体位置提取相同大小的背景信息作为候选目标搜索框,利用循环矩阵和高斯核函数计算候选目标框的响应,同时训练更新分类器参数,提高目标发生旋转变化时成功率;考虑到相似目标干扰情况的存在,利用多峰目标检测策略,即目标位于目标输出响应图(目标输出响应是一个二维图)多个峰值中的任意一个的可能性,能提高目标跟踪的精确度;具体包括以下步骤:
第一步、输入跟踪目标位置和尺寸:
从视频数据库中给定第一帧目标的目标位置信息(X1,Y1)和尺寸信息(W1,H1),视频序列的总帧数为n;依据第一帧目标位置获得第二帧训练样本的正样本信息;依据第一帧目标位置获得第二帧目标搜索框的位置信息(X1,Y1)和尺寸信息(2W1,2H1),然后获得第二帧输入样本的正样本信息;所述视频数据库为本领域公认的数据库,该数据库由许多视频序列构成,每一个视频序列均由连续的图片帧构成,并提供了真实数据值;
第二步、提取第i帧训练样本和输入样本的目标特征:
运行到第i帧时,依据第i-1帧求得的目标位置和尺度信息,即(Xi-1,Yi-1,Wi-1,Hi-1),在第i-1帧图片中获得第i帧训练样本的正样本信息,再通过训练样本的正样本稠密采样获得第i帧大量训练样本,然后分别提取第i帧大量训练样本的灰度特征Gray、方向梯度直方图特征HOG、颜色命名特征CN,最后将颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG串联表示目标特征,即xi;
依据第i-1帧目标位置获得第i帧目标搜索框,具体是以第i-1帧目标的中心位置为第i帧的目标搜索框的中心位置,即(Xi-1,Yi-1),目标搜索框的大小为(2Wi-1,2Hi-1);此时目标搜索框内的图片就是第i帧输入样本的正样本,通过输入样本的正样本稠密采样获得第i帧大量输入样本,再分别提取第i帧大量输入样本的灰度特征Gray、方向梯度直方图特征HOG、颜色命名特征CN,然后将颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG串联表示目标特征,即zi;
灰度特征Gray是最简单和直观的特征表达方式。方向梯度直方图特征HOG是对目标的轮廓、形状信息进行有效的表达,对光照变化和运动模糊有较高的鲁棒性。
使用PCA主成分分析法在不减少主要特征信息的同时降低特征维数,提取颜色命名特征CN。颜色命名特征CN是一种全局特征,不依赖于图像本身的尺寸、方向、视角,对目标形变有较高的鲁棒性。
将目标颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG串联表示目标特征。串联后的目标特征能利用更多的图像特征信息,提高目标跟踪遇到目标形变、光照变化等情况时的跟踪成功率和精确度。
第三步、建立第i帧最小损失函数:
提取第i帧大量训练样本的目标特征xi后,设定第i帧目标期望输出响应yi服从高斯分布,则有同时使用高斯先验不等式|(yi-μi)/σi|<θ约束输出响应yi,建立最小损失函数为式(1),可以有效降低算法的漂移问题;
其中,f(xi)=wTxi表示第i帧目标输出响应;yi表示第i帧目标期望输出响应;λ1表示正则化因子;表示分类器参数,式中αi表示对偶空间的第i帧分类器参数,表示目标外观模型;μi,分别表示第i帧目标期望输出响应高斯分布的期望和方差;θ是约束yi的固定参数;
第四步、优化第i帧最小损失函数:
在第i帧目标搜索框的左上、上、右上、左、右、左下、下、右下8个具体位置增加8个候选目标搜索框,提取目标的真实背景信息,能有效解决目标旋转变化问题,优化后的最小损失函数为式(2),通过调整λ2的取值使得候选目标搜索框对优化后的最小损失函数的回归解为0:
其中,表示第i帧的循环矩阵,m=1,…,8,分别对应八个候选目标搜索框;λ2表示8个候选目标搜索框的参数,一般为已知值;
第五步、训练第i帧分类器参数:
通过第i帧大量训练样本的目标特征xi按照训练分类器参数,应用高斯核计算第i帧大量训练样本的目标特征xi的自核相关矩阵进而得到 为式中αi的傅里叶变换的共轭矩阵;表示目标外观模型,由求出αi,完成第i帧分类器参数的训练;
第六步、计算第i帧输入样本目标输出响应:
运用第二步计算的第i帧大量输入样本的目标特征zi,按照式(3)计算第i帧输入样本目标输出响应,
其中,应用高斯核计算训练样本的目标特征xi和输入样本的目标特征zi的核相关矩阵 表示第五步得到的的共轭矩阵,^表示傅里叶变换;
然后根据式(4)选择候选目标峰,再应用公式计算多峰目标响应p(zi)t,采用多峰目标检测策略,避免相似目标和背景嘈杂的干扰;
其中,B是标识局部最大值位置的矩阵,分别为第i帧输入样本目标输出响应值、第i帧输入样本目标输出响应最大值、第i帧输入样本候选目标峰,·表示点乘运算,t表示第i帧候选目标峰的个数;
第七步、确定第i帧目标位置和目标尺寸,更新对偶空间的分类器参数和目标外型模型:
计算第i帧目标位置和目标尺寸:根据尺度池策略设定尺度池sl,先计算高斯尺度分布权重再计算不同尺度的最大输出响应为选择不同尺度的最大输出响应中p(sl)i最大值的位置(Xi,Yi)和第i帧具体变换尺度sli,求得第i帧目标位置(Xi,Yi)和目标尺寸为(sliWi,sliHi);利用尺度池策略解决目标尺度变化问题,在尺度池方法的基础上引入了高斯尺度分布权重,保证尺度变化的鲁棒性;
每隔5帧更新对偶空间的分类器参数,降低对偶空间的分类器参数更新频率,节约算法运行时间和避免算法漂移问题;目标外观模型每帧都更新,第i帧对偶空间的分类器参数和目标外观模型的更新公式为:其中αi由的共轭矩阵的傅里叶逆变得到,η表示学习速率;
第八步、循环跟踪:
重复第二步-第七步,得到所有帧视频序列的目标位置和目标尺寸,完成目标跟踪。
本发明在所有帧视频序列都求得目标位置和目标尺寸后,以精确度和成功率两个评价标准作为评价依据,先计算跟踪求得的目标中心位置与真实目标中心位置的距离,再计算距离低于20个像素的帧数占总帧数的百分比来评价精确度;通过先计算跟踪的目标搜素框与真实的目标搜索窗口的重叠率,再计算重叠率大于0.5的帧数占总帧数的百分比来评价成功率。将上述计算的精确度与成功率与核相关滤波跟踪方法(KCF)的精确度和成功率对比,其结果均显示本申请跟踪方法跟踪精确度和成功率均显著提高。
实施例1
本实施例融合背景信息的多峰目标跟踪方法,结合图1,包括下面几个步骤:
第一步、输入跟踪目标位置和尺寸:
步骤1,输入第一帧目标信息(X1,Y1,W1,H1)。其中,X1,Y1,W1,H1分别表示目标的横坐标、纵坐标(坐标系默认在图片的左上角)、宽、高;
步骤2,依据第一帧目标信息(X1,Y1,W1,H1)获得第二帧训练样本的正样本信息,同时获得第二帧目标搜索框的信息(X1,Y1,2W1,2H1);
步骤3,依据第二帧目标搜索框的信息(X1,Y1,2W1,2H1)获得第二帧输入样本的正样本信息;
第二步、提取第i帧训练样本和输入样本的目标特征:
步骤4,同理,运行到第i帧时,依据第i-1帧求得的目标位置(Xi-1,Yi-1)、尺度信息(Wi-1,Hi-1)可求得第i帧训练样本的正样本信息和第i帧目标搜索框的信息(Xi-1,Yi-1,2Wi-1,2Hi-1),然后通过目标搜索框信息获得第i帧输入样本的正样本信息;
步骤5,通过对第i帧训练样本的正样本和输入样本的正样本分别进行稠密采样相应获得大量训练样本和大量输入样本;
步骤6,分别提取大量训练样本和大量输入样本的颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG;
步骤7,使用PCA主成分分析法将11维的颜色命名特征CN降低为2维;
步骤8,再将大量训练样本和大量输入样本的降维后颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG各自串联,分别表示大量训练样本的目标特征xi和大量输入样本的目标特征zi;
第三步、建立第i帧最小损失函数:
步骤9,提取第i帧大量训练样本的目标特征xi后,设定第i帧目标期望输出响应yi满足高斯先验不等式|(yi-μi)/σi|<θ,同时服从高斯分布,满足建立最小损失函数为其中θ=1.6,μi,分别表示第i帧目标期望输出响应高斯分布的期望和方差;
第四步、优化第i帧最小损失函数:
步骤10,根据第二步求得的第i帧目标搜索框(Xi-1,Yi-1,2Wi-1,2Hi-1),在其附近增加8个候选目标搜索框,候选目标搜索框的尺度都为(2Wi-1,2Hi-1),以左上角为准,中心位置分别为左上(Xi-1-2Wi-1,Yi-1+2Hi-1)、上(Xi-1,Yi-1+2Hi-1)、右上(Xi-1+2Wi-1,Yi-1+2Hi-1)、左(Xi-1-2Wi-1,Yi-1)、右(Xi-1+2Wi-1,Yi-1)、左下(Xi-1-2Wi-1,Yi-1-2Hi-1)、下(Xi-1,Yi-1-2Hi-1)、右下(Xi-1+2Wi-1,Yi-1-2Hi-1),优化最小损失函数为 表示第i帧分别对应八个候选目标搜索框的循环矩阵;
第五步、训练第i帧分类器参数:
步骤11,运用高斯核计算大量训练样本的目标特征xi的自核相关矩阵其中,σ=0.5;
步骤12,利用按照计算对偶空间的第i帧分类器参数。其中,λ1=0.0001,λ2=0.4,*表示共轭;
步骤13,利用计算αi,然后根据公式训练分类器参数w,其中,表示目标外观模型;
第六步、计算第i帧输入样本目标输出响应:
步骤14,应用高斯核计算训练样本的目标特征xi和输入样本的目标特征zi的核相关矩阵其中σ=0.5;
步骤15,利用计算目标输出响应
步骤16,计算选择候选目标峰,计算的多个候选目标峰的位置矩阵B。其中,B是标识f(z)t局部最大值位置的0-1矩阵,有峰的位置设为1,其他设为0,分别为第i帧输入样本目标输出响应值、第i帧输入样本目标输出响应最大值、第i帧输入样本候选目标峰,t表示第i帧输入样本候选目标峰的个数;
步骤17,根据步骤16求得的和B,按照计算多峰目标输出响应。其中,·表示点乘运算;
第七步、确定第i帧目标位置和尺寸信息,更新对偶空间的的分类器参数和目标外观模型:
步骤18,设定尺度池sl=[1 0.985 0.99 0.995 1.005 1.01 1.015];
步骤19,考虑尺度变化对目标位置的影响,先计算高斯尺度分布权重再计算不同尺度的最大输出响应
步骤20,选择不同尺度的最大输出响应p(sl)i中最大值的位置(Xi,Yi)即为目标位置(Xi,Yi);
步骤21,根据步骤20求得第i帧具体变换尺度sli,求得第i帧目标位置(Xi,Yi)和目标尺寸为(sliWi,sliHi);
步骤22,每隔5帧应用公式αi=(1-η)αi-1+ηαi更新一次对偶空间的分类器参数αi,其中,η=0.01,其中αi由的共轭矩阵的傅里叶逆变得到;
步骤23,每一帧都应用公式更新目标外观模型
第八步、循环跟踪:
步骤24,循环步骤4-步骤23,直至视频序列运行到第n帧,输出目标位置(Xn,Yn)和尺寸(slnWn,slnHn)。
目标跟踪发生算法漂移、目标旋转变化、相似目标干扰、目标尺度变化问题时,将本实施例的跟踪方法与现有的KCF算法进行对比,同时对每一步骤具体特征的选择进行精确度和成功率的评价,具体实验结果参见表1。从表1中可以看出本实施例跟踪方法能有效提高精确度和速度,减少旋转变化属性、尺度变化属性、背景嘈杂属性等属性的视频序列跟踪的失败率。只约束目标期望输出时,精确度和成功率分别为0.834、0.574,相对于相关滤波跟踪方法(KCF)分别提高了12.4%、11.03%;只增加目标搜索框时,精确度和成功率分别为0.808、0.582,相对于相关滤波跟踪方法(KCF)分别提高了8.89%、12.57%;只增加多峰目标检测时,精确度和成功率分别为0.755、0.534,相对于相关滤波跟踪方法(KCF)分别提高了1.75%、3.29%;最后本申请的精确度和成功率分别为0.839、0.589,相对于相关滤波跟踪方法(KCF)分别提高了13.07%、13.93%。
表1
所有上述只是结合图1对本发明的具体说明,本发明可以在保护范围之内作任何形式和内容的变化。
本发明未述及之处适用于现有技术。
Claims (1)
1.一种融合背景信息的多峰目标跟踪方法,该方法利用目标附近的背景信息,在当前帧目标搜索框的左上、上、右上、左、右、左下、下、右下8个具体位置提取相同大小的背景信息作为候选目标搜索框,利用相关滤波跟踪方法的循环矩阵和高斯核函数计算候选目标框的响应,同时训练更新分类器参数,提高目标发生旋转变化时成功率;考虑到相似目标干扰情况的存在,利用多峰目标检测策略,即目标位于目标输出响应图多个峰值中的任意一个的可能性,提高目标跟踪的精确度;
该方法的具体步骤是:
第一步、输入跟踪目标位置和尺寸:
从视频数据库中给定第一帧目标的目标位置信息(X1,Y1)和尺寸信息(W1,H1),视频序列的总帧数为n;依据第一帧目标位置获得第二帧训练样本的正样本信息;依据第一帧目标位置信息获得第二帧目标搜索框的位置信息(X1,Y1)和尺寸信息(2W1,2H1),然后获得第二帧输入样本的正样本信息;
第二步、提取第i帧训练样本和输入样本的目标特征:
运行到第i帧时,依据第i-1帧求得的目标位置和尺度信息,即(Xi-1,Yi-1,Wi-1,Hi-1),在第i-1帧图片中获得第i帧训练样本的正样本信息,再通过训练样本的正样本稠密采样获得第i帧大量训练样本,然后分别提取第i帧大量训练样本的灰度特征Gray、方向梯度直方图特征HOG、颜色命名特征CN,最后将颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG串联表示目标特征,即xi;
依据第i-1帧目标位置获得第i帧目标搜索框,具体是以第i-1帧目标的中心位置为第i帧的目标搜索框的中心位置,即(Xi-1,Yi-1),目标搜索框的大小为(2Wi-1,2Hi-1);此时目标搜索框内的图片就是第i帧输入样本的正样本,通过输入样本的正样本稠密采样获得第i帧大量输入样本,再分别提取第i帧大量输入样本的灰度特征Gray、方向梯度直方图特征HOG、颜色命名特征CN,然后将颜色命名特征CN、灰度特征Gray、方向梯度直方图特征HOG串联表示目标特征,即zi;
第三步、建立第i帧最小损失函数:
提取第i帧大量训练样本的目标特征xi后,设定第i帧目标期望输出响应yi服从高斯分布,则有同时使用高斯先验不等式|(yi-μi)/σi|<θ约束输出响应yi,建立最小损失函数为式(1);
其中,f(xi)=wTxi表示第i帧目标输出响应;yi表示第i帧目标期望输出响应;λ1表示正则化因子;表示分类器参数,式中αi表示对偶空间的第i帧分类器参数,表示目标外观模型;μi,分别表示第i帧目标期望输出响应高斯分布的期望和方差;θ是约束yi的固定参数;
第四步、优化第i帧最小损失函数:
在第i帧目标搜索框的左上、上、右上、左、右、左下、下、右下8个具体位置增加8个候选目标搜索框,优化后的最小损失函数为式(2),通过调整8个候选目标搜索框的参数λ2的取值使得候选目标搜索框对优化后的最小损失函数的回归解为0:
其中,表示第i帧的循环矩阵,m=1,…,8,分别对应八个候选目标搜索框;
第五步、训练第i帧分类器参数:
通过第i帧大量训练样本的目标特征xi按照训练分类器参数,应用高斯核计算第i帧大量训练样本的目标特征xi的自核相关矩阵进而得到 为αi的傅里叶变换的共轭矩阵,由求出αi,完成第i帧分类器参数的训练;
第六步、计算第i帧输入样本目标输出响应:
运用第二步计算的第i帧大量输入样本的目标特征zi,按照式(3)计算第i帧输入样本目标输出响应,
其中,为应用高斯核计算训练样本的目标特征xi和输入样本的目标特征zi的核相关矩阵,表示第五步得到的的共轭矩阵,^表示傅里叶变换;
然后根据式(4)选择候选目标峰,再应用公式计算多峰目标响应p(zi)t;
其中,B是标识局部最大值位置的矩阵,分别为第i帧输入样本目标输出响应值、第i帧输入样本目标输出响应最大值、第i帧输入样本候选目标峰,·表示点乘运算,t表示第i帧候选目标峰的个数;
第七步、确定第i帧目标位置和目标尺寸,更新对偶空间的分类器参数和目标外观模型:
计算第i帧目标位置和目标尺寸:根据尺度池策略设定尺度池sl,先计算高斯尺度分布权重再计算不同尺度的最大输出响应为选择不同尺度的最大输出响应中p(sl)i最大值的位置(Xi,Yi)和第i帧具体变换尺度sli,求得第i帧目标位置(Xi,Yi)和目标尺寸为(sliWi,sliHi);
每隔5帧更新对偶空间的分类器参数,目标外观模型每帧都更新,第i帧对偶空间的分类器参数和目标外观模型的更新公式为:其中αi由的共轭矩阵的傅里叶逆变换得到,η表示学习速率;
第八步、循环跟踪:
重复第二步-第七步,得到所有帧视频序列的目标位置和目标尺寸,完成目标跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711054038.7A CN107748873B (zh) | 2017-10-31 | 2017-10-31 | 一种融合背景信息的多峰目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711054038.7A CN107748873B (zh) | 2017-10-31 | 2017-10-31 | 一种融合背景信息的多峰目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107748873A CN107748873A (zh) | 2018-03-02 |
CN107748873B true CN107748873B (zh) | 2019-11-26 |
Family
ID=61254297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711054038.7A Expired - Fee Related CN107748873B (zh) | 2017-10-31 | 2017-10-31 | 一种融合背景信息的多峰目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107748873B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647694B (zh) * | 2018-04-24 | 2021-04-16 | 武汉大学 | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 |
CN108776975B (zh) * | 2018-05-29 | 2021-11-05 | 安徽大学 | 一种基于半监督特征和滤波器联合学习的视觉跟踪方法 |
CN109033955B (zh) * | 2018-06-15 | 2020-08-14 | 中国科学院半导体研究所 | 一种人脸跟踪方法和系统 |
CN109102522B (zh) * | 2018-07-13 | 2021-08-31 | 北京航空航天大学 | 一种目标跟踪方法及装置 |
CN109284673B (zh) * | 2018-08-07 | 2022-02-22 | 北京市商汤科技开发有限公司 | 对象跟踪方法及装置、电子设备及存储介质 |
CN109410246B (zh) * | 2018-09-25 | 2021-06-11 | 杭州视语智能视觉系统技术有限公司 | 基于相关滤波的视觉跟踪的方法及装置 |
CN109949344B (zh) * | 2019-03-18 | 2022-12-27 | 吉林大学 | 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 |
CN110097575B (zh) * | 2019-04-28 | 2022-07-01 | 电子科技大学 | 一种基于局部特征及尺度池的目标跟踪方法 |
CN110473227B (zh) * | 2019-08-21 | 2022-03-04 | 图谱未来(南京)人工智能研究院有限公司 | 目标跟踪方法、装置、设备及存储介质 |
CN111340838B (zh) * | 2020-02-24 | 2022-10-21 | 长沙理工大学 | 一种基于多种特征融合的背景时空相关滤波跟踪方法 |
CN111598926B (zh) * | 2020-05-15 | 2023-10-13 | 武汉卓目科技有限公司 | 对eco特征提取性能进行优化的目标跟踪方法及装置 |
CN111931722B (zh) * | 2020-09-23 | 2021-02-12 | 杭州视语智能视觉系统技术有限公司 | 一种结合颜色比率特征的相关滤波跟踪方法 |
CN112329784A (zh) * | 2020-11-23 | 2021-02-05 | 桂林电子科技大学 | 一种基于时空感知及多峰响应的相关滤波跟踪方法 |
CN112614158B (zh) * | 2020-12-18 | 2022-08-26 | 北京理工大学 | 一种采样框自适应的多特征融合在线目标跟踪方法 |
CN113076969B (zh) * | 2021-02-24 | 2022-10-25 | 上海辛玮智能科技有限公司 | 基于混合高斯损失函数的图像目标检测方法 |
CN113222060A (zh) * | 2021-05-31 | 2021-08-06 | 四川轻化工大学 | 一种基于卷积特征和手工特征整合的视觉跟踪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886325A (zh) * | 2014-02-18 | 2014-06-25 | 浙江大学 | 一种分块的循环矩阵视频跟踪方法 |
US9026054B2 (en) * | 2011-12-20 | 2015-05-05 | Lg Electronics Inc. | Method and apparatus for detecting radio signal |
CN106570893A (zh) * | 2016-11-02 | 2017-04-19 | 中国人民解放军国防科学技术大学 | 一种基于相关滤波的快速稳健视觉跟踪方法 |
-
2017
- 2017-10-31 CN CN201711054038.7A patent/CN107748873B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9026054B2 (en) * | 2011-12-20 | 2015-05-05 | Lg Electronics Inc. | Method and apparatus for detecting radio signal |
CN103886325A (zh) * | 2014-02-18 | 2014-06-25 | 浙江大学 | 一种分块的循环矩阵视频跟踪方法 |
CN106570893A (zh) * | 2016-11-02 | 2017-04-19 | 中国人民解放军国防科学技术大学 | 一种基于相关滤波的快速稳健视觉跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107748873A (zh) | 2018-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107748873B (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
CN107767405B (zh) | 一种融合卷积神经网络的核相关滤波目标跟踪方法 | |
Cheng et al. | Pest identification via deep residual learning in complex background | |
CN109741318B (zh) | 基于有效感受野的单阶段多尺度特定目标的实时检测方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN110569723A (zh) | 一种结合特征融合与模型更新的目标跟踪方法 | |
CN108647694B (zh) | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 | |
CN106991689B (zh) | 基于fhog和颜色特征的目标跟踪方法及gpu加速 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN107481264A (zh) | 一种自适应尺度的视频目标跟踪方法 | |
Ye et al. | A two-stage real-time YOLOv2-based road marking detector with lightweight spatial transformation-invariant classification | |
CN110569782A (zh) | 一种基于深度学习目标检测方法 | |
Geng et al. | Combining CNN and MRF for road detection | |
CN103810503A (zh) | 一种基于深度学习的自然图像中显著区域的检测方法 | |
Haider et al. | Human detection in aerial thermal imaging using a fully convolutional regression network | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
Xiao et al. | Traffic sign detection based on histograms of oriented gradients and boolean convolutional neural networks | |
Tao et al. | An adaptive frame selection network with enhanced dilated convolution for video smoke recognition | |
Fu et al. | Robust multi-kernelized correlators for UAV tracking with adaptive context analysis and dynamic weighted filters | |
CN115375737A (zh) | 基于自适应时间与序列化时空特征的目标跟踪方法与系统 | |
Chen et al. | Single‐Object Tracking Algorithm Based on Two‐Step Spatiotemporal Deep Feature Fusion in a Complex Surveillance Scenario | |
Vaidya et al. | Hardware efficient modified CNN architecture for traffic sign detection and recognition | |
Xing et al. | Feature adaptation-based multipeak-redetection spatial-aware correlation filter for object tracking | |
CN108257148B (zh) | 特定对象的目标建议窗口生成方法及其在目标跟踪的应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20191126 |
|
CF01 | Termination of patent right due to non-payment of annual fee |