CN110135500B - 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 - Google Patents

一种基于自适应深度特征滤波器的多场景下目标跟踪方法 Download PDF

Info

Publication number
CN110135500B
CN110135500B CN201910413779.2A CN201910413779A CN110135500B CN 110135500 B CN110135500 B CN 110135500B CN 201910413779 A CN201910413779 A CN 201910413779A CN 110135500 B CN110135500 B CN 110135500B
Authority
CN
China
Prior art keywords
filter
foreground
target
depth feature
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910413779.2A
Other languages
English (en)
Other versions
CN110135500A (zh
Inventor
武港山
徐鹏飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201910413779.2A priority Critical patent/CN110135500B/zh
Publication of CN110135500A publication Critical patent/CN110135500A/zh
Application granted granted Critical
Publication of CN110135500B publication Critical patent/CN110135500B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Abstract

一种基于自适应深度特征滤波器的多场景下目标跟踪方法,将原始图像的目标区域从RGB空间转换到颜色命名空间当中,减小颜色变化的干扰,然后计算目标区域的前景概率图,根据前景概率图使用前景区域提取到的特征进行训练,以缓解边界效应,有效抑制背景中的噪声,使得本发明能够自适应地提取目标特征。本发明使用多层深度特征分别在相应的相关滤波器中进行训练,并且自适应地根据跟踪效果、滤波器稳定性、历史响应等信息更新相应深度特征滤波器的权重,在不同场景中引导跟踪模型自适应地选择有用的深度特征,能够在多种复杂场景中鲁棒地跟踪目标。相比于现有技术,本发明具有鲁棒性高的优点,能够在多种复杂场景中准确地进行目标跟踪。

Description

一种基于自适应深度特征滤波器的多场景下目标跟踪方法
技术领域
本发明属于计算机视觉技术领域,涉及多媒体技术中的视频目标跟踪,为一种基于自适应深度特征滤波器的多场景下目标跟踪方法,通过使用深度特征相关滤波器,自适应地在多种复杂场景中鲁棒地跟踪目标。
背景技术
视频目标跟踪任务是使用第一帧中已经标记的目标区域信息,自动化地预测后续帧中的目标区域信息,这些信息包括了目标区域的位置和大小。视频目标跟踪是广大科研人员重点关注的领域之一,并且已经在现实生活中取得了诸如眼球追踪、自动驾驶、智能监控等许多实际的应用。总的来说,根据目标跟踪模型的不同,目标跟踪算法大体上可以分为基于生成式模型的跟踪和基于判别式模型的跟踪。一般而言,典型的基于生成式模型的目标跟踪方法首先进行初始化以确定目标区域的状态,然后对当前帧的目标区域进行建模作为当前区域的特征表述,最后在下一帧中使用滑动窗口搜索候选目标,选择与上帧中目标区域模型最相似的窗口作为新的目标区域,mean-shift和粒子滤波便属于这种跟踪模型。与生成式模型不同,判别式模型区分了前景和背景信息,通过训练分类器分离背景和前景目标,跟踪结果更为鲁棒,也成为广泛使用的跟踪方法。诸如KCF、C-COT便属于这种跟踪模型。
但是,现有的目标跟踪方法存在许多缺陷。第一,现有跟踪方法大多在训练时使用循环矩阵来获取正负样例,这样会引入边界信息从而造成很强的边界效应。汉明窗能在一定程度上解决这个问题,但是会屏蔽掉背景中的关联信息,并且当前景物体不分布在中心时会造成模型漂移。第二,传统的滤波模型直接使用颜色直方图、HOG等手工设计特征进行训练,这些低层次的信息在光照突变、非刚性形变等复杂条件下表现并不好。深度特征能够从更加抽象的层次对目标进行表示,但目前大多数方法仅使用单层神经网络进行特征提取,其他使用多层深度特征的方法也不能很好的与滤波模型融合。第三,目前的使用多层深度特征滤波器的跟踪方法通常对不同层的深度特征滤波器分配固定的权重。由于低层深度特征能够表示物体轮廓、边缘等低维信息,高层深度特征表示语义信息,因此在面对非刚性形变、遮挡等不同场景时,不同层深度特征的重要性也不同,固定的权重无法发挥深度特征强大的表示能力。第四,目前的跟踪方法通常设置固定的模型学习率来进行模型更新,在目标发生快速变化时会由于模型更新不及时而产生漂移,在发生漂移时又会由于更新过慢而加速错误在模型中的传播。
发明内容
本发明要解决的问题是:现有的视频目标跟踪技术存在的边界效应,不能很好地融合深度特征,深度特征滤波器权重固定,模型学习率固定,不能适应多种复杂场景的缺点。
本发明的技术方案为:一种基于自适应深度特征滤波器的多场景下目标跟踪方法,在视频目标跟踪过程中对视频帧进行处理,实现目标跟踪,包括以下步骤:
1)生成训练样例:第一帧的训练样例为手工标注的跟踪目标区域,后续帧的训练样例是预测出的目标区域,在训练样例上使用循环矩阵生成正样例和负样例,用于训练深度特征滤波器;
2)自适应地提取前景目标:先将原始视频帧图像的RGB颜色空间转换到颜色命名空间当中,然后在颜色命名空间当中计算颜色命名分布直方图,每个像素的前景概率使用颜色命名分布直方图近似计算,由贝叶斯准则推导出来,通过对先验概率进行近似化表示,通过对每个像素计算前景概率生成前景概率图,确定前景目标区域;
3)深度特征滤波器的训练和目标区域的位置计算:使用VGGNet-19的第3、4、5层卷积层分别对训练样例进行特征提取,仅选取前景目标区域提取到的深度特征训练对应的相关滤波器,每一层的深度特征分别有一个对应的相关滤波器,针对各层深度特征,分别使用训练好的滤波器在当前处理的视频帧中计算响应图,各个响应图加权融合后生成最终响应图,最终响应图中响应最大的位置为目标区域的预测位置;
4)自适应地更新深度特征滤波器权重:根据深度特征滤波器产生的响应计算对应的损失函数,用一段时间周期内各个滤波器损失的均值和标准差建立高斯分布,以此来估计这段时间周期内各个滤波器的稳定性,并使用滤波器的稳定性因子来构建遗失函数,通过最小化遗失函数来自适应地确定新的滤波器权重;
5)自适应地更新学习模型;分别计算前景概率模型和深度特征滤波器模型的置信度,根据置信度的高低自适应地调整相应模型的学习速率;
6)对目标区域进行尺度估计:由于目标区域的大小会发生改变,单独使用一维尺度相关滤波器来估计目标区域的尺度,在预测的目标区域处采用不同的尺度变换,将采集到的不同尺度块送入尺度滤波器,使用响应最大的尺度作为目标区域的预测尺度,预测位置和预测尺度作为目标区域的预测结果。
进一步的,步骤2)中前景概率图的计算方式具体为:
2.1)将原始图像x0位置处的RGB颜色空间映射到颜色命名空间中,所述映射为:
Figure BDA0002063671380000031
其中,i表示各个语义颜色通道,x表示像素在原始图像中的位置,G为高斯函数,σ为其标准差,Ωc(x0)表示以x0为中心半径为c的一片区域,Φi(x)表示位置x处的像素属于第i个颜色通道的概率;
2.2)在转换到颜色命名空间的图像L中计算某片区域Ω的直方图,计算方式为:
Figure BDA0002063671380000032
其中,Ω表示图像L中的某片区域,F和B分别表示图像L的前景区域和背景区域,δ为狄拉克函数,binx表示统计区间,L(x)表示颜色命名图像L中位置x处的像素值。
2.3)分别对前景区域F和背景区域B计算颜色命名直方图,由贝叶斯准则可以计算出x处为前景区域的概率为:
Figure BDA0002063671380000033
对先验概率进行近似化表示,后验概率可以通过统计直方图进行计算,因此前景和背景的先验概率近似表示为:
Figure BDA0002063671380000034
其中F和B表示前景区域和背景区域的基数面积,则区域属于前景区域的概率为:
Figure BDA0002063671380000035
通过在目标区域中各个像素计算前景概率,即可生成前景概率图。
作为优选方式,步骤3)中,仅使用前景概率图中前景概率较高的区域提取到的特征训练深度特征滤波器,每一层的深度特征分别有一个对应的相关滤波器。使用前景概率图中前景区域提取的特征比直接使用整个区域的特征更加鲁棒,缓解了边界效应。每层深度特征分别对应一个相关滤波器,相比于融合多层深度特征之后使用单个相关滤波器,更能发挥深度特征强大的表达能力。
进一步的,步骤4)中,滤波器权重更新的具体方式为:
4.1)假定第t帧画面在
Figure BDA0002063671380000041
处产生的响应值为/>
Figure BDA0002063671380000042
Figure BDA0002063671380000043
为产生的响应矩阵,第k个滤波器预测结果的损失函数为:
Figure BDA0002063671380000044
4.2)在△t的时间周期内,第k个滤波器的损失可以通过平均值为
Figure BDA0002063671380000045
标准差为/>
Figure BDA0002063671380000046
的高斯函数进行建模:
Figure BDA0002063671380000047
Figure BDA0002063671380000048
4.3)在△t的时间周期内,通过历史损失的均值和标准差来衡量该滤波器的稳定性,该滤波器的稳定性因子计算为:
Figure BDA0002063671380000049
通过稳定性因子来构建该滤波器的遗失函数为:
Figure BDA00020636713800000410
其中,
Figure BDA00020636713800000411
γ为尺度因子,g为当前遗失函数在时域中的最大半径。通过将上式最小化,该级深度特征滤波器的新权重计算为:/>
Figure BDA00020636713800000412
其中,
Figure BDA00020636713800000413
ct为尺度因子。
进一步的,步骤5)中前景概率模型置信度的计算采用相邻两帧的平均像素差:
Figure BDA00020636713800000414
其中,
Figure BDA00020636713800000415
为第t帧原始图像(m,n)处的像素值,MN为原始图像的基数面积。
进一步的,步骤5)中深度特征滤波器模型置信度的计算采用相关滤波峰旁比:
Figure BDA00020636713800000416
其中,max(ft)为第t帧响应图的最大响应值,μt和δt分别为响应值的均值和方差。
进一步的,步骤5)中根据相邻两帧平均像素差的取值来调整前景概率模型的学习速率,预先定义阈值
Figure BDA0002063671380000051
和/>
Figure BDA0002063671380000052
将前景概率模型的状态分隔为:稳定状态、相对稳定状态、不稳定状态,根据每个不同的状态对前景概率模型设置不同的学习率,学习率更新公式为:
Figure BDA0002063671380000053
其中,α0为前景概率模型的初始学习率。
进一步的,步骤5)中根据相关滤波峰旁比的取值来调整深度特征滤波器模型的学习速率,预先定义阈值
Figure BDA0002063671380000054
和/>
Figure BDA0002063671380000055
将深度特征滤波器模型的状态分隔为:稳定状态、相对稳定状态、不稳定状态,根据每个不同的状态对深度特征滤波器模型设置不同的学习率,学习率更新公式为:
Figure BDA0002063671380000056
其中,β0为深度特征滤波器模型的初始学习率。
作为优选方式,步骤6)中进行尺度估计时,仅在深度特征滤波器处于稳定状态时才执行尺度估计。相比于每次都执行尺度估计的策略减小了计算复杂度,提升了跟踪性能。
本发明提供了一种基于自适应深度特征滤波器的多场景下目标跟踪方法,该方法先将原始图像的目标区域从RGB空间转换到颜色命名空间当中,减小了颜色变化带来的干扰。通过颜色命名直方图计算目标区域的前景概率图,根据前景概率图使用前景区域提取到的特征进行训练,这样可以缓解边界效应,有效抑制背景中的噪声,使得本发明能够自适应地提取目标特征。本发明使用多层深度特征分别在相应的相关滤波器中进行训练,并且自适应地根据跟踪效果更新相应深度特征滤波器的权重,在不同场景中引导跟踪模型自适应地选择有用的深度特征,能够在多种复杂场景中鲁棒地跟踪目标。同时本发明根据前景概率模型和深度特征滤波器模型的置信度自适应地调整对应模型的学习率,能够很好地处理模型发生污染和目标变化过快的问题。
本发明与现有技术相比有如下优点
本发明方法的优点是在多种复杂场景中都具有较高性能,有效缓解边界效应并抑制背景噪声,在不同场景中都能完全发挥深度特征的表达能力,能很好地处理模型污染和目标变化较快的问题。
第一,本发明通过计算前景概率图来确定目标区域中的前景目标,使用前景目标的特征训练跟踪模型。相比于直接提取特征进行训练的技术或者使用汉明窗提取特征进行训练的技术,本发明缓解了边界效应,在抑制背景噪声的同时又保留了背景中的关联信息。
第二,本发明使用多层深度特征分别在相应的相关滤波器中进行训练,并且自适应地根据跟踪效果更新相应深度特征滤波器的权重。相比与固定权重的技术,由于在诸如遮挡、快速运动等不同场景中,不同层的深度特征发挥的作用不同,本发明能够自适应地更新不同层深度特征的权重,在不同场景中引导跟踪模型自适应地选择有用的深度特征,能够在多种复杂场景中鲁棒地跟踪目标。
第三,本发明根据前景概率模型和深度特征滤波器模型的置信度自适应地调整对应模型的学习率,相比于固定学习率的技术,本发明在模型发生污染和目标变化较快时仍然可以准确地跟踪到目标。
附图说明
图1是本发明实施例的视频目标跟踪过程。
图2是不同的前景目标提取方法,A为目标区域,B为前景概率图提取到的前景目标,C为汉明窗提取到的前景目标。
图3是本发明的尺度计算过程。
图4是本发明在跟踪评测数据集OTB2013上与现有先进方法的对比曲线。
图5是本发明在跟踪评测数据集OTB2013上与现有先进方法的对比跟踪结果。
具体实施方式
本发明提出了一种基于自适应深度特征滤波器的多场景下目标跟踪方法。使用MATLAB编程语言实现了一个目标跟踪系统。系统通过读取第一帧中带有目标区域标记的视频,自动在后续帧中标记系统预测的目标区域。
图1是本发明实施例的视频目标跟踪过程。本发明具体实施步骤如下:
1.生成训练样例。第一帧的训练样例为手工标注的跟踪目标区域,后续帧的训练样例是预测出的目标区域,在训练样例上使用循环矩阵生成正样例和负样例,用于训练深度特征滤波器;
2.自适应地提取前景目标。目标区域包含了许多背景噪声,汉明窗不能缓解边界效应,并且会屏蔽背景中的关联信息,所以本发明使用前景概率图来获取前景目标。图2展示了不同的前景目标提取方法,A为目标区域,B为前景概率图提取到的前景目标,C为汉明窗提取到的前景目标。
首先计算训练样例的前景概率图,具体方式为:
2.1)将原始图像x0位置处的RGB颜色空间映射到颜色命名空间中,所述映射为:
Figure BDA0002063671380000071
其中,i表示各个语义颜色通道,x表示像素在原始图像中的位置,G为高斯函数,σ为其标准差,Ωc(x0)表示以x0为中心半径为c的一片区域,Φi(x)表示位置x处的像素属于第i个颜色通道的概率;
2.2)在转换到颜色命名空间的图像L中计算某片区域Ω的直方图,计算方式为:
Figure BDA0002063671380000072
其中,Ω表示图像L中的某片区域,F和B分别表示图像L的前景区域和背景区域,δ为狄拉克函数,binx表示统计区间,L(x)表示颜色命名图像L中位置x处的像素值。
2.3)分别对前景区域F和背景区域B计算颜色命名直方图,由贝叶斯准则可以计算出x处为前景区域的概率为:
Figure BDA0002063671380000073
对先验概率进行近似化表示,后验概率可以通过统计直方图进行计算,因此前景和背景的先验概率近似表示为:
Figure BDA0002063671380000074
其中F和B表示前景区域和背景区域的基数面积,统计区间与语义颜色通道取值范围相同,表示是在各个通道中统计。则区域属于前景区域的概率为:
Figure BDA0002063671380000075
通过在目标区域中各个像素计算前景概率,即可生成前景概率图。在前景概率图中,前景概率较大的区域即为前景目标区域。
3.深度特征滤波器的训练和目标区域位置计算。使用VGGNet-19的第3、4、5层卷积层分别对训练样例进行特征提取,仅选取前景区域提取到的深度特征训练对应的相关滤波器。假定第d层神经网络提取到的深度特征向量为x,其长、宽、通道数分别为M、N、D,σ为其标准差,训练样本集表示为xm,n,(m,n)∈{0,1,…M-1}×{0,1,…N-1},每个样本在叠加高斯分布之后均有一个期望输出
Figure BDA0002063671380000081
故相关滤波器的训练过程可以视为解决一个最优化问题:
Figure BDA0002063671380000082
其中λ为正则化系数,w*为某层特征学习到的相关滤波器。本发明对于三层深度特征,使用了三个对应的相关滤波器来预测目标区域位置,上述优化问题可以在各自的滤波器中使用快速傅里叶变换来进行加速求解,各自学习到的滤波器可以表示为:
Figure BDA0002063671380000083
大写字母表示转换到傅里叶域中的信号,如Y为y(m,n)转换到傅里叶域的信号,Wd表示第d层特征学习到的相关滤波器,表示Hadamard积。使用前面帧中训练好的滤波器,在当前帧中计算响应图,假定神经网络在第d层提取到的深度特征为z,那么该层特征对应的滤波器在后面视频帧图像中产生的响应图为:
Figure BDA0002063671380000084
其中F-1为逆向快速傅里叶变换,该响应图的最大值即为该层深度特征训练的滤波器在下一帧中预测的目标位置,假定
Figure BDA0002063671380000085
表示第t帧中第k层深度特征滤波器产生的最大响应/>
Figure BDA0002063671380000086
则三层深度特征滤波器联合产生的最终预测位置为:
Figure BDA0002063671380000087
其中,
Figure BDA0002063671380000088
为第k层深度特征滤波器的权重,且有/>
Figure BDA0002063671380000089
4.自适应地更新深度特征滤波器权重。滤波器权重更新的具体方式为:
4.1)假定第t帧画面在
Figure BDA00020636713800000810
处产生的响应值为/>
Figure BDA00020636713800000811
Figure BDA00020636713800000812
为产生的响应矩阵,第k个滤波器预测结果的损失函数为:
Figure BDA00020636713800000813
4.2)在△t的时间周期内,第k个滤波器的损失可以通过平均值为
Figure BDA00020636713800000814
标准差为/>
Figure BDA00020636713800000815
的高斯函数进行建模:
Figure BDA0002063671380000091
Figure BDA0002063671380000092
4.3)在△t的时间周期内,使用历史损失的均值和标准差来衡量该滤波器的稳定性,该滤波器的稳定性因子计算为:
Figure BDA0002063671380000093
通过稳定性因子来构建该滤波器的遗失函数为:
Figure BDA0002063671380000094
其中,
Figure BDA0002063671380000095
γ为尺度因子,g为当前遗失函数在时域中的最大半径。通过将式1最小化,该级深度特征滤波器的更新权重计算为:
Figure BDA0002063671380000096
/>
其中,
Figure BDA0002063671380000097
ct为尺度因子。
5.自适应地更新学习模型。分别计算前景概率模型和深度特征滤波器模型的置信度,根据置信度的取值调整相应模型的学习率。首先,采用相邻两帧的平均像素差来评估前景概率模型的置信度:
Figure BDA0002063671380000098
其中,
Figure BDA0002063671380000099
为第t帧原始图像(m,n)处的像素值,MN为原始图像的基数面积。
根据相邻两帧平均像素差的取值来调整前景概率模型的学习速率,预先定义阈值
Figure BDA00020636713800000910
和/>
Figure BDA00020636713800000911
将前景概率模型的状态分隔为:稳定状态、相对稳定状态、不稳定状态,根据所处的状态对前景概率模型设置不同的学习率,学习率更新公式为:
Figure BDA00020636713800000912
其中,α0为前景概率模型的初始学习率。
然后,采用相关滤波峰旁比来评估深度特征滤波器模型的置信度:
Figure BDA00020636713800000913
其中,max(ft)为第t帧响应图的最大响应值,μt和δt分别为响应值的均值和方差。
根据相关滤波峰旁比的取值来调整深度特征滤波器模型的学习速率,预先定义阈值
Figure BDA0002063671380000101
和/>
Figure BDA0002063671380000102
将深度特征滤波器模型的状态分隔为:稳定状态、相对稳定状态、不稳定状态,根据所处的状态对深度特征滤波器模型设置不同的学习率,学习率更新公式为:
Figure BDA0002063671380000103
其中,β0为深度特征滤波器模型的初始学习率。
6.对目标区域进行尺度估计。目标跟踪是使用一个矩形框在视频中框出目标物体。物体在视频中的位置和大小都会变化,因此目标跟踪可以分为两个方面:1.预测目标的位置,本发明把响应图的最大响应值位置作为预测位置,可以理解为预测矩形框的中心点位置;2.预测目标的大小(尺度估计),可以理解为在确定中心点后,计算矩形框的大小。本发明的步骤1-5是位置预测,步骤6为尺度估计。
由于目标区域的大小会发生改变,本发明单独使用一维尺度滤波器独立进尺度的计算。考虑到跟踪任务中位置的变化往往比尺度变化更明显,因此在预测目标区域位置之后才进行尺度估计。在预测的目标位置采集不同尺度的候选块进行相关滤波分析。假定当前帧训练样本x的目标大小为P×R,尺度大小为S,则以当前目标为中心截取大小为anP×anR的图像区域Jn,其中a表示尺度缩放因子,n的取值范围为:
Figure BDA0002063671380000104
图3是本发明的尺度计算过程。其中f为位置滤波器确定的中心,在不同尺度上提取特征之后,使用三维高斯滤波后构建输出g,最后根据g中的最大响应值确定最终尺度信息。
在进行尺度估计时,仅在深度特征滤波器处于稳定状态时才执行尺度估计。相比于每次都执行尺度估计的策略减小了计算复杂度,提升了跟踪性能。
本发明使用OTB2013数据集进行评估。OTB2013数据集包含了50个视频序列,也称为OTB50。该数据集包含了诸如水面、演唱会、野外等多种复杂场景,被跟踪的物体则包括了人脸、汽车、球等。这些不同的场景涵盖了许多跟踪任务中有挑战性的问题,比如:出视野、快速运动、尺度变化、光照变化、遮挡等。OTB2013数据集采用距离精度DP和重叠成功率OS两个指标对跟踪效果进行评估。其中,DP表示了跟踪算法预测框与真实框中心位置距离小于某个阈值的帧的百分比,通过一系列的阈值进行评估即可生成距离精度曲线。OS表示了跟踪算法预测框与真实框的交并比大于某个阈值的帧的百分比,即重叠成功率,通过一系列的阈值进行评估即可生成重叠成功率曲线。OTB数据集采取三种不同的评估方法对算法进行评估:一次通过评估OPE是经典的评估方法,在第一帧中给定真实值经过一次运行给出评估结果。时域鲁棒性评估TRE加入时间干扰因子,在随机一帧开始评估。空域鲁棒性评估SRE在第一帧的真实值中加入干扰。本发明的方法在相同数据集上没有随机性,因此采用一次通过评估OPE对距离精度DP和重叠成功率OS进行评估。
本发明使用VGGNet-19中的第3、4、5层卷积层作为深度特征的提取器,各层对应滤波器的初始权重分别设为:1,0.5,0.25,颜色命名直方图和相关滤波器的初始学习速率均设为0.11。本实施例的实验环境为ubuntu16.04LTS,具有i7-6850K的和Nvidia GeForce1080ti的显卡,64GB内存。
图4是本发明在跟踪评测数据集OTB2013上与现有先进方法的对比曲线。(a)为距离精度曲线DP,(b)为重叠成功率曲线OS,通过计算不同阈值下的距离精度和重叠成功率来进行绘制。
表1是本发明在OTB2013数据集中与先进方法的性能对比结果。第一行是对比的目标跟踪方法名称,本发明的名称为SAVT。本发明给出了各个方法在距离精度阈值为20时的距离精度DP以及阈值为0.6时的重叠成功率OS,可见本发明均有很好的表现。
图5是本发明在跟踪评测数据集OTB2013上与其他先进方法的对比跟踪结果。展示了本发明的方法与其他先进方法在不同视频序列中的跟踪效果,可见本发明的跟踪结果更加精确。
从表1、图4、图5可以看出,本发明在各项指标中都取得了最好的结果。
表1:本发明在OTB2013数据集中与目前先进方法的性能对比结果
Figure BDA0002063671380000111
/>

Claims (9)

1.一种基于自适应深度特征滤波器的多场景下目标跟踪方法,其特征是在视频目标跟踪过程中对视频帧进行处理,实现目标跟踪,包括以下步骤:
1)生成训练样例:第一帧的训练样例为手工标注的跟踪目标区域,后续帧的训练样例是预测出的目标区域,在训练样例上使用循环矩阵生成正样例和负样例,用于训练深度特征滤波器;
2)自适应地提取前景目标:先将原始视频帧图像的RGB颜色空间转换到颜色命名空间当中,然后在颜色命名空间当中计算颜色命名分布直方图,每个像素的前景概率使用颜色命名分布直方图近似计算,由贝叶斯准则推导出来,通过对先验概率进行近似化表示,通过对每个像素计算前景概率生成前景概率图,确定前景目标区域;
3)深度特征滤波器的训练和目标区域的位置计算:使用VGGNet-19的第3、4、5层卷积层分别对训练样例进行特征提取,仅选取前景目标区域提取到的深度特征训练对应的相关滤波器,每一层的深度特征分别有一个对应的相关滤波器,针对各层深度特征,分别使用训练好的滤波器在当前处理的视频帧中计算响应图,各个响应图加权融合后生成最终响应图,最终响应图中响应最大的位置为目标区域的预测位置;
4)自适应地更新深度特征滤波器权重:根据深度特征滤波器产生的响应计算对应的损失函数,用一段时间周期内各个滤波器损失的均值和标准差建立高斯分布,以此来估计这段时间周期内各个滤波器的稳定性,并使用滤波器的稳定性因子来构建遗失函数,通过最小化遗失函数来自适应地确定新的滤波器权重;
5)自适应地更新学习模型;分别计算前景概率模型和深度特征滤波器模型的置信度,根据置信度的高低自适应地调整相应模型的学习速率;
6)对目标区域进行尺度估计:由于目标区域的大小会发生改变,单独使用一维尺度相关滤波器来估计目标区域的尺度,在预测的目标区域处采用不同的尺度变换,将采集到的不同尺度块送入尺度滤波器,使用响应最大的尺度作为目标区域的预测尺度,预测位置和预测尺度作为目标区域的预测结果。
2.根据权利要求1所述的一种基于自适应深度特征滤波器的多场景下目标跟踪方法,其特征是步骤2)中前景概率图的计算方式具体为:
2.1)将原始图像x0位置处的RGB颜色空间映射到颜色命名空间中,所述映射为:
Figure FDA0003886078670000011
其中,i表示各个语义颜色通道,x表示像素在原始图像中的位置,G为高斯函数,σ为其标准差,Ωc(x0)表示以x0为中心半径为c的一片区域,Φi(x)表示位置x处的像素属于第i个颜色通道的概率;
2.2)在转换到颜色命名空间的图像L中计算某片区域Ω的直方图,计算方式为:
Figure FDA0003886078670000021
其中,Ω表示图像L中的某片区域,F和B分别表示图像L的前景区域和背景区域,δ为狄拉克函数,binx表示统计区间,L(x)表示颜色命名图像L中位置x处的像素值;
2.3)分别对前景区域F和背景区域B计算颜色命名直方图,由贝叶斯准则计算出x处为前景区域的概率为:
Figure FDA0003886078670000022
对先验概率进行近似化表示,则后验概率通过统计直方图进行计算,前景和背景的先验概率近似表示为:
Figure FDA0003886078670000023
其中|F|和|B|表示前景区域和背景区域的基数面积,则区域属于前景区域的概率为:
Figure FDA0003886078670000024
通过在目标区域中各个像素计算前景概率,即生成前景概率图。
3.根据权利要求1所述的一种基于自适应深度特征滤波器的多场景下目标跟踪方法,其特征是步骤4)中,滤波器权重更新的具体方式为:
4.1)假定第t帧画面在
Figure FDA0003886078670000025
处产生的响应值为
Figure FDA0003886078670000026
Figure FDA0003886078670000027
为产生的响应矩阵,则第k个滤波器预测结果的损失函数为:
Figure FDA0003886078670000028
4.2)在Δt的时间周期内,第k个滤波器的损失通过平均值为
Figure FDA0003886078670000029
标准差为
Figure FDA00038860786700000210
的高斯函数进行建模:
Figure FDA00038860786700000211
Figure FDA0003886078670000031
4.3)在Δt的时间周期内,通过历史损失的均值和标准差来衡量该滤波器的稳定性,该滤波器的稳定性因子计算为:
Figure FDA0003886078670000032
通过稳定性因子来构建该滤波器的遗失函数为:
Figure FDA0003886078670000033
其中,
Figure FDA0003886078670000034
γ为尺度因子,g为当前遗失函数在时域中的最大半径,通过将上式最小化,该级深度特征滤波器的新权重计算为:
Figure FDA0003886078670000035
其中,
Figure FDA0003886078670000036
ct为尺度因子。
4.根据权利要求1所述的一种基于自适应深度特征滤波器的多场景下目标跟踪方法,其特征是步骤5)中前景概率模型置信度的计算采用相邻两帧的平均像素差:
Figure FDA0003886078670000037
其中,
Figure FDA0003886078670000038
为第t帧的原始图像(m,n)处的像素值,MN为原始图像的基数面积。
5.根据权利要求4所述的一种基于自适应深度特征滤波器的多场景下目标跟踪方法,其特征是步骤5)中根据相邻两帧平均像素差的取值来调整前景概率模型的学习速率,预先定义的阈值
Figure FDA0003886078670000039
Figure FDA00038860786700000310
将前景概率模型的状态分隔为:稳定状态、相对稳定状态、不稳定状态,根据所处的状态对前景概率模型设置不同的学习率,学习率更新公式为:
Figure FDA00038860786700000311
其中,α0为前景概率模型的初始学习率。
6.根据权利要求1所述的一种基于自适应深度特征滤波器的多场景下目标跟踪方法,其特征是步骤5)中深度特征滤波器模型置信度的计算采用相关滤波峰旁比:
Figure FDA00038860786700000312
其中,max(ft)为第t帧响应图的最大响应值,μt和δt分别为响应值的均值和方差。
7.根据权利要求6所述的一种基于自适应深度特征滤波器的多场景下目标跟踪方法,其特征是步骤5)中根据相关滤波峰旁比的取值来调整深度特征滤波器模型的学习速率,预先定义阈值
Figure FDA0003886078670000041
Figure FDA0003886078670000042
将深度特征滤波器模型的状态分隔为:稳定状态、相对稳定状态、不稳定状态,根据所处的状态对深度特征滤波器模型设置不同的学习率,学习率更新公式为:
Figure FDA0003886078670000043
其中,β0为深度特征滤波器模型的初始学习率。
8.根据权利要求5或7所述的一种基于自适应深度特征滤波器的多场景下目标跟踪方法,其特征是步骤5)中前景概率模型和深度特征滤波器模型的初始学习速率均设置为0.11。
9.根据权利要求1所述的一种基于自适应深度特征滤波器的多场景下目标跟踪方法,其特征是步骤6)中进行尺度估计时,跟据步骤5)中的状态划分方式,仅在深度特征滤波器模型处于稳定状态时才执行尺度估计。
CN201910413779.2A 2019-05-17 2019-05-17 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 Active CN110135500B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910413779.2A CN110135500B (zh) 2019-05-17 2019-05-17 一种基于自适应深度特征滤波器的多场景下目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910413779.2A CN110135500B (zh) 2019-05-17 2019-05-17 一种基于自适应深度特征滤波器的多场景下目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110135500A CN110135500A (zh) 2019-08-16
CN110135500B true CN110135500B (zh) 2023-03-24

Family

ID=67575068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910413779.2A Active CN110135500B (zh) 2019-05-17 2019-05-17 一种基于自适应深度特征滤波器的多场景下目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110135500B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490907B (zh) * 2019-08-21 2023-05-16 上海无线电设备研究所 基于多目标特征和改进相关滤波器的运动目标跟踪方法
CN111105442B (zh) * 2019-12-23 2022-07-15 中国科学技术大学 切换式目标跟踪方法
CN111210461B (zh) * 2019-12-30 2023-06-02 成都慧视光电技术有限公司 一种自适应尺度变化的实时相关滤波跟踪算法
CN112200829A (zh) * 2020-09-07 2021-01-08 慧视江山科技(北京)有限公司 基于相关滤波方法的目标跟踪方法及装置
CN112132855B (zh) * 2020-09-22 2022-05-20 山东工商学院 基于前景分割引导的自适应高斯函数的目标跟踪方法
CN112529941B (zh) * 2020-12-17 2021-08-31 深圳市普汇智联科技有限公司 一种基于深度轨迹预测的多目标跟踪方法及系统
CN112947419B (zh) * 2021-01-27 2023-03-21 河北工业职业技术学院 避障方法、装置及设备
CN112949458A (zh) * 2021-02-26 2021-06-11 北京达佳互联信息技术有限公司 目标跟踪分割模型的训练方法和目标跟踪分割方法及装置
CN112906614A (zh) * 2021-03-08 2021-06-04 中南大学 基于注意力指导的行人重识别方法、装置及存储介质
CN112950687B (zh) * 2021-05-17 2021-08-10 创新奇智(成都)科技有限公司 一种确定跟踪状态的方法、装置、存储介质和电子设备
CN113344973B (zh) * 2021-06-09 2023-11-24 南京信息工程大学 一种基于时空正则化和特征可靠性评估的目标跟踪方法
CN116883479B (zh) * 2023-05-29 2023-11-28 杭州飞步科技有限公司 单目图像深度图生成方法、装置、设备及介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10825314B2 (en) * 2016-08-19 2020-11-03 Miku, Inc. Baby monitor
CN108021869A (zh) * 2017-11-15 2018-05-11 华侨大学 一种结合高斯核函数的卷积神经网络跟踪方法
CN108734723B (zh) * 2018-05-11 2022-06-14 江南大学 一种基于自适应权重联合学习的相关滤波目标跟踪方法

Also Published As

Publication number Publication date
CN110135500A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN110135500B (zh) 一种基于自适应深度特征滤波器的多场景下目标跟踪方法
CN108062531B (zh) 一种基于级联回归卷积神经网络的视频目标检测方法
CN110084836B (zh) 基于深度卷积特征分层响应融合的目标跟踪方法
CN110175649B (zh) 一种关于重新检测的快速多尺度估计目标跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN109741366B (zh) 一种融合多层卷积特征的相关滤波目标跟踪方法
CN107689052B (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN110728697A (zh) 基于卷积神经网络的红外弱小目标检测跟踪方法
CN109785366B (zh) 一种针对遮挡的相关滤波目标跟踪方法
CN111260738A (zh) 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN109858454B (zh) 一种基于双模型自适应核相关滤波追踪方法
CN113327272B (zh) 一种基于相关滤波的鲁棒性长时跟踪方法
CN111027347A (zh) 一种视频识别方法、装置和计算机设备
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN111931722A (zh) 一种结合颜色比率特征的相关滤波跟踪方法
CN110827327B (zh) 一种基于融合的长期目标跟踪方法
CN110660077A (zh) 一种融合多个特征的多尺度目标跟踪方法
CN110751670A (zh) 一种基于融合的目标跟踪方法
CN110147768B (zh) 一种目标跟踪方法及装置
CN111091583B (zh) 长期目标跟踪方法
CN110751671B (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN108038872B (zh) 一种基于动静态目标检测与实时压缩感知追踪研究方法
CN113033356B (zh) 一种尺度自适应的长期相关性目标跟踪方法
CN111915647B (zh) 一种对象标签引导的自适应视频目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant