CN108898619A - 一种基于pvanet神经网络的目标跟踪方法 - Google Patents

一种基于pvanet神经网络的目标跟踪方法 Download PDF

Info

Publication number
CN108898619A
CN108898619A CN201810584860.2A CN201810584860A CN108898619A CN 108898619 A CN108898619 A CN 108898619A CN 201810584860 A CN201810584860 A CN 201810584860A CN 108898619 A CN108898619 A CN 108898619A
Authority
CN
China
Prior art keywords
tracking target
neural network
pvanet
candidate samples
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810584860.2A
Other languages
English (en)
Other versions
CN108898619B (zh
Inventor
罗均
高建焘
李小毛
谢少荣
彭艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201810584860.2A priority Critical patent/CN108898619B/zh
Publication of CN108898619A publication Critical patent/CN108898619A/zh
Application granted granted Critical
Publication of CN108898619B publication Critical patent/CN108898619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于PVANET神经网络的目标跟踪方法。该方法不再使用Edgeboxes算法进行不同尺度的候选样本的提取,而是改用PVANET神经网络进行深度特征提取,并将浅层网络输出具有的空间信息的深度特征和深层网络输出的具有的判别能力的深度特征进行融合,在融合后的深度特征的基础上,利用PVANET神经网络中的RPN层进行不同尺度的候选样本的提取,并同时输出候选样本所对应的融合后的深度特征。该方法在利用神经网络中具有强大表征能力的深度特征的基础上,进行特征融合和不同尺度的候选样本的提取,从而提高目标跟踪精度。该方法是一种鲁棒性的跟踪算法,能在不同的跟踪场景中取得不错的效果。

Description

一种基于PVANET神经网络的目标跟踪方法
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于PVANET神经网络的目标跟踪方法。
背景技术
目标跟踪由于其在行为分析、车辆导航、人机交互、医学成像、视频监控等众多领域都有着广阔的应用,从而成为计算机视觉技术最活跃的研究之一。目标跟踪是指在给定视频第一帧中的目标位置,对之后的每一帧进行目标定位。目标跟踪的核心问题紧跟随着时间不断变化的目标。尽管近年来在国内外学者的不断研究下,目标跟踪算法得到了迅速发展,但在光照变化剧烈、目标快速运动、部分遮挡等情况下仍然无法取得很好效果。
近年来,国内外学者提出了多种跟踪算法,主要可以分成两类:一类是基于对于目标本身进行描述和刻画的生成式模型;另一类旨在将目标和背景分离开的判别式模型。生成式模型重点在于建立目标外观模型的表征,虽然构建有效的外观模型以处理跟踪中的各种具有挑战性的情况至关重要,但是与此同时,也会增加很大的计算复杂度,并且还会丢弃了可用于更好地将对象与背景分离的目标区域周围的有用信息,例如词典学习算法、稀疏编码算法、PCA等;判别式模型将跟踪问题转换为目标和背景的二分类问题,即把跟踪的目标作为前景,利用在线学习或离线训练的判断器来区分前景目标和背景,从而得到前景目标的位置。在进行判断前往往会进行特征提取,以作为判断依据提高判断的精确度,但是这也会导致有大量的候选样本需要进行特征提取,使得难以达到实时性,例如Struck、MIL等算法。生成式模型着眼于对目标本身的刻画,忽略背景信息,在目标自身变化剧烈或者被遮挡时容易产生漂移。判别式模型通过训练分类器来区分目标和背景(即从背景中区分目标)。判别式方法因为显著区分背景和前景的信息,表现更为鲁棒,在目标跟踪领域占据主流地位。
但是,对于跟踪算法而言,最重要的两个指标是实时性与精确度。由于传统判别式跟踪算法在进行判断前往往会进行特征提取,以作为判断依据提高判断的精确度,但也会导致有大量的候选样本需要进行特征提取,从而很难达到实时性。
为了解决这一问题,2010年MOSSE算法将相关滤波引入到目标跟踪中,从而使得跟踪算法速度达到高速状态。相关滤波是一种传统的信号处理方法,其描述了两个样本之间的相似程度。但是由于MOSSE算法采用的是随机采样,从而导致正负训练数目不足而使得精度较低。2012年CSK算法基于MOSSE算法通过建立循环位移的结构将目标进行稠密采样,以此增加正负样本的数目,以此解决目标跟踪之中训练样本不足的问题。除此之外,通过对于这些样本进行循环位移的处理,将对目标样本的计算转化到频率域中的求解,通过使用快速傅里叶变换的方法,大大地提高目标跟踪的效率。然而CSK算法采用的是单通道灰度特征,在特征表征上不够鲁棒。针对以上问题,2015年CN算法改用多通道的颜色特征,KCF算法改用多通道HOG特征,使得精度得到提高。
但是无论是CN算法、KCF算法在卷积求解中使用的固定大小的模板,从而导致模型没有尺度自适应的功能,从而难以应对目标尺度变化的情况。SAMF算法通过多尺度采样获取7种尺度候选样本来使得模型具有尺度适应性。DSST算法在原本的位置滤波器基础上增加了一个尺度滤波器,通过多尺度采样获取31种尺度训练样本来训练尺度滤波器。FDSST算法在DSST算法的基础上进行改进增加其跟踪速度。SKCF算法在KCF算法的基础上,引入稀疏光流法用于尺度变化应对。IBCCF算法在KCF算法的基础上,增加4个边界相关滤波器以用于目标的4个边界。KCFDP算法在KCF算法对中心位置定位的基础,引入Edgeboxes算法进行不同尺度的候选样本的提取,从而来应对目标尺度变化的情况。
但是SAMF算法、DSST算法多尺度采样所得的候选样本都是固定长宽比的;SKCF算法在利用稀疏光流法处理尺度变化时,其假定了目标的长宽比是不变;因而,SAMF算法、DSST算法、SKCF算法难以处理长宽比变化的目标尺度变化问题。IBCCF算法、KCFDP算法虽然能处理长宽比变化的目标尺度变化问题,但是其采用的都是手工特征,对目标的表征能力存在一定局限性,因而目标跟踪效果并不是很优异。
在现有的跟踪技术方案当中,基于相关滤波器跟踪方法利用目标样本进行循环位移以及频域运算等处理,从而大大地提高了其跟踪效率。但是,目前跟踪算法目标跟踪算法并不能很好地应对长宽比变化的目标尺度变化的情况,这一局限极大地限制了其原本具有的潜力。针对目前目标跟踪算法不能很好地应对长宽比变化的目标尺度变化的情况,需要设计一种跟踪算法,使其能在利用神经网络中具有强大表征能力的深度特征的基础上,很好应对长宽比变化的目标尺度变化,从而使得跟踪精度得到提高。
发明内容
有鉴于此,本发明提出了一种基于PVANET神经网络的目标跟踪方法。该方法不再使用Edgeboxes算法进行不同尺度的候选样本的提取,而是改用PVANET神经网络进行深度特征提取,并将浅层网络输出具有的空间信息的深度特征和深层网络输出的具有的判别能力的深度特征进行融合,在融合后的深度特征的基础上,利用PVANET神经网络中的RPN层进行不同尺度的候选样本的提取,并同时输出候选样本所对应的融合后的深度特征。该方法在利用神经网络中具有强大表征能力的深度特征的基础上,进行特征融合和不同尺度的候选样本的提取,从而提高目标跟踪精度。该方法能在利用神经网络中具有强大表征能力的深度特征的基础上,很好应对长宽比变化的目标尺度变化,从而解决了目前目标跟踪算法不能很好地应对长宽比变化的目标尺度变化的问题。
一种基于PVANET神经网络的目标跟踪方法,具体步骤包括:
步骤一、对于第一帧图像t=1,跟踪任务给予的第一帧跟踪目标的中心位置(xt,yt)以及跟踪目标区域大小信息(lt,ht),对跟踪目标区域进行一定比例的扩大(lp,t,hp,t)=α(lt,ht),根据目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t)在该帧图像中进行采样,得到训练样本;其中xt为跟踪目标中心位置的横坐标,yt为跟踪目标中心位置的纵坐标,lt为原跟踪目标区域的长度,ht为原跟踪目标区域的宽度,α为扩大比率,lp,t为扩大后跟踪目标区域的长度,hp,t为扩大后跟踪目标区域的宽度;
步骤二、对于在第一帧图像中采样得到的训练样本T,将其输入到PVANET神经网络中,提取出PVANET神经网络中的Convf层输出的分类特征其中ZT表示PVANET神经网络中通道数为512的Convf层输出的分类特征,表示PVANET神经网络中的Convf层输出的分类特征ZT中第n维特征;
步骤三、将训练样本T经过PVANET神经网络后提取得到的Convf层输出的分类特征用于相关滤波器参数的计算;
步骤四、对于下一帧图像t+1,根据上一帧跟踪目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t),根据目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t)在该帧图像中进行采样,得到候选区域样本P;
步骤五、对于采样得到的候选区域样本P,将其输入到PVANET神经网络中,提取出PVANET神经网络中的RPN层输出的离上一帧跟踪目标中心位置(xt,yt)最近的5个候选框,并对这五个候选框依据步骤一中的扩大比率α进行背景信息的添加,而后进行采样并变形至步骤一中的跟踪目标区域大小(lp,t,hp,t),从而构成的候选样本集X=(X1 X2…X5),以及这5个候选样本构成的候选样本集X所对应的Convf层输出的分类特征其中表示第一个候选样本X1对应PVANET神经网络中的Convf层中输出的通道数为512的分类特征,即
步骤六、将候选样本集每个候选样本所对应的层输出的分类特征用于响应图的计算,最终确定该帧跟踪目标的中心位置(xt+1,yt+1)和跟踪目标区域大小(lt+1,ht+1);
步骤七、在得到跟踪目标的中心位置和区域大小后,不断重复步骤一至步骤六,直到视频结束,完成对跟踪目标的中心位置以及区域大小的跟踪。
所述步骤三中的相关滤波器参数的计算,具体为:
首先,对Convf层输出的分类特征进行快速傅立叶变换,从而将其从时域变换到频域特征得到
其次,对于每个特征通道将其向量化后进行再构造成对角矩阵,即
将特征中所有通道构造成的对角矩阵重新组合构造成一个对角矩阵,即
利用这个对角矩阵Dt进行计算得到At其中,
其中,W为空间正则化系数构造成的正则化矩阵;为高斯标签经过快速傅立叶变换和实数化后得到的标签;
最后,根据公式计算得到经过快速傅立叶变换的相关滤波参数
所述计算得到相关滤波参数具体方法如下:先将矩阵At分解为上三角矩阵Lt和下三角矩阵Ut,即At=Lt+Ut;而后进行高斯-赛德尔迭代,得到经过快速傅立叶变换和实数化的相关滤波器参数最后通过计算得到经过快速傅立叶变换的相关滤波器参数其中B为标准正交基组成的酉矩阵,其作用是将经过快速傅立叶变换的相关滤波器参数实数化。
所述步骤六具体方法如下:
首先,将PVANET神经网络中的RPN层输出的离上一帧跟踪目标中心位置(xt,yt)最近的5个候选样本构成的候选样本集X=(X1 X2 …X5)中每个候选样本Xk,k=1,2,…5以及其所对应的Convf层输出的分类特征进行快速傅立叶变换,得到频域特征其中为第k个候选样本对应的Convf层输出的分类特征经过快速傅立叶变换,得到的频域特征
而后,对于候选样本集中每个候选样本经过快速傅立叶变化的特征将其与经过快速傅立叶变换的相关滤波器参数进行点乘,而后进行反傅里叶变换,得到该候选样本对应的响应图
其中为第k个候选样本Xk,k=1,2…5的相应图,F-1为反傅里叶变换;
最后,对于候选样本集中所有候选样本对应的响应图找出响应值最大的点(xt+1,yt+1),该点对应的位置即为该帧跟踪目标位置,该点对应的候选框的大小即为扩大后的跟踪目标区域大小(lt+1,ht+1)。
与现有技术相比,本发明方法具有如下的突出的优点:
本方法能在利用神经网络中具有强大表征能力的深度特征的基础上,很好应对长宽比变化的目标尺度变化,从而解决了目前目标跟踪算法不能很好地应对长宽比变化的目标尺度变化的问题。本方法不再使用Edgeboxes算法进行不同尺度的候选样本的提取,而是改用PVANET神经网络进行深度特征提取,并将浅层网络输出具有的空间信息的深度特征和深层网络输出的具有的判别能力的深度特征进行融合,在融合后的深度特征的基础上,利用PVANET神经网络中的RPN层进行不同尺度的候选样本的提取,并同时输出候选样本所对应的融合后的深度特征。该方法在利用神经网络中具有强大表征能力的深度特征的基础上,进行特征融合和不同尺度的候选样本的提取,从而提高目标跟踪精度。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面结合附图,对本发明的具体实施例做进一步的说明。
如图1所示,一种基于PVANET神经网络的目标跟踪方法,具体步骤包括:
步骤一、对于第一帧图像t=1,跟踪任务给予的第一帧跟踪目标的中心位置(xt,yt)以及跟踪目标区域大小信息(lt,ht),对跟踪目标区域进行一定比例的扩大(lp,t,hp,t)=α(lt,ht),根据目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t)在该帧图像中进行采样,得到训练样本;其中xt为跟踪目标中心位置的横坐标,yt为跟踪目标中心位置的纵坐标,lt为原跟踪目标区域的长度,ht为原跟踪目标区域的宽度,α为扩大比率,lp,t为扩大后跟踪目标区域的长度,hp,t为扩大后跟踪目标区域的宽度。
步骤二、对于在第一帧图像中采样得到的训练样本T,将其输入到PVANET神经网络中,提取出PVANET神经网络中的Convf层输出的分类特征其中T表示训练样本,ZT表示PVANET神经网络中通道数为512的Convf层输出的分类特征,表示PVANET神经网络中的Convf层输出的分类特征ZT中第n维特征。
步骤三、将训练样本T经过PVANET神经网络后提取得到的Convf层输出的分类特征用于相关滤波器参数的计算;
首先,对Convf层输出的分类特征进行快速傅立叶变换,从而将其从时域变换到频域特征得到
其次,对于每个特征通道将其向量化后进行再构造成对角矩阵,即
将特征中所有通道构造成的对角矩阵重新组合构造成一个对角矩阵,即
利用这个对角矩阵Dt进行计算得到At其中,
其中,W为空间正则化系数构造成的正则化矩阵;为高斯标签经过快速傅立叶变换和实数化后得到的标签,
最后,根据公式计算得到经过快速傅立叶变换的相关滤波参数具体方法如下,先将矩阵A1分解为上三角矩阵L1和下三角矩阵U1,即A1=L1+U1。而后进行高斯-赛德尔迭代可得到实数化后的相关滤波器参数最后通过计算可得到相关滤波器参数其中B为标准正交基组成的酉矩阵,其作用是将相关滤波器参数实数化。
步骤四、对于下一帧图像t+1,根据上一帧跟踪目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t),根据目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t)在该帧图像中进行采样,得到候选区域样本P。
步骤五、对于采样得到的候选区域样本P,将其输入到PVANET神经网络中,提取出PVANET神经网络中的RPN层输出的离上一帧跟踪目标中心位置(xt,yt)最近的5个候选框,并对这五个候选框依据步骤一中的扩大比率α进行背景信息的添加,而后进行采样并变形至步骤一中的跟踪目标区域大小(lp,t,hp,t),从而构成的候选样本集X=(X1 X2…X5),以及这5个候选样本构成的候选样本集X所对应的Convf层输出的分类特征其中表示第一个候选样本X1对应PVANET神经网络中的Convf层中输出的通道数为512的分类特征,即
步骤六、将候选样本集每个候选样本所对应的Convf层输出的分类特征用于响应图的计算,最终确定该帧跟踪目标的中心位置(xt+1,yt+1)和跟踪目标区域大小(lt+1,ht+1),具体方法如下:
首先,将PVANET神经网络中的RPN层输出的离上一帧跟踪目标中心位置(xt,yt)最近的5个候选样本构成的候选样本集X=(X1 X2…X5)中每个候选样本Xk,k=1,2,…5以及其所对应的Convf层输出的分类特征进行快速傅立叶变换,得到频域特征其中为第k个候选样本对应的Convf层输出的分类特征经过快速傅立叶变换,得到的频域特征
而后,对于候选样本集中每个候选样本经过快速傅立叶变化的特征将其与经过快速傅立叶变换的相关滤波器参数进行点乘,而后进行反傅里叶变换,得到该候选样本对应的响应图
其中为第k个候选样本Xk,k=1,2…5的相应图,F-1为反傅里叶变换;
最后,对于候选样本集中所有候选样本对应的响应图找出响应值最大的点(xt+1,yt+1),该点对应的位置即为该帧跟踪目标位置,该点对应的候选框的大小即为扩大后的跟踪目标区域大小(lt+1,ht+1)。
步骤七、在得到跟踪目标的中心位置和区域大小后,不断重复步骤一至步骤六,直到视频结束,完成对跟踪目标的中心位置以及区域大小的跟踪。

Claims (4)

1.一种基于PVANET神经网络的目标跟踪方法,其特征在于,具体步骤包括:
步骤一、对于第一帧图像t=1,跟踪任务给予的第一帧跟踪目标的中心位置(xt,yt)以及跟踪目标区域大小信息(lt,ht),对跟踪目标区域进行一定比例的扩大(lp,t,hp,t)=α(lt,ht),根据目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t)在该帧图像中进行采样,得到训练样本;其中xt为跟踪目标中心位置的横坐标,yt为跟踪目标中心位置的纵坐标,lt为原跟踪目标区域的长度,ht为原跟踪目标区域的宽度,α为扩大比率,lp,t为扩大后跟踪目标区域的长度,hp,t为扩大后跟踪目标区域的宽度;
步骤二、对于在第一帧图像中采样得到的训练样本T,将其输入到PVANET神经网络中,提取出PVANET神经网络中的Convf层输出的分类特征其中ZT表示PVANET神经网络中通道数为512的Convf层输出的分类特征,表示PVANET神经网络中的Convf层输出的分类特征ZT中第n维特征;
步骤三、将训练样本T经过PVANET神经网络后提取得到的Convf层输出的分类特征用于相关滤波器参数的计算;
步骤四、对于下一帧图像t+1,根据上一帧跟踪目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t),根据目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t)在该帧图像中进行采样,得到候选区域样本P;
步骤五、对于采样得到的候选区域样本P,将其输入到PVANET神经网络中,提取出PVANET神经网络中的RPN层输出的离上一帧跟踪目标中心位置(xt,yt)最近的5个候选框,并对这五个候选框依据步骤一中的扩大比率α进行背景信息的添加,而后进行采样并变形至步骤一中的跟踪目标区域大小(lp,t,hp,t),从而构成的候选样本集X=(X1 X2 … X5),以及这5个候选样本构成的候选样本集X所对应的Convf层输出的分类特征其中表示第一个候选样本X1对应PVANET神经网络中的Convf层中输出的通道数为512的分类特征,即
步骤六、将候选样本集每个候选样本所对应的Convf层输出的分类特征用于响应图的计算,最终确定该帧跟踪目标的中心位置(xt+1,yt+1)和跟踪目标区域大小(lt+1,ht+1);
步骤七、在得到跟踪目标的中心位置和区域大小后,不断重复步骤一至步骤六,直到视频结束,完成对跟踪目标的中心位置以及区域大小的跟踪。
2.根据权利要求1所述的基于PVANET神经网络的目标跟踪方法,其特征在于,所述步骤三中的相关滤波器参数的计算,具体为:
首先,对Convf层输出的分类特征进行快速傅立叶变换,从而将其从时域变换到频域特征得到
其次,对于每个特征通道将其向量化后进行再构造成对角矩阵,即
将特征中所有通道构造成的对角矩阵重新组合构造成一个对角矩阵,即
利用这个对角矩阵Dt进行计算得到At其中,
其中,W为空间正则化系数构造成的正则化矩阵;为高斯标签经过快速傅立叶变换和实数化后得到的标签;
最后,根据公式计算得到经过快速傅立叶变换的相关滤波参数
3.根据权利要求2所述的基于PVANET神经网络的目标跟踪方法,其特征在于,所述计算得到相关滤波参数具体方法如下:先将矩阵At分解为上三角矩阵Lt和下三角矩阵Ut,即At=Lt+Ut;而后进行高斯-赛德尔迭代,得到经过快速傅立叶变换和实数化的相关滤波器参数最后通过计算得到经过快速傅立叶变换的相关滤波器参数其中B为标准正交基组成的酉矩阵,其作用是将经过快速傅立叶变换的相关滤波器参数实数化。
4.根据权利要求1所述的基于PVANET神经网络的目标跟踪方法,其特征在于,所述步骤六具体方法如下:
首先,将PVANET神经网络中的RPN层输出的离上一帧跟踪目标中心位置(xt,yt)最近的5个候选样本构成的候选样本集X=(X1 X2 … X5)中每个候选样本Xk,k=1,2,…5以及其所对应的Convf层输出的分类特征进行快速傅立叶变换,得到频域特征其中为第k个候选样本对应的Convf层输出的分类特征经过快速傅立叶变换,得到的频域特征
而后,对于候选样本集中每个候选样本经过快速傅立叶变化的特征将其与经过快速傅立叶变换的相关滤波器参数进行点乘,而后进行反傅里叶变换,得到该候选样本对应的响应图
其中为第k个候选样本Xk,k=1,2…5的相应图,F-1为反傅里叶变换;
最后,对于候选样本集中所有候选样本对应的响应图找出响应值最大的点(xt+1,yt+1),该点对应的位置即为该帧跟踪目标位置,该点对应的候选框的大小即为扩大后的跟踪目标区域大小(lt+1,ht+1)。
CN201810584860.2A 2018-06-08 2018-06-08 一种基于pvanet神经网络的目标跟踪方法 Active CN108898619B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810584860.2A CN108898619B (zh) 2018-06-08 2018-06-08 一种基于pvanet神经网络的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810584860.2A CN108898619B (zh) 2018-06-08 2018-06-08 一种基于pvanet神经网络的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108898619A true CN108898619A (zh) 2018-11-27
CN108898619B CN108898619B (zh) 2021-02-23

Family

ID=64344310

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810584860.2A Active CN108898619B (zh) 2018-06-08 2018-06-08 一种基于pvanet神经网络的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108898619B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598744A (zh) * 2018-11-29 2019-04-09 广州市百果园信息技术有限公司 一种视频跟踪的方法、装置、设备和存储介质
CN109767456A (zh) * 2019-01-09 2019-05-17 上海大学 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法
CN110570458A (zh) * 2019-08-12 2019-12-13 武汉大学 一种基于内部裁剪和多层特征信息融合的目标跟踪方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN106056628A (zh) * 2016-05-30 2016-10-26 中国科学院计算技术研究所 基于深度卷积神经网络特征融合的目标跟踪方法及系统
CN106651917A (zh) * 2016-12-30 2017-05-10 天津大学 基于神经网络的图像目标跟踪算法
CN107016344A (zh) * 2017-03-08 2017-08-04 上海极链网络科技有限公司 视频中品牌识别系统及其实现方法
CN107016689A (zh) * 2017-02-04 2017-08-04 中国人民解放军理工大学 一种尺度自适应的相关滤波对冲目标跟踪方法
CN107369166A (zh) * 2017-07-13 2017-11-21 深圳大学 一种基于多分辨率神经网络的目标跟踪方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN106056628A (zh) * 2016-05-30 2016-10-26 中国科学院计算技术研究所 基于深度卷积神经网络特征融合的目标跟踪方法及系统
CN106651917A (zh) * 2016-12-30 2017-05-10 天津大学 基于神经网络的图像目标跟踪算法
CN107016689A (zh) * 2017-02-04 2017-08-04 中国人民解放军理工大学 一种尺度自适应的相关滤波对冲目标跟踪方法
CN107016344A (zh) * 2017-03-08 2017-08-04 上海极链网络科技有限公司 视频中品牌识别系统及其实现方法
CN107369166A (zh) * 2017-07-13 2017-11-21 深圳大学 一种基于多分辨率神经网络的目标跟踪方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CORNELIU ZAHARIA ET AL.: "PVANet Optimization for Person Detection", 《IEEE》 *
KYE-HYEON KIM ET AL.: "PVANet: Lightweight Deep Neural Networks for Real-time Object Detection", 《ARXIV》 *
ZHANGPING HE ET AL.: "Fast Fourier Transform Networks for Object Tracking Based on Correlation Filter", 《IEEE》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598744A (zh) * 2018-11-29 2019-04-09 广州市百果园信息技术有限公司 一种视频跟踪的方法、装置、设备和存储介质
WO2020108037A1 (zh) * 2018-11-29 2020-06-04 广州市百果园信息技术有限公司 视频跟踪的方法、装置、设备和存储介质
CN109598744B (zh) * 2018-11-29 2020-12-08 广州市百果园信息技术有限公司 一种视频跟踪的方法、装置、设备和存储介质
CN109767456A (zh) * 2019-01-09 2019-05-17 上海大学 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法
CN110570458A (zh) * 2019-08-12 2019-12-13 武汉大学 一种基于内部裁剪和多层特征信息融合的目标跟踪方法
CN110570458B (zh) * 2019-08-12 2022-02-01 武汉大学 一种基于内部裁剪和多层特征信息融合的目标跟踪方法

Also Published As

Publication number Publication date
CN108898619B (zh) 2021-02-23

Similar Documents

Publication Publication Date Title
CN109767456A (zh) 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法
CN107748873B (zh) 一种融合背景信息的多峰目标跟踪方法
CN107168527B (zh) 基于区域卷积神经网络的第一视角手势识别与交互方法
CN109191493A (zh) 一种基于RefineNet神经网络和稀疏光流的目标跟踪方法
CN104123545B (zh) 一种实时表情特征提取及表情识别方法
CN105512684A (zh) 基于主成分分析卷积神经网络的车标自动识别方法
CN105741316A (zh) 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN108898619A (zh) 一种基于pvanet神经网络的目标跟踪方法
CN107103326A (zh) 基于超像素聚类的协同显著性检测方法
CN103886619B (zh) 一种融合多尺度超像素的目标跟踪方法
CN107067002A (zh) 一种动态视频中道路车牌识别方法
CN107452022A (zh) 一种视频目标跟踪方法
CN105046197A (zh) 基于聚类的多模板行人检测方法
CN109241830B (zh) 基于光照生成对抗网络的课堂听课异常检测方法
CN109493364A (zh) 一种结合残差注意力和上下文信息的目标跟踪算法
CN103679154A (zh) 基于深度图像的三维手势动作的识别方法
CN108647694A (zh) 基于上下文感知和自适应响应的相关滤波目标跟踪方法
CN106127812B (zh) 一种基于视频监控的客运站非出入口区域的客流统计方法
CN109035300B (zh) 一种基于深度特征与平均峰值相关能量的目标跟踪方法
CN110648342A (zh) 基于nsst显著性检测及图割的泡沫红外图像分割方法
CN110111369A (zh) 一种基于边缘检测的尺度自适应海面目标跟踪方法
CN106295532A (zh) 一种视频图像中的人体动作识别方法
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN106023245A (zh) 基于中智集相似度量测的静态背景下运动目标检测方法
CN106156750A (zh) 一种基于卷积神经网络的以图搜车方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant