CN108182447B - 一种基于深度学习的自适应粒子滤波目标跟踪方法 - Google Patents
一种基于深度学习的自适应粒子滤波目标跟踪方法 Download PDFInfo
- Publication number
- CN108182447B CN108182447B CN201711337098.XA CN201711337098A CN108182447B CN 108182447 B CN108182447 B CN 108182447B CN 201711337098 A CN201711337098 A CN 201711337098A CN 108182447 B CN108182447 B CN 108182447B
- Authority
- CN
- China
- Prior art keywords
- particle
- target
- deep learning
- model
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的自适应粒子滤波目标跟踪方法,包括如下步骤:(1)建立浅层深度学习网络模型,采用SGD算法离线训练该模型;(2)将训练好的网络应用于粒子滤波跟踪框架,对于每一个粒子,采用深度特征和颜色表观特征求解观测模型;根据一阶二阶运动信息求解状态转移模型;(3)根据观测模型,计算每个粒子的权值参数,通过加权平均确定当前目标位置;(4)计算目标当前状态,判定状态变化程度,实时更新观测模型。本发明提供一种基于深度学习的自适应粒子滤波目标跟踪方法,能够解决现有目标跟踪中快速运动、背景复杂等问题,从而实现连续鲁棒的跟踪。
Description
技术领域
本发明涉及粒子滤波目标跟踪技术领域,尤其是一种基于深度学习的自适应粒子滤波目标跟踪方法。
背景技术
视频目标跟踪已经成为计算机视觉领域的一个前沿研究热点。其主要任务就是获取视频序列中感兴趣的目标的位置和运动信息,为进一步的语义层分析提供基础。视频目标跟踪研究在智能视频监控、人机交互、医学诊断等领域有广泛应用,具有很强的实用价值。
跟踪算法可分为判别型和生成型。判别型方法将跟踪问题建模为一个二元分类问题,用以区分目标和背景。生成型方法通过建立目标表示模型,通过最小重构误差搜索图像区域。这两类方法大多直接使用视频序列中的像素值进行建模,需要根据不同视频序列设计特征提取方法,当跟踪过程中出现严重遮挡、快速运动、复杂背景等较大挑战时,往往无法实现持续稳定的跟踪。而近年来开始广泛应用于计算机视觉领域的深度学习方法有利于处理这些问题。Fan等人选择卷积神经网络进行视觉跟踪,利用大量的辅助图像训练网络;Li等人以及Hong等人以在线的方式对跟踪过程中产生的样本进行训练。由于卷积神经网络规模较大,需要多级池化和卷积来降低参数的数目,获得良好的图像深层视觉特征的学习能力,因此往往需要大量训练样本才能生成权值稳定的深度学习网络。跟踪过程中产生的有限正负样本不能很好地满足这一要求;另外,多级池化作用削弱了目标位置信息,不利于实现精确跟踪。
发明内容
本发明所要解决的技术问题在于,提供一种基于深度学习的自适应粒子滤波目标跟踪方法,能够解决现有目标跟踪中快速运动、背景复杂等问题,从而实现连续鲁棒的跟踪。
为解决上述技术问题,本发明提供一种基于深度学习的自适应粒子滤波目标跟踪方法,包括如下步骤:
(1)建立浅层深度学习网络模型,采用SGD算法离线训练该模型;
(2)将训练好的网络应用于粒子滤波跟踪框架,对于每一个粒子,采用深度特征和颜色表观特征求解观测模型;根据一阶二阶运动信息求解状态转移模型;
(3)根据观测模型,计算每个粒子的权值参数,通过加权平均确定当前目标位置;
(4)计算目标当前状态,判定状态变化程度,实时更新观测模型。
优选的,步骤(1)中,建立浅层深度学习网络模型,采用SGD算法离线训练该模型具体为:采用两个5ⅹ5的卷积核f1,f2通过sigmoid函数提取深层语义特征:其中,Convx代表卷积层Conv1和Conv2;b1、b2为偏置,S1、S2分别代表输入样本Input和第一层池化输出。Subsampling1、Subsampling2为池化层:通过邻域像素特征的加权平均获得当前池化层各像素特征值,从而降低特征维数,减少数据量,其中sum=a1p(i,j)+a2p(i,j+1)+a3p(i+1,j)+a4p(i+1,j+1),p′(i,j)表示当前池化层的像素值,a1,a2,a3,a4为加权系数;FC为全连接层,将Subsampling2输出特征值连接成1ⅹ60的特征向量;SVM分类器在离线训练时识别前景Foreground和背景Background。
优选的,步骤(2)中,对于每个粒子,观测模型为c=[c1 c2],c1∈R1×60为深度特征向量,由预训练的深度学习网络产生;c2=[h1,h2,…,hL]∈R1×L为HSV颜色空间生成的表观颜色直方图特征,其中,L为颜色直方图的量化级数,hi,i=1,…,L为各级的特征值;状态转移模型为St=St-1+ft-1,St,St-1分别代表粒子当前帧和前一相邻帧的状态;ft-1为粒子状态转移变量。粒子在当前帧的状态估计由一阶和二阶运动信息同时确定,运动速度指导粒子的运动方向和位置,加速度信息描绘了粒子的聚集程度,目标运动越快,粒子散布范围越广泛,运动越慢,粒子越集中。因此,ft-1可由多元高斯随机变量定义为其中,均值μt-1由连续三帧的目标运动速度计算获得:μt-1=(Vt-1+Vt-2+Vt-3)/3,方差定义为加速度:σt-1=Vt-1-Vt-2,其中,Vt-1,Vt-2和Vt-3分别表示当前帧前连续三帧中目标的运动速度。
优选的,步骤(3)中,根据观测模型,计算每个粒子的权值参数,通过加权平均确定当前目标位置具体为:当前帧目标位置可以通过各粒子状态的加权平均进行最优状态估计其中,代表粒子在当前帧中的状态,粒子权值由其观测值与位置状态共同决定,与目标模板观测值越相近的粒子作用越大,与目标模板距离越远的粒子作用越小;各粒子权值定义为,其中,D(i)为目标模板与粒子观测值的Bhattacharyya距离: 为各粒子与模板最相近粒子的欧式距离:
优选的,步骤(4)中,采用lazy方式更新观测模型,计算更新阈值T,由当前帧前10帧的后验概率pi的平均值计算得到:计算跟踪结果与目标模板之间的Bhattacharyya距离即权值,并由此得到跟踪结果的后验概率;若此后验概率大于阈值T,则进行模型更新;否则,保留原有目标模板;新的目标模板由上一帧的目标模板Cold与当前帧的目标模板加权求和得到其中,α为更新权值,控制贡献程度,由N个粒子中的权值较大的n个粒子的平均观测值得到, ck为n个粒子的观测值。
本发明的有益效果为:(1)引入深度学习方法,充分利用其对目标高级特征的提取能力,有效增强了目标特征的描述能力,从而很好地解决了目标跟踪中的遮挡、形变、快速运动等问题;(2)设计的浅层学习网络,相较于广泛应用于目标识别领域的深度学习网络,能够更好地保持目标的空间信息,便于更好地实现目标定位跟踪;(3)结合深度特征和表观特征,并将一阶二阶运动信息引入到粒子状态转移模型中,从而增强了目标的表达能力,提高了粒子繁殖的自适应性,有效降低了粒子数,提高了粒子跟踪的效率;(4)通过更新阈值和加权参数控制更新程度,不仅保留了原有模板的描述特征,而且能够根据目标变化,及时修正模板信息,提高了跟踪的鲁棒性。
附图说明
图1为本发明的方法流程示意图。
图2为本发明设计的浅层深度学习网络示意图。
图3为本发明深度学习网络的卷积层的原理示意图。
图4为本发明深度学习网络的池化层卷积核示意图。
图5为本发明颜色种类相同分布不同的示意图。
图6为本发明位置矢量示意图。
具体实施方式
如图1所示,一种基于深度学习的自适应粒子滤波目标跟踪方法,包括如下步骤:
本发明提供一种基于深度学习的自适应粒子滤波目标跟踪方法,其设计原理为:构建浅层深度学习网络,采用SGD方法离线训练稳定的网络模型;然后将其应用于粒子滤波跟踪框架;将深度学习网络的输出特征和颜色直方图特征融合作为粒子观测模型;再将一阶二阶运动信息引入粒子动态转移方程估计粒子状态;根据粒子状态和观测模型对目标位置进行最优估计;最后根据目标状态变化程度采用阈值法更新目标模板。
本实施例中基于深度学习的自适应粒子滤波跟踪的详细步骤如下:
步骤一、构建浅层深度学习网络,离线训练稳定的网络模型
(1.1)本发明的浅层深度学习网络包含两个卷积层、两个下采样池化层、一个全连接层,在离线训练网络时包含一个SVM层用以区分前景和背景,网络模型如图2所示。该网络可描述成:input(32ⅹ16)→convolution1(6ⅹ28ⅹ12)→pooling1(6ⅹ14ⅹ6)→convolution 2(12ⅹ10ⅹ2)→pooling 2(12ⅹ5ⅹ1)→FC(1ⅹ60)。输入样本被预先处理成大小为32×16的图像,两个卷积层分别由6个权值共享的5×5的卷积核卷积生成;下采样池化层通过2×2的卷积核降低特征维数;全连接层将来自下采样层的输出生成为1×60的特征向量。
本发明中的浅层深度学习网络中的两层卷积层由Sigmoid函数作为激活函数生成,原理如图3所示,各层卷积图表示成:
其中,S1是规则化的输入图像,S2表示由第一层池化后生成的特征图;f1和f2为5ⅹ5的卷积核,帮助生成卷积层conv1、conv2的特征图Conv1,onv2;bx为偏置值。
池化操作通过加权平均实现,池化核如图4所示,a1,a2,a3,a4为四个加权值。每次池化后的像素新值p′(i,j)为:
sum=a1p(i,j)+a2p(i,j+1)+a3p(i+1,j)+a4p(i+1,j+1)(3)
这里p(i,j),p(i,j+1),p(i+1,j),p(i+1,j+1)代表卷积特征图中的四个邻域像素值。通过简单的卷积和池化操作不仅可以提取当前帧中有用的深度信息,而且降低了数据量,从而能够提高跟踪效率。
(1.2)离线训练。本设计网络通过视觉跟踪benchmark提供的大量正负样本进行离线训练。该benchmark通过数据增强、放大的方法生成了大量复杂环境下的样本,诸如光照变化、尺度变化、遮挡、快速运动等。在全连接层之后,SVM分类器帮助区分正负样本。为了获得稳定优化的权值参数,本发明采用统计梯度下降法(Stochastic Gradient Decent,SGD)经多次迭代离线训练网络模型。
步骤二、求解粒子的观测模型和状态转移模型
(2.1)首先初始化目标模板
(2.1.1)在线跟踪时,去除网络模型中的SVM层,将全连接层的输出特征向量作为粒子滤波跟踪器的输入。
(2.1.2)手动提取初始目标,通过训练好的网络模型提取深度特征,并计算目标区域的颜色直方图,将这两种特征连接成目标模板。这样不仅能够充分利用深度学习的表达能力,而且结合了像素级表观特征对目标的识别优势。
(2.1.3)假定目标的深度特征表示为c1∈R1×60,颜色直方图为c2=[h1,h2,…,hL]∈R1×L(L为颜色直方图的量化级数),则目标模板c=[c1 c2]。本发明选择对光照变化鲁棒性较强的HSV颜色空间进行非均匀量化统计计算颜色直方图:
(2.1.3.1)首先将色调空间H划分成46个区间,饱和度S划分成4个区间,亮度V划分成4个区间,具体如下:
(2.1.3.2)然后按照以上量化方式,初始目标区域内各像素的量化级数值为:
L(i,j)=H(i,j)Qs+S(i,j)Qv+V(i,j)+1 (5)
其中,(i,j)为像素位置,Qs和Qv分别为S、V空间的量化级数:Qs=Qv=4;总的量化级数L=45×4+3×4+3+1=196。
(2.1.3.3)最后计算颜色直方图中各特征元素ht(t=1,2,…,L):
其中M×N目标区域中元素总个数.δ为Kronecker delta函数,用于判断目标区域内像素是否属于颜色直方图的第h个量化级;kij为在(i,j)处的像素的位置系数,h为特征向量中某一量化值。
为了避免误匹配颜色分布位置有差异但颜色统计值相同的不同目标(如图5所示),本发明在颜色直方图中引入位置矢量信息,如图6所示,从而将颜色空间分布信息融入到颜色直方图的计算中,位置系数定义为:
kij=1-(Dij/Dr)2 (6)
其中,Dij为像素距中心位置的距离,Dr为图像的截距。
(2.2)然后,建立粒子观测模型和状态转移模型,包括如下步骤:
(2.2.1)初始化粒子群:在第一帧目标区域的中心位置按高斯分布随机撒播N个粒子,各粒子状态向量定义为:X=[s x y c],其中,x和y表示粒子中心位置,s为一个长方形矩阵代表粒子形状,c=[c1 c2]为粒子的观测模型,将粒子作为深度网络的输入,生成粒子的深度特征c1,计算粒子的颜色直方图作为表观特征c2,将这两类特征融合成1-D特征向量形成粒子观测模型。每个粒子权值初始化为(n=1,…,N),表征该粒子的特征向量与目标模板的相似度。
(2.2.2)建立粒子状态转移模型:跟踪从第二帧开始,每帧由状态转移模型产生下一帧中的粒子,转移方程如式(7)所示:
St=St-1+ft-1 (7)
St、St-1分别表示粒子在当前帧和前一帧中的状态,ft-1为高斯随机变量:
其中,cen为粒子在前一帧的位置,μt-1、σt-1为高斯分布的均值和方差,由前几帧的平均速度和加速度决定:
μt-1=(Vt-1+Vt-2+Vt-3)/3 (9)
σt-1=Vt-1-Vt-2 (10)
本发明中的状态转移方程引入二阶运动信息使得粒子分布具有更强的自适应性:一阶速度信息能够指导粒子转移的运动方向,从而保证搜索到最佳的目标位置;二阶加速度信息给出了粒子分布的集中程度,目标运动得越快,加速度越大,粒子分布越广,反之,则越集中。传统的粒子滤波通常采用固定的均值和方差,而跟踪过程中目标的运动速度往往不是一成不变的,当目标速度变快或变慢时,粒子的分布范围若固定不变,往往会导致失败;为了能够改善跟踪效果只能通过增加粒子数量,会大大增加算法时间开销。本发明融入速度和加速度特征后,能够产生更加有效的粒子,从而提高了跟踪的运行效率。
步骤三、采用粒子滤波预测目标候选区域
估计目标位置:上述计算获得粒子位置后,对各粒子位置进行加权平均作为目标位置估计。粒子权值定义为:
其中,D(i)为粒子特征向量与目标模板的巴氏距离:
计算每个粒子位置与其权值加权平均求得当前帧目标位置的最优估计:
目标最优位置后验概率为:
步骤四、模板更新,包括如下步骤:
遮挡、目标形变、环境干扰等因素等可能影响跟踪的鲁棒性,但目标表观特征不会一直处于变化状态,一个好的跟踪模型往往能够较长时间地保持目标的可辨别性;另外,频繁的更新不仅容易导致漂移而且造成过多的时间开销。因此,本发明综合考虑运行效率和跟踪稳定性,采用lazy方式进行阶段性模板阈值更新,具体如下:
(4.1)设置更新阈值T。T由当前帧前10帧的后验概率的平均值计算得到:
(4.2)计算跟踪结果与目标模板之间的Bhattacharyya距离即权值,并由此得到跟踪结果的后验概率。若此后验概率大于阈值T,则进行模型更新;否则,保留原有目标模板。本发明的更新策略是将上一帧的目标模板Cold与当前帧的目标模板加权求和得到更新后的目标模板,新的目标模板Cnew如下:
(4.3)更新后,当前目标新的权值根据公式(11)重新计算。
本发明的效果可通过Benchmark的标准数据库进行以下实验进一步说明:
实验1:用普通粒子滤波和本发明方法,对David3和Lemon视频序列进行跟踪。普通粒子滤波在跟踪过程中由于缺乏有效运动信息的指导,当目标出现遮挡或快速运动时将出现跟踪丢失;本发明加入深度特征和运动信息后,对于遮挡和快速运动能够保持稳定的跟踪。
实验2:本发明与现有主流跟踪方法的比较,包括CNN(Convolutional NeuralNetworks)跟踪、DET、L1APG、FCT以及去除深度学习的二阶粒子滤波跟踪(2nd order PF)。分别对不同复杂情况下的视频序列进行实验,包括存在严重形变以及分辨率变化的Skiing序列和Gym序列;目标不仅发生尺度变化,而且会进行快速运动的Bolt序列和Biker序列;以及存在目标被严重遮挡的David3序列和Lemming序列,Lemming序列中目标还会出现尺度和分辨率的变化。
通过比较试验发现在各种具有挑战性的跟踪环境下,本发明都能够保持稳定和连续的跟踪,尤其在快速运动或全遮挡出现的情况下,本发明利用具有深度特征的目标模板和运动信息的引导,能够保持良好鲁棒的跟踪。
实验3:分别选择不同属性的视频帧序列进行时空鲁棒性评估实验,包括TRE和SRE两个指标。对于TRE指标,实验时将每个视频序列分割成30个小的视频段,统计跟踪结果与标准目标的成功重叠率以及跟踪精度;对于SRE指标,每个跟踪器对每个视频序列重复跟踪12次,统计成功重叠率和跟踪精度。不同跟踪环境下的OPE和SRE指标均显示出在背景干扰、光照变化、形变和遮挡情况下,本发明的成功重叠率和跟踪精度都能保持最好的跟踪水平;在出现尺度变化、快速运动和旋转等复杂情况下的跟踪,本发明仍然基本能够保持最好的水平,即使有时跟踪精度和成功重叠率低于DFT算法,本发明与其差距仍然非常小;在运动模糊、遮挡和旋转的环境下,本发明的相关跟踪指标有时会排名第3,但与其它算法差距不超过10%。
综上可以得出,本发明比普通粒子滤波算法具有更好的连续跟踪能力;与现有流行的跟踪算法相比,在具有挑战的跟踪环境下,都能保持很好的跟踪精度和跟踪成功率,尤其在快速运动和遮挡严重的环境中,本发明具有良好的跟踪效果。
尽管本发明就优选实施方式进行了示意和描述,但本领域的技术人员应当理解,只要不超出本发明的权利要求所限定的范围,可以对本发明进行各种变化和修改。
Claims (5)
1.一种基于深度学习的自适应粒子滤波目标跟踪方法,其特征在于,包括如下步骤:
(1)建立浅层深度学习网络模型,采用SGD算法离线训练该模型;
(2)将训练好的网络应用于粒子滤波跟踪框架,对于每一个粒子,采用深度特征和颜色表观特征求解观测模型;根据一阶二阶运动信息求解状态转移模型;
(3)根据观测模型,计算每个粒子的权值参数,通过加权平均确定当前目标位置;
(4)计算目标当前状态,判定状态变化程度,实时更新观测模型。
2.如权利要求1所述的基于深度学习的自适应粒子滤波目标跟踪方法,其特征在于,步骤(1)中,建立浅层深度学习网络模型,采用SGD算法离线训练该模型具体为:采用两个5x5的卷积核f1,f2通过sigmoid函数提取深层语义特征: 其中,Convx代表卷积层Conv1和Conv2;b1、b2为偏置,S1、S2分别代表输入样本Input和第一层池化输出;Subsampling1、Subsampling2为池化层:通过邻域像素特征的加权平均获得当前池化层各像素特征值,从而降低特征维数,减少数据量,其中sum=a1p(i,j)+a2p(i,j+1)+a3p(i+1,j)+a4p(i+1,j+1),p′(i,j)表示当前池化层的像素值,a1,a2,a3,a4为加权系数;FC为全连接层,将Subsampling2输出特征值连接成1x60的特征向量;SVM分类器在离线训练时识别前景Foreground和背景Background。
3.如权利要求1所述的基于深度学习的自适应粒子滤波目标跟踪方法,其特征在于,步骤(2)中,对于每个粒子,观测模型为c=[c1c2],c1∈R1×60为深度特征向量,由预训练的深度学习网络产生;c2=[h1,h2,…,hL]∈R1×L为HSV颜色空间生成的表观颜色直方图特征,其中,L为颜色直方图的量化级数,hi,i=1,…,L为各级的特征值;状态转移模型为St=St-1+ft-1,St,St-1分别代表粒子当前帧和前一相邻帧的状态,ft-1为粒子状态转移变量;粒子在当前帧的状态估计由一阶和二阶运动信息同时确定,运动速度指导粒子的运动方向和位置,加速度信息描绘了粒子的聚集程度,目标运动越快,粒子散布范围越广泛,运动越慢,粒子越集中;ft-1可由多元高斯随机变量定义为其中,cen为粒子在前一帧的位置,μt-1、σt-1为高斯分布的均值和方差; 均值μt-1由连续三帧的目标运动速度计算获得:μt-1=(Vt-1+Vt-2+Vt-3)/3,方差定义为加速度:σt-1=Vt-1-Vt-2,其中,Vt-1,Vt-2和Vt-3分别表示当前帧前连续三帧中目标的运动速度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711337098.XA CN108182447B (zh) | 2017-12-14 | 2017-12-14 | 一种基于深度学习的自适应粒子滤波目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711337098.XA CN108182447B (zh) | 2017-12-14 | 2017-12-14 | 一种基于深度学习的自适应粒子滤波目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108182447A CN108182447A (zh) | 2018-06-19 |
CN108182447B true CN108182447B (zh) | 2020-04-21 |
Family
ID=62545953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711337098.XA Active CN108182447B (zh) | 2017-12-14 | 2017-12-14 | 一种基于深度学习的自适应粒子滤波目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108182447B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106682616B (zh) * | 2016-12-28 | 2020-04-21 | 南京邮电大学 | 基于双通道特征深度学习的新生儿疼痛表情识别方法 |
CN109583349A (zh) * | 2018-11-22 | 2019-04-05 | 北京市首都公路发展集团有限公司 | 一种用于在真实环境对目标车辆的颜色进行识别的方法及系统 |
CN109615007B (zh) * | 2018-12-10 | 2021-10-19 | 天津工业大学 | 基于粒子滤波的深度学习网络目标检测方法 |
CN109859242B (zh) * | 2019-01-16 | 2022-09-09 | 重庆邮电大学 | 一种预测自适应学习的目标跟踪方法 |
CN110232702A (zh) * | 2019-05-07 | 2019-09-13 | 湖北工业大学 | 基于生成式对抗网络的目标跟踪算法 |
CN110460880B (zh) * | 2019-08-09 | 2021-08-31 | 东北大学 | 基于粒子群和神经网络的工业无线流媒体自适应传输方法 |
CN111311639B (zh) * | 2019-12-31 | 2022-08-26 | 山东工商学院 | 一种多搜索空间的快速移动自适应更新间隔的跟踪方法 |
CN111488803A (zh) * | 2020-03-16 | 2020-08-04 | 温州大学大数据与信息技术研究院 | 一种融合目标检测和目标跟踪的机场目标行为理解系统 |
CN111931368A (zh) * | 2020-08-03 | 2020-11-13 | 哈尔滨工程大学 | 一种基于gru粒子滤波的uuv目标状态估计方法 |
CN113470072B (zh) * | 2021-07-06 | 2022-09-13 | 吉林省田车科技有限公司 | 一种基于运动粒子的粒子群目标跟踪算法 |
CN116049468A (zh) * | 2021-10-28 | 2023-05-02 | 北京有竹居网络技术有限公司 | 特征提取模型训练方法、图片搜索方法、装置及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7035764B2 (en) * | 2003-05-02 | 2006-04-25 | Microsoft Corporation | System and process for tracking an object state using a particle filter sensor fusion technique |
CN102521612A (zh) * | 2011-12-16 | 2012-06-27 | 东华大学 | 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 |
CN103237155A (zh) * | 2013-04-01 | 2013-08-07 | 北京工业大学 | 一种单视角被遮挡的目标的跟踪和定位方法 |
CN106127804A (zh) * | 2016-06-17 | 2016-11-16 | 淮阴工学院 | 基于稀疏深度去噪自编码器的rgb‑d数据跨模式特征学习的目标跟踪方法 |
CN106384093A (zh) * | 2016-09-13 | 2017-02-08 | 东北电力大学 | 一种基于降噪自动编码器和粒子滤波的人体动作识别方法 |
CN106780560A (zh) * | 2016-12-29 | 2017-05-31 | 北京理工大学 | 一种基于特征融合粒子滤波的仿生机器鱼视觉跟踪方法 |
CN107274408A (zh) * | 2017-06-16 | 2017-10-20 | 厦门大学 | 一种基于新型粒子滤波算法的图像分割方法 |
-
2017
- 2017-12-14 CN CN201711337098.XA patent/CN108182447B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7035764B2 (en) * | 2003-05-02 | 2006-04-25 | Microsoft Corporation | System and process for tracking an object state using a particle filter sensor fusion technique |
CN102521612A (zh) * | 2011-12-16 | 2012-06-27 | 东华大学 | 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 |
CN103237155A (zh) * | 2013-04-01 | 2013-08-07 | 北京工业大学 | 一种单视角被遮挡的目标的跟踪和定位方法 |
CN106127804A (zh) * | 2016-06-17 | 2016-11-16 | 淮阴工学院 | 基于稀疏深度去噪自编码器的rgb‑d数据跨模式特征学习的目标跟踪方法 |
CN106384093A (zh) * | 2016-09-13 | 2017-02-08 | 东北电力大学 | 一种基于降噪自动编码器和粒子滤波的人体动作识别方法 |
CN106780560A (zh) * | 2016-12-29 | 2017-05-31 | 北京理工大学 | 一种基于特征融合粒子滤波的仿生机器鱼视觉跟踪方法 |
CN107274408A (zh) * | 2017-06-16 | 2017-10-20 | 厦门大学 | 一种基于新型粒子滤波算法的图像分割方法 |
Non-Patent Citations (1)
Title |
---|
基于混合特征的运动目标跟踪方法;任楠;《北京邮电大学学报》;20161231;第39卷(第6期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108182447A (zh) | 2018-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108182447B (zh) | 一种基于深度学习的自适应粒子滤波目标跟踪方法 | |
Adeyanju et al. | Machine learning methods for sign language recognition: A critical review and analysis | |
CN107203753B (zh) | 一种基于模糊神经网络和图模型推理的动作识别方法 | |
CN108154118B (zh) | 一种基于自适应组合滤波与多级检测的目标探测系统及方法 | |
Yeo et al. | Superpixel-based tracking-by-segmentation using markov chains | |
CN107229904B (zh) | 一种基于深度学习的目标检测与识别方法 | |
EP1934941B1 (en) | Bi-directional tracking using trajectory segment analysis | |
EP2164041B1 (en) | Tracking method and device adopting a series of observation models with different lifespans | |
CN110175649B (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
CN111340824B (zh) | 一种基于数据挖掘的图像特征分割方法 | |
CN111191583A (zh) | 基于卷积神经网络的空间目标识别系统及方法 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN113052873B (zh) | 一种在线自监督学习场景适应的单目标跟踪方法 | |
Lu et al. | Learning transform-aware attentive network for object tracking | |
CN110728694A (zh) | 一种基于持续学习的长时视觉目标跟踪方法 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
Thabet et al. | Fast marching method and modified features fusion in enhanced dynamic hand gesture segmentation and detection method under complicated background | |
Song et al. | Feature extraction and target recognition of moving image sequences | |
CN110827327B (zh) | 一种基于融合的长期目标跟踪方法 | |
Sarma et al. | Hand detection by two-level segmentation with double-tracking and gesture recognition using deep-features | |
Xue et al. | Multiple pedestrian tracking under first-person perspective using deep neural network and social force optimization | |
CN113409335A (zh) | 基于强弱联合半监督直觉模糊聚类的图像分割方法 | |
Orrite et al. | One-sequence learning of human actions | |
Hedayati et al. | A qualitative and quantitative comparison of real-time background subtraction algorithms for video surveillance applications | |
Keskin et al. | STARS: Sign tracking and recognition system using input–output HMMs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |