CN106056628A - 基于深度卷积神经网络特征融合的目标跟踪方法及系统 - Google Patents

基于深度卷积神经网络特征融合的目标跟踪方法及系统 Download PDF

Info

Publication number
CN106056628A
CN106056628A CN201610371378.1A CN201610371378A CN106056628A CN 106056628 A CN106056628 A CN 106056628A CN 201610371378 A CN201610371378 A CN 201610371378A CN 106056628 A CN106056628 A CN 106056628A
Authority
CN
China
Prior art keywords
feature
target
tracking
sigma
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610371378.1A
Other languages
English (en)
Other versions
CN106056628B (zh
Inventor
秦磊
齐元凯
张盛平
姚鸿勋
黄庆明
林钟禹
杨明轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Computing Technology of CAS
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Priority to CN201610371378.1A priority Critical patent/CN106056628B/zh
Publication of CN106056628A publication Critical patent/CN106056628A/zh
Application granted granted Critical
Publication of CN106056628B publication Critical patent/CN106056628B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统,涉及模式识别技术领域,该方法包括步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。本发明合理地融合多种特征的跟踪结果,实现鲁棒的目标跟踪。

Description

基于深度卷积神经网络特征融合的目标跟踪方法及系统
技术领域
本发明涉及模式识别技术领域,特别涉及基于深度卷积神经网络特征融合的目标跟踪方法及系统。
背景技术
计算机目标跟踪是视频监控、人机交互、汽车自动驾驶等实际应用中的重要组成部分,根据所使用的特征不同,现有的目标跟踪技术可以分为两类:一类是使用人工设计的图像特征进行目标跟踪(N.Dalal and B.Triggs.Histograms of oriented gradientsfor human detection.In CVPR,2005)(D.G.Lowe.Object recognition from localscale-invariant features.In ICCV,1999),一类是使用卷积神经网络的方法提取图像特征进行目标跟踪(C.Ma,J.-B.Huang,X.Yang,and M.-H.Yang.Hierarchicalconvolutional features for visual tracking.In ICCV,2015)(J.Fan,W.Xu,Y.Wu,andY.Gong.Human tracking using convolutional neural networks.TNN,21(10):1610–1623,2010.),目前,使用卷积神经网络得到的特征的有效性已远超人工设计的特征。
Fan等人(J.Fan,W.Xu,Y.Wu,and Y.Gong.Human tracking using convolutionalneural networks.TNN,21(10):1610–1623,2010.)使用一个预先训练好的神经网络对行人进行跟踪;Wang等人(N.Wang and D.-Y.Yeung.Learning a deep compact imagerepresentation for visual tracking.In NIPS,2013)则设计了一个基于去噪自动编码器的深度网络从大量的物体图像中学习具有代表性的特征,进而使用该网络进行特征提取以应用于目标跟踪,为了更加有效地利用卷积神经网络,Hong等人(S.Hong,T.You,S.Kwak,and B.Han.Online tracking by learning discriminative saliency map withconvolutional neural network.In ICML,2015.)基于R-CNN(R.B.Girshick,J.Donahue,T.Darrell,and J.Malik.Rich feature hierarchies for accurate object detectionand semantic segmentation.In CVPR,2014.)设计了两路特征提取方法,一路使用第一个全连接层的特征来构建一个判别式模型,另一路使用R-CNN反向传播得到的显著性特征构建一个生成式模型,最后将两个模型得到的结果结合起来得到最终的跟踪结果。
计算机目标跟踪技术还可以根据建模方法分为判别式跟踪技术(H.Grabner,M.Grabner,and H.Bischof,“Real-time tracking via on-line boosting,”in BMVC,2006)(J.Gao,H.Ling,W.Hu,and J.Xing,“Transfer learning based visual trackingwith gaussian processes regression,”in ECCV,2014)(S.Hare,A.Saffari,andP.H.S.Torr,“Struck:Structured output tracking with kernels,”in ICCV,2011)和生成式跟踪技术(J.Kwon and K.M.Lee,“Interval tracker:Tracking by intervalanalysis,”in CVPR,2014)(D.A.Ross,J.Lim,R.Lin,and M.Yang,“Incremental learningfor robust visual tracking,”IJCV,vol.77,pp.125–141,2008)(X.Jia,H.Lu,andM.Yang,“Visual tracking via adaptive structural local sparse appearancemodel,”in CVPR,2012.)(T.Zhang,B.Ghanem,S.Liu,and N.Ahuja,“Robust visualtracking via multi-task sparse learning,”in CVPR,2012),判别式跟踪技术将目标跟踪问题看作一个目标图像区域和背景区域的分类问题,因此这类技术致力于提高分类器的性能。Grabner等人(H.Grabner,M.Grabner,and H.Bischof,“Real-time tracking viaon-line boosting,”in BMVC,2006)利用在线boosting技术构建了一个特征选择算法,并将多个弱分类器融合为一个强分类器,Hare等人(S.Hare,A.Saffari,and P.H.S.Torr,“Struck:Structured output tracking with kernels,”in ICCV,2011)则将结构支持向量机引入到目标跟踪问题中,将目标的位置坐标作为样本标签,避免了传统支持向量机样本的正负标签和跟踪位置之间的转换,在传统的分类器中,具有不同置信度的所有正样本具有一样的类别标签,这降低了分类的识别能力,为了解决这一问题,Babenko等人(B.Babenko,M.Yang,and S.J.Belongie,“Robust object tracking with onlinemultiple instance learning,”TPAMI,vol.33,pp.1619–1632,2011)引入了多实例学习技术。
生成式目标跟踪技术将目标跟踪视为一个由目标的表观模型在新的视频帧中生成最佳目标候选的任务,这类技术的关键是对跟踪目标的表观进行建模以及模型的更新,常见的方法有子空间学习和稀疏表示,Ross等人(D.A.Ross,J.Lim,R.Lin,and M.Yang,“Incremental learning for robust visual tracking,”IJCV,vol.77,pp.125–141,2008)使用增量子空间学习的方法适应跟踪目标表观随时间的变化,在(X.Jia,H.Lu,andM.Yang,“Visual tracking via adaptive structural local sparse appearancemodel,”in CVPR,2012.)(T.Zhang,B.Ghanem,S.Liu,and N.Ahuja,“Robust visualtracking via multi-task sparse learning,”in CVPR,2012)(X.Mei and H.Ling,“Robust visual tracking using l1minimization,”in ICCV,2009.)中则使用稀疏表示方法对表观进行刻画,稀疏表示理论认为,当字典过完备时,跟踪目标可以由少量的正字典项表示,而非跟踪目标则主要由负字典项表示,这样,当仅使用正字典项及其对应的系数重建被表示对象时,具有较小重建误差的目标候选应为跟踪目标,而具有较大重建误差的目标候选应为背景。
发明内容
针对现有技术的不足,本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统。
本发明提出一种基于深度卷积神经网络特征融合的目标跟踪方法,包括:
步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。
步骤1中获取目标当前的跟踪目标位置的公式为:
( x t * , y t * ) = Σ k = 1 K w t k · ( x t k , y t k )
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
步骤2中稳定性模型为:
μ t k = 1 Δ t Σ T = t - Δ t + 1 t l T k
σ t k = 1 Δ t - 1 Σ T = t - Δ t + 1 t ( l T k - μ t k ) 2
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
步骤2中计算每个特征在当前帧的稳定性的公式为:
s t k = | l t k - μ t k | σ t k
其中sk表示矩阵,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
步骤2中更新每种特征的置信权重的公式为:
R t k = ( 1 - α t k ) R t - 1 k + α t k r t k
α t k = min ( g , exp ( - γS t k ) )
w t + 1 k ∞ [ R t k ] + c t exp ( [ R t k ] + ) 2 2 c t
其中,w为置信权重,每种特征的R度量的量化方式为:
R t k = Σ τ = 1 t γ τ k
γ t k = l t k ‾ - l t k
l t k ‾ = Σ k = 1 K w t k l t k
其中,是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最小值。
本发明还提出一种基于深度卷积神经网络特征融合的目标跟踪系统,包括:
获取跟踪目标位置,用于通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
更新置信权重模块,用于计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
目标跟踪模块,用于重复步骤1至步骤2完成所有帧的目标跟踪。
获取跟踪目标位置中获取目标当前的跟踪目标位置的公式为:
( x t * , y t * ) = Σ k = 1 K w t k · ( x t k , y t k )
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
更新置信权重模块中稳定性模型为:
μ t k = 1 Δ t Σ T = t - Δ t + 1 t l T k
σ t k = 1 Δ t - 1 Σ T = t - Δ t + 1 t ( l T k - μ t k ) 2
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
更新置信权重模块中计算每个特征在当前帧的稳定性的公式为:
s t k = | l t k - μ t k | σ t k
其中sk表示矩阵,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
更新置信权重模块中更新每种特征的置信权重的公式为:
R t k = ( 1 - α t k ) R t - 1 k + α t k r t k
α t k = min ( g , exp ( - γS t k ) )
w t + 1 k ∞ [ R t k ] + c t exp ( [ R t k ] + ) 2 2 c t
其中,w为置信权重,每种特征的R度量的量化方式为:
R t k = Σ τ = 1 t γ τ k
γ t k = l t k ‾ - l t k
l t k ‾ = Σ k = 1 K w t k l t k
其中,是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最小值。
由以上方案可知,本发明的优点在于:
本发明以多种深度卷积神经网络特征作为输入,对每种特征在当前场景下指定时间窗口内的跟踪精度损失进行建模,用以预测每种特征在接下来的时间内的跟踪结果可信度,将较多的置信度分配给跟踪精度高的特征,从而合理地融合多种特征的跟踪结果,实现鲁棒的目标跟踪。
附图说明
图1为本发明在一帧图像上的实施流程图;
图2位本发明方法流程图。
步骤S1-1、S1-2、S2-1、S2-2、S2-3、S2-4、S2-5、S3。
具体实施方式
本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统,实现根据场景、时间的不同自适应地学习每种特征的置信权重,具体地,本发明对当前场景下,一定长度时间窗口内的每种特征的跟踪精度损失进行建模,得到每种特征的跟踪精度及其稳定性,并用于计算每种特征的置信度,最终实现多种特征跟踪结果的有效融合(实验结果证明,本发明在公开的数据集上有效),图1位本发明在一帧图像上的实施流程图。
本发明的具体步骤如图2所示:
S1-1:使用深度卷积神经网络,比如VGG,提取多种特征;
S1-2:使用相关滤波器方法计算每种特征的跟踪结果;
sk=F-1(Tk·wk)
上式中,X和Y是训练数据,用以计算回归模型的系数矩阵w,该计算在傅里叶域完成;F-1表示傅里叶逆变换,sk(x’,y’)表示矩阵sk在位置(x’,y’)处的取值;(xk,yk)是使用第k中特征预测的跟踪目标的位置。
S2-1:根据上一次确定的各特征置信权重Wt,得到当前的跟踪目标位置;
S2-2:计算每种特征在当前帧的预测精度损失;
S2-3:对每种特征,建立(已建立则更新)在△t时间内的稳定性模型;
μ t k = 1 Δ t Σ T = t - Δ t + 1 t l T k
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
S2-4:计算特征在当前帧的稳定性;
S2-5:根据每种特征的稳定性及其累积的预测精度损失,更新每种特征的置信权重;
R t k = ( 1 - α t k ) R t - 1 k + α t k r t k
α t k = min ( g , exp ( - γS t k ) )
其中,每种特征的R量化方式为
R t k = Σ τ = 1 t γ τ k
γ t k = l t k ‾ - l t k
S3:重复S2-1至S2-5完成所有帧的目标跟踪。
本发明还提出一种基于深度卷积神经网络特征融合的目标跟踪系统,包括:
获取跟踪目标位置,用于通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
更新置信权重模块,用于计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
目标跟踪模块,用于重复步骤1至步骤2完成所有帧的目标跟踪。
获取跟踪目标位置中获取目标当前的跟踪目标位置的公式为:
( x t * , y t * ) = Σ k = 1 K w t k · ( x t k , y t k )
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
更新置信权重模块中稳定性模型为:
μ t k = 1 Δ t Σ T = t - Δ t + 1 t l T k
σ t k = 1 Δ t - 1 Σ T = t - Δ t + 1 t ( l T k - μ t k ) 2
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
更新置信权重模块中计算每个特征在当前帧的稳定性的公式为:
s t k = | l t k - μ t k | σ t k
其中sk表示矩阵,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
更新置信权重模块中更新每种特征的置信权重的公式为:
R t k = ( 1 - α t k ) R t - 1 k + α t k r t k
α t k = min ( g , exp ( - γS t k ) )
w t + 1 k ∞ [ R t k ] + c t exp ( [ R t k ] + ) 2 2 c t
其中,w为置信权重,每种特征的R度量的量化方式为:
R t k = Σ τ = 1 t γ τ k
γ t k = l t k ‾ - l t k
l t k ‾ = Σ k = 1 K w t k l t k
其中,是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最小值。

Claims (10)

1.一种基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,包括:
步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。
2.如权利要求1所述的基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,步骤1中获取目标当前的跟踪目标位置的公式为:
( x t * , y t * ) = Σ k = 1 K w t k · ( x t k , y t k )
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
3.如权利要求1所述的基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,步骤2中稳定性模型为:
μ t k = 1 Δ t Σ T = t - Δ t + 1 t l T k
σ t k = 1 Δ t - 1 Σ T = t - Δ t + 1 t ( l T k - μ t k ) 2
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
4.如权利要求1所述的基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,步骤2中计算每个特征在当前帧的稳定性的公式为:
s t k = | l t k - μ t k | σ t k
其中sk表示矩阵,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
5.如权利要求1所述的基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,步骤2中更新每种特征的置信权重的公式为:
R t k = ( 1 - α t k ) R t - 1 k + α t k r t k
α t k = m i n ( g , exp ( - γs t k ) )
w t + 1 k ∞ [ R t k ] + c t exp ( [ R t k ] + ) 2 2 c t
其中,w为置信权重,每种特征的R度量的量化方式为:
R t k = Σ τ = 1 t γ τ k
γ t k = l t k ‾ - l t k
l t k ‾ = Σ k = 1 K w t k l t k
其中,是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最小值。
6.一种基于深度卷积神经网络特征融合的目标跟踪系统,其特征在于,包括:
获取跟踪目标位置,用于通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
更新置信权重模块,用于计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
目标跟踪模块,用于重复步骤1至步骤2完成所有帧的目标跟踪。
7.如权利要求6所述的基于深度卷积神经网络特征融合的目标跟踪系统,其特征在于,获取跟踪目标位置中获取目标当前的跟踪目标位置的公式为:
( x t * , y t * ) = Σ k = 1 K w t k · ( x t k , y t k )
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
8.如权利要求6所述的基于深度卷积神经网络特征融合的目标跟踪系统,其特征在于,更新置信权重模块中稳定性模型为:
μ t k = 1 Δ t Σ T = t - Δ t + 1 t l T k
σ t k = 1 Δ t - 1 Σ T = t - Δ t + 1 t ( l T k - μ t k ) 2
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
9.如权利要求6所述的基于深度卷积神经网络特征融合的目标跟踪系统,其特征在于,更新置信权重模块中计算每个特征在当前帧的稳定性的公式为:
s t k = | l t k - μ t k | σ t k
其中sk表示矩阵,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
10.如权利要求6所述的基于深度卷积神经网络特征融合的目标跟踪系统,其特征在于,更新置信权重模块中更新每种特征的置信权重的公式为:
R t k = ( 1 - α t k ) R t - 1 k + α t k r t k
α t k = m i n ( g , exp ( - γs t k ) )
w t + 1 k ∞ [ R t k ] + c t exp ( [ R t k ] + ) 2 2 c t
其中,w为置信权重,每种特征的R度量的量化方式为:
R t k = Σ τ = 1 t γ τ k
γ t k = l t k ‾ - l t k
l t k ‾ = Σ k = 1 K w t k l t k
其中,是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最小值。
CN201610371378.1A 2016-05-30 2016-05-30 基于深度卷积神经网络特征融合的目标跟踪方法及系统 Active CN106056628B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610371378.1A CN106056628B (zh) 2016-05-30 2016-05-30 基于深度卷积神经网络特征融合的目标跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610371378.1A CN106056628B (zh) 2016-05-30 2016-05-30 基于深度卷积神经网络特征融合的目标跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN106056628A true CN106056628A (zh) 2016-10-26
CN106056628B CN106056628B (zh) 2019-06-18

Family

ID=57171441

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610371378.1A Active CN106056628B (zh) 2016-05-30 2016-05-30 基于深度卷积神经网络特征融合的目标跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN106056628B (zh)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651917A (zh) * 2016-12-30 2017-05-10 天津大学 基于神经网络的图像目标跟踪算法
CN106887011A (zh) * 2017-01-20 2017-06-23 北京理工大学 一种基于cnn和cf的多模板目标跟踪方法
CN107424273A (zh) * 2017-07-28 2017-12-01 杭州宇泛智能科技有限公司 一种无人超市的管理方法
CN107679455A (zh) * 2017-08-29 2018-02-09 平安科技(深圳)有限公司 目标跟踪装置、方法及计算机可读存储介质
CN107766821A (zh) * 2017-10-23 2018-03-06 江苏鸿信系统集成有限公司 基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法及系统
CN107766794A (zh) * 2017-09-22 2018-03-06 天津大学 一种特征融合系数可学习的图像语义分割方法
CN107808139A (zh) * 2017-11-01 2018-03-16 电子科技大学 一种基于深度学习的实时监控威胁分析方法及系统
WO2018086513A1 (zh) * 2016-11-08 2018-05-17 杭州海康威视数字技术股份有限公司 一种目标检测方法及装置
CN108229539A (zh) * 2016-12-13 2018-06-29 安讯士有限公司 用于训练神经网络的方法、计算机程序产品和装置
CN108230291A (zh) * 2017-03-30 2018-06-29 北京市商汤科技开发有限公司 物体识别系统训练方法、物体识别方法、装置和电子设备
CN108288282A (zh) * 2017-12-26 2018-07-17 浙江工业大学 一种基于卷积神经网络的自适应特征选择目标跟踪方法
CN108304755A (zh) * 2017-03-08 2018-07-20 腾讯科技(深圳)有限公司 用于图像处理的神经网络模型的训练方法和装置
CN108470355A (zh) * 2018-04-04 2018-08-31 中山大学 融合卷积网络特征和判别式相关滤波器的目标跟踪方法
CN108537326A (zh) * 2017-03-06 2018-09-14 百度(美国)有限责任公司 用于自动驾驶车辆的方法、介质和系统
CN108764039A (zh) * 2018-04-24 2018-11-06 中国科学院遥感与数字地球研究所 神经网络、遥感影像的建筑物提取方法、介质及计算设备
CN108898619A (zh) * 2018-06-08 2018-11-27 上海大学 一种基于pvanet神经网络的目标跟踪方法
CN109325590A (zh) * 2018-09-14 2019-02-12 中国科学院计算技术研究所 用于实现计算精度可变的神经网络处理器的装置
WO2019033541A1 (en) * 2017-08-14 2019-02-21 Huawei Technologies Co., Ltd. PRODUCTION OF DATA LABELED FOR DEEP OBJECT TRACKING
CN109388135A (zh) * 2017-08-14 2019-02-26 通用汽车环球科技运作有限责任公司 使用深度时空学习的自主操作
CN109711354A (zh) * 2018-12-28 2019-05-03 哈尔滨工业大学(威海) 一种基于视频属性表示学习的目标跟踪方法
CN109740416A (zh) * 2018-11-19 2019-05-10 深圳市华尊科技股份有限公司 目标跟踪方法及相关产品
CN109754424A (zh) * 2018-12-17 2019-05-14 西北工业大学 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN109891897A (zh) * 2016-10-27 2019-06-14 诺基亚技术有限公司 用于分析媒体内容的方法
CN109919223A (zh) * 2019-03-05 2019-06-21 北京联合大学 基于深度神经网络的目标检测方法及装置
CN110287816A (zh) * 2019-06-05 2019-09-27 北京字节跳动网络技术有限公司 车门动作检测方法、装置和计算机可读存储介质
CN110687905A (zh) * 2019-09-11 2020-01-14 珠海市众创芯慧科技有限公司 一种基于多传感技术融合一体的无人驾驶智能车
CN111652903A (zh) * 2020-05-22 2020-09-11 重庆理工大学 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法
CN111862145A (zh) * 2019-04-24 2020-10-30 四川大学 一种基于多尺度行人检测的目标跟踪方法
CN112036446A (zh) * 2020-08-06 2020-12-04 汇纳科技股份有限公司 目标识别特征融合的方法、系统、介质及装置
CN113256685A (zh) * 2021-06-25 2021-08-13 南昌工程学院 基于卷积神经网络字典对学习的目标跟踪方法与系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104244113A (zh) * 2014-10-08 2014-12-24 中国科学院自动化研究所 一种基于深度学习技术的视频摘要生成方法
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104244113A (zh) * 2014-10-08 2014-12-24 中国科学院自动化研究所 一种基于深度学习技术的视频摘要生成方法
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KAMALIKA CHAUDHURI ET AL.: "A Parameter-free Hedging Algorithm", 《ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS》 *
张子夫: "基于卷积神经网络的目标跟踪算法研究与实现", 《中国优秀硕士学位论文全文数据库-信息科技辑》 *

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109891897A (zh) * 2016-10-27 2019-06-14 诺基亚技术有限公司 用于分析媒体内容的方法
US11068722B2 (en) 2016-10-27 2021-07-20 Nokia Technologies Oy Method for analysing media content to generate reconstructed media content
CN109891897B (zh) * 2016-10-27 2021-11-05 诺基亚技术有限公司 用于分析媒体内容的方法
WO2018086513A1 (zh) * 2016-11-08 2018-05-17 杭州海康威视数字技术股份有限公司 一种目标检测方法及装置
US10949673B2 (en) * 2016-11-08 2021-03-16 Hangzhou Hikvision Digital Technology Co., Ltd. Target detection method and device
CN108229539B (zh) * 2016-12-13 2023-09-12 安讯士有限公司 用于训练神经网络的系统
CN108229539A (zh) * 2016-12-13 2018-06-29 安讯士有限公司 用于训练神经网络的方法、计算机程序产品和装置
CN106651917A (zh) * 2016-12-30 2017-05-10 天津大学 基于神经网络的图像目标跟踪算法
CN106887011B (zh) * 2017-01-20 2019-11-15 北京理工大学 一种基于cnn和cf的多模板目标跟踪方法
CN106887011A (zh) * 2017-01-20 2017-06-23 北京理工大学 一种基于cnn和cf的多模板目标跟踪方法
CN108537326A (zh) * 2017-03-06 2018-09-14 百度(美国)有限责任公司 用于自动驾驶车辆的方法、介质和系统
CN108537326B (zh) * 2017-03-06 2022-05-13 百度(美国)有限责任公司 用于自动驾驶车辆的方法、介质和系统
CN108304755B (zh) * 2017-03-08 2021-05-18 腾讯科技(深圳)有限公司 用于图像处理的神经网络模型的训练方法和装置
CN108304755A (zh) * 2017-03-08 2018-07-20 腾讯科技(深圳)有限公司 用于图像处理的神经网络模型的训练方法和装置
CN108230291A (zh) * 2017-03-30 2018-06-29 北京市商汤科技开发有限公司 物体识别系统训练方法、物体识别方法、装置和电子设备
CN108230291B (zh) * 2017-03-30 2020-09-29 北京市商汤科技开发有限公司 物体识别系统训练方法、物体识别方法、装置和电子设备
CN107424273A (zh) * 2017-07-28 2017-12-01 杭州宇泛智能科技有限公司 一种无人超市的管理方法
US10592786B2 (en) 2017-08-14 2020-03-17 Huawei Technologies Co., Ltd. Generating labeled data for deep object tracking
CN109388135A (zh) * 2017-08-14 2019-02-26 通用汽车环球科技运作有限责任公司 使用深度时空学习的自主操作
WO2019033541A1 (en) * 2017-08-14 2019-02-21 Huawei Technologies Co., Ltd. PRODUCTION OF DATA LABELED FOR DEEP OBJECT TRACKING
WO2019041519A1 (zh) * 2017-08-29 2019-03-07 平安科技(深圳)有限公司 目标跟踪装置、方法及计算机可读存储介质
CN107679455A (zh) * 2017-08-29 2018-02-09 平安科技(深圳)有限公司 目标跟踪装置、方法及计算机可读存储介质
CN107766794B (zh) * 2017-09-22 2021-05-14 天津大学 一种特征融合系数可学习的图像语义分割方法
CN107766794A (zh) * 2017-09-22 2018-03-06 天津大学 一种特征融合系数可学习的图像语义分割方法
CN107766821A (zh) * 2017-10-23 2018-03-06 江苏鸿信系统集成有限公司 基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法及系统
CN107808139B (zh) * 2017-11-01 2021-08-06 电子科技大学 一种基于深度学习的实时监控威胁分析方法及系统
CN107808139A (zh) * 2017-11-01 2018-03-16 电子科技大学 一种基于深度学习的实时监控威胁分析方法及系统
CN108288282B (zh) * 2017-12-26 2022-04-08 浙江工业大学 一种基于卷积神经网络的自适应特征选择目标跟踪方法
CN108288282A (zh) * 2017-12-26 2018-07-17 浙江工业大学 一种基于卷积神经网络的自适应特征选择目标跟踪方法
CN108470355A (zh) * 2018-04-04 2018-08-31 中山大学 融合卷积网络特征和判别式相关滤波器的目标跟踪方法
CN108470355B (zh) * 2018-04-04 2022-08-09 中山大学 融合卷积网络特征和判别式相关滤波器的目标跟踪方法
CN108764039A (zh) * 2018-04-24 2018-11-06 中国科学院遥感与数字地球研究所 神经网络、遥感影像的建筑物提取方法、介质及计算设备
CN108764039B (zh) * 2018-04-24 2020-12-01 中国科学院遥感与数字地球研究所 神经网络、遥感影像的建筑物提取方法、介质及计算设备
CN108898619B (zh) * 2018-06-08 2021-02-23 上海大学 一种基于pvanet神经网络的目标跟踪方法
CN108898619A (zh) * 2018-06-08 2018-11-27 上海大学 一种基于pvanet神经网络的目标跟踪方法
CN109325590B (zh) * 2018-09-14 2020-11-03 中国科学院计算技术研究所 用于实现计算精度可变的神经网络处理器的装置
CN109325590A (zh) * 2018-09-14 2019-02-12 中国科学院计算技术研究所 用于实现计算精度可变的神经网络处理器的装置
CN109740416B (zh) * 2018-11-19 2021-02-12 深圳市华尊科技股份有限公司 目标跟踪方法及相关产品
CN109740416A (zh) * 2018-11-19 2019-05-10 深圳市华尊科技股份有限公司 目标跟踪方法及相关产品
CN109754424B (zh) * 2018-12-17 2022-11-04 西北工业大学 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN109754424A (zh) * 2018-12-17 2019-05-14 西北工业大学 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN109711354A (zh) * 2018-12-28 2019-05-03 哈尔滨工业大学(威海) 一种基于视频属性表示学习的目标跟踪方法
CN109919223B (zh) * 2019-03-05 2020-10-16 北京联合大学 基于深度神经网络的目标检测方法及装置
CN109919223A (zh) * 2019-03-05 2019-06-21 北京联合大学 基于深度神经网络的目标检测方法及装置
CN111862145A (zh) * 2019-04-24 2020-10-30 四川大学 一种基于多尺度行人检测的目标跟踪方法
CN110287816A (zh) * 2019-06-05 2019-09-27 北京字节跳动网络技术有限公司 车门动作检测方法、装置和计算机可读存储介质
CN110287816B (zh) * 2019-06-05 2021-12-28 北京字节跳动网络技术有限公司 车门动作检测方法、装置和计算机可读存储介质
CN110687905A (zh) * 2019-09-11 2020-01-14 珠海市众创芯慧科技有限公司 一种基于多传感技术融合一体的无人驾驶智能车
CN111652903A (zh) * 2020-05-22 2020-09-11 重庆理工大学 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法
CN111652903B (zh) * 2020-05-22 2023-09-08 重庆理工大学 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法
CN112036446A (zh) * 2020-08-06 2020-12-04 汇纳科技股份有限公司 目标识别特征融合的方法、系统、介质及装置
CN112036446B (zh) * 2020-08-06 2023-12-12 汇纳科技股份有限公司 目标识别特征融合的方法、系统、介质及装置
CN113256685B (zh) * 2021-06-25 2021-09-24 南昌工程学院 基于卷积神经网络字典对学习的目标跟踪方法与系统
CN113256685A (zh) * 2021-06-25 2021-08-13 南昌工程学院 基于卷积神经网络字典对学习的目标跟踪方法与系统

Also Published As

Publication number Publication date
CN106056628B (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
CN106056628A (zh) 基于深度卷积神经网络特征融合的目标跟踪方法及系统
CN101447082B (zh) 一种运动目标实时检测方法
CN104599292B (zh) 一种基于低秩矩阵分解的抗噪运动目标检测算法
CN100587719C (zh) 低复杂度的尺度自适应视频目标跟踪方法
CN108053419A (zh) 基于背景抑制和前景抗干扰的多尺度目标跟踪方法
CN105550678A (zh) 基于全局显著边缘区域的人体动作特征提取方法
CN109800628A (zh) 一种加强ssd小目标行人检测性能的网络结构及检测方法
CN107481264A (zh) 一种自适应尺度的视频目标跟踪方法
CN101470809B (zh) 一种基于扩展混合高斯模型的运动目标检测方法
CN105096345B (zh) 一种基于动态测量矩阵的目标跟踪方法及系统
CN110738647B (zh) 融合多感受野特征映射与高斯概率模型的老鼠检测方法
CN111080675A (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN101853388B (zh) 一种基于几何不变量的视角不变的行为识别方法
CN106295532A (zh) 一种视频图像中的人体动作识别方法
CN110348492A (zh) 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法
CN103871081A (zh) 一种自适应鲁棒在线目标跟踪方法
CN106651917A (zh) 基于神经网络的图像目标跟踪算法
CN103310463B (zh) 基于概率主成分分析和压缩感知的在线目标跟踪方法
CN103473790A (zh) 基于增量Bi-2DPCA学习和稀疏表示的在线目标跟踪方法
CN104268507A (zh) 一种基于rgb-d图像的手语字母识别方法
CN103489000A (zh) 一种人体动作识别训练系统的实现方法
CN109670401A (zh) 一种基于骨骼运动图的动作识别方法
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN105654518A (zh) 一种基于方差估计的跟踪模板自适应方法
CN103218829B (zh) 一种适应于动态背景的前景提取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant