CN106056628B - 基于深度卷积神经网络特征融合的目标跟踪方法及系统 - Google Patents
基于深度卷积神经网络特征融合的目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN106056628B CN106056628B CN201610371378.1A CN201610371378A CN106056628B CN 106056628 B CN106056628 B CN 106056628B CN 201610371378 A CN201610371378 A CN 201610371378A CN 106056628 B CN106056628 B CN 106056628B
- Authority
- CN
- China
- Prior art keywords
- feature
- target
- tracking
- stability
- kth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统,涉及模式识别技术领域,该方法包括步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。本发明合理地融合多种特征的跟踪结果,实现鲁棒的目标跟踪。
Description
技术领域
本发明涉及模式识别技术领域,特别涉及基于深度卷积神经网络特征融合的目标跟踪方法及系统。
背景技术
计算机目标跟踪是视频监控、人机交互、汽车自动驾驶等实际应用中的重要组成部分,根据所使用的特征不同,现有的目标跟踪技术可以分为两类:一类是使用人工设计的图像特征进行目标跟踪(N.Dalal and B.Triggs.Histograms of oriented gradientsfor human detection.In CVPR,2005)(D.G.Lowe.Object recognition from localscale-invariant features.In ICCV,1999),一类是使用卷积神经网络的方法提取图像特征进行目标跟踪(C.Ma,J.-B.Huang,X.Yang,and M.-H.Yang.Hierarchicalconvolutional features for visual tracking.In ICCV,2015)(J.Fan,W.Xu,Y.Wu,andY.Gong.Human tracking using convolutional neural networks.TNN,21(10):1610–1623,2010.),目前,使用卷积神经网络得到的特征的有效性已远超人工设计的特征。
Fan等人(J.Fan,W.Xu,Y.Wu,and Y.Gong.Human tracking using convolutionalneural networks.TNN,21(10):1610–1623,2010.)使用一个预先训练好的神经网络对行人进行跟踪;Wang等人(N.Wang and D.-Y.Yeung.Learning a deep compact imagerepresentation for visual tracking.In NIPS,2013)则设计了一个基于去噪自动编码器的深度网络从大量的物体图像中学习具有代表性的特征,进而使用该网络进行特征提取以应用于目标跟踪,为了更加有效地利用卷积神经网络,Hong等人(S.Hong,T.You,S.Kwak,and B.Han.Online tracking by learning discriminative saliency map withconvolutional neural network.In ICML,2015.)基于R-CNN(R.B.Girshick,J.Donahue,T.Darrell,and J.Malik.Rich feature hierarchies for accurate object detectionand semantic segmentation.In CVPR,2014.)设计了两路特征提取方法,一路使用第一个全连接层的特征来构建一个判别式模型,另一路使用R-CNN反向传播得到的显著性特征构建一个生成式模型,最后将两个模型得到的结果结合起来得到最终的跟踪结果。
计算机目标跟踪技术还可以根据建模方法分为判别式跟踪技术(H.Grabner,M.Grabner,and H.Bischof,“Real-time tracking via on-line boosting,”in BMVC,2006)(J.Gao,H.Ling,W.Hu,and J.Xing,“Transfer learning based visual trackingwith gaussian processes regression,”in ECCV,2014)(S.Hare,A.Saffari,andP.H.S.Torr,“Struck:Structured output tracking with kernels,”in ICCV,2011)和生成式跟踪技术(J.Kwon and K.M.Lee,“Interval tracker:Tracking by intervalanalysis,”in CVPR,2014)(D.A.Ross,J.Lim,R.Lin,and M.Yang,“Incremental learningfor robust visual tracking,”IJCV,vol.77,pp.125–141,2008)(X.Jia,H.Lu,andM.Yang,“Visual tracking via adaptive structural local sparse appearancemodel,”in CVPR,2012.)(T.Zhang,B.Ghanem,S.Liu,and N.Ahuja,“Robust visualtracking via multi-task sparse learning,”in CVPR,2012),判别式跟踪技术将目标跟踪问题看作一个目标图像区域和背景区域的分类问题,因此这类技术致力于提高分类器的性能。Grabner等人(H.Grabner,M.Grabner,and H.Bischof,“Real-time tracking viaon-line boosting,”in BMVC,2006)利用在线boosting技术构建了一个特征选择算法,并将多个弱分类器融合为一个强分类器,Hare等人(S.Hare,A.Saffari,and P.H.S.Torr,“Struck:Structured output tracking with kernels,”in ICCV,2011)则将结构支持向量机引入到目标跟踪问题中,将目标的位置坐标作为样本标签,避免了传统支持向量机样本的正负标签和跟踪位置之间的转换,在传统的分类器中,具有不同置信度的所有正样本具有一样的类别标签,这降低了分类的识别能力,为了解决这一问题,Babenko等人(B.Babenko,M.Yang,and S.J.Belongie,“Robust object tracking with onlinemultiple instance learning,”TPAMI,vol.33,pp.1619–1632,2011)引入了多实例学习技术。
生成式目标跟踪技术将目标跟踪视为一个由目标的表观模型在新的视频帧中生成最佳目标候选的任务,这类技术的关键是对跟踪目标的表观进行建模以及模型的更新,常见的方法有子空间学习和稀疏表示,Ross等人(D.A.Ross,J.Lim,R.Lin,and M.Yang,“Incremental learning for robust visual tracking,”IJCV,vol.77,pp.125–141,2008)使用增量子空间学习的方法适应跟踪目标表观随时间的变化,在(X.Jia,H.Lu,andM.Yang,“Visual tracking via adaptive structural local sparse appearancemodel,”in CVPR,2012.)(T.Zhang,B.Ghanem,S.Liu,and N.Ahuja,“Robust visualtracking via multi-task sparse learning,”in CVPR,2012)(X.Mei and H.Ling,“Robust visual tracking using l1minimization,”in ICCV,2009.)中则使用稀疏表示方法对表观进行刻画,稀疏表示理论认为,当字典过完备时,跟踪目标可以由少量的正字典项表示,而非跟踪目标则主要由负字典项表示,这样,当仅使用正字典项及其对应的系数重建被表示对象时,具有较小重建误差的目标候选应为跟踪目标,而具有较大重建误差的目标候选应为背景。
发明内容
针对现有技术的不足,本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统。
本发明提出一种基于深度卷积神经网络特征融合的目标跟踪方法,包括:
步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。
步骤1中获取目标当前的跟踪目标位置的公式为:
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
步骤2中稳定性模型为:
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
步骤2中计算每个特征在当前帧的稳定性的公式为:
其中sk表示矩阵,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
步骤2中更新每种特征的置信权重的公式为:
其中,w为置信权重,每种特征的R度量的量化方式为:
其中,是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最小值。
本发明还提出一种基于深度卷积神经网络特征融合的目标跟踪系统,包括:
获取跟踪目标位置,用于通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
更新置信权重模块,用于计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
目标跟踪模块,用于重复步骤1至步骤2完成所有帧的目标跟踪。
获取跟踪目标位置中获取目标当前的跟踪目标位置的公式为:
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
更新置信权重模块中稳定性模型为:
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
更新置信权重模块中计算每个特征在当前帧的稳定性的公式为:
其中sk表示矩阵,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
更新置信权重模块中更新每种特征的置信权重的公式为:
其中,w为置信权重,每种特征的R度量的量化方式为:
其中,是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最小值。
由以上方案可知,本发明的优点在于:
本发明以多种深度卷积神经网络特征作为输入,对每种特征在当前场景下指定时间窗口内的跟踪精度损失进行建模,用以预测每种特征在接下来的时间内的跟踪结果可信度,将较多的置信度分配给跟踪精度高的特征,从而合理地融合多种特征的跟踪结果,实现鲁棒的目标跟踪。
附图说明
图1为本发明在一帧图像上的实施流程图;
图2位本发明方法流程图。
步骤S1-1、S1-2、S2-1、S2-2、S2-3、S2-4、S2-5、S3。
具体实施方式
本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统,实现根据场景、时间的不同自适应地学习每种特征的置信权重,具体地,本发明对当前场景下,一定长度时间窗口内的每种特征的跟踪精度损失进行建模,得到每种特征的跟踪精度及其稳定性,并用于计算每种特征的置信度,最终实现多种特征跟踪结果的有效融合(实验结果证明,本发明在公开的数据集上有效),图1位本发明在一帧图像上的实施流程图。
本发明的具体步骤如图2所示:
S1-1:使用深度卷积神经网络,比如VGG,提取多种特征;
S1-2:使用相关滤波器方法计算每种特征的跟踪结果;
sk=F-1(Tk·wk)
上式中,X和Y是训练数据,用以计算回归模型的系数矩阵w,该计算在傅里叶域完成;F-1表示傅里叶逆变换,sk(x’,y’)表示矩阵sk在位置(x’,y’)处的取值;(xk,yk)是使用第k中特征预测的跟踪目标的位置。
S2-1:根据上一次确定的各特征置信权重Wt,得到当前的跟踪目标位置;
S2-2:计算每种特征在当前帧的预测精度损失;
S2-3:对每种特征,建立(已建立则更新)在△t时间内的稳定性模型;
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
S2-4:计算特征在当前帧的稳定性;
S2-5:根据每种特征的稳定性及其累积的预测精度损失,更新每种特征的置信权重;
其中,每种特征的R量化方式为
S3:重复S2-1至S2-5完成所有帧的目标跟踪。
本发明还提出一种基于深度卷积神经网络特征融合的目标跟踪系统,包括:
获取跟踪目标位置,用于通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
更新置信权重模块,用于计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
目标跟踪模块,用于重复步骤1至步骤2完成所有帧的目标跟踪。
获取跟踪目标位置中获取目标当前的跟踪目标位置的公式为:
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
更新置信权重模块中稳定性模型为:
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
更新置信权重模块中计算每个特征在当前帧的稳定性的公式为:
其中sk表示矩阵,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
更新置信权重模块中更新每种特征的置信权重的公式为:
其中,w为置信权重,每种特征的R度量的量化方式为:
其中,是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最小值。
Claims (8)
1.一种基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,包括:
步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
步骤3,重复步骤1至步骤2完成所有帧的目标跟踪;
其中步骤2中更新每种特征的置信权重的公式为:
其中,w为置信权重,每种特征的R度量的量化方式为:
其中表示第k种特征在第t帧的稳定性,rt k是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最大值,为第k种特征在t时刻的损失。
2.如权利要求1所述的基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,步骤1中获取目标当前的跟踪目标位置的公式为:
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
3.如权利要求1所述的基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,步骤2中稳定性模型为:
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
4.如权利要求1所述的基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,步骤2中计算每个特征在当前帧的稳定性的公式为:
其中表示第k种特征在第t帧的稳定性,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差, 为第k种特征在t时刻的损失。
5.一种基于深度卷积神经网络特征融合的目标跟踪系统,其特征在于,包括:
获取跟踪目标位置,用于通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;
更新置信权重模块,用于计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;
目标跟踪模块,用于重复步骤1至步骤2完成所有帧的目标跟踪;
其中更新置信权重模块中更新每种特征的置信权重的公式为:
其中,w为置信权重,每种特征的R度量的量化方式为:
其中表示第k种特征在第t帧的稳定性,rt k是第k种特征在t时刻的r度量,是平均损失,是第k种特征的从开始时刻到t时刻的累积r度量,ct是尺度因子,是平衡系数,g是的最大值,为第k种特征在t时刻的损失。
6.如权利要求5所述的基于深度卷积神经网络特征融合的目标跟踪系统,其特征在于,获取跟踪目标位置中获取目标当前的跟踪目标位置的公式为:
其中,x、y为训练数据,K为特征的种类总数,t为当前时刻,为使用第k种特征在时刻t的跟踪结果,为第k种特征在第t时刻的权重。
7.如权利要求5所述的基于深度卷积神经网络特征融合的目标跟踪系统,其特征在于,更新置信权重模块中稳定性模型为:
其中,为第k种特征在T时刻的损失,t为当前时刻,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
8.如权利要求5所述的基于深度卷积神经网络特征融合的目标跟踪系统,其特征在于,更新置信权重模块中计算每个特征在当前帧的稳定性的公式为:
其中sk表示矩阵,为第k种特征在[t-△t+1,t]时间内的平均损失,为第k种特征在[t-△t+1,t]时间内损失的标准差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610371378.1A CN106056628B (zh) | 2016-05-30 | 2016-05-30 | 基于深度卷积神经网络特征融合的目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610371378.1A CN106056628B (zh) | 2016-05-30 | 2016-05-30 | 基于深度卷积神经网络特征融合的目标跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106056628A CN106056628A (zh) | 2016-10-26 |
CN106056628B true CN106056628B (zh) | 2019-06-18 |
Family
ID=57171441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610371378.1A Active CN106056628B (zh) | 2016-05-30 | 2016-05-30 | 基于深度卷积神经网络特征融合的目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106056628B (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2555431A (en) * | 2016-10-27 | 2018-05-02 | Nokia Technologies Oy | A method for analysing media content |
CN108073933B (zh) * | 2016-11-08 | 2021-05-25 | 杭州海康威视数字技术股份有限公司 | 一种目标检测方法及装置 |
EP3336774B1 (en) * | 2016-12-13 | 2020-11-25 | Axis AB | Method, computer program product and device for training a neural network |
CN106651917A (zh) * | 2016-12-30 | 2017-05-10 | 天津大学 | 基于神经网络的图像目标跟踪算法 |
CN106887011B (zh) * | 2017-01-20 | 2019-11-15 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
US11308391B2 (en) * | 2017-03-06 | 2022-04-19 | Baidu Usa Llc | Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles |
CN108304755B (zh) * | 2017-03-08 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 用于图像处理的神经网络模型的训练方法和装置 |
CN108230291B (zh) * | 2017-03-30 | 2020-09-29 | 北京市商汤科技开发有限公司 | 物体识别系统训练方法、物体识别方法、装置和电子设备 |
CN107424273A (zh) * | 2017-07-28 | 2017-12-01 | 杭州宇泛智能科技有限公司 | 一种无人超市的管理方法 |
US10520940B2 (en) * | 2017-08-14 | 2019-12-31 | GM Global Technology Operations LLC | Autonomous operation using deep spatio-temporal learning |
US10592786B2 (en) | 2017-08-14 | 2020-03-17 | Huawei Technologies Co., Ltd. | Generating labeled data for deep object tracking |
CN107679455A (zh) * | 2017-08-29 | 2018-02-09 | 平安科技(深圳)有限公司 | 目标跟踪装置、方法及计算机可读存储介质 |
CN107766794B (zh) * | 2017-09-22 | 2021-05-14 | 天津大学 | 一种特征融合系数可学习的图像语义分割方法 |
CN107766821B (zh) * | 2017-10-23 | 2020-08-04 | 江苏鸿信系统集成有限公司 | 基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法及系统 |
CN107808139B (zh) * | 2017-11-01 | 2021-08-06 | 电子科技大学 | 一种基于深度学习的实时监控威胁分析方法及系统 |
CN108288282B (zh) * | 2017-12-26 | 2022-04-08 | 浙江工业大学 | 一种基于卷积神经网络的自适应特征选择目标跟踪方法 |
CN108470355B (zh) * | 2018-04-04 | 2022-08-09 | 中山大学 | 融合卷积网络特征和判别式相关滤波器的目标跟踪方法 |
CN108764039B (zh) * | 2018-04-24 | 2020-12-01 | 中国科学院遥感与数字地球研究所 | 神经网络、遥感影像的建筑物提取方法、介质及计算设备 |
CN108898619B (zh) * | 2018-06-08 | 2021-02-23 | 上海大学 | 一种基于pvanet神经网络的目标跟踪方法 |
CN109325590B (zh) * | 2018-09-14 | 2020-11-03 | 中国科学院计算技术研究所 | 用于实现计算精度可变的神经网络处理器的装置 |
CN109740416B (zh) * | 2018-11-19 | 2021-02-12 | 深圳市华尊科技股份有限公司 | 目标跟踪方法及相关产品 |
CN109754424B (zh) * | 2018-12-17 | 2022-11-04 | 西北工业大学 | 基于融合特征和自适应更新策略的相关滤波跟踪算法 |
CN109711354A (zh) * | 2018-12-28 | 2019-05-03 | 哈尔滨工业大学(威海) | 一种基于视频属性表示学习的目标跟踪方法 |
CN109919223B (zh) * | 2019-03-05 | 2020-10-16 | 北京联合大学 | 基于深度神经网络的目标检测方法及装置 |
CN111862145B (zh) * | 2019-04-24 | 2022-05-17 | 四川大学 | 一种基于多尺度行人检测的目标跟踪方法 |
CN110287816B (zh) * | 2019-06-05 | 2021-12-28 | 北京字节跳动网络技术有限公司 | 车门动作检测方法、装置和计算机可读存储介质 |
CN110687905A (zh) * | 2019-09-11 | 2020-01-14 | 珠海市众创芯慧科技有限公司 | 一种基于多传感技术融合一体的无人驾驶智能车 |
CN111652903B (zh) * | 2020-05-22 | 2023-09-08 | 重庆理工大学 | 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法 |
CN112036446B (zh) * | 2020-08-06 | 2023-12-12 | 汇纳科技股份有限公司 | 目标识别特征融合的方法、系统、介质及装置 |
CN113256685B (zh) * | 2021-06-25 | 2021-09-24 | 南昌工程学院 | 基于卷积神经网络字典对学习的目标跟踪方法与系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104244113A (zh) * | 2014-10-08 | 2014-12-24 | 中国科学院自动化研究所 | 一种基于深度学习技术的视频摘要生成方法 |
CN104933417A (zh) * | 2015-06-26 | 2015-09-23 | 苏州大学 | 一种基于稀疏时空特征的行为识别方法 |
-
2016
- 2016-05-30 CN CN201610371378.1A patent/CN106056628B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104244113A (zh) * | 2014-10-08 | 2014-12-24 | 中国科学院自动化研究所 | 一种基于深度学习技术的视频摘要生成方法 |
CN104933417A (zh) * | 2015-06-26 | 2015-09-23 | 苏州大学 | 一种基于稀疏时空特征的行为识别方法 |
Non-Patent Citations (2)
Title |
---|
A Parameter-free Hedging Algorithm;Kamalika Chaudhuri et al.;《Advances in Neural Information Processing Systems》;20091231;第1-9页 * |
基于卷积神经网络的目标跟踪算法研究与实现;张子夫;《中国优秀硕士学位论文全文数据库-信息科技辑》;20150815;第三-四章 * |
Also Published As
Publication number | Publication date |
---|---|
CN106056628A (zh) | 2016-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106056628B (zh) | 基于深度卷积神经网络特征融合的目标跟踪方法及系统 | |
Liao et al. | Textboxes: A fast text detector with a single deep neural network | |
Wang et al. | Actionness estimation using hybrid fully convolutional networks | |
CN108537147B (zh) | 一种基于深度学习的手势识别方法 | |
CN110414462A (zh) | 一种无监督的跨域行人重识别方法及系统 | |
CN103226835B (zh) | 基于在线初始化梯度增强回归树的目标跟踪方法及系统 | |
CN111160533A (zh) | 一种基于跨分辨率知识蒸馏的神经网络加速方法 | |
CN108509833B (zh) | 一种基于结构化分析字典的人脸识别方法、装置及设备 | |
CN109241995B (zh) | 一种基于改进型ArcFace损失函数的图像识别方法 | |
CN109902662B (zh) | 一种行人重识别方法、系统、装置和存储介质 | |
CN104463250A (zh) | 一种基于达芬奇技术的手语识别翻译方法 | |
CN107862680B (zh) | 一种基于相关滤波器的目标跟踪优化方法 | |
CN111080675A (zh) | 一种基于时空约束相关滤波的目标跟踪方法 | |
CN107909053B (zh) | 一种基于等级学习级联卷积神经网络的人脸检测方法 | |
CN106203483A (zh) | 一种基于语义相关多模态映射方法的零样本图像分类方法 | |
CN108960258A (zh) | 一种基于自学习深度特征的模板匹配方法 | |
CN110472652A (zh) | 基于语义引导的少量样本分类方法 | |
CN105096345B (zh) | 一种基于动态测量矩阵的目标跟踪方法及系统 | |
CN108446613A (zh) | 一种基于距离中心化与投影向量学习的行人重识别方法 | |
CN103489000A (zh) | 一种人体动作识别训练系统的实现方法 | |
CN115690549A (zh) | 一种基于并联交互架构模型实现多维度特征融合的目标检测方法 | |
CN109902589A (zh) | 一种基于雷达一维距离像的目标识别方法及系统 | |
Sun et al. | Learning spatio-temporal co-occurrence correlograms for efficient human action classification | |
CN103778439A (zh) | 基于动态时空信息挖掘的人体轮廓重构方法 | |
CN107291813B (zh) | 基于语义分割场景的示例搜索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |