CN108470355B - 融合卷积网络特征和判别式相关滤波器的目标跟踪方法 - Google Patents

融合卷积网络特征和判别式相关滤波器的目标跟踪方法 Download PDF

Info

Publication number
CN108470355B
CN108470355B CN201810300466.1A CN201810300466A CN108470355B CN 108470355 B CN108470355 B CN 108470355B CN 201810300466 A CN201810300466 A CN 201810300466A CN 108470355 B CN108470355 B CN 108470355B
Authority
CN
China
Prior art keywords
target
tracking
block
background
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810300466.1A
Other languages
English (en)
Other versions
CN108470355A (zh
Inventor
刘宁
刘畅
吴贺丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201810300466.1A priority Critical patent/CN108470355B/zh
Publication of CN108470355A publication Critical patent/CN108470355A/zh
Application granted granted Critical
Publication of CN108470355B publication Critical patent/CN108470355B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本发明公开了一种融合卷积网络特征和判别式相关滤波器的目标跟踪方法。建立了一个端到端的轻量级网络体系结构,通过学习连续帧中丰富的流信息来训练卷积特征,改善特征表示和跟踪精度。将相关滤波跟踪组件构造为网络中的特殊层次跟踪单个图像块,在跟踪过程中,同时跟踪目标块和多个背景块,通过感知目标与周围背景块的结构关系,对目标及其周围环境辨识度高的部分建立模型,通过峰值旁瓣比和置信图峰值关系度量目标跟踪效果,在发生大面积遮挡、目标外形极度形变、光照剧烈变化等跟踪难度大的情况下,自动利用判别的背景部分进行定位。

Description

融合卷积网络特征和判别式相关滤波器的目标跟踪方法
技术领域
本发明涉及一种融合卷积网络特征和判别式相关滤波器的目标跟踪方法。
背景技术
目标跟踪是计算机视觉中的一个基本问题,这个问题的一个常见的流程是指输入一段连续的视频图像,在第一帧中用一个边界框初始化感兴趣的对象,是在后续的帧中估计目标对象的所在位置。视觉跟踪是计算机视觉中的一项重要技术,在安全防护、只能监控、人机交互、自动控制系统等方面有着广泛的应用。
近年来,许多研究人员针对基于判别式相关滤波器(DCF)的视觉目标跟踪进行了大量的研究,取得了长足的进展。随着方法的发展,现有的算法可以很好地解决简单运动环境下的运动跟踪问题。然而,之前使用相关滤波器的工作都采用了HOG等手动设计的特征,或者针对不同任务进行训练的特征。
此外,由于传统的基于相关滤波器的跟踪器不能处理遮挡,并且大多数基于相关滤波器的跟踪器都会固定目标的尺度,使得跟踪器在长期跟踪任务中不可靠。所以最近基于部分的相关滤波方法也变得更受欢迎,他们能够基于目标的多个部分对物体外观进行建模,因此它们具有抵抗部分遮挡的强健性能。但是依旧无法在跟踪目标被严重遮挡,和抵御缓慢遮挡再显现的更复杂的情况,此时需要更鲁棒的跟踪方法来实现精确的跟踪。
综上可知,现有的不论是基于相关滤波还是基于部件的目标跟踪方法在实际使用上存在局限性,所以有必要加以改进。。
发明内容
为解决以上问题,本发明针对基于相关滤波器的目标跟踪,提出了一种具有结构约束的融合卷积网络特征和判别式相关滤波器的目标跟踪方法。该发明将特征卷积神经网络与判别式相关滤波器深度结合,同时跟踪目标和背景区域的多个块,提供带有结构约束的目标跟踪解决方案。由于求导工作在傅立叶频域进行,所以本发明不仅保留了CF高效率的特点,也利用卷积特征改善目标的特征表示方法,弱结构的限制进一步解决了卷积特征在大范围遮挡情况下表现不佳的问题,显著提高了跟踪的准确性和速率。
为解决上述技术问题,本发明所采用的技术方案是:
一种融合卷积网络特征和判别式相关滤波器的目标跟踪方法,包括以下步骤:
步骤A,在离线阶段,使用视频中连续帧中的图像对训练跟踪特征神经网络;
步骤B,初始化跟踪目标块和背景块集合的中心坐标、矩形框宽度和高度等属性;
步骤C,对图像进行surf特征点检测,找出其中最具辨别性的背景块;
步骤D,按顺序将特征点集中与目标块没有交集的surf特征点块加入背景区域块集合中;
步骤E,重复步骤C和步骤D,直到满足背景块数量达到需求;
步骤F,对于目标块训练和背景块集合中的每个背景块训练一个分辨式相关滤波器;
步骤G,构建相对目标中心的运动模型;
步骤H,读取下一帧图像;
步骤I,同时跟踪目标块和背景块,计算他们的跟踪结果置信图;
步骤J,通过分析置信图的特征判断目标图像块和背景图像块是否跟丢;
步骤K,如果目标跟踪失败,则使用背景块集合推测目标位置;
步骤L,如果目标没跟丢,使用跟踪置信图确定目标位置;
步骤M,如果有背景块跟踪失败,则使用辨别性更强的新的背景块替换跟踪失败的块;
步骤N,根据定位到的目标点更新网络;
步骤O,重复执行步骤C至步骤H,直至处理完所有图像序列。
本发明通过将相关滤波器作为神经网络的可微分层,以便误差可以通过相关滤波器传播回卷积神经网络特征学习层,使用反向传播梯度下降法优化底层特征。把多层反馈网络的特征训练过程与辨别式相关滤波器紧密耦合,其效果可与更深层的神经网络相匹敌,在轻量级体系结构中构建密闭的目标跟踪训练和更新过程,从而在高帧率条件下实现最先进的性能。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例
本发明的基本思想是:
建立一个端到端的轻量级网络体系结构,将相关滤波跟踪组件构造为卷积神经网络中可微分的的特殊层次来跟踪目标,通过将网络输出定义为目标位置的概率图来推导反向传播。在跟踪过程中,同时跟踪目标块和多个背景块,通过感知目标与周围背景块的结构关系,对目标及其周围环境辨识度高的部分建立模型,在发生大面积遮挡、目标外形极度形变、光照剧烈变化等跟踪难度大的情况下,自动利用跟踪可信度较高的背景部分结合运动模型来推断目标的位置。
参见图1,本发明提出一种具有结构约束的融合卷积网络特征和判别式相关滤波器的目标跟踪方法,具体步骤如下:
步骤A,在离线阶段,使用视频序列连续帧中的图像对训练神经网络。
具体的,使用视频序列连续帧中丰富的流信息来训练卷积特征神经网络。卷积层由VGG的conv1组成,去除所有池层,强制输出为32个通道。对于每个训练视频,选择最近10帧内的一对图像作为一对训练对象,并且将成对的图像剪裁为125×125大小的包含跟踪对象的块传输给网络。使用权值衰减设置为ξ,学习率为1e-5的随机梯度下降法训练SiameseNetwork。对于每个跟踪块的相关滤波层,固定在线训练时的学习率为β,正则化系数设置为λ,在线训练和离线跟踪时的高斯空间的带宽均设置为θ。
步骤B,初始化跟踪目标块和背景块的目标中心坐标等属性。
在第一帧图像用矩形包围框
Figure GDA0001737735020000041
标识出目标,将初始的目标中心
Figure GDA0001737735020000042
设定为该包围框的中心点
Figure GDA0001737735020000043
目标区域的初始宽度
Figure GDA0001737735020000044
和高度
Figure GDA0001737735020000045
分别设定为包围框的宽
Figure GDA0001737735020000046
和高
Figure GDA0001737735020000047
将N个背景区域块的第零帧中的初始宽度
Figure GDA0001737735020000048
和高度
Figure GDA0001737735020000049
分别设定为宽w和高h,将初始化的背景区域块集合Pb的数量
Figure GDA00017377350200000410
设置为0,将当前处理的surf特征点Nflag序列设置为0。
步骤C,对图像进行surf特征点检测,找出其中最具辨别性的背景块。
具体的,读取要跟踪的视频序列的当前帧t,判断图像是否为彩色的,如果是彩色的,则先将其转换为灰度图。然后对图像进行高斯滤波,构建Hessian矩阵,生成所有的兴趣点,利用非极大值抑制初步确定surf特征点,再滤除掉能量低的不稳定的和错误的兴趣点,最终得到稳定的特征点集ps,其第m个surf点的坐标表示为
Figure GDA0001737735020000051
按照surf特征点的权重由大到小对特征点集进行排序。
判断特征点的与目标中心的关系是否以下两个条件
Figure GDA0001737735020000052
Figure GDA0001737735020000053
若满足,则设置Nflag=Nflag+1;若不满足,则跳过该点,对下一个点进行判断,直到找到满足该条件的surf特征点。
步骤D,将特征点集ps中第Nflag个特征点加入背景区域块集合Pb
具体的,创建跟踪块,将其坐标设定为
Figure GDA0001737735020000054
设置其初始宽度
Figure GDA0001737735020000055
和高度
Figure GDA0001737735020000056
分别设定为宽
Figure GDA0001737735020000057
和高
Figure GDA0001737735020000058
将其开始跟踪帧数
Figure GDA0001737735020000059
设定为t。然后把这个跟踪块加入背景区域块集合Pb中,并且更新集合的大小
Figure GDA00017377350200000510
Figure GDA00017377350200000511
步骤E,重复步骤C和步骤D,直到满足
Figure GDA00017377350200000512
步骤F,对于目标块训练和背景块集合中的每个背景块训练一个分辨式相关滤波器。
对于以
Figure GDA00017377350200000513
为中心,宽度和高度分别为
Figure GDA00017377350200000514
Figure GDA00017377350200000515
的目标区域;和背景区域集合Pb中的N个以
Figure GDA00017377350200000516
为中心,宽度和高度分别为
Figure GDA00017377350200000517
Figure GDA00017377350200000518
的背景块,分别训练一个相关滤波跟踪器。每个输入的训练块可以表示为
Figure GDA00017377350200000519
设定理想的输出y(t,n)∈iM×N为一个以目标块的中心为最高峰值的高斯模型。跟踪器在第c个通道的目标模型可表达为
Figure GDA0001737735020000061
其中λ≥0是正则化系数,x*表示x的复共轭,F(y)表示y的傅里叶变换,F-1(y)表示y的反傅里叶变换。使用岭回归方法最小化平方和误差得到第n个滤波器在第t帧的参数为
Figure GDA0001737735020000062
步骤G,构建相对目标中心的运动模型。
具体的,对于在第t帧的每个背景区域块,设定它的运动状态为
Figure GDA0001737735020000063
其中δ表示该点相对目标中心的位移向量;v为该点运动速度。目标特征点的运动状态使用
Figure GDA0001737735020000064
进行预测。其中 β t ~N(0, β0 ) 是均值为 0的高斯噪声。背景特征的运动状态通
Figure GDA0001737735020000065
进行预测,其中
Figure GDA0001737735020000066
βt~(0,βo)。
步骤H,读取下一帧图像。
步骤I,同时跟踪目标和背景,得到跟踪结果执行图。
具体的,在跟踪阶段,对于随后的每一帧,在预测区域内进行区域内采样得到新一帧的特征
Figure GDA0001737735020000067
然后使用分类滤波器对这些候选框计算执行图
Figure GDA0001737735020000068
查找最大响应值即为跟踪块在这一帧的位置。
步骤J,通过分析目标块和背景块的置信图,判断是否跟踪成功。
具体的,计算目标块跟踪结果的峰值旁瓣比
Figure GDA0001737735020000069
其中
Figure GDA00017377350200000610
Figure GDA0001737735020000071
分别是目标块跟踪置信图的平均值和方差。如果
Figure GDA0001737735020000072
则认为目标块有跟丢的风险,再计算第二大峰值的最大值,判断
Figure GDA0001737735020000073
如果结果为真,则说明本次跟踪有多于一个可能是目标的位置,且最可能的位置可信度也可也较差。在这种情况下,认定极可能发生遮挡、形变等问题,导致目标跟踪失败。
步骤K,如果目标跟踪失败,则使用背景块集合推测目标位置。
具体的,计算目标块跟踪结果的峰值旁瓣比
Figure GDA0001737735020000074
其中
Figure GDA0001737735020000075
Figure GDA0001737735020000076
分别是第n个背景块在第t帧中跟踪置信图的平均值和方差。如果
Figure GDA0001737735020000077
则认为目标块有跟丢的风险,再计算第二大峰值的最大值,判断
Figure GDA0001737735020000078
如果结果为真,则认为该背景块跟踪失败,对其权重
Figure GDA0001737735020000079
赋值为0。对于跟踪成功的背景块,根据其可信度,综合判断目标块位置。计算背景块集合中第n个背景块在第t帧中的权重
Figure GDA00017377350200000710
则目标的位置为
Figure GDA00017377350200000711
步骤L,如果目标没跟丢,利用跟踪置信图确定目标位置。
具体的,如果目标没有跟踪失败,则置信度最高的位置为目标中心点
步骤M,如果有背景块跟踪失败,则使用辨别性更强的新的背景块替换跟踪失败的块
具体的,如果步骤K中有m个跟踪失败的背景块,则按照步骤C的方式,对本帧图像进行surf特征点检测,找出其中最具辨别性的m个背景块,再按照步骤D的方式,将这些特征点初始化,并加入背景区域块集合Pb中替换跟踪失败的点。
步骤N,根据定位到的目标块和背景块中心位置更新网络。
具体的,对于目标块和每个在步骤M中未被更新的背景块,提取本帧图像中的卷积神经特征,通过计算实际图像特征和预计图像特征的差值计算目标函数,使用梯度下降法分别更新他们的网络模型,对目标损失函数求导
Figure GDA0001737735020000081
得到检测部分的反向传播。
步骤O,重复执行步骤C至步骤H,直至处理完所有图像序列。
本发明旨在提出一种具有结构约束的融合卷积网络特征和判别式相关滤波器的目标跟踪方法,其特点和优点为:
通过将相关滤波器作为神经网络的可微分层,以便误差可以通过相关滤波器传播回卷积神经网络特征学习层,使用反向传播梯度下降法优化底层特征。把多层反馈网络的特征训练过程与辨别式相关滤波器紧密耦合,其效果可与更深层的神经网络相匹敌,在轻量级体系结构中构建密闭的目标跟踪训练和更新过程,从而在高帧率条件下实现最先进的性能。
卷积特征仅从一个方面或一个层面表征了目标对象,具有较丰富的语义信息,但位置空间信息却不够精确,而对于跟踪来讲,这些信息在发生大面积遮挡、严重形变等困难情况下至关重要。本发明提出了一种带有位置信息约束的跟踪模型,在通过卷积特征跟踪可信度较差时,自动地调用具有辨别性的背景区域协助目标跟踪,与卷积特征良好的外形描述特征优势互补,显著提高了目标的跟踪准确性。
为了衡量相关滤波跟踪器对目标的跟踪效果,通过分析置信图提出了一种更全面的衡量方式。不同于之前的工作,仅仅考虑置信图的最大置信度和峰值旁瓣比,还将第二峰值的属性纳入考量范围,对于发生形变、遮挡等情况导致目标正确位置的置信度较低的情况提供了更具有鲁棒性的判断条件。
以下对本发明方法进行实验,在离线阶段,卷积层由VGG的conv1组成,去除所有池层,强制输出为32个通道。对于每个训练视频,选择最近 10帧内的一对图像作为一对训练对象,并且将成对的图像剪裁为125×125 大小的包含跟踪对象的块传输给网络。使用权值衰减为0.003,学习率为1e-5 的随机梯度下降法训练Siamese Network。对于每个跟踪块的相关滤波层,固定在线训练时的学习率β为0.8,正则化系数λ设置为1e-4,在线训练和离线跟踪时的高斯空间的带宽θ均设置为为0.1。在线跟踪阶段则首先选择要实验的视频跟踪数据库,并从第一张图像中框选出带跟踪的目标范围,可以用中心坐标和物体长度宽度来确定目标位置,称之为“感兴趣范围”。实验中使用的参数固定,在局部一致性运动赋值中,参数τ和δ分别为0.8和0.35。本方法最多维护5个背景块,这个数量足够对目标模型的表示,同时能够控制计算量。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种融合卷积网络特征和判别式相关滤波器的目标跟踪方法,其特征在于包括以下步骤:
步骤A,在离线阶段,使用视频中连续帧中的图像对训练跟踪特征神经网络;具体的,使用视频序列连续帧中丰富的流信息来训练卷积特征神经网络,卷积层由VGG的conv1组成,去除所有池层,强制输出为32个通道,对于每个训练视频,选择最近10帧内的一对图像作为一对训练对象,并且将成对的图像剪裁为125×125大小的包含跟踪对象的块传输给网络;使用权值衰减设置为ξ,学习率为1e-5的随机梯度下降法训练Siamese Network,对于每个跟踪块的相关滤波层,固定在线训练时的学习率为β,正则化系数设置为λ,在线训练和离线跟踪时的高斯空间的带宽均设置为θ;
步骤B,初始化跟踪目标块和背景块集合的中心坐标、矩形框宽度和高度属性;
步骤C,对图像进行surf特征点检测,找出其中最具辨别性的背景块;
步骤D,按顺序将特征点集中与目标块没有交集的surf特征点块加入背景区域块集合中;
步骤E,重复步骤C和步骤D,直到满足背景块数量达到需求;
步骤F,对于目标块训练和背景块集合中的每个背景块训练一个分辨式相关滤波器;
步骤G,构建相对目标中心的运动模型;具体的,对于在第t帧的每个背景区域块,设定它的运动状态为
Figure FDA0003691073850000011
其中δ表示该点相对目标中心的位移向量;v为该点运动速度,目标特征点的运动状态使用
Figure FDA0003691073850000021
进行预测,其中β t ~ N(0, β 0 ) 是均值为0的高斯噪声,背景特征的运动状态通
Figure FDA0003691073850000022
进行预测,其中
Figure FDA0003691073850000023
βt~(0,β0);
步骤H,读取下一帧图像;
步骤I,同时跟踪目标块和背景块,计算他们的跟踪结果置信图;
步骤J,通过分析置信图的特征判断目标图像块和背景图像块是否跟丢;
步骤K,如果目标跟踪失败,则使用背景块集合推测目标位置;
步骤L,如果目标没跟丢,使用跟踪置信图确定目标位置;
步骤M,如果有背景块跟踪失败,则使用辨别性更强的新的背景块替换跟踪失败的块;
步骤N,根据定位到的目标点更新网络;
步骤O,重复执行步骤C至步骤H,直至处理完所有图像序列。
2.根据权利要求1所述的融合卷积网络特征和判别式相关滤波器的目标跟踪方法,其特征在于:步骤F所述的相关滤波器是一个端到端的轻量级卷积神经网络的特殊层次,将相关滤波器与浅层的特征神经网络相结合,通过反向传播更新网络结构的参数。
3.根据权利要求1所述的融合卷积网络特征和判别式相关滤波器的目标跟踪方法,其特征在于:步骤G所述的运动模型是一种利用空间结构关系构建背景图像块与目标图像块的相对运动关系的模型,对于背景特征块,由于在目标跟踪的过程中,背景与目标之间存在着相对运动,假设目标与其周围背景的相对运动是线性运动。
4.根据权利要求1所述的融合卷积网络特征和判别式相关滤波器的目标跟踪方法,其特征在于:步骤J所述的分析置信图特征指通过分析置信图峰值旁瓣比判断目标此次跟踪的可信度,若可信度较低则认为有跟踪失败的风险,在此基础上,再分析置信图的极大顶点和次大顶点的关系,若两个点的峰值接近,则认为本帧图像中有多余一个疑似目标的区域,认定跟踪失败。
5.根据权利要求1所述的融合卷积网络特征和判别式相关滤波器的目标跟踪方法,其特征在于:步骤K所述的使用背景块集合推测目标位置具体指通过分析各个背景块的置信图,判断每个背景块此次跟踪的可靠性,对于可靠性较高的背景块,在结果推测中赋予更高的权值,对目标位置预测提供更大的贡献,然后结合背景块的运动模型和与目标块的相对关系,综合推测目标在此幅图像中的位置。
CN201810300466.1A 2018-04-04 2018-04-04 融合卷积网络特征和判别式相关滤波器的目标跟踪方法 Active CN108470355B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810300466.1A CN108470355B (zh) 2018-04-04 2018-04-04 融合卷积网络特征和判别式相关滤波器的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810300466.1A CN108470355B (zh) 2018-04-04 2018-04-04 融合卷积网络特征和判别式相关滤波器的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108470355A CN108470355A (zh) 2018-08-31
CN108470355B true CN108470355B (zh) 2022-08-09

Family

ID=63262550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810300466.1A Active CN108470355B (zh) 2018-04-04 2018-04-04 融合卷积网络特征和判别式相关滤波器的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108470355B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109493370B (zh) * 2018-10-12 2021-07-02 西南交通大学 一种基于空间偏移学习的目标跟踪方法
CN109461172A (zh) * 2018-10-25 2019-03-12 南京理工大学 人工与深度特征联合的相关滤波视频自适应跟踪方法
CN109615640B (zh) * 2018-11-19 2021-04-30 北京陌上花科技有限公司 相关滤波目标跟踪方法及装置
CN109741364B (zh) * 2018-11-19 2021-09-07 北京陌上花科技有限公司 目标跟踪方法及装置
CN109741366B (zh) * 2018-11-27 2022-10-18 昆明理工大学 一种融合多层卷积特征的相关滤波目标跟踪方法
CN110458127B (zh) * 2019-03-01 2021-02-26 腾讯医疗健康(深圳)有限公司 图像处理方法、装置、设备以及系统
CN110111351B (zh) * 2019-05-10 2022-03-25 电子科技大学 融合rgbd多模态信息的行人轮廓跟踪方法
CN111640138B (zh) * 2020-05-28 2023-10-27 济南博观智能科技有限公司 一种目标跟踪方法、装置、设备及存储介质
CN113763416A (zh) * 2020-06-02 2021-12-07 璞洛泰珂(上海)智能科技有限公司 基于目标检测的自动贴标与跟踪方法、装置、设备和介质
CN112336381B (zh) * 2020-11-07 2022-04-22 吉林大学 一种基于深度学习的超声心动图收缩/舒张末期帧自动识别方法
CN114612470B (zh) * 2022-05-10 2022-08-02 浙江浙能航天氢能技术有限公司 一种基于改进图像自适应yolo的氢敏胶带变色检测方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070291984A1 (en) * 2006-06-15 2007-12-20 Omron Corporation Robust object tracking system
US8934665B2 (en) * 2007-02-07 2015-01-13 Samsung Electronics Co., Ltd. Method and apparatus for tracking object, and method and apparatus for calculating object pose information
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN106056628A (zh) * 2016-05-30 2016-10-26 中国科学院计算技术研究所 基于深度卷积神经网络特征融合的目标跟踪方法及系统
CN106897731A (zh) * 2016-12-30 2017-06-27 西安天和防务技术股份有限公司 用于国土资源监控的目标跟踪系统
CN107067410A (zh) * 2016-05-27 2017-08-18 北京理工大学 一种基于增广样本的流形正则化相关滤波目标跟踪方法
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN107403175A (zh) * 2017-09-21 2017-11-28 昆明理工大学 一种运动背景下的视觉跟踪方法及视觉跟踪系统
CN107644217A (zh) * 2017-09-29 2018-01-30 中国科学技术大学 基于卷积神经网络和相关滤波器的目标跟踪方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070291984A1 (en) * 2006-06-15 2007-12-20 Omron Corporation Robust object tracking system
US8934665B2 (en) * 2007-02-07 2015-01-13 Samsung Electronics Co., Ltd. Method and apparatus for tracking object, and method and apparatus for calculating object pose information
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN107067410A (zh) * 2016-05-27 2017-08-18 北京理工大学 一种基于增广样本的流形正则化相关滤波目标跟踪方法
CN106056628A (zh) * 2016-05-30 2016-10-26 中国科学院计算技术研究所 基于深度卷积神经网络特征融合的目标跟踪方法及系统
CN106897731A (zh) * 2016-12-30 2017-06-27 西安天和防务技术股份有限公司 用于国土资源监控的目标跟踪系统
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN107403175A (zh) * 2017-09-21 2017-11-28 昆明理工大学 一种运动背景下的视觉跟踪方法及视觉跟踪系统
CN107644217A (zh) * 2017-09-29 2018-01-30 中国科学技术大学 基于卷积神经网络和相关滤波器的目标跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"End-to-end representation learning for Correlation Filter based tracking";Jack Valmadre et al.;《arXiv》;20170420;第1-15页 *
"Multi-Cue Adaptive Correlation Filters for Visual Tracking";Chang Liu et al.;《2016 6th International Conference on Digital Home》;20161231;第89-94页 *
"Real-time scale-adaptive correlation filters tracker with depth information to handle occlusion";Jiatian Pi et al.;《Journal of Electronic Imaging》;20160808;第043022-1-043022-11页 *
"基于相关滤波器的视觉目标跟踪综述";魏全禄 等;《计算机科学》;20161130;第43卷(第11期);第1-5、18页 *
"多尺度时空上下文目标跟踪";李泽仁 等;《红外技术》;20170630;第39卷(第6期);第535-540页 *

Also Published As

Publication number Publication date
CN108470355A (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
CN108470355B (zh) 融合卷积网络特征和判别式相关滤波器的目标跟踪方法
EP3814865B1 (en) Self-aware visual-textual co-grounded navigation agent
US6999599B2 (en) System and method for mode-based multi-hypothesis tracking using parametric contours
US20030108220A1 (en) Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
CN107689052B (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN103955688B (zh) 一种基于计算机视觉的斑马鱼群检测与跟踪方法
CN112634333B (zh) 一种基于eco算法和卡尔曼滤波的跟踪装置方法及装置
CN111862145A (zh) 一种基于多尺度行人检测的目标跟踪方法
CN112785624A (zh) 基于孪生网络的rgb-d特征目标跟踪方法
CN106780567B (zh) 一种融合颜色和梯度直方图的免疫粒子滤波扩展目标跟踪方法
CN114627156A (zh) 消费级无人机视频运动目标精准追踪方法
Isaacson et al. Loner: Lidar only neural representations for real-time slam
JP4836065B2 (ja) エッジトラッキング方法及びそのコンピュータプログラム
CN111462180B (zh) 基于与或图aog的目标跟踪方法
CN112883928A (zh) 一种基于深度神经网络的多目标追踪算法
CN117173607A (zh) 多层级融合多目标跟踪方法、系统及计算机可读存储介质
CN116977367A (zh) 基于Transformer与卡尔曼滤波的校园多目标跟踪方法
CN113920170B (zh) 结合场景上下文和行人社会关系的行人轨迹预测方法、系统及存储介质
CN116958057A (zh) 一种策略引导的视觉回环检测的方法
Arnaud et al. Partial linear gaussian models for tracking in image sequences using sequential monte carlo methods
CN110428447B (zh) 一种基于策略梯度的目标跟踪方法与系统
CN115482252A (zh) 基于运动约束的slam闭环检测和位姿图优化方法
CN112184767A (zh) 对运动物体进行轨迹跟踪的方法、装置、设备及存储介质
CN112150509B (zh) 基于多层深度特征的分块跟踪方法
CN1965332A (zh) 利用鲁棒信息融合来基于多模组成部分地跟踪对象的方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant