CN110349190A - 自适应学习的目标跟踪方法、装置、设备及可读存储介质 - Google Patents

自适应学习的目标跟踪方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN110349190A
CN110349190A CN201910497605.9A CN201910497605A CN110349190A CN 110349190 A CN110349190 A CN 110349190A CN 201910497605 A CN201910497605 A CN 201910497605A CN 110349190 A CN110349190 A CN 110349190A
Authority
CN
China
Prior art keywords
target
frame image
current frame
filter
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910497605.9A
Other languages
English (en)
Other versions
CN110349190B (zh
Inventor
阳方平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shiyuan Electronics Thecnology Co Ltd
Original Assignee
Guangzhou Shiyuan Electronics Thecnology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shiyuan Electronics Thecnology Co Ltd filed Critical Guangzhou Shiyuan Electronics Thecnology Co Ltd
Priority to CN201910497605.9A priority Critical patent/CN110349190B/zh
Publication of CN110349190A publication Critical patent/CN110349190A/zh
Application granted granted Critical
Publication of CN110349190B publication Critical patent/CN110349190B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种自适应学习的目标跟踪方法、装置、设备及可读存储介质,方法包括:获取当前帧图像的目标函数;其中,所述目标函数包括时间正则项;所述时间正则项根据当前帧图像的滤波器与上一帧图像的滤波器的差值生成;求解所述目标函数,获得当前帧图像的滤波器;根据当前帧图像的滤波器、相关滤波的响应函数以及下一帧图像的待检测图像,获取目标在下一帧图像的位置;以及根据目标在下一帧图像的位置以及当前帧图像的滤波器更新下一帧图像的目标函数。本发明通过增加时间正则项抑制对当前样本的学习率,并且随着时间的推移,该样本的特征在滤波器学习中会逐渐消失。

Description

自适应学习的目标跟踪方法、装置、设备及可读存储介质
技术领域
本发明涉及目标跟踪领域,具体地涉及一种自适应学习的目标跟踪方法、装置、设备及可读存储介质。
背景技术
目标跟踪是计算机视觉中的一个重要研究方向,有着广泛的应用,如:视频监控,人机交互,无人驾驶等。
目标跟踪方法主要分为两种:基于深度学习的方法,通过预训练的CNN提取特征代替传统的手工特征,或者分别提取目标特征和待检测区域特征进行交叉相关运算;另外一种方法是基于相关滤波的跟踪算法,这些方法使用人工特征(如,边缘梯度、颜色等)训练相关滤波器,在傅里叶域运算极大提高了速度。
深度学习类方法准确率高,但对硬件设备的要求高且造成的功耗大,应用领域受到限制。而基于相关滤波的算法虽然准确率比深度学习类方法低,但其可以在普通CPU上实时运算。
通常而言,基于相关滤波的目标跟踪算法的流程大致为:初始给定一个目标物体在图像中的位置与边框大小,根据这个给定的区域提取出目标物体的特征,训练出一个滤波器,然后对下一帧图像中的样本(样本根据上一帧的目标物体的位置确定)进行检测,从而得出目标物体在下一帧图像中的新位置,不断反复此过程,从而实现目标的跟踪。
在跟踪算法中,滤波器的训练是一个关键的步骤,但由于缺少样本训练,往往导致算法欠拟合。为了解决此问题,CSK提出了密集采样(Dense Sampling),即使用循环移位的方法得到多个样本,从而加强滤波器的训练与学习到丰富的信息(如图1和图2所示)。其中,通过循环移位可以获得如下的循环采样矩阵X:
在获得循环采样矩阵X后,可采用线性回归的方法(而不是相关滤波操作)得出目标函数:
f(xi)=wTxi#(1)
式(1)中的xi为循环采样的一个样本拉成的列向量,即X中每行的转置。
在最小化二乘误差时加入L2正则,即岭回归,得到如下公式(2):
求解得
w=(XHX+λI)-1XHy#(3)
循环采样矩阵X可利用傅里叶变换对角化:
其中^符号代表离散傅里叶变换DFT。将式(4)代入式(3)中求解得到:
又因为CSK/KCF等算法引入了核函数,有:
当使用线性核时,即DCF算法,结合解式(6),响应图计算方式为:
其中ξ为下一帧样本。
循环矩阵的引入后,由于在傅里叶域进行加速运算,拓延图像周期,但图像并不是上下左右对称的,因此会导致边缘处信号跳变。训练出来的滤波器在图像四周边界附近震荡,即边界效应。
DCF类算法中,由于循环矩阵的引入,而产生了边界效应,为了解决此问题,SRDCF算法提出了空间正则化方法。
由岭回归的损失函数,见式(8),可知滤波模板参数的各个点都是固定的抑制系数入来控制。空间正则化通过抑制模板参数的边缘来实现,即正则系数在边缘高,而中心位置较低,二维可视化如图3所示。
其中损失函数表示为:
最终效果如图4所示,图4(a)为标准的DCF类方法,图4(b)为加入空间正则化的方法,可见边缘抑制有非常好的效果。
发明内容
在滤波器的学习中,可能存在一些干扰大的样本,比如遮挡、形变、光照迅速变化等。直观上,对于这些干扰样本,应当降低滤波器的学习率,以减少干扰的影响。
发明人基于SRDCF算法发现,在最小二乘后面加入正则项,可以有效抑制目标变量。据此可以设想,在短时间的遮挡、丢失、光照变化等情况下,也可以在最小二乘项后面加入相应的学习约束从而不让滤波器学习到错误或特例信息。
有鉴于此,本发明的目的在于提供一种自适应学习的目标跟踪方法、装置、设备及可读存储介质,能抑制滤波器学习错误或特例的样本,提高目标跟踪的准确度。本发明实施例提供了一种自适应学习的目标跟踪方法,包括:
获取当前帧图像的目标函数;其中,所述目标函数包括时间正则项;所述时间正则项根据当前帧图像的滤波器与上一帧图像的滤波器的差值生成;
求解所述目标函数,获得当前帧图像的滤波器;
根据当前帧图像的滤波器、相关滤波的响应函数以及下一帧图像的待检测图像,获取目标在下一帧图像的位置;以及
根据目标在下一帧图像的位置以及当前帧图像的滤波器更新下一帧图像的目标函数。
优选地,所述目标函数的表达式为:
其中,*表示循环卷积,d∈{1,2,...,D}表示样本x的特征维数,t表示样本数,表示第t个样本的第d维特征;f表示滤波器,ft-1表示上一帧图像的滤波器,fd表示与第d维特征对应的滤波器通道;y表示期望的高斯响应,ω是空间正则化参数,μ是时间正则项系数;
所述相关滤波的响应函数的表达式为:
优选地,在获取当前帧图像的目标函数之前,还包括:
根据目标在当前帧图像的定位置信度确定所述时间正则项系数;其中,所述时间正则项系数与所述定位置信度呈负相关关系。
优选地,所述根据目标在当前帧图像的定位准确度确定所述时间正则项系数,具体为:
根据目标在当前帧图像的位置以及在上一帧图像的位置获取目标在当前帧的位移速度;
根据所述目标在当前帧的位移速度以及上一帧的位移速度生成定位置信度;
根据所述定位置信度生成所述时间正则项系数、目标在当前帧图像的位移均值以及当前帧的样本。
优选地,所述根据所述定位置信度更新所述时间正则项系数、目标在当前帧图像的位移速度以及当前帧的样本的计算公式为::
adapt_u=(1+θ)-2θ×δ;
μ=factor×adapt_u;
其中,dt为目标在当前帧图像的位移速度,Δrow,Δcol分别为目标在当前帧图像的位置与在上一帧图像的位置的行偏移量以及列偏移量,moving_dt-1为目标在上一帧图像的位移均值,δ为定位置信度,σ为标准差,moving_dt为目标在当前帧图像的位移均值,η为超参数,θ为设定的上下界,且θ大于0,factor为时间正则化因子,mlr为模型学习率,与定位置信度成正比。
优选地,所述求解所述损失函数,训练得到当前帧图像的滤波器具体为:
对所述目标函数,引入约束f=g与更新步长γ,变形得到增广拉格朗日等式:
其中,s是拉格朗日乘子;
引入将所述增广拉格朗日等式重写为:
采用交替方向乘子法把上式分解为以下三个子问题:
对于第一子问题f,重写为傅里叶域,得到:
对每个点分别进行计算,用vj代表第j个点的所有通道组成的D维列向量,得到:
令上式等于0,求得闭合解:
其中,
由于是秩为1的矩阵,使用谢尔曼莫里森公式对进行求逆优化,得到:
对于第二子问题g的解为:
g=(WTW+γI)-1(γf+γh)
其中W为DMN×DMN的对角矩阵,由D个对角矩阵Diag(w)斜连接而成;
对于第三子问题h,更新步长参数:
γ(i+1)=min(γmax,ργ(i));
再根据第一子问题以及第二子问题的解即获得第三子问题的解。
本发明实施例还提供了一种自适应学习的目标跟踪装置,包括:
目标函数获取单元,用于获取当前帧图像的目标函数;其中,所述目标函数包括时间正则项;所述时间正则项根据当前帧图像的滤波器与上一帧图像的滤波器的差值生成;
目标函数求解单元,用于求解所述目标函数,获得当前帧图像的滤波器;
目标位置检测单元,用于根据当前帧图像的滤波器、相关滤波的响应函数以及下一帧图像的待检测图像,获取目标在下一帧图像的位置;以及
目标函数更新单元,用于根据目标在下一帧图像的位置更新下一帧图像的目标函数。
优选地,所述目标函数的表达式为:
其中,*表示循环卷积,d∈{1,2,...,D}表示样本x的特征维数,t表示样本数,表示第t个样本的第d维特征;f表示滤波器,ft-1表示上一帧的滤波器,fd表示与第d维特征对应的滤波器通道;y表示期望的高斯响应,ω是空间正则化参数,μ是时间正则项系数;
所述相关滤波的响应函数的表达式为:
优选地,还包括:
时间正则项系数确定单元,用于根据目标在当前帧图像的定位置信度确定所述时间正则项系数;其中,所述时间正则项系数与所述定位置信度呈负相关关系。
优选地,所述时间正则项系数确定单元具体包括:
位移速度计算模块,用于根据目标在当前帧图像的位置以及在上一帧图像的位置获取目标在当前帧的位移速度;
定位置信度生成模块,用于根据所述目标在当前帧的位移速度以及上一帧的位移速度生成定位置信度;
生成模块,用于根据所述定位置信度生成所述时间正则项系数、目标在当前帧图像的位移均值以及当前帧的样本。
优选地,所述时间正则项系数、目标在当前帧图像的位移速度以及当前帧的样本的计算公式为:
adapt_u=(1+θ)-2θ×δ;
μ=factor×adapt_u;
其中,dt为目标在当前帧图像的位移速度,Δrow,Δcol分别为目标在当前帧图像的位置与在上一帧图像的位置的行偏移量以及列偏移量,moving_dt-1为目标在上一帧图像的位移均值,δ为定位置信度,σ为标准差,moving_dt为目标在当前帧图像的位移均值,η为超参数,θ为设定的上下界,且θ大于0,factor为时间正则化因子,mlr为模型学习率,与定位置信度成正比。
优选地,所述目标函数求解单元具体用于:
对所述目标函数,引入约束f=g与更新步长γ,变形得到增广拉格朗日等式:
其中,s是拉格朗日乘子;
引入将所述增广拉格朗日等式重写为:
采用交替方向乘子法把上式分解为以下三个子问题:
对于第一子问题f,重写为傅里叶域,得到:
对每个点分别进行计算,用vj代表第j个点的所有通道组成的D维列向量,得到:
令上式等于0,可以求得闭合解:
其中,
由于是秩为1的矩阵,使用谢尔曼莫里森公式对进行求逆优化,得到:
对于第二子问题g的解为:
g=(WTW+γI)-1(γf+γh)
其中W为DMN×DMN的对角矩阵,由D个对角矩阵Diag(w)斜连接而成;
对于第三子问题h,更新步长参数:
γ(i+1)=min(γmax,ργ(i));
再根据第一子问题以及第二子问题的解即获得第三子问题的解。
本发明实施例还提供了一种自适应学习的目标跟踪设备,包括处理器、存储器以及存储在所述存储器中且被配置由所述处理执行的计算机程序,所述处理器执行所述计算机程序时实现如上述的自适应学习的目标跟踪方法。
本发明实施例还提供了一种计算机可读存储介质,包括处理器、存储器以及存储在所述存储器中且被配置由所述处理执行的计算机程序,所述处理器执行所述计算机程序时实现如上述的自适应学习的目标跟踪方法。
上述一个实施例中,通过在最小二乘后面加入学习的约束,即加入根据当前帧的滤波器与上一帧的滤波器差值生成的时间正则项,从而达到抑制目标变量的作用。具体来说,与保存图像帧样本的算法模型原理类似,均是根据样本权重来更新滤波器,即它认为特殊的样本(目标物体发生明显变化)是种干扰,在整个样本空间中占的权值较低,并随着时间的推移逐渐淘汰该特殊样本。本实施例加入的时间正则项在缓慢的学习上与此是同理的,如果滤波器的差值较大,则说明前后两帧图像的样本发生了比较明显的变化,则增加的时间正则项也会较大,进而通过该时间正则项抑制对当前样本的学习率,并且随着时间的推移,该样本的特征在滤波器学习中会逐渐消失。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是循环移位的变化示意图。
图2是基于循环移位生成循环采样矩阵的原理图。
图3是空间正则化参数的二维可视化图。
图4(a)是采用标准的DCF类算法获得的空间正则化模板参数的二维可视化图。
图4(b)是采用SRDCF获得的空间正则化模板参数的二维可视化图。
图5是本发明第一实施例提供了一种自适应学习的目标跟踪方法的流程示意图。
图6(a)为原始图片。
图6(b)为对图6(a)进行color names处理后的图片。
图6(c)为通过其他颜色标签对图6(a)处理后的图片。
图7为本发明实施例提供的自适应学习的目标跟踪方法与其他目标跟踪算法的成功率对比图;其中,纵坐标为成功率,横坐标为重叠阈值。
图8为本发明实施例提供的自适应学习的目标跟踪方法与其他目标跟踪算法的精度对比图;其中,纵坐标为精度,横坐标为定位误差阈值。
图9为本发明第二实施例提供的自适应学习的目标跟踪装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图5,本发明第一实施例提供了一种自适应学习的目标跟踪方法,包括:
S101,获取当前帧图像的目标函数;其中,所述目标函数包括时间正则项;所述时间正则项根据当前帧图像的滤波器与上一帧图像的滤波器的差值生成。
在本实施例中,在公式(8)的基础上,引入了当前帧图像的滤波器与上一帧图像的滤波器的差值作为时间正则项,可得到目标函数的表达式为:
其中,*表示循环卷积,d∈{1,2,...,D}表示样本x的特征维数,t表示样本数,表示第t个样本的第d维特征;f表示当前帧图像的滤波器,ft-1表示上一帧图像的滤波器,fd表示与第d维特征对应的滤波器通道;y表示期望的高斯响应,ω是空间正则化参数,μ是时间正则项系数。
在本实施例中,在第一帧图像中,通常用户需先选定一个包括待跟踪的目标的目标框,则在第二帧图像中,将根据第一帧的目标框的位置生成一个尺寸N倍于目标框的候选区域作为待检测的样本x,此后,每后一帧的样本都是根据上一帧检测到的目标位置生成。其中,N选择小的话会导致搜索区域太小而导致目标位移过快时丢失视野,而太大又会造成巨大计算量,因此一般N选择2-4。
在本实施例中,在获得样本x后,需提取样本的特征。由于相关滤波采用了线性回归与最小二乘作为求解函数,是经典的机器学习方法,其原理是训练回归拟合出目标响应值。而对于连续的输入,线性回归难以做到分段函数或多峰凸起的非线性效果,因此需要对连续的输入离散化(即将不同特征分离在不同维度),经典的方式有神经网络中识别任务的one hot编码,如颜色RGB值可以分为七个维度不同颜色的特征向量。根据不同的离散方式,可以提取出不同的特征,特征越容易线性可分则说明这个特征的表达能力越好。反之,某场景中的特征设计得越好,则算法越容易达到更好效果。
在本实施例中,样本x的特征采用了FHOG特征(边缘梯度)以及color names特征(颜色)。
1)HOG特征
HOG(Histogram ofOriented Gradient)特征是方向梯度直方图特征,直观上可从名字知道它是通过计算像素梯度来描述物体的边缘信息,作为物体检测的特征向量。该特征在行人检测中取得了非常好的效果,同时,HOG特征也被广泛应用于其他场景。
HOG特征的具体实现过程如下:
(1)归一化颜色空间。
归一化处理可以一定程度上应对光照变化的问题,这在目标跟踪中起到非常重要的作用。
(2)计算梯度与方向。
根据像素值,角度和梯度值分别如式(10)和式(11):
Gx(x,y)=H(x+1,y)-H(x-1,y)#(10)
Gy(x,y)=H(x,y+1)-H(x,y-1)#(11)
(3)计算每个cell的梯度方向直方图。
将图像划分成若干cell,计算每个细胞单元cell的梯度直方图,如分12个方向即可得到12维的特征向量。
(4)将各个cell的特征向量连接起来,然后进行归一化处理。
2)FHOG特征
FHOG特征于2010年被提出,是基于HOG算法的改进,计算速度快,被广泛应用于目前的跟踪算法中。与HOG的梯度值和方向计算方法一样,选取RGB三通道中梯度最大的一个。其中有两种bin,分别是对比度敏感B1和对比度不敏感B2两种划分方式:
根据上式可求出每个像素对应的bin值B1(B2),然后计算在坐标(x,y)处的特征向量F(x,y)如下所示:
计算出特征图后进行分块,采用线性插值的方式合并相邻的特征向量。接下来是使用归一化方法:
其中δ,γ∈{-1,1},N为归一化因子。通过采用不同因子进行四次归一化处理,将4次得到特征向量连接。一般选取9个对比度敏感方向和18个对比度不敏感方向,所以特征向量4次归一化后连接得到4×(9+18)=107维的向量。FHOG特征提取算法为了追求速度,采用PCA算法把特征向量降到27维。算上四次归一化因子,因此最终的FHOG特征向量为27+4=31维。
3)Color Names特征
Color Names特征是颜色命名,学习从现实世界的图像颜色名称。颜色特征的选择对视觉特征来说是非常严格的,光照、移动、旋转等等因素都会引起像素RGB值得改变,因此需要一种能够很好地描述物体颜色的特征。
Color names可以把颜色值映射为语义上的颜色标签,包括11种基本颜色。因此color names特征是一种联系RGB观察值与颜色语义标签的桥梁。如图6所示,图6(a)为实际图片,图6(b)为color names处理后,图6(c)为其他颜色标签处理。可见,color names把整个车都标了出来,对光照变化有一定的鲁棒性。
Color names特征的计算方式快速简单,只需通过映射矩阵即可得到。映射矩阵时通过谷歌图像搜索来自动学习而成。计算时,直接通过RGB值映射即可得到11维的颜色描述特征向量,每个像素对应的特征向量所有维度数值和为1。
S102,求解所述目标函数,获得当前帧图像的滤波器。
在本实施例中,求解所述目标函数的过程就是获得一个滤波器f,使得
的值最小。
S103,根据当前帧图像的滤波器、相关滤波的响应函数以及下一帧图像的待检测图像,获取目标在下一帧图像的位置。
在本实施例中,具体地,相关滤波的响应函数的表达式为:
其中,x为下一帧图像的样本,f为根据目标函数求解得到的滤波器。
在本实施例中,当检测得到目标在当前帧图像的位置后,以所述目标的位置的中心点为中心,再以N倍目标框的大小从下一帧图像上进行裁剪,即可以获得下一帧图像的样本。
在获得样本后,通过式(18)可以获得相应于所述样本的响应图,响应图上的响应最高的区域就对应目标在下一帧图像的位置。
S104,根据目标在下一帧图像的位置以及当前帧图像的滤波器更新下一帧图像的目标函数。
在本实施例中,在获得目标在下一帧图像的位置后,将所述位置在相应图像上标注出来,然后将下一帧图像的样本以及当前帧图像的滤波器更新到目标函数中,即可以获得下一帧图像的目标函数,依此不断循环,就可以获得目标在每帧图像上的位置,从而实现对目标的跟踪。
综上所述,本实施例提供的自适应学习的目标跟踪方法,通过在最小二乘后面加入学习的约束,即加入根据当前帧的滤波器与上一帧的滤波器差值生成的时间正则项,从而达到抑制目标变量的作用。具体来说,与保存图像帧样本的算法模型原理类似,均是根据样本权重来更新滤波器,即它认为特殊的样本(目标发生明显变化)是种干扰,在整个样本空间中占的权值较低,并随着时间的推移逐渐淘汰该特殊样本。本实施例加入的时间正则项在缓慢的学习上与此是同理的,如果滤波器的差值较大,则说明前后两帧图像的样本发生了比较明显的变化,则增加的时间正则项也会较大,进而通过该时间正则项抑制对当前样本的学习率,并且随着时间的推移,该样本的特征在滤波器学习中会逐渐消失。
在上述实施例的基础上,在本发明的一个优选实施例中,在步骤S101之前,还包括:
根据目标在当前帧图像的定位置信度确定所述时间正则项系数;其中,所述时间正则项系数与所述定位置信度呈负相关关系。
一般而言,对干扰大的样本,比如遮挡、光照等迅速变化时,应当降低滤波器的学习率来降低其对滤波器的影响,具体可以调整正则项系数,或者调整该样本权重等方式。但它们反应在响应图上都是多峰凸起,无法判断是该快速适应的长期目标变化、还是暂时的错误干扰,这时只能折中固定学习率慢慢学习变化。事实上,除了第一帧特征之外,滤波器本身并没有目标物体额外的信息,因此这种迅速变化是来自目标物体的变化还是错误干扰对滤波器来说都是无法辨别的。不像深度神经网络预训练,能够学习到高层的语义信息,对背景、前景、边缘具有选择激活的能力。因此,在没有预训练或者先验知识的情况下,滤波器无法判断新的变化来自目标本身还是错误干扰。但是假如定位错误,那肯定会有错误的变化,学习到错误的干扰信息。因此本实施例不去判断目标物体是否自身发生了变化或者受到了干扰,而是判断定位是否错误。
具体地,在本实施例中,在获得目标在当前帧的位置后,会根据该位置来判断本次定位的定位置信度,并根据定位置信度判断是否发生了定位错误,若判断疑似定位错误,则加大时间正则项系数,以进一步抑制滤波器的学习变化。
具体地,在本实施例中,可通过目标的位移速度来获得定位置信度。其中,目标的位移速度目标在当前帧图像的位置以及在上一帧图像的位置计算得到。
其中,可通过如下方式来计算得到目标的定位置信度、时间正则项系数:时间正则项系数
adapt_u=(1+θ)-2θ×δ#(22);
μ=factor×adapt_u#(23);
其中,dt为目标在当前帧图像的位移速度,Δrow,Δcol分别为目标在当前帧图像的位置与在上一帧图像的位置的行偏移量以及列偏移量,moving_dt-1为目标在上一帧图像的位移均值,δ为定位置信度,σ为标准差,moving_dt为目标在当前帧图像的位移均值,η为超参数,θ为设定的上下界,且θ大于0,factor为时间正则化因子,mlr为模型学习率,与定位置信度成正比。
以下对式(19)-(24)进行详细说明:
由于定位置信度δ满足正态分布,这让δ的特性为在均值附近小幅波动且拥有较高的值(接近1),而远离均值时迅速降低接近0。一般来说,目标的运动轨迹是平滑的,不会瞬间转向或者跳动,即目标的位移速度dt是个稳定平滑的值,即正常情况下,定位置信度δ会接近1。假如疑似定位错误,往往会出现跳动,即dt会发生突变,此时dt远离均值,定位置信度将接近0。
moving_dt表示目标在当前帧图像的位移均值,从式(21)可以看出,定位置信度高时,当前帧图像的位移速度会对位移平均产生影响,而定位置信度低时,当前帧图像的位移速度对位移平均的影响很小,特别的,当定位置信度为0时,位移平均保持为上一帧图像的位移均值。其中η为超参数,为经验参数。
adapt_u为自适应变化区间[1-θ,1+θ],θ为上下界。作用为:根据定位置信度δ自适应地改变时间正则项系数μ,且θ大于Ofactor为时间正则化因子。
mlr为模型学习率,与定位置信度δ成正比。
为样本在傅里叶域的表示。
从式(19)-(22)可以看出,当目标的位移速度发生较大的突变时,此时,定位置信度降低,对应的时间正则项系数增大,同时当前帧的样本的学习率也迅速降低,如此可以很好的抑制滤波器对当前样本的学习率,减小错误样本对滤波器的影响,提高目标跟踪的成功率和精度。本实施例在一定程度上更加有效地解决目标背景以及旋转变化等问题,相较于其他方法鲁棒性以及准确性更好。
目标函数的求解速度是影响到整个目标跟踪的速度的重要因素之一。为此,本实施例采用交替方向乘子法(Alternating Direction Method of Multipliers,ADMM)来解决目标函数求解的优化问题。
具体地,步骤S102为:
对所述目标函数,引入约束f=g与更新步长γ,变形得到增广拉格朗日等式:
其中,s是拉格朗日乘子;
引入将所述增广拉格朗日等式重写为:
采用交替方向乘子法把上式分解为以下三个子问题:
对于第一子问题f,重写为傅里叶域,得到:
对每个点分别进行计算,用vj代表第j个点的所有通道组成的D维列向量,得到:
令上式等于0,可以求得闭合解:
其中,
由于是秩为1的矩阵,使用谢尔曼莫里森公式对进行求逆优化,得到:
此式中仅有向量乘加运算,因此速度非常快。
对于第二子问题g的解为:
g=(WTW+γI)-1(γf+γh)#(31);
其中W为DMN×DMN的对角矩阵,由D个对角矩阵Diag(w)斜连接而成;
对于第三子问题h,更新步长参数:
γ(i+1)=min(γmax,ργ(i))#(32);
再根据第一子问题以及第二子问题的解即获得第三子问题的解。
下面对本实施例的时间复杂度进行分析:
其子问题中复杂度最高的为子问题f的求解,时间复杂度为O(DMN),MN为特征图大小,D为层数(特征维数),和g子问题一样,算上傅里叶变换为O(DMNlog(MN))。所以整体算法复杂度为O(DMNlog(MN)N_I),其中N_I为最大迭代次数。
如图7和图8所示,图7和图8示出了本实施例与其他目标跟踪算法在成功率和精度上的对比图,从图7和图8可以看出,本实施例的自适应学习的目标跟踪方法(图7和图8中的ours对应的曲线)在成功率和精度上都有非常不错的表现。
本实施例采用相关滤波方法并在傅里叶域加速运算,目标函数求解时求逆运算使用了谢尔曼莫里森公式加速,可以大大降低计算时间。
请参阅图9,本发明第二实施例还提供了一种自适应学习的目标跟踪装置,包括:
目标函数获取单元210,用于获取当前帧图像的目标函数;其中,所述目标函数包括时间正则项;所述时间正则项根据当前帧图像的滤波器与上一帧图像的滤波器的差值生成;
目标函数求解单元220,用于求解所述目标函数,获得当前帧图像的滤波器;
目标位置检测单元230,用于根据当前帧图像的滤波器、相关滤波的响应函数以及下一帧图像的待检测图像,获取目标在下一帧图像的位置;以及
目标函数更新单元240,用于根据目标在下一帧图像的位置更新下一帧图像的目标函数。
优选地,所述目标函数的表达式为:
其中,*表示循环卷积,d∈{1,2,...,D}表示样本x的特征维数,t表示样本数,表示第t个样本的第d维特征;f表示滤波器,ft-1表示上一帧的滤波器,fd表示与第d维特征对应的滤波器通道;y表示期望的高斯响应,ω是空间正则化参数,μ是时间正则项系数;
所述相关滤波的响应函数的表达式为:
优选地,还包括:
时间正则项系数确定单元,用于根据目标在当前帧图像的定位置信度确定所述时间正则项系数;其中,所述时间正则项系数与所述定位置信度呈负相关关系。
优选地,所述时间正则项系数确定单元具体包括:
位移速度计算模块,用于根据目标在当前帧图像的位置以及在上一帧图像的位置获取目标在当前帧的位移速度;
定位置信度生成模块,用于根据所述目标在当前帧的位移速度以及上一帧的位移速度生成定位置信度;
生成模块,用于根据所述定位置信度生成所述时间正则项系数、目标在当前帧图像的位移均值以及当前帧的样本。
优选地,所述时间正则项系数、目标在当前帧图像的位移速度以及当前帧的样本的计算公式为:
adapt_u=(1+θ)-2θ×δ;
μ=factor×adapt_u;
其中,dt为目标在当前帧图像的位移速度,Δrow,Δcol分别为目标在当前帧图像的位置与在上一帧图像的位置的行偏移量以及列偏移量,moving_dt-1为目标在上一帧图像的位移均值,δ为定位置信度,σ为标准差,moving_dt为目标在当前帧图像的位移均值,η为超参数,θ为设定的上下界,factor为时间正则化因子,mlr为模型学习率,与定位置信度成正比。
优选地,所述目标函数求解单元具体用于:
对所述目标函数,引入约束f=g与更新步长γ,变形得到增广拉格朗日等式:
其中,s是拉格朗日乘子;
引入将所述增广拉格朗日等式重写为:
采用交替方向乘子法把上式分解为以下三个子问题:
对于第一子问题f,重写为傅里叶域,得到:
对每个点分别进行计算,用vj代表第j个点的所有通道组成的D维列向量,得到:
令上式等于0,可以求得闭合解:
其中,
由于是秩为1的矩阵,使用谢尔曼莫里森公式对进行求逆优化,得到:
对于第二子问题g的解为:
g=(WTW+γI)-1(γf+γh)
其中W为DMN×DMN的对角矩阵,由D个对角矩阵Diag(w)斜连接而成;
对于第三子问题h,更新步长参数:
γ(i+1)=min(γmax,ργ(i));
再根据第一子问题以及第二子问题的解即获得第三子问题的解。
本发明第三实施例提供了一种自适应学习的目标跟踪装置,包括处理器、存储器以及存储在所述存储器中且被配置由所述处理执行的计算机程序,所述处理器执行所述计算机程序时实现如第一实施例所述的自适应学习的目标跟踪方法。
本发明第四实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序。其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行上述第一实施例中所述的一种自适应学习的目标跟踪方法。
示例性地,本发明第三实施例和第四实施例中所述的计算机程序可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述实现一种自适应学习的目标跟踪设备中的执行过程。例如,本发明第二实施例中所述的装置。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述自适应学习的目标跟踪方法的控制中心,利用各种接口和线路连接整个所述实现自适应学习的目标跟踪方法的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现基于物联网的物品追踪方法的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、文字转换功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、文字消息数据等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述实现的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一个计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (14)

1.一种自适应学习的目标跟踪方法,其特征在于,包括:
获取当前帧图像的目标函数;其中,所述目标函数包括时间正则项;所述时间正则项根据当前帧图像的滤波器与上一帧图像的滤波器的差值生成;
求解所述目标函数,获得当前帧图像的滤波器;
根据当前帧图像的滤波器、相关滤波的响应函数以及下一帧图像的待检测图像,获取目标在下一帧图像的位置;以及
根据目标在下一帧图像的位置以及当前帧图像的滤波器更新下一帧图像的目标函数。
2.根据权利要求1所述的自适应学习的目标跟踪方法,其特征在于,所述目标函数的表达式为:
其中,*表示循环卷积,d∈{1,2,...,D}表示样本x的特征维数,t表示样本数,表示第t个样本的第d维特征;f表示滤波器,ft-1表示上一帧图像的滤波器,fd表示与第d维特征对应的滤波器通道;y表示期望的高斯响应,ω是空间正则化参数,μ是时间正则项系数;
所述相关滤波的响应函数的表达式为:
3.根据权利要求2所述的自适应学习的目标跟踪方法,其特征在于,在获取当前帧图像的目标函数之前,还包括:
根据目标在当前帧图像的定位置信度确定所述时间正则项系数;其中,所述时间正则项系数与所述定位置信度呈负相关关系。
4.根据权利要求3所述的自适应学习的目标跟踪方法,其特征在于,所述根据目标在当前帧图像的定位准确度确定所述时间正则项系数,具体为:
根据目标在当前帧图像的位置以及在上一帧图像的位置获取目标在当前帧的位移速度;
根据所述目标在当前帧的位移速度以及上一帧的位移均值生成定位置信度;
根据所述定位置信度生成所述时间正则项系数、目标在当前帧图像的位移均值以及当前帧图像的样本。
5.根据权利要求4所述的自适应学习的目标跟踪方法,其特征在于,所述时间正则项系数、目标在当前帧图像的位移均值以及当前帧图像的样本的计算公式为::
adapt_u=(1+θ)-2θ×δ;
μ=factor×adapt_u;
其中,dt为目标在当前帧图像的位移速度,Δrow,Δcol分别为目标在当前帧图像的位置与在上一帧图像的位置的行偏移量以及列偏移量,moving_dt-1为目标在上一帧图像的位移均值,δ为定位置信度,σ为标准差,moving_dt为目标在当前帧图像的位移均值,η为超参数,θ为设定的上下界,且θ大于0,factor为时间正则化因子,mlr为模型学习率,与定位置信度成正比。
6.根据权利要求1所述的自适应学习的目标跟踪方法,其特征在于,所述求解所述损失函数,训练得到当前帧图像的滤波器具体为:
对所述目标函数,引入约束f=g与更新步长γ,变形得到增广拉格朗日等式:
其中,s是拉格朗日乘子;
引入将所述增广拉格朗日等式重写为:
采用交替方向乘子法把上式分解为以下三个子问题:
对于第一子问题f,重写为傅里叶域,得到:
对每个点分别进行计算,用vj代表第j个点的所有通道组成的D维列向量,得到:
令上式等于0,求得闭合解:
其中,
由于是秩为1的矩阵,使用谢尔曼莫里森公式对进行求逆优化,得到:
对于第二子问题g的解为:
g=(WTW+γI)-1(γf+γh)
其中W为DMN×DMN的对角矩阵,由D个对角矩阵Diag(w)斜连接而成;
对于第三子问题h,更新步长参数:
γ(i+1)=min(γmax,ργ(i));
再根据第一子问题以及第二子问题的解即获得第三子问题的解。
7.一种自适应学习的目标跟踪装置,其特征在于,包括:
目标函数获取单元,用于获取当前帧图像的目标函数;其中,所述目标函数包括时间正则项;所述时间正则项根据当前帧图像的滤波器与上一帧图像的滤波器的差值生成;
目标函数求解单元,用于求解所述目标函数,获得当前帧图像的滤波器;
目标位置检测单元,用于根据当前帧图像的滤波器、相关滤波的响应函数以及下一帧图像的待检测图像,获取目标在下一帧图像的位置;以及
目标函数更新单元,用于根据目标在下一帧图像的位置更新下一帧图像的目标函数。
8.根据权利要求7所述的自适应学习的目标跟踪装置,其特征在于,所述目标函数的表达式为:
其中,*表示循环卷积,d∈{1,2,...,D}表示样本x的特征维数,t表示样本数,表示第t个样本的第d维特征;f表示滤波器,ft-1表示上一帧的滤波器,fd表示与第d维特征对应的滤波器通道;y表示期望的高斯响应,ω是空间正则化参数,μ是时间正则项系数;
所述相关滤波的响应函数的表达式为:
9.根据权利要求8所述的自适应学习的目标跟踪装置,其特征在于,还包括:
时间正则项系数确定单元,用于根据目标在当前帧图像的定位置信度确定所述时间正则项系数;其中,所述时间正则项系数与所述定位置信度呈负相关关系。
10.根据权利要求9所述的自适应学习的目标跟踪方法,其特征在于,所述时间正则项系数确定单元具体包括:
位移速度计算模块,用于根据目标在当前帧图像的位置以及在上一帧图像的位置获取目标在当前帧的位移速度;
定位置信度生成模块,用于根据所述目标在当前帧的位移速度以及上一帧的位移速度生成定位置信度;
生成模块,用于根据所述定位置信度生成所述时间正则项系数、目标在当前帧图像的位移均值以及当前帧的样本。
11.根据权利要求10所述的自适应学习的目标跟踪装置,其特征在于,所述时间正则项系数、目标在当前帧图像的位移速度以及当前帧的样本的计算公式为:
adapt_u=(1+θ)-2θ×δ;
μ=factor×adapt_u;
其中,dt为目标在当前帧图像的位移速度,Δrow,Δcol分别为目标在当前帧图像的位置与在上一帧图像的位置的行偏移量以及列偏移量,moving_dt-1为目标在上一帧图像的位移均值,δ为定位置信度,σ为标准差,moving_dt为目标在当前帧图像的位移均值,η为超参数,θ为设定的上下界,且θ大于0,factor为时间正则化因子,mlr为模型学习率,与定位置信度成正比。
12.根据权利要求7所述的自适应学习的目标跟踪装置,其特征在于,所述目标函数求解单元具体用于:
对所述目标函数,引入约束f=g与更新步长γ,变形得到增广拉格朗日等式:
其中,s是拉格朗日乘子;
引入将所述增广拉格朗日等式重写为:
采用交替方向乘子法把上式分解为以下三个子问题:
对于第一子问题f,重写为傅里叶域,得到:
对每个点分别进行计算,用vj代表第j个点的所有通道组成的D维列向量,得到:
令上式等于0,可以求得闭合解:
其中,
由于是秩为1的矩阵,使用谢尔曼莫里森公式对进行求逆优化,得到:
对于第二子问题g的解为:
g=(WTW+γI)-1(γf+γh)
其中W为DMN×DMN的对角矩阵,由D个对角矩阵Diag(w)斜连接而成;
对于第三子问题h,更新步长参数:
γ(i+1)=min(γmax,ργ(i));
再根据第一子问题以及第二子问题的解即获得第三子问题的解。
13.一种自适应学习的目标跟踪设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置由所述处理执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的自适应学习的目标跟踪方法。
14.一种计算机可读存储介质,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置由所述处理执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的自适应学习的目标跟踪方法。
CN201910497605.9A 2019-06-10 2019-06-10 自适应学习的目标跟踪方法、装置、设备及可读存储介质 Active CN110349190B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910497605.9A CN110349190B (zh) 2019-06-10 2019-06-10 自适应学习的目标跟踪方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910497605.9A CN110349190B (zh) 2019-06-10 2019-06-10 自适应学习的目标跟踪方法、装置、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN110349190A true CN110349190A (zh) 2019-10-18
CN110349190B CN110349190B (zh) 2023-06-06

Family

ID=68181654

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910497605.9A Active CN110349190B (zh) 2019-06-10 2019-06-10 自适应学习的目标跟踪方法、装置、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN110349190B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008305A (zh) * 2019-11-29 2020-04-14 百度在线网络技术(北京)有限公司 一种视觉搜索方法、装置以及电子设备
CN111080675A (zh) * 2019-12-20 2020-04-28 电子科技大学 一种基于时空约束相关滤波的目标跟踪方法
CN111145221A (zh) * 2019-12-31 2020-05-12 北京理工大学重庆创新中心 一种基于多层深度特征提取的目标跟踪算法
CN111160292A (zh) * 2019-12-31 2020-05-15 上海易维视科技有限公司 人眼检测方法
CN112233143A (zh) * 2020-12-14 2021-01-15 浙江大华技术股份有限公司 目标跟踪方法、装置以及计算机可读存储介质
CN112819856A (zh) * 2021-01-22 2021-05-18 同济大学 一种应用于无人机的目标跟踪方法及自定位方法
CN112926356A (zh) * 2019-12-05 2021-06-08 北京沃东天骏信息技术有限公司 一种目标跟踪方法和装置
CN113393493A (zh) * 2021-05-28 2021-09-14 京东数科海益信息科技有限公司 目标对象的跟踪方法及装置
CN116957475A (zh) * 2023-08-09 2023-10-27 南京沃德睿医疗科技有限公司 基于云计算的口腔诊所库房管理方法、系统及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108280808A (zh) * 2017-12-15 2018-07-13 西安电子科技大学 基于结构化输出相关滤波器的目标跟踪方法
CN108986139A (zh) * 2018-06-12 2018-12-11 南京师范大学 一种用于目标跟踪的带有重要性图的特征整合方法
CN108986140A (zh) * 2018-06-26 2018-12-11 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108280808A (zh) * 2017-12-15 2018-07-13 西安电子科技大学 基于结构化输出相关滤波器的目标跟踪方法
CN108986139A (zh) * 2018-06-12 2018-12-11 南京师范大学 一种用于目标跟踪的带有重要性图的特征整合方法
CN108986140A (zh) * 2018-06-26 2018-12-11 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FENG LI,ET AL: "Learning Spatial-Temporal Regularized Correlation Filters for Visual Tracking", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
HONGWEI HU,ET AL: "Manifold Regularized Correlation Object Tracking", 《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11704813B2 (en) 2019-11-29 2023-07-18 Baidu Online Network Technology (Beijing) Co., Ltd. Visual search method, visual search device and electrical device
CN111008305A (zh) * 2019-11-29 2020-04-14 百度在线网络技术(北京)有限公司 一种视觉搜索方法、装置以及电子设备
CN112926356A (zh) * 2019-12-05 2021-06-08 北京沃东天骏信息技术有限公司 一种目标跟踪方法和装置
CN111080675A (zh) * 2019-12-20 2020-04-28 电子科技大学 一种基于时空约束相关滤波的目标跟踪方法
CN111145221A (zh) * 2019-12-31 2020-05-12 北京理工大学重庆创新中心 一种基于多层深度特征提取的目标跟踪算法
CN111160292A (zh) * 2019-12-31 2020-05-15 上海易维视科技有限公司 人眼检测方法
CN111160292B (zh) * 2019-12-31 2023-09-22 上海易维视科技有限公司 人眼检测方法
CN112233143A (zh) * 2020-12-14 2021-01-15 浙江大华技术股份有限公司 目标跟踪方法、装置以及计算机可读存储介质
CN112233143B (zh) * 2020-12-14 2021-05-11 浙江大华技术股份有限公司 目标跟踪方法、装置以及计算机可读存储介质
CN112819856A (zh) * 2021-01-22 2021-05-18 同济大学 一种应用于无人机的目标跟踪方法及自定位方法
CN112819856B (zh) * 2021-01-22 2022-10-25 同济大学 一种应用于无人机的目标跟踪方法及自定位方法
CN113393493A (zh) * 2021-05-28 2021-09-14 京东数科海益信息科技有限公司 目标对象的跟踪方法及装置
CN113393493B (zh) * 2021-05-28 2024-04-05 京东科技信息技术有限公司 目标对象的跟踪方法及装置
CN116957475A (zh) * 2023-08-09 2023-10-27 南京沃德睿医疗科技有限公司 基于云计算的口腔诊所库房管理方法、系统及装置

Also Published As

Publication number Publication date
CN110349190B (zh) 2023-06-06

Similar Documents

Publication Publication Date Title
CN110349190B (zh) 自适应学习的目标跟踪方法、装置、设备及可读存储介质
Henderson et al. End-to-end training of object class detectors for mean average precision
CN109740670B (zh) 视频分类的方法及装置
US9111375B2 (en) Evaluation of three-dimensional scenes using two-dimensional representations
KR102275452B1 (ko) 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치
CN111768432A (zh) 基于孪生深度神经网络的动目标分割方法及系统
CN111860414B (zh) 一种基于多特征融合检测Deepfake视频方法
CN104915972A (zh) 图像处理装置、图像处理方法以及程序
CN110135500A (zh) 一种基于自适应深度特征滤波器的多场景下目标跟踪方法
CN112232355B (zh) 图像分割网络处理、图像分割方法、装置和计算机设备
KR102141646B1 (ko) 비고정 카메라에 의해 촬영되는 영상으로부터 이동체를 검출하는 방법 및 장치
CN111368634A (zh) 基于神经网络的人头检测方法、系统及存储介质
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
CN114170570A (zh) 一种适用于拥挤场景下的行人检测方法及系统
CN115239760B (zh) 一种目标跟踪方法、系统、设备及存储介质
Maddalena et al. Exploiting color and depth for background subtraction
CN110827327B (zh) 一种基于融合的长期目标跟踪方法
CN110827319B (zh) 一种基于局部敏感直方图改进的Staple目标跟踪方法
CN113963236A (zh) 目标检测方法及装置
CN112488985A (zh) 图像质量确定方法、装置及设备
CN110136185A (zh) 一种单目深度估计方法及系统
CN113807407B (zh) 目标检测模型训练方法、模型性能检测方法及装置
Ciamarra et al. Forecasting future instance segmentation with learned optical flow and warping
CN114842006B (zh) 一种数字孪生台区电力线检测方法及其相关装置
CN111104948A (zh) 一种基于双模型的自适应融合的目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant