CN110503661A - 一种基于深度强化学习和时空上下文的目标图像追踪方法 - Google Patents

一种基于深度强化学习和时空上下文的目标图像追踪方法 Download PDF

Info

Publication number
CN110503661A
CN110503661A CN201810469999.2A CN201810469999A CN110503661A CN 110503661 A CN110503661 A CN 110503661A CN 201810469999 A CN201810469999 A CN 201810469999A CN 110503661 A CN110503661 A CN 110503661A
Authority
CN
China
Prior art keywords
target
model
space
neural network
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810469999.2A
Other languages
English (en)
Inventor
熊乃学
邬春学
刘开俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Zhiyun Xingda Information Technology Co Ltd
Original Assignee
Wuhan Zhiyun Xingda Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Zhiyun Xingda Information Technology Co Ltd filed Critical Wuhan Zhiyun Xingda Information Technology Co Ltd
Priority to CN201810469999.2A priority Critical patent/CN110503661A/zh
Publication of CN110503661A publication Critical patent/CN110503661A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度强化学习和时空上下文的目标图像追踪方法,包括以下步骤:1)在每个时间步t,使用特征提取网络从输入序列中获取图像xt,作为视觉特征;将视觉特征通过STC和递归神经网络,然后分别从STC和递归神经网络中提取时空特征ct和隐层状态ht,其中时空特征ct将被为参考标准;2)建立模型;3)模型训练;4)根据模型的预测位置,进行目标追踪。本发明提出的方法和模型在跟踪过程中具有较高的成功率和精度得分,也反映了本发明提出的基于强化学习和时空上下文的DRST模型能够实现对目标对象的长期跟踪,避免跟踪过程出现跟踪漂移。

Description

一种基于深度强化学习和时空上下文的目标图像追踪方法
技术领域
本发明涉及图像处理,尤其涉及一种基于深度强化学习和时空上下文的目标图像追踪方法。
背景技术
不同于深度学习在目标检测和目标识别等视觉领域的成功应用,深度学习在目标跟踪领域困难重重,其主要问题在于训练数据的缺失:深度学习模型能够对大量标注训练数据的有效学习,但目标跟踪仅仅提供第一帧的bounding-box作为训练数据,因此在跟踪开始针对当前目标从头训练一个深度模型困难重重。本发明针对目标跟踪任务中出现的跟踪漂移及跟踪速度缓慢等问题,提出了一种基于深度强化学习(Reinforcement Learning)和时空上下文STC(Spatio-Temporal Context)学习进行目标跟踪的模型(DRST)。该模型在每一个连续的视频帧中,都能够直接预测被跟踪目标的边框位置。本发明介绍的基于深度强化学习的目标追踪基于端到端的方式处理,跟踪任务可以被处理为与未来决策信息高度相关的顺序决策过程和历史语义编码信息。在模型的训练阶段利用强化学习来最大化跟踪性能,能够长期地利用连续的帧间相关性。本发明的模型使用时空上下文算法来实现有效的跟踪性能。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于深度强化学习和时空上下文的目标图像追踪方法。
本发明解决其技术问题所采用的技术方案是:一种基于深度强化学习和时空上下文的目标图像追踪方法,包括以下步骤:
1)在每个时间步t,使用特征提取网络从输入序列中获取图像xt,作为视觉特征;将视觉特征通过STC和递归神经网络,然后分别从STC和递归神经网络中提取时空特征ct和隐层状态ht,其中时空特征ct将被为参考标准(ground--truth);
2)建立模型;
2.1)根据图像xt,获取每一帧的图像信息和对应的位置向量st
2.2)在每个时间步长,将视觉特征向量和位置向量组合为向量Ot
2.3)在每个时间步t,使用wr参数化的递归神经网络fr从特征提取网络提取的特征向量和来自递归神经网络先前的隐藏状态ht-1被输入当前状态的递归神经网络中,并更新新的隐藏状态ht
ht=fr(ht-1,ot;Wr) (1)
其中,fr是递归神经网络的转换函数;
2.4)计算置信图峰值位置来确定下一帧目标:
其中,x∈R2表示目标对象的中心位置,o是当前目标位置,x是跟踪目标的中心位置,b是标准化常数,a是比例参数;
置信图可以分解如下:
其中,Xc={c(z)=(I(z),z)∈Qc(x*)}表示上下文特征集,上下文特征c(z)=(I(z),z)由图像灰度I(z)信息和z位置处的位置信息共同描述,Qc(x*)表示目标x*的局部区域;
其中,式(5)中
P(x|c(z),o)=hsc(x-z) (6)
其中,hsc(x-z)建模目标位置x和局部上下文区域位置c之间的相对距离以及方向关系,从而编码被跟踪目标和其空间上下文的空间关系;
其中,式(5)中
P(c(z)|o)=I(z)ωσ(z-x*) (7)
其中,I(z)表示局部区域范围内目标位置z处的灰度值,用来描述上下文的外观信息;ω是一个加权函数,具体表示为:
其中,表示权重函数,σ为尺度参数,α是归一化参数,能够使函数的概率值维持在[0,1]之间;一般情况下,局部区域范围内的目标位置z距离目标x*越近,则表示该目标位置z在跟踪过程中越重要,所以会给予位置z相对较大的权重。
2.5)被跟踪目标的置信图描述为:
其中,β为参数,在已知被跟踪目标位置x的前提下,利用置信图公式计算局部上下文区域任意一点x的似然概率;
2.6)计算学习空间上下文模型:
2.7)通过前面几个步骤的计算得到第t帧时的空间上下文模型hsc(x),并且在此基础上用来更新时t+1帧的时空上下文模型,具体实现公式如15所示:
在t+1帧时,局部区域Qc(x*)是基于第t帧的目标位置剪裁得到的;构建的特征集具体表示为Xc={c(z)=(I(z),z)∈Qc(x*)};通过公式16来计算第t+1帧置信图的最大似然概率位置,获得下一帧目标的新位置:
ct+1(x)
可以被表示为:
3)模型训练;
对步骤2)得到的模型进行训练;
若为初期训练阶段,即Epoch≤threshold,使用如下奖励函数进行训练:
rt=-ρmax(|lt-ct|)-(1-ρ)avg(|lt-ct|)
其中,ct表示由STC模型输出的目标对象的预测位置,lt表示递归神经网络的输出结果,运算符avg(·)和max(·)分别表示像素的平均值和最大值。
否则,为后期训练阶段,使用如下奖励函数进行训练:
其中,式中奖励的计算可以被描述为1t和ct的交叉区域除以1t和ct之间的联合区域。
4)根据模型的预测位置,进行目标追踪。
本发明产生的有益效果是:
发明提出的方法在跟踪过程中具有较高的成功率和精度得分,也反映了本发明提出的基于强化学习和时空上下文的DRST模型能够实现对目标对象的长期跟踪,避免跟踪过程出现跟踪漂移。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的方法流程图;
图2是本发明实施例的模型框架示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
1)模型框架
如图2所示,在每个时间步t,特征提取网络从输入序列中获取图像xt。视觉特征由特征提取网络生成。为了获得时空特征,首先将视觉特征通过STC和递归神经网络。然后分别从STC和递归神经网络中提取时空特征ct和隐层状态ht,其中时空特征ct将被为ground-truth。特别地,递归神经网络也会接收先前的隐藏状态ht-1作为输入。最后阶段,在每个时间步t直接提取出Recurrent网络隐藏状态的最后四个元素,作为目标对象的预测位置1t。在RL的训练过程中为每个预测结果定义奖励rt以更新网络参数。DRST模型通过最大化累积奖励来实现跟踪性能最大化。
2)DRST模型
在特征提取网络,一般的图像特征从wc参数化的特征提取网络fc(如卷积神经网络CNN)中提取。具体而言,卷神经网络将每一帧的视频信息和对应的位置向量st作为其输入。将视频帧编码成一个长度为4096的特征向量it之后,CNN能够在每个时间步长将特征向量和位置向量组合为向量ot。其中,st的值直接被设置为给定序列中第一帧的归一化的坐标(x,y,w,h)∈[0,1],在其他帧则被设置为0。
如图1所示,在每个时间步t,wr参数化的递归神经网络fr从特征提取网络提取的特征向量和来自递归神经网络先前的隐藏状态ht-1被输入当前状态的递归神经网络中,并更新新的隐藏状态ht
ht=fr(ht-1,ot;Wr) (1)
其中,fr是递归神经网络的转换函数。
在本文提出的跟踪模型中使用时空上下文(简称STC)来训练模型以获得更好的性能,其跟踪结果可以被视为每个视频帧下目标的ground-truth。并在模型训练过程中使用强化学习(Reinforcement Learning,简称RL)修正实际跟踪结果。
跟踪问题可以用概率问题来表示,具体描述如下:
(2)其中x∈R2表示目标对象的中心位置,o是当前目标位置,x*是跟踪目标的中心位置,b是标准化常数,a是比例参数。通过计算置信图峰值位置来确定下一帧目标。
置信图可以分解如下:
其中,Xc={c(z)=(I(z),z)∈Qc(x*)}表示上下文特征集,上下文特征c(z)=(I(z),z)由图像灰度I(z)信息和z位置处的位置信息共同描述,Qc(x*)表示目标x*的局部区域。
2.1)空间上下文模型(Spatial Context Model)
空间上下文模型可以被公式化为一个条件概率函数:
P(x|c(z),o)=hsc(x-z) (6)
其中,hsc(x-z)建模目标位置x和局部上下文区域位置c之间的相对距离以及方向关系,从而编码被跟踪目标和其空间上下文的空间关系。
2.2)上下文先验模型(Context Prior Model)
上下文先验模型用于建模局部上下文信息,可以被公式化为一个先验概率模型,从而计算局部区域内每个点z为目标的概率,如公式7所示:
P(c(z)|o)=I(z)ωσ(z-x*) (7)
其中,I(z)表示局部区域范围内目标位置z处的灰度值,用来描述上下文的外观信息;ω是一个加权函数,具体表示为:
其中,表示权重函数,σ为尺度参数,α是归一化参数,能够使函数的概率值维持在[0,1]之间。一般情况下,局部区域范围内的目标位置z距离目标x*越近,则表示该目标位置z在跟踪过程中越重要,所以会给予位置z相对较大的权重。
2.3)置信图(Confidence Map)
被跟踪目标的置信图可以被描述为:
其中,参数β至关重要,数值的微小变化都会给公式的最终结果造成巨大的影响。在已知被跟踪目标位置x*的前提下,利用置信图公式计算局部上下文区域任意一点x的似然概率。
2.4)快速学习空间上下文模型(Fast Learning Spatial Context Model)
其模型的数学表示如公式10~12所示:
通过步骤2.2)和步骤2.3)分别获得出上下文先验概率模型和关于被跟踪目标位置的置信图之后,就可以计算空间上下文模型。利用傅里叶变换,可以在频率域中,将公式12中时域的卷积等效为频域中的乘积,实现加速计算,具体见公式13:
其中,F表示傅里叶变换操作,⊙表示元素的乘积。
在上述计算结果的基础上,学习空间上下文模型:
2.5)跟踪
通过前面几个步骤的计算,已经可以得到第t帧时的空间上下文模型hsc(x),并且可以在此基础上用来更新时t+1帧的时空上下文模型,具体实现公式如15所示:
在t+1帧时,局部区域Qc(x*)是基于第t帧的目标位置剪裁得到的;构建的特征集具体表示为Xc={c(z)=(I(z),z)∈Qc(x*)};通过公式16来计算第t+1帧置信图的最大似然概率位置,获得下一帧目标的新位置:
ct+1(x)可以被表示为:
3)训练过程
在模型训练阶段模型中,强化学习用来纠正跟踪结果,实现跟踪性能最大化。跟踪性能用奖励函数来表示。本文定义了两种奖励,初期使用的第一个奖励是:
rt=-ρmax(|lt-ct|)-(1-ρ)avg(|lt-ct|) (18)
其中,ct表示由STC模型输出的目标对象的预测位置,lt表示递归神经网络的输出结果,运算符avg(·)和max(·)分别表示像素的平均值和最大值。
第二个奖励函数用于后续训练阶段:
其中公式(19)中奖励的计算可以被描述为1t和ct的交叉区域除以1t和ct之间的联合区域(IOU)。
在DRST的训练过程中,智能体agent的目标是学习一个策略,以实现总体追踪奖励的最大化。该策略的形式是:
π(lt|z1:t;W) (20)
其中W用来实现网络的参数化,z1:t=x1,l1,x2,l2,....,xt-1,lt-1,xt表示动作序列,该动作序列由递归神经网络中的隐层产生,表示智能体与环境交互产生的一系列动作。
策略π(lt|z1:t;W)可以将过去与序列Z1:t的相互作用映射到当前动作的分布。可以将Z1:t替换为ZT,并定义奖励的目标函数:
(21)
其中p(ZT;W)表示ZT的分布。
由于公式(21)中的期望涉及到高维交互的问题,难以通过传统的监督方式处理,因此探索另一种近似计算方法,具体定义如下:
如公式(22)所示,强化学习被用来简化梯度的运算。
为了进一步简化上述期望的计算过程,引入了一种情景算法:
其中,Ri表示执行N个情景下的决策π(lt|z1:t;W)时的总体奖励。
考虑到梯度的高度方差,另一个解决方案是通过总奖励减去基准bt
关于预测位置1的密度函数g被描述为:
其中,预测位置1是策略π的输出结果,并且服从固定方差σ和平均值μ的高斯分布。而平均值μ由W参数化的RL跟踪器中提取。
密度函数g的对数概率的偏导数可以表示为:
由于μ和模型的权重W相关,W可以通过反向传播算法进行计算。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (1)

1.一种基于深度强化学习和时空上下文的目标图像追踪方法,包括以下步骤:
1)在每个时间步t,使用特征提取网络从输入序列中获取图像xt,作为视觉特征;将视觉特征通过STC和递归神经网络,然后分别从STC和递归神经网络中提取时空特征ct和隐层状态ht,其中时空特征ct将被为参考标准;
2)建立模型;
2.1)根据图像xt,获取每一帧的图像信息和对应的位置向量st
2.2)在每个时间步长,将视觉特征向量和位置向量组合为向量ot
2.3)在每个时间步t,使用wr参数化的递归神经网络fr从特征提取网络提取的特征向量和来自递归神经网络先前的隐藏状态ht-1被输入当前状态的递归神经网络中,并更新得到新的隐藏状态ht
ht=fr(ht-1,ot;Wr) (1)
其中,fr是递归神经网络的转换函数;
2.4)计算置信图峰值位置来确定下一帧目标:
其中,x∈R2表示目标对象的中心位置,o是当前目标位置,x*是跟踪目标的中心位置,b是标准化常数,a是比例参数;
置信图可以分解如下:
其中,Xc={c(z)=(I(z),z)∈Qc(x*)}表示上下文特征集,上下文特征c(z)=(I(z),z)由图像灰度I(z)信息和z位置处的位置信息共同描述,Qc(x*)表示目标x*的局部区域;
其中,式(5)中
P(x|c(z),o)=hsc(x-z) (6)
其中,hsc(x-z)建模目标位置x和局部上下文区域位置c之间的相对距离以及方向关系,从而编码被跟踪目标和其空间上下文的空间关系;
其中,式(5)中
P(c(z)|o)=I(z)ωσ(z-x*) (7)
其中,I(z)表示局部区域范围内目标位置z处的灰度值,用来描述上下文的外观信息;ω是一个加权函数,具体表示为:
其中,表示权重函数,σ为尺度参数,α是归一化参数,能够使函数的概率值维持在[0,1]之间;
2.5)被跟踪目标的置信图描述为:
其中,β为参数,在已知被跟踪目标位置x*的前提下,利用置信图公式计算局部上下文区域任意一点x的似然概率;
2.6)计算学习空间上下文模型:
2.7)通过前面几个步骤的计算得到第t帧时的空间上下文模型hsc(x),并且在此基础上用来更新时t+1帧的时空上下文模型,具体实现公式如15所示:
在t+1帧时,局部区域Qc(x*)是基于第t帧的目标位置剪裁得到的;构建的特征集具体表示为Xc={c(z)=(I(z),z)∈Qc(x*)};通过公式(16)来计算第t+1帧置信图的最大似然概率位置,获得下一帧目标的新位置:
ct+1(x)可以被表示为:
3)模型训练;
对步骤2)得到的模型进行训练;
若为初期训练阶段,即Epoch≤threshold,使用如下奖励函数进行训练:
rt=-ρmax(|lt-ct|)-(1-ρ)avg(|lt-ct|)
其中,ct表示由STC模型输出的目标对象的预测位置,lt表示递归神经网络的输出结果,运算符avg(·)和max(·)分别表示像素的平均值和最大值。
否则,为后期训练阶段,使用如下奖励函数进行训练:
其中,式中奖励的计算可以被描述为lt和ct的交叉区域除以lt和ct之间的联合区域;
4)根据模型的预测位置,进行目标追踪。
CN201810469999.2A 2018-05-16 2018-05-16 一种基于深度强化学习和时空上下文的目标图像追踪方法 Pending CN110503661A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810469999.2A CN110503661A (zh) 2018-05-16 2018-05-16 一种基于深度强化学习和时空上下文的目标图像追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810469999.2A CN110503661A (zh) 2018-05-16 2018-05-16 一种基于深度强化学习和时空上下文的目标图像追踪方法

Publications (1)

Publication Number Publication Date
CN110503661A true CN110503661A (zh) 2019-11-26

Family

ID=68584139

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810469999.2A Pending CN110503661A (zh) 2018-05-16 2018-05-16 一种基于深度强化学习和时空上下文的目标图像追踪方法

Country Status (1)

Country Link
CN (1) CN110503661A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539979A (zh) * 2020-04-27 2020-08-14 天津大学 基于深度强化学习的人体正面跟踪方法
CN111862158A (zh) * 2020-07-21 2020-10-30 湖南师范大学 一种分阶段目标跟踪方法、装置、终端及可读存储介质
CN113034378A (zh) * 2020-12-30 2021-06-25 香港理工大学深圳研究院 一种区分电动汽车与燃油汽车的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999016050A1 (en) * 1997-09-23 1999-04-01 Voxware, Inc. Scalable and embedded codec for speech and audio signals
WO2017004626A1 (en) * 2015-07-01 2017-01-05 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for providing reinforcement learning in a deep learning system
CN106970615A (zh) * 2017-03-21 2017-07-21 西北工业大学 一种深度强化学习的实时在线路径规划方法
CN107093189A (zh) * 2017-04-18 2017-08-25 山东大学 基于自适应颜色特征和时空上下文的目标跟踪方法及系统
CN107403426A (zh) * 2017-06-20 2017-11-28 北京工业大学 一种目标物体检测方法及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999016050A1 (en) * 1997-09-23 1999-04-01 Voxware, Inc. Scalable and embedded codec for speech and audio signals
WO2017004626A1 (en) * 2015-07-01 2017-01-05 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for providing reinforcement learning in a deep learning system
CN106970615A (zh) * 2017-03-21 2017-07-21 西北工业大学 一种深度强化学习的实时在线路径规划方法
CN107093189A (zh) * 2017-04-18 2017-08-25 山东大学 基于自适应颜色特征和时空上下文的目标跟踪方法及系统
CN107403426A (zh) * 2017-06-20 2017-11-28 北京工业大学 一种目标物体检测方法及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIJUN WANG,ET AL.: "Visual Tracking with Fully Convolutional Networks", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
程帅 等: "基于增强群跟踪器和深度学习的目标跟踪", 《电子与信息学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539979A (zh) * 2020-04-27 2020-08-14 天津大学 基于深度强化学习的人体正面跟踪方法
CN111539979B (zh) * 2020-04-27 2022-12-27 天津大学 基于深度强化学习的人体正面跟踪方法
CN111862158A (zh) * 2020-07-21 2020-10-30 湖南师范大学 一种分阶段目标跟踪方法、装置、终端及可读存储介质
CN111862158B (zh) * 2020-07-21 2023-08-29 湖南师范大学 一种分阶段目标跟踪方法、装置、终端及可读存储介质
CN113034378A (zh) * 2020-12-30 2021-06-25 香港理工大学深圳研究院 一种区分电动汽车与燃油汽车的方法

Similar Documents

Publication Publication Date Title
CN110516620B (zh) 目标跟踪方法、装置、存储介质及电子设备
Feng et al. Infrared image segmentation with 2-D maximum entropy method based on particle swarm optimization (PSO)
US6591146B1 (en) Method for learning switching linear dynamic system models from data
CN111310659B (zh) 基于增进式图卷积神经网络的人体动作识别方法
CN110998594A (zh) 检测动作的方法和系统
CN110503661A (zh) 一种基于深度强化学习和时空上下文的目标图像追踪方法
CN111563915B (zh) 一种融合运动信息检测和Radon变换的KCF目标跟踪方法
CN109785385A (zh) 视觉目标跟踪方法及系统
JP2003196661A (ja) 視覚型動き解析及び視覚型追跡のためのアピアランスモデル
CN111461437B (zh) 基于生成对抗网络的数据驱动人群运动仿真方法
CN114241569A (zh) 人脸识别攻击样本的生成方法、模型训练方法及相关设备
CN109753897A (zh) 基于记忆单元强化-时序动态学习的行为识别方法
CN112651998A (zh) 基于注意力机制和双流多域卷积神经网络的人体跟踪算法
CN111539528A (zh) 基于异构结构的知识追踪方法
CN114092517A (zh) 基于传统和深度学习算法的多目标跟踪方法
Mocanu et al. Single object tracking using offline trained deep regression networks
CN104778670A (zh) 一种基于多元统计模型的分形小波自适应图像去噪方法
CN107045726A (zh) 一种改良的基于时空上下文模型的目标跟踪方法
CN115205903A (zh) 一种基于身份迁移生成对抗网络的行人重识别方法
JP7444279B2 (ja) 物体追跡装置、物体追跡方法、及び、プログラム
Mozafari et al. A novel fuzzy hmm approach for human action recognition in video
CN109242885B (zh) 一种基于时空非局部正则的相关滤波视频跟踪方法
CN110147768A (zh) 一种目标跟踪方法及装置
CN116824140A (zh) 面向测试场景无掩码监督的小样本分割方法
CN111145221A (zh) 一种基于多层深度特征提取的目标跟踪算法

Legal Events

Date Code Title Description
DD01 Delivery of document by public notice
DD01 Delivery of document by public notice

Addressee: Wuhan Zhiyun Xingda Information Technology Co.,Ltd.

Document name: Notice of non patent agent (person)

Addressee: Wuhan Zhiyun Xingda Information Technology Co.,Ltd.

Document name: Notification to Make Rectification

DD01 Delivery of document by public notice
DD01 Delivery of document by public notice

Addressee: Wuhan Zhiyun Xingda Information Technology Co.,Ltd.

Document name: Notification of Passing Examination on Formalities

PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20231103