CN113516713A - 一种基于伪孪生网络的无人机自适应目标跟踪方法 - Google Patents

一种基于伪孪生网络的无人机自适应目标跟踪方法 Download PDF

Info

Publication number
CN113516713A
CN113516713A CN202110682908.5A CN202110682908A CN113516713A CN 113516713 A CN113516713 A CN 113516713A CN 202110682908 A CN202110682908 A CN 202110682908A CN 113516713 A CN113516713 A CN 113516713A
Authority
CN
China
Prior art keywords
target
tracking
frame
model
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110682908.5A
Other languages
English (en)
Other versions
CN113516713B (zh
Inventor
李云
王学军
胡小春
李菲
蒋曹清
孙山林
李国�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Aerospace Technology
Guangxi University of Finance and Economics
Original Assignee
Guilin University of Aerospace Technology
Guangxi University of Finance and Economics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Aerospace Technology, Guangxi University of Finance and Economics filed Critical Guilin University of Aerospace Technology
Priority to CN202110682908.5A priority Critical patent/CN113516713B/zh
Publication of CN113516713A publication Critical patent/CN113516713A/zh
Application granted granted Critical
Publication of CN113516713B publication Critical patent/CN113516713B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于伪孪生网络的无人机自适应目标跟踪方法,其中,所述方法包括:在视频序列帧的第一帧图像中选取跟踪目标,建立跟踪目标的目标跟踪模型并存入模板库分支,并将模板库分支选出的模板作为跟踪分支下一帧图像的目标跟踪模型进行目标跟踪;读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型;对跟踪目标与候选目标模型的相似度进行判决,计算跟踪目标位置和尺度信息;修正跟踪目标尺度信息;在模板库分支中对当前帧图像的目标模型进行评估,根据评估结果选择是否更新模板库;判断当前帧图像是否为最后一帧图像,若是则结束,若否,则返回。在本发明实施例中,适用于无人机平台搭载,能自适应调整跟踪框的大小。

Description

一种基于伪孪生网络的无人机自适应目标跟踪方法
技术领域
本发明涉及目标跟踪技术领域,尤其涉及一种基于伪孪生网络的无人机自适应目标跟踪方法。
背景技术
无人机目标跟踪是指:基于无人机平台对运动目标进行在线跟踪。在智能交通系统、安防监控系统、农业生产监测等领域有很好的应用前景。一般在线视觉跟踪具有4个基本组成部分:运动模型、特征提取、观测模型、在线更新机制。运动模型描述帧与帧目标运动状态之间的关系,在视频帧中预测目标图像区域,并给出一组可能的候选区域;外观模型在当前帧判决候选图像区域是被跟踪目标的可能性;鉴别性的特征表示目标是目标跟踪的关键之一,在线视觉跟踪算法要求提取的视觉特征既能较好地描述跟踪目标又能快速计算;在线更新机制在跟踪过程中更新外观模型,保证跟踪的鲁棒性。
由于无人机在高空中飞行,无人机自身的运动以及跟踪目标的变化,导致跟踪过程中存在目标尺度变化、背景干扰、初始帧特征模型拟合能力逐渐减弱等问题,这给无人机目标跟踪带来挑战。目前有很多学者通过研究传统的相关滤波算法和孪生网络模型,提出一些端到端、无监督的先进跟踪算法、模型,可以有效缓解这些问题。但这些方法对计算资源要求较高,不适合用在无人机实时跟踪的过程中。
而基于颜色特征的核密度估计方法用于跟踪领域,实现简单,速度较快,对目标的非刚性变化、旋转等挑战都具有较好的鲁棒性。核密度估计方法在应用到目标跟踪上的时候,首先需要在初始帧图像上框选目标模板,框定的窗口大小作为核窗的宽度,然后在目标模板图像中对需要被跟踪的目标进行建模,一般在建模的时候使用颜色直方图作为目标特征,然后选择目标可能移动的区域建立候选模型,同样使用颜色直方图进行建模,得到一系列的候选模板,将目标模板与候选模板进行对比,通过使用某种相似性度量(Bhattacharyya系数)来比较二者之间的相似性,选择相似性最大的候选模板,得到此次迭代的均值漂移向量,并将目标的位置通过该向量转移到候选模板的位置,此为基础开始下一次迭代,直到符合某种收敛条件为止。文志强等人已经证明,基于颜色特征的核密度估计方法在特定的核函数模型下是具有收敛性的。因此,从初始帧开始,图像中心点通过不断地迭代,最终一定会收敛到目标的真实位置从而达到跟踪的目的。但这种方法在跟踪的过程中,模板的核宽一直保持不变,而当目标的大小发生改变或者与摄像机距离发生变化时,新目标的真实核宽可能会发生改变。而且在跟踪过程中始终以第一帧的目标作为目标模型,缺乏必要的模板更新。
发明内容
本发明的目的在于克服现有技术的不足,本发明提供了一种基于伪孪生网络的无人机自适应目标跟踪方法,适用于无人机平台搭载,能自适应调整跟踪框的大小,并解决跟踪过程中初始帧目标模型特征拟合能力逐渐减弱的问题,增强跟踪的准确性和鲁棒性。
为了解决上述技术问题,本发明实施例提供了一种基于伪孪生网络的无人机自适应目标跟踪方法,所述方法包括:
在视频序列帧的第一帧图像中选取跟踪目标,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型;
将第一帧图像的目标跟踪模型存入模板库分支,并将模板库分支选出的模板作为跟踪分支下一帧图像的目标跟踪模型进行目标跟踪;
读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型;
利用背景像素权重对跟踪目标与候选目标模型的相似度进行判决,并进行迭代计算当前帧图像的跟踪目标位置和尺度信息;
对当前帧图像的跟踪目标进行正则项修正和后向一致性估计,修正跟踪目标尺度信息;
将当前帧图像跟踪到的目标模型输入模板库分支中,在模板库分支中对当前帧图像的目标模型进行评估,根据评估结果选择是否更新模板库;
判断当前帧图像是否为最后一帧图像,若是则结束,若否,则根据评估结果选出下一帧图像的目标模型,返回读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型步骤。
可选的,所述在视频序列帧的第一帧图像中选取跟踪目标,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型,包括:
在所述视频序列帧的第一帧图像中选取跟踪目标,并确定所述跟踪目标的位置和尺度信息;
计算所述跟踪目标周围颜色分布的核密度估计函数,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型。
可选的,所述计算所述跟踪目标周围颜色分布的核密度估计函数,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型,包括:
假设跟踪过程中跟踪目标在每帧图像的尺寸都是变化的,跟踪目标在每帧图像中由椭圆区域进行表示,用ξ(xi,y,h)表示跟踪目标区域的椭圆方程,即:
Figure BDA0003120953860000031
则第一帧图像的跟踪目标的目标跟踪模型
Figure BDA0003120953860000032
如下:
Figure BDA0003120953860000033
其中,C表示归一化常数;{xi}i=1,...,N表示样本框内的像素位置;
Figure BDA0003120953860000034
用来统计跟踪目标区域中像素信息,若像素点xi属于第u个颜色特征,则该部分值为1,否则为0;δ[.]用于判断处于位置xi的像素值是否属于特征空间中的第u个bin;b(.)用于将xi位置的像素点与该像素点在量化特征空间中所属的bin值对应起来;ξ(.)表示跟踪目标区域的椭圆方程;h表示尺度系数;y表示候选跟踪目标的中心位置;k表示所用核函数;a和b均为椭圆方程的轴长系数。
可选的,所述将第一帧图像的目标跟踪模型存入模板库分支中,定义第t帧时的模板库为
Figure BDA0003120953860000035
其中,
Figure BDA0003120953860000036
表示第t帧时模板库内的第i个模板,
Figure BDA0003120953860000037
表示对应第i个模板在第t帧前成功跟踪的次数;
Figure BDA0003120953860000038
表示模板库内存储第i个模板与最新加入的模板的相似度;ρ为衡量两个向量之间的Bhattacharyya系数的样本估计,即衡量两个模型的相似程度;每当有新模板加入时,该系数进行更新,新加入的模板该系数为1,Nt为第t帧时模板数量;
将模板库内的平均标注定义为
Figure BDA0003120953860000041
在未被标记的模板中选用评价得分最高的模板
Figure BDA0003120953860000042
输入跟踪分支作为跟踪目标模型
Figure BDA0003120953860000043
设置初始变量a←1。
可选的,所述读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型
Figure BDA0003120953860000044
如下:
Figure BDA0003120953860000045
Figure BDA0003120953860000046
其中,y=(y1,y2)T表示当前帧跟踪目标候选的中心位置;h表示跟踪目标候选相对上一帧跟踪目标样本框大小的尺寸比例,对于给定的核函数以及可变的尺度系数h;Ch通过以下方式近似,令n1表示目标跟踪模型区域中的像素数,nh表示尺度系数为h的跟踪目标候选区域的像素数,且nh=h2n1;根据黎曼积分的定义,即有:
Figure BDA0003120953860000047
因此,
Figure BDA0003120953860000048
且对于任意两个值h0,h1,有
Figure BDA0003120953860000049
a和b均为椭圆方程的轴长系数。
可选的,所述背景像素权重为利用跟踪目标与候选目标之间的背景比例权重;计算如下:
Figure BDA00031209538600000410
其中,
Figure BDA00031209538600000411
表示候选模型,
Figure BDA00031209538600000412
表示目标模型,
Figure BDA00031209538600000413
表示跟踪目标周围领域的背景直方图;ρ为衡量两个向量之间相似度的Bhattacharyya系数,用来衡量两个模型的相似程度,如果不符合收敛条件,则通过计算得到均值漂移向量,如下:
Figure BDA00031209538600000414
其中,wi为权重函数,表示每个像素特征的权重,即:
Figure BDA0003120953860000051
Figure BDA0003120953860000052
其中,G表示所有选用的核函数;g(.)表示其轮廓函数;将候选目标位置漂移到新的位置,依次为基础开始下一次迭代,直至符合收敛条件位置,依次可以得到跟踪目标的位置,如下:
Figure BDA0003120953860000053
以及对应的尺度如下:
Figure BDA0003120953860000054
其中,y0表示上一帧目标的中心位置,也是当前帧开始进行搜索的位置;
Figure BDA0003120953860000055
表示背景在颜色直方图u区间的概率值;wi表示第i个像素特征的权重。
可选的,所述对当前帧图像的跟踪目标进行正则项修正和后向一致性估计,修正跟踪目标尺度信息如下:
加入正则项rs(y,h)进行反向变化,如下:
Figure BDA0003120953860000056
考虑跟踪目标图像尺寸较小,尺度变化也较小的情况,而自相似对象的尺度不确定通常会导致尺度的低估和跟踪识别,因此,强调搜索窗口包含一部分背景像素扩大样本框尺度,即通过加入正则项实现,如下:
Figure BDA0003120953860000057
其中,(y,h)表示位置和尺度因子;θ表示定义搜索窗口中应该包含的加权背景像素的百分比,b1,b2均为由实验得出的判决门限;其中θ=0.5,b1=0.1,b2=0.05;函数相应均在设定区间内;加权背景像素的百分比为:
Figure BDA0003120953860000061
由于当前帧的位置yt和估计尺度参数ht进行反向跟踪得到前一帧估计位置yback和估计尺度参数hback;将hback和ht进行一致性验证,即Θc=|log2(ht·hback)|;若检测到前后尺度估计一致时,即有Θc<0.1;则跟踪目标尺度将是三个部分的加权组合:前一帧的尺寸st-1、新的估计尺寸st和第一帧时目标的尺度s0;即有:
st 2=(1-α-β)st-1+βhst-1+αs0
其中,
Figure BDA0003120953860000062
σ,β为实验得出的参数,其中σ=0.1,β=0.1。
可选的,所述根据评估结果选择是否更新模板库,包括:
在模板库内剩余的模板中选出模板作为跟踪分支下一帧图像的目标跟踪模型进行目标跟踪,直到
Figure BDA0003120953860000063
或a>Nt
Figure BDA0003120953860000064
为跟踪到的第t帧目标特征模型
Figure BDA0003120953860000065
与模板库内选用模板
Figure BDA0003120953860000066
的相似度;Nt为第t帧时模板库内模板数;若
Figure BDA0003120953860000067
则说明此模板跟踪准确,不需要对模板库进行跟新;
Figure BDA0003120953860000068
Figure BDA0003120953860000069
更新
Figure BDA00031209538600000610
Figure BDA00031209538600000611
时,选择ρs最大的值
Figure BDA00031209538600000612
对应的跟踪目标特征模型
Figure BDA00031209538600000613
加入模板库:若Nt<N,N为模板库内模板数目上限;Nt←Nt+1,
Figure BDA00031209538600000614
更新
Figure BDA00031209538600000615
若Nt=N时,将
Figure BDA00031209538600000616
输入模板库,更新
Figure BDA00031209538600000617
找到除作为目标模型的模板外
Figure BDA00031209538600000618
最大的
Figure BDA00031209538600000619
进行替换,
Figure BDA00031209538600000620
在本发明实施例中,通过实施本发明中的方法,可以适用于无人机平台搭载,能自适应调整跟踪框的大小,并解决跟踪过程中初始帧目标模型特征拟合能力逐渐减弱的问题,增强跟踪的准确性和鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的基于伪孪生网络的无人机自适应目标跟踪方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例
请参阅图1,图1是本发明实施例中的基于伪孪生网络的无人机自适应目标跟踪方法的流程示意图。
如图1所示,一种基于伪孪生网络的无人机自适应目标跟踪方法,所述方法包括:
S11:在视频序列帧的第一帧图像中选取跟踪目标,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型;
在本发明具体实施过程中,所述在视频序列帧的第一帧图像中选取跟踪目标,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型,包括:在所述视频序列帧的第一帧图像中选取跟踪目标,并确定所述跟踪目标的位置和尺度信息;计算所述跟踪目标周围颜色分布的核密度估计函数,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型。
进一步的,所述计算所述跟踪目标周围颜色分布的核密度估计函数,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型,包括:
假设跟踪过程中跟踪目标在每帧图像的尺寸都是变化的,跟踪目标在每帧图像中由椭圆区域进行表示,用ξ(xi,y,h)表示跟踪目标区域的椭圆方程,即:
Figure BDA0003120953860000081
则第一帧图像的跟踪目标的目标跟踪模型
Figure BDA0003120953860000082
如下:
Figure BDA0003120953860000083
其中,C表示归一化常数;{xi}i=1,...,N表示样本框内的像素位置;
Figure BDA0003120953860000084
用来统计跟踪目标区域中像素信息,若像素点xi属于第u个颜色特征,则该部分值为1,否则为0;δ[.]用于判断处于位置xi的像素值是否属于特征空间中的第u个bin;b(.)用于将xi位置的像素点与该像素点在量化特征空间中所属的bin值对应起来;ξ(.)表示跟踪目标区域的椭圆方程;h表示尺度系数;y表示候选跟踪目标的中心位置;k表示所用核函数;a和b均为椭圆方程的轴长系数。
具体的,在本发明中,伪孪生网络不再使用两个具有相同参数的神经网络对进行特征提取,而是通过核密度估计对目标特征进行表述。其中,一个分支执行模板库更新及模板选用任务,另一分支执行目标跟踪任务。跟踪分支输出目标在每一帧的位置和尺寸信息,实现对目标的跟踪,并把跟踪得到的目标模型输入模板库分支进行处理。模板库分支完成目标特征模型在跟踪过程中选择性存储任务。并对模板库内的模板进行评分,选择恰当的模板输入跟踪分支作为后续跟踪的目标特征模型。
在跟踪过程中,通过颜色特征的核密度估计对目标进行跟踪。假设跟踪过程中跟踪目标在每帧图像的尺寸都是变化的。跟踪目标在图像中由椭圆形区域表示,用ξ(xi,y,h0)表示跟踪目标区域的椭圆方程,{xi}i=1,...,N是当前帧的像素位置,y为目标候选者中心位置,h为尺度系数。即:
Figure BDA0003120953860000085
则第一帧图像的跟踪目标的目标跟踪模型
Figure BDA0003120953860000086
如下:
Figure BDA0003120953860000087
其中,C表示归一化常数;{xi}i=1,...,N表示样本框内的像素位置;
Figure BDA0003120953860000088
用来统计跟踪目标区域中像素信息,若像素点xi属于第u个颜色特征,则该部分值为1,否则为0;δ[.]用于判断处于位置xi的像素值是否属于特征空间中的第u个bin;b(.)用于将xi位置的像素点与该像素点在量化特征空间中所属的bin值对应起来;ξ(.)表示跟踪目标区域的椭圆方程;h表示尺度系数;y表示候选跟踪目标的中心位置;k表示所用核函数;a和b均为椭圆方程的轴长系数。
S12:将第一帧图像的目标跟踪模型存入模板库分支,并将模板库分支选出的模板作为跟踪分支下一帧图像的目标跟踪模型进行目标跟踪;
在本发明具体实施过程中,所述将第一帧图像的目标跟踪模型存入模板库分支中,定义第t帧时的模板库为
Figure BDA0003120953860000091
其中,
Figure BDA0003120953860000092
表示第t帧时模板库内的第i个模板,
Figure BDA0003120953860000093
表示对应第i个模板在第t帧前成功跟踪的次数;
Figure BDA0003120953860000094
表示模板库内第i个存储模板与最新加入的模板的相似度;ρ为衡量两个向量之间的Bhattacharyya系数的样本估计,即衡量两个模型的相似程度;每当有新模板加入时,该系数进行更新,新加入的模板该系数为1,Nt为第t帧时模板数量;
将模板库内的平均标注定义为
Figure BDA0003120953860000095
在未被标记的模板中选用评价得分最高的模板
Figure BDA0003120953860000096
输入跟踪分支作为跟踪目标模型
Figure BDA0003120953860000097
设置初始变量a←1。
即通过将第一帧图像的目标跟踪模型存入模板库分支,并将模板库分支选出的模板作为跟踪分支下一帧图像的目标跟踪模型进行目标跟踪。
S13:读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型;
在本发明具体实施过程中,所述读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型
Figure BDA0003120953860000098
如下:
Figure BDA0003120953860000099
Figure BDA00031209538600000910
其中,y=(y1,y2)T表示当前帧跟踪目标候选的中心位置;h表示跟踪目标候选相对上一帧跟踪目标样本框大小的尺寸比例,对于给定的核函数以及可变的尺度系数h;Ch通过以下方式近似,令n1表示目标跟踪模型区域中的像素数,nh表示尺度系数为h的跟踪目标候选区域的像素数,且nh=h2n1;根据黎曼积分的定义,即有:
Figure BDA00031209538600000911
因此,
Figure BDA00031209538600000912
且对于任意两个值h0,h1,有
Figure BDA00031209538600000913
a和b均为椭圆方程的轴长系数。
具体的,在读入下一帧图像,以上一帧图像的跟踪目标的中小位置建立后续目标模型时,当前帧的跟踪目标的候选模型可以表达为:
Figure BDA0003120953860000101
Figure BDA0003120953860000102
其中,y=(y1,y2)T表示当前帧跟踪目标候选的中心位置;h表示跟踪目标候选相对上一帧跟踪目标样本框大小的尺寸比例,对于给定的核函数以及可变的h;Ch通过以下方式近似,令n1表示目标跟踪模型区域中的像素数,nh表示尺寸为h的跟踪目标候选区域的像素数,且nh=h2n1;根据黎曼积分的定义,即有:
Figure BDA0003120953860000103
因此,
Figure BDA0003120953860000104
且对于任意两个值h0,h1,有
Figure BDA0003120953860000105
a和b均为椭圆方程的轴长系数。
S14:利用背景像素权重对跟踪目标与候选目标模型的相似度进行判决,并进行迭代计算当前帧图像的跟踪目标位置和尺度信息;
在本发明具体实施过程中,所述背景像素权重为利用跟踪目标与候选目标之间的背景比例权重;计算如下:
Figure BDA0003120953860000106
其中,
Figure BDA0003120953860000107
表示跟踪目标周围领域的背景直方图;ρ为衡量两个向量之间的Bhattacharyya系数,用来衡量两个模型的相似程度,如果不符合收敛条件,则通过计算得到均值漂移向量,如下:
Figure BDA0003120953860000108
其中,wi表示第i个像素特征的权重,即:
Figure BDA0003120953860000109
Figure BDA0003120953860000111
Figure BDA0003120953860000112
其中,G表示所有选用的核函数;g(.)表示其轮廓函数;将候选目标位置漂移到新的位置,依次为基础开始下一次迭代,直至符合收敛条件位置,依次可以得到跟踪目标的位置,如下:
Figure BDA0003120953860000113
以及对应的尺度如下:
Figure BDA0003120953860000114
其中,y0表示上一帧目标的中心位置,也是当前帧开始进行搜索的位置;
Figure BDA0003120953860000115
表示背景在颜色直方图u区间的概率值;wi表示第i个像素特征的权重。
具体的,在此采用巴氏系数来衡量跟踪目标概率分布q={qu}u=1...m,和候选目标的概率分布{pu(h)}u=1..m的差异性,即:
Figure BDA0003120953860000116
当两个概率分布之间的巴氏系数最大时,两者相似度最高,因此应沿梯度上升方向得到ρ(y,h)函数的最大值。在上述过程中,候选目标区域经过多次迭代计算从当前位置y0沿
Figure BDA0003120953860000117
方向迭代移动得到新位置y1,并得到新的目标尺度参数h1
背景像素权重为利用跟踪目标与候选目标之间的背景比例权重;计算如下:
Figure BDA0003120953860000118
其中,
Figure BDA0003120953860000119
表示跟踪目标周围领域的背景直方图;ρ为衡量两个向量之间的Bhattacharyya系数,用来衡量两个模型的相似程度,如果不符合收敛条件,则通过计算得到均值漂移向量,如下:
其中,wi表示第i个像素特征的权重,即:
Figure BDA0003120953860000121
Figure BDA0003120953860000122
其中,G表示所有选用的核函数;g(.)表示其轮廓函数;将候选目标位置漂移到新的位置,依次为基础开始下一次迭代,直至符合收敛条件位置,依次可以得到跟踪目标的位置,如下:
Figure BDA0003120953860000123
以及对应的尺度如下:
Figure BDA0003120953860000124
其中,y0表示上一帧目标的中心位置,也是当前帧开始进行搜索的位置;
Figure BDA0003120953860000125
表示背景在颜色直方图u区间的概率值;wi表示第i个像素特征的权重。
S15:对当前帧图像的跟踪目标进行正则项修正和后向一致性估计,修正跟踪目标尺度信息;
在本发明具体实施过程中,所述对当前帧图像的跟踪目标进行正则项修正和后向一致性估计,修正跟踪目标尺度信息如下:
加入正则项rs(y,h)进行反向变化,如下:
Figure BDA0003120953860000126
考虑跟踪目标图像尺寸较小,尺度变化也较小的情况,而自相似对象的尺度不确定通常会导致尺度的低估和跟踪识别,因此,强调搜索窗口包含一部分背景像素扩大样本框尺度,即通过加入正则项实现,如下:
Figure BDA0003120953860000131
其中,(y,h)表示位置和尺度因子;θ表示定义搜索窗口中应该包含的加权背景像素的百分比,b1,b2均为由实验得出的判决门限;其中θ=0.5,b1=0.1,b2=0.05;函数相应均在设定区间内;加权背景像素的百分比为:
Figure BDA0003120953860000132
由于当前帧的位置yt和估计尺度参数ht进行反向跟踪得到前一帧估计位置yback和估计尺度参数hback;将hback和ht进行一致性验证,即Θc=|log2(ht·hback)|;若检测到前后尺度估计一致时,即有Θc<0.1;则跟踪目标尺度将是三个部分的加权组合:前一帧的尺寸st-1、新的估计尺寸st和第一帧时目标的尺度s0;即有:
st 2=(1-α-β)st-1+βhst-1+αs0
其中,
Figure BDA0003120953860000133
σ,β为实验得出的参数,其中σ=0.1,β=0.1。
具体的,将尺度估计引入后我们发现:在存在较复杂背景的情况下,尺度估计错误不具有“自我纠正”功能,因此需要引入修正和检测机制。在跟踪过程中,视频序列帧到帧之间目标图像的尺度随时间持续变化,由于相邻帧时间间隔较小,通常相邻两帧之间的目标图像尺度不会剧烈变化。考虑估计尺度逐渐变大的情况,加入一个正则项rs(y,h)进行反向变化;如下:
Figure BDA0003120953860000134
考虑跟踪目标图像尺寸较小,尺度变化也较小的情况,而自相似对象的尺度不确定通常会导致尺度的低估和跟踪识别,因此,强调搜索窗口包含一部分背景像素扩大样本框尺度,即通过加入正则项实现,如下:
Figure BDA0003120953860000141
其中,(y,h)表示位置和尺度因子;θ表示定义搜索窗口中应该包含的加权背景像素的百分比,b1,b2均为由实验得出的判决门限;其中θ=0.5,b1=0.1,b2=0.05;函数相应均在设定区间内;加权背景像素的百分比为:
Figure BDA0003120953860000142
由于当前帧的位置yt和估计尺度参数ht进行反向跟踪得到前一帧估计位置yback和估计尺度参数hback;将hback和ht进行一致性验证,即Θc=|log2(ht·hback)|;若检测到前后尺度估计一致时,即有Θc<0.1;则跟踪目标尺度将是三个部分的加权组合:前一帧的尺寸st-1、新的估计尺寸st和第一帧时目标的尺度s0;即有:
st 2=(1-α-β)st-1+βhst-1+αs0
其中,
Figure BDA0003120953860000143
β,σ参数在在测试序列的子集上进行实验得出,以平衡算法的尺度适应性和稳定性,其中σ=0.1,β=0.1。
这种方法确保了在引入背景杂波的情况下,尺度估计不会“无限制地增长”,并能验证尺度估计是否合理,使跟踪器能够从错误估计中恢复。
S16:将当前帧图像跟踪到的目标模型输入模板库分支中,在模板库分支中对当前帧图像的目标模型进行评估,根据评估结果选择是否更新模板库;
在本发明具体实施过程中,所述根据评估结果选择是否更新模板库,包括:
在模板库内剩余的模板中选出模板作为跟踪分支下一帧图像的目标跟踪模型进行目标跟踪,直到
Figure BDA0003120953860000144
或a>Nt
Figure BDA0003120953860000145
为跟踪到的第t帧目标特征模型
Figure BDA0003120953860000146
与模板库内选用模板
Figure BDA0003120953860000147
的相似度;Nt为第t帧时模板库内模板数;若
Figure BDA0003120953860000148
则说明此模板跟踪准确,不需要对模板库进行跟新;
Figure BDA0003120953860000149
Figure BDA00031209538600001410
更新
Figure BDA00031209538600001411
Figure BDA00031209538600001412
时,选择ρs最大的值
Figure BDA00031209538600001413
对应的跟踪目标特征模型
Figure BDA00031209538600001414
加入模板库:若Nt<N,N为模板库内模板数目上限;Nt←Nt+1,
Figure BDA00031209538600001415
更新
Figure BDA00031209538600001416
若Nt=N时,将
Figure BDA00031209538600001417
输入模板库,更新
Figure BDA0003120953860000151
找到除作为目标模型的模板外
Figure BDA0003120953860000152
最大的
Figure BDA0003120953860000153
进行替换,
Figure BDA0003120953860000154
具体的,通过将当前帧图像跟踪到的目标模型输入模板库分支中,在模板库分支中对当前帧图像的目标模型进行评估,根据评估结果选择是否更新模板库,具体如下:
在模板库内剩余的模板中选出模板作为跟踪分支下一帧图像的目标跟踪模型进行目标跟踪,直到
Figure BDA0003120953860000155
或a>Nt
Figure BDA0003120953860000156
为跟踪到的第t帧目标特征模型
Figure BDA0003120953860000157
与模板库内选用模板
Figure BDA0003120953860000158
的相似度;Nt为第t帧时模板库内模板数;若
Figure BDA0003120953860000159
则说明此模板跟踪准确,不需要对模板库进行跟新;
Figure BDA00031209538600001510
Figure BDA00031209538600001511
更新
Figure BDA00031209538600001512
Figure BDA00031209538600001513
时,选择ρs最大的值
Figure BDA00031209538600001514
对应的跟踪目标特征模型
Figure BDA00031209538600001515
加入模板库:若Nt<N,N为模板库内模板数目上限;Nt←Nt+1,
Figure BDA00031209538600001516
更新
Figure BDA00031209538600001517
若Nt=N时,将
Figure BDA00031209538600001518
输入模板库,更新
Figure BDA00031209538600001519
找到除作为目标模型的模板外
Figure BDA00031209538600001520
最大的
Figure BDA00031209538600001521
进行替换,
Figure BDA00031209538600001522
S17:判断当前帧图像是否为最后一帧图像;
S18:若是则结束,若否,则根据评估结果选出下一帧图像的目标模型,返回读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型步骤。
在本发明实施例中,通过实施本发明中的方法,可以适用于无人机平台搭载,能自适应调整跟踪框的大小,并解决跟踪过程中初始帧目标模型特征拟合能力逐渐减弱的问题,增强跟踪的准确性和鲁棒性。
在本发明实施例中,通过实施本发明中的方法,可以适用于无人机平台搭载,能自适应调整跟踪框的大小,并解决跟踪过程中初始帧目标模型特征拟合能力逐渐减弱的问题,增强跟踪的准确性和鲁棒性。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
另外,以上对本发明实施例所提供的一种基于伪孪生网络的无人机自适应目标跟踪方法进行了详细介绍,本文中应采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种基于伪孪生网络的无人机自适应目标跟踪方法,其特征在于,所述方法包括:
在视频序列帧的第一帧图像中选取跟踪目标,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型;
将第一帧图像的目标跟踪模型存入模板库分支,并将模板库分支选出的模板作为跟踪分支下一帧图像的目标跟踪模型进行目标跟踪;
读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型;
利用背景像素权重对跟踪目标与候选目标模型的相似度进行判决,并进行迭代计算当前帧图像的跟踪目标位置和尺度信息;
对当前帧图像的跟踪目标进行正则项修正和后向一致性估计,修正跟踪目标尺度信息;
将当前帧图像跟踪到的目标模型输入模板库分支中,在模板库分支中对当前帧图像的目标模型进行评估,根据评估结果选择是否更新模板库;
判断当前帧图像是否为最后一帧图像,若是则结束,若否,则根据评估结果选出下一帧图像的目标模型,返回读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型步骤。
2.根据权利要求1所述的无人机自适应目标跟踪方法,其特征在于,所述在视频序列帧的第一帧图像中选取跟踪目标,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型,包括:
在所述视频序列帧的第一帧图像中选取跟踪目标,并确定所述跟踪目标的位置和尺度信息;
计算所述跟踪目标周围颜色分布的核密度估计函数,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型。
3.根据权利要求2所述的无人机自适应目标跟踪方法,其特征在于,所述计算所述跟踪目标周围颜色分布的核密度估计函数,并基于伪孪生网络建立所述跟踪目标的目标跟踪模型,包括:
假设跟踪过程中跟踪目标在每帧图像的尺寸都是变化的,跟踪目标在每帧图像中由椭圆区域进行表示,用ξ(xi,y,h)表示跟踪目标区域的椭圆方程,即:
Figure FDA0003120953850000021
则第一帧图像的跟踪目标的目标跟踪模型
Figure FDA0003120953850000022
如下:
Figure FDA0003120953850000023
其中,C表示归一化常数;{xi}i=1,...,N表示样本框内的像素位置;
Figure FDA0003120953850000024
用来统计跟踪目标区域中像素信息,若像素点xi属于第u个颜色特征,则该部分值为1,否则为0;δ[.]用于判断处于位置xi的像素值是否属于特征空间中的第u个bin;b(.)用于将xi位置的像素点与该像素点在量化特征空间中所属的bin值对应起来;ξ(.)表示跟踪目标区域的椭圆方程;h表示尺度系数;y表示候选跟踪目标的中心位置;k表示所用核函数;a和b均为椭圆方程的轴长系数。
4.根据权利要求1所述的无人机自适应目标跟踪方法,其特征在于,所述将第一帧图像的目标跟踪模型存入模板库分支中,定义第t帧时的模板库为
Figure FDA0003120953850000025
其中,
Figure FDA0003120953850000026
表示第t帧时模板库内的第i个模板,
Figure FDA0003120953850000027
表示对应第i个模板在第t帧前成功跟踪的次数;
Figure FDA0003120953850000028
表示模板库内存储第i个模板与最新加入的模板的相似度;ρ为衡量两个向量之间的Bhattacharyya系数的样本估计,即衡量两个模型的相似程度;每当有新模板加入时,该系数进行更新,新加入的模板该系数为1,Nt为第t帧时模板数量;
将模板库内的平均标注定义为
Figure FDA0003120953850000029
在未被标记的模板中选用评价得分最高的模板
Figure FDA00031209538500000210
输入跟踪分支作为跟踪目标模型
Figure FDA00031209538500000211
设置初始变量a←1。
5.根据权利要求1所述的无人机自适应目标跟踪方法,其特征在于,所述读入下一帧图像,以上一帧图像的跟踪目标的中心位置建立候选目标模型
Figure FDA0003120953850000031
如下:
Figure FDA0003120953850000032
Figure FDA0003120953850000033
其中,y=(y1,y2)T表示当前帧跟踪目标候选的中心位置;h表示跟踪目标候选相对上一帧跟踪目标样本框大小的尺寸比例,对于给定的核函数以及可变的尺度系数h;Ch通过以下方式近似,令n1表示目标跟踪模型区域中的像素数,nh表示尺度系数为h的跟踪目标候选区域的像素数,且nh=h2n1;根据黎曼积分的定义,即有:
Figure FDA0003120953850000034
因此,
Figure FDA0003120953850000035
且对于任意两个值h0,h1,有
Figure FDA0003120953850000036
a和b均为椭圆方程的轴长系数。
6.根据权利要求1所述的无人机自适应目标跟踪方法,其特征在于,所述背景像素权重为利用跟踪目标与候选目标之间的背景比例权重;计算如下:
Figure FDA0003120953850000037
其中,
Figure FDA0003120953850000038
表示候选模型,
Figure FDA0003120953850000039
表示目标模型,
Figure FDA00031209538500000310
表示跟踪目标周围领域的背景直方图;ρ为衡量两个向量之间相似度的Bhattacharyya系数,用来衡量两个模型的相似程度,如果不符合收敛条件,则通过计算得到均值漂移向量,如下:
Figure FDA00031209538500000311
其中,wi为权重函数,表示第i个像素特征的权重,即:
Figure FDA00031209538500000312
Figure FDA0003120953850000041
Figure FDA0003120953850000042
其中,G表示所有选用的核函数;g(.)表示其轮廓函数;将候选目标位置漂移到新的位置,依次为基础开始下一次迭代,直至符合收敛条件位置,依次可以得到跟踪目标的位置,如下:
Figure FDA0003120953850000043
以及对应的尺度如下:
Figure FDA0003120953850000044
其中,y0表示上一帧目标的中心位置,也是当前帧开始进行搜索的位置;
Figure FDA0003120953850000045
表示背景在颜色直方图u区间的概率值;wi表示第i个像素特征的权重。
7.根据权利要求1所述的无人机自适应目标跟踪方法,其特征在于,所述对当前帧图像的跟踪目标进行正则项修正和后向一致性估计,修正跟踪目标尺度信息如下:
加入正则项rs(y,h)进行反向变化,如下:
Figure FDA0003120953850000046
考虑跟踪目标图像尺寸较小,尺度变化也较小的情况,而自相似对象的尺度不确定通常会导致尺度的低估和跟踪识别,因此,强调搜索窗口包含一部分背景像素扩大样本框尺度,即通过加入正则项实现,如下:
Figure FDA0003120953850000047
其中,(y,h)表示位置和尺度因子;θ表示定义搜索窗口中应该包含的加权背景像素的百分比,b1,b2均为由实验得出的判决门限;其中θ=0.5,b1=0.1,b2=0.05;函数相应均在设定区间内;加权背景像素的百分比为:
Figure FDA0003120953850000051
由于当前帧的位置yt和估计尺度参数ht进行反向跟踪得到前一帧估计位置yback和估计尺度参数hback;将hback和ht进行一致性验证,即Θc=|log2(ht·hback)|;若检测到前后尺度估计一致时,即有Θc<0.1;则跟踪目标尺度将是三个部分的加权组合:前一帧的尺寸st-1、新的估计尺寸st和第一帧时目标的尺度s0;即有:
st 2=(1-α-β)st-1+βhst-1+αs0
其中,
Figure FDA0003120953850000052
σ,β为实验得出的参数,其中σ=0.1,β=0.1。
8.根据权利要求1所述的无人机自适应目标跟踪方法,其特征在于,所述根据评估结果选择是否更新模板库,包括:
在模板库内剩余的模板中选出模板作为跟踪分支下一帧图像的目标跟踪模型进行目标跟踪,直到
Figure FDA0003120953850000053
或a>Nt
Figure FDA0003120953850000054
为跟踪到的第t帧目标特征模型
Figure FDA0003120953850000055
与模板库内选用模板
Figure FDA0003120953850000056
的相似度;Nt为第t帧时模板库内模板数;若
Figure FDA0003120953850000057
则说明此模板跟踪准确,不需要对模板库进行跟新;
Figure FDA0003120953850000058
Figure FDA0003120953850000059
更新
Figure FDA00031209538500000510
Figure FDA00031209538500000511
时,选择ρs最大的值
Figure FDA00031209538500000512
对应的跟踪目标特征模型
Figure FDA00031209538500000513
加入模板库:若Nt<N,N为模板库内模板数目上限;Nt←Nt+1,
Figure FDA00031209538500000514
更新
Figure FDA00031209538500000515
若Nt=N时,将
Figure FDA00031209538500000516
输入模板库,更新
Figure FDA00031209538500000517
找到除作为目标模型的模板外
Figure FDA00031209538500000518
最大的
Figure FDA00031209538500000519
进行替换,
Figure FDA00031209538500000520
CN202110682908.5A 2021-06-18 2021-06-18 一种基于伪孪生网络的无人机自适应目标跟踪方法 Active CN113516713B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110682908.5A CN113516713B (zh) 2021-06-18 2021-06-18 一种基于伪孪生网络的无人机自适应目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110682908.5A CN113516713B (zh) 2021-06-18 2021-06-18 一种基于伪孪生网络的无人机自适应目标跟踪方法

Publications (2)

Publication Number Publication Date
CN113516713A true CN113516713A (zh) 2021-10-19
CN113516713B CN113516713B (zh) 2022-11-22

Family

ID=78065693

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110682908.5A Active CN113516713B (zh) 2021-06-18 2021-06-18 一种基于伪孪生网络的无人机自适应目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113516713B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114387552A (zh) * 2022-01-13 2022-04-22 电子科技大学 基于生物视觉机理的旋翼无人机红外视频跟踪方法
TWI802514B (zh) * 2022-10-07 2023-05-11 國立中興大學 無人機目標辨識之處理方法
CN117456204A (zh) * 2023-09-25 2024-01-26 珠海视熙科技有限公司 目标跟踪方法、装置、视频处理系统、存储介质和终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110243381A1 (en) * 2010-02-05 2011-10-06 Rochester Institute Of Technology Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof
CN105117720A (zh) * 2015-09-29 2015-12-02 江南大学 基于时空模型的目标尺度自适应跟踪方法
CN110675423A (zh) * 2019-08-29 2020-01-10 电子科技大学 一种基于孪生神经网络和注意力模型的无人机跟踪方法
US20200327679A1 (en) * 2019-04-12 2020-10-15 Beijing Moviebook Science and Technology Co., Ltd. Visual target tracking method and apparatus based on deeply and densely connected neural network
CN112132862A (zh) * 2020-09-11 2020-12-25 桂林电子科技大学 一种基于无人机的自适应尺度估计目标跟踪算法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110243381A1 (en) * 2010-02-05 2011-10-06 Rochester Institute Of Technology Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof
CN105117720A (zh) * 2015-09-29 2015-12-02 江南大学 基于时空模型的目标尺度自适应跟踪方法
US20200327679A1 (en) * 2019-04-12 2020-10-15 Beijing Moviebook Science and Technology Co., Ltd. Visual target tracking method and apparatus based on deeply and densely connected neural network
CN110675423A (zh) * 2019-08-29 2020-01-10 电子科技大学 一种基于孪生神经网络和注意力模型的无人机跟踪方法
CN112132862A (zh) * 2020-09-11 2020-12-25 桂林电子科技大学 一种基于无人机的自适应尺度估计目标跟踪算法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J.NING等: "Robust mean-shift tracking with corrected background-weighted histogram", 《IET COMPUTER VISION》 *
RONGYAO ZHANG等: "An adaptive scale estimation target tracking algorithm based on UAV", 《 2020 INTERNATIONAL CONFERENCE ON ROBOTS & INTELLIGENT SYSTEM》 *
刘芳: "基于自适应Siamese网络的无人机目标跟踪算法", 《航空学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114387552A (zh) * 2022-01-13 2022-04-22 电子科技大学 基于生物视觉机理的旋翼无人机红外视频跟踪方法
TWI802514B (zh) * 2022-10-07 2023-05-11 國立中興大學 無人機目標辨識之處理方法
CN117456204A (zh) * 2023-09-25 2024-01-26 珠海视熙科技有限公司 目标跟踪方法、装置、视频处理系统、存储介质和终端

Also Published As

Publication number Publication date
CN113516713B (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
CN113516713B (zh) 一种基于伪孪生网络的无人机自适应目标跟踪方法
CN108470354B (zh) 视频目标跟踪方法、装置和实现装置
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN107016689A (zh) 一种尺度自适应的相关滤波对冲目标跟踪方法
CN110097575B (zh) 一种基于局部特征及尺度池的目标跟踪方法
CN112052802B (zh) 一种基于机器视觉的前方车辆行为识别方法
CN110349187A (zh) 基于tsk模糊分类器的目标跟踪方法、装置及存储介质
CN111260738A (zh) 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN102831409A (zh) 基于粒子滤波的运动行人视频自动跟踪方法及系统
CN110147768B (zh) 一种目标跟踪方法及装置
CN108550163A (zh) 一种复杂背景场景中运动目标检测方法
CN110349188B (zh) 基于tsk模糊模型的多目标跟踪方法、装置及存储介质
CN112132862B (zh) 一种基于无人机的自适应尺度估计目标跟踪算法
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及系统
CN115588030B (zh) 基于孪生网络的视觉目标跟踪方法及设备
CN110363165A (zh) 基于tsk模糊系统的多目标跟踪方法、装置及存储介质
CN111402303A (zh) 一种基于kfstrcf的目标跟踪架构
CN111583146B (zh) 一种基于改进多尺度循环网络的人脸图像去模糊方法
CN110827262A (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN115471525A (zh) 基于融合孪生网络与卡尔曼滤波的目标跟踪方法及系统
CN113129332A (zh) 执行目标对象跟踪的方法和装置
CN110751671B (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN112991394B (zh) 基于三次样条插值和马尔科夫链的kcf目标跟踪方法
CN113033356B (zh) 一种尺度自适应的长期相关性目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant