CN112884799A - 一种基于孪生神经网络的复杂场景下目标跟踪方法 - Google Patents

一种基于孪生神经网络的复杂场景下目标跟踪方法 Download PDF

Info

Publication number
CN112884799A
CN112884799A CN202110145843.0A CN202110145843A CN112884799A CN 112884799 A CN112884799 A CN 112884799A CN 202110145843 A CN202110145843 A CN 202110145843A CN 112884799 A CN112884799 A CN 112884799A
Authority
CN
China
Prior art keywords
candidate
neural network
frame
target tracking
twin neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110145843.0A
Other languages
English (en)
Inventor
董乐
张宁
江宗其
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110145843.0A priority Critical patent/CN112884799A/zh
Publication of CN112884799A publication Critical patent/CN112884799A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机仿真领域,具体是一种基于孪生神经网络的复杂场景下目标跟踪方法,包括如下步骤:步骤一、使用孪生神经网络提取模板帧和检测帧的特征信息;步骤二、将特征信息输入到RPN区域候选网络得到分类值和回归值;步骤三、挑选出根据分类值和回归值得分排名17×17×5个区域候选框,剔除多余的区域候选框,形成候选区域;步骤四、把候选区域中响应值最高的k个候选区域剔除出来,把剩余的候选区域作为干扰子和扰动感知模块方程进行运算,重新对候选区域的响应值进行计算,得到响应值最高的候选区域即为当前帧被追踪目标;解决复杂场景中目标长时跟踪的问题,特别是被跟踪物体出现旋转、被遮挡、突然消失等情况。

Description

一种基于孪生神经网络的复杂场景下目标跟踪方法
技术领域
本发明涉及识别与信息处理领域,具体是指一种基于孪生神经网络的复杂场景下目标跟踪方法。
背景技术
基于视觉的目标跟踪一直以来都是计算机视觉领域一个重要而富有挑战性的研究热点,它涉及到模式识别、图像处理、人工智能、计算机应用等诸多方面的知识,随着高性能计算机和高质量且廉价的摄像终端的增多,以及自动视频分析需求量的增大,视觉目标跟踪算法引起人们越来越多的关注,并且在军事和民用的许多领域(如:智能监控系统、智能交通系统、精确制导系统、无人机目标跟踪)等都具有极为广泛的应用前景,在过去的几十年中很多优秀的视觉目标跟踪算法及有效的新理论被相继提出,然而,由于通常的视频序列中存在着内因(如:尺度变化,姿势变化和形状变化等)和外因(如:部分或全部遮挡,光照变化,运动模糊和背景杂乱)等因素的干扰,要想设计一个具有普适性的实时的、鲁棒的、精准稳定的视觉目标跟踪系统来满足实际需求,仍然面临着很大的挑战。
近年来,随着深度学习的引入,目标跟踪领域取得了很大进展,传统的判别式方法和CNN特征的结合,大幅提高了跟踪的精度,但仅仅使用从计算机视觉其他领域预训练的神经网络提取的特征,难以充分利用神经网络端到端的强大的学习能力,MDNet、ADNet等使用端到端的方法来训练跟踪网络,并结合在线微调达到了很好的跟踪效果,但同时神经网络带来了计算量的大幅增加,导致跟踪速度的减慢,难以达到实时性的要求,孪生神经网络是一类由两个或多个具有相同参数和权重的子网络组成的神经网络架构,孪生神经网络在涉及样本之间的相似性度量或两个可比较的事物之间的关系的任务中经常被使用,使用孪生神经网络的目标跟踪算法由于不进行网络的在线更新,在实时性方面有很大的优势,目前比较常用于目标跟踪的孪生神经网络有Siam-FC和Siam-RPN本发明正是基于Siam-RPN进行改良的。
同时,也正是由于一般的基于孪生神经网络的目标跟踪算法完全不会进行在线更新,所以在复杂场景下的需要长时间跟踪目标时,非常容易造成目标丢失的问题,因此,针对一般基于的孪生神经网络的目标跟踪系统无法处理复杂场景下的长时目标跟踪问题,本发明在Siam-RPN网络结构的基础上加入了一个扰动感知模块使得目标跟踪系统会在跟踪的过程中采用增量学习的方式来选择被跟踪目标,这让跟踪器能够更好的辨别出背景中的干扰物和被跟踪物体,除此之外,本发明还采用了从局部到全局的搜索策略(以下简称LTG搜索策略),让跟踪器在被跟踪目标丢失时,能够通过扩大目标搜索区域来找回目标,通过以上两种方式,兼顾了跟踪器的实时跟踪和长时跟踪的两大功能。
发明内容
基于以上问题,本发明提供了一种基于孪生神经网络的复杂场景下目标跟踪方法,解决复杂场景中目标长时跟踪的问题,特别是被跟踪物体出现旋转、被遮挡、突然消失等情况。
为解决以上技术问题,本发明采用的技术方案如下:
一种基于孪生神经网络的复杂场景下目标跟踪方法,包括如下步骤:
步骤一、使用孪生神经网络提取模板帧和检测帧的特征信息分别为
Figure BDA0002928760800000021
Figure BDA0002928760800000022
步骤二、将特征信息输入到RPN区域候选网络得到分类值Acls和回归值Areg
步骤三、挑选出根据分类值Acls和回归值Areg得分排名17×17×5个区域候选框P,剔除多余的区域候选框,形成候选区域Pl
步骤四、把候选区域Pl中响应值最高的k个候选区域Pk剔除出来,把剩余的候选区域作为干扰子和扰动感知模块方程进行运算,重新对候选区域Pl的响应值进行计算,得到响应值最高的候选区域q即为当前帧被追踪目标。
进一步,所述特征信息的提取采用CNN全卷积网络运算。
进一步,所述RPN区域候选网络分为分类分支和回归分支。
进一步,所述分类分支中,RPN区域候选网络将特征信息用一个新的卷积核进行卷积,在缩小特征图的同时,产生4×4×(2k×256)的第一模板帧特征
Figure BDA0002928760800000023
和20×20×256的第一检测帧特征
Figure BDA0002928760800000024
以第一模板帧特征
Figure BDA0002928760800000025
作为卷积核跟第一检测帧特征
Figure BDA0002928760800000026
进行卷积,得到k个正负分值输出分类值Acls
进一步,所述回归分支中,RPN区域候选网络将特征信息用一个新的卷积核进行卷积,在缩小特征图的同时,产生4×4×(2k×256)的第二模板帧特征
Figure BDA0002928760800000027
和20×20×256的第二检测帧特征
Figure BDA0002928760800000028
以第二模板帧特征
Figure BDA0002928760800000029
作为卷积核跟第二检测帧特征
Figure BDA00029287608000000210
进行卷积,得到回归值Areg,其中,每个Areg包含dx,dy,dw,dh四个值。
进一步,采用NMS非极大值抑制的方式剔除多余的区域候选框。
进一步,将第一帧图像目标作为模板图像,将后续各帧图像作为搜索图像,候选区域Pl的数量为0,则说明跟踪目标丢失,根据LTG搜索策略,扩大搜索图像的大小,在下一帧中重新进行搜索。
进一步,所述重新计算得到的响应值最高的候选区域q的计算公式为:
Figure BDA0002928760800000031
其中,f代表卷积运算,α是控制干扰子整体的权重参数,βi是单独控制每个干扰子的权重参数。
进一步,所述重新计算得到的响应值最高的候选区域q的计算公式为:
Figure BDA0002928760800000032
其中,*代表卷积运算,α是控制干扰子整体的权重参数,βi是单独控制每个干扰子的权重参数。
与现有技术相比,本发明的有益效果是:
1.从目标跟踪系统的易于实现的角度出发,通过使用Siam-RPN网络作为跟踪的主体架构,实现了目标跟踪系统端到端和One-Shot学习的效果,大大减少了传统目标跟踪方法需要进行的各种手工提取特征的步骤,提高了系统实现的简易度,降低了人工的使用。
2.从信息处理技术的角度出发,通过扰动感知模块利用到每一帧图像中干扰物的信息,丰富了每个特征向量所包含的信息,使用很小的计算开销就提高了跟踪算法的精确度。
3.从用户体验的要求出发,通过一般的基于孪生神经网络的目标跟踪方法的改进,实现了对复杂场景下的运动目标进行更精确更长时间的跟踪,提升了用户的体验。
附图说明
图1为本实施例1的流程图;
图2为本实施例1的框架图。
具体实施方式
下面结合附图对本发明作进一步的说明。本发明的实施方式包括但不限于下列实施例。
实施例1
如图1-图2所示的一种基于孪生神经网络的复杂场景下目标跟踪方法,包括如下步骤:
步骤一、使用孪生神经网络提取模板帧和检测帧的特征信息分别为
Figure BDA0002928760800000033
Figure BDA0002928760800000034
其中,第一帧图像目标作为模板图像,将后续各帧图像作为搜索图像,通过一个学习好的相似性对比函数f(Z,X)在上找到和模板图像较为相像的一些区域作为特征信息,另外,特征信息的提取采用CNN全卷积网络运算,将孪生神经网络作为一种变换
Figure BDA0002928760800000041
将这种变换分别应用到模板帧和检测帧上,产生模板帧和检测帧的特征信息分别为
Figure BDA0002928760800000042
Figure BDA0002928760800000043
步骤二、将特征信息输入到RPN区域候选网络得到分类值Acls和回归值Areg
其中,RPN区域候选网络分为分类分支和回归分支;
另外,分类分支用于区分目标和背景,他将给出每个样本被预测为目标和背景的打分,RPN区域候选网络将提取到的特征信息
Figure BDA0002928760800000044
Figure BDA0002928760800000045
用一个新的卷积核进行卷积,在缩小特征图的同时,产生4×4×(2k×256)的第一模板帧特征
Figure BDA0002928760800000046
和20×20×256的第一检测帧特征
Figure BDA0002928760800000047
以第一模板帧特征
Figure BDA0002928760800000048
作为卷积核跟第一检测帧特征
Figure BDA0002928760800000049
进行卷积,得到k个正负分值输出分类值Acls,公式为:
Figure BDA00029287608000000410
另外,回归分支用于输出候选区域的具体坐标信息,RPN区域候选网络将提取到的特征信息
Figure BDA00029287608000000411
Figure BDA00029287608000000412
用一个新的卷积核进行卷积,在缩小特征图的同时,产生4×4×(2k×256)的第二模板帧特征
Figure BDA00029287608000000413
和20×20×256的第二检测帧特征
Figure BDA00029287608000000414
以第二模板帧特征
Figure BDA00029287608000000415
作为卷积核跟第二检测帧特征
Figure BDA00029287608000000416
进行卷积,得到回归值Areg,其中,每个Areg包含dx,dy,dw,dh四个值,公式为:
Figure BDA00029287608000000417
步骤三、挑选出根据分类值Acls和回归值Areg得分排名17×17×5个区域候选框P,剔除多余的区域候选框,形成候选区域Pl
其中,采用NMS非极大值抑制的方式剔除多余的区域候选框,候选区域Pl的数量为0,则说明跟踪目标丢失,根据LTG搜索策略,扩大搜索图像的大小,在下一帧中重新进行搜索。
步骤四、把候选区域Pl中响应值最高的k个候选区域Pk剔除出来,把剩余的候选区域作为干扰子和扰动感知模块方程进行运算,重新对候选区域Pl的响应值进行计算,得到响应值最高的候选区域q即为当前帧被追踪目标;
其中,重新计算得到的响应值最高的候选区域q的计算公式为:
Figure BDA00029287608000000418
其中,f代表卷积运算,α是控制干扰子整体的权重参数,βi是单独控制每个干扰子的权重参数,经过这样根据干扰子进行的学习优化以后,跟踪器可以有效的学习跟踪目标并抑制干扰子的干扰能力。
实施例2
本实施例中,重新计算得到的响应值最高的候选区域q的计算公式为:
Figure BDA0002928760800000051
其中,*代表卷积运算,α是控制干扰子整体的权重参数,βi是单独控制每个干扰子的权重参数,这样即使加上了扰动感知模块,追踪器的整体运算速度和未加上扰动感知模块之前的运算速度是相差无几的,可以保证跟踪器在高速场景下表现依然良好,优化了运算速度。
如上即为本发明的实施例。上述实施例以及实施例中的具体参数仅是为了清楚表述发明人的发明验证过程,并非用以限制本发明的专利保护范围,本发明的专利保护范围仍然以其权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。

Claims (9)

1.一种基于孪生神经网络的复杂场景下目标跟踪方法,其特征在于,包括如下步骤:
步骤一、使用孪生神经网络提取模板帧和检测帧的特征信息分别为
Figure FDA0002928760790000011
Figure FDA0002928760790000012
步骤二、将特征信息输入到RPN区域候选网络得到分类值Acls和回归值Areg
步骤三、挑选出根据分类值Acls和回归值Areg得分排名17×17×5个区域候选框P,剔除多余的区域候选框,形成候选区域Pl
步骤四、把候选区域Pl中响应值最高的k个候选区域Pk剔除出来,把剩余的候选区域作为干扰子和扰动感知模块方程进行运算,重新对候选区域Pl的响应值进行计算,得到响应值最高的候选区域q即为当前帧被追踪目标。
2.根据权利要求1所述的一种基于孪生神经网络的复杂场景下目标跟踪方法,其特征在于:所述特征信息的提取采用CNN全卷积网络运算。
3.根据权利要求1所述的一种基于孪生神经网络的复杂场景下目标跟踪方法,其特征在于:所述RPN区域候选网络分为分类分支和回归分支。
4.根据权利要求3所述的一种基于孪生神经网络的复杂场景下目标跟踪方法,其特征在于:所述分类分支中,RPN区域候选网络将特征信息用一个新的卷积核进行卷积,在缩小特征图的同时,产生4×4×(2k×256)的第一模板帧特征
Figure FDA0002928760790000013
和20×20×256的第一检测帧特征
Figure FDA0002928760790000014
以第一模板帧特征
Figure FDA0002928760790000015
作为卷积核跟第一检测帧特征
Figure FDA0002928760790000016
进行卷积,得到k个正负分值输出分类值Acls
5.根据权利要求3所述的一种基于孪生神经网络的复杂场景下目标跟踪方法,其特征在于:所述回归分支中,RPN区域候选网络将特征信息用一个新的卷积核进行卷积,在缩小特征图的同时,产生4×4×(2k×256)的第二模板帧特征
Figure FDA0002928760790000017
和20×20×256的第二检测帧特征
Figure FDA0002928760790000018
以第二模板帧特征
Figure FDA0002928760790000019
作为卷积核跟第二检测帧特征
Figure FDA00029287607900000110
进行卷积,得到回归值Areg,其中,每个Areg包含dx,dy,dw,dh四个值。
6.根据权利要求1所述的一种基于孪生神经网络的复杂场景下目标跟踪方法,其特征在于:采用NMS非极大值抑制的方式剔除多余的区域候选框。
7.根据权利要求1所述的一种基于孪生神经网络的复杂场景下目标跟踪方法,其特征在于:将第一帧图像目标作为模板图像,将后续各帧图像作为搜索图像,候选区域Pl的数量为0,则说明跟踪目标丢失,根据LTG搜索策略,扩大搜索图像的大小,在下一帧中重新进行搜索。
8.根据权利要求1所述的一种基于孪生神经网络的复杂场景下目标跟踪方法,其特征在于:所述重新计算得到的响应值最高的候选区域q的计算公式为:
Figure FDA0002928760790000021
其中,f代表卷积运算,α是控制干扰子整体的权重参数,βi是单独控制每个干扰子的权重参数。
9.根据权利要求1所述的一种基于孪生神经网络的复杂场景下目标跟踪方法,其特征在于:所述重新计算得到的响应值最高的候选区域q的计算公式为:
Figure FDA0002928760790000022
其中,*代表卷积运算,α是控制干扰子整体的权重参数,βi是单独控制每个干扰子的权重参数。
CN202110145843.0A 2021-02-02 2021-02-02 一种基于孪生神经网络的复杂场景下目标跟踪方法 Pending CN112884799A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110145843.0A CN112884799A (zh) 2021-02-02 2021-02-02 一种基于孪生神经网络的复杂场景下目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110145843.0A CN112884799A (zh) 2021-02-02 2021-02-02 一种基于孪生神经网络的复杂场景下目标跟踪方法

Publications (1)

Publication Number Publication Date
CN112884799A true CN112884799A (zh) 2021-06-01

Family

ID=76056711

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110145843.0A Pending CN112884799A (zh) 2021-02-02 2021-02-02 一种基于孪生神经网络的复杂场景下目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112884799A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470075A (zh) * 2021-07-09 2021-10-01 郑州轻工业大学 一种基于干扰抑制外观建模的目标跟踪方法
CN114862904A (zh) * 2022-03-21 2022-08-05 哈尔滨工程大学 一种水下机器人的孪生网络目标连续跟踪方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200126241A1 (en) * 2018-10-18 2020-04-23 Deepnorth Inc. Multi-Object Tracking using Online Metric Learning with Long Short-Term Memory
CN111860248A (zh) * 2020-07-08 2020-10-30 上海蠡图信息科技有限公司 一种基于孪生渐进注意引导融合网络的视觉目标跟踪方法
CN112116627A (zh) * 2020-08-31 2020-12-22 南京理工大学 一种基于近似主成分分析的红外目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200126241A1 (en) * 2018-10-18 2020-04-23 Deepnorth Inc. Multi-Object Tracking using Online Metric Learning with Long Short-Term Memory
CN111860248A (zh) * 2020-07-08 2020-10-30 上海蠡图信息科技有限公司 一种基于孪生渐进注意引导融合网络的视觉目标跟踪方法
CN112116627A (zh) * 2020-08-31 2020-12-22 南京理工大学 一种基于近似主成分分析的红外目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHENG ZHU 等: ""Distractor-aware Siamese Networks for Visual Object Tracking"", 《HTTPS://ARXIV.ORG/PDF/1808.06048.PDF》 *
张子龙 等: ""基于卡尔曼滤波的SiamRPN目标跟踪方法"", 《智能计算机与应用》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470075A (zh) * 2021-07-09 2021-10-01 郑州轻工业大学 一种基于干扰抑制外观建模的目标跟踪方法
CN113470075B (zh) * 2021-07-09 2022-09-23 郑州轻工业大学 一种基于干扰抑制外观建模的目标跟踪方法
CN114862904A (zh) * 2022-03-21 2022-08-05 哈尔滨工程大学 一种水下机器人的孪生网络目标连续跟踪方法
CN114862904B (zh) * 2022-03-21 2023-12-12 哈尔滨工程大学 一种水下机器人的孪生网络目标连续跟踪方法

Similar Documents

Publication Publication Date Title
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
CN111176309B (zh) 一种基于球面成像的多无人机自组群互感理解方法
CN104463191A (zh) 一种基于注意机制的机器人视觉处理方法
CN105005769A (zh) 一种基于深度信息的手语识别方法
Xu et al. A cascade adaboost and CNN algorithm for drogue detection in UAV autonomous aerial refueling
CN110992378B (zh) 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统
CN112884799A (zh) 一种基于孪生神经网络的复杂场景下目标跟踪方法
CN111709268B (zh) 一种深度图像中的基于人手结构指导的人手姿态估计方法和装置
CN111402303A (zh) 一种基于kfstrcf的目标跟踪架构
CN113643329B (zh) 一种基于孪生注意力网络的在线更新目标跟踪方法和系统
Liu et al. SMART: Vision-based method of cooperative surveillance and tracking by multiple UAVs in the urban environment
Ikram et al. Real time hand gesture recognition using leap motion controller based on CNN-SVM architechture
CN111680536B (zh) 基于案管场景下的轻量化人脸识别方法
CN116665097A (zh) 一种结合上下文感知的自适应目标跟踪方法
CN115797397B (zh) 一种机器人全天候自主跟随目标人员的方法及系统
Gu et al. Vtst: Efficient visual tracking with a stereoscopic transformer
CN113781521B (zh) 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法
CN113538509B (zh) 基于自适应相关滤波特征融合学习的视觉跟踪方法及装置
Tsai et al. Temporal-variation skeleton point correction algorithm for improved accuracy of human action recognition
Liang et al. Real-time moving target tracking algorithm of UAV/UGV heterogeneous collaborative system in complex background
Sun et al. Siamese Transformer Network: Building an autonomous real-time target tracking system for UAV
Zhou et al. Visual tracking using improved multiple instance learning with co-training framework for moving robot
Li et al. Design of UAV single object tracking algorithm based on feature fusion
CN113112522A (zh) 基于可变形卷积和模板更新的孪生网络目标跟踪的方法
Zhou et al. Tracking of drone flight by neural network Siamese-RPN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210601

RJ01 Rejection of invention patent application after publication