CN111833378A - 一种基于代理共享网络的多无人机单目标跟踪方法及装置 - Google Patents

一种基于代理共享网络的多无人机单目标跟踪方法及装置 Download PDF

Info

Publication number
CN111833378A
CN111833378A CN202010518074.XA CN202010518074A CN111833378A CN 111833378 A CN111833378 A CN 111833378A CN 202010518074 A CN202010518074 A CN 202010518074A CN 111833378 A CN111833378 A CN 111833378A
Authority
CN
China
Prior art keywords
unmanned aerial
tracking
target
asnet
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010518074.XA
Other languages
English (en)
Inventor
朱鹏飞
庄剑
张重阳
郑佳宇
张轩宇
胡清华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202010518074.XA priority Critical patent/CN111833378A/zh
Publication of CN111833378A publication Critical patent/CN111833378A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于代理共享网络的多无人机单目标跟踪方法及装置,所述方法包括以下步骤:操纵多个无人机从不同方面对相同的目标进行拍摄和跟踪,收集得到的数据集被分为训练集和测试集;通过ASNet网络模型在多个无人机上训练共同的跟踪器,该跟踪器能有效地实时学习目标外观变换和背景抑制变换,获取多无人机模板的响应图,并采用自监督的方式融合响应图,通过视野感知融合获得跟踪结果;使用训练集训练ASNet网络模型,使用验证集测试ASNet网络模型,用户使用训练完成的ASNet网络模型获取跟踪结果。所述装置包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序。本发明显著提高了目标的跟踪精度。

Description

一种基于代理共享网络的多无人机单目标跟踪方法及装置
技术领域
本发明涉及目标跟踪领域,尤其涉及一种基于代理共享网络的多无人机单目标跟踪方法及装置。
背景技术
目标跟踪是计算机视觉中一个长期的、基础的且具有挑战性的问题,人们已经在该领域研究长达几十年。目标跟踪分为单目标跟踪和多目标跟踪。单目标跟踪的任务定义为:给定某视频序列初始帧的目标大小与位置,预测后续帧中该目标的大小与位置。多目标跟踪的定义为:给定一个图像序列,找到图像序列中运动的物体,并将不同帧中的运动物体一一对应,然后给出不同物体的运动轨迹。
受深度学习在图像分类和目标检测领域成功应用的启发,基于深度学习的目标跟踪取得了优异的性能。目前,目标跟踪领域提出了许多具有重要意义的基准数据集,如VOT[1]、OTB[2]、LaSOT[3]、UAV123[4]、Campus[5]、VisDrone-2018[6]和UAVDT[7]等。这些数据集具有高清的视频帧和丰富的注释,大大推动了目标跟踪领域的发展。基于上述数据集,涌现出大量的优秀算法,如KCF[8]、MDNet[9]、SiamFC[10]、SiamRPN++[11]等,以SiamRPN++为例,其通过Siamese Network(孪生神经网络)进行特征提取并通过Region Proposal Network(提取候选区域网络)产生候选区域实现了端到端的训练,在VOT、OTB等数据集上均取得了较好的表现。这些算法对于改良目标跟踪的性能起了重要的意义。
然而,现存的数据集大多是针对单摄像头或者使用静态的传感器进行多摄像头跟踪。随着时代的发展,无人机由于灵活度高、跟踪距离长的特性引起了人们的关注,但是针对多无人机的数据集尚有所欠缺。同时,由于受到目标外观变化、遮挡物和视野外物体的影响,目前已有的单目标跟踪模型的性能常受到限制。
虽然一些基于多摄像头的算法能够使用多个摄像头来评估公共子空间,起到融合多视图信息、提升模型鲁棒性的效果,但是该方法主要为多目标跟踪设计,无法直接应用到单目标跟踪中。
参考文献:
[1]M.Kristan,A.Leonardis,J.Matas,M.Felsberg,R.P.Pflflugfelder,L.Cehovin,T.Voj′1r,G.Hager,A.Lukezic,and et al.,“The visual object trackingVOT2016 challenge results,”in ECCVW,2016,pp.777–823.
[2]Y.Wu,J.Lim,and M.-H.Yang,“Object tracking benchmark,”T-PAMI,vol.37,no.9,pp.1834–1848,2015.
[3]H.Fan,L.Lin,F.Yang,P.Chu,G.Deng,S.Yu,H.Bai,Y.Xu,C.Liao,and H.Ling,“Lasot:A high-quality benchmark for large-scale single object tracking,”inProceedings of the IEEE Conference on Computer Vision and PatternRecognition,2019,pp.5374–5383.
[4]M.Mueller,N.Smith,and B.Ghanem,“A benchmark and simulator for UAVtracking,”in ECCV,2016,pp.445–461.
[5]A.Robicquet,A.Sadeghian,A.Alahi,and S.Savarese,“Learning socialetiquette:Human trajectory understanding in crowded scenes,”in ECCV,2016,pp.549–565.
[6]P.Zhu,L.Wen,X.Bian,H.Ling,and Q.Hu,“Vision meets drones:Achallenge,”CoRR,vol.abs/1804.07437,2018.
[7]D.Du,Y.Qi,H.Yu,Y.Yang,K.Duan,G.Li,W.Zhang,Q.Huang,and Q.Tian,“Theunmanned aerial vehicle benchmark:object detection and tracking,”in ECCV,2018,pp.370–386.
[8]D.Comaniciu,V.Ramesh,and P.Meer,“Real-time tracking of non-rigidobjects using mean shift,”in CVPR,vol.2.IEEE,2000,pp.142–149.
[9]H.Nam and B.Han,“Learning multi-domain convolutional neuralnetworks for visual tracking,”in CVPR,2016,pp.4293–4302.
[10]L.Bertinetto,J.Valmadre,J.F.Henriques,A.Vedaldi,and P.H.Torr,“Fully-convolutional siamese networks for object tracking,”in ECCV.Springer,2016,pp.850–865.
[11]B.Li,W.Wu,Q.Wang,F.Zhang,J.Xing,and J.Yan,“Siamrpn++:Evolution ofsiamese visual tracking with very deep networks,”in CVPR,2019.
发明内容
本发明提供了一种基于代理共享网络的多无人机单目标跟踪方法及装置,本发明制作了第一个基于多无人机的单目标跟踪数据集,并在无人机上以自监督的方式训练一个公共的跟踪器,显著提高了目标的跟踪精度,详见下文描述:
一种基于代理共享网络的多无人机单目标跟踪方法,所述方法包括以下步骤:
操纵多个无人机从不同角度对相同的目标进行拍摄和跟踪,收集得到的数据集被分为训练集和测试集;
通过ASNet网络模型在多个无人机上训练共同的跟踪器,该跟踪器能有效地实时学习目标外观变换和背景抑制变换,获取多无人机模板的响应图,并采用自监督的方式融合响应图,通过视野感知融合获得跟踪结果;
使用训练集训练ASNet网络模型,使用验证集测试ASNet网络模型,用户使用训练完成的ASNet网络模型获取跟踪结果。
其中,所述数据集包括:互不重叠的双无人机数据集和三无人机数据集,数据集中的视频序列分为若干种类和属性标签。
进一步地,所述ASNet网络模型基于DSiam的网络结构,用于在多个无人机上训练一个公共的跟踪器,并进行特征提取,实时学习目标外观变换和背景抑制变换。
其中,所述ASNet网络模型基于过去帧和当前帧的目标重新检测策略,具体为:
当目标跟踪评分小于等于阈值时,通过从局部到全局逐步扩大搜索区域的方式重新检测可能丢失的目标。
进一步地,所述采用自监督的方式融合响应图具体为:
所述ASNet网络模型使用前t-1帧的结果作为监督信号来指导V个模板的融合权重学习;
将融合权重与响应图综合考虑,得到第k个无人机跟踪器的融合响应图。
其中,所述融合权重具体为:
规定Ot kv表示第k个无人机使用第V个模板的跟踪目标,则融合权重ut k通过以下公式学习:
Figure BDA0002530873880000031
其中,
Figure BDA0002530873880000032
Figure BDA0002530873880000033
为Ot kv的特征变换映射,λu为预设超参数。
其中,所述通过视野感知融合获得跟踪结果具体为:
对于第k个无人机的响应图,通过搜索最大值g(st k)得到各自的位置Pt k,并规定g(st k)表示第k个跟踪器第t帧的跟踪评分,得到最佳响应图bt的索引为:
Figure BDA0002530873880000034
对于第bt个无人机,
Figure BDA0002530873880000035
为表示第v个跟踪器第t帧的跟踪评分,相应的位置pt bt即是第bt个无人机中跟踪目标的位置,结合融合权重获得跟踪结果。
进一步地,所述方法还包括:通过AFS和IFS指标评价多无人机融合性能。
一种基于代理共享网络的多无人机单目标跟踪装置,所述装置包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的方法步骤。
本发明提供的技术方案的有益效果是:
1、本发明提出了第一个多无人机单目标跟踪数据集(MDOT),该数据集由155组视频剪辑组成,具有259,793个高分辨率帧和丰富的注释;
2、本发明为多无人机单目标跟踪设计了两个新的评价指标,即自动融合评分(AFS)和理想融合评分(IFS);AFS评估了多无人机跟踪器的性能,该跟踪器利用学习权值融合跟踪结果,而IFS是多无人机跟踪器理论上最优的融合性能;
3、本发明设计了一种用于多无人机视觉跟踪的代理共享网络(ASNet),它能够有效地利用多无人机共享视图感知信息,显著提高目标跟踪的精度和成功率,同时可以作为多无人机单目标跟踪任务的基线跟踪器。
附图说明
图1为一种基于代理共享网络的多无人机单目标跟踪方法的流程图;
图2为整体网络结构示意图;
图3为MDOT数据集10种属性的数量分布图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
为了解决背景技术中存在的问题,本发明实施例提出了一种基于代理共享网络的多无人机单目标跟踪方法,其创新性在于提出了第一个多无人机单目标跟踪数据集(MDOT)并提出两个用于评价多无人机单目标跟踪的新指标用于评价算法性能。同时,设计了一种用于多无人机视觉跟踪的代理共享网络,有效地利用多无人机共享视图感知信息,保证了多无人机单目标跟踪的效果和精确度。
实施例1
本发明实施例提供了一种基于代理共享网络的多无人机单目标跟踪方法,参见图1,该方法包括以下步骤:
101:操纵多个无人机从不同的高度、不同的角度、在不同的户外场景对相同的目标进行拍摄和跟踪,收集得到的数据被分为训练集和测试集;
进一步地,使用VATIC(半自动化视频标注工具)来标注目标的位置、障碍物和视野外信息,使用LabelMe(图形标注工具)来修正和逐帧核对。其中,目标被分为9个种类,包括行人、车辆、狗等。所有视频序列被标注为10个属性,包括白天(DAY)、夜晚(NIGHT)、相机运动(CM)、半遮挡(POC)、全遮挡(FOC)、视野外物体(OV)、相似目标(SO)、视点改变(VC)、光照变化(IV)、低分辨率(LR)。具体10个属性标签的数量分布如图2所示。
102:通过ASNet网络模型(即基于代理共享网络的目标跟踪模型)在多个无人机上训练一个共同的跟踪器,该跟踪器能有效地实时学习目标外观变换和背景抑制变换,获取多无人机模板的响应图,并采用自监督的方式融合响应图,获得跟踪结果;
具体实现时,由于多无人机模板的可靠性不同,因此采用一种自监督的方式融合多模板响应图,获得跟踪结果。
103:使用训练集训练ASNet网络模型,使用验证集测试ASNet网络模型,并通过AFS和IFS指标评价多无人机融合性能;
104:用户使用训练完成的ASNet网络模型获取跟踪结果。
综上所述,本发明制作了第一个多无人机单目标跟踪数据集,并设计了两个指标AFS和IFS来评价算法性能;同时,本发明设计了一种基于代理共享网络的目标跟踪模型,使用户能够获得更精确的目标跟踪结果。
实施例2
下面结合具体的实例、计算公式对实施例1中的方案进行进一步地介绍,详见下文描述:
一、数据准备
本发明通过操纵多个无人机从不同的高度、不同的角度、在不同的户外场景对相同的目标进行拍摄和跟踪,收集得到的数据被分为训练集和测试集。进一步地,本发明使用VATIC工具来标注图像的位置、障碍物和视野外信息,使用LabelMe工具来修正和逐帧核对标注。
其中,MDOT数据集总共包括由259793个高清视频帧组成的155组视频片段,可分为两个互不重叠得子数据集。其中,基于双无人机拍摄的数据集(Two-MDOT)包括由113918个高清视频帧组成的92组视频,基于三无人机拍摄的数据集(Three-MDOT)包括由145875个高清视频帧组成的63组视频。由于两个子数据集的拍摄时间不同,故它们之间没有重叠。155段视频序列被分为9个种类,包括行人、小轿车、摩托车、自行车、货车、狗等。
进一步地,所有视频序列被标注为10个属性,包括白天、夜晚、部分遮挡、全遮挡、视野外物体、相似目标等。和其他经典的单目标跟踪类似,手动标注跟踪目标在第一帧中不同无人机的同一对象。
二、模型的设计
ASNet的网络模型设计可以具体为以下四个方面:
1、基于DSiam的网络架构:
鉴于DSiam网络能有效地实时学习目标外观变换和背景抑制变换,同时考虑到所有跟踪目标均处于相同场景之下,本发明基于DSiam为所有的无人机训练一个公共的深度学习跟踪器。规定O1 v为第v个无人机的第一帧模板,Zt v为第v个无人机的第t帧搜索区域,Ot-1 v为第v个无人机追踪目标的第t-1帧。
通过卷积神经网络,模板和搜索区域的特征可被提取出来记为F1 v=f(Oi v),Ft-1 v=f(Zi v),则对于代理共享网络的第v个无人机的目标外观变换Mt-1 v可以通过如下公式进行学习:
Figure BDA0002530873880000061
其中
Figure BDA0002530873880000062
为mathtype编辑器中的循环卷积符号,为本领域技术人员所公知,M为目标外观变换张量,λm为预设参数。
类似的,背景抑制变换Wt-1 v可以通过如下公式学习:
Figure BDA0002530873880000063
其中,Gt-1 v是和Zt-1 v相同大小的以目标为中心的区域,
Figure BDA0002530873880000064
可通过Gt-1 v和高斯权重图相乘得到,W为背景抑制变换张量,
Figure BDA0002530873880000065
为Gt-1 v的特征图,
Figure BDA0002530873880000066
Figure BDA0002530873880000067
的特征图。最终,多无人机跟踪的结果可以根据跟踪评分来获得。
2、目标重新检测:
在无人机跟踪中,由于摄像机运动频繁,目标的位置可能会在连续的视频帧中发生剧烈的变化。为解决这一问题,本发明使用基于过去帧和当前帧的目标重新检测策略,即当目标跟踪评分小于等于阈值wt q时,则通过从局部到全局逐步扩大搜索区域的方式重新检测可能丢失的目标。对目标重新检测阈值的定义如下:
Figure BDA0002530873880000071
其中,lq t表示过去q帧的一组跟踪评分。μt q、σt q表示lq t的平均值和标准差,λ为一个预设参数。
3、自监督模板共享:
由于目标的外观各异,多个无人机共享模板相较于单个无人机能增强模型的鲁棒性。故采取如下策略得到第k个无人机追踪器对应的第v个无人机模板的响应图St kv
Figure BDA0002530873880000072
其中,corr(A,B)表示相关函数,
Figure BDA0002530873880000073
表示Zt k的特征变换映射。
对于第k个无人机,为了融合获得的一系列响应图St k1,St k2,…,St kv,本发明提出了一种自监督策略,即使用之前t-1帧的结果作为监督信号来指导V个模板的融合权重学习。
规定Ot kv表示第k个无人机使用第v个无人机模板的跟踪目标,则融合权重ut k可以通过以下公式学习:
Figure BDA0002530873880000074
其中,
Figure BDA0002530873880000075
Figure BDA0002530873880000079
为Ot kv的特征变换映射,λu为预设超参数。
融合权重反映了被跟踪目标和第t-1帧目标模板之间的相关性,将其与响应图综合考虑,可以得到第k个无人机跟踪器的融合响应图为:
Figure BDA0002530873880000076
其中,
Figure BDA0002530873880000077
为融合权重,
Figure BDA0002530873880000078
为使用第v个无人机模板的第k个无人机的第t帧的融合响应图。
因此,根据公式(6),对于一个V个无人机的目标跟踪系统来说,可以获得V个融合的响应图。
4、视野感知融合:
当获得了V个融合的响应图之后,本发明采取自动的视野感知融合机制来产生多无人机跟踪的最终结果。对于第k个无人机的响应图,通过在其中搜索最大值g(st k)得到各自的位置Pt k,并规定g(st k)表示第k个跟踪器第t帧的跟踪评分。因此,可根据公式(6)得到最佳响应图bt的索引为:
Figure BDA0002530873880000081
对于第bt个无人机,
Figure BDA0002530873880000082
为表示第v个跟踪器第t帧的跟踪评分,相应的位置pt bt即是第bt个无人机中跟踪目标的位置。结合融合权重即可获得目标的最终位置。
三、模型的训练和测试
用户使用MDOT数据集中的训练集进行训练,使用MDOT数据集中的验证集进行测试,并根据AFS和IFS指标判断算法性能。其中,自动融合评分(AFS)评估使用在线融合策略融合跟踪结果,对多无人机跟踪器性能进行评价。规定hi v和yi v为跟踪结果,则AFS定义为:
Figure BDA0002530873880000083
其中,s(,)为单目标跟踪的评价指标,wv为第v台无人机所占权重,n为视频帧的数量,V为无人机的数量。wv的值应该为0或1,其在跟踪过程中自动学习并且对每一帧实时更新。
理想融合评分(IFS)对多无人机跟踪系统的极限性能进行了评价,为设计高性能的多无人机跟踪系统提供了理论依据。规定hi v和yi v分别为第i帧、第v个无人机的跟踪结果和真实值,则IFS定义为:
Figure BDA0002530873880000084
本模型实施例具有以下三个关键创造点
一、提出了第一个多无人机单目标跟踪数据集(MDOT);
技术效果:该数据集由155组视频片段组成,包括双无人机数据集和三无人机数据集,分为9个种类和10种属性标签,具有高分辨率的视频帧和丰富的注释,便于用户对多无人机单目标跟踪模型训练。
二、设计了一种用于多无人机视觉跟踪的代理共享网络(ASNet);
技术效果:训练的模型具有优异的性能,在双无人机子数据集上,将模型的成功率相较于目前最优的跟踪器提高了8.3,将模型的精确度提高了14.8;在三无人机子数据集上,将模型的成功率相较于目前最优的跟踪器提高了7.8,将模型的精确度提高了12.6。
三、提出了AFS和IFS评价指标
技术效果:自动融合评分(AFS)评估了多无人机融合跟踪结果的表现,理想融合评分(IFS)评估了多无人机跟踪器理论上最优的融合性能。
综上所述,本方法通过包含自监督模板共享、视野感知融合、目标重新检测三个模块的代理共享网络实现了多无人机的单目标跟踪,达到了更高的成功率和精确度。与此同时,MDOT数据集的收集制作和AFS、IFS指标的提出为用户训练和测试多无人机跟踪模型提供了基础。
实施例3
本发明实施例采用的实验结果1如表1所示,该表反应了采取多无人机跟踪的必要性和优越性,展示了本方法针对MDOT的两个子数据集,在成功率和精确度方面都较之前方法有了较大提高。
本发明实施例采用的实验结果2如表2所示。该结果展示了使用本方法所述训练方案训练的ASNet在本方法所述的测试条件下的结果,于DSiam在MDOT的测试集上的结果相比,性能有了非常显著的提升。这主要是由于模型增加的视觉感知融合机制(VM,View-aware Fusion),其融合了多无人机捕捉到的互补信息,大幅提升了模型的精确度和成功率。该结果还展示了加入模板共享机制(TS,Template Sharing)和目标重新检测(RD,Re-detection)之后,模型性能均在不降低速度的前提下取得了不同程度的优化。
表1
Figure BDA0002530873880000091
Figure BDA0002530873880000101
表2
Figure BDA0002530873880000102
实施例4
一种基于代理共享网络的多无人机单目标跟踪装置,该装置包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该处理器执行程序时实施实施例1和2中的方法步骤。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于代理共享网络的多无人机单目标跟踪方法,其特征在于,所述方法包括以下步骤:
操纵多个无人机从不同角度对相同的目标进行拍摄和跟踪,收集得到的数据集被分为训练集和测试集;
通过ASNet网络模型在多个无人机上训练共同的跟踪器,该跟踪器能有效地实时学习目标外观变换和背景抑制变换,获取多无人机模板的响应图,并采用自监督的方式融合响应图,通过视野感知融合获得跟踪结果;
使用训练集训练ASNet网络模型,使用验证集测试ASNet网络模型,用户使用训练完成的ASNet网络模型获取跟踪结果。
2.根据权利要求1所述的一种基于代理共享网络的多无人机单目标跟踪方法,其特征在于,所述数据集包括:互不重叠的双无人机数据集和三无人机数据集,数据集中的视频序列分为若干种类和属性标签。
3.根据权利要求1所述的一种基于代理共享网络的多无人机单目标跟踪方法,其特征在于,所述ASNet网络模型基于DSiam的网络结构,用于在多个无人机上训练一个公共的跟踪器,并进行特征提取,实时学习目标外观变换和背景抑制变换。
4.根据权利要求1所述的一种基于代理共享网络的多无人机单目标跟踪方法,其特征在于,所述ASNet网络模型基于过去帧和当前帧的目标重新检测策略,具体为:
当目标跟踪评分小于等于阈值时,通过从局部到全局逐步扩大搜索区域的方式重新检测可能丢失的目标。
5.根据权利要求1所述的一种基于代理共享网络的多无人机单目标跟踪方法,其特征在于,所述采用自监督的方式融合响应图具体为:
所述ASNet网络模型使用前t-1帧的结果作为监督信号来指导V个模板的融合权重学习;
将融合权重与响应图综合考虑,得到第k个无人机跟踪器的融合响应图。
6.根据权利要求5所述的一种基于代理共享网络的多无人机单目标跟踪方法,其特征在于,所述融合权重具体为:
规定Ot kv表示第k个无人机使用第V个模板的跟踪目标,则融合权重ut k通过以下公式学习:
Figure FDA0002530873870000021
其中,
Figure FDA0002530873870000022
Figure FDA0002530873870000023
为Ot kv的特征变换映射,λu为预设超参数。
7.根据权利要求1所述的一种基于代理共享网络的多无人机单目标跟踪方法,其特征在于,所述通过视野感知融合获得跟踪结果具体为:
对于第k个无人机的响应图,通过搜索最大值g(st k)得到各自的位置Pt k,并规定g(st k)表示第k个跟踪器第t帧的跟踪评分,得到最佳响应图bt的索引为:
Figure FDA0002530873870000024
对于第bt个无人机,
Figure FDA0002530873870000025
为表示第v个跟踪器第t帧的跟踪评分,相应的位置pt bt即是第bt个无人机中跟踪目标的位置,结合融合权重获得跟踪结果。
8.根据权利要求1所述的一种基于代理共享网络的多无人机单目标跟踪方法,其特征在于,所述方法还包括:通过AFS和IFS指标评价多无人机融合性能。
9.一种基于代理共享网络的多无人机单目标跟踪装置,所述装置包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1所述的方法步骤。
CN202010518074.XA 2020-06-09 2020-06-09 一种基于代理共享网络的多无人机单目标跟踪方法及装置 Pending CN111833378A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010518074.XA CN111833378A (zh) 2020-06-09 2020-06-09 一种基于代理共享网络的多无人机单目标跟踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010518074.XA CN111833378A (zh) 2020-06-09 2020-06-09 一种基于代理共享网络的多无人机单目标跟踪方法及装置

Publications (1)

Publication Number Publication Date
CN111833378A true CN111833378A (zh) 2020-10-27

Family

ID=72899340

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010518074.XA Pending CN111833378A (zh) 2020-06-09 2020-06-09 一种基于代理共享网络的多无人机单目标跟踪方法及装置

Country Status (1)

Country Link
CN (1) CN111833378A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223060A (zh) * 2021-04-16 2021-08-06 天津大学 基于数据共享的多智能体协同跟踪方法、装置及存储介质
CN113705325A (zh) * 2021-06-30 2021-11-26 天津大学 基于动态紧凑记忆嵌入的可变形单目标跟踪方法及装置
CN114549985A (zh) * 2022-02-23 2022-05-27 清华大学 一种基于自监督对比学习的目标检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109544597A (zh) * 2018-11-14 2019-03-29 南京工业大学 一种基于视觉的四旋翼无人机目标跟踪方法、系统及装置
CN111127518A (zh) * 2019-12-24 2020-05-08 深圳火星探索科技有限公司 基于无人机的目标跟踪方法及装置
CN111161317A (zh) * 2019-12-30 2020-05-15 北京工业大学 一种基于多重网络的单目标跟踪方法
CN111241931A (zh) * 2019-12-30 2020-06-05 沈阳理工大学 一种基于YOLOv3的空中无人机目标识别和跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109544597A (zh) * 2018-11-14 2019-03-29 南京工业大学 一种基于视觉的四旋翼无人机目标跟踪方法、系统及装置
CN111127518A (zh) * 2019-12-24 2020-05-08 深圳火星探索科技有限公司 基于无人机的目标跟踪方法及装置
CN111161317A (zh) * 2019-12-30 2020-05-15 北京工业大学 一种基于多重网络的单目标跟踪方法
CN111241931A (zh) * 2019-12-30 2020-06-05 沈阳理工大学 一种基于YOLOv3的空中无人机目标识别和跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PENGFEI ZHU等: "Multi-Drone based Single Object Tracking with Agent Sharing Network", 《ARXIV:2003.06994V1 [CS.CV]》 *
欧丰林等: "多特征融合的无人机目标跟踪算法研究", 《哈尔滨商业大学学报( 自然科学版)》 *
王林: "多无人机协同目标跟踪问题建模与优化技术研究", 《中国博士学位论文全文数据库·工程科技Ⅱ辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223060A (zh) * 2021-04-16 2021-08-06 天津大学 基于数据共享的多智能体协同跟踪方法、装置及存储介质
CN113705325A (zh) * 2021-06-30 2021-11-26 天津大学 基于动态紧凑记忆嵌入的可变形单目标跟踪方法及装置
CN114549985A (zh) * 2022-02-23 2022-05-27 清华大学 一种基于自监督对比学习的目标检测方法及系统
CN114549985B (zh) * 2022-02-23 2023-01-31 清华大学 一种基于自监督对比学习的目标检测方法及系统

Similar Documents

Publication Publication Date Title
Zhu et al. Detection and tracking meet drones challenge
CN107274433B (zh) 基于深度学习的目标跟踪方法、装置及存储介质
Wen et al. Detection, tracking, and counting meets drones in crowds: A benchmark
Leal-Taixé et al. Tracking the trackers: an analysis of the state of the art in multiple object tracking
Li et al. Visual object tracking for unmanned aerial vehicles: A benchmark and new motion models
Milan et al. MOT16: A benchmark for multi-object tracking
CN104244113B (zh) 一种基于深度学习技术的视频摘要生成方法
Maffra et al. tolerant place recognition combining 2D and 3D information for UAV navigation
Ma et al. Action recognition and localization by hierarchical space-time segments
CN113139620A (zh) 基于目标关联学习的端到端多目标检测与跟踪联合方法
CN111833378A (zh) 一种基于代理共享网络的多无人机单目标跟踪方法及装置
Wang et al. Learning attentional recurrent neural network for visual tracking
Yao et al. When, where, and what? A new dataset for anomaly detection in driving videos
Wen et al. Visdrone-sot2018: The vision meets drone single-object tracking challenge results
Bisio et al. A systematic review of drone based road traffic monitoring system
Zhu et al. Multi-drone-based single object tracking with agent sharing network
Wang et al. Towards visible and thermal drone monitoring with convolutional neural networks
CN111832413A (zh) 基于时空多尺度网络的人流密度图估计、定位和跟踪方法
Feng et al. Cityflow-nl: Tracking and retrieval of vehicles at city scale by natural language descriptions
CN107194366B (zh) 基于稠密轨迹协方差描述子的行为识别方法
CN103413324A (zh) 航拍视频自动目标跟踪方法
Zhang et al. Coarse-to-fine object detection in unmanned aerial vehicle imagery using lightweight convolutional neural network and deep motion saliency
Li et al. Tracknet: Simultaneous object detection and tracking and its application in traffic video analysis
CN105913459B (zh) 基于高分辨率连拍图像的运动目标检测方法
Qian et al. DAL: A deep depth-aware long-term tracker

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20201027

WD01 Invention patent application deemed withdrawn after publication