CN110276321A - 一种遥感视频目标跟踪方法及系统 - Google Patents
一种遥感视频目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN110276321A CN110276321A CN201910562391.9A CN201910562391A CN110276321A CN 110276321 A CN110276321 A CN 110276321A CN 201910562391 A CN201910562391 A CN 201910562391A CN 110276321 A CN110276321 A CN 110276321A
- Authority
- CN
- China
- Prior art keywords
- sample
- remote sensing
- target
- negative sample
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012549 training Methods 0.000 claims abstract description 87
- 238000005070 sampling Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims description 46
- 230000003416 augmentation Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 238000009826 distribution Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000009429 distress Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000013016 learning Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种遥感视频目标跟踪方法及系统,该方法包括:对当前帧的遥感视频图像进行采样,获得多个负样本;基于每个负样本分别对应的价值对负样本进行筛选,获得多个负样本中的难例样本;将每个难例样本分别输入目标跟踪模型,获得目标跟踪模型输出的每个难例样本对应的二维向量;根据每个难例样本对应的二维向量,获得当前帧的遥感视频图像的目标跟踪位置;基于难例样本对目标跟踪模型进行训练,采用训练后获得的目标跟踪模型对下一帧所述遥感视频图像进行目标跟踪。本发明实施例提供的遥感视频目标跟踪方法,采用将每次跟踪获得的难例样本对目标跟踪模型进行训练,增加目标与典型易混目标的区分能力,有效的提高了跟踪的精准度和时效性。
Description
技术领域
本发明涉及计算机技术领域,更具体地,涉及一种遥感视频目标跟踪方法及系统。
背景技术
随着高分辨率成像技术及人工智能处理技术的快速发展,无人机视角下的遥感目标跟踪在军事侦察、土地监测、嫌犯追捕等领域具有重要意义。由于在无人机视角下所拍摄的图像存在分辨率不高、跟踪目标所占像素小、尺度和视角变化大以及场景相似干扰物多等特点,容易导致跟踪任务失败。但是,如果直接采用在平视视角跟踪中效果较好的深度学习类跟踪算法则无法兼顾无人机平台实时性的要求。
为了克服上述不足,许多研究者付出了巨大的努力。主要的研究方向为:一方面,Hare等人提出的Struck算法,即利用在线结构输出SVM学习方法对目标进行跟踪;Kalal等人提出的TLD算法通过一种改进的在线学习机制实现高效跟踪;但是,这些方法的计算量巨大,在无人机平台硬件和计算资源约束的情况下,难以满足遥感目标跟踪的实时性要求。另一方面,Danelljan等人提出的SRDCF方法,利用高斯分布提出新的惩罚项,可有效的抑制背景区域的响应。然而,此方法在面对目标周围有相似物体干扰时会出现多个疑似目标的响应,无人机视角下这样的情况常常出现,易导致错误跟踪的情况出现。再一方面,随着深度学习在计算机视觉领域的发展,最近深度学习开始用于目标跟踪都具有较高的检测精度。然而,由于该方法通常利用网络的深度结构设计来提升跟踪精度,跟踪的效率将会受到较大的影响。综上所述,目前在无人机视角的遥感视屏目标跟踪的方法均无法同时满足跟踪的稳定性、时效性和准确性。
发明内容
为了解决上述问题,本发明实施例提供一种克服上述问题或者至少部分地解决上述问题的遥感视频目标跟踪方法及系统。
本发明实施例的第一方面提供一种遥感视频目标跟踪方法,该方法包括:对当前帧的遥感视频图像进行采样,获得多个负样本;基于每个负样本分别对应的价值对负样本进行筛选,获得多个负样本中的难例样本;将每个难例样本分别输入目标跟踪模型,获得目标跟踪模型输出的每个难例样本对应的二维向量;根据每个难例样本对应的二维向量,获得当前帧的遥感视频图像的目标跟踪位置;基于难例样本对目标跟踪模型进行训练,采用训练后获得的目标跟踪模型对下一帧遥感视频图像进行目标跟踪。
本发明实施例的第二方面提供一种遥感视频目标跟踪系统,该系统包括:第一处理模块、第二处理模块、第三处理模块、第四处理模块和第五处理模块,其中:第一处理单元用于对当前帧的遥感视频图像进行采样,获得多个负样本;第二处理模块用于基于每个负样本分别对应的价值对负样本进行筛选,获得多个负样本中的难例样本;第三处理模块用于将每个难例样本分别输入目标跟踪模型,获得所述目标跟踪模型输出的每个难例样本对应的二维向量;第四处理模块用于根据每个所述难例样本对应的二维向量,获得当前帧的遥感视频图像的目标跟踪位置;第五处理模块用于基于难例样本对目标跟踪模型进行训练,采用训练后获得的目标跟踪模型对下一帧遥感视频图像进行目标跟踪。
本发明实施例提供的一种遥感视频目标跟踪方法及系统,通过将每次跟踪获得的难例样本对目标跟踪模型进行训练,增加目标与典型易混目标的区分能力,有效的提高了跟踪的精准度和时效性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些图获得其他的附图。
图1为本发明实施例提供的遥感视频目标跟踪方法的流程示意图;
图2为本发明实施例提供的遥感视频目标跟踪方法中基于周域距离权重的负样本筛选方法示意图;
图3为本发明实施例提供的遥感视频目标跟踪方法中多尺度旋转的WGANs生成预训练负样本的流程图;
图4为本发明实施例提供的遥感视频目标跟踪系统的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种遥感视频目标跟踪方法,参见图1,该方法包括但不限于以下步骤:步骤101,对当前帧的遥感视频图像进行采样,获得多个负样本;步骤102,基于每个所述负样本分别对应的价值对负样本进行筛选,获得多个负样本中的难例样本;步骤103,将每个难例样本分别输入目标跟踪模型,获得目标跟踪模型输出的每个难例样本对应的二维向量;步骤104,根据每个难例样本对应的二维向量,获得当前帧的遥感视频图像的目标跟踪位置;步骤105,基于难例样本对目标跟踪模型进行训练,采用训练后获得的目标跟踪模型对下一帧所述遥感视频图像进行目标跟踪。
具体地,在步骤101中,可以利用固定翼型无人机或者无人驾驶直升机,进行遥感视频的获取。其中无人机上携带有相应的机载遥感设备,如高分辨率CCD数码相机、轻型光学相机、多光谱成像仪、红外扫描仪,激光扫描仪、磁测仪或合成孔径雷达等。本发明实施例所提供的遥感视频目标跟踪方法对如何利用无人机获取遥感视频图像不作具体限定。
另外,在步骤101中,当每获取到由无人机发送的当前帧的遥感视频图像后,对该遥感视频图像进行采样,获取满足要求的指定数量的负样本。并且,为了达到更好的跟踪效果,可对采样精度和采样实时性进行综合考虑后合理设置采样的负样本的数量。
进一步地,由于经过步骤101处理,即通过当前帧的遥感视频图像,获取到与其相对应的多个负样本后,若同时对所有的负样本进行图像处理,则存在如下两方面问题:一方面,由于处理的样本数量过多,将会降低系统的运算效率,满足不了跟踪时效性的要求;另一方面,若对无效样本进行图像处理,会极大的影响获取到最终结果的收敛性和跟踪精度。因此在利用负样本进行目标跟踪分析之前,进行步骤102的处理,即对所有的负样本进行筛选,获取其中对目标跟踪的有效样本,通过筛选可具有如下两方面的有益效果:一方面,减小对负样本进行分析计算的工作量,有效的提高跟踪的时效性;另一方面,在排除无效负样本后,能够有效的提高跟踪的精准度。通过对所有的采样负样本进行筛选并获取到有效负样本,由于经过上述方法获取到的有效负样本最能影响跟踪遥感目标的性能,因此将该有效负样本设为难例样本。
在步骤103中,当获取到多个难例样本后,将每个难例样本分别输入到经过训练的目标跟踪模型中;该目标跟踪模型接收到所有的难例样本后,经过分析处理可以获得与每个难例样本相对应的一个二维向量。进而进行步骤104的处理,即根据获取到的二维向量进行分析比较,获取到当前帧的遥感视频图像的目标跟踪位置。
进一步地,当图像处理系统接收到由无人机获取到的多个视频图像后,由于该视频图像具有获取上的时间顺序,而该时间顺序往往对应着获取到跟踪目标的无人机在该时间段内的位置移动以及跟踪目标的位置移动,因此,当依次对获取到的视频图像进行处理后,可以获取在一个时间段内的跟踪目标的位置。将获取到的每一帧视频图像上的跟踪目标的位置在一个平面上进行展示,可以获取到所要跟踪目标的移动轨迹。
进一步地,在对当前帧的遥感视频图像进行分析后,获取到难例样本。而由于上述难例样本对目标跟踪的精确性影响最大,因此,该难例样本具有极高的训练价值。所以,一方面进行步骤104的处理,即通过该难例样本获取到本帧遥感视频图像中目标跟踪位置;另一方面,进行步骤105的处理,即将获取到的难例负样本作为目标跟踪模型的输入,对目标跟踪模型进行训练。并将训练后所获得的新的目标跟踪模型用于对下一帧遥感视频图像的目标跟踪中。
本发明实施例所提供的遥感视频目标跟踪方法,通过采用将每次跟踪获得的难例样本对目标跟踪模型进行再训练,从而增加目标与典型易混目标的区分能力,有效的提高了跟踪的精准度和时效性。
结合上述实施例,进一步地,本发明实施例提供的遥感视频目标跟踪方法,该方法中包含但不限于,一种对当前帧的遥感视频图像进行采样,获得多个负样本的方法,包括:基于多维高斯分布形式对所述当前帧的遥感视频图像进行采样,获得多个所述负样本;
相应地,如图2所示,基于每个所述负样本所分别对应的价值对该负样本进行筛选,包括但不限于,利用周域距离权重模型计算每个负样本分别对应的价值,并根据价值的大小对所述负样本进行筛选。
其中,利用周域距离权重模型计算每个负样本分别对应的价值,并根据价值的大小对负样本进行筛选,具体步骤包括但不限于:
首先,利用周域距离权重模型计算每个负样本的样本距离值;筛选出所述样本距离值大于设定阈值的样本距离值所对应的负样本,并将筛选出的负样本作为难例样本;其中,所述周域距离权重模型的计算公式为:
其中,S为负样本中心距离上一帧遥感视频图像中跟踪目标位置的距离;σ2取值为2.5;d为负样本距离值。
具体地,经过多次实验计算发现,一方面,在无人机视角下的遥感目标跟踪的过程中,由于现有拍照摄像技术的高速发展,更多的高采样频率和高采样点数的摄像仪器被应用于无人机上,故无人机所拍摄获取到的每帧遥感视频图像间的跟踪目标相对位移量也会非常的有限;另一方面,在影响跟踪目标性能的易混目标中,导致跟踪性能下降的往往是跟踪目标周域的易混目标,而非远距离的易混目标,即越靠近跟踪目标的易混目标越容易对跟踪结果造成混淆。因此本发明实施例提供的利用周域距离权重模型对每个负样本进行计算,该计算结果则为每个负样本的样本距离值,该距离值用于表征每个负样本的有效性。
进一步地,根据不同跟踪目标对精准度的要求,设定合适的样本距离阈值,当样本距离值小于该设定样本距离阈值时,则判定与该样本距离值所对应的负样本为无效样本;当样本距离值大于该设定样本距离阈值时,则判定与该样本距离值所对应的负样本为有效样本。依次对所有基于多维高斯分布形式对当前帧的遥感视频图像进行采样所获得的负样本,利用周域距离权重模型进行计算,并根据各负样本的样本距离值和设定的样本距离阈值进行比较,筛选出有效负样本,并将所有的有效负样本的样本距离值进行比较后排序。可以取样本距离值最大的设定数量的负样本作为难例样本。在实际运用中,由每个当前帧的遥感视频图像经过上述实施例记载的方法处理后可以获得多个难例样本。
结合上述实施例,进一步地,经过运行试验发现,当基于多维高斯分布形式对当前帧的遥感视频图像进行采样获取到256个负样本,且样本距离阈值设定为0.007时,可取样本距离值最大的48个负样本作为难例样本。将上述48个难例样本分别输入到目标跟踪模型,从而获取到与上述的48个难例样本分别对应的二维向量,并进一步根据该所有二维向量获取到目标的跟踪位置时,跟踪的实时性能、精准性能最好。
本发明实施例所提供的遥感视频目标跟踪方法,通过基于多维高斯分布形式对所述当前帧的遥感视频图像进行采样,获得多个所述负样本,并利用周域距离权重模型计算每个所述负样本分别对应的价值,并根据所述价值的大小对相应的负样本进行筛选,完成了通过无人机遥感视频图像的分析,实现了对跟踪目标的高时效精准跟踪。
结合上述实施例,进一步地,在遥感视频目标跟踪方法在将所述每个难例样本输入至目标跟踪模型之前,本发明实施例还提供一种对该目标跟踪模型进行训练的方法,包括但不限于以下步骤:提取训练视频序列的训练负样本;将训练负样本输入至WGANS网络,获取到多个易混训练负样本;将每个易混训练负样本按设定角度进行多次迭代旋转处理,获取多角度易混训练负样本;将获取到的多角度易混训练负样本按角度的不同划分成多个大组;将划分出来的大组中的所有易混训练负样本,按迭代次数的大小依次分成多个小组;利用隔点采样的方法,将迭代次数小的相应的小组内的所有易混训练负样本按指定倍数进行像素缩小,获得高斯金字塔式的增广后训练负样本;基于所述增广后训练负样本对MDnet网络模型进行训练,获得训练完成的所述目标跟踪模型。
具体地,由于现有技术中对利用无人机获取到的遥感视频图像进行图像处理方法无法保证跟踪的精准度,而在图像处理的过程中,使用各种深度学习的方法又无法兼顾时效性。又由于MDNet网络模型从不同的分布生成正样本和负样本,并具有有用的通用特征表示,具有良好的收敛性,尽管从广泛应用的平视角度来看,它在跟踪方面表现出色,但从无人机的遥感视角来看,由于无人机平台的晃动和目标的高频方位变化,以及MDNet网络模型的离线预训练阶段,难以获取足够样本参与预训练模型训练的问题,一直影响着MDnet网络模型运用于无人机目标跟踪中所获取的结果的准确性和时效性。因此,本发明实施例采用MDNet网络模型作为目标跟踪模型的网络模型类型。
图3为本发明实施例提供的遥感视频目标跟踪方法中多尺度旋转的WGANs生成预训练负样本的流程图,如图3所示,(图3中仅展示旋转角度为0°和270°时的易混训练负样本生成流程图)具体地训练步骤包括但不限于:针对每一个训练视频序列,依次提取该训练视频序列中的多张视频图像;依次对每一张视频图像进行如下处理:
首先,提取该训练视频序列中的多个训练负样本,特别是一些典型的对目标跟踪产生较大混淆的负样本;然后,将该训练负样本输入至WGANS网络模型中,可以获取到大量的易混训练负样本;进一步地,将每个易混训练负样本按设定的角度进行迭代旋转,以模拟无人机平台的晃动,处理后,将可以获取不同角度的易混训练负样本。对每个角度的旋转结果进行记录。比如将某个易混训练负样本进行90°的迭代旋转,则在旋转的过程中,依次记录该易混训练负样本在旋转到90°、180°、270°和360°的样本图像,并依次迭代旋转,则进一步的获取到该易混训练负样本在旋转到90°的多个图像、旋转到180°多个图像、旋转到270多个图像°和旋转到360°的多个图像,所述图像的个数为指定迭代的次数。比如,在图3给出的示例中,依次记录迭代次数为:0.7K、2.2K、6.5K以及10K时,该易混训练负样本在旋转到90°、180°、270°和360°的样本图像。此时相当于通过一张易混训练负样本获取到不同角度、不同迭代次数的图像共计16张。按照上述方法对所有的易混训练负样本进行迭代旋转处理,并记录下相应迭代次数的处理图像。
进一步地,将每个角度易混训练负样本的多个图像分为一个大组,并将所述每个大组中的处理后的易混训练负样本,按照迭代次数的不同划分为多个小组。
进一步地,利用隔点采样的方法,将迭代次数小的所述小组内的所述易混训练负样本按指定倍数缩小。然后,对第一大组内的所有易混训练负样本按照迭代次数的不同依次划分为多个小组,利用隔点采样法,由下至上依次将下一组的图像缩小至上一组的指定倍数,形成高斯金字塔式的增广后训练负样本。
如图3所示,将上述经过迭代旋转处理的所有易混训练负样本,首先按照旋转的角度划分为4个大组,即旋转至90°时的所有易混训练负样本为第一大组、旋转至180°时的所有易混训练负样本为第二大组、旋转至270°时的所有易混训练负样本为第三大组,以及旋转至270°时的所有易混训练负样本为第四大组;则是首先按照迭代次数的大小,先对大组内的小组进行排序,底层的为迭代次数最大的。如图3所示,各小组的迭代次数由上至下分别为0.7K、2.2K、6.5K以及10K。进一步地,利用隔点采样法,将迭代次数为6.5K的小组内所有的样本大小缩小至原来的1/4;进一步地,将迭代次数为2.2K的小组内所有的样本大小缩小至6.5K的小组内缩小后的样本的1/4并依次对所有的易混训练负样本进行上述操作,进而获取到如图3所示的多角度高斯金字塔式的增广后训练负样本。
进一步地,将所获取到的多角度高斯金字塔式的增广后训练负样本对MDnet网络模型进行训练,从而获取到目标跟踪模型。
本发明实施例所提供的遥感视频目标跟踪方法,通过采用多尺度旋转的WGANs增强策略来产生多角度高斯金字塔式的增广后训练样本,并利用该增广后训练样本对MDnet网络模型进行预训练,增强了将跟踪目标与典型易混目标进行区分的能力,为了提高目标跟踪网络的鲁棒性,有效的提高跟踪精准度。
结合上述实施例,进一步地,本发明实施例提供的遥感视频目标跟踪方法,其中,在将多角度易混训练负样本按角度的不同划分成多个大组之前,还包括:利用高斯滤波处理对多角度易混训练负样本进行筛选。
具体地,在将所有的易混训练负样本采用多尺度旋转的WGANs增强策略,产生多角度高斯金字塔式的增广后训练样本后,由于部分易混训练负样本在迭代旋转的过程中会产生图像失真等情况。一方面,考虑到部分增广后训练样本不具有对MDnet网络模型进行预训练的价值;另一方面,利用没有训练价值的样本对MDnet网络模型进行预训练,会增加训练的时间和难度,进而也会影响到采用训练后的MDnet网络模型进行目标跟踪的准确性和时效性。因此,在将多角度易混训练负样本按角度的不同划分成多个大组之前,包括但不限于利用高斯滤波处理对多角度易混训练负样本进行筛选,将明显不具有训练价值的样本进行剔除。
结合上述实施例,进一步地,本发明实施例提供的遥感视频目标跟踪方法,在将每个难例样本分别输入目标跟踪模型之前,还包括:将难例样本的像素大小统一设置为指定像素。
具体地,为了进一步地提高目标跟踪的实时性,在将难例样本输入至目标跟踪模型之前进行相应的图像处理,使所有的难例样本的像素大小进行统一。进一步地,在对目标跟踪模型进行训练时的输入该目标跟踪模型的所有输入样本的像素大小也进行相应的统一。
最好为:将获得的所有难例样本先进行像素统一后,一方面将其输入目标跟踪模型以对该目标跟踪模型进行训练,并利用该训练后的目标跟踪模型对下一帧遥感视频图像进行处理;另一方面,根据统一像素后的本帧遥感视频图像难例样本,输入至目标跟踪模型,获取到目标跟踪模型的输出二维向量,可以通过该二维向量获取到本帧遥感视频图像上的跟踪目标位置。
结合上述实施例,进一步地,本发明实施例提供的遥感视频目标跟踪方法,其中,根据目标跟踪模型的输出二维向量,获取到本帧遥感视频图像中跟踪目标的位置,其中该二维向量的x轴值用于表示跟踪目标概率;该二维向量的y轴值用于表示跟踪目标的背景概率。根据获取到的二维向量,获取该向量所对应的每个难例样本为跟踪目标的概率值。比较出该概率值最大的一个难例样本位置为本帧遥感视频图像上的跟踪目标位置。
图4为本发明实施例提供的遥感视频目标跟踪系统的结构示意图,如图4所示,本发明实施例所提供的一种遥感视频目标跟踪系统,包括:
第一处理模块401用于对当前帧的遥感视频图像进行采样,获得多个负样本;第二处理模块402用于基于每个负样本分别对应的价值对负样本进行筛选,获得多个负样本中的难例样本;第三处理模块403用于将每个难例样本分别输入目标跟踪模型,获得目标跟踪模型输出的每个难例样本对应的二维向量;第四处理模块404用于根据每个难例样本对应的二维向量,获得当前帧的遥感视频图像的目标跟踪位置;第五处理模块405用于基于难例样本对目标跟踪模型进行训练,采用训练后获得的目标跟踪模型对下一帧遥感视频图像进行目标跟踪。
具体地,当遥感视频目标跟踪系统获取到由无人机上携带的机载遥感设备获取并发送的遥感视频图像后,遥感视频目标跟踪系统中的第一处理模块401对获取到的遥感视频图像进行采样分析,获取到满足跟踪需要的一定数量的负样本;并利用第二处理单元402对有第一处理单元401所获取到的所有负样品进行筛选,并将满足筛选条件的所有有效负样品按照有效程度进行排序并再次进行筛选,选取有效程度高的指定数量的有效负样本组成难例样本。当第二处理单元402获取到指数量的难例样本后,一方面,第三处理模块403将上述获取到的每个难例样本作为输入项,分别输入到经过预训练后的输入目标跟踪模型中,并获取到该目标跟踪模型的输出,即获取每个难例样本相对应的二维向量,第四处理模块404根据获取到的所有二维向量,经过比较分析,获取当前帧的遥感视频图像的目标跟踪位置;另一方面,第五处理模块405将经过第三处理模块403所获取的所有难例样品对目标跟踪模型进行训练,并采用训练后获得的所述目标跟踪模型对下一帧所述遥感视频图像进行目标跟踪。
需要指出的是,本发明实施例的遥感视频目标跟踪系统可以用于执行上述方法实施例,其原理和技术效果类似,此处不再赘述。
本发明实施例提供的遥感视频目标跟踪方法及系统,通过采用多尺度旋转的WGANs增强策略来产生典型易混的负样本,对目标跟踪模型进行预训练;并将每次跟踪获得的难例样本对目标跟踪模型进行循环训练,从而增加跟踪目标与典型易混目标的区分能力,有效的提高了目标跟踪的精准度和时效性。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
需要说明的是术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明的说明书中,说明了大量具体细节。然而能够理解的是,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。类似地,应当理解,为了精简本发明公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释呈反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
以上实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种遥感视频目标跟踪方法,其特征在于,包括:
对当前帧的遥感视频图像进行采样,获得多个负样本;
基于每个所述负样本分别对应的价值对所述负样本进行筛选,获得多个负样本中的难例样本;
将每个所述难例样本分别输入目标跟踪模型,获得所述目标跟踪模型输出的每个所述难例样本对应的二维向量;
根据每个所述难例样本对应的二维向量,获得所述当前帧的遥感视频图像的目标跟踪位置;
基于所述难例样本对所述目标跟踪模型进行训练,采用训练后获得的所述目标跟踪模型对下一帧所述遥感视频图像进行目标跟踪。
2.根据权利要求1所述的遥感视频目标跟踪方法,其特征在于,所述对当前帧的遥感视频图像进行采样,获得多个负样本,包括,
基于多维高斯分布形式对所述当前帧的遥感视频图像进行采样,获得多个所述负样本;
相应地,所述基于每个所述负样本分别对应的价值对所述负样本进行筛选,包括,
利用周域距离权重模型计算每个所述负样本分别对应的价值,并根据所述价值的大小对所述负样本进行筛选。
3.根据权利要求2所述的遥感视频目标跟踪方法,其特征在于,所述利用周域距离权重模型计算每个所述负样本分别对应的价值,并根据所述价值的大小对所述负样本进行筛选,包括:
利用所述周域距离权重模型计算每个所述负样本的样本距离值;
筛选出所述样本距离值大于设定阈值的所述样本距离值所对应的负样本,并将筛选出的所述负样本作为所述难例样本;
其中,所述周域距离权重模型的计算公式为:
其中,S为负样本中心距离上一帧遥感视频图像中跟踪目标位置的距离;σ2取值为2.5;d为负样本距离值。
4.根据权利要求1所述的遥感视频目标跟踪方法,其特征在于,在将所述每个难例样本输入至目标跟踪模型之前,还包括:
提取训练视频序列的训练负样本;将所述训练负样本输入至WGANS网络,获取到多个易混训练负样本;
将每个所述易混训练负样本按设定角度进行多次迭代旋转处理,获取多角度易混训练负样本;
将所述多角度易混训练负样本按角度的不同划分成多个大组;将每个所述大组中的所述易混训练负样本,按迭代次数的大小依次分成多个小组;
利用隔点采样的方法,将迭代次数小的所述小组内的所述易混训练负样本按指定倍数缩小,获得高斯金字塔式的增广后训练负样本;
基于所述增广后训练负样本对MDnet网络模型进行训练,获得训练完成的所述目标跟踪模型。
5.根据权利要求4所述的遥感视频目标跟踪方法,其特征在于,在所述将所述多角度易混训练负样本按角度的不同划分成多个大组之前,还包括:
利用高斯滤波处理对所述多角度易混训练负样本进行筛选,剔除不具有训练价值的所述多角度易混训练负样本。
6.根据权利要求1所述的遥感视频目标跟踪方法,其特征在于,在将每个所述难例样本分别输入目标跟踪模型之前,还包括:
将所述难例样本的像素大小统一设置为指定像素。
7.根据权利要求1所述的遥感视频目标跟踪方法,其特征在于,所述二维向量的x轴值用于表示跟踪目标概率;所述二维向量的y轴值用于表示所述跟踪目标的背景概率。
8.一种遥感视频目标跟踪系统,其特征在于,包括:
第一处理模块,所述第一处理单元用于对当前帧的遥感视频图像进行采样,获得多个负样本;
第二处理模块,所述第二处理模块用于基于每个所述负样本分别对应的价值对所述负样本进行筛选,获得多个负样本中的难例样本;
第三处理模块,所述第三处理模块用于将每个所述难例样本分别输入目标跟踪模型,获得所述目标跟踪模型输出的每个所述难例样本对应的二维向量;
第四处理模块,所述第四处理模块用于根据每个所述难例样本对应的二维向量,获得所述当前帧的遥感视频图像的目标跟踪位置;
第五处理模块,所述第五处理模块用于基于所述难例样本对所述目标跟踪模型进行训练,采用训练后获得的所述目标跟踪模型对下一帧所述遥感视频图像进行目标跟踪。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019105009611 | 2019-06-11 | ||
CN201910500961 | 2019-06-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110276321A true CN110276321A (zh) | 2019-09-24 |
Family
ID=67963376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910562391.9A Pending CN110276321A (zh) | 2019-06-11 | 2019-06-26 | 一种遥感视频目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110276321A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807795A (zh) * | 2019-10-31 | 2020-02-18 | 北方工业大学 | 一种基于MDnet的无人机遥感目标跟踪方法及装置 |
CN110956643A (zh) * | 2019-12-04 | 2020-04-03 | 齐鲁工业大学 | 一种基于MDNet的改进车辆跟踪方法及系统 |
CN112802050A (zh) * | 2021-01-25 | 2021-05-14 | 商汤集团有限公司 | 网络训练、目标跟踪方法及装置、电子设备和存储介质 |
CN112966429A (zh) * | 2020-08-11 | 2021-06-15 | 中国矿业大学 | 基于WGANs数据增强的非线性工业过程建模方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160108979A (ko) * | 2015-03-09 | 2016-09-21 | 한화테크윈 주식회사 | 표적 추적 방법 및 장치 |
CN108960086A (zh) * | 2018-06-20 | 2018-12-07 | 电子科技大学 | 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法 |
CN108960143A (zh) * | 2018-07-04 | 2018-12-07 | 北京航空航天大学 | 一种高分辨率可见光遥感图像中的舰船检测深度学习方法 |
CN109409222A (zh) * | 2018-09-20 | 2019-03-01 | 中国地质大学(武汉) | 一种基于移动端的多视角人脸表情识别方法 |
-
2019
- 2019-06-26 CN CN201910562391.9A patent/CN110276321A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160108979A (ko) * | 2015-03-09 | 2016-09-21 | 한화테크윈 주식회사 | 표적 추적 방법 및 장치 |
CN108960086A (zh) * | 2018-06-20 | 2018-12-07 | 电子科技大学 | 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法 |
CN108960143A (zh) * | 2018-07-04 | 2018-12-07 | 北京航空航天大学 | 一种高分辨率可见光遥感图像中的舰船检测深度学习方法 |
CN109409222A (zh) * | 2018-09-20 | 2019-03-01 | 中国地质大学(武汉) | 一种基于移动端的多视角人脸表情识别方法 |
Non-Patent Citations (1)
Title |
---|
FUKUN BI等: "Remote Sensing Target Tracking in UAV Aerial Video Based on Saliency Enhanced MDnet", 《IEEE ACCESS(VOLUME: 7)》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807795A (zh) * | 2019-10-31 | 2020-02-18 | 北方工业大学 | 一种基于MDnet的无人机遥感目标跟踪方法及装置 |
CN110956643A (zh) * | 2019-12-04 | 2020-04-03 | 齐鲁工业大学 | 一种基于MDNet的改进车辆跟踪方法及系统 |
CN112966429A (zh) * | 2020-08-11 | 2021-06-15 | 中国矿业大学 | 基于WGANs数据增强的非线性工业过程建模方法 |
CN112802050A (zh) * | 2021-01-25 | 2021-05-14 | 商汤集团有限公司 | 网络训练、目标跟踪方法及装置、电子设备和存储介质 |
CN112802050B (zh) * | 2021-01-25 | 2024-04-16 | 商汤集团有限公司 | 网络训练、目标跟踪方法及装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110276321A (zh) | 一种遥感视频目标跟踪方法及系统 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
WO2020052678A1 (en) | Method and system for generating synthetic point cloud data using a generative model | |
Chen et al. | An Apple Detection Method Based on Des‐YOLO v4 Algorithm for Harvesting Robots in Complex Environment | |
CN110458895A (zh) | 图像坐标系的转换方法、装置、设备及存储介质 | |
CN110084165A (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN111260687B (zh) | 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法 | |
CN112818969A (zh) | 一种基于知识蒸馏的人脸姿态估计方法及系统 | |
CN112861808B (zh) | 动态手势识别方法、装置、计算机设备及可读存储介质 | |
CN104424631A (zh) | 一种基于枪球联动系统的坐标关联方法及装置 | |
CN109313806A (zh) | 图像处理装置、图像处理系统、图像处理方法和程序 | |
CN112364843A (zh) | 插拔式航拍图像目标定位检测方法、系统、设备 | |
CN109118544A (zh) | 基于透视变换的合成孔径成像方法 | |
CN106022266A (zh) | 一种目标跟踪方法及装置 | |
CN110136162A (zh) | 无人机视角遥感目标跟踪方法及装置 | |
WO2024060978A1 (zh) | 关键点检测模型训练及虚拟角色驱动的方法和装置 | |
Baisware et al. | Review on recent advances in human action recognition in video data | |
Wang et al. | Prior-guided data augmentation for infrared small target detection | |
CN115331127A (zh) | 一种基于注意力机制的无人机移动目标侦测方法 | |
Zhai et al. | Target Detection of Low‐Altitude UAV Based on Improved YOLOv3 Network | |
You et al. | UAV-Pose: A Dual Capture Network Algorithm for Low Altitude UAV Attitude Detection and Tracking | |
Dong et al. | Visual Detection Algorithm for Enhanced Environmental Perception of Unmanned Surface Vehicles in Complex Marine Environments | |
Liu et al. | Multiple objects tracking based vehicle speed analysis with Gaussian filter from drone video | |
CN111652168A (zh) | 基于人工智能的群体检测方法、装置、设备及存储介质 | |
Ying et al. | Large-Scale High-Altitude UAV-Based Vehicle Detection via Pyramid Dual Pooling Attention Path Aggregation Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190924 |
|
RJ01 | Rejection of invention patent application after publication |