CN111931686A - 一种基于背景知识增强的视频卫星目标跟踪方法 - Google Patents

一种基于背景知识增强的视频卫星目标跟踪方法 Download PDF

Info

Publication number
CN111931686A
CN111931686A CN202010872543.8A CN202010872543A CN111931686A CN 111931686 A CN111931686 A CN 111931686A CN 202010872543 A CN202010872543 A CN 202010872543A CN 111931686 A CN111931686 A CN 111931686A
Authority
CN
China
Prior art keywords
background
target
layer
frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010872543.8A
Other languages
English (en)
Other versions
CN111931686B (zh
Inventor
吕京国
白颖奇
王琛
曲宁宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Civil Engineering and Architecture
Original Assignee
Beijing University of Civil Engineering and Architecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Civil Engineering and Architecture filed Critical Beijing University of Civil Engineering and Architecture
Priority to CN202010872543.8A priority Critical patent/CN111931686B/zh
Publication of CN111931686A publication Critical patent/CN111931686A/zh
Application granted granted Critical
Publication of CN111931686B publication Critical patent/CN111931686B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及视频卫星目标跟踪领域,公开了一种基于背景知识增强的视频卫星目标跟踪方法,包括步骤:在第一帧图像中截取视频卫星目标,获得目标模板图像以及目标搜索区域图像;构建已训练好的双分支Siamese网络,生成目标模板特征图以及目标搜索区域特征图;构建三个级联的RPN网络,获得筛选后的高置信度预测框;建立背景识别模块,将高置信度预测框输入至背景识别模块中,获得当前帧图像的目标跟踪结果,在线训练所述背景识别模块、并对背景识别模块的场景类别更新。本发明通过背景离线训练,背景训练集更新、背景在线更新等处理,进行了背景强化,适用于不同复杂背景,最大限度去除背景干扰,解决目标“淹没”在背景中的问题,更加准确地跟踪到目标。

Description

一种基于背景知识增强的视频卫星目标跟踪方法
技术领域
本发明涉及视频卫星目标跟踪领域,具体地涉及一种基于背景知识增强的视频卫星目标跟踪方法。
背景技术
视频卫星从高空拍摄地面物体,成像方式、观测角度、空间分辨率等与地面视频有明显不同,导致卫星视频运动目标所占像素较少,缺乏纹理信息,运动目标的特征匮乏。相比地面视频数据,视频卫星图像对比度较低,运动目标和背景的可区分性和可识别性较弱。这些差别导致了针对地面视频的运动目标检测和跟踪算法不能很好地适用于卫星视频。
经典目标跟踪算法包括:基于递归贝叶斯、核密度估计、背景感知、在线分类学习、稀疏表达以及相关滤波的跟踪算法。这类算法虽然在典型的目标跟踪数据库上取得了良好的跟踪性能,但是它们通常需要手动设计特征,一定程度上影响算法的推广能力。另外在视频卫星目标跟踪任务中,其主要难点是背景干扰与遮挡。现有的视频卫星目标跟踪算法无法进行背景强化,并且现有目标跟踪算法不能够适用于不同复杂背景,无法去除背景干扰,不能解决目标“淹没”在背景中的问题,目标跟踪的准确率低。
发明内容
本发明提供一种基于背景知识增强的视频卫星目标跟踪方法,从而解决现有技术的上述问题。
一种基于背景知识增强的视频卫星目标跟踪方法,包括如下步骤:
S1)对视频卫星目标进行视频拍摄,获得视频序列图像,在视频序列图像的第一帧图像中截取视频卫星目标,获得目标模板图像以及目标搜索区域图像;
S2)构建已训练好的双分支Siamese网络,双分支Siamese网络包括两个并联的深度卷积神经网络,将目标模板图像、目标搜索区域图像分别作为两个并联的深度卷积神经网络的输入,生成目标模板特征图以及目标搜索区域特征图;
S3)构建三个级联的RPN网络,将目标模板特征图以及目标搜索区域特征图分别输入至三个级联的RPN网络,获得筛选后的高置信度预测框;
S4)建立背景识别模块,将高置信度预测框输入至背景识别模块中,获得当前帧图像的目标跟踪结果,在线训练所述背景识别模块、并对背景识别模块的场景类别进行更新。
进一步的,步骤S1)中,对视频卫星目标进行视频拍摄,获得视频序列图像,在视频序列图像的第一帧图像中截取视频卫星目标,获得目标模板图像以及目标搜索区域图像,包括如下步骤:
S11)确定待跟踪识别的视频卫星目标,在视频序列图像的第一帧图像中框选出一个包含待跟踪识别的视频卫星目标的目标矩形框,目标矩形框的大小为h×w;
S12)以目标矩形框的中心像素为中心,框选出预设大小为n×h×w的搜索背景区域框;
S13)将目标矩形框作为目标模板图像,将搜索背景区域框作为目标搜索区域图像,获得目标模板图像以及目标搜索区域图像。
进一步的,步骤S2)中,构建已训练好的双分支Siamese网络,双分支Siamese网络包括两个并联的深度卷积神经网络,将目标模板图像、目标搜索区域图像分别作为两个并联的深度卷积神经网络的输入,生成目标模板特征图以及目标搜索区域特征图,包括如下步骤:
S21)构建两个相互并联的深度卷积神经网络,两个相互并联的深度卷积神经网络的网络结构相同,每一个深度卷积神经网络包括若干个相互交替的卷积层、池化层、激活函数以及至少一个全连接层;
S22)对目标模板图像、目标搜索区域图像分别进行预处理,将目标模板图像和目标搜索区域图像分别缩放到预设尺寸大小;
S23)将缩放到预设尺寸大小的目标模板图像输入至两个相互并联的深度卷积神经网络中的其中一个深度卷积神经网络,将其中一个深度卷积神经网络的最后一层卷积层的输出作为目标模板图像特征,获得目标模板特征图;
S24)将缩放到预设尺寸大小的目标搜索区域图像输入至两个相互并联的深度卷积神经网络中的另一个深度卷积神经网络,将另一个深度卷积神经网络的最后一层卷积层的输出作为目标搜索区域图像特征,获得目标搜索区域特征图。
进一步的,步骤S21)中,两个相互并联的深度卷积神经网络分别采用AlexNet网络模型。
进一步的,步骤S3)中,构建三个级联的RPN网络,将目标模板特征图以及目标搜索区域特征图分别输入至三个级联的RPN网络,获得筛选后的高置信度预测框;三个级联的RPN网络包括第一层RPN网络、第二层RPN网络和第三层RPN网络,三个级联的RPN网络中的每一层RPN网络均包含一个分类层和一个回归层,包括如下步骤:
S31)将目标模板特征图和目标搜索区域特征图分别作为第一层RPN网络中的输入特征图,将输入特征图输入至第一层RPN网络;
S32)在输入特征图上分别设置不同尺寸和比例的锚框,第一层RPN网络的分类层输出若干个第一预测框的前景概率和背景概率;第一层RPN网络的回归层输出所述若干个第一预测框的位置回归坐标;设置第一层RPN网络前景概率阈值,将若干个第一预测框的前景概率分别与第一层RPN网络前景概率阈值进行比较,获得前景概率小于第一层RPN网络前景概率阈值的第一预测框;
S33)将前景概率小于第一层RPN网络前景概率阈值的第一预测框输入值第二层RPN网络,第二层RPN网络的分类层输出若干个第二预测框的前景概率和背景概率;第二层RPN网络的回归层输出若干个第二预测框的位置回归坐标;设置第二层RPN网络前景概率阈值,将若干个第二预测框的前景概率分别与第二层RPN网络前景概率阈值进行比较,获得前景概率小于第二层RPN网络前景概率阈值的第二预测框;
S33)将前景概率小于第二层RPN网络前景概率阈值的第二预测框输入值第三层RPN网络,第三层RPN网络的分类层输出若干个第三预测框的前景概率和背景概率;第三层RPN网络的回归层输出若干个第三预测框的位置回归坐标;设置第三层RPN网络前景概率阈值,将若干个第三预测框的前景概率分别与第三层RPN网络前景概率阈值进行比较,获得前景概率小于第三层RPN网络前景概率阈值的第三预测框;
S34)将前景概率小于第三层RPN网络前景概率阈值的第三预测框作为筛选后的高置信度预测框,获得筛选后的高置信度预测框。
进一步的,步骤S4)中,建立背景识别模块,将高置信度预测框输入至背景识别模块中,获得当前帧图像的目标跟踪结果,在线训练所述背景识别模块、并对背景识别模块的场景类别进行更新,包括如下步骤:
S41)获取遥感领域背景场景数据集,建立深度卷积神经网络模型,将深度卷积神经网络模型作为背景识别模块,对遥感领域背景场景数据集中的每一张遥感领域背景场景图像进行缩放、并将缩放后的遥感领域背景场景图像输入至背景识别模块,利用遥感领域背景场景数据集对背景识别模块进行离线训练,获得离线训练后的背景识别模块;背景识别模块包括若干个相互交替的背景识别模块卷积层、背景识别模块池化层、背景识别模块激活函数以及至少一个背景识别模块全连接层,最后一层背景识别模块全连接层连接Softmax分类层;Softmax分类层包括m个预设的遥感领域背景场景分类和d个遥感领域背景场景空值分类。d个遥感领域背景场景空值分类不参与背景识别模块的离线训练;
S42)对所有高置信度预测框进行缩放处理、并分别输入至离线训练后的背景识别模块中,获得每一个高置信度预测框的跟踪目标识别分数,将每一个高置信度预测框的跟踪目标识别分数进行比较,将跟踪目标识别分数最小的高置信度预测框作为最终目标跟踪结果;
S43)以跟踪目标识别分数最小的高置信度预测框为中心,在跟踪目标识别分数最小的高置信度预测框的四周提取v个尺寸大小相同的周围信息背景框,对所述v个尺寸大小相同的周围信息背景框分别设定相同的初始权重:x’1、x’2、…、x’v;x’v表示第v个周围信息背景框的初始权重;
S44)将若干个尺寸大小相同的周围信息背景框分别输入至离线训练后的背景识别模块,获得每个周围信息背景框的预测场景分数:h1、h2、…、hv;hv表示第v个周围信息背景框的预测场景分数;
S45)将步骤S42)中的最终目标跟踪结果作为下一帧图像的目标矩形框,将下一帧图像的目标矩形框缩放到h×w的尺寸大小,以缩放后的下一帧图像的目标矩形框的中心像素为中心,框选出预设大小为n×h×w的下一帧图像的搜索背景区域框,获得下一帧图像跟踪目标识别分类概率最小的高置信度预测框;
S46)确定当前帧图像中视频卫星目标相对于上一帧图像中视频卫星目标的偏移方向,在下一帧图像跟踪目标识别分类概率最小的高置信度预测框的四周提取v个尺寸大小相同的当前周围信息背景框,对v个尺寸大小相同的当前周围信息背景框更新权重
Figure BDA0002651586260000061
xi表示根据偏移方向确定的在偏移方向上的当前周围信息背景框权重;xj表示非偏移方向上的当前周围信息背景框权重,i∈[1,v],j∈[1,v],j≠i;通过非极大值抑制方法对v个尺寸大小相同的当前周围信息背景框进行筛选,获得视频卫星目标的当前场景信息。
本发明对当前周围信息背景框的权重进行了更新,不仅考虑了通过上一帧图像获得的v个周围信息背景框的预测场景分数以及权重,还考虑了当前帧图像中视频卫星目标相对于上一帧图像中视频卫星目标的偏移方向,最终获得当前周围信息背景框的各个权重,利用非极大值抑制方法把更新后的权重全部排序,选取权重最高的那个当前周围信息背景框,接下来计算其他当前周围信息背景框与权重最高的那个当前周围信息背景框的重合程度(iou),如果重合程度大于设定的阈值就删除,循环重复,最后获得唯一的能够表征当前场景最多信息的当前周围信息背景框,即获得视频卫星目标的当前场景信息。
进一步的,步骤S44)中,将若干个尺寸大小相同的周围信息背景框分别输入至所述离线训练后的背景识别模块,获得每个周围信息背景框的预测场景分数:h1、h2、…、hv;hv表示第v个周围信息背景框的预测场景分数,还包括如下步骤:
S441)将若干个尺寸大小相同的周围信息背景框分别输入至离线训练后的背景识别模块,判断第k个周围信息背景框的预测场景分数是否在已训练的m个预设的遥感领域背景场景分类中,若是,则利用离线训练后的背景识别模块获得每个周围信息背景框的预测场景分数;若否,则将第k个周围信息背景框填充到遥感领域背景场景数据集中、并重新训练背景识别模块,进入步骤S442);
S442)将若干个尺寸大小相同的周围信息背景框分别输入步骤S441)中重新训练后的背景识别模块,利用重新训练后的背景识别模块获得每个周围信息背景框的预测场景分数。
本发明的有益效果是:本发明充分利用了背景的丰富信息,通过背景离线训练,背景训练集更新、背景在线更新等处理,进行了背景强化,能够适用于不同复杂背景,最大限度去除背景干扰,解决目标“淹没”在背景中的问题,更加准确地跟踪到目标。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的基于背景知识增强的视频卫星目标跟踪方法的流程示意图。
图2是本发明实施例一提供的背景识别模块的训练过程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。需要说明的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便一系列单元的过程、方法、系统、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其他单元。
实施例一,一种基于背景知识增强的视频卫星目标跟踪方法,如图1所示,包括如下步骤:
S1)对视频卫星目标进行视频拍摄,获得视频序列图像,在视频序列图像的第一帧图像中截取视频卫星目标,获得目标模板图像以及目标搜索区域图像,包括如下步骤:
S11)确定待跟踪识别的视频卫星目标,在视频序列图像的第一帧图像中框选出一个包含待跟踪识别的视频卫星目标的目标矩形框,目标矩形框的大小为h×w;
S12)以目标矩形框的中心像素为中心,框选出预设大小为n×h×w的搜索背景区域框;
S13)将目标矩形框作为目标模板图像,将搜索背景区域框作为目标搜索区域图像,获得目标模板图像以及目标搜索区域图像。
S2),构建已训练好的双分支Siamese网络,双分支Siamese网络包括两个并联的深度卷积神经网络,两个相互并联的深度卷积神经网络分别采用AlexNet网络模型。将目标模板图像、目标搜索区域图像分别作为两个并联的深度卷积神经网络的输入,生成目标模板特征图以及目标搜索区域特征图,包括如下步骤:
S21)构建两个相互并联的深度卷积神经网络,两个相互并联的深度卷积神经网络的网络结构相同,每一个深度卷积神经网络包括若干个相互交替的卷积层、池化层、激活函数以及至少一个全连接层;
S22)对目标模板图像、目标搜索区域图像分别进行预处理,将目标模板图像和目标搜索区域图像分别缩放到预设尺寸大小;
S23)将缩放到预设尺寸大小的目标模板图像输入至两个相互并联的深度卷积神经网络中的其中一个深度卷积神经网络,将其中一个深度卷积神经网络的最后一层卷积层的输出作为目标模板图像特征,获得目标模板特征图;
S24)将缩放到预设尺寸大小的目标搜索区域图像输入至两个相互并联的深度卷积神经网络中的另一个深度卷积神经网络,将另一个深度卷积神经网络的最后一层卷积层的输出作为目标搜索区域图像特征,获得目标搜索区域特征图。
在步骤S2)前,包括对双分支Siamese网络进行训练,本实施例采用的训练数据是具有相似性的样本图像对以及不具有相似性的样本图像对,将样本图像对分别输入双Siamese网络的两分支网络,并获取双Siamese网络输出的样本图像对的相似性结果;计算双分支Siamese网络输出的样本图像对的相似性结果与该样本图像对已知的相似性结果之间的误差值,对网络参数反复进行调整,直到误差值小于预设误差值。
S3)构建三个级联的RPN网络,将目标模板特征图以及目标搜索区域特征图分别输入至三个级联的RPN网络,获得筛选后的高置信度预测框;三个级联的RPN网络包括第一层RPN网络、第二层RPN网络和第三层RPN网络,三个级联的RPN网络中的每一层RPN网络均包含一个分类层和一个回归层,包括如下步骤:
S31)将目标模板特征图和目标搜索区域特征图分别作为第一层RPN网络中的输入特征图,将输入特征图输入至第一层RPN网络;
S32)在输入特征图上分别设置不同尺寸和比例的锚框,第一层RPN网络的分类层输出若干个第一预测框的前景概率和背景概率;第一层RPN网络的回归层输出所述若干个第一预测框的位置回归坐标;设置第一层RPN网络前景概率阈值,第一层RPN网络前景概率阈值为0.4,将若干个第一预测框的前景概率分别与第一层RPN网络前景概率阈值进行比较,获得前景概率小于第一层RPN网络前景概率阈值的第一预测框;
S33)将前景概率小于第一层RPN网络前景概率阈值的第一预测框输入值第二层RPN网络,第二层RPN网络的分类层输出若干个第二预测框的前景概率和背景概率;第二层RPN网络的回归层输出若干个第二预测框的位置回归坐标;设置第二层RPN网络前景概率阈值,第二层RPN网络前景概率阈值为0.5,将若干个第二预测框的前景概率分别与第二层RPN网络前景概率阈值进行比较,获得前景概率小于第二层RPN网络前景概率阈值的第二预测框;
S33)将前景概率小于第二层RPN网络前景概率阈值的第二预测框输入值第三层RPN网络,第三层RPN网络的分类层输出若干个第三预测框的前景概率和背景概率;第三层RPN网络的回归层输出若干个第三预测框的位置回归坐标;设置第三层RPN网络前景概率阈值,第三层RPN网络前景概率阈值为0.7,将若干个第三预测框的前景概率分别与第三层RPN网络前景概率阈值进行比较,获得前景概率小于第三层RPN网络前景概率阈值的第三预测框;
S34)将前景概率小于第三层RPN网络前景概率阈值的第三预测框作为筛选后的高置信度预测框,获得筛选后的高置信度预测框。
S4)建立背景识别模块,将高置信度预测框输入至背景识别模块中,获得当前帧图像的目标跟踪结果,在线训练所述背景识别模块、并对背景识别模块的场景类别进行更新,如图2所示,包括如下步骤:
S41)获取遥感领域背景场景数据集,建立深度卷积神经网络模型,将深度卷积神经网络模型作为背景识别模块,本实施例中的背景识别模块采用了VGG-16模型,VGG-16模型的网络参数如表1所示。
表1 VGG-16模型的网络参数
Figure BDA0002651586260000101
Figure BDA0002651586260000111
表1
对遥感领域背景场景数据集中的每一张遥感领域背景场景图像进行缩放、并将缩放后的遥感领域背景场景图像输入至背景识别模块,本实施例采用的遥感领域背景场景数据集为NWPU-RESISC45数据集,NWPU-RESISC45数据集包括45种遥感领域背景场景类别。将NWPU-RESISC45数据集中的图像从256*256缩放为224*224像素大小后,导入背景识别模块中进行训练。
利用遥感领域背景场景数据集对背景识别模块进行离线训练,获得离线训练后的背景识别模块;背景识别模块包括若干个相互交替的背景识别模块卷积层、背景识别模块池化层、背景识别模块激活函数以及至少一个背景识别模块全连接层,最后一层背景识别模块全连接层连接Softmax分类层;Softmax分类层包括45个遥感领域背景场景分类和5个遥感领域背景场景空值分类,5个遥感领域背景场景空值分类不参与背景识别模块的离线训练。
S42)对所有高置信度预测框进行缩放处理、并分别输入至离线训练后的背景识别模块中,获得每一个高置信度预测框的跟踪目标识别分数,将每一个高置信度预测框的跟踪目标识别分数进行比较,将跟踪目标识别分数最小的高置信度预测框作为最终目标跟踪结果。
跟踪目标识别分数越小,表明高置信度预测框与离线训练后的背景识别模块中的背景的相似度越低,则是目标的可能性越大。缩放后的高置信度预测框输入至离线训练后的背景识别模块,在获取跟踪目标识别分数的过程中,5个遥感领域背景场景空值分类参与了分类过程,获取5个遥感领域背景场景空值分类的总分数t,1-t即为跟踪目标识别分数,1-t越小,表明高置信度预测框与离线训练后的背景识别模块中的背景的相似度越低。
S43)以跟踪目标识别分数最小的高置信度预测框为中心,在跟踪目标识别分数最小的高置信度预测框的四周提取v个尺寸大小相同的周围信息背景框,对所述v个尺寸大小相同的周围信息背景框分别设定相同的初始权重:
Figure BDA0002651586260000121
x’v表示第v个周围信息背景框的初始权重;
S44)将若干个尺寸大小相同的周围信息背景框分别输入至离线训练后的背景识别模块,获得每个周围信息背景框的预测场景分数:h1、h2、…、hv;hv表示第v个周围信息背景框的预测场景分数;
S45)将步骤S42)中的最终目标跟踪结果作为下一帧图像的目标矩形框,将下一帧图像的目标矩形框缩放到h×w的尺寸大小,以缩放后的下一帧图像的目标矩形框的中心像素为中心,框选出预设大小为n×h×w的下一帧图像的搜索背景区域框,获得下一帧图像跟踪目标识别分类概率最小的高置信度预测框;
S46)确定当前帧图像中视频卫星目标相对于上一帧图像中视频卫星目标的偏移方向,在下一帧图像跟踪目标识别分类概率最小的高置信度预测框的四周提取v个尺寸大小相同的当前周围信息背景框,对v个尺寸大小相同的当前周围信息背景框更新权重
Figure BDA0002651586260000122
xi表示根据偏移方向确定的在偏移方向上的当前周围信息背景框权重;xj表示非偏移方向上的当前周围信息背景框权重,i∈[1,v],j∈[1,v],j≠i;通过非极大值抑制方法对v个尺寸大小相同的当前周围信息背景框进行筛选,获得视频卫星目标的当前场景信息。
本发明对当前周围信息背景框的权重进行了更新,不仅考虑了通过上一帧图像获得的v个周围信息背景框的预测场景分数以及权重,还考虑了当前帧图像中视频卫星目标相对于上一帧图像中视频卫星目标的偏移方向,最终获得当前周围信息背景框的各个权重,利用非极大值抑制方法把更新后的权重全部排序,选取权重最高的那个当前周围信息背景框,接下来计算其他当前周围信息背景框与权重最高的那个当前周围信息背景框的重合程度(iou),如果重合程度大于设定的阈值就删除,循环重复,最后获得唯一的能够表征当前场景最多信息的当前周围信息背景框,即获得视频卫星目标的当前场景信息。
步骤S44)中,将若干个尺寸大小相同的周围信息背景框分别输入至离线训练后的背景识别模块,获得每个周围信息背景框的预测场景分数:h1、h2、…、hv;hv表示第v个周围信息背景框的预测场景分数,还包括如下步骤:
S441)将若干个尺寸大小相同的周围信息背景框分别输入至离线训练后的背景识别模块,判断第k个周围信息背景框的预测场景分数是否在已训练的m个预设的遥感领域背景场景分类中,若是,则利用离线训练后的背景识别模块获得每个周围信息背景框的预测场景分数;若否,则将第k个周围信息背景框填充到遥感领域背景场景数据集中、并重新训练背景识别模块,进入步骤S442);
本实施例在背景识别模块的离线训练过程中,只用到了45个遥感领域背景场景分类进行训练,在将周围信息背景框输入至离线训练后的背景识别模块时,剩下的5个遥感领域背景场景空值分类参与了分类过程,如果5个遥感领域背景场景空值分类中有值,则表明当前的周围信息背景框不属于已有的45个遥感领域背景场景分类,则将当前的周围信息背景框扩充到遥感领域背景场景数据集中,相应地将5个遥感领域背景场景空值分类中的其中一个增加到遥感领域背景场景分类中进行重新训练。
S442)将若干个尺寸大小相同的周围信息背景框分别输入步骤S441)中重新训练后的背景识别模块,利用重新训练后的背景识别模块获得每个周围信息背景框的预测场景分数。
通过采用本发明公开的上述技术方案,得到了如下有益的效果:
本发明充分利用了背景的丰富信息,通过背景离线训练,背景训练集更新、背景在线更新等处理,进行了背景强化,能够适用于不同复杂背景,最大限度去除背景干扰,解决目标“淹没”在背景中的问题,更加准确地跟踪到目标。
以上仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视本发明的保护范围。

Claims (7)

1.一种基于背景知识增强的视频卫星目标跟踪方法,其特征在于,包括如下步骤:
S1)对视频卫星目标进行视频拍摄,获得视频序列图像,在所述视频序列图像的第一帧图像中截取视频卫星目标,获得目标模板图像以及目标搜索区域图像;
S2)构建已训练好的双分支Siamese网络,所述双分支Siamese网络包括两个并联的深度卷积神经网络,将目标模板图像、目标搜索区域图像分别作为两个并联的深度卷积神经网络的输入,生成目标模板特征图以及目标搜索区域特征图;
S3)构建三个级联的RPN网络,将目标模板特征图以及目标搜索区域特征图分别输入至所述三个级联的RPN网络,获得筛选后的高置信度预测框;
S4)建立背景识别模块,将所述高置信度预测框输入至所述背景识别模块中,获得当前帧图像的目标跟踪结果,在线训练所述背景识别模块、并对所述背景识别模块的场景类别进行更新。
2.根据权利要求1所述的基于背景知识增强的视频卫星目标跟踪方法,其特征在于,步骤S1)中,对视频卫星目标进行视频拍摄,获得视频序列图像,在所述视频序列图像的第一帧图像中截取视频卫星目标,获得目标模板图像以及目标搜索区域图像,包括如下步骤:
S11)确定待跟踪识别的视频卫星目标,在视频序列图像的第一帧图像中框选出一个包含所述待跟踪识别的视频卫星目标的目标矩形框,所述目标矩形框的大小为h×w;
S12)以所述目标矩形框的中心像素为中心,框选出预设大小为n×h×w的搜索背景区域框;
S13)将所述目标矩形框作为目标模板图像,将所述搜索背景区域框作为目标搜索区域图像,获得目标模板图像以及目标搜索区域图像。
3.根据权利要求1或2所述的基于背景知识增强的视频卫星目标跟踪方法,其特征在于,步骤S2)中,构建已训练好的双分支Siamese网络,所述双分支Siamese网络包括两个并联的深度卷积神经网络,将目标模板图像、目标搜索区域图像分别作为两个并联的深度卷积神经网络的输入,生成目标模板特征图以及目标搜索区域特征图,包括如下步骤:
S21)构建两个相互并联的深度卷积神经网络,所述两个相互并联的深度卷积神经网络的网络结构相同,每一个深度卷积神经网络包括若干个相互交替的卷积层、池化层、激活函数以及至少一个全连接层;
S22)对目标模板图像、目标搜索区域图像分别进行预处理,将所述目标模板图像和目标搜索区域图像分别缩放到预设尺寸大小;
S23)将缩放到预设尺寸大小的目标模板图像输入至两个相互并联的深度卷积神经网络中的其中一个深度卷积神经网络,将所述其中一个深度卷积神经网络的最后一层卷积层的输出作为目标模板图像特征,获得目标模板特征图;
S24)将缩放到预设尺寸大小的目标搜索区域图像输入至两个相互并联的深度卷积神经网络中的另一个深度卷积神经网络,将所述另一个深度卷积神经网络的最后一层卷积层的输出作为目标搜索区域图像特征,获得目标搜索区域特征图。
4.根据权利要求3所述的基于背景知识增强的视频卫星目标跟踪方法,其特征在于,步骤S21)中,所述两个相互并联的深度卷积神经网络分别采用AlexNet网络模型。
5.根据权利要求1所述的基于背景知识增强的视频卫星目标跟踪方法,其特征在于,步骤S3)中,构建三个级联的RPN网络,将目标模板特征图以及目标搜索区域特征图分别输入至所述三个级联的RPN网络,获得筛选后的高置信度预测框;三个级联的RPN网络包括第一层RPN网络、第二层RPN网络和第三层RPN网络,三个级联的RPN网络中的每一层RPN网络均包含一个分类层和一个回归层,包括如下步骤:
S31)将目标模板特征图和目标搜索区域特征图分别作为第一层RPN网络中的输入特征图,将所述输入特征图输入至第一层RPN网络;
S32)在所述输入特征图上分别设置不同尺寸和比例的锚框,第一层RPN网络的分类层输出若干个第一预测框的前景概率和背景概率;第一层RPN网络的回归层输出若干个第一预测框的位置回归坐标;设置第一层RPN网络前景概率阈值,将若干个第一预测框的前景概率分别与第一层RPN网络前景概率阈值进行比较,获得前景概率小于第一层RPN网络前景概率阈值的第一预测框;
S33)将所述前景概率小于第一层RPN网络前景概率阈值的第一预测框输入值第二层RPN网络,第二层RPN网络的分类层输出若干个第二预测框的前景概率和背景概率;第二层RPN网络的回归层输出若干个第二预测框的位置回归坐标;设置第二层RPN网络前景概率阈值,将若干个第二预测框的前景概率分别与第二层RPN网络前景概率阈值进行比较,获得前景概率小于第二层RPN网络前景概率阈值的第二预测框;
S33)将所述前景概率小于第二层RPN网络前景概率阈值的第二预测框输入值第三层RPN网络,第三层RPN网络的分类层输出若干个第三预测框的前景概率和背景概率;第三层RPN网络的回归层输出若干个第三预测框的位置回归坐标;设置第三层RPN网络前景概率阈值,将若干个第三预测框的前景概率分别与第三层RPN网络前景概率阈值进行比较,获得前景概率小于第三层RPN网络前景概率阈值的第三预测框;
S34)将所述前景概率小于第三层RPN网络前景概率阈值的第三预测框作为筛选后的高置信度预测框,获得筛选后的高置信度预测框。
6.根据权利要求1所述的基于背景知识增强的视频卫星目标跟踪方法,其特征在于,步骤S4)中,建立背景识别模块,将所述高置信度预测框输入至所述背景识别模块中,获得当前帧图像的目标跟踪结果,在线训练所述背景识别模块、并对所述背景识别模块的场景类别进行更新,包括如下步骤:
S41)获取遥感领域背景场景数据集,建立深度卷积神经网络模型,将所述深度卷积神经网络模型作为背景识别模块,对所述遥感领域背景场景数据集中的每一张遥感领域背景场景图像进行缩放、并将缩放后的遥感领域背景场景图像输入至背景识别模块,利用遥感领域背景场景数据集对背景识别模块进行离线训练,获得离线训练后的背景识别模块;所述背景识别模块包括若干个相互交替的背景识别模块卷积层、背景识别模块池化层、背景识别模块激活函数以及至少一个背景识别模块全连接层,最后一层背景识别模块全连接层连接Softmax分类层;所述Softmax分类层包括m个预设的遥感领域背景场景分类和d个遥感领域背景场景空值分类,所述d个遥感领域背景场景空值分类不参与背景识别模块的离线训练;
S42)对所有高置信度预测框进行缩放处理、并分别输入至所述离线训练后的背景识别模块中,获得每一个高置信度预测框的跟踪目标识别分数,将每一个高置信度预测框的跟踪目标识别分数进行比较,将跟踪目标识别分数最小的高置信度预测框作为最终目标跟踪结果;
S43)以所述跟踪目标识别分数最小的高置信度预测框为中心,在所述跟踪目标识别分数最小的高置信度预测框的四周提取v个尺寸大小相同的周围信息背景框,对所述v个尺寸大小相同的周围信息背景框分别设定相同的初始权重:x’1、x’2、…、x’v;x’v表示第v个周围信息背景框的初始权重;
S44)将所述若干个尺寸大小相同的周围信息背景框分别输入至所述离线训练后的背景识别模块,获得每个周围信息背景框的预测场景分数:h1、h2、…、hv;hv表示第v个周围信息背景框的预测场景分数;
S45)将步骤S42)中的最终目标跟踪结果作为下一帧图像的目标矩形框,将下一帧图像的目标矩形框缩放到h×w的尺寸大小,以缩放后的下一帧图像的目标矩形框的中心像素为中心,框选出预设大小为n×h×w的下一帧图像的搜索背景区域框,获得下一帧图像跟踪目标识别分类概率最小的高置信度预测框;
S46)确定当前帧图像中视频卫星目标相对于上一帧图像中视频卫星目标的偏移方向,在所述下一帧图像跟踪目标识别分类概率最小的高置信度预测框的四周提取v个尺寸大小相同的当前周围信息背景框,对所述v个尺寸大小相同的当前周围信息背景框更新权重
Figure FDA0002651586250000051
xi表示根据偏移方向确定的在偏移方向上的当前周围信息背景框权重;xj表示非偏移方向上的当前周围信息背景框权重,i∈[1,v],j∈[1,v],j≠i;通过非极大值抑制方法对v个尺寸大小相同的当前周围信息背景框进行筛选,获得视频卫星目标的当前场景信息。
7.根据权利要求6所述的基于背景知识增强的视频卫星目标跟踪方法,其特征在于,步骤S44)中,将所述若干个尺寸大小相同的周围信息背景框分别输入至所述离线训练后的背景识别模块,获得每个周围信息背景框的预测场景分数:h1、h2、…、hv;hv表示第v个周围信息背景框的预测场景分数,还包括如下步骤:
S441)将所述若干个尺寸大小相同的周围信息背景框分别输入至所述离线训练后的背景识别模块,判断第k个周围信息背景框的预测场景分数是否在所述已训练的m个预设的遥感领域背景场景分类中,若是,则利用所述离线训练后的背景识别模块获得每个周围信息背景框的预测场景分数;若否,则将所述第k个周围信息背景框填充到遥感领域背景场景数据集中、并重新训练背景识别模块,进入步骤S442);
S442)将所述若干个尺寸大小相同的周围信息背景框分别输入步骤S441)中重新训练后的背景识别模块,利用所述重新训练后的背景识别模块获得每个周围信息背景框的预测场景分数。
CN202010872543.8A 2020-08-26 2020-08-26 一种基于背景知识增强的视频卫星目标跟踪方法 Active CN111931686B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010872543.8A CN111931686B (zh) 2020-08-26 2020-08-26 一种基于背景知识增强的视频卫星目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010872543.8A CN111931686B (zh) 2020-08-26 2020-08-26 一种基于背景知识增强的视频卫星目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111931686A true CN111931686A (zh) 2020-11-13
CN111931686B CN111931686B (zh) 2021-05-25

Family

ID=73305945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010872543.8A Active CN111931686B (zh) 2020-08-26 2020-08-26 一种基于背景知识增强的视频卫星目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111931686B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223055A (zh) * 2021-05-31 2021-08-06 华中科技大学 图像目标跟踪模型建立方法及图像目标跟踪方法
CN113392721A (zh) * 2021-05-24 2021-09-14 中国科学院西安光学精密机械研究所 一种遥感卫星视频目标跟踪方法
CN113642490A (zh) * 2021-08-19 2021-11-12 厦门熵基科技有限公司 一种目标检测跟踪一体化方法及装置
CN114219836A (zh) * 2021-12-15 2022-03-22 北京建筑大学 一种基于时空信息辅助的无人机视频车辆跟踪方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108062531A (zh) * 2017-12-25 2018-05-22 南京信息工程大学 一种基于级联回归卷积神经网络的视频目标检测方法
CN109033950A (zh) * 2018-06-12 2018-12-18 浙江工业大学 基于多特征融合级联深度模型的车辆违停检测方法
CN111144364A (zh) * 2019-12-31 2020-05-12 北京理工大学重庆创新中心 一种基于通道注意更新机制的孪生网络目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108062531A (zh) * 2017-12-25 2018-05-22 南京信息工程大学 一种基于级联回归卷积神经网络的视频目标检测方法
CN109033950A (zh) * 2018-06-12 2018-12-18 浙江工业大学 基于多特征融合级联深度模型的车辆违停检测方法
CN111144364A (zh) * 2019-12-31 2020-05-12 北京理工大学重庆创新中心 一种基于通道注意更新机制的孪生网络目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BO LI等: "High Performance Visual Tracking with Siamese Region Proposal Network", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
BO LI等: "SiamRPN++: Evolution of Siamese Visual Tracking with Very Deep Networks", 《PROCEEDINGS OF THE IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392721A (zh) * 2021-05-24 2021-09-14 中国科学院西安光学精密机械研究所 一种遥感卫星视频目标跟踪方法
CN113392721B (zh) * 2021-05-24 2023-02-10 中国科学院西安光学精密机械研究所 一种遥感卫星视频目标跟踪方法
CN113223055A (zh) * 2021-05-31 2021-08-06 华中科技大学 图像目标跟踪模型建立方法及图像目标跟踪方法
CN113223055B (zh) * 2021-05-31 2022-08-05 华中科技大学 图像目标跟踪模型建立方法及图像目标跟踪方法
CN113642490A (zh) * 2021-08-19 2021-11-12 厦门熵基科技有限公司 一种目标检测跟踪一体化方法及装置
CN113642490B (zh) * 2021-08-19 2023-07-11 厦门熵基科技有限公司 一种目标检测跟踪一体化方法及装置
CN114219836A (zh) * 2021-12-15 2022-03-22 北京建筑大学 一种基于时空信息辅助的无人机视频车辆跟踪方法
CN114219836B (zh) * 2021-12-15 2022-06-03 北京建筑大学 一种基于时空信息辅助的无人机视频车辆跟踪方法

Also Published As

Publication number Publication date
CN111931686B (zh) 2021-05-25

Similar Documents

Publication Publication Date Title
CN111931686B (zh) 一种基于背景知识增强的视频卫星目标跟踪方法
CN107529650B (zh) 闭环检测方法、装置及计算机设备
CN108960211B (zh) 一种多目标人体姿态检测方法以及系统
CN113065558A (zh) 一种结合注意力机制的轻量级小目标检测方法
CN110532897B (zh) 零部件图像识别的方法和装置
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
CN112150493B (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN109871821B (zh) 自适应网络的行人重识别方法、装置、设备及存储介质
CN112070044B (zh) 一种视频物体分类方法及装置
CN112084952B (zh) 一种基于自监督训练的视频点位跟踪方法
CN112307982B (zh) 基于交错增强注意力网络的人体行为识别方法
CN110136162B (zh) 无人机视角遥感目标跟踪方法及装置
CN111079739A (zh) 一种多尺度注意力特征检测方法
CN111310609B (zh) 基于时序信息和局部特征相似性的视频目标检测方法
CN110929649B (zh) 一种面向小目标检测的网络和困难样本挖掘方法
CN109685772B (zh) 一种基于配准失真表示的无参照立体图像质量评估方法
CN111126278A (zh) 针对少类别场景的目标检测模型优化与加速的方法
CN111241924A (zh) 基于尺度估计的人脸检测及对齐方法、装置、存储介质
CN112861718A (zh) 一种轻量级特征融合人群计数方法及系统
CN113297959A (zh) 一种基于角点注意力孪生网络的目标跟踪方法及系统
CN115937552A (zh) 一种基于融合手工特征与深度特征的图像匹配方法
CN113763417B (zh) 一种基于孪生网络和残差结构的目标跟踪方法
CN113627481A (zh) 一种面向智慧园林的多模型组合的无人机垃圾分类方法
CN110490170B (zh) 一种人脸候选框提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant