CN109325407B - 基于f-ssd网络滤波的光学遥感视频目标检测方法 - Google Patents

基于f-ssd网络滤波的光学遥感视频目标检测方法 Download PDF

Info

Publication number
CN109325407B
CN109325407B CN201810919904.2A CN201810919904A CN109325407B CN 109325407 B CN109325407 B CN 109325407B CN 201810919904 A CN201810919904 A CN 201810919904A CN 109325407 B CN109325407 B CN 109325407B
Authority
CN
China
Prior art keywords
target
conv
remote sensing
ssd
optical remote
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810919904.2A
Other languages
English (en)
Other versions
CN109325407A (zh
Inventor
焦李成
皮兆亮
孙其功
宋纬
李玲玲
唐旭
丁静怡
侯彪
杨淑媛
冯志玺
郭雨薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201810919904.2A priority Critical patent/CN109325407B/zh
Publication of CN109325407A publication Critical patent/CN109325407A/zh
Application granted granted Critical
Publication of CN109325407B publication Critical patent/CN109325407B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于F‑SSD网络滤波的光学遥感视频目标检测方法,旨在提高对光学遥感视频的目标检测准确率。实现步骤为:获取训练样本集和验证样本集;构建网络模型F‑SSD,对构建的网络模型进行训练;按一定的间隔帧数取待检测视频的若干帧用训练好的网络模型进行检测,得到这些间隔帧上检测到的目标;依次取这些间隔帧上检测到的目标为跟踪对象,用相关滤波算法进行跟踪;获得光学遥感视频的目标检测结果;本发明方法实现了光学遥感视频的目标检测,提高了目标检测的准确率。

Description

基于F-SSD网络滤波的光学遥感视频目标检测方法
技术领域
本发明属于视频图像处理技术领域,特别涉及一种基于F-SSD网络滤波的光学遥感视频目标检测方法,可用于光学遥感视频的目标检测,在城市交通监控、土地测绘、农业估产和生态环境监测等领域具有重大的应用价值。
背景技术
目标检测是计算机视觉领域的核心任务之一,包括图像目标检测和视频目标检测。近年来,在视频目标检测领域,许多研究学者致力于可见光视频或红外视频的目标检测技术研究,但是没有针对光学遥感视频的目标检测技术。相比于可见光视频或红外视频,光学遥感视频是RGB三通道彩色图像,分辨率较低,目标尺寸较小,而且目标与背景在颜色上具有很大的相似性,将可见光视频或红外视频的目标检测技术应用于光学遥感视频的目标检测无法得到较高的准确率。光学遥感视频是由光学遥感图像序列组成,目前,现有技术中对光学遥感图像最典型的目标检测技术是基于深度学习的方法。
深度学习的方法使图像直接作为网络的输入,避免了复杂的特征提取过程,而且其提取的特征更鲁棒、表达能力更强;SSD网络模型是深度学习方法中最常用的目标检测网络模型之一,深度学习方法中常见的用于目标检测的网络模型有Fast R-CNN、SSD和YOLO等,Fast R-CNN模型需要先产生候选区域,然后对候选区域进行分类和位置精修,而SSD和YOLO模型不先产生候选区域,可以直接生成物体的类别概率和位置坐标值。
现有技术中虽然没有记载光学遥感视频的目标检测技术,但是光学遥感视频是由光学遥感图像序列组成,采用现有技术中对光学遥感图像的目标检测技术对视频的每一帧光学遥感图像分别进行目标检测,仍然可以得到该光学遥感视频的目标检测结果;但是相比于图像数据,视频包含更多的时域信息,视频相邻帧之中的目标是有关联性的,如果在检测光学遥感视频时,将光学遥感视频的每一帧当成独立的光学遥感图像分开检测会损失掉视频帧间的关联性,导致检测准确率降低。
发明内容
本发明的目的在于克服上述现有技术的不足,提出了一种基于F-SSD网络滤波的光学遥感视频目标检测方法,用于解决现有光学遥感视频目标检测方法中存在的检测准确率较低的技术问题。
本发明的技术思路是:首先构建网络模型F-SSD,获取训练该网络模型的样本集并对网络模型进行训练,用训练好的网络模型按一定的帧数间隔检测光学遥感视频的若干帧,依次以这些帧中检测出的目标为跟踪对象,用相关滤波算法对其进行跟踪,跟踪持续一定帧数后修正该跟踪对象的位置,然后继续跟踪,保存该跟踪对象在光学遥感视频各帧中的位置,最后得到所有跟踪对象在光学遥感视频帧中的位置,即为光学遥感视频的目标检测结果。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)获取训练集T和验证集V:
(1a)从数据库中获取视频帧图像大小为H×H×3、分辨率为r的M个光学遥感视频,H≥300,M≥5,对包含目标的视频帧图像中的目标进行标注,并将标注过目标的视频帧图像及目标的标签组合成样本集D1,然后从D1中随机选取一半以上的样本作为训练集T1,剩余的样本作为验证集V1;
(1b)判断D1中的视频帧图像分辨率r是否大于预设阈值a,若是,从数据库中获取L个包含目标的分辨率小于a、大小为H×H×3的光学遥感图像作为辅助样本E,L≥500,对其中的目标标注后将标注过目标的光学遥感图像及目标的标签组成样本集D2,从D2中随机选取一半以上的样本作为训练集T2,剩余的样本作为验证集V2,并将T1和T2组合成训练集T={T1,T2},将V1和V2验证集V={V1,V2};否则,训练集T=T1,验证集V=V1;
(2)构建网络模型F-SSD:
在目标检测网络SSD第四组卷积层中的conv4_3、第五组卷积层中的conv7,以及第六组卷积层中的conv6_2、conv7_2、conv8_2和conv9_2中随机选取两对卷积层,每对卷积层后连接一个特征图的融合处理模块,在特征图的融合处理模块后并行连接两个卷积层,构成具有16个输出层的网络模型F-SSD;
(3)对网络模型F-SSD进行训练:
(3a)判断训练集T是否包含T2,若是,执行步骤(3b),否则,执行步骤(3c);
(3b)采用T2对F-SSD进行预训练,并通过预训练过程中每迭代Q次后的F-SSD对V2进行检测,Q≥1000,当检测结果的准确率达到70%时停止训练,得到预训练模型C1,然后采用T1对C1进行训练,并通过训练过程中每迭代Q次后的C1对V1进行检测,当检测结果的准确率超过85%后,停止训练,得到训练好的网络模型C2;
(3c)采用T1对F-SSD进行训练,并通过训练过程中每迭代Q次后的F-SSD对V1进行检测,Q≥1000,当检测结果的准确率超过85%后,停止训练,得到训练好的网络模型C2;
(4)对待检测的光学遥感视频F进行检测:
(4a)设待检测的光学遥感视频为F,F={f1,f2,...,fi,...,fN},用模型C2对视频F中的第f1,fK+1,...,ft×K+1,...,fm×K+1帧图像进行目标检测,得到目标集合P0,P1,...,Pt,...,Pm,设定从f(h-1)×K+1帧到fh×K帧对目标进行跟踪的长度,即对目标跟踪的周期为[(h-1)×K+1,h×K],初始化t=0,其中,fi表示第i帧图像,N表示F的帧数,1≤i≤N,K为检测的间隔帧数,20≤K≤50,Pt表示第ft×K+1帧图像中检测到的目标组成的集合,0≤t≤m,m是满足m×K+1≤N的最大整数,h表示第h个跟踪周期,1≤h≤m;
(4b)从Pt中选择目标j作为跟踪对象,取h=t+1;
(4c)判断h是否大于m,若是,则执行步骤(4f),否则执行步骤(4d);
(4d)采用相关滤波算法对目标j进行跟踪,得到目标j在第h×K帧中的位置,并对目标j在第h×K帧中的位置和灰度特征与Ph中的各个目标的位置和灰度特征分别进行匹配,得到目标j与Ph中各目标的匹配度,然后选取目标j与Ph中各目标匹配度的最大值Imax,以及Imax在Ph中对应的目标p,判断Imax是否小于预设阈值b,若是,则删除集合Pt中的目标j,并执行步骤(4f),否则,执行步骤(4e);
(4e)将目标p的位置作为目标j的新位置,同时删除Ph中的目标p,取h=h+1,执行步骤(4c);
(4f)判断集合Pt是否是空集,若是,则执行步骤(4g),否则,执行步骤(4b);
(4g)t=t+1,判断t是否大于m,若是,执行步骤(4h),否则,执行步骤(4f);
(4h)将所有跟踪对象在视频帧中的位置保存下来,得到了光学遥感视频F的目标检测结果。
本发明与现有技术相比,具有以下优点:
第一,本发明采用网络模型F-SSD对光学遥感视频的视频帧图像进行目标检测,然后采用了相关滤波算法来跟踪视频中的目标,并在跟踪过程中用F-SSD的检测结果修正跟踪目标的位置,两者结合,可以很大程度上改善由于光学遥感视频背景变化和目标遮挡造成的视频目标漏检过多的影响,相比于现有技术,本发明能够减少光学遥感视频的目标漏检,提高目标检测的准确率。
第二,本发明采用网络模型F-SSD,该模型中的融合处理模块有效融合了多个网络层的特征,充分利用了高层特征图的语义信息与低层特征图的细节信息,提高了特征的表达能力,改善了由于光学遥感视频目标尺寸较小,且目标模糊,很难获得目标精确定位的问题,相比于现有技术,本发明融合多个网络层的特征,使网络模型对目标的类别识别能力更强,能够得到目标的精确定位,提高目标检测的准确率;
第三,本发明先采用比光学遥感视频的视频帧图像分辨率高的光学遥感图像来预训练网络模型,然后用光学遥感视频的视频帧图像来精调网络模型,很好的改善了由于光学遥感视频分辨率低,且目标模糊,严重影响网络模型训练的问题,相比于现有技术,本发明使网络模型能够学习到对目标表达能力更强、更鲁棒的特征。
附图说明
图1为本发明的实现流程图;
图2为谷歌地图上获取的光学遥感图像和吉林一号光学遥感视频的视频帧图像;
图3为本发明和现有技术对包含飞机或舰船目标的吉林一号光学遥感视频帧图像的检测图;
具体实施方式
以下结合附图和具体实施例,对本发明作进一步的详细描述。
参照图1.基于F-SSD网络滤波的光学遥感视频目标检测方法,包括如下步骤:
步骤1)获取训练集T和验证集V:
步骤1a)从数据库中获取视频帧图像大小为H×H×3、分辨率为r的M个光学遥感视频,H≥300,M≥5,对包含目标的视频帧图像中的目标进行标注,并将标注过目标的视频帧图像及目标的标签组合成样本集D1,然后从D1中随机选取一半以上的样本作为训练集T1,剩余的样本作为验证集V1,在本发明实施例中,光学遥感视频是从吉林一号卫星拍摄的视频中获取的,r=1.12m,H=500,M=5,将包含飞机和舰船的视频帧图像挑选出来,共有850张,从D1中随机选取80%的样本作为训练集T1;
步骤1b)判断D1中的视频帧图像分辨率r是否大于预设阈值a,若是,从数据库中获取L个包含目标的分辨率小于a、大小为H×H×3的光学遥感图像作为辅助样本E,L≥500,对其中的目标标注后将标注过目标的光学遥感图像及目标的标签组成样本集D2,从D2中随机选取一半以上的样本作为训练集T2,剩余的样本作为验证集V2,并将T1和T2组合成训练集T={T1,T2},将V1和V2验证集V={V1,V2};否则,训练集T=T1,验证集V=V1,在本发明实施例中,辅助样本中的光学遥感图像分辨率为0.61m,来源于谷歌地图,预设阈值a=0.8m,L=500,从D2中随机选取80%的样本作为训练集T2;
步骤2)构建网络模型F-SSD:
目标检测网络SSD,包括输出层和依次层叠的输入层、第一组卷积层、池化层、第二组卷积层、池化层、第三组卷积层、池化层、第四组卷积层、池化层、第五组卷积层、池化层和第六组卷积层,输出层由第四组卷积层中的conv4_3、第五组卷积层中的conv7,以及第六组卷积层中的conv6_2、conv7_2、conv8_2和conv9_2后各并行连接的两个卷积层组成。在目标检测网络SSD第四组卷积层中的conv4_3、第五组卷积层中的conv7,以及第六组卷积层中的conv6_2、conv7_2、conv8_2和conv9_2中随机选取两对卷积层,每对卷积层后连接一个特征图的融合处理模块,在特征图的融合处理模块后并行连接两个卷积层,构成具有16个输出层的网络模型F-SSD,在本发明实施例中,在conv4_3和conv7,conv6和conv6_2两对卷积层后加入特征图的融合处理模块,下面以卷积层conv4_3和conv7为例介绍融合处理模块:
选择卷积层conv4_3和conv7,融合处理模块包括4个卷积层conv_10_1_1、conv_10_1_2、conv_10_2_1、conv_10_2_2和1个级联层concat_1,其中其中卷积层conv4_3的特征图大小为38×38,卷积层conv7的特征图大小为19×19,conv4_3和conv7进行融合处理得到的融合层concat_1的特征图大小为29×29;在conv4_3后依次叠加卷积层conv_10_1_1和卷积层conv_10_1_2,其中,conv_10_1_1的特征图个数256,特征图的大小为38×38,卷积核大小为1,步长为1,conv_10_1_2的特征图个数256,特征图的大小为29×29,卷积核大小为2,步长为2;在conv7后依次叠加卷积层conv_10_2_1和卷积层conv_10_2_2,其中,conv_10_2_1的特征图个数256,特征图的大小为19×19,卷积核大小为1,步长为1,conv_10_2_2的特征图个数256,特征图的大小为29×29,卷积核大小为2,步长为1;将conv_10_1_2和conv_10_2_2的特征图级联在一起,得到级联层concat_1,concat_1的特征图的大小为29×29,特征图的个数等于512。
步骤3)对网络模型F-SSD进行训练:
步骤3a)判断训练集T是否包含T2,若是,执行步骤(3b),否则,执行步骤(3c),在本发明实施例中,训练集T包含T2;
步骤3b)采用T2对F-SSD进行预训练,并通过预训练过程中每迭代Q次后的F-SSD对V2进行检测,Q≥1000,当检测结果的准确率达到70%时停止训练,得到预训练模型C1,然后采用T1对C1进行训练,并通过训练过程中每迭代Q次后的C1对V1进行检测,当检测结果的准确率超过85%后,停止训练,得到训练好的网络模型C2,在本发明实施例中,Q=3000;
步骤3c)采用T1对F-SSD进行训练,并通过训练过程中每迭代Q次后的F-SSD对V1进行检测,Q≥1000,当检测结果的准确率超过85%后,停止训练,得到训练好的网络模型C2,在本发明实施例中,Q=3000;
步骤4)对待检测的光学遥感视频F进行检测,在本发明实施例中,将F-SSD与相关滤波算法结合,对包含舰船或飞机的香港港口视频和圣地亚哥机场视频进行检测:
步骤4a)设待检测的光学遥感视频为F,F={f1,f2,...,fi,...,fN},用模型C2对视频F中的第f1,fK+1,...,ft×K+1,...,fm×K+1帧图像进行目标检测,得到目标集合P0,P1,...,Pt,...,Pm,设定从f(h-1)×K+1帧到fh×K帧对目标进行跟踪的长度,即对目标跟踪的周期为[(h-1)×K+1,h×K],初始化t=0,其中,fi表示第i帧图像,N表示F的帧数,1≤i≤N,K为检测的间隔帧数,20≤K≤50,Pt表示第ft×K+1帧图像中检测到的目标组成的集合,0≤t≤m,m是满足m×K+1≤N的最大整数,h表示第h个跟踪周期,1≤h≤m,在本发明实施例中,K=50,N=320,m=6;
步骤4b)从Pt中选择目标j作为跟踪对象,取h=t+1;
步骤4c)判断h是否大于m,若是,则执行步骤(4f),否则执行步骤(4d);
步骤4d)采用相关滤波算法对目标j进行跟踪,在本发明实施例中,采用ECO算法对选择的目标进行跟踪,得到目标j在第h×K帧中的位置,并对目标j在第h×K帧中的位置和灰度特征与Ph中的各个目标的位置和灰度特征分别进行匹配,得到目标j与Ph中各目标的匹配度,然后选取目标j与Ph中各目标匹配度的最大值Imax,以及Imax在Ph中对应的目标p,判断Imax是否小于预设阈值b,若是,则删除集合Pt中的目标j,并执行步骤(4f),否则,执行步骤(4e),在本发明实施例中,计算目标j与Ph中各目标的匹配度所用到的公式为:
Figure BDA0001763944950000071
其中,I表示匹配度,公式等号右侧的前两项是目标j与Ph中的目标进行位置匹配,第三项是目标j与Ph中的目标进行灰度特征匹配,n表示Ph中的目标个数,(x*,y*)、w*、h*表示j在第h×K帧中的位置矩形框的左上角坐标、宽度和高度,(xi,yi)、wi、hi表示Ph中第i个目标的位置矩形框左上角坐标、宽度和高度,g*表示第h×K帧中目标j的平均灰度值,gi表示Ph中第i个目标的平均灰度值,λ取值0.1。
步骤4e)将目标p的位置作为目标j的新位置,同时删除Ph中的目标p,取h=h+1,执行步骤(4c);
步骤4f)判断集合Pt是否是空集,若是,则执行步骤(4g),否则,执行步骤(4b);
步骤4g)t=t+1,判断t是否大于m,若是,执行步骤(4h),否则,执行步骤(4f);
步骤4h)将所有跟踪对象在视频帧中的位置保存下来,得到了光学遥感视频F的目标检测结果,在本发明实施例中,得到包含舰船或飞机的光学遥感视频的检测结果。
以下通过仿真实验,对本发明的技术效果作进一步说明。
1、仿真条件:
本发明的仿真实验是在主频2.40GHz*16的Intel(R)Xeon(R)E5-2630 CPU、内存64GB,一块GTX TITAN GPU的硬件环境和matlab2014a、python2.7的软件环境下进行的。卷积神经网络CNN模型在Ubuntu14.04的系统环境下的Caffe上搭建;
2、仿真内容仿真结果分析:
本发明的网络模型训练采用的数据是由吉林一号卫星拍摄的光学遥感视频和谷歌地图上下载的光学遥感图像组成,如图2所示,图2(a)和图2(b)是吉林一号卫星拍摄的包含舰船或飞机目标的视频帧图像,图2(c)和图2(d)是谷歌地图上下载的包含舰船或飞机目标的光学遥感图像。
本发明对吉林一号卫星拍摄的光学遥感视频进行检测,检测目标有两类:飞机和舰船,仿真实验中将三种方法进行对比,包括本发明的方法、原始的SSD网络模型、以及在conv4_3和conv7,conv6和conv6_2两对卷积层后加入融合处理模块的SSD网络模型;图3是本发明与两种对比方法对香港港口视频和圣地亚哥机场视频的视频帧图像的检测图,其中,图3(a)和图3(b)是原SSD网络模型的检测图,图3(c)和图3(d)是加入融合处理模块的SSD网络模型的检测图,图3(e)和图3(f)是本发明的检测图。
参照图3(a)、图3(c)和图3(e)可以看出,原SSD网络模型无法检测出尺寸较小的目标2、14、17、18和模糊目标19,加入融合处理模块的SSD网络模型无法检测出模糊目标19,而本发明可以将其检测出来;参照图3(b)、图3(d)和图3(f)可以看出,原SSD网络模型无法检测出残缺目标7,而其他两种方法可以将其检测出来。综上,本发明对尺寸较小、模糊或者残缺的目标检测效果好,漏检最少,检测准确率最高。
为了验证本发明的技术效果,将本发明和两种对比方法在仿真实验中对香港港口视频和圣地亚哥机场视频的平均检测准确率mAP进行对比,如表1所示,从表1可以看出本发明的mAP有很明显的优势,其中加入了融合处理模块的SSD网络模型比原SSD网络模型的mAP提高了4.08%,本发明比原SSD网络模型提高了12.32%,由此可以证明,本发明中的网络模型和滤波算法的加入都是有效的。
表1.光学遥感视频目标检测准确率
方法 准确率mAP
SSD 83.34%
加入融合处理模块的SSD 87.42%
本发明 95.66%
综上所述,本发明提出的基于F-SSD网络滤波的光学遥感视频目标检测方法能够明显地提高光学遥感视频的检测准确率。

Claims (4)

1.一种基于F-SSD网络滤波的光学遥感视频目标检测方法,其特征在于,包括以下步骤:
(1)获取训练集T和验证集V:
(1a)从数据库中获取视频帧图像大小为H×H×3、分辨率为r的M个光学遥感视频,H≥300,M≥5,对包含目标的视频帧图像中的目标进行标注,并将标注过目标的视频帧图像及目标的标签组合成样本集D1,然后从D1中随机选取一半以上的样本作为训练集T1,剩余的样本作为验证集V1;
(1b)判断D1中的视频帧图像分辨率r是否大于预设阈值a,若是,从数据库中获取L个包含目标的分辨率小于a、大小为H×H×3的光学遥感图像作为辅助样本E,L≥500,对其中的目标标注后将标注过目标的光学遥感图像及目标的标签组成样本集D2,从D2中随机选取一半以上的样本作为训练集T2,剩余的样本作为验证集V2,并将T1和T2组合成训练集T={T1,T2},将V1和V2验证集V={V1,V2};否则,训练集T=T1,验证集V=V1;
(2)构建网络模型F-SSD:
在目标检测网络SSD第四组卷积层中的conv4_3、第五组卷积层中的conv7,以及第六组卷积层中的conv6_2、conv7_2、conv8_2和conv9_2中随机选取两对卷积层,每对卷积层后连接一个特征图的融合处理模块,在特征图的融合处理模块后并行连接两个卷积层,构成具有16个输出层的网络模型F-SSD;
(3)对网络模型F-SSD进行训练:
(3a)判断训练集T是否包含T2,若是,执行步骤(3b),否则,执行步骤(3c);
(3b)采用T2对F-SSD进行预训练,并通过预训练过程中每迭代Q次后的F-SSD对V2进行检测,Q≥1000,当检测结果的准确率达到70%时停止训练,得到预训练模型C1,然后采用T1对C1进行训练,并通过训练过程中每迭代Q次后的C1对V1进行检测,当检测结果的准确率超过85%后,停止训练,得到训练好的网络模型C2;
(3c)采用T1对F-SSD进行训练,并通过训练过程中每迭代Q次后的F-SSD对V1进行检测,Q≥1000,当检测结果的准确率超过85%后,停止训练,得到训练好的网络模型C2;
(4)对待检测的光学遥感视频F进行检测:
(4a)设待检测的光学遥感视频为F,F={f1,f2,...,fi,...,fN},用模型C2对视频F中的第f1,fK+1,...,ft×K+1,...,fm×K+1帧图像进行目标检测,得到目标集合P0,P1,...,Pt,...,Pm,设定从f(h-1)×K+1帧到fh×K帧对目标进行跟踪的长度,即对目标跟踪的周期为[(h-1)×K+1,h×K],初始化t=0,其中,fi表示第i帧图像,N表示F的帧数,1≤i≤N,K为检测的间隔帧数,20≤K≤50,Pt表示第ft×K+1帧图像中检测到的目标组成的集合,0≤t≤m,m是满足m×K+1≤N的最大整数,h表示第h个跟踪周期,1≤h≤m;
(4b)从Pt中选择目标j作为跟踪对象,取h=t+1;
(4c)判断h是否大于m,若是,则执行步骤(4f),否则执行步骤(4d);
(4d)采用相关滤波算法对目标j进行跟踪,得到目标j在第h×K帧中的位置,并对目标j在第h×K帧中的位置和灰度特征与Ph中的各个目标的位置和灰度特征分别进行匹配,得到目标j与Ph中各目标的匹配度I,然后选取目标j与Ph中各目标匹配度的最大值Imax,以及Imax在Ph中对应的目标p,判断Imax是否小于预设阈值b,若是,则删除集合Pt中的目标j,并执行步骤(4f),否则,执行步骤(4e);
(4e)将目标p的位置作为目标j的新位置,同时删除Ph中的目标p,取h=h+1,执行步骤(4c);
(4f)判断集合Pt是否是空集,若是,则执行步骤(4g),否则,执行步骤(4b);
(4g)令t=t+1,判断t是否大于m,若是,执行步骤(4h),否则,执行步骤(4f);
(4h)将所有跟踪对象在视频帧中的位置保存下来,得到了光学遥感视频F的目标检测结果。
2.根据权利要求1所述的基于F-SSD网络滤波的光学遥感视频目标检测方法,其特征在于:步骤(2)中所述的目标检测网络SSD,包括输出层和依次层叠的输入层、第一组卷积层、池化层、第二组卷积层、池化层、第三组卷积层、池化层、第四组卷积层、池化层、第五组卷积层、池化层和第六组卷积层;其中输出层由第四组卷积层中的conv4_3、第五组卷积层中的conv7,以及第六组卷积层中的conv6_2、conv7_2、conv8_2和conv9_2后各并行连接的两个卷积层组成。
3.根据权利要求1所述的基于F-SSD网络滤波的光学遥感视频目标检测方法,其特征在于:步骤(2)中所述的特征图的融合处理模块,如下:
选择的两个卷积层分别用conv_1和conv_2表示,该融合处理模块包含4个卷积层conv_1_1、conv_1_2、conv_2_1、conv_2_2和1个级联层concat_1,其中卷积层conv_1的特征图大小为L1×L1,卷积层conv_2的特征图大小为L2×L2,L1>L2,级联层concat_1的特征图大小为L×L,L=(L1+L2)/2,在conv_1后依次叠加卷积层conv_1_1和卷积层conv_1_2,其中,conv_1_1的特征图个数256,特征图的大小为L1×L1,卷积核大小为1,步长为1,conv_1_2的特征图个数256,特征图的大小为L×L,卷积核大小为2,步长为2;在conv_2后依次叠加卷积层conv_2_1和卷积层conv_2_2,其中,conv_2_1的特征图个数256,特征图的大小为L2×L2,卷积核大小为1,步长为1,conv_2_2的特征图个数256,特征图的大小为L×L,卷积核大小为2,步长为1;concat_1由conv_1_2和conv_2_2的特征图级联在一起组成,特征图的数量等于conv_1_2和conv_2_2的特征图数量之和。
4.根据权利要求1所述的基于F-SSD网络滤波的光学遥感视频目标检测方法,其特征在于:步骤(4d)中所述的目标j与Ph中各目标的匹配度I,匹配度I的计算公式为:
Figure FDA0001763944940000031
其中,n表示Ph中的目标个数,(x*,y*)、w*、h*表示j在第h×K帧中的位置矩形框的左上角坐标、宽度和高度,(xi,yi)、wi、hi表示Ph中第i个目标的位置矩形框左上角坐标、宽度和高度,g*表示第h×K帧中目标j的平均灰度值,gi表示Ph中第i个目标的平均灰度值,λ是平衡系数。
CN201810919904.2A 2018-08-14 2018-08-14 基于f-ssd网络滤波的光学遥感视频目标检测方法 Active CN109325407B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810919904.2A CN109325407B (zh) 2018-08-14 2018-08-14 基于f-ssd网络滤波的光学遥感视频目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810919904.2A CN109325407B (zh) 2018-08-14 2018-08-14 基于f-ssd网络滤波的光学遥感视频目标检测方法

Publications (2)

Publication Number Publication Date
CN109325407A CN109325407A (zh) 2019-02-12
CN109325407B true CN109325407B (zh) 2020-10-09

Family

ID=65263802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810919904.2A Active CN109325407B (zh) 2018-08-14 2018-08-14 基于f-ssd网络滤波的光学遥感视频目标检测方法

Country Status (1)

Country Link
CN (1) CN109325407B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109409285B (zh) * 2018-10-24 2021-11-09 西安电子科技大学 基于重叠切片的遥感视频目标检测方法
CN110084831B (zh) * 2019-04-23 2021-08-24 江南大学 基于YOLOv3多伯努利视频多目标检测跟踪方法
CN111192240B (zh) * 2019-12-23 2023-09-01 北京航空航天大学 一种基于随机接入记忆的遥感图像目标检测方法
CN111667505B (zh) * 2020-04-30 2023-04-07 北京捷通华声科技股份有限公司 一种定置物品跟踪的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862705A (zh) * 2017-11-21 2018-03-30 重庆邮电大学 一种基于运动特征和深度学习特征的无人机小目标检测方法
CN108346159A (zh) * 2018-01-28 2018-07-31 北京工业大学 一种基于跟踪-学习-检测的视觉目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9736349B2 (en) * 2014-12-24 2017-08-15 Intel Corporation Adaptive video end-to-end network with local abstraction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862705A (zh) * 2017-11-21 2018-03-30 重庆邮电大学 一种基于运动特征和深度学习特征的无人机小目标检测方法
CN108346159A (zh) * 2018-01-28 2018-07-31 北京工业大学 一种基于跟踪-学习-检测的视觉目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
" FSSD: Feature Fusion Single Shot Multibox Detector";ZuoXin Li;《arXiv》;20171204;第1-10页 *
" 基于SSD卷积网络的视频目标检测研究";杨洁;《南华大学学报(自然科学版)》;20180228;第78-86页 *
"Space Object Detection in Video Satellite Images Using Motion Information";Zhang X;《International Journal of Aerospace Engineering》;20171231;第1-9页 *

Also Published As

Publication number Publication date
CN109325407A (zh) 2019-02-12

Similar Documents

Publication Publication Date Title
US11429818B2 (en) Method, system and device for multi-label object detection based on an object detection network
CN112200111B (zh) 一种全局与局部特征融合的遮挡鲁棒行人重识别方法
CN110188705B (zh) 一种适用于车载系统的远距离交通标志检测识别方法
Zhu et al. Method of plant leaf recognition based on improved deep convolutional neural network
CN108509859B (zh) 一种基于深度神经网络的无重叠区域行人跟踪方法
CN105844669B (zh) 一种基于局部哈希特征的视频目标实时跟踪方法
CN109325407B (zh) 基于f-ssd网络滤波的光学遥感视频目标检测方法
CN111191583B (zh) 基于卷积神经网络的空间目标识别系统及方法
CN108052966B (zh) 基于卷积神经网络的遥感图像场景自动提取和分类方法
CN106557579B (zh) 一种基于卷积神经网络的车辆型号检索系统及方法
CN111753828B (zh) 一种基于深度卷积神经网络的自然场景水平文字检测方法
CN110569738B (zh) 基于密集连接网络的自然场景文本检测方法、设备和介质
CN108734210B (zh) 一种基于跨模态多尺度特征融合的对象检测方法
Xia et al. Loop closure detection for visual SLAM using PCANet features
Geng et al. Combining CNN and MRF for road detection
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN110032952B (zh) 一种基于深度学习的道路边界点检测方法
CN113808166B (zh) 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN108230330B (zh) 一种快速的高速公路路面分割和摄像机定位的方法
CN110223310B (zh) 一种基于深度学习的线结构光中心线和箱体边缘检测方法
Li et al. Place recognition based on deep feature and adaptive weighting of similarity matrix
CN112749673A (zh) 一种基于遥感影像智能提取储油罐库存的方法及装置
CN111598155A (zh) 一种基于深度学习的细粒度图像弱监督目标定位方法
CN111652273A (zh) 一种基于深度学习的rgb-d图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant