CN108304873A - 基于高分辨率光学卫星遥感影像的目标检测方法及其系统 - Google Patents

基于高分辨率光学卫星遥感影像的目标检测方法及其系统 Download PDF

Info

Publication number
CN108304873A
CN108304873A CN201810089157.4A CN201810089157A CN108304873A CN 108304873 A CN108304873 A CN 108304873A CN 201810089157 A CN201810089157 A CN 201810089157A CN 108304873 A CN108304873 A CN 108304873A
Authority
CN
China
Prior art keywords
feature
candidate region
sample
target
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810089157.4A
Other languages
English (en)
Other versions
CN108304873B (zh
Inventor
曹阳
江明华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Guomai Travel Polytron Technologies Inc
Original Assignee
Shenzhen Guomai Travel Polytron Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Guomai Travel Polytron Technologies Inc filed Critical Shenzhen Guomai Travel Polytron Technologies Inc
Priority to CN201810089157.4A priority Critical patent/CN108304873B/zh
Publication of CN108304873A publication Critical patent/CN108304873A/zh
Application granted granted Critical
Publication of CN108304873B publication Critical patent/CN108304873B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明涉及基于高分辨率光学卫星遥感影像的目标检测方法及其系统,该方法包括获得标记的目标正样本和背景负样本,形成训练样本;针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域;获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征;对训练样本进行训练,获取分类器;利用分类器对候选区域特征进行分类,获取包含目标的目标区域;对目标区域进行去重处理,获取检测目标。本发明实现在扩大幅面的遥感影像上进行目标检测,优化两者距离很近的目标以及不常见长宽比的目标检测效果。

Description

基于高分辨率光学卫星遥感影像的目标检测方法及其系统
技术领域
本发明涉及目标检测方法,更具体地说是指基于高分辨率光学卫星遥感影像的目标检测方法及其系统。
背景技术
目标检测要解决的是图像中是否存在特定目标,以及目标在什么位置,是图像检索、图像解译、目标识别与跟踪等领域的基础,近年来一直是学术界和工业界的研究热点。很多基于自然图像或者视频的特定目标检测系统已经投入工业界使用,如基于行人检测的人流统计、人脸检测美颜相机、车辆行人等障碍物检测的自动驾驶技术等。
目前常用于目标检测的方法有两个,一是基于自然图像的目标检测,二是基于遥感影像的目标检测。对于基于自然图像的目标检测,具体做法是在图像上搜索可能存在目标的区域,对这些区域进行特征提取,构建分类器进行判别。对于候选区域获取,多选用简单的多尺度滑动窗口穷尽搜索策略。这阶段提出的目标检测算法主要区别在于如何提取有区分度的特征表示和训练有效的分类检测子。如Dalal等人提出了经典的方向梯度直方图(HOG)特征,并用支持向量机(SVM)分类,在行人检测上获得了很好的效果;Viola等人提出Haar特征进行人脸检测,构建积分图加快特征计算,并通过级联Adaboost实现了很好的检测精度;Lowe等人提出了尺度不变特征转换(SIFT),通过图像上的局部兴趣点提取与图像尺度、旋转无关的特征,对光线、噪声变化也有相当的容错能力,由于其优良的特性,有许多基于SIFT的目标检测算法被提出。Felzenszwalb等人通过金字塔HOG特征和部分形变模型相结合,并通过训练一个带有隐变量的SVM,在通用目标检测上获得了很好的效果。在这一阶段,目标检测算法性能的提高主要得益于各种设计精良的浅层特征及其组合、上下文先验知识的结合以及复杂的机器学习算法集成等,通常需要丰富的经验和繁琐的试错过程。而2012年,Krizhevsky A等人提出了基于深度学习的图像分类算法,通过卷积神经网络(CNN)自动提取图像更高层次的特征,使图像分类任务变得更简洁且准确度有了本质的提升。从这以后,深度学习发展迅速,在计算机视觉、语音语言处理等方面得到广泛应用,且都取得不错的成果。得益于深度学习的发展和各种候选区域提取算法的提出,目标检测领域也取得了很大的突破。2014年,Girshick R等人提出R-CNN(Region-based ConvolutionalNetworks)框架进行目标检测,采用选择性搜索算法获得候选窗口而不是滑动窗口策略,提高了检测效率,同时对每个候选窗口利用CNN提取高层次特征后进行SVM分类,使检测精度大大提高。R-CNN框架的提出,给目标检测领域带来了很多启示,后续有很多基于深度学习框架的目标检测算法被提出。例如,Ouyang等人提出CNN和形变模型相结合,并通过多个模型和多阶段级联等集成方式进行目标检测,使检测过程对目标遮挡、形变等更敏感。Kong等人提出HyperNet网络结构,深度网络的多层次特征进行融合,使用融合后的特征进行区域选择和目标检测,该网络对目标的定位更准确。Redmon等人目标检测任务看作回归预测问题,设计出YOLO网络结构,整幅图作为网络的输入,并原图划分为7*7网格,预测以每个网格为中心的目标坐标和所属类概率,相当于候选区域和类别预测融合进网络,很大程度上提升了检测速度,实现了实时检测,但是对相互靠的很近的目标以及不常见长宽比目标检测效果不好。对于基于遥感影像的目标检测,可以分为四种:基于模板匹配、基于知识检验、基于对象基元以及基于机器学习的目标检测方法。基于模板匹配的方式简单易实现,但是当目标尺度、方向和形状的变化较大时,模板设计变得越来越复杂且计算复杂度也不断提高;而基于知识的目标检测可以通过丰富的先验获得较好的检测性能,但是如何定义先验知识和检测规则是一个难题,通常需要丰富的经验和试错过程,而不充分的先验容易造成过高的虚警;基于对象的目标检测通常先采用某种分割算法提取对象基元,然后利用对象的形状、纹理和上下文等特征进行分类,但是一个通用的自动分割影像的算法仍然缺失;而基于机器学习的目标检测方法通过训练样本特征自动学习检测规则,一定程度上解决了上诉存在的问题,但是,现有的遥感目标检测多基于浅层的特征抽取方法,如HOG、SIFT等在其他检测领域提出的经典特征,或者手动设计针对遥感特定目标的特征抽取方法,这些方法经过精细组合或集成复杂的分类算法,对特定场景有较好的检测效果,但是当遥感背景复杂,且目标多样化时可扩展性差,而深度学习在自动学习深层次特征方面有很大的优势,而该方法在遥感领域的目标检测还处于相对空白阶段。另外,当前的遥感领域的目标检测多基于裁剪后相对较小幅面的遥感影像(600*600像素左右),而高分辨率光学遥感影像由于空间分辨率高,小幅面的影像覆盖面非常小,因此,在经剪裁的小幅面影像上检测目标意义不大,而当前的自然图像上的深度学习目标检测框架也多基于较小尺度的图像,通常需要先输入图像归一化到统一大小后进行目标检测,而自然图像中的目标通常较少,且多位于图像中心,且占据图像主要部分或者在图像上比较显著,对整幅图像进行适当缩放,通常不会影响检测结果。而高分辨率遥感影像中的目标通常比较多,可能散落在影像各个部分,且待检测目标相对较小,和背景也比较接近,对影像进行缩放后小尺度目标失去很多细节,并且由于目标和背景比较接近,也给检测增加了难度,因此,现有的自然图像上的目标检测方法无法做到在扩展大幅面的遥感影像上进行目标检测。
因此,有必要设计一种基于高分辨率光学卫星遥感影像的目标检测方法,实现在扩大幅面的遥感影像上进行目标检测,优化两者距离很近的目标以及不常见长宽比的目标检测效果。
发明内容
本发明的目的在于克服现有技术的缺陷,提供基于高分辨率光学卫星遥感影像的目标检测方法及其系统。
为实现上述目的,本发明采用以下技术方案:基于高分辨率光学卫星遥感影像的目标检测方法,所述方法包括:
获得标记的目标正样本和背景负样本,形成训练样本;
针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域;
获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征;
对训练样本进行训练,获取分类器;
利用分类器对候选区域特征进行分类,获取包含目标的目标区域;
对所述目标区域进行去重处理,获取检测目标。
其进一步技术方案为:针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域的步骤,包括以下具体步骤:
针对训练样本抽取多个不同的弱特征通道;
训练每个弱特征通道,获取对应的评分模型以及权重;
对每个评分模型测试训练样本,获取二阶段训练样本,并根据二阶段训练样本,获取二阶段对应的评分模型以及权重;
获取二阶段评分模型的得分,集成二阶段评分模型的得分,获取得分最高的二阶段评分模型,形成候选区域。
其进一步技术方案为:获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征的步骤,包括以下具体步骤:
获取两个卷积神经网络,并进行训练;
获取候选区域的上下文场景;
采用两个训练后的卷积神经网络对候选区域和候选区域的上下文场景进行提取特征;
融合所提取的特征,形成候选区域特征。
其进一步技术方案为:获取两个卷积神经网络,并进行训练的步骤,包括以下具体步骤:
获取两个卷积神经网络,并在训练样本中随机选择样本输入卷积神经网络;
利用卷积神经网络对样本进行前馈计算,获取预测输出值;
获取真实类标,计算预测输出值与真实类标之间的误差;
往前传递误差,根据误差更新卷积神经网络的权重矩阵;
对卷积神经网络进行迁移学习。
其进一步技术方案为:对训练样本进行训练,获取分类器的步骤,包括以下具体步骤:
随机选择难分负样本集,并进行初始化;
获取正样本以及负样本,将正样本与难分负样本集进行训练,获取初始模型;
使用初始模型分类难分负样本集,去除难分负样本集内的易分样本;
从负样本集中搜索获取难分样本,加入难分负样本集中;
判断难分负样本集是否达到设定值;
若否,则返回所述随机选择难分负样本集,并进行初始化的步骤;
若是,则迭代更新初始模型以及难分负样本集;
判断迭代更新是否满足条件;
若是,则迭代地更新后的初始模型作为分类器;
若否,则返回所述迭代更新初始模型以及难分负样本集的步骤。
其进一步技术方案为:对所述目标区域进行去重处理,获取检测目标的步骤,包括以下具体步骤:
对目标区域按照是否包含目标的置信度进行排序,获取置信度最高的目标区域;
将置信度最高的目标区域存储于结果集合;
从目标区域内删除与置信度最高的目标区域重叠程度超过设定值的区域,获取检测目标。
本发明还提供了基于高分辨率光学卫星遥感影像的目标检测系统,包括训练样本形成单元、候选区域获取单元、特征提取单元、分类器获取单元、分类单元以及去重单元;
所述训练样本形成单元,用于获得标记的目标正样本和背景负样本,形成训练样本;
所述候选区域获取单元,用于针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域;
所述特征提取单元,用于获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征;
所述分类器获取单元,用于对训练样本进行训练,获取分类器;
所述分类单元,用于利用分类器对候选区域特征进行分类,获取包含目标的目标区域;
所述去重单元,用于对所述目标区域进行去重处理,获取检测目标。
其进一步技术方案为:所述候选区域获取单元包括通道抽取模块、通道训练模块、样本测试模块以及得分获取模块;
所述通道抽取模块,用于针对训练样本抽取多个不同的弱特征通道;
所述通道训练模块,用于训练每个弱特征通道,获取对应的评分模型以及权重;
所述样本测试模块,用于对每个评分模型测试训练样本,获取二阶段训练样本,并根据二阶段训练样本,获取二阶段对应的评分模型以及权重;
所述得分获取模块,用于获取二阶段评分模型的得分,集成二阶段评分模型的得分,获取得分最高的二阶段评分模型,形成候选区域。
其进一步技术方案为:所述特征提取单元包括网络训练模块、场景获取模块、特征获取模块以及融合模块;
所述网络训练模块,用于获取两个卷积神经网络,并进行训练;
所述场景获取模块,用于获取候选区域的上下文场景;
所述特征获取模块,用于采用两个训练后的卷积神经网络对候选区域和候选区域的上下文场景进行提取特征;
所述融合模块,用于融合所提取的特征,形成候选区域特征。
其进一步技术方案为:所述网络训练模块包括随机样本选择子模块、前馈计算子模块、误差计算子模块、矩阵更新子模块以及迁移学习子模块;
所述随机样本选择子模块,用于获取两个卷积神经网络,并在训练样本中随机选择样本输入卷积神经网络;
所述前馈计算子模块,用于利用卷积神经网络对样本进行前馈计算,获取预测输出值;
所述误差计算子模块,用于获取真实类标,计算预测输出值与真实类标之间的误差;
所述矩阵更新子模块,用于往前传递误差,根据误差更新卷积神经网络的权重矩阵;
所述迁移学习子模块,用于对卷积神经网络进行迁移学习。
本发明与现有技术相比的有益效果是:本发明的基于高分辨率光学卫星遥感影像的目标检测方法,通过将深度学习提取区域引入到遥感影像的目标检测内,自动提取深层次的特征,并针对大幅面的高分辨率光学遥感影像,将区域特征和影像尺度可扩展的融合上下文场景特征进行融合,结合迁移学习,获取候选区域,并利用SVM分类器进行分类,针对目标区域进行去重处理,获取检测目标,实现在扩大幅面的遥感影像上进行目标检测,优化两者距离很近的目标以及不常见长宽比的目标检测效果。
下面结合附图和具体实施例对本发明作进一步描述。
附图说明
图1为本发明具体实施例提供的基于高分辨率光学卫星遥感影像的目标检测方法的流程图一;
图2为本发明具体实施例提供的基于高分辨率光学卫星遥感影像的目标检测方法的流程图二;
图3为本发明具体实施例提供的基于高分辨率光学卫星遥感影像的目标检测系统的结构示意图;
图4为本发明具体实施例提供的sceNet网络的结构示意图;
图5为本发明具体实施例提供的objNet网络的结构示意图;
图6为本发明具体实施例提供的sceNet网络的迁移学习示意图;
图7为本发明具体实施例提供的sceNet网络特征提取层各层具体参数的表格;
图8为本发明具体实施例提供的objNet网络特征提取层各层具体参数的表格。
具体实施方式
为了更充分理解本发明的技术内容,下面结合具体实施例对本发明的技术方案进一步介绍和说明,但不局限于此。
如图1~8所示的具体实施例,本实施例提供的基于高分辨率光学卫星遥感影像的目标检测方法,可以运用在卫星遥感的目标识别过程中,实现在扩大幅面的遥感影像上进行目标检测,优化两者距离很近的目标以及不常见长宽比的目标检测效果。
如图1所示,本实施例提供了基于高分辨率光学卫星遥感影像的目标检测方法,该方法包括:
S1、获得标记的目标正样本和背景负样本,形成训练样本;
S2、针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域;
S3、获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征;
S4、对训练样本进行训练,获取分类器;
S5、利用分类器对候选区域特征进行分类,获取包含目标的目标区域;
S6、对所述目标区域进行去重处理,获取检测目标。
在训练阶段,获得标记的目标正样本和背景负样本,采取特征提取方法提取有区分性的特征,训练SVM、AdaBoost等分类器;在检测阶段,通过滑动窗口或者候选区域提取算法获得可能包含目标的区域,采用和训练阶段同样的特征提取方法获得候选区域特征,使用训练得到的分类器判别候选区域是否真正包含目标,最后经过一定处理得到最终的检测结果。
对于上述的S1步骤,具体是获取带有目标的原图,此过程中,需要对图片进行过滤才可以获取到带有目标的原图,对该带有目标的原图进行训练以及标记,从而获取训练样本。
更进一步地,在某些实施例中,上述的S2步骤,针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域的步骤,包括以下具体步骤:
S21、针对训练样本抽取多个不同的弱特征通道;
S22、训练每个弱特征通道,获取对应的评分模型以及权重;
S23、对每个评分模型测试训练样本,获取二阶段训练样本,并根据二阶段训练样本,获取二阶段对应的评分模型以及权重;
S24、获取二阶段评分模型的得分,集成二阶段评分模型的得分,获取得分最高的二阶段评分模型,形成候选区域。
对于候选区域的选择,可以采用以下两种方式进行获取,一是先图片分割成碎片,并进行自底向上组合产生感兴趣区域,比如选择性搜索方法,二是窗口评分方式,定义候选窗口包含目标概率的评分准则,通过滑动窗口给每个可能窗口评分,选出得分高的候选窗口,比如BING算法;上述的S21步骤至S24步骤,是针对BING算法进行改进,获取候选区域。
对于上述的S21步骤至S22步骤,每个窗口的位置在每个评分模型中的得分为Skl=(wk,gkl);l=(I,x,y);其中,Skl为评分模型k对候选窗口l的评分;wk为评分模型k的参数,gkl为候选窗口在l处的特征k。
对于上述的S23步骤至S24步骤,考虑到不同尺度窗口包含目标的可能性不同,例如正方形窗口64*64比5*128更可能包含目标,为每个尺度的窗口训练一个得分校准器,对第一阶段的候选窗口评分进行校准。通过一阶段的线性模型从训练图像中获得候选窗口,并用一阶段的打分作为二阶段训练样本的一维特征,相应类标由该窗口是否覆盖真实目标决定,以此训练二阶段的矫正系数。一阶段训练最终的候选窗口得分为∑nαkSkl,其中,αk为评分模型k的权重。经过二阶段的评分校准后,最终窗口得分为Ol=∑nαkSkl×vi+ti
通过对测试图像计算NG特征图,进而通过二值化近似窗口NG特征和评分模型参数wk,达到评分计算时只需要使用CPU原子操作的优化目的。NG特征图通过计算每个像素点的梯度幅值,捕捉了原图的边缘强度信息,但该特征较简单,容易受到噪声影响。本方法中将NG特征图替换成对边缘信息捕捉效果更好的Sobel特征图,同时引入了局部二值模式特征图和高斯差分特征图Sobel特征图使用3*3的Sobel算子卷积原图的灰度图得到水平、垂直方向的近似梯度,并对通过平方和求得每个像素点对应的梯度幅值。具体公式描述如下:
其中A代表原图矩阵,GX、Gy分别表示图像的水平、垂直方向梯度,G表示最后得到的梯度幅值特征图矩阵,表示卷积操作。
LBP可以用来描述图像的局部纹理特征,也常被用于人脸分类、行人检测等。LBP特征图是指对原图每个像素点求LBP码组成的特征图。为了简化计算,本方法采用最简单的3*3LBP算子,对灰度图进行计算。比较当前中心点像素值和相邻8个像素值,若某个相邻像素值小于中心值,则该相邻位记为0,否则记为1。则8个相邻位比较后产生8位二进制数,转换为10进制数,即为中心像素点的LBP码。
在本实施例中,对于模糊图像提取区域过程中,利用DoG特征图来进行获取区域,DoG特征图通过原始图像的两个不同程度的模糊图像相减得到。其中模糊图像通过原图的灰度图进行不同标准差参数的高斯核卷积得到。两个高斯模糊图像相减相当于一个带通滤波器,抑制了可能是噪声的高频部分以及图像中的均匀区域,增强了边缘等细节的可见性。二维情况下高斯核函数定义为则两幅图的高斯滤波分别表示为g1(x,y)=Gσ1(x,y)*f(x,y);g2(x,y)=Gσ2(x,y)*f(x,y);则DoG特征图由上面滤波得到的两幅图像g1(x,y)和g2(x,y)相减得到g1(x,y)-g2(x,y)=Gσ1(x,y)*f(x,y)-Gσ2(x,y)*f(x,y)=(Gσ1-Gσ2)*f(x,y),即DoG可表示为其中σ1和σ2分别为两个高斯核参数。当DoG被应用在不同目的时,两个高斯核参数的比例不同,当被用于图像增强时,通常σ12被设置为4:1或者5:1,本方法内取σ2=2.0,σ1=0.5;以获取准确的候选区域。
更进一步地,在某些实施例中,上述的S3步骤,获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征的步骤,包括以下具体步骤:
S31、获取两个卷积神经网络,并进行训练;
S32、获取候选区域的上下文场景;
S33、采用两个训练后的卷积神经网络对候选区域和候选区域的上下文场景进行提取特征;
S34、融合所提取的特征,形成候选区域特征。
对于上述的S31步骤至S34步骤,获得可能包含目标的候选区域后,要进一步判断每个候选窗口是否真正包含目标,还需要进一步进行特征提取和分类检测,即对候选窗口进行分类判别首先需要提取窗口子图有区分性的特征,如纹理、颜色、形状、空间关系特征等。本实施例中深度学习的方式可以自动地从原始图像中学习更抽象的特征表示,免去了繁杂的人工特征提取过程,因此本发明采用卷积神经网络自动学习目标的深层特征表示。考虑到特定目标只能出现在某些特定场景中,这一先验在遥感影像中尤为明显,例如船舰只能出现在港口或者海面上、飞机只能出现在停机坪或者跑道上。而在自然图像中,由于拍摄地点、拍摄角度或者距离不同,同一目标出现的场景上下文变化非常大,汽车的上下文场景可能是林荫道、地面、房屋甚至水面等。但是在遥感影像中,对于同一数据源,由于传感器成像角度和高度固定,目标与背景的空间关系比较固定。另外不同于自然图像,在高分辨率遥感影像中的目标通常非常小,细节信息比较少,且成像过程中容易受天气的影像,目标可能比较模糊。因此,在遥感影像中,如果能获得候选窗口的上下文场景信息,有助于目标的判别。除此以外,由于候选区域提取中,获得的可能目标候选不一定准确定位了目标位置,例如可能只截取了目标的一部分或者过多的截取了目标以外的背景空间,结合候选区域上下文场景信息有助于改善由于候选区域定位不准确造成的后期判别误差。
在本实施例中,具体是卷积神经网络进行获取深层特征的提取,该卷积神经网络通过引入卷积层,实现权值共享,使网络结构更稀疏,降低了模型的复杂度,即减少了网络所需要学习的参数,使网络收敛更快,且不容易过拟合。其中卷积层通过同一个特征映射层中的神经元共享相同的卷积核参数,形成稀疏连接结构。本质上卷积层相当于使用多个不同的卷积核滑过原图像,得到图像不同角度的特征映射,其中卷积操作使得获得的特征映射具有平移不变性。卷积层后面通常要接池化层,对获得的特征映射层进行下采样,保留有用信息的同时减少进一步处理的数据量,池化层主要有平均池化和最大值池化两种方式,但通常采用最大值池化,因为最大值池化获得的是局部特征最大响应,使取得的特征拥有更好的旋转和光照不变性。卷积神经网络通常通过组合多个卷积池化层,通过深层网络结构自动从低层次特征中学习到更高层的抽象特征,对于不同目标,卷积神经网络学习到的低层特征通常差别不大,通常是一些边缘信息,而经过多层网络的学习,最后能得到目标级的抽象特征。在多层卷积池化层之后,通过全连接层得到定长向量,输出到分类器中,一般在卷积神经网络中使用softmax分类器,即最终的输出为图片属于某类的概率。卷积神经网络特征学习和分类任务相结合,使提取的特征更具有任务相关性,由于其特殊的网络结构能使学习到的特征具有平移、旋转和缩放不变性等优良特性。
另外,在某些实施例中,对于上述的S31步骤,获取两个卷积神经网络,并进行训练的步骤,包括以下具体步骤:
S311、获取两个卷积神经网络,并在训练样本中随机选择样本输入卷积神经网络;
S312、利用卷积神经网络对样本进行前馈计算,获取预测输出值;
S313、获取真实类标,计算预测输出值与真实类标之间的误差;
S314、往前传递误差,根据误差更新卷积神经网络的权重矩阵;
S315、对卷积神经网络进行迁移学习。
对于上述的S311步骤至S314步骤,在使用卷积神经网络之前,需要对其进行训练,主要包括两个阶段,由前向传播和反向传播两个阶段迭代更新进行。具体来说,第一阶段,包含两个步骤:首先从样本集中随机选取样本(Xb,Yb),Xb输入到网络;对Xb进行前馈计算,得到预测输出Ob,在此阶段,数据从输入层经过多个隐藏层逐级变换,最后传送到输出层,该计算过程本质上是输入与每层权重矩阵相乘的过程:Ob=Fn(...(F2(F1(XbW1)W2)...);第二阶段为反向传播阶段,具体是首先计算预测输出Ob与真实类标Yb之间的误差,将误差不断往前传递,每一层根据当前误差情况,按照极小化小误差的方法更新自己的权重矩阵。其中,对于卷积神经网络,权重的更新通常采用mini-batch梯度下降法,该算法介于批处理梯度下降和随机梯度下降法之间,在数据量很大时,既保留了随机梯度下降优化速度快的优点,同时避免了随机梯度下降优化时震荡严重的问题,另外采用了小批次处理,能充分利用并行资源。mini-batch梯度下降通过随机选取小批量数据组来迭代更新参数,如其中m表示每批次并行的训练样本个数,该值取值受显卡内存大小限制。对于候选窗口特征提取的网络,由于输入样本的尺寸较小,且网络结构相对简单,因此该值可取1024,而对于场景特征提取的网络,该值最多取64,具体参考其中ωk,bl为网络中的权重参数和偏置参数;η为学习速率;为样本Xj的代价损失。
对于上述的S315步骤,尽管卷积神经网络能自动提取有区分性的深层特征,但是网络需要优化的参数很多,通常需要大规模的数据才能学得更优的网络,否则容易过拟合。因此,需要进行迁移学习才可以减少大数据计算的繁琐性。在深度学习中常用的是模型迁移,通过源领域预训练网络参数,应用在目标领域,并经过微调网络参数得到更好的性能。使用迁移学习,使网络收敛快,且不易陷入局部极小值,不易出现梯度消失、停滞的问题。在深层网络中,不同层的学习速率并不是一样的,越靠近输出层,学习速率越快,这是因为反向传播时前面层的梯度损失基于后面层梯度损失的乘积,当层数较多时,该梯度损失越来越小。深层网络中的梯度消失问题是使用梯度下降带来的本质上的问题,这种不稳定是深度学习的一大障碍。而当训练数据较多时,可以通过高斯分布或其他优化方式初始化参数,并通过调整学习速率以及一些正则化方式,经过较长时间训练,使整个网络得到充分训练。然而当训练数据较少时,梯度消失和过拟合问题就会变得尤为严重。此外,由于深层网络主要是前几层网络可能得不到充分训练,如果能先使用得到充分训练的网络的较低层参数初始化网络,使网络处于一个较好的初始状态,有助于网络的优化,并且能加速网络的训练进程。从另一个角度看,深层网络前几层通常学习到的是图像的边缘、颜色、纹理等图像的基元特征,而这些对于很多视觉任务来说是通用的。因此,不同图像分类任务之间可以共享较低层网络参数,某种程度上相当于这些参数携带的特征提取知识迁移到目标领域,然后只需要通过目标领域的训练数据继续训练网络,修正目标领域和源领域之间的参数偏差。
对于候选区域的上下文场景特征提取网络(即sceNet网络)的预训练,可以使用自然图像领域的场景识别任务作为源领域。对于自然场景识别任务,建立了大规模的自然场景数据集Places,并使用不同网络进行场景识别,并公开了该数据集和训练得到的网络模型。在候选区域的上下文场景特征提取网络上使用迁移学习的过程如图6所示,具体是首先使用自然场景分类任务预训练该网络,学习到的参数迁移到遥感场景分类,其中最后一层参数不迁移,采用随机初始化,然后使用遥感场景分类数据继续训练该网络,通过反向传播,学习最后一层的参数,同时修正前面迁移得到的参数偏差。
对于候选区域特征提取网络(即objNet网络)的预训练,可以使用自然图像领域的飞机目标分类任务作为源任务。其中源任务数据主要来自ImageNet 2012数据集,源任务的正样本为ImageNet 2012中所有的飞机图像,为了使预学习到的网络对遥感影像中的飞机和背景更有区分度,抽取了ImageNet中部分可能出现在遥感影像中的类别作为负样本集,如建筑物、码头、海岸、高山等。另外由于正样本飞机相对较少,还通过爬虫从互联网获取了更多的飞机图像,以利用大量易得的自然图像来辅助遥感领域的目标检测,提高目标检测效率。
对于上述的S32步骤,以候选区域中心点向四周扩展,得到一个256*256像素大小区域作为其上下文场景。当目标处于图像边缘时,通过最小平移场景包围框,使其不超过图像区域。
对于上述的S33步骤,对于候选区域的上下文场景的特征网络(即sceNet网络)采用经典的AlexNet网络结构,并修改最后输出层个数。如图4所示,该网络总共包含八层,其中前五层是卷积池化层,可以看作多阶段的特征提取,后三层是全连接层,即分类器。每个特征提取阶段包含两个过程:卷积层进行特征转换和最大池化层进行局部特征提取,其中第三阶段和第四阶段不包含池化层。具体各层参数如图7所示。在检测过程中,候选区域上下文场景包围框输入到该网络进行前馈计算,取第五层池化层的输出作为该候选区域的场景特征。
对于候选区域特征提取所使用的目标分类网络objNet结构如图6所示,考虑到遥感影像中的飞机目标非常小,在本实施例中,由于飞机目标尺寸多集中在64*64像素附近,因此本网络输入层使用64*64大小的图像,其他尺寸的候选区域需要缩放到该尺寸后输入。由于待检测目标只有飞机,则该网络的输出为两个类:飞机或者背景,该objNet网络的输入尺寸更小,且输出数量也更少,则可以认为该网络进行目标判别时需要相对更少的特征表示,因此在该网络的设计中,修改了卷积和池化层窗口大小,且减少了每层卷积核的个数,最后全连接层也适当减少了神经元个数。简化后的网络拥有更少的参数,能适当降低过拟合的风险。objNet网络总共包含八层,同理前五层卷积池化层,可以看作多阶段的特征提取,后三层全连接层看作分类器。具体各层参数如图8所示。在检测过程中,候选区域输入到该网络进行前馈计算,取第五层池化层的输出作为该候选窗口的特征。
基于卷积神经网络提取特征可以避免人工设计特征的繁琐和主观性,能获得目标更深层的特征表示。
更进一步地,在某些实施例中,上述的S4步骤,对训练样本进行训练,获取分类器的步骤,包括以下具体步骤:
S41、随机选择难分负样本集,并进行初始化;
S42、获取正样本以及负样本,将正样本与难分负样本集进行训练,获取初始模型;
S43、使用初始模型分类难分负样本集,去除难分负样本集内的易分样本;
S44、从负样本集中搜索获取难分样本,加入难分负样本集中;
S45、判断难分负样本集是否达到设定值;
若否,则返回所述S41步骤;
S46、若是,则迭代更新初始模型以及难分负样本集;
S47、判断迭代更新是否满足条件;
S48、若是,则迭代地更新后的初始模型作为分类器;
若否,则返回所述S46步骤。
对于上述的S41步骤至S48步骤,本实施例采用简单的线性SVM分类器,于样本数量较少时,SVM泛化能力最强;线性SVM训练和检测速度快;特征提取阶段采用了深度学习,所得特征表达能力强,简单的分类器通常就能得到很好的分类效果。支持向量机(SVM)是一个二分类模型,其本质是寻找特征空间上的间隔最大的分割超平面。
对于SVM分类器的训练,选取真实目标子图作为正样本,与真实目标覆盖程度小于0.3的作为负样本。对于每一个训练样本子图,用objNet网络提取目标特征,同时用sceNet网络提取其对应的上下文场景特征,最后这两个特征向量合并后作为SVM分类器的输入。其中,对于两个特征提取过程,可以提前计算,并采用批处理方式并行计算。
一般来说,训练一个分类器,训练样本越多越好,但是在目标检测领域存在一个普遍的问题是正负样本极度不平衡,即目标正样本相对较少,而背景负样本非常多。对于遥感影像来说,尤其是大幅面的影像来说,该问题更加明显。负样本过多,会导致分类算法优化过程非常慢,甚至有损最后得到的分类器性能,例如对于SVM而言,很多远离分界面的负样本对于优化几乎没有帮助。除此以外,过多的负样本会使算法对内存需求过大。如果随机选取和正样本相当的负样本,则算法不能保证在整个训练集上获得最优的效果。而手动挑选负样本,成本太大,且主观性太强。因此,如何在负样本空间搜索得到一个较小的具有代表性的负样本集非常重要。通常采取的策略是先随机初始化一个小的难分负样本集Ct∈D(D表示整个负样本空间)和所有正样本一起训练一个初始模型βt,使用该模型分类负样本集Ct,去掉其中的易分样本,同时从D中搜索难分样本,加入到Ct中,直到达到内存限制或者某个阈值L,迭代地更新模型βt和难分负样本集Ct,直到某次更新Ct不再变化或者迭代次数达到一定限制,停止训练。
其中,对于SVM算法,难分和易分样本的定义分别为H(β,D)={<x,y>∈D|yfβ(x)<1};E(β,D)={<x,y>∈D|yfβ(x)>1}
难分负样本挖掘方法收敛非常快,通常仅需遍历一遍完整训练集,且难分样本挖掘策略可以使模型收敛到整个样本空间上的最优模型。
对于上述的S5步骤,在提取候选窗口特征后,还需要学习分类器来有效判别,以降低虚警率。
更进一步地,在某些实施例中,上述的S6步骤,对所述目标区域进行去重处理,获取检测目标的步骤,包括以下具体步骤:
S61、对目标区域按照是否包含目标的置信度进行排序,获取置信度最高的目标区域;
S62、将置信度最高的目标区域存储于结果集合;
S63、从目标区域内删除与置信度最高的目标区域重叠程度超过设定值的区域,获取检测目标。
对于上述的S61步骤至S63步骤,对于检测窗口去重,常使用非极大抑制算法,该算法采用简单的贪心策略,即优先选取置信度高的候选窗口,同时去掉与该候选窗口重叠超过阈值δ的窗口,通常δ=0.3。
上述的基于高分辨率光学卫星遥感影像的目标检测方法,通过将深度学习提取区域引入到遥感影像的目标检测内,自动提取深层次的特征,并针对大幅面的高分辨率光学遥感影像,将区域特征和影像尺度可扩展的融合上下文场景特征进行融合,结合迁移学习,获取候选区域,并利用SVM分类器进行分类,针对目标区域进行去重处理,获取检测目标,实现在扩大幅面的遥感影像上进行目标检测,优化两者距离很近的目标以及不常见长宽比的目标检测效果。
如图3所示,本实施例还提供了基于高分辨率光学卫星遥感影像的目标检测系统,其包括训练样本形成单元1、候选区域获取单元2、特征提取单元3、分类器获取单元4、分类单元5以及去重单元6。
训练样本形成单元1,用于获得标记的目标正样本和背景负样本,形成训练样本。
候选区域获取单元2,用于针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域。
特征提取单元3,用于获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征。
分类器获取单元4,用于对训练样本进行训练,获取分类器。
分类单元5,用于利用分类器对候选区域特征进行分类,获取包含目标的目标区域。
去重单元6,用于对所述目标区域进行去重处理,获取检测目标。
在训练阶段,获得标记的目标正样本和背景负样本,采取特征提取方法提取有区分性的特征,训练SVM、AdaBoost等分类器;在检测阶段,通过滑动窗口或者候选区域提取算法获得可能包含目标的区域,采用和训练阶段同样的特征提取方法获得候选区域特征,使用训练得到的分类器判别候选区域是否真正包含目标,最后经过一定处理得到最终的检测结果。
更进一步地,在某些实施例中,上述的候选区域获取单元2包括通道抽取模块、通道训练模块、样本测试模块以及得分获取模块。
通道抽取模块,用于针对训练样本抽取多个不同的弱特征通道。
通道训练模块,用于训练每个弱特征通道,获取对应的评分模型以及权重。
每个窗口的位置在每个评分模型中的得分为Skl=(wk,gkl);l=(I,x,y);其中,Skl为评分模型k对候选窗口l的评分;wk为评分模型k的参数,gkl为候选窗口在l处的特征k。
样本测试模块,用于对每个评分模型测试训练样本,获取二阶段训练样本,并根据二阶段训练样本,获取二阶段对应的评分模型以及权重。
得分获取模块,用于获取二阶段评分模型的得分,集成二阶段评分模型的得分,获取得分最高的二阶段评分模型,形成候选区域。
考虑到不同尺度窗口包含目标的可能性不同,例如正方形窗口64*64比5*128更可能包含目标,为每个尺度的窗口训练一个得分校准器,对第一阶段的候选窗口评分进行校准。通过一阶段的线性模型从训练图像中获得候选窗口,并用一阶段的打分作为二阶段训练样本的一维特征,相应类标由该窗口是否覆盖真实目标决定,以此训练二阶段的矫正系数。一阶段训练最终的候选窗口得分为∑nαkSkl,其中,αk为评分模型k的权重。经过二阶段的评分校准后,最终窗口得分为Ol=∑nαkSkl×vi+ti
通过对测试图像计算NG特征图,进而通过二值化近似窗口NG特征和评分模型参数wk,达到评分计算时只需要使用CPU原子操作的优化目的。NG特征图通过计算每个像素点的梯度幅值,捕捉了原图的边缘强度信息,但该特征较简单,容易受到噪声影响。本方法中将NG特征图替换成对边缘信息捕捉效果更好的Sobel特征图,同时引入了局部二值模式特征图和高斯差分特征图Sobel特征图使用3*3的Sobel算子卷积原图的灰度图得到水平、垂直方向的近似梯度,并对通过平方和求得每个像素点对应的梯度幅值。具体公式描述如下:
其中A代表原图矩阵,GX、Gy分别表示图像的水平、垂直方向梯度,G表示最后得到的梯度幅值特征图矩阵,表示卷积操作。
LBP可以用来描述图像的局部纹理特征,也常被用于人脸分类、行人检测等。LBP特征图是指对原图每个像素点求LBP码组成的特征图。为了简化计算,本方法采用最简单的3*3LBP算子,对灰度图进行计算。比较当前中心点像素值和相邻8个像素值,若某个相邻像素值小于中心值,则该相邻位记为0,否则记为1。则8个相邻位比较后产生8位二进制数,转换为10进制数,即为中心像素点的LBP码。
在本实施例中,对于模糊图像提取区域过程中,利用DoG特征图来进行获取区域,DoG特征图通过原始图像的两个不同程度的模糊图像相减得到。其中模糊图像通过原图的灰度图进行不同标准差参数的高斯核卷积得到。两个高斯模糊图像相减相当于一个带通滤波器,抑制了可能是噪声的高频部分以及图像中的均匀区域,增强了边缘等细节的可见性。二维情况下高斯核函数定义为则两幅图的高斯滤波分别表示为g1(x,y)=Gσ1(x,y)*f(x,y);g2(x,y)=Gσ2(x,y)*f(x,y);则DoG特征图由上面滤波得到的两幅图像g1(x,y)和g2(x,y)相减得到g1(x,y)-g2(x,y)=Gσ1(x,y)*f(x,y)-Gσ2(x,y)*f(x,y)=(Gσ1-Gσ2)*f(x,y),即DoG可表示为其中σ1和σ2分别为两个高斯核参数。当DoG被应用在不同目的时,两个高斯核参数的比例不同,当被用于图像增强时,通常σ12被设置为4:1或者5:1,本方法内取σ2=2.0,σ1=0.5;以获取准确的候选区域。
更进一步地,在某些实施例中,上述的特征提取单元3包括网络训练模块、场景获取模块、特征获取模块以及融合模块。
网络训练模块,用于获取两个卷积神经网络,并进行训练。
场景获取模块,用于获取候选区域的上下文场景。
特征获取模块,用于采用两个训练后的卷积神经网络对候选区域和候选区域的上下文场景进行提取特征。
融合模块,用于融合所提取的特征,形成候选区域特征。
更进一步地,在某些实施例中,上述的网络训练模块包括随机样本选择子模块、前馈计算子模块、误差计算子模块、矩阵更新子模块以及迁移学习子模块。
随机样本选择子模块,用于获取两个卷积神经网络,并在训练样本中随机选择样本输入卷积神经网络。
前馈计算子模块,用于利用卷积神经网络对样本进行前馈计算,获取预测输出值。
误差计算子模块,用于获取真实类标,计算预测输出值与真实类标之间的误差。
矩阵更新子模块,用于往前传递误差,根据误差更新卷积神经网络的权重矩阵。
迁移学习子模块,用于对卷积神经网络进行迁移学习。
基于卷积神经网络提取特征可以避免人工设计特征的繁琐和主观性,能获得目标更深层的特征表示。
更进一步地,在某些实施例中,上述的分类器获取单元4包括初始化模块、模型获取模块、样本去除模块、加入模块、第一判断模块以及第二判断模块;初始化模块,用于随机选择难分负样本集,并进行初始化。模型获取模块,用于获取正样本以及负样本,将正样本与难分负样本集进行训练,获取初始模型。样本去除模块用于使用初始模型分类难分负样本集,去除难分负样本集内的易分样本。加入模块,用于从负样本集中搜索获取难分样本,加入难分负样本集中。第一判断模块,用于判断难分负样本集是否达到设定值;若是,则迭代更新初始模型以及难分负样本集。第二判断模块,用于判断迭代更新是否满足条件;若是,则迭代地更新后的初始模型作为分类器。
本实施例采用简单的线性SVM分类器,于样本数量较少时,SVM泛化能力最强;线性SVM训练和检测速度快;特征提取阶段采用了深度学习,所得特征表达能力强,简单的分类器通常就能得到很好的分类效果。
对于上述的分类单元5,在提取候选窗口特征后,还需要学习分类器来有效判别,以降低虚警率。
另外,更进一步地,在某些实施例中,上述的去重单元6包括排序模块、存储模块以及删除模块;排序模块,用于对目标区域按照是否包含目标的置信度进行排序,获取置信度最高的目标区域。存储模块,用于将置信度最高的目标区域存储于结果集合。删除模块,用于从目标区域内删除与置信度最高的目标区域重叠程度超过设定值的区域,获取检测目标。对于检测窗口去重,常使用非极大抑制算法,该算法采用简单的贪心策略,即优先选取置信度高的候选窗口,同时去掉与该候选窗口重叠超过阈值δ的窗口,通常δ=0.3。
上述的基于高分辨率光学卫星遥感影像的目标检测系统,通过将深度学习提取区域引入到遥感影像的目标检测内,自动提取深层次的特征,并针对大幅面的高分辨率光学遥感影像,将区域特征和影像尺度可扩展的融合上下文场景特征进行融合,结合迁移学习,获取候选区域,并利用SVM分类器进行分类,针对目标区域进行去重处理,获取检测目标,实现在扩大幅面的遥感影像上进行目标检测,优化两者距离很近的目标以及不常见长宽比的目标检测效果。
上述仅以实施例来进一步说明本发明的技术内容,以便于读者更容易理解,但不代表本发明的实施方式仅限于此,任何依本发明所做的技术延伸或再创造,均受本发明的保护。本发明的保护范围以权利要求书为准。

Claims (10)

1.基于高分辨率光学卫星遥感影像的目标检测方法,其特征在于,所述方法包括:
获得标记的目标正样本和背景负样本,形成训练样本;
针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域;
获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征;
对训练样本进行训练,获取分类器;
利用分类器对候选区域特征进行分类,获取包含目标的目标区域;
对所述目标区域进行去重处理,获取检测目标。
2.根据权利要求1所述的基于高分辨率光学卫星遥感影像的目标检测方法,其特征在于,针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域的步骤,包括以下具体步骤:
针对训练样本抽取多个不同的弱特征通道;
训练每个弱特征通道,获取对应的评分模型以及权重;
对每个评分模型测试训练样本,获取二阶段训练样本,并根据二阶段训练样本,获取二阶段对应的评分模型以及权重;
获取二阶段评分模型的得分,集成二阶段评分模型的得分,获取得分最高的二阶段评分模型,形成候选区域。
3.根据权利要求1所述的基于高分辨率光学卫星遥感影像的目标检测方法,其特征在于,获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征的步骤,包括以下具体步骤:
获取两个卷积神经网络,并进行训练;
获取候选区域的上下文场景;
采用两个训练后的卷积神经网络对候选区域和候选区域的上下文场景进行提取特征;
融合所提取的特征,形成候选区域特征。
4.根据权利要求3所述的基于高分辨率光学卫星遥感影像的目标检测方法,其特征在于,获取两个卷积神经网络,并进行训练的步骤,包括以下具体步骤:
获取两个卷积神经网络,并在训练样本中随机选择样本输入卷积神经网络;
利用卷积神经网络对样本进行前馈计算,获取预测输出值;
获取真实类标,计算预测输出值与真实类标之间的误差;
往前传递误差,根据误差更新卷积神经网络的权重矩阵;
对卷积神经网络进行迁移学习。
5.根据权利要求1至4任一项所述的基于高分辨率光学卫星遥感影像的目标检测方法,其特征在于,对训练样本进行训练,获取分类器的步骤,包括以下具体步骤:
随机选择难分负样本集,并进行初始化;
获取正样本以及负样本,将正样本与难分负样本集进行训练,获取初始模型;
使用初始模型分类难分负样本集,去除难分负样本集内的易分样本;
从负样本集中搜索获取难分样本,加入难分负样本集中;
判断难分负样本集是否达到设定值;
若否,则返回所述随机选择难分负样本集,并进行初始化的步骤;
若是,则迭代更新初始模型以及难分负样本集;
判断迭代更新是否满足条件;
若是,则迭代地更新后的初始模型作为分类器;
若否,则返回所述迭代更新初始模型以及难分负样本集的步骤。
6.根据权利要求5所述的基于高分辨率光学卫星遥感影像的目标检测方法,其特征在于,对所述目标区域进行去重处理,获取检测目标的步骤,包括以下具体步骤:
对目标区域按照是否包含目标的置信度进行排序,获取置信度最高的目标区域;
将置信度最高的目标区域存储于结果集合;
从目标区域内删除与置信度最高的目标区域重叠程度超过设定值的区域,获取检测目标。
7.基于高分辨率光学卫星遥感影像的目标检测系统,其特征在于,包括训练样本形成单元、候选区域获取单元、特征提取单元、分类器获取单元、分类单元以及去重单元;
所述训练样本形成单元,用于获得标记的目标正样本和背景负样本,形成训练样本;
所述候选区域获取单元,用于针对训练样本抽取多个不同的弱特征通道,根据多个不同的弱特征通道获取候选区域;
所述特征提取单元,用于获取候选区域的上下文场景,对候选区域和候选区域的上下文场景进行提取特征,并将提取的特征进行融合,形成候选区域特征;
所述分类器获取单元,用于对训练样本进行训练,获取分类器;
所述分类单元,用于利用分类器对候选区域特征进行分类,获取包含目标的目标区域;
所述去重单元,用于对所述目标区域进行去重处理,获取检测目标。
8.根据权利要求7所述的基于高分辨率光学卫星遥感影像的目标检测系统,其特征在于,所述候选区域获取单元包括通道抽取模块、通道训练模块、样本测试模块以及得分获取模块;
所述通道抽取模块,用于针对训练样本抽取多个不同的弱特征通道;
所述通道训练模块,用于训练每个弱特征通道,获取对应的评分模型以及权重;
所述样本测试模块,用于对每个评分模型测试训练样本,获取二阶段训练样本,并根据二阶段训练样本,获取二阶段对应的评分模型以及权重;
所述得分获取模块,用于获取二阶段评分模型的得分,集成二阶段评分模型的得分,获取得分最高的二阶段评分模型,形成候选区域。
9.根据权利要求8所述的基于高分辨率光学卫星遥感影像的目标检测系统,其特征在于,所述特征提取单元包括网络训练模块、场景获取模块、特征获取模块以及融合模块;
所述网络训练模块,用于获取两个卷积神经网络,并进行训练;
所述场景获取模块,用于获取候选区域的上下文场景;
所述特征获取模块,用于采用两个训练后的卷积神经网络对候选区域和候选区域的上下文场景进行提取特征;
所述融合模块,用于融合所提取的特征,形成候选区域特征。
10.根据权利要求9所述的基于高分辨率光学卫星遥感影像的目标检测系统,其特征在于,所述网络训练模块包括随机样本选择子模块、前馈计算子模块、误差计算子模块、矩阵更新子模块以及迁移学习子模块;
所述随机样本选择子模块,用于获取两个卷积神经网络,并在训练样本中随机选择样本输入卷积神经网络;
所述前馈计算子模块,用于利用卷积神经网络对样本进行前馈计算,获取预测输出值;
所述误差计算子模块,用于获取真实类标,计算预测输出值与真实类标之间的误差;
所述矩阵更新子模块,用于往前传递误差,根据误差更新卷积神经网络的权重矩阵;
所述迁移学习子模块,用于对卷积神经网络进行迁移学习。
CN201810089157.4A 2018-01-30 2018-01-30 基于高分辨率光学卫星遥感影像的目标检测方法及其系统 Active CN108304873B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810089157.4A CN108304873B (zh) 2018-01-30 2018-01-30 基于高分辨率光学卫星遥感影像的目标检测方法及其系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810089157.4A CN108304873B (zh) 2018-01-30 2018-01-30 基于高分辨率光学卫星遥感影像的目标检测方法及其系统

Publications (2)

Publication Number Publication Date
CN108304873A true CN108304873A (zh) 2018-07-20
CN108304873B CN108304873B (zh) 2020-09-11

Family

ID=62867365

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810089157.4A Active CN108304873B (zh) 2018-01-30 2018-01-30 基于高分辨率光学卫星遥感影像的目标检测方法及其系统

Country Status (1)

Country Link
CN (1) CN108304873B (zh)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109377501A (zh) * 2018-09-30 2019-02-22 上海鹰觉科技有限公司 基于迁移学习的遥感图像舰船分割方法及系统
CN109376773A (zh) * 2018-09-30 2019-02-22 福州大学 基于深度学习的裂纹检测方法
CN109446978A (zh) * 2018-10-25 2019-03-08 哈尔滨工程大学 基于凝视卫星复杂场景的飞机动目标跟踪方法
CN109544603A (zh) * 2018-11-28 2019-03-29 上饶师范学院 基于深度迁移学习的目标跟踪方法
CN109740495A (zh) * 2018-12-28 2019-05-10 成都思晗科技股份有限公司 基于迁移学习技术的室外天气图像分类方法
CN109815807A (zh) * 2018-12-18 2019-05-28 浙江大学 一种基于边缘线分析和聚合通道特征的靠岸船舶检测方法
CN109919076A (zh) * 2019-03-04 2019-06-21 厦门商集网络科技有限责任公司 基于深度学习的确认ocr识别结果可靠性的方法及介质
CN110008971A (zh) * 2018-08-23 2019-07-12 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机可读存储介质及计算机设备
CN110188682A (zh) * 2019-05-30 2019-08-30 西安电子科技大学 基于几何结构双路卷积网络的光学遥感图像目标检测方法
CN110197147A (zh) * 2019-05-23 2019-09-03 星际空间(天津)科技发展有限公司 遥感影像的建筑物实例提取方法、装置、存储介质及设备
CN110276345A (zh) * 2019-06-05 2019-09-24 北京字节跳动网络技术有限公司 卷积神经网络模型训练方法、装置和计算机可读存储介质
CN110287927A (zh) * 2019-07-01 2019-09-27 西安电子科技大学 基于深度多尺度和上下文学习的遥感影像目标检测方法
CN110363239A (zh) * 2019-07-04 2019-10-22 中国人民解放军国防科技大学 一种面向多模态数据的小样本机器学习方法、系统和介质
CN110414414A (zh) * 2019-07-25 2019-11-05 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN110826485A (zh) * 2019-11-05 2020-02-21 中国人民解放军战略支援部队信息工程大学 一种遥感影像的目标检测方法及系统
CN110991201A (zh) * 2019-11-25 2020-04-10 浙江大华技术股份有限公司 条码检测方法及相关装置
CN111104831A (zh) * 2018-10-29 2020-05-05 香港城市大学深圳研究院 一种视觉追踪方法、装置、计算机设备以及介质
CN111104965A (zh) * 2019-11-25 2020-05-05 河北科技大学 车辆目标识别的方法及装置
CN111182491A (zh) * 2019-12-31 2020-05-19 淮安中科晶上智能网联研究院有限公司 一种基于射频层析成像的无设备目标定位的方法及装置
CN111242234A (zh) * 2020-01-17 2020-06-05 深圳力维智联技术有限公司 图像目标的检测方法、装置、终端设备及存储介质
CN111259784A (zh) * 2020-01-14 2020-06-09 西安理工大学 基于迁移学习和主动学习的sar图像变化检测方法
CN111325101A (zh) * 2020-01-21 2020-06-23 上海中旖能源科技有限公司 基于卫星图像的液化天然气储罐检测方法及装置、设备
CN111368865A (zh) * 2018-12-26 2020-07-03 北京眼神智能科技有限公司 遥感影像储油罐检测方法、装置、可读存储介质及设备
CN111666997A (zh) * 2020-06-01 2020-09-15 安徽紫薇帝星数字科技有限公司 一种样本平衡方法及目标器官分割模型构建方法
CN111753911A (zh) * 2020-06-28 2020-10-09 北京百度网讯科技有限公司 用于融合模型的方法和装置
CN112084860A (zh) * 2020-08-06 2020-12-15 中国科学院空天信息创新研究院 目标对象检测、火力发电厂检测方法和装置
CN112101391A (zh) * 2019-06-18 2020-12-18 富士通株式会社 图像分类器的训练装置、检测目标物体的装置和电子设备
CN112150174A (zh) * 2019-06-27 2020-12-29 百度在线网络技术(北京)有限公司 一种广告配图方法、装置及电子设备
CN112232450A (zh) * 2020-12-15 2021-01-15 浙江啄云智能科技有限公司 一种综合多阶段的难例样本挖掘方法、目标检测方法
CN112559885A (zh) * 2020-12-25 2021-03-26 北京百度网讯科技有限公司 地图兴趣点的训练模型确定方法、装置及电子设备
CN112580408A (zh) * 2019-09-30 2021-03-30 杭州海康威视数字技术股份有限公司 深度学习模型训练方法、装置及电子设备
CN112633327A (zh) * 2020-12-02 2021-04-09 西安电子科技大学 分阶段金属表面缺陷检测方法、系统、介质、设备及应用
CN112668725A (zh) * 2020-05-21 2021-04-16 广东顺德募优网络科技有限公司 一种基于改进特征的金属洗手盆缺陷目标训练方法
TWI740565B (zh) * 2020-07-03 2021-09-21 財團法人國家實驗研究院國家高速網路與計算中心 改善遙測影像品質的方法、電腦程式產品及系統
CN113657472A (zh) * 2021-08-02 2021-11-16 中国空间技术研究院 一种基于子空间学习的多源遥感数据融合方法
CN114463619A (zh) * 2022-04-12 2022-05-10 西北工业大学 基于集成融合特征的红外弱小目标检测方法
CN114660598A (zh) * 2022-02-07 2022-06-24 安徽理工大学 一种融合InSAR和CNN-AFSA-SVM的开采沉陷盆地自动检测方法
CN116363435A (zh) * 2023-04-03 2023-06-30 盐城工学院 一种基于深度学习的遥感图像目标检测系统及方法
CN116402691A (zh) * 2023-06-05 2023-07-07 四川轻化工大学 基于图像特征快速拼接的图像超分辨率方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104103033A (zh) * 2014-08-05 2014-10-15 四川九成信息技术有限公司 图像实时处理方法
CN107516317A (zh) * 2017-08-18 2017-12-26 上海海洋大学 一种基于深度卷积神经网络的sar影像海冰分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104103033A (zh) * 2014-08-05 2014-10-15 四川九成信息技术有限公司 图像实时处理方法
CN107516317A (zh) * 2017-08-18 2017-12-26 上海海洋大学 一种基于深度卷积神经网络的sar影像海冰分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘欢: "基于高分辨率光学遥感影像的特定目标检测算法研究", 《知网节》 *

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008971A (zh) * 2018-08-23 2019-07-12 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机可读存储介质及计算机设备
US11604949B2 (en) 2018-08-23 2023-03-14 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus, computer-readable storage medium, and computer device
CN109376773A (zh) * 2018-09-30 2019-02-22 福州大学 基于深度学习的裂纹检测方法
CN109377501A (zh) * 2018-09-30 2019-02-22 上海鹰觉科技有限公司 基于迁移学习的遥感图像舰船分割方法及系统
CN109446978A (zh) * 2018-10-25 2019-03-08 哈尔滨工程大学 基于凝视卫星复杂场景的飞机动目标跟踪方法
CN111104831A (zh) * 2018-10-29 2020-05-05 香港城市大学深圳研究院 一种视觉追踪方法、装置、计算机设备以及介质
CN111104831B (zh) * 2018-10-29 2023-09-29 香港城市大学深圳研究院 一种视觉追踪方法、装置、计算机设备以及介质
CN109544603A (zh) * 2018-11-28 2019-03-29 上饶师范学院 基于深度迁移学习的目标跟踪方法
CN109815807A (zh) * 2018-12-18 2019-05-28 浙江大学 一种基于边缘线分析和聚合通道特征的靠岸船舶检测方法
CN111368865B (zh) * 2018-12-26 2023-08-22 北京眼神智能科技有限公司 遥感影像储油罐检测方法、装置、可读存储介质及设备
CN111368865A (zh) * 2018-12-26 2020-07-03 北京眼神智能科技有限公司 遥感影像储油罐检测方法、装置、可读存储介质及设备
CN109740495A (zh) * 2018-12-28 2019-05-10 成都思晗科技股份有限公司 基于迁移学习技术的室外天气图像分类方法
CN109919076A (zh) * 2019-03-04 2019-06-21 厦门商集网络科技有限责任公司 基于深度学习的确认ocr识别结果可靠性的方法及介质
CN110197147A (zh) * 2019-05-23 2019-09-03 星际空间(天津)科技发展有限公司 遥感影像的建筑物实例提取方法、装置、存储介质及设备
CN110197147B (zh) * 2019-05-23 2022-12-02 星际空间(天津)科技发展有限公司 遥感影像的建筑物实例提取方法、装置、存储介质及设备
CN110188682A (zh) * 2019-05-30 2019-08-30 西安电子科技大学 基于几何结构双路卷积网络的光学遥感图像目标检测方法
CN110276345A (zh) * 2019-06-05 2019-09-24 北京字节跳动网络技术有限公司 卷积神经网络模型训练方法、装置和计算机可读存储介质
CN112101391A (zh) * 2019-06-18 2020-12-18 富士通株式会社 图像分类器的训练装置、检测目标物体的装置和电子设备
CN112150174B (zh) * 2019-06-27 2024-04-02 百度在线网络技术(北京)有限公司 一种广告配图方法、装置及电子设备
CN112150174A (zh) * 2019-06-27 2020-12-29 百度在线网络技术(北京)有限公司 一种广告配图方法、装置及电子设备
CN110287927B (zh) * 2019-07-01 2021-07-27 西安电子科技大学 基于深度多尺度和上下文学习的遥感影像目标检测方法
CN110287927A (zh) * 2019-07-01 2019-09-27 西安电子科技大学 基于深度多尺度和上下文学习的遥感影像目标检测方法
CN110363239B (zh) * 2019-07-04 2021-08-13 中国人民解放军国防科技大学 一种面向多模态数据的小样本机器学习方法、系统和介质
CN110363239A (zh) * 2019-07-04 2019-10-22 中国人民解放军国防科技大学 一种面向多模态数据的小样本机器学习方法、系统和介质
CN110414414B (zh) * 2019-07-25 2022-02-18 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN110414414A (zh) * 2019-07-25 2019-11-05 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN112580408B (zh) * 2019-09-30 2024-03-12 杭州海康威视数字技术股份有限公司 深度学习模型训练方法、装置及电子设备
CN112580408A (zh) * 2019-09-30 2021-03-30 杭州海康威视数字技术股份有限公司 深度学习模型训练方法、装置及电子设备
CN110826485B (zh) * 2019-11-05 2023-04-18 中国人民解放军战略支援部队信息工程大学 一种遥感影像的目标检测方法及系统
CN110826485A (zh) * 2019-11-05 2020-02-21 中国人民解放军战略支援部队信息工程大学 一种遥感影像的目标检测方法及系统
CN110991201B (zh) * 2019-11-25 2023-04-18 浙江大华技术股份有限公司 条码检测方法及相关装置
CN110991201A (zh) * 2019-11-25 2020-04-10 浙江大华技术股份有限公司 条码检测方法及相关装置
CN111104965A (zh) * 2019-11-25 2020-05-05 河北科技大学 车辆目标识别的方法及装置
CN111182491B (zh) * 2019-12-31 2022-03-22 淮安中科晶上智能网联研究院有限公司 一种基于射频层析成像的无设备目标定位的方法及装置
CN111182491A (zh) * 2019-12-31 2020-05-19 淮安中科晶上智能网联研究院有限公司 一种基于射频层析成像的无设备目标定位的方法及装置
CN111259784B (zh) * 2020-01-14 2023-02-07 西安理工大学 基于迁移学习和主动学习的sar图像变化检测方法
CN111259784A (zh) * 2020-01-14 2020-06-09 西安理工大学 基于迁移学习和主动学习的sar图像变化检测方法
CN111242234A (zh) * 2020-01-17 2020-06-05 深圳力维智联技术有限公司 图像目标的检测方法、装置、终端设备及存储介质
CN111325101A (zh) * 2020-01-21 2020-06-23 上海中旖能源科技有限公司 基于卫星图像的液化天然气储罐检测方法及装置、设备
CN112668725A (zh) * 2020-05-21 2021-04-16 广东顺德募优网络科技有限公司 一种基于改进特征的金属洗手盆缺陷目标训练方法
CN111666997A (zh) * 2020-06-01 2020-09-15 安徽紫薇帝星数字科技有限公司 一种样本平衡方法及目标器官分割模型构建方法
CN111666997B (zh) * 2020-06-01 2023-10-27 安徽紫薇帝星数字科技有限公司 一种样本平衡方法及目标器官分割模型构建方法
CN111753911A (zh) * 2020-06-28 2020-10-09 北京百度网讯科技有限公司 用于融合模型的方法和装置
TWI740565B (zh) * 2020-07-03 2021-09-21 財團法人國家實驗研究院國家高速網路與計算中心 改善遙測影像品質的方法、電腦程式產品及系統
CN112084860A (zh) * 2020-08-06 2020-12-15 中国科学院空天信息创新研究院 目标对象检测、火力发电厂检测方法和装置
CN112633327B (zh) * 2020-12-02 2023-06-30 西安电子科技大学 分阶段金属表面缺陷检测方法、系统、介质、设备及应用
CN112633327A (zh) * 2020-12-02 2021-04-09 西安电子科技大学 分阶段金属表面缺陷检测方法、系统、介质、设备及应用
CN112232450B (zh) * 2020-12-15 2021-03-16 浙江啄云智能科技有限公司 一种综合多阶段的难例样本挖掘方法、目标检测方法
CN112232450A (zh) * 2020-12-15 2021-01-15 浙江啄云智能科技有限公司 一种综合多阶段的难例样本挖掘方法、目标检测方法
CN112559885B (zh) * 2020-12-25 2024-01-12 北京百度网讯科技有限公司 地图兴趣点的训练模型确定方法、装置及电子设备
CN112559885A (zh) * 2020-12-25 2021-03-26 北京百度网讯科技有限公司 地图兴趣点的训练模型确定方法、装置及电子设备
CN113657472A (zh) * 2021-08-02 2021-11-16 中国空间技术研究院 一种基于子空间学习的多源遥感数据融合方法
CN114660598A (zh) * 2022-02-07 2022-06-24 安徽理工大学 一种融合InSAR和CNN-AFSA-SVM的开采沉陷盆地自动检测方法
CN114463619A (zh) * 2022-04-12 2022-05-10 西北工业大学 基于集成融合特征的红外弱小目标检测方法
CN116363435B (zh) * 2023-04-03 2023-10-27 盐城工学院 一种基于深度学习的遥感图像目标检测系统及方法
CN116363435A (zh) * 2023-04-03 2023-06-30 盐城工学院 一种基于深度学习的遥感图像目标检测系统及方法
CN116402691B (zh) * 2023-06-05 2023-08-04 四川轻化工大学 基于图像特征快速拼接的图像超分辨率方法和系统
CN116402691A (zh) * 2023-06-05 2023-07-07 四川轻化工大学 基于图像特征快速拼接的图像超分辨率方法和系统

Also Published As

Publication number Publication date
CN108304873B (zh) 2020-09-11

Similar Documents

Publication Publication Date Title
CN108304873A (zh) 基于高分辨率光学卫星遥感影像的目标检测方法及其系统
CN111310862B (zh) 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN111310773B (zh) 一种高效的卷积神经网络的车牌定位方法
CN109583425A (zh) 一种基于深度学习的遥感图像船只集成识别方法
CN110210551A (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN109902806A (zh) 基于卷积神经网络的噪声图像目标边界框确定方法
CN110807422A (zh) 一种基于深度学习的自然场景文本检测方法
CN110929593B (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN107463892A (zh) 一种结合上下文信息和多级特征的图像中行人检测方法
CN108460403A (zh) 一种图像中多尺度特征融合的目标检测方法与系统
CN107945153A (zh) 一种基于深度学习的路面裂缝检测方法
CN108830196A (zh) 基于特征金字塔网络的行人检测方法
CN106650690A (zh) 基于深度卷积‑反卷积神经网络的夜视图像场景识别方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN108734719A (zh) 一种基于全卷积神经网络的鳞翅目昆虫图像前背景自动分割方法
CN106815323B (zh) 一种基于显著性检测的跨域视觉检索方法
CN109543632A (zh) 一种基于浅层特征融合引导的深层网络行人检测方法
CN109325484A (zh) 基于背景先验显著性的花卉图像分类方法
CN107066916A (zh) 基于反卷积神经网络的场景语义分割方法
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN107909081A (zh) 一种深度学习中图像数据集的快速获取和快速标定方法
CN109886161A (zh) 一种基于可能性聚类和卷积神经网络的道路交通标识识别方法
CN109766823A (zh) 一种基于深层卷积神经网络的高分辨率遥感船舶检测方法
CN112232371A (zh) 一种基于YOLOv3与文本识别的美式车牌识别方法
CN103679187A (zh) 图像识别方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant