CN115457396B - 一种基于遥感影像的地表目标地物检测方法 - Google Patents

一种基于遥感影像的地表目标地物检测方法 Download PDF

Info

Publication number
CN115457396B
CN115457396B CN202211175223.2A CN202211175223A CN115457396B CN 115457396 B CN115457396 B CN 115457396B CN 202211175223 A CN202211175223 A CN 202211175223A CN 115457396 B CN115457396 B CN 115457396B
Authority
CN
China
Prior art keywords
remote sensing
sensing image
target
target detection
yolov3
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211175223.2A
Other languages
English (en)
Other versions
CN115457396A (zh
Inventor
郝庆涛
孙雷刚
鲁军景
左璐
刘剑锋
张胜海
马晓倩
黄亚云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute Of Geography Hebei Academy Of Sciences
Original Assignee
Institute Of Geography Hebei Academy Of Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute Of Geography Hebei Academy Of Sciences filed Critical Institute Of Geography Hebei Academy Of Sciences
Priority to CN202211175223.2A priority Critical patent/CN115457396B/zh
Publication of CN115457396A publication Critical patent/CN115457396A/zh
Application granted granted Critical
Publication of CN115457396B publication Critical patent/CN115457396B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明公开了一种基于遥感影像的地表目标地物检测方法,包括:对遥感影像进行预处理;对预处理后的遥感影像进行切片,得到影像切片集合;进行样本挑选、数据增强、标注等,构建遥感影像目标检测样本集;提出一种用于遥感影像的YOLOv3‑RSI目标检测模型;利用构建的样本集对模型进行训练,得到训练好的模型;利用训练好的模型对待检测遥感影像进行目标检测;对检测结果进行后处理,得到矢量化的检测结果。该方法提高了对遥感影像复杂场景的理解能力和小目标的识别能力,能够快速地从大批量、大范围遥感影像中检测出感兴趣的目标地物,并生成矢量化的检测结果,为基于遥感影像快速、准确和智能化的信息提取提供了手段,操作简单,易于在大尺度范围推广应用。

Description

一种基于遥感影像的地表目标地物检测方法
技术领域
本发明涉及一种基于遥感影像的地表目标地物检测方法,属于电数字数据处理、视觉影像处理以及遥感图像处理领域。
背景技术
遥感信息提取是指从海量的、多样的、有噪声的遥感影像数据中提取出蕴涵在其中的大量的对用户有用的信息(例如地物、植被、温度等),并将其(形成结构化的数据)放入数据库中或以其它形式提供给用户查询使用的过程。随着航天遥感信息获取技术的飞速发展,从遥感信息中自动提取专题信息已经成为遥感信息生产流程中的瓶颈环节。大部分遥感信息的分类和提取,主要是利用数理统计与人工解译相结合的方法,这种方法不仅精度相对较低,效率不高,劳动强度大,而且依赖参与解译分析的人的先验知识与经验,在很大程度上不具备重复性。尤其对多时相、多传感器、多平台、多光谱波段遥感数据的复合处理,问题更为突出。因此,研究遥感信息的智能化提取方法对于提高遥感信息的提取精度和效率具有重要意义。
近年来遥感技术飞速发展,在国土、农业、资源、灾害、环保等众多领域得到了广泛的应用。遥感影像的分辨率(空间分辨率、时间分辨率、光谱分辨率等)不断提高,遥感平台和传感器种类、数量不断增加,高分辨率遥感影像获取更加方便。遥感影像具有覆盖范围广、成像波段多、更新周期短、地物细节丰富等特点,在大范围区域内的地物目标检测、地物信息获取等方面具有显著的优势。与此同时,以深度卷积神经网络(Deep ConvolutionalNeural Network,DCNN)为代表的人工智能技术发展迅速,在图像识别与分类、目标检测等领域取得了显著的效果。DCNN通过模拟人类大脑的神经连接结构,构建深层的卷积网络,从大量样本中自动地学习得到层次化的特征,并根据任务目标不断自我优化,对于大样本量的全局特征表达和多层次综合处理方面具有突出优势,与传统图像处理方法相比,具有自组织、自学习、自推理和自适应的特点。
遥感影像目标检测是为了从遥感影像中自动化地获取感兴趣的目标和信息,是遥感信息的智能化提取任务之一。目标检测的任务是将定位与分类相结合,在图像中定位目标的位置并识别出类别。遥感影像目标检测是伴随遥感和人工智能技术的发展而兴起的,具有覆盖范围广、自动化程度高、执行效率高等特点,在军民两方面都具有重要价值。首先是在军事方面,遥感影像目标检测可以用来进行情报的收集、分析和处理,比如舰船、军事车辆、机场、指挥所等高价值目标的检测,根据情报可以调整作战计划以及军事部署等;其次,在民用方面,在土地利用变化监测、国土空间规划、城市发展研究等多方面应用中都能取得较好的效果。
国内外研究人员在基于DCNN的目标检测领域进行了深入的研究,并在自然场景照片领域取得了巨大的成功。Ross Girshick等于2014年提出了R-CNN网络模型,R-CNN作为基于DCNN的目标检测模型开山之作,通过候选区的方式进行目标检测,取得了良好的效果,并为后续的模型提供了借鉴。由于R-CNN需要生成候选区,再对每个候选区进行特征提取,该过程耗时严重,导致模型运行效率非常慢,于是Ross Girshick等在R-CNN的基础上进行了一系列改进,依次提出了Fast R-CNN和Faster R-CNN,模型的效率得到了一定程度的提升。虽然Fast R-CNN和Faster R-CNN在模型效率和精度上取得了一定的效果,但仍然是两阶段处理模式,即先提出候选区,再对候选区的对象进行识别,效率难以继续提高。于是JosephRedmon等提出了YOLO模型,去掉了生成候选区域的步骤,通过边框回归的方式,实现了端到端的目标检测。该模型将目标检测物的定位与分类统一成一个回归问题,在保证精度的前提下,效率得到了显著的提升。YOLO模型在效率上得到了较大的提升,但是其只用到了单一尺度的特征进行目标检测,对小目标检测精度较差,Joseph Redmon等又在R-CNN的基础上,通过采取一些先进策略,针对YOLO的神经网络结构和算法不断改进,依次提出了YOLOv2和YOLOv3目标检测模型,提升了预测精度,加强了对小物体的识别能力。虽然YOLOv3模型目标检测精度上有了一定程度的提升,但是它没有考虑场景中不同空间位置上目标之间的关系,也没有考虑特征通道之间的相互依赖,空间与通道维度上的依赖性对于物体识别也很重要。这些原因导致YOLOv3模型的精度难以进一步地提升,对小目标的检测能力也较差,尤其是对于具有复杂场景的遥感影像检测精度不高。
由于DCNN能够通过训练自动地学习、提取图像的高级特征,这些高级特征对于复杂场景的理解以及区分非常有效,很多学者将在自然场景照片领域取得良好效果的目标检测模型进行迁移学习,引入遥感影像中来,取得了一定的效果。遥感图像具有覆盖范围大、场景复杂度高、地物尺度差异大等特点,使得遥感影像在提供更多信息的同时,存在着更复杂的背景,进而给目标检测任务带来了巨大的挑战。现有的基于自然场景照片的DCNN目标检测模型没有考虑遥感影像区别于照片的差异,对于遥感影像复杂的背景以及地物间的尺度差异没有充分考虑,也没有考虑特征的空间维度和通道维度上的相互依赖,导致目标提取精度较低,目标检测能力较差。同时遥感影像光谱分辨率越高,波段数越多,越能充分利用地物在不同波段光谱响应特征的差别,进而区分不同的地物类型,而现有研究针对遥感影像提出的目标检测模型并没有利用遥感影像的多波段优势,导致目前的目标检测模型并不能充分的挖掘遥感影像所蕴含的信息。
发明内容
针对现有研究和技术存在的不足,本发明提出了一种基于遥感影像的地表目标地物检测方法,充分考虑了遥感影像场景复杂、地物目标尺度差异大的特点,利用了遥感影像光谱分辨率高、波段多的优势,最大限度的挖掘遥感影像的多光谱信息,并通过添加的双重注意力模块对特征的空间维度和通道维度上的依赖性建模,提高了对复杂场景的理解能力和小目标的识别能力,该方法操作简单、易于大尺度推广应用。
为解决上述问题,本发明所采取的技术方案是:
一种基于遥感影像的地表目标地物检测方法,包括以下步骤:
S1,对原始遥感影像进行预处理,得到像元值为地物真实反射率的多光谱遥感影像结果图,其中预处理包括辐射定标、大气校正、正射校正和波段融合;
S2,针对步骤S1所得遥感影像结果图,将遥感影像结果图按照预定尺寸进行规则化切片以得到遥感影像切片,同时使遥感影像切片分别在水平方向和垂直方向保持至少部分重叠,以保持目标地物的完整性,得到规则化的遥感影像切片集合;
S3,针对步骤S2中得到的规则化的遥感影像切片集合,筛选出包含目标地物的遥感影像切片,得到目标地物样本集合;
S4,针对步骤S3中得到的目标地物样本集合中的遥感影像切片进行以下操作:
S4-1,对每个遥感影像切片分别进行旋转数据增强处理与镜像数据增强处理中的一种或两种,将处理后的遥感影像切片加入到目标地物样本集合中,得到增强后的增强目标地物样本集合;
S4-2,数据增强处理是指通过对图像进行翻转、裁剪、变换、加噪声处理中的一种或多种,以增加样本的数量和多样性,进而增强模型的泛化能力;
S4-3,对增强目标地物样本集合中的每个遥感影像切片进行样本标注,将其中包含的目标地物的轮廓用矩形框标注出来,将矩形框的坐标和目标地物的类别保存到文件中以得到遥感影像切片对应的样本标注集合;
S5,针对步骤S4得到样本标注集合,根据随机原则,按照预先设定的比例,划分成训练集、验证集和测试集三部分,得到遥感影像目标检测样本集;
S6,构建用于遥感影像目标地物的YOLOv3-RSI目标检测模型,该模型在YOLOv3目标检测模型的基础上添加用于对遥感影像切片所有波段进行特征提取且可扩展的CNN模块和用于对提取得到的特征图的空间维与通道维的语义相关性进行建模的双重注意力模块,双重注意力模块能够提高模型的场景理解能力以及对小目标的检测能力;
S7,针对步骤S5得到的遥感影像目标检测样本集和步骤S6构建的YOLOv3-RSI目标检测模型进行训练,训练过程包括以下操作:
S7-1,对CNN模块进行预训练;
首先修改YOLOv3-RSI目标检测模型的网络结构,屏蔽YOLOv3-RSI目标检测模型的Darknet-53模块,将CNN模块提取的特征经双重注意力模块处理后输入到分类回归网络中;然后对YOLOv3-RSI目标检测模型的参数进行随机初始化,接着用步骤S5得到的遥感影像目标检测样本集对YOLOv3-RSI目标检测模型进行训练,得到预训练的CNN模块;
S7-2,对YOLOv3-RSI模型进行整体训练;
首先修改YOLOv3-RSI模型的网络结构,放开YOLOv3-RSI目标检测模型的Darknet-53模块,将Darknet-53模块和CNN模块提取的特征进行连接并经双重注意力模块处理后再输入到分类回归网络中,然后对YOLOv3-RSI目标检测模型的参数进行初始化,Darknet-53模块加载自然场景图像数据集上迁移学习的参数,CNN模块加载步骤S7-1中预训练的参数;接着用步骤S5得到的遥感影像目标检测样本集对YOLOv3-RSI目标检测模型进行训练,得到训练好的YOLOv3-RSI目标检测模型;
S7-3,利用步骤S5得到的遥感影像目标检测样本集中的测试集对训练好的YOLOv3-RSI目标检测模型进行精度验证,采用目标检测领域的统计学指标:精确度P、召回率R、调和平均数F,对YOLOv3-RSI目标检测模型的精度进行评价,当模型精度满足实际应用需求时,YOLOv3-RSI目标检测模型训练完成;否则,采取包括增加样本量、提高样本集的多样性以及增加训练迭代次数中的一种或多种措施进行重新训练,直到YOLOv3-RSI目标检测模型精度满足要求,得到最终训练好的YOLOv3-RSI目标检测模型;
S8,按照步骤S1将待检测遥感影像进行预处理,得到像元值为地物真实反射率的待检测的多光谱遥感影像结果图;
S9,按照步骤S2将待检测的多光谱遥感影像结果图进行规则化切片,得到规则化切片的遥感影像切片集合;
S10,将步骤S9得到的遥感影像切片集合中的遥感影像切片依次输入到步骤S7中训练好的YOLOv3-RSI目标检测模型,得到每个遥感影像切片对应的目标检测结果,包括可视化的检测结果示意图以及结果描述表,其中,结果描述表记录了每个遥感影像切片中所有目标地物检测框的坐标、判别类别以及置信度;
S11,针对步骤S10得到的检测结果,通过设置筛选条件,保留存在目标地物的检测结果;
S12,针对步骤S11筛选得到的目标地物的检测结果,将目标地物的检测结果矢量化,过程包括以下操作:
S12-1,创建矢量图层,包括创建图层、设置坐标系、添加字段中的一种或多种;
S12-2,针对步骤S11筛选得到的检测结果,对检测结果中的检测框通过设置置信度阈值进行筛选;将筛选得到的检测框的相对坐标转换为真实地理坐标;
S12-3,针对步骤S12-2坐标转换后的检测框,为每个转换后的检测框创建一个矢量要素,并将创建的要素添加到步骤S12-1中创建的矢量图层中;
S12-4,对矢量图层中要素的属性信息进行维护:将每个检测框的目标地物的判别类别以及置信度赋值到对应的矢量图层的相应字段中;
S13,将步骤S8中预处理后的遥感影像结果图与步骤S12得到的矢量图层叠加显示,得到遥感影像目标检测结果示意图。
进一步地,步骤S5还包括针对遥感影像切片集合进行筛选、数据增强和标注处理中的一种或多种,得到遥感影像目标检测样本集。
进一步地,步骤S6中的用于对遥感影像所有波段进行特征提取的可扩展的CNN模块结构为:
(1)输入为多光谱遥感影像的多维矩阵;
(2)中间层包括2个卷积核尺寸为3*3,步长为1*1,深度为64的卷积层,1个尺寸为2*2的最大池化层;2个卷积核尺寸为3*3,步长为1*1,深度为128的卷积层,1个尺寸为2*2的最大池化层;3个卷积核尺寸为3*3,步长为1*1,深度为256的卷积层,1个尺寸为2*2的最大池化层;3个卷积核尺寸为3*3,步长为1*1,深度为512的卷积层,1个尺寸为2*2的最大池化层;3个卷积核尺寸为3*3,步长为1*1,深度为1024的卷积层,1个尺寸为2*2的最大池化层;
(3)输出为输入影像8倍、16倍和32倍下采样的三种尺度的特征图。
进一步地,步骤S6中的用于对特征图的空间维和通道维的语义相关性进行建模的双重注意力模块特征为:
(1)将提取的特征图分别输入空间注意力模块和通道注意力模块,通过自注意力机制分别捕获特征图的任意空间位置和任意特征通道之间的特征依赖;
(2)将空间注意力模块和通道注意力模块处理后的特征图通过相加求和进行特征融合;
(3)对融合后的特征图进行卷积处理,生成对空间维和通道维的相关性进行建模的新的特征图。
进一步地,步骤S6中的用于遥感影像目标地物的YOLOv3-RSI目标检测模型结构为:
(1)输入为多光谱遥感影像的多维矩阵;
(2)将输入的多维矩阵进行切片,分成两部分:包含RGB三波段的部分和包含所有波段的部分;
(3)将包含RGB三波段的部分和包含所有波段的部分分别输入Darknet-53模块和CNN模块中进行特征提取;
(4)分别得到Darknet-53模块与CNN模块输出的原始影像8倍、16倍和32倍下采样的三种尺度的特征图;
(5)将Darknet-53模块与CNN模块得到的对应尺度的特征图分别进行拼接;
(6)将拼接后的三种尺度的特征图分别输入到双重注意力模块中进行特征图空间维和通道维上语义相关性的提取;
(7)将双重注意力模块处理后的三种尺度的特征图分别输入分类回归网络中进行目标检测以得到目标检测结果;
(8)对目标检测结果进行非极大值抑置,去除多余的检测框,得到最终的目标检测结果。
进一步地,步骤S7-1中分类回归网络的损失函数计算公式为:
Figure BDA0003864926260000071
Figure BDA0003864926260000072
Figure BDA0003864926260000073
Figure BDA0003864926260000074
Figure BDA0003864926260000075
其中,Loss是网络的损失函数,W是输出特征图的宽度,H是输出特征图的高度,B是先验框的个数;误差组成的第一部分是边框中心点误差,其中(xi,yi)、
Figure BDA0003864926260000076
分别是预测边框和真实边框的中心点坐标,λcoord是边框位置误差的权重;第二部分是边框宽度和高度误差,其中(wi,hi)、/>
Figure BDA0003864926260000077
分别是预测边框和真实边框的宽度和高度;第三部分是边框的置信度误差,其中Ci和/>
Figure BDA0003864926260000078
分别是预测边框和真实边框的置信度;第四部分是边框置信度误差,其中λnoobj是不存在对象的边框的置信度的权重;第五部分是对象分类误差,其中Pi(c)和/>
Figure BDA0003864926260000081
分别是预测边框和真实边框的类别判别概率。
进一步地,步骤S7-3中的精度验证公式为:
Figure BDA0003864926260000082
Figure BDA0003864926260000083
Figure BDA0003864926260000084
其中,P是模型的精确度,表示检测结果中真实目标的比例,与检测的误检率相关,P值越接近1,误检率越低;R是模型的召回率,表示检测结果中的真实目标数量占真实存在的目标的数量的比例,与检测的漏检率相关,R值越接近于1,漏检率越低;F是模型的调和平均数,可以作为P与R的综合评价指标,F值越接近于1,模型的综合表现越好;X是检测结果中真实目标的数量,Y是检测结果中假目标的数量,Z是未检测到的目标的数量。
进一步地,步骤S10中分类回归网络损失函数中的置信度计算公式为:
Figure BDA0003864926260000085
其中,Pr(Object)预测边框内存在对象的概率,
Figure BDA0003864926260000086
是对象的预测边框和真实边框的交并比。
进一步地,步骤S12-2中的坐标转换公式为:
X=X0+x*pixcel_size
Y=Y0+y*pixcel_size
其中,(X,Y)是预测边框顶点的真实地理坐标,(X0,Y0)是影像切片左下角的真实地理坐标,(x,y)是预测边框顶点坐标相对于影像切片左下角的相对坐标,pixcel_size是影像的像元尺寸。
本发明的有益效果在于:
1、本发明设计了一种基于遥感影像的地表目标地物检测方法,实现了遥感影像大批量、大范围、智能化的目标提取,为基于遥感影像快速、准确的信息提取以及以此为基础的监测、管理提供了手段,操作简单、灵活,易于在大尺度范围推广应用。
2、本发明考虑了遥感影像场景复杂、地物目标尺度多样的特点,充分利用了遥感影像光谱分辨率高、波段数量多、蕴含信息量丰富的优势,在基于自然场景照片的YOLOv3目标检测模型的基础上进行改进,增加了可扩展的CNN模块用于对遥感影像多光谱波段进行特征提取,以及添加了双重注意力模块用于对特征图的空间维和通道维的依赖性进行建模,构建了用于遥感影像的YOLOv3-RSI目标检测模型,该模型既能利用原YOLOv3模型在大规模自然场景照片数据集上迁移学习的优势,又能充分利用遥感影像波段数多的特点,能够有效提高遥感影像复杂场景下目标检测的精度,尤其是小目标的识别能力。
附图说明
图1为本发明的技术流程示意图;
图2为预处理后的遥感影像示意图;
图3为本发明构建的YOLOv3-RSI目标检测模型的结构示意图;
图4为本发明中双重注意力模块的结构示意图;
图5为目标检测结果示意图;
图6为遥感影像目标检测结果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本实施例以高分一号遥感影像中的目标检测为例进行说明。实验数据为现有的京津冀区域2013-2015年21景高分一号PMS传感器遥感影像数据,其中,河北省区域内的遥感影像用于样本提取,北京市区域内的遥感影像用于测试。
参考图1,图1为本发明提出的一种基于遥感影像的地表目标地物检测方法的技术流程图,包括以下步骤:
S1,对原始遥感影像进行预处理,得到像元值为地物真实反射率的多光谱遥感影像结果图,其中预处理包括但不限于辐射定标、大气校正、正射校正和波段融合中的一种或多种;
首先对下载好的21景高分一号PMS传感器遥感影像数据的多光谱数据(MSS)和全色数据(PAN)分别进行辐射定标,将遥感影像的像元亮度值(DN值)转换为绝对辐射亮度值;然后对辐射定标后的多光谱数据进行大气校正,将辐射亮度值转化为地物真实反射率;接着分别对辐射定标后的全色数据和大气校正后的多光谱数据进行正射校正;最后将多光谱数据和全色数据进行波段融合,得到空间分辨率为2米的包含红(R)、绿(G)、蓝(B)、近红外(NIR)四个波段的遥感影像,如图2所示;本实施例遥感影像预处理操作使用ENVI 5.3软件;
S2,针对步骤S1所得遥感影像结果图,选取其中河北省区域内的14景进行样本选取,通过编写的影像切片程序脚本将预处理后的遥感影像进行批量化的规则切片:以影像左下角为起点,将影像按照M*N像元的尺寸进行规则化切片,具体的,在本实施例中,将影像按照416×416像元的尺寸进行规则的切片,同时使切片在水平方向和垂直方向保持100个像元的重叠,以保持目标地物的完整性,得到规则化的遥感影像切片集合;
S3,通过人工筛选出包含目标地物的且影像质量较好、代表性强、类型丰富的遥感影像切片作为样本,这些遥感影像切片构成遥感影像切片集合,在本实施例中,遥感影像切片的数量为1003个;
S4,针对步骤S3中得到的目标地物样本集合中的遥感影像切片进行以下操作:
S4-1,对步骤S3得到的遥感影像切片集合中的遥感影像切片分别进行包括但不限于旋转数据增强处理和镜像数据增强处理,其中,旋转数据增强处理分别为90°、180°、270°中的一种或多种,然后对遥感影像切片进行镜像数据增强处理,将处理后的遥感影像切片加入到原来的遥感影像切片集合当中,得到增强后的增强遥感影像切片集合,在本实施例中,遥感影像切片集合中的遥感影像切片的数量共4012个;
S4-2,数据增强处理是指通过对图像进行包括但不限于翻转、裁剪、变换、加噪声处理中的一种或多种生成新的样本,以增加样本的数量和多样性,进而增强模型的泛化能力;
S4-3,对增强目标地物样本集合中的每个遥感影像切片进行样本标注,将其中包含的目标地物的轮廓用矩形框标注出来,将矩形框的坐标和目标地物的类别保存到XML格式的文件中,以得到遥感影像切片对应的样本标注集合,样本标注集合中标注的遥感影像切片共4012个;
S5,针对步骤S4得到样本标注集合,根据随机原则,按照8:1:1的比例,划分成训练集、验证集、测试集三部分,数量分别为3610、401、401,得到构建好的遥感影像目标检测样本集;
然后对遥感影像切片集合进行包括但不限于筛选、数据增强和标注处理,得到的遥感影像目标检测样本集;
S6,构建用于遥感影像的目标地物的YOLOv3-RSI目标检测模型,该模型在YOLOv3目标检测模型的基础上添加了一个可扩展的小型CNN模块(Small Convolutional NeuralNetwork,SmallCNN),该模块用于对遥感影像切片所有波段进行特征提取;并添加双重注意力模块(Dual Attention Module,DAM),该模块用于对提取得到的特征图的空间维和通道维的语义相关性进行建模,提高模型的场景理解能力以及对小目标的检测能力;
构建的用于对遥感影像所有波段进行特征提取的可扩展的小型CNN模块结构为:
(1)输入为多光谱遥感影像的多维矩阵;
(2)中间层包括2个卷积核尺寸为3*3,步长为1*1,深度为64的卷积层,1个尺寸为2*2的最大池化层;2个卷积核尺寸为3*3,步长为1*1,深度为128的卷积层,1个尺寸为2*2的最大池化层;3个卷积核尺寸为3*3,步长为1*1,深度为256的卷积层,1个尺寸为2*2的最大池化层;3个卷积核尺寸为3*3,步长为1*1,深度为512的卷积层,1个尺寸为2*2的最大池化层;3个卷积核尺寸为3*3,步长为1*1,深度为1024的卷积层,1个尺寸为2*2的最大池化层;
(3)输出为输入影像8倍、16倍和32倍下采样的三种尺度的特征图。
构建的用于对特征图的空间维和通道维的语义相关性进行建模的双重注意力模块特征为:
(1)将提取的特征图分别输入空间注意力模块和通道注意力模块,通过自注意力机制分别捕获特征图的任意空间位置和任意特征通道之间的特征依赖;
(2)将空间注意力模块和通道注意力模块处理后的特征图通过相加求和进行特征融合;
(3)对融合后的特征图进行卷积处理,生成对空间维和通道维的相关性进行建模的新的特征图。
构建的用于用于遥感影像目标地物的YOLOv3-RSI目标检测模型结构为:
(1)输入为多光谱遥感影像的多维矩阵;
(2)将输入的多维矩阵进行切片,分成两部分:包含RGB三波段的部分和包含所有波段的部分;
(3)将包含RGB三波段的部分和包含所有波段的部分分别输入Darknet-53模块和小型CNN模块中进行特征提取;
(4)分别得到Darknet-53模块与小型CNN模块输出的原始影像8倍、16倍和32倍下采样的三种尺度的特征图;
(5)将Darknet-53模块与小型CNN模块得到的对应尺度的特征图分别进行拼接;
(6)将拼接后的三种尺度的特征图分别输入到双重注意力模块中进行特征图空间维和通道维上语义相关性的提取;
((7)将双重注意力模块处理后的三种尺度的特征图分别输入分类回归网络中进行目标检测以得到目标检测结果;
(8)对目标检测结果进行非极大值抑置,去除多余的检测框,得到最终的目标检测结果。
YOLOv3-RSI目标检测模型结构如图3所示,模型中双重注意力模块(DAM)的结构如图4所示;
S7,针对步骤S5得到的遥感影像目标检测样本集和步骤S6构建的YOLOv3-RSI目标检测模型进行训练;本实施例的实验环境为Intel(R)Xeon(R)CPU E5-2699 v4处理器+NVIDIA Quadro M6000显卡(显存容量24GB)+Windows 10专业版系统+Keras深度学习框架+Python 3.6,训练过程包括以下操作:
S7-1,对SmallCNN模块进行预训练。
首先修改YOLOv3-RSI模型的网络结构,屏蔽YOLOv3-RSI目标检测模型的Darknet-53模块,将SmallCNN模块提取的特征经DAM模块处理后输入到分类回归网络;然后对YOLOv3-RSI目标检测模型的参数进行随机初始化;接着用步骤S5得到的遥感影像目标检测样本集对YOLOv3-RSI目标检测模型进行训练,得到预训练的SmallCNN模块。
训练参数设置如下,批次大小(batch size)为16,迭代次数(epoch)为150;
其中,分类回归网络的损失函数计算公式为:
Figure BDA0003864926260000131
Figure BDA0003864926260000132
Figure BDA0003864926260000133
Figure BDA0003864926260000134
Figure BDA0003864926260000135
其中,Loss是网络的损失函数,W是输出特征图的宽度,H是输出特征图的高度,B是先验框的个数;误差组成的第一部分是边框中心点误差,其中(xi,yi)、
Figure BDA0003864926260000136
分别是预测边框和真实边框的中心点坐标,λcoord是边框位置误差的权重;第二部分是边框宽度和高度误差,其中(wi,hi)、/>
Figure BDA0003864926260000137
分别是预测边框和真实边框的宽度和高度;第三部分是边框的置信度误差,其中Ci和/>
Figure BDA0003864926260000138
分别是预测边框和真实边框的置信度;第四部分是边框置信度误差,其中λnoobj是不存在对象的边框的置信度的权重;第五部分是对象分类误差,其中Pi(c)和/>
Figure BDA0003864926260000139
分别是预测边框和真实边框的类别判别概率。
S7-2,对YOLOv3-RSI模型进行整体训练。
首先修改YOLOv3-RSI模型的网络结构,放开YOLOv3-RSI目标检测模型的Darknet-53模块,将Darknet-53模块和SmallCNN模块提取的特征进行连接并经DAM模块处理后再输入到分类回归网络;然后对YOLOv3-RSI目标检测模型的参数进行初始化:Darknet-53模块加载在自然场景图像数据集——COCO数据集上迁移学习的参数,SmallCNN模块加载步骤S7-1中预训练的参数;接着用步骤S5得到的遥感影像目标检测样本集对YOLOv3-RSI目标检测模型进行训练,得到训练好的YOLOv3-RSI目标检测模型;
训练参数设置如下,batch size为16,epoch为300;
S7-3,利用步骤S5得到的遥感影像目标检测样本集中的测试集对训练好的YOLOv3-RSI目标检测模型进行精度验证。
采用目标检测领域的统计学指标:精确度P、召回率R、调和平均数F,对YOLOv3-RSI目标检测模型的精度进行评价,当模型精度满足实际应用需求时,YOLOv3-RSI目标检测模型训练完成;否则,采取包括增加样本量、提高样本集的多样性以及增加训练迭代次数中的一种或多种措施进行重新训练,直到YOLOv3-RSI目标检测模型精度满足要求,得到最终训练好的YOLOv3-RSI目标检测模型;
其中,精度验证公式为:
Figure BDA0003864926260000141
Figure BDA0003864926260000142
Figure BDA0003864926260000143
其中,P是模型的精确度,表示检测结果中真实目标的比例,与检测的误检率相关,P值越接近1,误检率越低;R是模型的召回率,表示检测结果中的真实目标数量占真实存在的目标的数量的比例,与检测的漏检率相关,R值越接近于1,漏检率越低;F是模型的调和平均数,可以作为P与R的综合评价指标,F值越接近于1,模型的综合表现越好;X是检测结果中真实目标的数量,Y是检测结果中假目标的数量,Z是未检测到的目标的数量。
经测试,模型的精确度P、召回率R、调和平均数F分别为0.97、0.90、0.93,满足实际应用的需求,得到训练好的YOLOv3-RSI目标检测模型;
S8,按照步骤S1将作为测试的北京市区域内的7景高分一号遥感影像进行预处理,得到像元值为地物真实反射率的待检测的多光谱遥感影像结果图;
S9,按照步骤S2将待检测的北京市区域内的7景多光谱遥感影像结果图进行切片,得到规则化的遥感影像切片集合;
S10,将步骤S9得到的遥感影像切片集合中的遥感影像切片依次输入到步骤S7中训练好的YOLOv3-RSI目标检测模型,得到每个遥感影像切片对应的目标检测结果,包括可视化的检测结果示意图以及结果描述表,其中,结果描述表记录了每个遥感影像切片中所有目标地物检测框的坐标、判别类别以及置信度;
其中,分类回归网络损失函数中的置信度计算公式为:
Figure BDA0003864926260000151
其中,Pr(Object)预测边框内存在对象的概率,
Figure BDA0003864926260000152
是对象的预测边框和真实边框的交并比。
S11,针对步骤S10得到的检测结果,通过设置筛选条件,保留存在目标地物的检测结果,并将检测结果示意图输出,如图5所示;
S12,针对步骤S11筛选得到的目标地物的检测结果,将目标地物的检测结果矢量化,过程包括以下操作:
S12-1,通过编写的程序脚本,创建结果矢量图层,包括但不限于创建图层、设置坐标系、添加字段中的一种或多种;
S12-2,针对步骤S11筛选得到的检测结果,对检测结果中的检测框通过设置置信度阈值进行筛选,本实施例设置的阈值为0.8;将筛选得到的检测框的相对坐标转换为真实地理坐标;
其中,坐标转换公式为:
X=X0+x*pixcel_size
Y=Y0+y*pixcel_size
其中,(X,Y)是预测边框顶点的真实地理坐标,(X0,Y0)是影像切片左下角的真实地理坐标,(x,y)是预测边框顶点坐标相对于影像切片左下角的相对坐标,pixcel_size是影像的像元尺寸。
S12-3,针对步骤S12-2坐标转换后的检测框,为每个转换后的检测框创建一个矢量要素,并将创建的要素添加到步骤S12-1中创建的矢量图层中;
S12-4,对矢量图层中要素的属性信息进行维护:将每个检测框的目标地物的判别类别以及置信度赋值到对应的矢量图层的相应字段中;
S13,将步骤S8中预处理后的遥感影像结果图与步骤S12得到的矢量图层叠加显示,得到遥感影像目标检测结果示意图,如图6所示。
通过计算,模型测试的精确度P、召回率R、调和平均数F分别为0.78、0.82、0.80,达到预期的效果。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。

Claims (6)

1.一种基于遥感影像的地表目标地物检测方法,其特征在于,包括以下步骤:
S1,对原始遥感影像进行预处理,得到像元值为地物真实反射率的多光谱遥感影像结果图;
S2,针对步骤S1所得遥感影像结果图,将遥感影像结果图按照预定尺寸进行规则化切片以得到遥感影像切片,同时使遥感影像切片分别在水平方向和垂直方向保持至少部分重叠,以保持目标地物的完整性,得到规则化的遥感影像切片集合;
S3,针对步骤S2中得到的规则化的遥感影像切片集合,筛选出包含目标地物的遥感影像切片,得到目标地物样本集合;
S4,针对步骤S3中得到的目标地物样本集合中的遥感影像切片进行以下操作:
S4-1,对每个遥感影像切片分别进行旋转数据增强处理与镜像数据增强处理中的一种或两种,将处理后的遥感影像切片加入到目标地物样本集合中,得到增强后的增强目标地物样本集合;
S4-2,数据增强处理还可以是指通过对图像进行翻转、裁剪、变换、加噪声处理中的一种或多种,以增加样本的数量和多样性,进而增强模型的泛化能力;
S4-3,对增强目标地物样本集合中的每个遥感影像切片进行样本标注,将其中包含的目标地物的轮廓用矩形框标注出来,将矩形框的坐标和目标地物的类别保存到文件中以得到遥感影像切片对应的样本标注集合;
S5,针对步骤S4得到样本标注集合,根据随机原则,按照预先设定的比例,划分成训练集、验证集和测试集三部分,得到遥感影像目标检测样本集;
S6,构建用于遥感影像目标地物的YOLOv3-RSI目标检测模型,该模型在YOLOv3目标检测模型的基础上添加用于对遥感影像切片所有波段进行特征提取且可扩展的CNN模块和用于对提取得到的特征图的空间维与通道维的语义相关性进行建模的双重注意力模块;
用于对遥感影像所有波段进行特征提取的可扩展的CNN模块结构为:
(1)输入为多光谱遥感影像的多维矩阵;
(2)中间层包括2个卷积核尺寸为3*3,步长为1*1,深度为64的卷积层,1个尺寸为2*2的最大池化层;2个卷积核尺寸为3*3,步长为1*1,深度为128的卷积层,1个尺寸为2*2的最大池化层;3个卷积核尺寸为3*3,步长为1*1,深度为256的卷积层,1个尺寸为2*2的最大池化层;3个卷积核尺寸为3*3,步长为1*1,深度为512的卷积层,1个尺寸为2*2的最大池化层;3个卷积核尺寸为3*3,步长为1*1,深度为1024的卷积层,1个尺寸为2*2的最大池化层;
(3)输出为输入影像8倍、16倍和32倍下采样的三种尺度的特征图;
用于对特征图的空间维和通道维的语义相关性进行建模的双重注意力模块特征为:
(1)将提取的特征图分别输入空间注意力模块和通道注意力模块,通过自注意力机制分别捕获特征图的任意空间位置和任意特征通道之间的特征依赖;
(2)将空间注意力模块和通道注意力模块处理后的特征图通过相加求和进行特征融合;
(3)对融合后的特征图进行卷积处理,生成对空间维和通道维的相关性进行建模的新的特征图;
用于遥感影像目标地物的YOLOv3-RSI目标检测模型结构为:
(1)输入为多光谱遥感影像的多维矩阵;
(2)将输入的多维矩阵进行切片,分成两部分:包含RGB三波段的部分和包含所有波段的部分;
(3)将包含RGB三波段的部分和包含所有波段的部分分别输入Darknet-53模块和CNN模块中进行特征提取;
(4)分别得到Darknet-53模块与CNN模块输出的原始影像8倍、16倍和32倍下采样的三种尺度的特征图;
(5)将Darknet-53模块与CNN模块得到的对应尺度的特征图分别进行拼接;
(6)将拼接后的三种尺度的特征图分别输入到双重注意力模块中进行特征图空间维和通道维上语义相关性的提取;
(7)将双重注意力模块处理后的三种尺度的特征图分别输入分类回归网络中进行目标检测以得到目标检测结果;
(8)对目标检测结果进行非极大值抑置,去除多余的检测框,得到最终的目标检测结果;
S7,针对步骤S5得到的遥感影像目标检测样本集和步骤S6构建的YOLOv3-RSI目标检测模型进行训练,训练过程包括以下操作:
S7-1,对CNN模块进行预训练;
首先修改YOLOv3-RSI目标检测模型的网络结构,屏蔽YOLOv3-RSI目标检测模型的Darknet-53模块,将CNN模块提取的特征经双重注意力模块处理后输入到分类回归网络中;然后对YOLOv3-RSI目标检测模型的参数进行随机初始化,接着用步骤S5得到的遥感影像目标检测样本集对YOLOv3-RSI目标检测模型进行训练,得到预训练的CNN模块;
S7-2,对YOLOv3-RSI模型进行整体训练;
首先修改YOLOv3-RSI模型的网络结构,放开YOLOv3-RSI目标检测模型的Darknet-53模块,将Darknet-53模块和CNN模块提取的特征进行连接并经双重注意力模块处理后再输入到分类回归网络中,然后对模型的参数进行初始化,Darknet-53模块加载自然场景图像数据集上迁移学习的参数,CNN模块加载步骤S7-1中预训练的参数;接着用步骤S5得到的遥感影像目标检测样本集对YOLOv3-RSI目标检测模型进行训练,得到训练好的YOLOv3-RSI目标检测模型;
S7-3,利用步骤S5得到的遥感影像目标检测样本集中的测试集对训练好的YOLOv3-RSI目标检测模型进行精度验证,采用目标检测领域的统计学指标:精确度P、召回率R、调和平均数F,对YOLOv3-RSI目标检测模型的精度进行评价,当模型精度满足实际应用需求时,YOLOv3-RSI目标检测模型训练完成;否则,采取包括增加样本量、提高样本集的多样性以及增加训练迭代次数中的一种或多种措施进行重新训练,直到YOLOv3-RSI目标检测模型精度满足要求,得到最终训练好的YOLOv3-RSI目标检测模型;
S8,按照步骤S1将待检测遥感影像进行预处理,得到像元值为地物真实反射率的待检测的多光谱遥感影像结果图;
S9,按照步骤S2将待检测的多光谱遥感影像结果图进行规则化切片,得到规则化切片的遥感影像切片集合;
S10,将步骤S9得到的遥感影像切片集合中的遥感影像切片依次输入到步骤S7中训练好的YOLOv3-RSI目标检测模型,得到每个遥感影像切片对应的目标检测结果,包括可视化的检测结果示意图以及结果描述表,其中,结果描述表记录了每个遥感影像切片中所有目标地物检测框的坐标、判别类别以及置信度;
S11,针对步骤S10得到的检测结果,通过设置筛选条件,保留存在目标地物的检测结果;
S12,针对步骤S11筛选得到的目标地物的检测结果,将目标地物的检测结果矢量化,过程包括以下操作:
S12-1,创建矢量图层,包括创建图层、设置坐标系、添加字段中的一种或多种;
S12-2,针对步骤S11筛选得到的检测结果,对检测结果中的检测框通过设置置信度阈值进行筛选;将筛选得到的检测框的相对坐标转换为真实地理坐标;
S12-3,针对步骤S12-2坐标转换后的检测框,为每个转换后的检测框创建一个矢量要素,并将创建的要素添加到步骤S12-1中创建的矢量图层中;
S12-4,对矢量图层中要素的属性信息进行维护:将每个检测框的目标地物的判别类别以及置信度赋值到对应的矢量图层的相应字段中;
S13,将步骤S8中预处理后的遥感影像结果图与步骤S12得到的矢量图层叠加显示,得到遥感影像目标检测结果示意图。
2.如权利要求1所述的一种基于遥感影像的地表目标地物检测方法,其特征在于,步骤S5还包括针对遥感影像切片集合进行筛选、数据增强和标注处理中的一种或多种,得到遥感影像目标检测样本集。
3.如权利要求1所述的一种基于遥感影像的地表目标地物检测方法,其特征在于,步骤S7-1中分类回归网络的损失函数计算公式为:
Figure FDA0004124715060000051
Figure FDA0004124715060000052
Figure FDA0004124715060000053
Figure FDA0004124715060000054
Figure FDA0004124715060000055
其中,Loss是网络的损失函数,W是输出特征图的宽度,H是输出特征图的高度,B是先验框的个数;误差组成的第一部分是边框中心点误差,其中(xi,yi)、
Figure FDA0004124715060000056
分别是预测边框和真实边框的中心点坐标,λcoord是边框位置误差的权重;第二部分是边框宽度和高度误差,其中(wi,hi)、/>
Figure FDA0004124715060000057
分别是预测边框和真实边框的宽度和高度;第三部分是边框的置信度误差,其中Ci和/>
Figure FDA0004124715060000058
分别是预测边框和真实边框的置信度;第四部分是边框置信度误差,其中λnoobj是不存在对象的边框的置信度的权重;第五部分是对象分类误差,其中Pi(c)和/>
Figure FDA0004124715060000059
分别是预测边框和真实边框的类别判别概率。
4.如权利要求1所述的一种基于遥感影像的地表目标地物检测方法,其特征在于,步骤S7-3中的精度验证公式为:
Figure FDA00041247150600000510
Figure FDA00041247150600000511
Figure FDA00041247150600000512
其中,P是模型的精确度,表示检测结果中真实目标的比例,与检测的误检率相关,P值越接近1,误检率越低;R是模型的召回率,表示检测结果中的真实目标数量占真实存在的目标的数量的比例,与检测的漏检率相关,R值越接近于1,漏检率越低;F是模型的调和平均数,可以作为P与R的综合评价指标,F值越接近于1,模型的综合表现越好;X是检测结果中真实目标的数量,Y是检测结果中假目标的数量,Z是未检测到的目标的数量。
5.如权利要求1所述的一种基于遥感影像的地表目标地物检测方法,其特征在于,步骤S10中分类回归网络损失函数中的置信度计算公式为:
Figure FDA0004124715060000061
其中,Pr(Object)预测边框内存在对象的概率,
Figure FDA0004124715060000062
是对象的预测边框和真实边框的交并比。
6.如权利要求1所述的一种基于遥感影像的地表目标地物检测方法,其特征在于,步骤S12-2中的坐标转换公式为:
X=X0+x*pixcel_size
Y=Y0+y*pixcel_size
其中,(X,Y)是预测边框顶点的真实地理坐标,(X0,Y0)是影像切片左下角的真实地理坐标,(x,y)是预测边框顶点坐标相对于影像切片左下角的相对坐标,pixcel_size是影像的像元尺寸。
CN202211175223.2A 2022-09-26 2022-09-26 一种基于遥感影像的地表目标地物检测方法 Active CN115457396B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211175223.2A CN115457396B (zh) 2022-09-26 2022-09-26 一种基于遥感影像的地表目标地物检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211175223.2A CN115457396B (zh) 2022-09-26 2022-09-26 一种基于遥感影像的地表目标地物检测方法

Publications (2)

Publication Number Publication Date
CN115457396A CN115457396A (zh) 2022-12-09
CN115457396B true CN115457396B (zh) 2023-06-23

Family

ID=84306621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211175223.2A Active CN115457396B (zh) 2022-09-26 2022-09-26 一种基于遥感影像的地表目标地物检测方法

Country Status (1)

Country Link
CN (1) CN115457396B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116107476B (zh) * 2022-12-23 2023-10-10 中水珠江规划勘测设计有限公司 遥感影像地物提取方法及系统
CN116434076A (zh) * 2023-03-21 2023-07-14 北京市遥感信息研究所 一种融合先验知识的遥感图像目标识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728658A (zh) * 2019-09-16 2020-01-24 武汉大学 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN113610025A (zh) * 2021-08-13 2021-11-05 天津大学 一种多模型综合的遥感影像场景描述方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016315938B2 (en) * 2015-08-31 2022-02-24 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
CN109063594A (zh) * 2018-07-13 2018-12-21 吉林大学 基于YOLOv2的遥感图像快速目标检测方法
CN112800982A (zh) * 2021-02-01 2021-05-14 苏州喆鑫信息科技有限公司 一种基于遥感场景分类的目标检测方法
CN113378686B (zh) * 2021-06-07 2022-04-15 武汉大学 一种基于目标中心点估计的两阶段遥感目标检测方法
CN114627372A (zh) * 2022-02-24 2022-06-14 中国电子科技集团公司第五十四研究所 基于域内迁移学习的宽幅遥感影像舰船目标快速检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728658A (zh) * 2019-09-16 2020-01-24 武汉大学 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN113610025A (zh) * 2021-08-13 2021-11-05 天津大学 一种多模型综合的遥感影像场景描述方法

Also Published As

Publication number Publication date
CN115457396A (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
CN115457396B (zh) 一种基于遥感影像的地表目标地物检测方法
CN111191736B (zh) 基于深度特征交叉融合的高光谱图像分类方法
CN111598174B (zh) 基于半监督对抗学习的模型训练方法及图像变化分析方法
CN113128134B (zh) 一种矿区生态环境演变驱动因子权重量化分析方法
CN113065558A (zh) 一种结合注意力机制的轻量级小目标检测方法
CN111161218A (zh) 一种基于孪生卷积神经网络的高分遥感影像变化检测方法
CN108537742A (zh) 一种基于生成对抗网络的遥感图像全色锐化方法
Chen et al. Adaptive effective receptive field convolution for semantic segmentation of VHR remote sensing images
CN112906662B (zh) 一种遥感图像变化检测方法、装置、设备及存储介质
CN115527123B (zh) 一种基于多源特征融合的土地覆被遥感监测方法
CN115690479A (zh) 一种基于卷积Transformer的遥感图像分类方法及系统
CN110728197B (zh) 基于深度学习的单木级树种识别方法
CN110991430B (zh) 基于遥感图像的地物识别及覆盖率计算方法及系统
CN113610070A (zh) 一种基于多源数据融合的滑坡灾害识别方法
Shen et al. Biomimetic vision for zoom object detection based on improved vertical grid number YOLO algorithm
CN111178149A (zh) 一种基于残差金字塔网络的遥感影像水体自动提取方法
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法
CN111104850B (zh) 一种基于残差网络的遥感影像建筑物自动提取方法和系统
CN116385902A (zh) 一种遥感大数据处理方法、系统及云平台
CN113705538A (zh) 基于深度学习的高分遥感影像道路变化检测装置及方法
CN110321528B (zh) 一种基于半监督地理空间回归分析的高光谱影像土壤重金属浓度评估方法
CN115661677A (zh) 一种基于暗通道特征引导的轻量级卫星影像云检测方法
CN111079807A (zh) 一种地物分类方法及装置
CN113743373A (zh) 基于深度学习的高分遥感影像耕地变化检测装置及方法
CN111401203A (zh) 基于多维图像融合的目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant