CN116630807A - 基于yolox网络的遥感影像点状独立房检测方法及系统 - Google Patents
基于yolox网络的遥感影像点状独立房检测方法及系统 Download PDFInfo
- Publication number
- CN116630807A CN116630807A CN202310624740.1A CN202310624740A CN116630807A CN 116630807 A CN116630807 A CN 116630807A CN 202310624740 A CN202310624740 A CN 202310624740A CN 116630807 A CN116630807 A CN 116630807A
- Authority
- CN
- China
- Prior art keywords
- network
- punctiform
- independent
- image
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 158
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000002372 labelling Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 66
- 230000000694 effects Effects 0.000 claims description 41
- 238000000605 extraction Methods 0.000 claims description 32
- 230000004913 activation Effects 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 28
- 230000003993 interaction Effects 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 8
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000002156 mixing Methods 0.000 claims description 5
- 230000003313 weakening effect Effects 0.000 claims description 5
- 238000003708 edge detection Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000005728 strengthening Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 239000002689 soil Substances 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims 1
- 238000009826 distribution Methods 0.000 abstract description 11
- 230000014509 gene expression Effects 0.000 abstract description 8
- 230000007246 mechanism Effects 0.000 description 25
- 238000002474 experimental method Methods 0.000 description 19
- 230000006872 improvement Effects 0.000 description 8
- 230000002829 reductive effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000002679 ablation Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000036961 partial effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000003321 amplification Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000005065 mining Methods 0.000 description 3
- 230000003121 nonmonotonic effect Effects 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 239000000243 solution Substances 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 230000008014 freezing Effects 0.000 description 2
- 238000007710 freezing Methods 0.000 description 2
- 230000002401 inhibitory effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000010257 thawing Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- WDLRUFUQRNWCPK-UHFFFAOYSA-N Tetraxetan Chemical compound OC(=O)CN1CCN(CC(O)=O)CCN(CC(O)=O)CCN(CC(O)=O)CC1 WDLRUFUQRNWCPK-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000001094 effect on targets Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003090 exacerbative effect Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000012633 leachable Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000012113 quantitative test Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及遥感影像目标识别技术领域,特别涉及一种基于YOLOX网络的遥感影像点状独立房检测方法及系统,对收集的点状独立房影像数据集中的农村或山区居民地区域单体建筑房屋进行标签标注,并通过样本增强方式扩充,得到点状独立房影像样本集;基于YOLOX网络构建点状独立房目标检测模型,并建立模型训练的目标损失函数;利用样本集并目标损失函数对目标检测模型进行训练,得到训练后的目标检测模型;将待检测的遥感影像数据输入至训练后的目标检测模型,利用训练后的目标检测模型获取遥感影像单体建筑房屋目标。本发明可提升多尺度特征识别和细粒度特征表达能力,在点状独立房等分布零散且小尺度的地物目标遥感影像检测具有一定的通用性。
Description
技术领域
本发明涉及遥感影像目标识别技术领域,特别涉及一种基于YOLOX网络的遥感影像点状独立房检测方法及系统。
背景技术
航空航天遥感影像的目标检测在地形图测绘、城市规划等方面具有重要的应用价值。遥感影像能够清晰地看见山脉、湖泊、房屋、街道,可客观、动态、真实反映生产、生活和生态空间的时空信息,已成为地形图测绘、城市规划、地震灾害风险预估等方面的基础数据资源。基于遥感影像的房屋识别可快速摸清房屋分布与数量,能够在宏观上为地形图测绘、城市规划、地震灾害风险预估等提供快捷、可靠数据来源。与传统的自然图像不同,遥感影像中的大量目标信息较为破碎,背景更加复杂,从而导致特征图上干扰信息多,个别点状独立房等地物目标分布零散,加剧遥感图像目标检测难度。经典的传统算法在目标分割分类上的效果不佳,复杂条件下精度低、易漏检。
深度学习技术可用于解决遥感图像目标检测问题,且在多个开源目标数据集上的检测效果已远超传统算法,但卷积神经网络算法在实际应用方面还存在一些问题,如多尺度特征提取中,对高层特征图中的弱小特征加强提取不足,目标细节化特征和语义化作用发挥不明显;密集目标检测中,无法对重合目标的数量和比例进行准确的分析回归;模型网络过饱和引起梯度消失和过拟合泛化性差等,使得深度学习算法检测的精度难以满足点状独立房等分布零散地物目标遥感影像检测的实际需求,针对不同类型的检测对象泛化能力和识别精度仍需提高。
发明内容
为此,本发明提供一种基于YOLOX网络的遥感影像点状独立房检测方法及系统,提升多尺度特征识别和细粒度特征表达能力,在点状独立房等分布零散且小尺度的地物目标遥感影像检测具有一定的通用性。
按照本发明所提供的设计方案,提供一种基于YOLOX网络的遥感影像点状独立房检测方法,包含:
对收集的点状独立房影像数据集中的农村或山区居民地区域单体建筑房屋进行标签标注,并通过样本增强方式对标签标注后的数据集进行扩充,得到点状独立房影像样本集;
基于YOLOX网络构建点状独立房目标检测模型,并建立模型训练的目标损失函数,其中,点状独立房目标检测模型中以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,目标损失函数使用Swish激活函数;
利用点状独立房影像样本集并基于建立的目标损失函数对点状独立房目标检测模型进行训练优化,得到训练后的点状独立房目标检测模型;
将待检测的遥感影像数据输入至训练后的点状独立房目标检测模型,利用训练后的点状独立房目标检测模型获取遥感影像单体建筑房屋目标。
作为本发明基于YOLOX网络的遥感影像点状独立房检测方法,进一步地,通过样本增强方式对标签标注后的数据集进行扩充,包含:
首先,遍历数据集对应的单体建筑房屋标签并对该标签类别属性的单体建筑房屋目标进行赋值;
接着,读取数据集中每个图像及其对应的标注标签信息,将图像数据转换为RGB图像;并通过读取图像宽高和标注目标宽高来框定待增强的样本图像范围;
然后,将不同影像数据按比例混合,并通过样本增强方式对框定的样本图像进行扩充处理,其中,样本增强方式包含:几何变换、颜色变换和离散插值采样。
作为本发明基于YOLOX网络的遥感影像点状独立房检测方法,进一步地,通过样本增强方式对标签标注后的数据集进行扩充,还包含:对数据集中图像的居民地区域进行特征增强来增强感兴趣区域视觉显著性。
作为本发明基于YOLOX网络的遥感影像点状独立房检测方法,进一步地,对数据集中图像的居民地区域进行特征增强来增强感兴趣区域视觉显著性,包含:
首先,通过边缘检测提取数据集图像中感兴趣区域居民地信息的纹理特征分量,利用高斯函数将纹理特征分量转化为显著性特图;
然后,根据显著性特图对居民地区域进行估计,将估计得到的显著性热土以自适应参数倍率融合到原图像上,以原图像中感兴趣的居民地区域进行分层增强并减弱非感兴趣区域效应。
作为本发明基于YOLOX网络的遥感影像点状独立房检测方法,进一步地,点状独立房目标检测模型中以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,包含:特征金字塔提取网络中的PANet网络,利用自适应空间特征融合网络并依托每一层的权重参数与提取特征相乘相加进行特征映射融合,过滤其他层特征并保留关键局部区域信息,以提取输入图像的细粒度特征;并在残差网络和PANet网络中嵌入局部跨通道交互ECA注意力模块,利用局部跨通道交互ECA注意力模块强化居民地区域特征信息。
作为本发明基于YOLOX网络的遥感影像点状独立房检测方法,进一步地,利用自适应空间特征融合网络并依托每一层的权重参数与提取特征相乘相加进行特征映射融合的过程表示为:其中,/>表示像素点(i,j)处的特征从第1层、第2层和第3层分别变换到第l层后得到的特征图,/>为像素点(i,j)第l层特征图学习到的对应参数权重,且/>为像素点(i,j)第l层自适应空间特征映射融合后得到的新特征图。
作为本发明基于YOLOX网络的遥感影像点状独立房检测方法,进一步地,利用局部跨通道交互ECA注意力模块强化居民地区域特征信息,包含:利用对角线元素互异的参数矩阵Wk学习通道注意力,使各通道间完全独立;并使用分组卷积对高低维通道分组,以降低模型训练过程中共同学习参数复杂度,且利用卷积核大小和通道维度来自适应优化局部跨通道交互覆盖范围,其中,自适应优化局部跨通道交互覆盖范围的过程表示为k表示卷积核大小,C表示通道维度大小,|*|odd为距离最近的奇数,γ、b为预设的自适应比例常数。
作为本发明基于YOLOX网络的遥感影像点状独立房检测方法,进一步地,目标损失函数使用Swish激活函数,所述Swish激活函数表示为S(x)=x·σ(G(x)),其中,x为输入数据,G(x)为卷积层输出,σ(·)表示Sigmoid函数。
进一步地,本发明还提供一种基于YOLOX网络的遥感影像点状独立房检测系统,包含:样本集建立模块、检测模型构建模块和目标检测模块,其中,
样本集建立模块,用于对收集的点状独立房影像数据集中的农村或山区居民地区域单体建筑房屋进行标签标注,并通过样本增强方式对标签标注后的数据集进行扩充,得到点状独立房影像样本集;
检测模型构建模块,用于基于YOLOX网络构建点状独立房目标检测模型,并建立模型训练的目标损失函数,其中,点状独立房目标检测模型中以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,目标损失函数使用Swish激活函数;利用点状独立房影像样本集并基于建立的目标损失函数对点状独立房目标检测模型进行训练优化,得到训练后的点状独立房目标检测模型;
目标检测模块,用于将待检测的遥感影像数据输入至训练后的点状独立房目标检测模型,利用训练后的点状独立房目标检测模型获取遥感影像单体建筑房屋目标。
本发明的有益效果:
本发明针对大尺寸遥感影像中点状房屋的提取,考虑到点状房屋的分布较为零散、且在较小尺度影像上语义结构化特征不清晰的特征,基于YOLOX网络构建一种适用于农村或山区点状单体建筑房屋的目标检测模型,在减少参数量的同时保持模型的鲁棒性和泛化性能;利用公开的遥感影像数据集并通过标签标注和样本增强来获取模型训练用高质量的样本数据,能够使模型充分学习农村或山地居民地特征信息,有效提取点状独立房中稳健不变的特征,减少其他干扰因素的影响,提升检测稳定性。并进一步通过实验数据表明,本案方案在算法设计、复杂背景信息下均具有优越的检测性能,可适用于遥感影像点状独立房提取和房屋分布检测,为测绘生产提供有力支撑。
附图说明:
图1为实施例中基于YOLOX网络的遥感影像点状独立房检测流程示意;
图2为实施例中本案算法技术路线示意;
图3为实施例中本案算法目标检测模型网络结构示意;
图4为实施例中点状独立房数据集标注示例;
图5为实施例中样本增强技术路线示意;
图6为实施例中不同算法对原始影像进行纹理检测结果示意;
图7为实施例中显著性热图获取流程示意;
图8为实施例中不同算法实验结果示意;
图9为实施例中数据集标签和YOLOX网络优化前后检测预测效果对比示意之一;
图10为实施例中数据集标签和YOLOX网络优化前后检测预测效果对比示意之二;
图11为实施例中不完整检出的房屋示意;
图12为实施例中重叠丢漏房屋示意。
具体实施方式:
为使本发明的目的、技术方案和优点更加清楚、明白,下面结合附图和技术方案对本发明作进一步详细的说明。
针对测绘生产中遥感影像点状独立房提取和房屋分布检测的问题,本发明实施例中,参见图1所示,提供一种基于YOLOX网络的遥感影像点状独立房检测方法,包含:
S101、对收集的点状独立房影像数据集中的农村或山区居民地区域单体建筑房屋进行标签标注,并通过样本增强方式对标签标注后的数据集进行扩充,得到点状独立房影像样本集;
S102、基于YOLOX网络构建点状独立房目标检测模型,并建立模型训练的目标损失函数,其中,点状独立房目标检测模型中以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,目标损失函数使用Swish激活函数;
S103、利用点状独立房影像样本集并基于建立的目标损失函数对点状独立房目标检测模型进行训练优化,得到训练后的点状独立房目标检测模型;
S104、将待检测的遥感影像数据输入至训练后的点状独立房目标检测模型,利用训练后的点状独立房目标检测模型获取遥感影像单体建筑房屋目标。
YOLOX为旷世公司2021年8月提出的新型单阶段目标检测网络,在沿袭YOLO系列的强大提取能力和深层次网络特性之余,创新使用Focus主干网络、DecoupledHead预测分支解耦、Mosaic数据增强和AnchorFree机制。YOLOX网络在YOLO系列里面具有代表性和突出性,选择在其基础上改进更好解决遥感影像目标检测问题。YOLOX网络结构可分为四个板块,即strong augmentation数据增强的输入端板块,以Darknet为基础的Backbone骨干网络板块,以FPN为基础的Neck板块,和Decoupled Head为基础的Prediction板块。本案实施例中,参见图2所示,以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,并使用Swish激活函数构建目标损失函数,利用公开的遥感影像数据集并通过标签标注和样本增强来获取模型训练用高质量的样本数据,并基于目标损失函数来训练目标检测模型,在减少模型参数量的同时,能够保持模型的鲁棒性和泛化性能,可适用于遥感影像分布零散的点状独立房提取和检测。
作为优选实施例,进一步地,通过样本增强方式对标签标注后的数据集进行扩充,可设计为包含如下内容:
首先,遍历数据集对应的单体建筑房屋标签并对该标签类别属性的单体建筑房屋目标进行赋值;
接着,读取数据集中每个图像及其对应的标注标签信息,将图像数据转换为RGB图像;并通过读取图像宽高和标注目标宽高来框定待增强的样本图像范围;
然后,将不同影像数据按比例混合,并通过样本增强方式对框定的样本图像进行扩充处理,其中,样本增强方式包含:几何变换、颜色变换和离散插值采样。
并进一步地,还包含:对数据集中图像的居民地区域进行特征增强来增强感兴趣区域视觉显著性,通过边缘检测提取数据集图像中感兴趣区域居民地信息的纹理特征分量,利用高斯函数将纹理特征分量转化为显著性特图;并根据显著性特图对居民地区域进行估计,将估计得到的显著性热土以自适应参数倍率融合到原图像上,以原图像中感兴趣的居民地区域进行分层增强并减弱非感兴趣区域效应。
点状独立房目标检测模型中以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,具体地,特征金字塔提取网络中的PANet网络,利用自适应空间特征融合网络并依托每一层的权重参数与提取特征相乘相加进行特征映射融合,过滤其他层特征并保留关键局部区域信息,以提取输入图像的细粒度特征;并在残差网络和PANet网络中嵌入局部跨通道交互ECA注意力模块,利用局部跨通道交互ECA注意力模块强化居民地区域特征信息。
参见图3所示,主干网络CSP(Cross Stage Partial)Darknet以残差网络Residual和Focus模块为基础,并基于PANet网络构建FPN(Feature Pyramid Networks)特征金字塔提取模块、以DecoupledHead为基础的YOLOHead检测模块。在主干网络特征图和采样层输出部分添加基于不降维ECA局部跨通道交互策略的注意力机制,有效避免降维对于通道注意力学习效果的影响,并对高层特征图中的弱小特征进行加强提取;其次,在FPN特征金字塔提取网络中融合ASFF模块,通过扩大感知域和挖掘高级语义特征,来兼顾底层特征中的细粒度;对全局网络激活函数进行了调整,在CSPL(Cross Stage Partial Layer)和CBS(Convolution Batch Normalization)层中使用Swish激活函数,稳定梯度曲线的同时加快收敛。
YOLOX使用PANet的方式进行特征融合,这种方式无法充分挖掘多尺度特征信息,因此,本案实施例中,引入ASFF结构,依托每一层的权重参数与特征相乘相加的映射融合,高效过滤其它层的特征,抑制负面信息,保留重要局部区域信息,使得提取的细粒度特征更加精细化层次化。具体可描述如下:
X1,2,3→l为来自第l层的特征图,将不同层特征图与对应的可学习权重αl,βl,γl相乘并相加从而得到融合后的特征,其中是第l层特征图学习到的参数,/>表达式(1)如下(/>同理可得):
其中为X1,2,3→l经过1×1卷积得到的。
同时三个参数需要满足以下条件(式2):
最终在第l层的输出结果(式3):
其中,表示像素点(i,j)处的特征从第1层、第2层和第3层分别变换到第l层后得到的特征图,/>为像素点(i,j)第l层特征图学习到的对应参数权重,且
为像素点(i,j)第l层自适应空间特征映射融合后得到的新特征图。
为更好结合通道和空间注意信息,避免降维操作对通道注意力的预测产生负面影响,减少不必要、效率低的依赖关系获取,可在PANet特征提取模块嵌入局部跨通道交互ECA注意力模块。利用对角线元素互异的参数矩阵学习通道注意力,使各通道间完全独立;并使用分组卷积对高低维通道分组,以降低模型训练过程中共同学习参数复杂度,且利用卷积核大小和通道维度来自适应优化局部跨通道交互覆盖范围。
对于不降维的聚合特征y∈RC,其各个通道的权重可表示如下:
ω=σ(C1Dk(y)) (4)
ECA模块中参数矩阵Wk对角线元素互异,各通道间完全独立,有效避免通道间交互作用,其中,参数矩阵可表示如下:
使用分组卷积(Group Convolutions)对高低维通道分组,共享学习参数同时降低模型复杂度。其中,卷积核k的大小,由算法自适应确定如下:
公式中,C为通道数,γ=2,b=1,|*|odd为距离最近的奇数。
将输入特征图进行全局平均池化操作,进行以卷积核大小为k的1D卷积操作,经过Sigmoid函数计算得到不同通道的权重值,通过对原始特征图和计算权重对应相乘,获得所需输出特征图。在对主干网络CSPDarknet和特征提取网络PANet改进策略中,在主干网络3个Res残差网络输出特征和特征提取网络中3个Sampling采样层上添加ECA注意力机制来优化网络性能。
针对YOLOX中Silu激活函数训练时可能出现的梯度消失、激活效果弱等问题,使用Swish激活函数,能够在深层网络结构中拥有更强的抗过拟合能力,可有效防止因激活函数过饱和引起神经网络性能损耗下降。Swish函数公式可表示如下:
S(x)=x·σ(G(x)) (7)
式中:x是输入数据,G(x)是卷积层的输出,σ(·)表示Sigmoid函数。
Swish函数没有上边界,不会出现过梯度饱和的现象,有下边界,可以产生更强的正则化效果,非单调处处连续且可导的特性使其更容易训练。使用Sigmoid函数能够稳定数值的波动变化幅度,确保深层网络计算迭代能够输出较为稳定的结果。
进一步地,基于上述的方法,本发明实施例还提供一种基于YOLOX网络的遥感影像点状独立房检测系统,包含:样本集建立模块、检测模型构建模块和目标检测模块,其中,
样本集建立模块,用于对收集的点状独立房影像数据集中的农村或山区居民地区域单体建筑房屋进行标签标注,并通过样本增强方式对标签标注后的数据集进行扩充,得到点状独立房影像样本集;
检测模型构建模块,用于基于YOLOX网络构建点状独立房目标检测模型,并建立模型训练的目标损失函数,其中,点状独立房目标检测模型中以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,目标损失函数使用Swish激活函数;利用点状独立房影像样本集并基于建立的目标损失函数对点状独立房目标检测模型进行训练优化,得到训练后的点状独立房目标检测模型;
目标检测模块,用于将待检测的遥感影像数据输入至训练后的点状独立房目标检测模型,利用训练后的点状独立房目标检测模型获取遥感影像单体建筑房屋目标。
为验证本案方案有效性,下面结合实验数据做进一步解释说明:
实验操作系统为Windows11,搭载的CPU版本为12th Gen Intel(R)Core(TM)i9-12900H,GPU为NVIDIA GeForce RTX 3080TI,深度学习框架为Torch 1.11.0+cu115。实验应用迁移学习思想,使用Pascal voc2007+2012数据集预训练权重。网络模型通过迁移学习,依靠其不饱和持续学习的能力从而提高检测结果的准确度。训练过程分为冻结阶段和解冻阶段,冻结训练参数为:Epoch=50,Batch Size=16,学习率为0.001,权重衰减率0.0005,优化器采用SGD。解冻训练参数为:Epoch=100,Batch Size=8,学习率等保持不变,训练配置信息如表1所示。
表1检测算法训练配置
使用目标检测器对前期预训练数据规模有着极强的依赖性,点状独立房训练所需要的数据量较大,因此,实验中主要基于EarthH元地球卫星影像进行卫星影像样片截取,其卫星影像数据源于GoogleEarth的二次开发,主要卫星数据源包括SPOT系列、PleiadesA/B、Geoeye-1、WorldView-1、WorldView-2、WorldView-3等。数据集包含200张样片,手工标注5955个样本,单张样片尺寸大小为800到4000像素,空间分辨率为1m,如图4所示,这些影像采样于跨区域的多个地市,具有较高的多样性。
为有效提取点状独立房中稳健不变的特征,充分学习农村或山地居民地特征信息,对训练所需要的的数据集的数量规模和精确程度进行优化,通过样本增强的方式进行数据扩容,并可通过显著性增强的方式,增强点状独立房的特征信息。
通过样本增强的方式提升样本属性的多样性。通过改变亮度、灰度、翻转图像等方式。形态上发生细微改变,但学习到样本多层次特征。在实际数据集限制的情况下,对现有数据进行增强处理,以产生更大的训练价值样本数据,能够提高算法的稳定性,减少其他干扰因素的影响,增强处理过程如图5所示。
数据预处理:首先遍历样本图像对应的点状独立房标签信息给该类别属性的目标进行赋值,其次,读取每个样本图像及其对应的标注标签信息,再次,将样本图像数据转换成RGB图像,然后读取样本图像的宽高和标注目标的宽高,最后框定需要增强的样本图像的范围。至此即完成了样本数据输入的预处理。
样本数据增强:主要是将不同影像按比例进行混合,混合完成后,原来影像上标注的真实框此时也位于一幅图像上。可通过几何变换。颜色变换,离散插值采样等方式对样本数据进行增广。实验中采取MixUp和Mosaic两种方式。其中,MixUp的单流程实现思路为:(1)读取两张影像;(2)分别对两张影像进行翻转、缩放、色域变化等数据增强;(3)将二者的真实框堆叠到一起。Mosaic的单流程实现思路为:(1)读取四张影像;(2)分别对四张影像进行翻转、缩放、色域变化等,并且按照四个方向位置摆好;(3)进行影像的组合和真实框的组合。
由于样本增强算法中几何参数、变换系数等可人为设置或自适应确定,故可实验中可通过参数设置来实现任意倍数的增广。但由于样本数量过少时高倍数的增广所学习到的特征参数往往趋于统一,故在实际应用时应根据任务需求进行增广系数的调整。
人类的视觉系统具有从复杂场景中快速、准确地定位感兴趣物体或区域的能力,称为视觉注意力机制,而如何模拟这种机制使得居民地信息成为给定影像中最具视觉吸引力的物体或区域,从而快速实现分割和提取。就需要针对性的对影像中居民地区域进行特征增强,使感兴趣的区域视觉显著性得到增强,特征信息更为明显。实验中,可首先通过边缘检测算子来准确提取影像中感兴趣区域居民地信息的特征分量,将其特征分量即像素密度根据高斯函数转化为热图(heatmap),从而根据特征分量生成的显著性热图直观对居民地的准确区域进行估计,将生成的显著性热图以自适应参数的倍率融合到原图像上,从而实现居民地区域的分层增强和对非感兴趣区域的减弱效应。其中,特征提取如图6所示,对图像进行显著性检测,提取相应的纹理特征;根据灰度图/纹理图获得显著性热图,如图7所示,(a)原图,(b)显著图二值化,(c)显著性热图,(d)影像融合后增强结果,将原始影像和灰度图/热图影像融合,完成对居民地信息的显著性增强。
并进一步结合消融试验和对比试验对本案方案算法的有效性进行解释说明:
1、消融试验
为定性分析本案方案对网络的贡献程度,以YOLOX为基线系统在点状房屋数据集测试实验效果。通过mAP(mean Average Precision)平均精度、F1分数、Precision精确值、RECAll召回率几个评价指标对模型性能提升效果进行评估,其中mAP指模型识别的平均精确度,是对模型预测的所有类别的准确程度的综合评估指标;F1分数综合考虑精度和召回率的影响;精确值是指模型正确预测的独立房占真实独立房个数的百分比;召回率是指正确预测的点状独立房占真实独立房的百分比。将网络训练过程可视化,对改进网络效果进行综合分析。参数设置及实验环境保持一致,结果如表2所示:
表2不同改进策略的消融实验
上述实验可以看出:
(1)针对小目标独立房的效果检测提升,挖掘小目标特征能力增强。遥感影像上存在着尺度不一的多种类型地物,且同一类别地物在不同尺度上的表观形态,尺寸大小也存在较大差异。相较来说,大目标、大中尺寸的地物在遥感影像上显著性更强,特征信息更容易捕捉,而小目标特征不明显、易被干扰使其检测特征少,容易漏检和误检。在对算法进行优化改进后,针对不同尺度的点状独立房的检出率明显提升,本案方案算法相较原算法在mAP精度上最优提升了11.16%,且当存在尺度不一的单栋房屋时,小尺寸房屋特征捕捉能力也有所提升,改进算法针对小尺寸点状独立房的检测效果明显增强、针对小目标地物的判出率有所提升,能够更好的挖掘小尺寸独立房的特征信息,能够适用于遥感影像多尺度影像点状独立房的获取和信息挖掘。
(2)密集房屋的检测效果提升。从原始数据集中可以看出,遥感影像点状独立房在小目标检测困难的前提下,还兼具单类地物密集分布和背景地物混合分布的情况,特征信息更加复杂,定位检测困难。遥感影像中点状独立房的排布往往呈现出无序性、高重叠性和密集复杂性,从而容易导致高频率的漏检和误检现象。因此本案方案算法:加强算法对密集房屋的敏感性;提高算法对点状独立房原始特征的利用率;有效减少非重点背景信息的特征干扰;减少独立房的漏检和误检率。经优化后,密集房屋的检测效果有所改善,验证本案方案算法在密集分布的点状独立房的有效性和适用性。
(3)改进网络检测效果受房屋背景复杂程度制约减少:原始数据集样本采集范围广,地形地貌特点多元,包含了山地、丘陵、平原等;且影像背景的差异性很大,影像信息复杂多变,规则性差,房屋信息容易与其他背景信息混杂。其他种类地物对房屋特征提取也会造成一定的干扰,如遮挡房屋、存在相似纹理易混淆等负面影响。而本案方案算法抑制负面干扰信息的能力大大提升。
由表2可以看出,通过消融实验引入ASFF、ECA、Swish机制在原网络的基础上,mAP分别提升了3.16%、2.57%、2.67%,rECAll分别提升了4.07%、3.68%、3.7%,F1分别提升了2.94%、2.21%、2.27%。引入ASFF对精确值的提升起到了正面作用,precision提升为1.15%,引入ECA和Swish机制造成了精确值的少许下降,precision分别降低了0.15%和0.02%,鉴于原始模型网络presicion值即可达到93.19%,精确程度较高,组合机制后presicion达到了96.32%,虽在单一机制实验中presicion值产生了微小的损失,但在组合机制下,最优presicion值仍较原网络提升了3.28%。精确程度得到进一步优化。
实验结果表明,几种改进机制对网络效果的提升都有正向的促进作用,优化激活函数提升效果最明显。分析发现,使用Swish激活函数后,产生更强的正则化效果,增强某些信息的表达,并有效抑制部分信息,其非单调且处处可导的特性使得深层网络中数值幅度容易控制,网络的逼近能力更加强大,增益效果明显。
因此,进一步说明本案方案聚焦局部特征、正面特征、提升分类回归效果,通过改进机制组合和消融实验定量测试得出:当组合ASFF、ECA、Swish模块时,改进网络较原YOLOX网络模型mAP提升11.16%,组合机制在单一改进模式的基础上取得更好的效果。
2、对比试验
(1)注意力算法对比实验
注意力机制(Attention Mechanism)源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息。为了合理利用有限的视觉信息处理资源,人类需要选择视觉区域中的特定部分,然后集中关注它。综上,注意力机制主要有两个方面:决定需要关注输入的哪部分;分配有限的信息处理资源给重要的部分。为选取适用于遥感影像点状独立房特征信息的注意力机制算法,实验选取几种主流注意力机制算法如SENet、CBAM、ECA进行对比,其中,SENet是通道注意力机制的典型实现。对于输入进来的特征层,可以让网络关注它最需要关注的通道。CBAM将通道注意力机制和空间注意力机制进行一个结合,对输入进来的特征层,分别进行通道注意力机制的处理和空间注意力机制的处理。对比结果如表3所示:
表3不同注意力机制增益效果对比
实验结果表明,在遥感影像上点状独立房的提取中,几种注意力机制算法进行对比可以发现:不同注意力算法在YOLOX算法模型上均取得较好的增益效果,其中ECA跨通道交互注意力的方式取得了更好的效果,mAP最优提升了2.57%。相较于其他算法更多挖掘关注对象的特征信息,进行特征增强这种方式,在遥感影像复杂背景信息的大前提下,ECA通过抑制网络中的非必要信息产生的负面影响,减少不必要、效率低的依赖关系获取的注意力交互方式,取得了更好的房屋提取效果,验证本案方案的有效性。
(2)激活函数对比实验
激活函数(Activation functions)对于算法模型学习、理解非常复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到神经网络中。增强了网络的逼近能力,从而使得深层神经网络具备了更强大的特征表达能力。综上,实验选取几种主流的激活函数如Relu、Leaky relu、Silu、Swish进行实验。Relu函数能够通过单侧抑制的特性将所有负面参数归零从而防止参数过拟合;Leaky relu函数则能通过减弱负参数而非参数归零解决零梯度的问题。Silu函数则通过引入指数解决了参数非单调的问题。通过使用多个激活函数进行实验,从而选取一种更能提升遥感影像点状独立房检测效果的激活模式。对比结果如表4所示:
表4激活函数增益效果对比
多个激活函数实验对比发现,激活函数的使用有效激活算法性能,增强网络的深层表达能力和特征利用率,其中,Swish激活函数较其他函数具有更强的激活能力,促进算法网络的正则化表达,mAP精度最优提升6.07%,验证了Swish激活函数对算法改进的有效性。
(3)不同算法对比实验
实验中,将原数据集标签信息在影像上可视化,以mAP为指标定量分析,与实验结果进行比对。为验证本案算法的实用性和有效性,选择几种应用较广的深度学习目标检测算法如:YOLOv3、YOLOv4、YOLOv5、yolov7以及原YOLOX模型与本案算法进行对比,对比结果如图8所示,(a)DOTA数据(红框为标签);(b)YOLOv3;(c)YOLOv4;(d)YOLOv5;(e)YOLOX;(f)改进算法,展示了YOLOv3、YOLOv4、YOLOv5、原YOLOX算法以及本案算法实验预测结果,基于(a)中的数据集可视化结果,对不同算法的性能进行评估:(1)分类精度提升:从预测信息分析可得,针对单一点状独立房检测,本案算法较其他几类算法判定概率提升,确保了房屋检测准确性,模型网络的预测精度更高。(2)网络更适用于小目标分类检测:本案算法性能均衡,既能针对不同尺度目标进行识别检测,又能准确分类回归,分类检测性能较其他几类算法更全面,适用性更强效果更好。(3)检测性能更强:在原始数据集标定点状独立房的基础上,本案算法中网络额外识别出影像中未准确标注的点状独立房,相较于其他几类算法,本案算法预测的标签数量明显增加,说明本案算法检测出的目标数量更多,针对点状独立房识别分类准确程度更高,分类检测出目标的性能更强。(4)复杂背景下的检测能力更强:图8中,当影像色调趋于一致,且不同颜色植被混杂时,本案算法中网络相较其他网络能在箭头指示出的复杂背景地物识别出更多独立房的信息,更能聚焦感兴趣地物信息,在背景信息复杂影像中效果更好。具体对比结果如表5所示。
表5不同算法对比结果
表5中精度数据表明,与YOLOv4、YOLOv5、YOLOX等相比,本案算法实现了mAP精度11.16%-66.33%的提升,也可以看出主流目标检测算法在小目标地物的检测能力上仍有较大的提升空间,本案所选用的基础原始算法YOLOX模型在小目标地物即点状独立房检测上mAP值达到了83.67%,具有明显优势,在对模型算法进行优化设计后,mAP值达到了94.83,检测点状独立房的性能进一步增强。
本案算法在点状独立房数据集的应用时,在背景影像地形地貌复杂多元的情况下仍获得了显著的目标检测效果,实验表明在YOLOX算法模型基础上进行改进的网络在多域多场景检测型具有显著的优势和极强的适用性;且在密集分布目标类上的检测精度提升较大,如针对影像上重叠堆砌的点状独立房聚落检出房屋目标的数量明显提升。说明本案算法在当前目标检测网络中实用性较强,优势明显。相较于原YOLOX算法(采取默认参数设置),本案算法mAP提高了12.75%,进一步说明本案算法中的YOLOX网络模型的有效性。
对原始点状独立房数据集样片标签可视化结果和实验预测样片效果综合进行分析和比较,从图9中的(b)、(d)中可以看出,改进算法能够有效对地物目标进行分类检测,一是能够实现点状独立房的高精度定位识别,二是房屋正确分类识别的概率较高,具有较好的识别能力。图10中,箭头处可以看出,原点状独立房数据集标注存在位置不准确、密集房屋误注漏注现象,对模型网络进行优化后,减小了原数据的偏差,回归分类更为精准,定位检测精度更高。但也存在着很明显的短板缺陷:一是点状房屋提取完整性不强,在同一景影像中同时出现尺度相差较大的点状房屋时,部分房屋能实现完整提取,部分房屋只能框选出部分房体,仍有部分未能有效检出,房屋的完整性检测效果较弱,存在部分缺失情况,如图11所示。密集目标检测效果仍有较大提升优化空间,因卫星影像拍摄或成像角度等原因导致密集分布的点状独立房在遥感影像上高度重叠排布,如图12,部分房屋被遮盖或间距较小过近时,不同的房屋目标不易区分,算法检测目标数丢漏较多,模型检测效果不佳,相较于原数据样片标定位置,未能进行有效识别。
通过以上数据能够说明,本案方案的检测模型能够达到更好的检测效果和检测精度更好,且方案部署更方便,训练后的目标检测模型具有更好的鲁棒性和有效性,能够适用于遥感影像点状独立房提取和房屋分布检测,为测绘生产提供有力支撑。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对步骤、数字表达式和数值并不限制本发明的范围。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的各实例的单元及方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已按照功能一般性地描述了各示例的组成及步骤。这些功能是以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域普通技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不认为超出本发明的范围。
本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序来指令相关硬件完成,所述程序可以存储于计算机可读存储介质中,如:只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现,相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本发明不限制于任何特定形式的硬件和软件的结合。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种基于YOLOX网络的遥感影像点状独立房检测方法,其特征在于,包含:
对收集的点状独立房影像数据集中的农村或山区居民地区域单体建筑房屋进行标签标注,并通过样本增强方式对标签标注后的数据集进行扩充,得到点状独立房影像样本集;
基于YOLOX网络构建点状独立房目标检测模型,并建立模型训练的目标损失函数,其中,点状独立房目标检测模型中以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,目标损失函数使用Swish激活函数;
利用点状独立房影像样本集并基于建立的目标损失函数对点状独立房目标检测模型进行训练优化,得到训练后的点状独立房目标检测模型;
将待检测的遥感影像数据输入至训练后的点状独立房目标检测模型,利用训练后的点状独立房目标检测模型获取遥感影像单体建筑房屋目标。
2.根据权利要求1所述的基于YOLOX网络的遥感影像点状独立房检测方法,其特征在于,通过样本增强方式对标签标注后的数据集进行扩充,包含:
首先,遍历数据集对应的单体建筑房屋标签并对该标签类别属性的单体建筑房屋目标进行赋值;
接着,读取数据集中每个图像及其对应的标注标签信息,将图像数据转换为RGB图像;并通过读取图像宽高和标注目标宽高来框定待增强的样本图像范围;
然后,将不同影像数据按比例混合,并通过样本增强方式对框定的样本图像进行扩充处理,其中,样本增强方式包含:几何变换、颜色变换和离散插值采样。
3.根据权利要求1或2所述的基于YOLOX网络的遥感影像点状独立房检测方法,其特征在于,通过样本增强方式对标签标注后的数据集进行扩充,还包含:对数据集中图像的居民地区域进行特征增强来增强感兴趣区域视觉显著性。
4.根据权利要求3所述的基于YOLOX网络的遥感影像点状独立房检测方法,其特征在于,对数据集中图像的居民地区域进行特征增强来增强感兴趣区域视觉显著性,包含:
首先,通过边缘检测提取数据集图像中感兴趣区域居民地信息的纹理特征分量,利用高斯函数将纹理特征分量转化为显著性特图;
然后,根据显著性特图对居民地区域进行估计,将估计得到的显著性热土以自适应参数倍率融合到原图像上,以原图像中感兴趣的居民地区域进行分层增强并减弱非感兴趣区域效应。
5.根据权利要求1所述的基于YOLOX网络的遥感影像点状独立房检测方法,其特征在于,点状独立房目标检测模型中以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,包含:特征金字塔提取网络中的PANet网络,利用自适应空间特征融合网络并依托每一层的权重参数与提取特征相乘相加进行特征映射融合,过滤其他层特征并保留关键局部区域信息,以提取输入图像的细粒度特征;并在残差网络和PANet网络中嵌入局部跨通道交互ECA注意力模块,利用局部跨通道交互ECA注意力模块强化居民地区域特征信息。
6.根据权利要求5所述的基于YOLOX网络的遥感影像点状独立房检测方法,其特征在于,利用自适应空间特征融合网络并依托每一层的权重参数与提取特征相乘相加进行特征映射融合的过程表示为:其中,/>表示像素点(i,j)处的特征从第1层、第2层和第3层分别变换到第l层后得到的特征图,/>为像素点(i,j)第l层特征图学习到的对应参数权重,且/>为像素点(i,j)第l层自适应空间特征映射融合后得到的新特征图。
7.根据权利要求5所述的基于YOLOX网络的遥感影像点状独立房检测方法,其特征在于,利用局部跨通道交互ECA注意力模块强化居民地区域特征信息,包含:利用对角线元素互异的参数矩阵Wk学习通道注意力,使各通道间完全独立;并使用分组卷积对高低维通道分组,以降低模型训练过程中共同学习参数复杂度,且利用卷积核大小和通道维度来自适应优化局部跨通道交互覆盖范围,其中,自适应优化局部跨通道交互覆盖范围的过程表示为k表示卷积核大小,C表示通道维度大小,*odd为距离最近的奇数,γ、b为预设的自适应比例常数。
8.根据权利要求1所述的基于YOLOX网络的遥感影像点状独立房检测方法,其特征在于,目标损失函数使用Swish激活函数,所述Swish激活函数表示为S(x)=x·σ(G(x)),其中,x为输入数据,G(x)为卷积层输出,σ(·)表示Sigmoid函数。
9.一种基于YOLOX网络的遥感影像点状独立房检测系统,其特征在于,包含:样本集建立模块、检测模型构建模块和目标检测模块,其中,
样本集建立模块,用于对收集的点状独立房影像数据集中的农村或山区居民地区域单体建筑房屋进行标签标注,并通过样本增强方式对标签标注后的数据集进行扩充,得到点状独立房影像样本集;
检测模型构建模块,用于基于YOLOX网络构建点状独立房目标检测模型,并建立模型训练的目标损失函数,其中,点状独立房目标检测模型中以残差网络和Focus模块为主干网络、以PANet网络为特征金字塔提取网络并以解耦合头DecoupledHead为YOLOHead检测网络,目标损失函数使用Swish激活函数;利用点状独立房影像样本集并基于建立的目标损失函数对点状独立房目标检测模型进行训练优化,得到训练后的点状独立房目标检测模型;
目标检测模块,用于将待检测的遥感影像数据输入至训练后的点状独立房目标检测模型,利用训练后的点状独立房目标检测模型获取遥感影像单体建筑房屋目标。
10.一种电子设备,其特征在于,包括存储器和处理器,所述处理器和所述存储器通过总线完成相互间的通信;所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1~8任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310624740.1A CN116630807A (zh) | 2023-05-30 | 2023-05-30 | 基于yolox网络的遥感影像点状独立房检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310624740.1A CN116630807A (zh) | 2023-05-30 | 2023-05-30 | 基于yolox网络的遥感影像点状独立房检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116630807A true CN116630807A (zh) | 2023-08-22 |
Family
ID=87641437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310624740.1A Pending CN116630807A (zh) | 2023-05-30 | 2023-05-30 | 基于yolox网络的遥感影像点状独立房检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116630807A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117690128A (zh) * | 2024-02-04 | 2024-03-12 | 武汉互创联合科技有限公司 | 胚胎细胞多核目标检测系统、方法和计算机可读存储介质 |
-
2023
- 2023-05-30 CN CN202310624740.1A patent/CN116630807A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117690128A (zh) * | 2024-02-04 | 2024-03-12 | 武汉互创联合科技有限公司 | 胚胎细胞多核目标检测系统、方法和计算机可读存储介质 |
CN117690128B (zh) * | 2024-02-04 | 2024-05-03 | 武汉互创联合科技有限公司 | 胚胎细胞多核目标检测系统、方法和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Song et al. | Automated pavement crack damage detection using deep multiscale convolutional features | |
WO2018214195A1 (zh) | 一种基于卷积神经网络的遥感图像桥梁检测方法 | |
CN112950606B (zh) | 一种基于小样本的手机屏幕缺陷分割方法 | |
CN111783590A (zh) | 一种基于度量学习的多类别小目标检测方法 | |
CN111259955B (zh) | 一种地理国情监测成果可靠性质检方法及系统 | |
Ren et al. | YOLOv5s-M: A deep learning network model for road pavement damage detection from urban street-view imagery | |
CN113609896A (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及系统 | |
CN115409069A (zh) | 村镇建筑的识别方法、分类方法、装置、电子设备和介质 | |
CN111738113A (zh) | 基于双注意力机制与语义约束的高分辨遥感图像的道路提取方法 | |
CN108898096B (zh) | 一种面向高分影像的信息快速精确提取方法 | |
CN114998744B (zh) | 基于运动与视觉双特征融合的农机轨迹田路分割方法及装置 | |
CN116630807A (zh) | 基于yolox网络的遥感影像点状独立房检测方法及系统 | |
CN114926511A (zh) | 一种基于自监督学习的高分辨率遥感影像变化检测方法 | |
Williams et al. | Mapping urban slum settlements using very high-resolution imagery and land boundary data | |
CN115937697A (zh) | 一种遥感影像变化检测方法 | |
Jiang et al. | Towards a dynamic soil survey: Identifying and delineating soil horizons in-situ using deep learning | |
CN108830896A (zh) | 一种基于全卷积网络和建筑阴影几何模型的遥感影像水体斑块提取方法 | |
CN117237780B (zh) | 多维数据特征图构建方法、系统、智能终端和介质 | |
Hu et al. | Supervised multi-scale attention-guided ship detection in optical remote sensing images | |
CN116503750A (zh) | 融合目标检测和视觉注意机制的大范围遥感影像农村街区式居民地提取方法及系统 | |
CN111726535A (zh) | 基于车辆感知的智慧城市cim视频大数据画质控制方法 | |
Lizarazo | Fuzzy image regions for estimation of impervious surface areas | |
Li et al. | Learning to holistically detect bridges from large-size vhr remote sensing imagery | |
Ji et al. | Changenet: Multi-temporal asymmetric change detection dataset | |
CN116824488A (zh) | 一种基于迁移学习的目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |