CN116665053A - 顾及阴影信息的高分辨遥感影像建筑物识别方法及系统 - Google Patents
顾及阴影信息的高分辨遥感影像建筑物识别方法及系统 Download PDFInfo
- Publication number
- CN116665053A CN116665053A CN202310629451.0A CN202310629451A CN116665053A CN 116665053 A CN116665053 A CN 116665053A CN 202310629451 A CN202310629451 A CN 202310629451A CN 116665053 A CN116665053 A CN 116665053A
- Authority
- CN
- China
- Prior art keywords
- building
- image data
- data
- remote sensing
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012545 processing Methods 0.000 claims abstract description 68
- 230000011218 segmentation Effects 0.000 claims abstract description 19
- 230000003595 spectral effect Effects 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 claims description 43
- 238000012549 training Methods 0.000 claims description 36
- 238000011176 pooling Methods 0.000 claims description 26
- 230000007246 mechanism Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 15
- 238000012795 verification Methods 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 11
- 230000000877 morphologic effect Effects 0.000 claims description 10
- 230000010339 dilation Effects 0.000 claims description 9
- 238000011282 treatment Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 206010047513 Vision blurred Diseases 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 238000011276 addition treatment Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/02—Computing arrangements based on specific mathematical models using fuzzy logic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Fuzzy Systems (AREA)
- Automation & Control Theory (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种顾及阴影信息的高分辨遥感影像建筑物识别方法及系统,其方法包括:S1、通过多分辨率分割算法对高分辨遥感影像数据进行初始分割并基于光谱特征识别出阴影对象及建筑特征转化成单波段模糊景观图,生成顾及阴影方向性关系的融合影像数据;S2、构建改进型TransUnet网络模型对融合影像数据进行特征识别、分割处理得到影像特征图;S3、对分割后的影像特征图进行二值化栅格处理得到包括若干个栅格化建筑图斑的二值化建筑栅格数据,然后规则化、矢量化处理并得到建筑物矢量数据。本发明提高了建筑位置信息和边界信息的识别精度,对建筑结果的规则化和矢量化处理,保证了建筑矢量轮廓与原始建筑物的形状一致性与完整性。
Description
技术领域
本发明涉及遥感图像处理技术领域,尤其涉及一种顾及阴影信息的高分辨遥感影像建筑物识别方法及系统。
背景技术
房屋建筑物是人类生活的重要场所,也是城市建设发展过程中最重要的基础设施,其数量信息和空间分布情况在人口估计、防灾减灾、城市功能区识别、城市用地规划等应用领域有重要作用。早期的建筑物矢量数据通常由实地考察并目视解译获取,随着高分辨遥感卫星技术的快速发展和商业高分辨卫星数据获取渠道的增加,借助卫星遥感数据获取建筑物轮廓信息成为更加高效的手段。
传统的遥感影像建筑物识别方法多基于光谱特征、几何形状特征以及形态学特征等低维特征,这些方法在面对高分辨遥感影像存在的“同物异谱,异物同普”情况时,难以获取较高的精度。而且,不同时相、不同区域以及不同传感器拍摄的影像之间存在差异性,面对复杂的地物情况,准确度高、迁移性强的建筑轮廓识别仍旧具有挑战性。仅使用RGB三波段信息进行深度学习模型训练会丢失影像的特征丰富度,建筑和其它人造物的误分类会影像识别结果,建筑阴影也会影响建筑边界的识别。此外,建筑边缘识别误差会一定程度带来建筑轮廓的扭曲和不贴合,往往无法获取到规则的、准确的建筑轮廓数据。
发明内容
本发明的目的在于解决背景技术所指出的技术问题,提供一种顾及阴影信息的高分辨遥感影像建筑物识别方法及系统,充分考虑了建筑物及其阴影的方向性和拓扑邻接性关系,能够减少建筑物和其它地物的误分类,提高了建筑位置信息和边界信息的识别精度;对建筑结果的规则化和矢量化处理,保证了建筑矢量轮廓与原始建筑物的形状一致性与结构完整性,矢量形式的数据也更有利于数据入库与使用。
本发明的目的通过下述技术方案实现:
一种顾及阴影信息的高分辨遥感影像建筑物识别方法,其方法包括:
S1、获取高分辨遥感影像数据,通过多分辨率分割算法对高分辨遥感影像数据进行初始分割并基于光谱特征识别出阴影对象及建筑特征,提取阴影对象及建筑特征转化成单波段模糊景观图;将单波段模糊景观图与高分辨遥感影像数据融合生成顾及阴影方向性关系的融合影像数据;
S2、基于Unet编解码架构构建改进型TransUnet网络模型,改进型TransUnet网络模型包括编码器部分和解码器部分,编码器部分包括Transformer编码器和卷积注意力机制模块,Transformer编码器包括若干个卷积层和上采样层,Transformer编码器采用CNN-Transformer算法对融合影像数据提取浅层特征及位置信息进行编码并得到特征图A;卷积注意力机制模块由通道注意力模块和空间注意力模块串联组成,卷积注意力机制模块经过多层感知机进行特征加权求和、sigmoid激活函数对特征图A处理并生成通道注意力特征图,通道注意力特征图与特征图A相乘获得合并输出的特征向量f’,将特征向量f’经过全局最大池化、全局平均池化处理、特征图连接处理得到空间注意力特征图Mfs;将空间注意力特征图Mfs与特征向量f’相乘得到最终的精细特征图层f″;解码器部分包括若干个卷积层和上采样层,解码器部分的卷积层采用深度可分离卷积操作,解码器部分输出融合影像数据分割后的影像特征图;
S3、对分割后的影像特征图进行二值化栅格处理得到二值化建筑栅格数据,二值化建筑栅格数据包括若干个栅格化建筑图斑,按照如下方法进行规则化处理:
S31、基于多边形建筑规则化算法对二值化建筑栅格数据的栅格化建筑图斑进行曲线简化处理:
提取栅格化建筑图斑的轮廓曲线,对曲线进行删减曲线点处理:将轮廓曲线的首末两个关键点形成直线,计算曲线上所有关键点与直线的距离并找出最大距离值dmax,设定阈值D,比较dmax和阈值D的大小,若dmax>D,则以dmax坐标点为界点,将曲线拆分成两部分,若dmax<D,则舍去曲线上的点;
对曲线拆分后的两部分曲线分别进行删减曲线点处理,依次保留界点并重复处理,将保留的界点依次连接并得到简化后的多边形轮廓线;
S32、对多边形轮廓线进行如下矢量化处理:从多边形轮廓线上的某个节点出发,沿除了轮廓进入方向外的其它多个方向搜索下一个边界点并去除多余点直到连接成完整的边界弧段,判断边界弧段与相邻多边形轮廓线的空间关系以形成具有拓扑完整性的结果,接着去除多余点并对曲线进行圆滑处理后得到建筑物矢量数据。
为了更好地实现本发明,本发明单波段模糊景观图生成方法如下:
S11、根据参考对象R和角度β指定的方向,沿给定方向β、参考对象R周围的模糊景观Lβ(R)定义为图像空间中隶属度值的模糊集,景观隶属度值定义在0和1的范围内,参考对象R为阴影对象;采用模糊形态学膨胀操作来生成模糊景观Lβ(R)并使用参考对象的边界像素δR用于模糊形态学膨胀操作,参考对象R的模糊景观隶属度Lβ(R)(x)表达式如下:
式中:/>代表形态学膨胀操作,x为像素,Rc为参考对象R的补集,v为一个非平面模糊结构元素;
S12、将建筑物特征与阴影对象的方向性关系转化成对象间的方向特征,方向特征Drt(Ri)可以表示为:
式中:ni是参考对象Ri的像素个数,xp表示参考对象Ri的一个像素;
S13、将建筑物特征与阴影对象的方向性关系用模糊景观隶属度量化并转化成单波段模糊景观图。
优选地,一个非平面模糊结构元素v由一个角度相关的结构元素vβ和一个距离相关的结构元素vd组成,
v=vβ(x)×vd(x),
式中:o是vβ的中心像素;θβ(x,o)是x到o的矢量与沿方向角β的矢量之间的夹角;d(x,o)是x和o之间的距离;k代表结构元素vd的大小,方向角β根据高分辨遥感影像数据的太阳方位角信息计算得到。
优选地,改进型TransUnet网络模型中深度可分离卷积操作包括深度卷积和逐点卷积;对于输入尺寸为(H,W,C)的图像,完整的深度可分离卷积操作的计算量为C×H×W×(K2+N),参数量为K2×C+C×1×1×N。
优选地,改进型TransUnet网络模型中通道注意力特征图Mfc表达式如下:
Mfc=σ(MLP(GAvgPool(f))+MLP(GMaxPool(f))),
式中:f代表图像特征图,σ代表sigmoid激活函数,GAvgPool代表平均池化运算,GMaxPool代表最大池化运算;
改进型TransUnet网络模型中空间注意力特征图Mfs表达式如下:
Mfs=σ(f7×7([GAvgPool(f′);GMaxPool(f′)]))。
优选地,改进型TransUnet网络模型训练方法如下:
制作融合影像数据样本数据,融合影像数据样本数据包括融合影像数据样本及标签数据,对融合影像数据样本数据采用如下方式进行样本扩容:
A1、将对融合影像数据样本数据按照相同的重叠度采用滑动窗口裁剪的方式获取切片,并计算切片中建筑样本像素占比,剔除建筑样本占比小于10%的样本对,样本对由单个融合影像数据样本及单个标签数据构成;
A2、对融合影像数据样本数据或切片后保留的样本对进行数据翻转、彩色变换以或添加噪声处理;
将扩容后的融合影像数据样本数据的遥感图像和标签图像划分成训练集、验证集和测试集,训练集用于改进型TransUnet网络模型训练,验证集用于评估训练阶段模型的性能,测试集用于评估模型训练完成时网络的识别效果和精度。
优选地,对分割后的影像特征图的二值化栅格处理采用建筑物二值化栅格模型实现,方法如下:构建建筑物二值化栅格模型,建筑物二值化栅格模型采用滑窗预测和测试时增强的方法进行结果识别预测,滑窗预测处理按照影像特征图逐像元或逐裁剪影像块预测处理并拼接成遥感影像所对应的二值化建筑栅格数据。
优选地,二值化建筑栅格数据的栅格化建筑图斑进行曲线简化处理还包括采用基于道格拉斯-普克算法进行规则化简化处理。
一种顾及阴影信息的高分辨遥感影像建筑物识别系统,包括数据采集模块、融合影像数据生成模块、建筑物识别处理系统和输出模块,数据采集模块用于采集高分辨遥感影像数据;融合影像数据生成模块用于通过多分辨率分割算法对高分辨遥感影像数据进行初始分割并基于光谱特征识别出阴影对象及建筑特征,提取阴影对象及建筑特征转化成单波段模糊景观图,将单波段模糊景观图与高分辨遥感影像数据融合生成顾及阴影方向性关系的融合影像数据;建筑物识别处理系统包括改进型TransUnet网络模型和规则化及矢量化处理模块,改进型TransUnet网络模型包括编码器部分和解码器部分,编码器部分包括Transformer编码器和卷积注意力机制模块,Transformer编码器包括若干个卷积层和上采样层,Transformer编码器采用CNN-Transformer算法对融合影像数据提取浅层特征及位置信息进行编码并得到特征图A;卷积注意力机制模块由通道注意力模块和空间注意力模块串联组成,卷积注意力机制模块经过多层感知机进行特征加权求和、sigmoid激活函数对特征图A处理并生成通道注意力特征图,通道注意力特征图与特征图A相乘获得合并输出的特征向量f’,将特征向量f’经过全局最大池化、全局平均池化处理、特征图连接处理得到空间注意力特征图Mfs;将空间注意力特征图Mfs与特征向量f’相乘得到最终的精细特征图层f″;解码器部分包括若干个卷积层和上采样层,解码器部分的卷积层采用深度可分离卷积操作,解码器部分输出融合影像数据分割后的影像特征图;规则化及矢量化处理模块用于对割后的影像特征图进行二值化栅格处理得到二值化建筑栅格数据并进行曲线简化处理得到简化后的多边形轮廓线,对多边形轮廓线进行矢量化处理并得到建筑物矢量数据;输出模块用于输出建筑物矢量数据结果。
本发明较现有技术相比,具有以下优点及有益效果:
(1)本发明充分考虑了建筑物及其阴影的方向性和拓扑邻接性关系,能够减少建筑物和其它地物的误分类,提高了建筑位置信息和边界信息的识别精度;对建筑结果的规则化和矢量化处理,保证了建筑矢量轮廓与原始建筑物的形状一致性与结构完整性,矢量形式的数据也更有利于数据入库与使用。
(2)本发明通过多分辨率分割算法对高分辨遥感影像数据进行初始分割并基于光谱特征识别出阴影对象及建筑特征,提取阴影对象及建筑特征转化成单波段模糊景观图并与高分辨遥感影像数据融合生成顾及阴影方向性关系的融合影像数据,将融合影像数据输入改进型TransUnet网络模型得到融合影像数据分割后的影像特征图,增加了模型的特征丰富度,有助于提高高分辨遥感影像建筑物的提取精度。
(3)本发明改进型TransUnet网络模型在编码阶段增加了注意力机制、解码阶段引入了可分离卷积操作,提高了模型特征提取能力、优化了对小尺寸建筑识别效果,减少了数据参数量和轻量化了模型其大小。
(4)本发明对基于像素识别的建筑轮廓进一步进行规则化处理和矢量化处理,保证了建筑矢量轮廓与原始建筑物的形状一致性与结构完整性,矢量形式的数据也更有利于数据入库及使用。
附图说明
图1为本发明高分辨遥感影像建筑物识别方法的流程示意图;
图2为实施例中高分辨遥感影像建筑物识别方法的方法流程图;
图3为实施例中改进型TransUnet网络模型的原理结构图;
图4为实施例中感影像建筑物识别、处理演变过程中的案例效果对比图;
图5为本发明高分辨遥感影像建筑物识别系统的原理结构框图。
具体实施方式
下面结合实施例对本发明作进一步地详细说明:
实施例
如图1~图4所示,一种顾及阴影信息的高分辨遥感影像建筑物识别方法,其方法包括:
S1、获取高分辨遥感影像数据,通过多分辨率分割算法对高分辨遥感影像数据进行初始分割并基于光谱特征识别出阴影对象及建筑特征(通过多分辨率分割算法对高分辨遥感影像进行过分割作为初始分割,接着使用机器学习分类方法在此分割级别基于光谱特征识别阴影对象),提取阴影对象及建筑特征转化成单波段模糊景观图。在一些实施例中,单波段模糊景观图生成方法如下:
S11、根据参考对象R和角度β指定的方向,沿给定方向β、参考对象R周围的模糊景观Lβ(R)定义为图像空间中隶属度值的模糊集,景观隶属度值定义在0和1的范围内,参考对象R为阴影对象。本发明通过角度θβ(x,b)和距离d(x,b)对隶属度值Lβ(R)(x)进行量化处理,其中像素x∈I(I为高分辨遥感影像数据的像素集),像素b∈R;角度θβ(x,b)是x到b的向量与沿方向β的单位向量相对于水平轴的夹角;d(x,b)是x和b之间的欧氏距离。采用模糊形态学膨胀操作来生成模糊景观Lβ(R)并使用参考对象的边界像素δR用于模糊形态学膨胀操作,参考对象R的模糊景观隶属度Lβ(R)(x)表达式如下:
式中:/>代表形态学膨胀操作,x为像素,Rc为参考对象R的补集,v为一个非平面模糊结构元素。
一个非平面模糊结构元素v由一个角度相关的结构元素vβ和一个距离相关的结构元素vd组成,
v=vβ(x)×vd(x),
式中:o是vβ的中心像素;θβ(x,o)是x到o的矢量与沿方向角β的矢量之间的夹角;d(x,o)是x和o之间的距离;k代表结构元素vd的大小,方向角β根据高分辨遥感影像数据的太阳方位角信息计算得到(进一步的,高分辨遥感影像数据的元数据文件中提供有关太阳方位角/>的信息,可用于推断相对于水平轴的方向角β)。
S12、将建筑物特征与阴影对象的方向性关系转化成对象间的方向特征,方向特征Drt(Ri)可以表示为:
式中:ni是参考对象Ri的像素个数,xp表示参考对象Ri的一个像素;
S13、将建筑物特征与阴影对象的方向性关系用模糊景观隶属度量化并转化成单波段模糊景观图。
将单波段模糊景观图与高分辨遥感影像数据融合(采用波段组合的融合方法)生成顾及阴影方向性关系的融合影像数据。
S2、基于Unet编解码架构构建改进型TransUnet网络模型,改进型TransUnet网络模型包括编码器部分和解码器部分,编码器部分包括Transformer编码器(优选采用CNN-Transformer的混合编码器)和卷积注意力机制模块(优选地,本发明也可以在所构建的混合编码器CNN卷积操作后嵌入卷积注意力机制模块CBAM),Transformer编码器包括若干个卷积层和上采样层,Transformer编码器采用CNN-Transformer算法对融合影像数据提取浅层特征及位置信息进行编码并得到特征图A。Transformer编码器由CNN算法提取浅层特征,然后使用图像块嵌入对位置信息进行编码。Transformer编码器包含多个Transformer层,来自编码器的跳跃连接和Transformer的输出迭代到解码器(即解码器部分),解码器与U-Net类似,由多个卷积层和上采样层组成,在解码器架构中,来自Transformers的重构输出与不同空间维度的CNN模块连接,以增强局部和全局空间上下文。在编码器部分和解码器部分中,为了匹配输入张量的空间维度,将执行级联上采样(CUP)操作,CUP由4个上采样模块组成,用于对编码器的输出特征进行解码以获得最终的分割图;同时TransUNet保留了U-Net的跳跃连接,有助于通过恢复低级空间信息来增强更精细的分割细节。
卷积注意力机制模块由通道注意力模块和空间注意力模块串联组成(卷积注意力机制模块由通道注意力模块和空间注意力模块串联组成,特征图A经过全局最大池化和全局平均池化后对空间信息进行聚合和压缩,得到两个C×1×1的特征图),卷积注意力机制模块(又称卷积注意力机制模块CBAM)经过多层感知机进行特征加权求和、sigmoid激活函数对特征图A处理并生成通道注意力特征图。在一些实施例中,改进型TransUnet网络模型中通道注意力特征图Mfc表达式如下:
Mfc=σ(MLP(GAvgPool(f))+MLP(GMaxPool(f))),
式中:f代表图像特征图,σ代表sigmoid激活函数,GAvgPool代表平均池化运算,GMaxPool代表最大池化运算。
通道注意力特征图与特征图A相乘获得合并输出的特征向量f’,
即
将特征向量f’经过全局最大池化、全局平均池化处理、特征图连接处理得到空间注意力特征图Mfs;将空间注意力特征图Mfs与特征向量f′相乘得到最终的精细特征图层f″;改进型TransUnet网络模型中空间注意力特征图Mfs表达式如下:
Mfs=σ(f7×7([GAvgPool(f′);GMaxPool(f′)]))。
解码器部分包括若干个卷积层和上采样层,解码器部分的卷积层采用深度可分离卷积操作,解码器部分输出融合影像数据分割后的影像特征图。本发明改进型TransUnet网络模型在解码阶段采用深度可分离卷积操作,深度可分离卷积将常规卷积操作拆分为两个独立的操作:深度卷积和逐点卷积。在一些实施例中,改进型TransUnet网络模型中深度可分离卷积操作包括深度卷积和逐点卷积;对于输入尺寸为(H,W,C)的图像,完整的深度可分离卷积操作的计算量为C×H×W×(K2+N),参数量为K2×C+C×1×1×N,由此本发迷茫计算量和参数量是普通卷积操作的能够让模型更加轻量化。
在一些实施例中,改进型TransUnet网络模型训练方法如下:
制作融合影像数据样本数据,融合影像数据样本数据包括融合影像数据样本及标签数据,对融合影像数据样本数据采用如下方式进行样本扩容:
A1、将对融合影像数据样本数据按照相同的重叠度采用滑动窗口裁剪的方式获取切片,并计算切片中建筑样本像素占比,剔除建筑样本占比小于10%的样本对,样本对由单个融合影像数据样本及单个标签数据构成。
A2、对融合影像数据样本数据或切片后保留的样本对进行数据翻转、彩色变换以或添加噪声处理。将扩容后的融合影像数据样本数据的遥感图像和标签图像划分成训练集、验证集和测试集,训练集用于改进型TransUnet网络模型训练,验证集用于评估训练阶段模型的性能,测试集用于评估模型训练完成时网络的识别效果和精度。
本发明改进型TransUnet网络模型在模型训练时,对融合后的影像数据和标签数据按照相同的重叠度采用滑动窗口裁剪的方式获取切片,并计算切片中建筑样本像素占比,剔除建筑样本占比小于10%的样本对;对裁剪后的影像和标签切片进行数据增强,扩大样本量和样本多样性。所述数据增强操作包括:数据翻转(对影像和标签进行水平翻转、垂直翻转、镜像翻转)、彩色变换以及添加噪声。将数据增强后的遥感图像和标签图像划分成训练集、验证集和测试集。训练集用于模型训练,进行特征学习;验证集用于评估训练阶段模型的性能,便于调整训练参数;测试集用于评估模型训练完成时网络的识别效果和精度。本发明将扩容后的融合影像数据样本数据的遥感图像和标签图像划分成训练集、验证集和测试集,训练集用于模型训练,进行特征学习;验证集用于评估训练阶段模型的性能,便于调整训练参数;测试集用于评估模型训练完成时网络的识别效果和精度。
本发明模型训练过程中,初始迭代次数时使用较小的学习率,待模型趋于稳定后使用预先设置的学习率进行训练,以此使模型快速且稳定收敛;通过监测模型在验证集的损失值和精度,当验证集精度达到一定阈值且损失值减少的程度连续小于给定阈值时,保存训练过程中的最优模型。基于获取的最优模型权重文件,采用滑窗预测和测试时增强的方法进行结果预测。具体的,用给定的重叠度对影像裁剪并进行逐块预测,每次预测结果只保留中心区域,舍弃图像边缘的预测结果。同时对预测图像进行不同形式的增强并对预测结果取平均得到无拼接痕迹的大尺寸遥感影像的预测结果。在一些实施例中,模型训练过程中,模型预计最大迭代此时为150个批次,前十个迭代次数时使用较小的学习率,待模型趋于稳定后使用预先设置的学习率(0.0001)进行训练,当验证集精度达到90%一定阈值且损失值减少的程度连续小于0.05时,保存训练过程中的最优模型。基于获取的最优模型权重文件,采用滑窗预测和测试时增强的方法进行结果预测。具体的,按照50%的重叠度对影像裁剪成512×512的像素大小,并进行逐块预测,每次预测结果只保留中心区域,舍弃图像边缘的预测结果。
S3、对分割后的影像特征图进行二值化栅格处理得到二值化建筑栅格数据,二值化建筑栅格数据包括若干个栅格化建筑图斑,按照如下方法进行规则化处理:
S31、基于多边形建筑规则化算法对二值化建筑栅格数据的栅格化建筑图斑进行曲线简化处理:
提取栅格化建筑图斑的轮廓曲线,对曲线进行删减曲线点处理:将轮廓曲线的首末两个关键点形成直线,计算曲线上所有关键点与直线的距离并找出最大距离值dmax,设定阈值D,比较dmax和阈值D的大小,若dmax>D,则以dmax坐标点为界点,将曲线拆分成两部分,若dmax<D,则舍去曲线上的点;
对曲线拆分后的两部分曲线分别进行删减曲线点处理,依次保留界点并重复处理,将保留的界点依次连接并得到简化后的多边形轮廓线;
S32、对多边形轮廓线进行如下矢量化处理:从多边形轮廓线上的某个节点出发,沿除了轮廓进入方向外的其它多个方向搜索下一个边界点并去除多余点直到连接成完整的边界弧段,判断边界弧段与相邻多边形轮廓线的空间关系以形成具有拓扑完整性的结果,接着去除多余点并对曲线进行圆滑处理后得到建筑物矢量数据。
优选地,对分割后的影像特征图的二值化栅格处理采用建筑物二值化栅格模型实现,方法如下:构建建筑物二值化栅格模型,建筑物二值化栅格模型采用滑窗预测和测试时增强的方法进行结果识别预测,滑窗预测处理按照影像特征图逐像元或逐裁剪影像块预测处理并拼接成遥感影像所对应的二值化建筑栅格数据。
在一些实施例中,二值化建筑栅格数据的栅格化建筑图斑进行曲线简化处理还包括采用基于道格拉斯-普克算法进行规则化简化处理(本实施例主要用于获取栅格化建筑图斑及规则化初步处理)。
如图5所示,一种顾及阴影信息的高分辨遥感影像建筑物识别系统,包括数据采集模块、融合影像数据生成模块、建筑物识别处理系统和输出模块,数据采集模块用于采集高分辨遥感影像数据;融合影像数据生成模块用于通过多分辨率分割算法对高分辨遥感影像数据进行初始分割并基于光谱特征识别出阴影对象及建筑特征,提取阴影对象及建筑特征转化成单波段模糊景观图,将单波段模糊景观图与高分辨遥感影像数据融合生成顾及阴影方向性关系的融合影像数据。
建筑物识别处理系统包括改进型TransUnet网络模型和规则化及矢量化处理模块,改进型TransUnet网络模型包括编码器部分和解码器部分,编码器部分包括Transformer编码器和卷积注意力机制模块,Transformer编码器包括若干个卷积层和上采样层,Transformer编码器采用CNN-Transformer算法对融合影像数据提取浅层特征及位置信息进行编码并得到特征图A;卷积注意力机制模块由通道注意力模块和空间注意力模块串联组成,卷积注意力机制模块经过多层感知机进行特征加权求和、sigmoid激活函数对特征图A处理并生成通道注意力特征图,通道注意力特征图与特征图A相乘获得合并输出的特征向量f’,将特征向量f’经过全局最大池化、全局平均池化处理、特征图连接处理得到空间注意力特征图Mfs;将空间注意力特征图Mfs与特征向量f’相乘得到最终的精细特征图层f″;解码器部分包括若干个卷积层和上采样层,解码器部分的卷积层采用深度可分离卷积操作,解码器部分输出融合影像数据分割后的影像特征图。
本发明基于Unet编解码架构进行改进型TransUnet网络模型的构建,如图3所示,改进型TransUnet网络模型左侧部分的编码器部分采用CNN-Transformer的混合编码器,由CNN算法提取浅层特征,然后使用图像块嵌入对位置信息进行编码。Transformer编码器包含多个Transformer层,来自编码器的跳跃连接和Transformer的输出迭代到解码器,解码器与U-Net类似,由多个卷积层和上采样层组成,在解码器架构中,来自Transformers的重构输出与不同空间维度的CNN模块连接,以增强局部和全局空间上下文。为了匹配输入张量的空间维度,将执行级联上采样(CUP)操作,CUP由4个上采样模块组成,用于对编码器的输出特征进行解码以获得最终的分割图。同时TransUNet保留了U-Net的跳跃连接,有助于通过恢复低级空间信息来增强更精细的分割细节。
本发明在改进型TransUnet网络模型的混合编码器CNN卷积操作后嵌入卷积注意力机制模块(CBAM)。卷积注意力机制模块由通道注意力模块和空间注意力模块串联组成,特征图f经过全局最大池化和全局平均池化后对空间信息进行聚合和压缩,得到两个C×1×1的特征图,其在共享网络中经过多层感知机进行特征加权求和,再经过sigmoid激活函数生成通道注意力特征图Mfc:通道注意力特征图Mfc表达式如下:
Mfc=σ(MLP(GAvgPool(f))+MLP(GMaxPool(f))),
式中:f代表图像特征图,σ代表sigmoid激活函数,GAvgPool代表平均池化运算,GMaxPool代表最大池化运算。在此基础上,与原输入特征图相乘获得合并输出的特征向量f’:
特征向量f’继续经过全局最大池化和全局平均池化得到两个H×W×1的特征图,对其进行特征图连接和激活后生成空间注意力特征图Mfs:空间注意力特征图Mfs表达式如下:
Mfs=σ(f7×7([GAvgPool(f′);GMaxPool(f′)]))。
最后将获取的空间注意力特征图与输入特征图f′相乘得到最终的精细特征图层f″:
本发明改进型TransUnet网络模型在解码阶段采用深度可分离卷积操作代替普通的卷积操作。深度可分离卷积将常规卷积操作拆分为两个独立的操作:深度卷积和逐点卷积。对于输入尺寸为(H,W,C)的图像,完整的深度可分离卷积操作的计算量为C×H×W×(K2+N),参数量为K2×C+C×1×1×N,其计算量和参数量是普通卷积操做的因此深度可分离卷积可以是模型更加轻量化。
规则化及矢量化处理模块用于对割后的影像特征图进行二值化栅格处理得到二值化建筑栅格数据并进行曲线简化处理得到简化后的多边形轮廓线,对多边形轮廓线进行矢量化处理并得到建筑物矢量数据。基于道格拉斯-普克算法对获取的栅格化建筑图斑进行规则化处理,多边形建筑规则化算法可以看作是建筑边界轮廓线的简化过程,连接曲线的首末两个关键点形成直线,计算曲线上所有关键点与直线的距离并找出最大距离值dmax。比较dmax和阈值D的大小,若dmax>D,则以dmax坐标点为界,将曲线拆分成两部分,若dmax<D,则舍去曲线上的中间点,将所得曲线简化为最终线段。重复上述步骤,依次连接保留的点,从而获得简化后的多边形轮廓。规则化及矢量化处理模块对规则化后的二值化建筑栅格数据进行矢量化处理,具体为:从建筑多边形轮廓上的某个节点出发,沿除了轮廓进入方向的其它七个方向搜索下一个边界点,直到连接成边界弧段。判断边界弧段与其它多边形的空间关系以形成具有拓扑完整性的结果。进一步去除多余点并对曲线进行圆滑后得到建筑物矢量数据。
输出模块用于输出建筑物矢量数据结果。
以上所述权为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种顾及阴影信息的高分辨遥感影像建筑物识别方法,其特征在于:其方法包括:
S1、获取高分辨遥感影像数据,通过多分辨率分割算法对高分辨遥感影像数据进行初始分割并基于光谱特征识别出阴影对象及建筑特征,提取阴影对象及建筑特征转化成单波段模糊景观图;将单波段模糊景观图与高分辨遥感影像数据融合生成顾及阴影方向性关系的融合影像数据;
S2、基于Unet编解码架构构建改进型TransUnet网络模型,改进型TransUnet网络模型包括编码器部分和解码器部分,编码器部分包括Transformer编码器和卷积注意力机制模块,Transformer编码器包括若干个卷积层和上采样层,Transformer编码器采用CNN-Transformer算法对融合影像数据提取浅层特征及位置信息进行编码并得到特征图A;卷积注意力机制模块由通道注意力模块和空间注意力模块串联组成,卷积注意力机制模块经过多层感知机进行特征加权求和、sigmoid激活函数对特征图A处理并生成通道注意力特征图,通道注意力特征图与特征图A相乘获得合并输出的特征向量f′,将特征向量f’经过全局最大池化、全局平均池化处理、特征图连接处理得到空间注意力特征图Mfs;将空间注意力特征图Mfs与特征向量f′相乘得到量终的精细特征图层f″;解码器部分包括若干个卷积层和上采样层,解码器部分的卷积层采用深度可分离卷积操作,解码器部分输出融合影像数据分割后的影像特征图;
S3、对分割后的影像特征图进行二值化栅格处理得到二值化建筑栅格数据,二值化建筑栅格数据包括若干个栅格化建筑图斑,按照如下方法进行规则化处理:
S31、基于多边形建筑规则化算法对二值化建筑栅格数据的栅格化建筑图斑进行曲线简化处理:
提取栅格化建筑图斑的轮廓曲线,对曲线进行删减曲线点处理:将轮廓曲线的首未两个关键点形成直线,计算曲线上所有关键点与直线的距离并找出最大距离值dmax,设定阈值D,比较dmax和阈值D的大小,若dmax>D,则以dmax坐标点为界点,将曲线拆分成两部分,若dmax<D,则舍去曲线上的点;
对曲线拆分后的两部分曲线分别进行删减曲线点处理,依次保留界点并重复处理,将保留的界点依次连接并得到简化后的多边形轮廓线;
S32、对多边形轮廓线进行如下矢量化处理:从多边形轮廓线上的某个节点出发,沿除了轮廓进入方向外的其它多个方向搜索下一个边界点并去除多余点直到连接成完整的边界弧段,判断边界弧段与相邻多边形轮廓线的空间关系以形成具有拓扑完整性的结果,接着去除多余点并对曲线进行圆滑处理后得到建筑物矢量数据。
2.按照权利要求1所述的顾及阴影信息的高分辨遥感影像建筑物识别方法,其特征右于:单波段模糊景观图生成方法如下:
S11、根据参考对象R和角度β指定的方向,沿给定方向β、参考对象R周围的模糊景观Lβ(R)定义为图像空间中隶属度值的模糊集,景观隶属度值定义在0和1的范围内,参考对象R为阴影对象;采用模糊形态学膨胀操作来生成模糊景观Lβ(R)并使用参考对象的边界像表δR用于模糊形态学膨胀操作,参考对象R的模糊景观隶属度Lβ(R)(x)表达式如下:
式中:/>代表形态学膨胀操作.x为像素,Rc为参考对象R的补集,v为一个非平面模糊结构元素;
S12、将建筑物特征与阴影对象的方向性关系转化成对象间的方向特征,方向特征Drt(Ri)可以表示为:
式中:ni是参考对象Ri的像素个数,xp表示参考对象Ri的一个像素;
S13、将建筑物特征与阴影对象的方向性关系用模糊景观隶属度量化并转化成单波段模糊景观图。
3.按照权利要求2所述的顾及阴影信息的高分辨遥感影像建筑物识别方法,其特征在于:一个非平面模糊结构元素v由一个角度相关的结构元素vβ和一个距离相关的结构元素vd组成,
v=vβ(x)×vd(x),
式中:o是vβ的中心像素;θβ(x,o)是x到o的矢量与沿方向角β的矢量之间的夹角;d(x,o)是x和o之间的距离;k代表结构元素vd的大小,方向角β根据高分辨遥感影像数据的太阳方位角信息计算得到。
4.按照权利要求1所述的顾及阴影信息的高分辨遥感影像建筑物识别方法,其特征在于:改进型TransUnet网络模型中深度可分离卷积操作包括深度卷积和逐点卷积;对于输入尺寸为(H,W,C)的图像,完整的深度可分离卷积操作的计算量为C×H×W×(K2+N),参数量为K2×C+C×1×1×N。
5.按照权利要求1所述的顾及阴影信息的高分辨遥感影像建筑物识别方法,其特征在于:改进型TransUnet网络模型中通道注意力特征图Mfc表达式如下:
Mfc=σ(MLP(GAvgPool(f))+MLP(GMaxPool(f))),
式中:f代表图像特征图,σ代表sigmoid激活函数,GAvgPool代表平均池化运算,GMaxPool代表最大池化运算;
改进型TransUnet网络模型中空间注意力特征图Mfs表达式如下:
Mfs=σ(f7×7([GAvgPool(f′);GMaxPool(f′)]))。
6.按照权利要求1所述的顾及阴影信息的高分辨遥感影像建筑物识别方法,其特征在于:改进型TransUnet网络模型训练方法如下:
制作融合影像数据样本数据,融合影像数据样本数据包括融合影像数据样本及标签数据,对融合影像数据样本数据采用如下方式进行样本扩容:
A1、将对融合影像数据样本数据按照相同的重叠度采用滑动窗口裁剪的方式获取切片,并计算切片中建筑样本像素占比,剔除建筑样本占比小于10%的样本对,样本对由单个融合影像数据样本及单个标签数据构成;
A2、对融合影像数据样本数据或切片后保留的样本对进行数据翻转、彩色变换以或添加噪声处理;
将扩容后的融合影像数据样本数据的遥感图像和标签图像划分成训练集、验证集和测试集,训练集用于改进型TransUnet网络模型训练,验证集用于评估训练阶段模型内性能,测试集用于评估模型训练完成时网络的识别效果和精度。
7.按照权利要求1所述的顾及阴影信息的高分辨遥感影像建筑物识别方法,其特征在于:对分割后的影像特征图的二值化栅格处理采用建筑物二值化栅格模型实现,方法如下:构建建筑物二值化栅格模型,建筑物二值化栅格模型采用滑窗预测和测试时增强的方法进行结果识别预测,滑窗预测处理按照影像特征图逐像元或逐裁剪影像块预测处理并拼接成遥感影像所对应的二值化建筑栅格数据。
8.按照权利要求1所述的顾及阴影信息的高分辨遥感影像建筑物识别方法,其特征在于:二值化建筑栅格数据的栅格化建筑图斑进行曲线简化处理还包括采用基于道格拉斯-普克算法进行规则化简化处理。
9.一种顾及阴影信息的高分辨遥感影像建筑物识别系统,其特征在于:包括数据采集模块、融合影像数据生成模块、建筑物识别处理系统和输出模块,数据采集模块用于采集高分辨遥感影像数据;融合影像数据生成模块用于通过多分辨率分割算法对高分辨遥感影像数据进行初始分割并基于光谱特征识别出阴影对象及建筑特征,提取阴影对象及建筑特征转化成单波段模糊景观图,将单波段模糊景观图与高分辨遥感影像数据融合生成顾及阴影方向性关系的融合影像数据;建筑物识别处理系统包括改进型TransUnet网络模型和规则化及矢量化处理模块,改进型TransUnet 网络模型包括编码器部分和解码器部分,编码器部分包括Transformer编码器和卷积注意力机制模块,Transformer编码器包括若干个卷积层和上采样层,Transformer编码器采用CNN-Transformer算法对融合影像数据提取浅层特征及位置信息进行编码并得到特征图A;卷积注意力机制模块由通道注意力模块和空间注意力模块串联组成,卷积注意力机制模块经过多层感知机进行特征加权求和、sigmoid激活函数对特征图A处理并生成通道注意力特征图,通道注意力特征图与特征图A相乘获得合并输出的特征向量f′,将特征向量f’经过全局最大池化、全局平均池化处理、特征图连接处理得到空间注意力特征图Mfs;将空间注意力特征图Mfs与特征向量f’相乘得到最终的精细特征图层f″;解码器部分包括若干个卷积层和上采样层,解码器部分的卷积层采用深度可分离卷积操作,解码器部分输出融合影像数据分割后的影像特征图;规则化及矢量化处理模块用于对割后的影像特征图进行二值化栅格处理得到二值化建筑栅格数据并进行曲线简化处理得到简化后的多边形轮廓线,对多边形轮廓线进行矢量化处理并得到建筑物矢量数据;输出模块用于输出建筑物矢量数据结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310629451.0A CN116665053B (zh) | 2023-05-30 | 2023-05-30 | 顾及阴影信息的高分辨遥感影像建筑物识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310629451.0A CN116665053B (zh) | 2023-05-30 | 2023-05-30 | 顾及阴影信息的高分辨遥感影像建筑物识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116665053A true CN116665053A (zh) | 2023-08-29 |
CN116665053B CN116665053B (zh) | 2023-11-07 |
Family
ID=87716626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310629451.0A Active CN116665053B (zh) | 2023-05-30 | 2023-05-30 | 顾及阴影信息的高分辨遥感影像建筑物识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116665053B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117475305A (zh) * | 2023-10-26 | 2024-01-30 | 广西壮族自治区自然资源遥感院 | 多类别建筑轮廓智能提取与规则化方法、应用系统 |
CN117765410A (zh) * | 2024-01-05 | 2024-03-26 | 浙江时空智子大数据有限公司 | 遥感影像双分支特征融合固废识别方法、系统及电子设备 |
CN118644785A (zh) * | 2024-08-16 | 2024-09-13 | 太原理工大学 | 一种基于双编码特征交互的建筑物边缘感知方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114037891A (zh) * | 2021-08-24 | 2022-02-11 | 山东建筑大学 | 基于u型注意力控制网络的高分辨率遥感影像建筑物提取方法及装置 |
CN114373009A (zh) * | 2022-01-13 | 2022-04-19 | 中国科学院空天信息创新研究院 | 基于高分辨率遥感影像的建筑物阴影测高智能化计算方法 |
CN114581770A (zh) * | 2022-02-17 | 2022-06-03 | 深圳信息职业技术学院 | 基于TransUnet的遥感影像建筑物自动提取处理方法 |
CN116071650A (zh) * | 2023-02-16 | 2023-05-05 | 南京信息工程大学 | 一种融合卷积神经网络与Transformer的遥感影像建筑物提取方法 |
CN116109920A (zh) * | 2022-12-12 | 2023-05-12 | 浙江工业大学 | 一种基于Transformer的遥感图像建筑物提取方法 |
-
2023
- 2023-05-30 CN CN202310629451.0A patent/CN116665053B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114037891A (zh) * | 2021-08-24 | 2022-02-11 | 山东建筑大学 | 基于u型注意力控制网络的高分辨率遥感影像建筑物提取方法及装置 |
CN114373009A (zh) * | 2022-01-13 | 2022-04-19 | 中国科学院空天信息创新研究院 | 基于高分辨率遥感影像的建筑物阴影测高智能化计算方法 |
CN114581770A (zh) * | 2022-02-17 | 2022-06-03 | 深圳信息职业技术学院 | 基于TransUnet的遥感影像建筑物自动提取处理方法 |
CN116109920A (zh) * | 2022-12-12 | 2023-05-12 | 浙江工业大学 | 一种基于Transformer的遥感图像建筑物提取方法 |
CN116071650A (zh) * | 2023-02-16 | 2023-05-05 | 南京信息工程大学 | 一种融合卷积神经网络与Transformer的遥感影像建筑物提取方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117475305A (zh) * | 2023-10-26 | 2024-01-30 | 广西壮族自治区自然资源遥感院 | 多类别建筑轮廓智能提取与规则化方法、应用系统 |
CN117765410A (zh) * | 2024-01-05 | 2024-03-26 | 浙江时空智子大数据有限公司 | 遥感影像双分支特征融合固废识别方法、系统及电子设备 |
CN117765410B (zh) * | 2024-01-05 | 2024-05-28 | 浙江时空智子大数据有限公司 | 遥感影像双分支特征融合固废识别方法、系统及电子设备 |
CN118644785A (zh) * | 2024-08-16 | 2024-09-13 | 太原理工大学 | 一种基于双编码特征交互的建筑物边缘感知方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116665053B (zh) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116665053B (zh) | 顾及阴影信息的高分辨遥感影像建筑物识别方法及系统 | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN111915592B (zh) | 基于深度学习的遥感图像云检测方法 | |
CN110059768B (zh) | 用于街景理解的融合点与区域特征的语义分割方法及系统 | |
CN110728192B (zh) | 一种基于新型特征金字塔深度网络的高分遥感图像分类方法 | |
CN111310666B (zh) | 一种基于纹理特征的高分辨率影像地物识别与分割方法 | |
CN109859110B (zh) | 基于光谱维控制卷积神经网络的高光谱图像全色锐化方法 | |
JP7130905B2 (ja) | フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 | |
CN110544212B (zh) | 基于层级特征融合的卷积神经网络高光谱图像锐化方法 | |
CN116797787B (zh) | 基于跨模态融合与图神经网络的遥感影像语义分割方法 | |
CN112215085A (zh) | 一种基于孪生网络的输电走廊异物检测方法及系统 | |
CN114187450A (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
CN114694038A (zh) | 基于深度学习的高分辨率遥感影像分类方法及系统 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN115984714B (zh) | 一种基于双分支网络模型的云检测方法 | |
CN114723760A (zh) | 人像分割模型的训练方法、装置及人像分割方法、装置 | |
CN114463340B (zh) | 一种边缘信息引导的敏捷型遥感图像语义分割方法 | |
CN116630369A (zh) | 基于时空记忆网络的无人机目标跟踪方法 | |
CN113657225B (zh) | 一种目标检测方法 | |
CN116682020A (zh) | 一种光学与sar融合的洪水检测方法及装置 | |
CN115147317A (zh) | 一种基于卷积神经网络的点云颜色质量增强方法及系统 | |
CN110807746B (zh) | 一种基于细节内嵌注入卷积神经网络高光谱图像锐化方法 | |
Ahmadia et al. | The application of neural networks, image processing and cad-based environments facilities in automatic road extraction and vectorization from high resolution satellite images | |
CN118097155B (zh) | 基于全局与局部特征协作的遥感图像分割方法及系统 | |
CN117292276B (zh) | 基于编解码注意力交互的云检测方法、系统、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |