CN114581771A - 一种高分异源遥感坍塌建筑物检测方法 - Google Patents
一种高分异源遥感坍塌建筑物检测方法 Download PDFInfo
- Publication number
- CN114581771A CN114581771A CN202210167046.7A CN202210167046A CN114581771A CN 114581771 A CN114581771 A CN 114581771A CN 202210167046 A CN202210167046 A CN 202210167046A CN 114581771 A CN114581771 A CN 114581771A
- Authority
- CN
- China
- Prior art keywords
- sar
- pdbp
- image
- pixel
- building
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 99
- 238000000034 method Methods 0.000 claims abstract description 102
- 230000000007 visual effect Effects 0.000 claims abstract description 58
- 230000003287 optical effect Effects 0.000 claims abstract description 57
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 238000012706 support-vector machine Methods 0.000 claims abstract description 12
- 230000000877 morphologic effect Effects 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 19
- 230000009466 transformation Effects 0.000 claims description 15
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 13
- 238000009448 modified atmosphere packaging Methods 0.000 claims description 12
- 238000002592 echocardiography Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 235000019837 monoammonium phosphate Nutrition 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 238000003709 image segmentation Methods 0.000 claims description 4
- 238000007670 refining Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims description 2
- 230000014759 maintenance of location Effects 0.000 claims description 2
- 230000004044 response Effects 0.000 abstract description 4
- 230000000295 complement effect Effects 0.000 abstract description 3
- 230000014509 gene expression Effects 0.000 abstract description 2
- 238000005065 mining Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 16
- 238000013135 deep learning Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 101150055297 SET1 gene Proteins 0.000 description 5
- 101150117538 Set2 gene Proteins 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 101100042371 Caenorhabditis elegans set-3 gene Proteins 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000013467 fragmentation Methods 0.000 description 2
- 238000006062 fragmentation reaction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种高分异源遥感坍塌建筑物检测方法,该方法首先基于对象的内切圆圆心的光学‑SAR对象集合提取策略,构建统一的光学‑SAR地物对象集合;然后基于双回波中坍塌语义知识的定量表示方在SAR影像中提取高层双回波坍塌语义特征;再基于面积、对角线、转动惯量和标准差四种属性,采用形态学属性剖面建筑物提取方法分别对光学影像和SAR影像进行底层视觉特征提取;最后基于改进主动学习SVMs进行坍塌建筑物检测,获得坍塌建筑物检测结果。本发明通过挖掘多源数据中底层视觉与高层语义间的互补信息,提出联合震后高分光学与SAR影像的坍塌建筑物检测方法,摆脱了对震前数据的依赖,对及时开展应急响应具有重要的意义。
Description
技术领域
本发明涉及一种高分异源遥感坍塌建筑物检测方法,属于震后坍塌建筑物检测技术领域。
背景技术
地震后及时、准确的建筑物震害程度评估,是灾情监测的重要内容。与传统实地勘测手段相比,遥感技术采用远距离成像方式,具有信息获取及时、不受现场条件限制等诸多优势,已成为建筑物震害信息提取的主要技术手段。
近年来,基于遥感影像的震害建筑物检测研究主要集中在对坍塌建筑物的识别。其原因在于,坍塌建筑物通常毁损极为严重且有人员被困,是震后应急响应救援中首要靶标。在震后复杂场景中,坍塌建筑物与未坍塌建筑物的高度通常存在显著差异。因此,在传统高分遥感影像的基础上,进一步引入高程信息,可为判别建筑物是否坍塌提供直接的证据支持。尽管如此,如Light Detection and Ranging(LiDAR)等数字高程数据的获取通常需要提取地面控制点和立体像对,计算复杂度与时间成本较高,难以满足震后坍塌建筑物检测的时效性要求。因此,有必要设计一种高程数据缺失条件下的可靠的坍塌建筑物检测方法。按照所采用数据源不同,坍塌建筑物检测方法总体上可分为三类:(1)基于震前、震后影像方法;(2)基于震后影像方法;(3)结合高程数据方法。
(1)基于震前、震后影像方法:此类方法通过提取震前/震后影像中典型特征的变化信息,作为评估建筑物的毁损程度的主要依据。此类方法由于引入了震前参考数据,因此通常在检测结果中能够较好的剔除震前已存在且与坍塌建筑物具有相似特征的其他地物。尽管如此,除地震影响外,正常的城市演变也可能产生丰富的变化信息。此外,地震发生后震前数据的缺乏往往是制约此类方法推广应用的“瓶颈”所在。
(2)基于震后影像方法:此类方法摆脱了对震前数据的依赖,相较于基于震前、震后影像方法具有更强的普适性。通过提取光谱、纹理、空间等人工定义或自动提取特征来刻画坍塌建筑物,进而选择合适的分类器进行预测。尽管如此,坍塌建筑物的多样性及震后场景的复杂性带来了更加突出的“同谱异物”和“同物异谱”问题,需要构建更具有鉴别力的分类模型;另一方面,作为判断建筑物是否坍塌的直接证据,高程信息的缺失依然是此类方法在实际应用中所面临的主要挑战。
(3)结合高程数据方法:在遥感影像基础上,此类方法利用LiDAR、DEM(DigitalElevation Model)等高程数据提供的高程信息,作为判断建筑物是否坍塌的有力依据。尽管遥感影像与高程数据间具有很强的互补性,但在实际应用中仅为了坍塌建筑物检测而专门采集和制作高程数据还不是一种通行的做法。另一方面,目前还缺乏针对坍塌建筑物扫描测量的可靠方法。
随着人工智能和计算机视觉的快速发展,深度学习由于能够提取具有鉴别力和代表性的特征而受到了学者们的广泛关注。相比较于传统机器学习,深度学习(DeepLearning)采用深层非线性的网络结构(deep nonlinear network structure),通过层次性的学习来实现对复杂函数的逼近从而提取高级特征。在特定的灾害事件中,一些深度学习方法已经展示出了强大的坍塌建筑物检测能力。尽管如此,目前深度学习方法通常都是基于特定研究区域的训练样本来开展训练的,因此模型的可移植性尚不明确;同时,地震发生后样本集的制作及人工标注是非常费时费力的,这些因素均严重制约了此类方法在坍塌建筑物检测领域中的应用。
发明内容
本发明所要解决的技术问题是:提供一种高分异源遥感坍塌建筑物检测方法,联合震后高分光学与SAR影像,将光谱、纹理、形态学等光学影像底层视觉特征与双回波所隐含高层语义知识相结合,在高程信息缺失条件下,实现高精度、高可靠的坍塌建筑物检测。
本发明为解决上述技术问题采用以下技术方案:
一种高分异源遥感坍塌建筑物检测方法,包括如下步骤:
步骤1,获取待检测区域的光学影像和SAR影像,基于对象的内切圆圆心的光学-SAR对象集合提取策略,构建统一的光学-SAR地物对象集合;
步骤2,结合统一的光学-SAR地物对象集合,基于双回波中坍塌语义知识的定量表示方法,在SAR影像中提取高层双回波坍塌语义特征,得到双回波坍塌语义直方图;
步骤3,基于面积、对角线、转动惯量和标准差这四种属性,采用形态学属性剖面建筑物提取方法分别对光学影像和SAR影像进行底层视觉特征提取,分别得到光学影像视觉直方图和SAR影像视觉直方图;
步骤4,基于步骤2得到的双回波坍塌语义直方图以及步骤3得到的光学影像视觉直方图和SAR影像视觉直方图,采用改进主动学习SVMs进行坍塌建筑物检测,获得坍塌建筑物检测结果。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1、本发明联合震后高分光学与SAR影像,将光谱、纹理、形态学等光学影像底层视觉特征与双回波所隐含高层语义知识相结合,可为在高程信息缺失条件下,实现高精度、高可靠的坍塌建筑物检测提供一条新的技术途径。
2、本发明提出的OSOIC克服了异源影像间的成像差异,实现了光学—SAR影像中统一地理对象集合提取;提出的QRCSD实现了对坍塌语义知识的定量化描述,间接反映了坍塌建筑物检测中所需的关键高程信息,从而跨越了双回波与建筑物坍塌特征之间的语义鸿沟;提出的CUI(category uncertainty index)改进了主动学习SVMs训练过程,有利于充分挖掘和选择代表性训练样本。
3、本发明基于震后遥感影像的坍塌建筑物(Collapsed building)检测有助于摆脱对震前数据的依赖,对及时开展应急响应具有重要的意义。通过对多组震后多源影像进行实验的结果表明,本发明所提出方法的总体精度overall accuracy(OA)及坍塌建筑物检测精度(Pcb)最高可达82.39%和75.47%以上,显著优于多种先进的对比方法。
附图说明
图1是双回波的不同表现形式,其中,(a)为未坍塌建筑物光学影像,(b)为未坍塌建筑物SAR影像,(c)为坍塌建筑物光学影像,(d)为坍塌建筑物SAR影像;
图2是本发明一种高分异源遥感坍塌建筑物检测方法的具体流程图;
图3是本发明实施例研究区域,其中,(a)为光学影像,(b)为SAR影像;
图4是本发明实施例研究区域的三组Datasets的光学影像、SAR影像和其对应的地面真实图,其中,(a)为Dataset 1,(b)为Dataset2,(c)为Dataset 3;
图5是数据集1坍塌建筑物检测结果,其中,(a)为参考图,(b)为本发明方法,(c)为SD-OPT,(d)为RF-SAR,(e)为OCR-BE,(f)为UNet 3+;
图6是数据集2坍塌建筑物检测结果,其中,(a)为参考图,(b)为本发明方法,(c)为SD-OPT,(d)为RF-SAR,(e)为OCR-BE,(f)为UNet 3+;
图7是数据集3坍塌建筑物检测结果,其中,(a)为参考图,(b)为本发明方法,(c)为SD-OPT,(d)为RF-SAR,(e)为OCR-BE,(f)为UNet 3+;
图8是数据集1代表性区域坍塌建筑物检测结果,其中,(a)为代表性区域原图,(b)为代表性区域参考图,(c)为本发明方法,(d)为SD-OPT,(e)为RF-SAR,(f)为OCR-BE,(g)为Net 3+;
图9是数据集2代表性区域坍塌建筑物检测结果,其中,(a)为代表性区域原图,(b)为代表性区域参考图,(c)为本发明方法,(d)为SD-OPT,(e)为RF-SAR,(f)为OCR-BE,(g)为Net 3+;
图10是数据集3代表性区域坍塌建筑物检测结果,其中,(a)为代表性区域原图,(b)为代表性区域参考图,(c)为本发明方法,(d)为SD-OPT,(e)为RF-SAR,(f)为OCR-BE,(g)为Net 3+;
图11是代表性子区域1坍塌建筑物检测结果,其中,(a)为代表性子区域1原图,(b)为参考图;(c)为本发明方法,(d)为仅采用光学影像,(e)为仅采用SAR影像;
图12是代表性子区域2坍塌建筑物检测结果,其中,(a)为代表性子区域1原图,(b)为参考图;(c)为本发明方法,(d)为仅采用光学影像,(e)为仅采用SAR影像;
图13是不同视觉单词的双回波像素直方图,其中,(a)为坍塌建筑物,(b)为未坍塌建筑物;
图14是初始训练样本数量对OA的影响。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
基于震后影像的机器学习方法既不依赖震前数据,又不要求海量的训练样本,因此在可用性和时效性方面具有独特优势。针对此类方法中面临的高程信息缺失问题,SAR在成像中所产生的双回波(Double Bounce)隐含了关于建筑物是否坍塌的高层语义知识,具体体现在:由于雷达波束会在建筑物与其相邻地面上产生二次反射,从而在SAR影像中表现为与未坍塌建筑物墙壁平行的一条亮线;另一方面,坍塌建筑物的双回波则不显著或表现为无序分布的斑点噪声形式。为此,以2011年日本仙台地区的震后SAR与光学卫星影像为例,来展示坍塌与未坍塌建筑物的双回波的不同表现形式,如图1中的(a)-(d)所示,(b)中方框代表未坍塌建筑物双回波,(d)中方框代表坍塌建筑物双回波。然而,SAR影像受到成像机理的限制,不可避免的存在光谱信息缺乏、复杂噪声和模糊退化等问题,因此仅依赖SAR影像开展坍塌建筑物的检测显然是不可靠的。与此同时,高分光学影像中包含的光谱及空间细节信息有助于建筑物的准确定位及轮廓提取。因此,联合震后高分光学与SAR影像,将光谱、纹理、形态学等光学影像底层视觉特征与双回波所隐含高层语义知识相结合,可为在高程信息缺失条件下,实现高精度、高可靠的坍塌建筑物检测提供一条新的技术途径。
为实现高分光学与SAR影像的优势互补,首先需要建立多源数据间统一的地理对象集合。然而,由于光学与SAR影像的成像机理差异巨大,同一地物在两种数据中可能具有差异巨大的表现形式,因此在异源影像中提取属于同一对象的轮廓对是非常困难的。此外,目前还鲜见对双回波所隐含的坍塌语义知识进行定量的表示与分析方法,造成了建立底层视觉特征到高层语义间映射关系的困难。最后,联合多源数据意味着训练样本的标注更加费时费力,因此需要可靠的有效性度量,以充分挖掘和选择代表性训练样本,提高坍塌建筑物检测的效率和精度。
针对以上挑战,本发明提出了一种联合震后高分光学与SAR影像的坍塌建筑物检测方法。首先设计了一种OSOIC(基于对象的内切圆圆心的光学—SAR对象集合提取optical&SAR object set extraction based on inscribed center)策略,为后续的坍塌建筑物特征建模与检测提供统一的分析基元;在此基础上,依据双回波的空间分布,构建了一种QRCSD(quantitative representation of collapse semantic knowledge indouble bounces双回波中坍塌语义知识的定量表示);而后,结合底层视觉特征与高层坍塌语义知识,进行坍塌建筑物特征建模;最后,利用待标记样本与已标记样本间的类别不确定性指标CUI(category uncertainty index)对样本进行精炼从而优化主动学习过程,实现坍塌建筑物检测。
本发明提出的一种高分异源遥感坍塌建筑物检测方法主要包括四个步骤:基于OSOIC构建统一的光学-SAR地物对象集合;基于QRCSD的高层双回波坍塌语义特征提取;基于MAPs的底层视觉特征提取;以及基于改进主动学习SVMs的坍塌建筑物检测,具体实现流程如图2所示。
步骤1,基于OSOIC构建统一光学-SAR地理对象集合
为构建统一的光学-SAR地理对象集合,所提出的OSOIC主要分为三个步骤,包括影像分割、粗配准仿射变换(affine transformation)方程的建立、对象内切圆心的投影与区域增长(region growing)。
1.1影像分割
首先分别对两幅影像进行分割,分割结果中对象的内切圆心将作为特征点以建立粗配准仿射变换方程。本发明采用知名商业软件eCognition对光学影像进行分割,获得光学影像对象集Ropt。此外,由于基于马尔科夫随机场(Markov Random Field)的IteratedConditional Mode(ICM)算法在SAR影像分割中有助于更好地突出包括建筑物在内的前景目标,因此本发明采用该方法获得SAR影像对象集合Rsar。
1.2粗配准仿射变换方程的建立
在Ropt与Rsar中,搜寻相互匹配的对象对,作为仿射变换方程建立的依据。由于不变矩(moment invariants)具备平移、旋转、缩放不变性,本发明利用7阶Hu momentinvariants作为对象间的相似性度量。具体步骤如下:
Step1:利用公式(1),计算Ropt的第i个对象与Rsar的第j个对象的矩不变量momentinvariants,并遍历所有可能的组合。
其中,φi(n)表示光学中第i个对象的第n个moment invariants,ψj(n)表示SAR中第j个对象的第n个moment invariants。
Step2:为Ropt中的每个对象在Rsar中选择一个与之moment invariants最小的对象,从而构成一个匹配对象对集合Ropt-SAR。为Rsar中的每个对象在Ropt中选择一个与之moment invariants最小的对象,从而构成另一个匹配对象对集合RSAR-opt。
Step3:保留Ropt-SAR和RSAR-opt中相同的匹配对象对,作为最终的匹配对象对集合Rmatch。
Step4:由于每个对象的内切圆均一定存在且位于对象内部,因此在Rmatch中可以计算每个对象的内切圆圆心。在此基础上,每个匹配对象对均可以获得一对匹配的内切圆圆心(特征点),从而获得建立仿射变换方程所需要的匹配特征点对集合Pmatch。
Step5:结合Pmatch与公式(2),可以建立光学与SAR影像间的仿射变换方程。
1.3对象内切圆心的投影与区域增长
寻找光学影像中的每个对象在SAR影像中与之匹配的对象。基于粗配准结果,直接将Ropt中的每个对象的内切圆圆心依据仿射变换方程投影到SAR影像中,可以获得SAR影像中的投影点集合。基于投影点进行区域增长,从而将SAR影像划分为与Ropt中每个对象一一对应的联通区域,最终得到统一的光学-SAR地物对象集合Runi。
步骤2,基于QRCSD的高层双回波坍塌语义特征提取
针对双回波中蕴含的坍塌语义特征提取,本发明设计的QRCSD主要包括潜在双回波像素检测以及坍塌语义直方图的构建两个部分。
2.1潜在双回波像素(PDBP)检测
由于双回波在SAR影像中上表现为一条高亮直线,本发明首先采用Hough变换进行直线检测,从而获得初始潜在双回波像素(initial potential double bounce pixels,IPDBP)集合。在此基础上,对IPDBP中的任意一个像素e,在该像素的8邻域内寻找同属于IPDBP的像素点,若满足条件的像素点只有1个,则视e点为端点;否则,e点为非端点。若e为端点,在以e为中心的5乘以5窗口内继续寻找属于IPDBP的像素点,将这些点的8邻域和e点的8邻域重叠部分的像素点均作为PDBP。遍历所有的像素,实现SAR影像中最终潜在双回波像素(potential double bounce pixels,PDBP)集合的提取。
2.2坍塌语义直方图的构建
1)未坍塌建筑物像素集合1:未坍塌建筑物的双回波通常表现为建筑物墙角的一条亮线。因此,具有未坍塌建筑物特征的双回波线段与对象轮廓位置重叠或相邻,且具有相似的曲率及走向,同时具有一定的长度。具体搜寻与判别步骤如下:
Step1:首先寻找与轮廓重叠或相邻的模糊线段从轮廓上任意一个像素g出发,在g点的8邻域内寻找PDBP。若存在一个PDBP,定义为r,则在r的8邻域内寻找PDBP。保留新找到的PDBP与r,并根据这些像素计算拟合直线在此基础上,分别对之前新找到的每个PDBP的8邻域中继续寻找新的PDBP。若存在,则计算该点到的距离,当距离小于m时,保留该PDBP。以此类推,遍历所有可能像素,所有获得保留的PDBP构成模糊线段
Step2:对轮廓上的下一个像素g',重复Step1,可得到g'对应一条模糊线段。遍历轮廓上所有的点,构成候选模糊线段集合S1。保留线段长度大于Ta的所有模糊线段,构成模糊线段集合S2。
Step3:对于集合S2中任意一条线段的两个端点在对象轮廓上的垂足,截取垂足间轮廓线段同时满足以下两个条件的构成更新的模糊线段集合S3:(1)计算与的平均曲率的差值,平均曲率的差值应小于阈值Tb;(2)采用最小二乘法分别对和进行直线拟合,计算两条直线的斜率差,斜率差应小于阈值Tc。S3即为所构建的视觉单词。需要指出的是,为提高所提出方法的自动化程度,本发明对Ta、Tb、Tc采用如下自适应提取策略:相较于坍塌建筑物,未坍塌建筑物的双回波通常更长且完整。基于这种假设,我们构建了目标函数表示在Ta、Tb和Tc的不同组合条件下某对象所提取的S3中像素的数量,其具体内容为:令Ta、Tb、Tc的取值区间分别为[0,t]、[0,1]、[0,1],t为对象外接矩形对角线长度,当取得最大值时的Ta、Tb和Tc构成的解即最优参数组合。
2)局部坍塌建筑物像素集合1:在S1中,保留线段长度小于等于Ta的模糊线段,即为所构建的视觉单词。
4)未坍塌建筑物像素集合2:在位于轮廓内部的像素范围内,从任意一个像素u出发,寻找满足条件的候选模糊线段集合inner,其中,除搜索起点与范围不同外,其余步骤与上文中S1搜索步骤完全相同。由于inner中的模糊线段均位于内部,因此直接将inner作为所构建的视觉单词。
5)局部坍塌建筑物像素集合2:在中,定义未被赋予视觉单词的PDBP为PDBPres,PDBPres与全部像素数量的比值为此外,定义SAR影像中的PDBP像素总数与全部像素数量的比值为若满足则PDBPres为所构建的视觉单词;否则,将这些像素归为还未被赋予视觉单词的PDBP。
步骤3,基于MAPs的底层视觉特征提取
形态学属性剖面MAPs中的面积、对角线(deviation)、转动惯量(NMI normalizedmoment of inertia)、标准差(standard)四种属性在建筑物检测中已被证明具有强大的鉴别能力。为此,本发明采用之前提出的形态学属性剖面建筑物提取方法automaticbuilding detection from high-resolution remote sensing images based on jointoptimization and decision fusion of morphological attribute profiles,基于这四种属性分别对光学和SAR影像进行底层视觉特征提取,分别获得光学和SAR影像对应的多尺度MAPs集合,包括MAPsopt和MAPssar。在MAPsopt中,计算每一个AP中的灰度均值,由此可得到对应的光学影像视觉直方图Iosh。同理,可得到SAR影像视觉直方图Issh。
步骤4,基于改进主动学习SVMs的坍塌建筑物检测
在分类阶段,本发明采用主动学习SVMs分类器,将Runi划分为未坍塌建筑物、坍塌建筑物或其他。
此外,在主动学习SVMs标记样本的过程中,对于总是位于类别边界之上且具有最大不确定性的样本很难进行标记。为此,本发明提出了CUI,计算过程如下:
其中,分别表示待标记样本hk属于已标记正类样本已标记负类样本的可能性,表示同属于第l类正类样本中的第p(p=1,2…P)个样本,P为第l类正类样本中的样本数量;表示同属于第l类负类样本中的第q(q=1,2…Q)个样本,Q为第l类负类样本中的样本数量;
Step2,在此基础上,计算hk在第l个分类器上的CUI,计算公式如下:
Step3,在此基础上,计算样本hk的类别决策函数值fl(hk),当满足CUI取最小,且fl(hk)取最大时,对样本hk进行标记。将标记好的样本加入到训练样本中重新训练模型。重复以上步骤,对样本进行精炼,从而获得最终的坍塌建筑物检测结果。
实施例
研究区域位于日本仙台市,如图3所示。地震发生时间为2011年3月11日,地震级Mw达到9.0级。震中位于日本宫城县以东太平洋海域,震源深度20公里。仙台是此次地震受灾最严重的城市之一,地震以及海啸造成了大量建筑物损毁,其中坍塌建筑物共计9877栋。
本发明采用的震后高分光学影像为日本仙台地区的IKONOS卫星影像,采集时间为2011年3月24日,空间分辨率为1m,如图3中的(a)所示;震后高分SAR影像为日本仙台地区的TerraSAR-X卫星影像,采集时间为2011年3月23日,空间分辨率为3m,如图3中的(b)所示。在实验中,对于光学与SAR影像间的分辨率差异,本发明对分辨率较低的影像进行重采样,使得多源影像具有相同的分辨率。在此基础上,本发明选取三组代表性区域进行实验。其中,Dataset1位于工业区,建筑物尺寸较大且分布稀疏,如图4中的(a)所示。与工业区相比,居民区生活区通常是受灾最为严重的区域,通常也是震后应急响应与灾后重建的首要靶标。为此,所构建的Dataset2和Dataset3均位于居民生活区,如图4中的(b)、(c)所示,该区域的建筑物通常密集分布而整齐排列。此外,通过目视解译制作了地面真实图作为精度评价的依据。
实验中,选择了4种不同先进的方法进行对比,具体包括:(1)基于稀疏词典(sparse dictionary)的光学影像检测方法(SD-OPT),该方法通过构建相同、相异词对(thesame and different pairs of words)进一步引入空间上下文信息(the spatialcontext information),构建多视觉特征对坍塌建筑物进行建模。(2)基于多纹理特征融合的SAR影像检测方法(RF-SAR),该方法综合利用灰度直方图(gray-level histogram)、GLCM(Gray-level Co-occurrence Matrix)、LBP(Local Binary Pattern)和Gabor滤波提取纹理特征,然后采用RF(Random Forest)获得地震后建筑的坍塌信息。(3)基于对象上下文(object context)与边界增强损失(boundary enhanced loss)的深度学习方法(OCR-BE),该方法依据像素与边界间的距离设计了一种新颖的损失函数BE Loss,迫使网络能够更关注边界像素(boundary pixels)的学习。(4)基于改进UNet 3+的深度学习方法(UNet 3+),该方法采用全尺度跳跃连接,充分利用了多尺度特性。(UNet 3+takes advantage offull-scale skip connections and deep supervisions to make full use of themulti-scale features)。在四种对比方法中,前两种为基于传统机器学习的单源影像方法,通过与他们进行对比能够验证光学与SAR两种数据源在坍塌建筑物检测中的互补作用与联合优势。后两种方法属于联合多源数据的深度学习方法,与它们进行对比有助于分析所提出方法与深度学习方法在坍塌建筑物检测应用中特别是小样本条件下的性能差异。
所有实验均基于图4给出的三组数据集。为保证不同方法间精度评价指标的一致性,依据属于不同类别像素的比例将OCR-BE和UNet 3+的语义分割结果转化为了对象级的检测结果。实验中,所有传统机器学习方法均采用Matlab 2018作为仿真平台;两种深度学习方法则基于PyTorch-1.3.1框架,在Ubuntu 16.04环境下实现。
基于三组数据集,使用不同方法所获得的坍塌建筑物检测结果如图5-7所示,图5为数据集1坍塌建筑物检测结果,图6为数据集2坍塌建筑物检测结果,图7为数据集3坍塌建筑物检测结果。其中,白色表示坍塌建筑物,深灰色表示未坍塌建筑物,黑色表示其他,浅灰色表示分割边界。
由图5-7可见,本发明方法的检测结果在整体上显著优于4种对比方法。其中,作为传统的机器学习方法,SD-OPT使用了光学影像,TF-SAR方法则使用了SAR影像。与本发明方法相比,SD-OPT与RF-SAR由于仅依赖单源数据,分别存在突出的漏检与误检问题,如图5-7中(c)和(d)所示。作为两种深度学习方法,OCR-BE和UNet 3+需要海量训练样本对深度网络进行充分的训练,否则就难以取得理想的检测效果。本发明实验中,三组数据集样本数量分别为1880、2036、2058,坍塌建筑物的样本数量占总的样本数量仅为9.2%、10.6%、12.8%,导致了严重的过拟合现象,使模型在测试集上泛化效果不佳,这也是CR-BE和UNet 3+的坍塌建筑物检测精度(Pcb)显著低于传统机器学习方法的主要原因。我们认为随着坍塌建筑物样本数量的增加,深度学习方法的精度将逐步提高直至模型收敛。此外,对于尺寸较大检测难度较低的工业区厂房(如图5所示),除了RF-SAR方法出现了大量的漏检和误检,其余方法对尺寸较大检测效果良好;对于分布集中、尺寸较小而不易检测的居民区建筑物(如图6、7所示),本发明方法和SD-OPT方法在漏检率false positive(FN)和误检率false positive(FP)方面显著优于其他对比方法。这也说明相较于SAR影像,光学影像提供的丰富空间细节信息有助于在复杂背景中对坍塌建筑物进行精细刻画。
此外,本发明采用了总体精度overall accuracy(OA)、FP、FN,以及未坍塌建筑物检测精度(Pub)、坍塌建筑物检测精度(Pcb)和其他类检测精度(Po)6种评价指标进行定量精度评价,结果如表1-3所示。三组实验中,本发明方法OA分别达到了82.39%、80.60%和78.61%,特别是本发明关注的Pcb均达到了73.94%以上,在所有实验方法中表现最佳,与目视分析结论一致。与本发明相比,SD-OPT与RF-SAR方法仅依赖单一数据源,其FN和FP均提高了3.77%和6.94%以上。作为深度学习方法,OCR-BE和UNet 3+在小样本条件下仅未坍塌建筑物的检测效果略好于本发明方法,其他各项精度指标均显著降低,特别是Pcb最低仅为9.43%。尽管如此,在训练样本充足条件下,我们认为两种深度学习方法的检测效果将得到极大改善。因此,本发明提出的联合光学-SAR的策略是在坍塌建筑物检测应用中是必要、可行且有效的,同时在小样本条件下也能取得较为理想的效果。
表1数据集1检测精度
表2数据集2检测精度
表3数据集3检测精度
为进一步进行详细的目视分析和讨论,本发明在三组数据集中分别选择了具有代表性的区域,如图8-10所示,图8为数据集1代表性区域坍塌建筑物检测结果,图9为数据集2代表性区域坍塌建筑物检测结果,图10为数据集3代表性区域坍塌建筑物检测结果。其中,浅灰色框代表坍塌建筑物,深灰色框代表未坍塌建筑物。
由图8-10可见,由于工业区中的建筑物尺寸较大且分布较为稀疏从而易于检测,因此各实验方法对坍塌建筑物均有较好的检测效果,仅UNet 3+(图8中的(g)浅灰色框)发生了漏检,SD-OPT则发生了的误检(图8中的(e)浅灰色框);对于工业区中未坍塌建筑物(如图8中深灰色框),本发明方法和深度学习的两种方法未发生误检,SD-OPT和RF-SAR则分别发生了误检(图8中的(d)深灰色框)和漏检(图8中的(e)深灰色框)。在建筑物排列整齐且密集分布的居民区中,对于坍塌建筑物(图9和图10中浅灰色框),仅有本发明方法获得了完全正确的检测结果,RF-SAR(图10中的(e)浅灰色框)和OCR-BE(图10中的(f)浅灰色框)发生了误检,SD-OPT(图9中的(d)浅灰色框)和UNet 3+(图9和10中的(g)浅灰色框)发生了漏检;对于未坍塌建筑物,目视分析结果与工业区类似,不同方法均取得不错的效果,仅有SD-OPT和RF-SAR存在明显的误检和漏检。综上,五种方法对于未坍塌建筑物的检测效果良好,但本发明方法通过联合光学与-SAR影像具有更高的Pcb,且误检和漏检更少,与定量分析结论一致。
为了进一步验证联合光学和SAR的有效性,采用所提出的方法分别仅基于光学和SAR影像进行单源数据实验。联合光学与SAR、基于光学影像以及基于SAR影像的实验结果精度评价如表4所示。
表4联合光学与SAR影像、单源数据检测精度对比
由此可见,联合光学和SAR影像后,在三组数据集实验中OA相较于采用单源数据提高了6.31%~7.71%,Pcb则提高了12.56%~19.03%。因此,本发明通过联合震后光学与SAR影像多角度刻画建筑物震害特征,所提取的互补信息能够有助于显著提高坍塌建筑物的检测精度。特别是,由于SAR影像中的双回波为判断建筑物是否坍塌提供了关键证据支持,因此,SAR影像实验中的Pcb均显著优于仅使用底层视觉特征的光学影像实验。
此外,本发明选择了两块代表性的区域进行进一步的目视分析,如图11-12所示。其中,对于在两种影像中均呈现出碎片化分布的坍塌建筑物(图11中浅灰色框),三种方法均获得了正确的结果;对于光学影像中屋顶保存较为完好的坍塌建筑物(图12中浅灰色框),由于在SAR影像中其双回波呈现出典型的坍塌语义特征,因此仅有本发明方法和SAR影像方法做出了正确的判断,而光学影像方法(图12中的(d)浅灰色框)则发生了误检。如图11中深灰色框所示的未坍塌建筑物,由于其在光学与SAR影像中均呈现出轮廓完整、纹理单一特征,三种方法均获得了正确的结果;对于光学影像中屋顶完整而SAR影像中呈现出区碎片化分布的未坍塌建筑物,仅有本发明方法和光学影像方法做出了正确的判断,SAR影像方法则存在明显的误检。因此,通过光学与SAR影像的优势互补来提高Pcb是可行且有效的。
为了明确所构建QRCSD的有效性,在联合光学和SAR影像的底层视觉特征基础上,依据是否加入QRCSD所提取的高层语义特征构建对比实验,结果如表5所示。
表5 QRCSD的有效性分析(√表示加入,–表示未加入)(√and–Separatelyrepresent that a feather is used and not used)
如上表所示,加入QRCSD比未加入QRCSD的OA提高了3.34%~3.92%,FP下降了1.7%~1.49%,FN下降了2.71%~3.61%。其中,Pcb分别提高了6.49%,9.48%和6.79%。因此,所提出的QRCSD是有效的。在此基础上,本发明在三组数据集中选取六个坍塌建筑物和六个未坍塌建筑物,并对属于不同视觉单词的双回波像素进行了直方图统计,如图13的(a)-(b)所示。
由此可以看出,坍塌建筑物的直方图呈现出了类似的分布,类内可分性不高;同时,两种坍塌像素占比显著高于未坍塌像素,因此有助于获得正确的识别结果。对于未坍塌建筑而言,与坍塌建筑物相比其坍塌与未坍塌像素的占比则呈现相反的状态。因此,坍塌与未坍塌建筑物在以上直方图中具有良好的类间可分性。此外,对于局部坍塌建筑物像素,其在坍塌建筑物中占比显著高于未坍塌建筑物,从而也有助于增强坍塌与未坍塌建筑物的类间可分性。
为了验证CUI的有效性,本发明依据在主动学习SVMs中是否加入CUI构建了对比试验,并进行了精度评价,结果如表6所示。
表6 CUI有效性分析(√and–Separately represent that an index is usedand not used)
如表6所示,三组实验的OA分别提高了0.81%,1.53%,1.71%,,误检降低了0.16%~1.71%、漏检降低了0.61%~1.09%。这表明本发明所提出的CUI有助于选择更具有代表性的样本进行模型训练,能够显著改善分类精度。
为了在不同初始训练样本数量条件下验证本发明所提出的改进主动学习SVMs的性能,令每类初始训练样本数量在区间[5,50]中以5为步长进行取值。OA随训练样本数量的增加而变化的趋势如图14所示。
由图14可见,随着初始训练样本数量的增加,OA在[0-20]区间上呈现快速上升,而后趋于稳定的趋势。数据集1和数据集2均在样本数量为45时OA达到峰值,分别为83.05%和81.43%;数据集3则在样本数量为50时达到峰值,为79.14%。尽管所对应的峰值相较于样本数量为20时的OA提高了0.53%~0.83%,但所需的训练样本数量却增加了一倍以上。根据以上分析,本发明建议设定每类训练样本数量为20。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (6)
1.一种高分异源遥感坍塌建筑物检测方法,其特征在于,包括如下步骤:
步骤1,获取待检测区域的光学影像和SAR影像,基于对象的内切圆圆心的光学-SAR对象集合提取策略,构建统一的光学-SAR地物对象集合;
步骤2,结合统一的光学-SAR地物对象集合,基于双回波中坍塌语义知识的定量表示方法,在SAR影像中提取高层双回波坍塌语义特征,得到双回波坍塌语义直方图;
步骤3,基于面积、对角线、转动惯量和标准差这四种属性,采用形态学属性剖面建筑物提取方法分别对光学影像和SAR影像进行底层视觉特征提取,分别得到光学影像视觉直方图和SAR影像视觉直方图;
步骤4,基于步骤2得到的双回波坍塌语义直方图以及步骤3得到的光学影像视觉直方图和SAR影像视觉直方图,采用改进主动学习SVMs进行坍塌建筑物检测,获得坍塌建筑物检测结果。
2.根据权利要求1所述的一种高分异源遥感坍塌建筑物检测方法,其特征在于,所述步骤1的具体过程如下:
步骤1.1,影像分割
获取待检测区域的光学影像和SAR影像,采用软件eCognition对光学影像进行分割,得到光学影像对象集合Ropt,采用基于马尔科夫随机场的ICM算法对SAR影像进行分割,得到SAR影像对象集合Rsar;
步骤1.2,粗配准仿射变换方程的建立
Step1,利用公式(1),计算Ropt的第i个对象与Rsar的第j个对象的矩不变量dij,并遍历所有可能的组合;
其中,φi(n)表示Ropt的第i个对象的第n个矩不变量,ψj(n)表示Rsar的第j个对象的第n个矩不变量;
Step2,为Ropt中的每个对象在Rsar中选择一个与之矩不变量最小的对象,从而构成一个匹配对象对集合Ropt-SAR,同样,为Rsar中的每个对象在Ropt中选择一个与之矩不变量最小的对象,从而构成另一个匹配对象对集合RSAR-opt;
Step3,保留Ropt-SAR和RSAR-opt中相同的匹配对象对,作为最终的匹配对象对集合Rmatch;
Step4,在Rmatch中计算每个对象的内切圆圆心,则Rmatch中的每对匹配对象对都得到一对匹配的内切圆圆心,将内切圆圆心作为特征点,从而获得建立粗配准仿射变换方程所需要的匹配特征点对集合Pmatch;
Step5,结合Pmatch与公式(2),建立光学影像与SAR影像间的粗配准仿射变换方程;
其中,(x,y)为光学影像中某像素坐标,(x′,y′)为光学影像中某像素在SAR影像中的对应像素坐标,a0、a1、a2、b0、b1、b2均为粗配准仿射变换方程参数;
步骤1.3,对象内切圆圆心的投影与区域增长
以光学影像为基准,将Ropt中的每个对象的内切圆圆心依据粗配准仿射变换方程投影到SAR影像中,获取SAR影像中的投影点集合,基于投影点进行区域增长,从而将SAR影像划分为与Ropt中每个对象一一对应的连通区域,最终得到统一的光学-SAR地物对象集合Runi。
3.根据权利要求1所述的一种高分异源遥感坍塌建筑物检测方法,其特征在于,所述步骤2的具体过程如下:
步骤2.1,潜在双回波像素PDBP检测
采用Hough变换对SAR影像进行直线检测,获得初始潜在双回波像素集合,在此基础上,对初始潜在双回波像素集合中的任意一个像素e,在像素e的8邻域内寻找同属于初始潜在双回波像素集合中的像素,若满足条件的像素只有1个,则视像素e为端点,否则,e为非端点;当e为端点时,在以e为中心的5乘以5窗口内继续寻找同属于初始潜在双回波像素集合中的像素,将找到的像素的8邻域和e的8邻域重叠部分的像素作为潜在双回波像素;遍历初始潜在双回波像素集合中的所有像素,获得SAR影像中最终潜在双回波像素集合;
步骤2.2,坍塌语义直方图的构建
1)Step1,寻找与轮廓重叠或相邻的模糊线段从轮廓上任意一个像素g出发,在g的8邻域内寻找PDBP,若存在一个PDBP,定义为r,则在r的8邻域内寻找PDBP,保留在r的8邻域内新找到的PDBP与r,并根据这些像素计算拟合直线在此基础上,分别对在r的8邻域内新找到的每个PDBP的8邻域中继续寻找新的PDBP,若存在新的PDBP,则计算新的PDBP到的距离,当距离小于预设值m时,保留该PDBP;以此类推,遍历所有存在的新的PDBP,所有获得保留的PDBP构成模糊线段
Step2,对轮廓上的下一个像素g',重复Step1,得到g'对应的模糊线段;遍历轮廓上所有的像素,构成候选模糊线段集合S1,保留线段长度大于阈值Ta的所有模糊线段,构成模糊线段集合S2;
Step3,对于集合S2中任意一条线段的两个端点在轮廓上的垂足,截取垂足间轮廓线段同时满足以下两个条件的构成更新的模糊线段集合S3:(1)计算与的平均曲率的差值,平均曲率的差值小于阈值Tb;(2)采用最小二乘法分别对与进行直线拟合,计算拟合得到的两条直线的斜率差,斜率差小于阈值Tc;S3即为所构建的第一维视觉单词;
2)在S1中,保留线段长度小于等于阈值Ta的模糊线段,即为所构建的第二维视觉单词;
4)在位于轮廓内部的像素范围内,从任意一个像素u出发,寻找满足条件的候选模糊线段集合inner,其中,除搜索起点与范围不同外,其余步骤与1)中S1搜索步骤完全相同,将inner作为所构建的第四维视觉单词;
5)在位于轮廓内部的像素范围内,定义未被赋予视觉单词的PDBP为PDBPres,PDBPres与全部像素数量的比值为定义SAR影像中的PDBP像素总数与SAR影像全部像素数量的比值为若满足则PDBPres为所构建的第五维视觉单词;否则,将PDBPres归为还未被赋予视觉单词的PDBP;
6.根据权利要求1所述的一种高分异源遥感坍塌建筑物检测方法,其特征在于,所述步骤4的具体过程如下:
在主动学习SVMs标记样本的过程中,利用待标记样本与已标记样本间的类别不确定性指标CUI对样本进行精炼从而优化主动学习过程,实现坍塌建筑物检测,具体如下:
其中,分别表示待标记样本hk属于已标记正类样本已标记负类样本的可能性,表示同属于第l类正类样本中的第p个样本,p=1,2…P,P为第l类正类样本中的样本数量;表示同属于第l类负类样本中的第q个样本,q=1,2…Q,Q为第l类负类样本中的样本数量;
Step2,计算待标记样本hk在第l个分类器上的CUI,计算公式如下:
Step3,计算待标记样本hk的类别决策函数值fl(hk),当满足CUI取最小,且fl(hk)取最大时,对待标记样本hk进行标记,将标记好的样本加入到训练样本中重新训练模型;重复以上步骤,对样本进行精炼,从而获得最终的坍塌建筑物检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210167046.7A CN114581771B (zh) | 2022-02-23 | 2022-02-23 | 一种高分异源遥感坍塌建筑物检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210167046.7A CN114581771B (zh) | 2022-02-23 | 2022-02-23 | 一种高分异源遥感坍塌建筑物检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114581771A true CN114581771A (zh) | 2022-06-03 |
CN114581771B CN114581771B (zh) | 2023-04-25 |
Family
ID=81773348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210167046.7A Active CN114581771B (zh) | 2022-02-23 | 2022-02-23 | 一种高分异源遥感坍塌建筑物检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114581771B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050165296A1 (en) * | 2003-11-26 | 2005-07-28 | Jingfei Ma | Method and apparatus for phase-sensitive magnetic resonance imaging |
CN101853400A (zh) * | 2010-05-20 | 2010-10-06 | 武汉大学 | 基于主动学习和半监督学习的多类图像分类方法 |
CN102054268A (zh) * | 2011-01-06 | 2011-05-11 | 西安电子科技大学 | 自适应分割sar图像水域的方法 |
JP5636085B1 (ja) * | 2013-12-27 | 2014-12-03 | アジア航測株式会社 | 単偏波sarカラー画像作成装置 |
CN107808380A (zh) * | 2016-12-28 | 2018-03-16 | 中国测绘科学研究院 | 一种基于G0和Gamma联合分布的多尺度高分辨率SAR影像水体分割方法 |
CN108710816A (zh) * | 2018-02-11 | 2018-10-26 | 河南科技大学 | 一种基于概率融合的极化sar图像建筑物检测方法 |
GB201911577D0 (en) * | 2019-08-13 | 2019-09-25 | Univ Of Hertfordshire Higher Education Corporation | Method and apparatus |
CN111160199A (zh) * | 2019-12-23 | 2020-05-15 | 云南省交通规划设计研究院有限公司 | 一种基于高分辨率遥感影像的公路灾害信息检测方法 |
CN112861672A (zh) * | 2021-01-27 | 2021-05-28 | 电子科技大学 | 一种基于光学-sar异源遥感图像匹配方法 |
CN113537177A (zh) * | 2021-09-16 | 2021-10-22 | 南京信息工程大学 | 一种基于视觉Transformer的洪涝灾害监测与灾情分析方法 |
-
2022
- 2022-02-23 CN CN202210167046.7A patent/CN114581771B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050165296A1 (en) * | 2003-11-26 | 2005-07-28 | Jingfei Ma | Method and apparatus for phase-sensitive magnetic resonance imaging |
CN101853400A (zh) * | 2010-05-20 | 2010-10-06 | 武汉大学 | 基于主动学习和半监督学习的多类图像分类方法 |
CN102054268A (zh) * | 2011-01-06 | 2011-05-11 | 西安电子科技大学 | 自适应分割sar图像水域的方法 |
JP5636085B1 (ja) * | 2013-12-27 | 2014-12-03 | アジア航測株式会社 | 単偏波sarカラー画像作成装置 |
CN107808380A (zh) * | 2016-12-28 | 2018-03-16 | 中国测绘科学研究院 | 一种基于G0和Gamma联合分布的多尺度高分辨率SAR影像水体分割方法 |
CN108710816A (zh) * | 2018-02-11 | 2018-10-26 | 河南科技大学 | 一种基于概率融合的极化sar图像建筑物检测方法 |
GB201911577D0 (en) * | 2019-08-13 | 2019-09-25 | Univ Of Hertfordshire Higher Education Corporation | Method and apparatus |
CN111160199A (zh) * | 2019-12-23 | 2020-05-15 | 云南省交通规划设计研究院有限公司 | 一种基于高分辨率遥感影像的公路灾害信息检测方法 |
CN112861672A (zh) * | 2021-01-27 | 2021-05-28 | 电子科技大学 | 一种基于光学-sar异源遥感图像匹配方法 |
CN113537177A (zh) * | 2021-09-16 | 2021-10-22 | 南京信息工程大学 | 一种基于视觉Transformer的洪涝灾害监测与灾情分析方法 |
Non-Patent Citations (3)
Title |
---|
朱俊杰等: "高分辨率SAR与光学图像融合用于建筑物屋顶提取", 《中国科学院研究生院学报》 * |
田峰等: "联合星载光学与SAR图像的城市大面积建筑物高度快速提取", 《测绘学报》 * |
雷琳等: "高分辨率SAR与光学图像中目标融合检测方法", 《系统工程与电子技术》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114581771B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111666918B (zh) | 一种基于多因素的海岸线变化识别方法 | |
CN103020605B (zh) | 基于决策层融合的桥梁识别方法 | |
Rastiveis et al. | Automated extraction of lane markings from mobile LiDAR point clouds based on fuzzy inference | |
CN106022341B (zh) | 高分辨率光学遥感图像灾后水体信息提取方法及系统 | |
CN111191628B (zh) | 基于决策树与特征优化的遥感影像震害建筑物识别方法 | |
CN108256464A (zh) | 基于深度学习的高分辨率遥感影像城市道路提取方法 | |
CN111582146B (zh) | 一种基于多特征融合的高分辨率遥感影像城市功能分区方法 | |
CN108876805B (zh) | 一种端对端无监督场景可通行区域认知与理解方法 | |
CN115452759A (zh) | 一种基于卫星遥感数据的河湖健康指标评价方法及系统 | |
Zheng et al. | Building recognition of UAV remote sensing images by deep learning | |
Liu et al. | Automatic detection of timber-cracks in wooden architectural heritage using Yolov3 algorithm | |
Fan et al. | Pavement cracks coupled with shadows: A new shadow-crack dataset and a shadow-removal-oriented crack detection approach | |
CN115019163A (zh) | 基于多源大数据的城市要素识别方法 | |
CN110929739B (zh) | 一种自动化的不透水面范围遥感迭代提取方法 | |
CN116433629A (zh) | 一种基于GA-Unet的机场道面缺陷识别方法 | |
CN114581771A (zh) | 一种高分异源遥感坍塌建筑物检测方法 | |
Zhou et al. | Automatic responsive-generation of 3D urban morphology coupled with local climate zones using generative adversarial network | |
Chen et al. | A content-adaptive hierarchical deep learning model for detecting arbitrary-oriented road surface elements using MLS point clouds | |
Wang et al. | Damaged buildings recognition of post-earthquake high-resolution remote sensing images based on feature space and decision tree optimization | |
CN116091911A (zh) | 一种地震勘探工区建筑物自动识别方法及系统 | |
Le Bris et al. | Urban morpho-types classification from SPOT-6/7 imagery and Sentinel-2 time series | |
Guo et al. | DV3+ HED+: a DCNN-based framework to monitor temporary works and ESAs in railway construction project using VHR satellite images | |
Zhang et al. | Monitoring of subpixel impervious surface dynamics using seasonal time series Landsat 8 OLI imagery | |
CN117115566B (zh) | 利用全季节遥感影像的城市功能区识别方法及系统 | |
Pena Pereira | Automated rooftop solar panel detection through Convolutional Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230607 Address after: Room 1307, 13th Floor, Room 1, IoT Science Park Building, No. 38 Guangdong Road, Gulou District, Nanjing City, Jiangsu Province, 210000 Patentee after: Nanjing Jiaxin Tumao Technology Co.,Ltd. Address before: No.219, ningliu Road, Jiangbei new district, Nanjing, Jiangsu Province, 210032 Patentee before: Nanjing University of Information Science and Technology |