CN114359724B - 一种基于色彩-参数迁移的遥感建筑物震害信息提取方法 - Google Patents
一种基于色彩-参数迁移的遥感建筑物震害信息提取方法 Download PDFInfo
- Publication number
- CN114359724B CN114359724B CN202111653588.7A CN202111653588A CN114359724B CN 114359724 B CN114359724 B CN 114359724B CN 202111653588 A CN202111653588 A CN 202111653588A CN 114359724 B CN114359724 B CN 114359724B
- Authority
- CN
- China
- Prior art keywords
- image
- model
- target domain
- color
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 50
- 238000013508 migration Methods 0.000 title claims abstract description 31
- 230000005012 migration Effects 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 66
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 238000013136 deep learning model Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 13
- 238000013135 deep learning Methods 0.000 claims description 11
- 238000013526 transfer learning Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 8
- 238000013461 design Methods 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 2
- 230000002265 prevention Effects 0.000 claims description 2
- 238000005192 partition Methods 0.000 claims 1
- 230000002708 enhancing effect Effects 0.000 abstract 2
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000005520 cutting process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 230000003416 augmentation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 235000002566 Capsicum Nutrition 0.000 description 2
- 239000006002 Pepper Substances 0.000 description 2
- 241000722363 Piper Species 0.000 description 2
- 235000016761 Piper aduncum Nutrition 0.000 description 2
- 235000017804 Piper guineense Nutrition 0.000 description 2
- 235000008184 Piper nigrum Nutrition 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 150000003839 salts Chemical class 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 241001660917 Crassula ovata Species 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Geophysics And Detection Of Objects (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于色彩‑参数迁移的遥感建筑物震害信息提取方法。方法包括:源域震害遥感影像的获取;源域样本集的创建划分和扩充增强;设计提取震后完整建筑物、损毁建筑物的深度卷积神经网络层深结构;利用参数随机初始化的方式获取最优层深结构模型和参数;目标域震害遥感影像的获取;目标域影像色彩迁移处理;目标域样本集的创建划分和扩充增强;利用目标域小样本结合最优源域模型参数进行目标域模型的训练;目标域影像建筑物震害信息的提取以及提取精度和效率的评价。公开的方法可以降低传统深度学习的模型获取成本,提高震害信息提取的精度和效率,满足抗震减灾部门快速准确获取震后灾损信息的需求。
Description
技术领域
本发明涉及遥感建筑物震害信息提取技术领域,特别涉及一种基于深度学习和迁移学习的遥感建筑物震害信息提取方法。
背景技术
地震具有突发性强、破坏性大的特点,往往给建筑物造成毁灭性的破坏,给人民生命财产安全带来极大的威胁。灾区建筑物震害信息的快速准确提取,对降低地震灾害损失、保障人民生命财产安全和社会经济可持续发展具有重要意义。传统的建筑物震害信息遥感提取方法包括面向对象方法和变化检测方法,面向对象方法需要选择恰当的分割参数,其分类效率和精度相对较低。而变化检测方法需要获得震前的高分影像,需要严格震害前后影像配准,配准误差不能大于1/3像元大小,且检测结果中仍包含许多非地震震害引起的地表变化信息,影响到了其提取性能。新提出的基于深度学习的建筑物震害信息遥感提取方法,需要通过目视标绘对样本数据进行人工震害信息处理,大量训练样本消耗掉巨大的人工和时间成本,无法满足震后建筑物震害快速提取的需求。如何精确快速提取震害建筑物的损毁情况和数量信息,并将已有建筑物震害提取知识应用到更多的地震灾区影像处理中,同时提升知识迁移学习的能力、模型迁移的性能,以此提高遥感在震害提取中的快速应用性能,需要一种高效和性能更好的建筑物震害信息提取方法。
本发明的主要特点在于结合待迁移的源域模型的参数和少量的目标域样本训练目标域模型,以此减少训练网络模型的人工和时间成本,并采用图像色彩迁移算法,将源域数据的色彩统计特征迁移至目标域数据,增加目标域数据和源域数据之间的相似性,从而提高建筑物震害信息的提取精度,同时解决建筑物震害信息深度卷积神经网络训练时间和人工样本制作成本较大的问题。
发明内容
本发明的目的是提供一种基于深度学习和迁移学习的遥感建筑物震害信息提取方法,能有效减少震害信息提取深度学习模型训练的人工和时间成本。
具体步骤为:
(1)源域震害遥感影像获取:从防震减灾部门或遥感数据网站获取某一地区震后高分辨率历史遥感影像,作为迁移学习的源域影像数据。
(2)源域样本集创建划分和扩充增强:采用目视解译的方式,利用Labelme图像标绘工具对源域影像中的“完整建筑物”和“损毁建筑物”分别进行标绘,生成对应的语义标签数据,由影像与对应的两类震害语义标签构成深度学习样本集;将样本集划分为训练集和测试集,对样本进行随机裁剪数量扩充,采用虚拟样本增强技术对深度学习样本进行数据增强。
(3)网络层深结构设计:设计提取震后完整建筑物、损毁建筑物的层深增长卷积神经网络结构。
(4)源域模型训练:设置模型训练参数,在深度学习框架下完成模型训练,保存训练好的模型与参数。
(5)获取最优层深结构模型和参数:针对步骤(2)中扩充的源域样本集,按照步骤(3)中设计的层深增长网络结构对模型的层深结构进行调整,分别训练不同层深结构下的网络模型。结合源域测试集比较不同层深结构模型对建筑物震害信息的提取性能,并保存提取精度和模型训练时间最佳的网络层深结构和模型参数。
(6)目标域震害遥感影像获取:从防震减灾部门或遥感数据网站获取另一地区的地震后高分辨率遥感影像,作为迁移学习的目标域影像数据。
(7)影像色彩迁移处理:利用步骤(1)中获取的源域震害影像数据,提取源域影像的色彩统计特征对目标域震害影像进行色彩迁移处理,使处理后的目标域影像具有与源域影像相近的色彩统计特征。
(8)目标域样本集创建划分和扩充增强:利用Labelme图像标绘工具将目标域数据进行“完整建筑物”和“损毁建筑物”语义信息的标注,生成标签数据。影像和对应标签构成样本集,将样本集划分为训练集和测试集。采用随机方式对样本图像及其标签进行裁减处理,采用虚拟样本增强技术对目标域样本进行扩充。
(9)目标域模型训练:采用步骤(4)中获取的最优源域模型,以该模型参数作为初始值结合目标域样本集训练目标域深度学习模型。
(10)目标域影像建筑物震害信息提取与精度评价:利用目标域步骤(9)中模型进行目标域影像建筑物震害信息的提取,完成目标域影像建筑物震害信息提取结果精度效率评价。
进一步地,所述步骤(1)、(6)中获取的源域和目标域震害遥感影像对应的地震事件、震区、遥感器高度类型、成像时间不同,既可包括源域高空间分辨率卫星影像到目标域高空间分辨率航空影像的色彩-参数迁移处理,也可包括源域为高空间分辨率航空影像到目标域高分卫星影像的色彩-参数迁移处理。
进一步地,所述步骤(3)中网络层深结构设计中采用了层深增长网络结构优化震害信息提取性能和效率。层深增长网络结构中网络输入层可输入RGB三波段震害样本集数据,通过层深调节、逐层对称增加编码器和解码器的层深结构,包括逐层对称增加卷积层、池化层和上采样层。
进一步地,所述步骤(5)中为了实现网络层深结构优化,采用步骤(3)中设计的层深增长网络结构进行优化,获取最优层深结构模型,记录下最优模型权重与偏置量,同时记录训练该模型的参数,包括学习率、冲量、权重衰减值作为待迁移参数。
进一步地,所述步骤(9)中目标域模型训练采用与源域完全相同的网络层深结构和模型训练参数,网络层深结构包括网络输入输出层、卷积层层深及对应的卷积核大小数量,池化层池化核和上采样层上采样核大小,卷积滑动步长、填充方式。训练参数包括学习率、冲量、权重衰减值。目标域模型参数的初始值使用步骤(5)中获取的源域模型最优参数;源域参数包括模型权重与偏置量参数。为了减少目标域模型的训练时间,仅调少训练的迭代次数。损失函数、激活函数、批次大小等其他模型训练参数与步骤(4)中源域模型训练完全相同。
进一步地,所述步骤(7)中图像色彩迁移处理,先将原始图像由RGB色彩空间变换至ιαβ色彩空间,在ιαβ色彩空间中采用Reinhard算法将源域色彩统计特征迁移至目标域图像,进而能保障目标域图像和源域图像具有相近的色彩统计特征。
进一步地,所述步骤(10)中目标域影像建筑物震害信息提取结果精度评价,对完整建筑物和损毁建筑物提取结果计算综合精确率和综合召回率,Micro-F1由综合精确率和综合召回率综合计算得到。
本发明充分考虑了不同层深网络结构对震害信息提取性能和效率的影响和源域数据、目标域数据的色彩接近性,提出了色彩-参数迁移的遥感建筑物震害信息提取方法,采用层深增长网络结构优化方法,以深度卷积神经网络的最优的源域模型参数作为目标域模型训练的初始模型参数值,降低了深度学习的样本制作成本和模型训练时间,克服了深度学习方法需要较大成本的不足,使得不断积累的震害遥感影像从无用数据变成了数据宝地,为震后快速应急救援和灾后重建提供了有效的震害信息提取方法
附图说明
图1为本发明基于色彩-参数迁移的遥感建筑物震害信息提取方法的技术流程图
图2为本发明实施例采用的层深增长网络结构优化源域卷积网络模型示意图
图3为本发明实施例中采用的层深增长网络结构图
图4为本发明实施例层深增长卷积网络模型震害信息提取精度Kappa系数指标变化
图5为本发明实施例层深增长卷积网络模型震害信息提取精度Micro-F1指标变化
图6为本发明实施例层深增长卷积网络模型训练时间变化
图7为本发明实施例色彩统计特征迁移原理图
图8为本发明实施例模型层深结构与参数迁移原理图
图9为本发明方法提取结果空间误差分布与无迁移CNN方法的对比图
具体实施方式
为了更清楚地说明本发明的技术方案,下面结合具体实施例对本发明做详细说明,以下实施例有助于本领域的技术人员更好地理解本发明。应当指出的是,本领域内的其他技术人员在不脱离于本发明和实例的基础上演变而来的其他实例,都属于本发明的保护范围。
实施例:
图1所示一种基于色彩-参数迁移的遥感建筑物震害信息提取方法的技术流程图,图中T1为源域色彩统计特征,T2为源域最优模型和参数,具体步骤包括:
(1)源域震害遥感影像获取:本例中获取的是2010年4月14日青海玉树地震的谷歌地球遥感影像,作为迁移学习的源域数据。影像地面分辨率为1米,包含RGB(红绿蓝)三个波段,包括9幅1000行×1000列像元大小的影像。
(2)源域样本集创建划分和扩充增强:采用目视解译的方式,利用Labelme图像标绘工具对源域影像中的“完整建筑物”和“损毁建筑物”分别进行标绘,生成对应的语义标签,源域深度学习样本集由9幅影像与对应的两类震害语义标签构成;将样本集按2:1的比例划分为训练集和测试集,训练集包括6幅影像,测试集包括3幅影像。利用OpenCV函数对样本数据集进行扩充,采用随机裁剪的方式将样本图像及其对应标签裁剪为256*256像元大小,将源域样本数量扩充到30000张。分别采用OpenCV函数库中的旋转、镜像、伽马转换、模糊处理、添加噪声等5种函数对扩充后的源域样本集图像进行数据增强,形成虚拟样本,包括按照90°、180°和270°对样本图像进行旋转变换,通过在图像上随机散播像元值为0(黑点)和255(白点)的像元点随机添加椒盐噪声。将图像像元矩阵中每行像元值的排列顺序进行颠倒,生成镜像图像,通过“伽马转换”提升图像的暗部细节,通过“模糊处理”产生模糊效果。
(3)网络层深结构设计:设计提取震后完整建筑物、损毁建筑物的层深增长卷积神经网络结构。为了实现端到端提取,实施例以SegNet全卷积神经网络结构为基础设计网络模型和结构参数,网络输入层(Input)可输入256*256像元大小的RGB三波段震害样本集数据,设计层深增长网络结构优化震害信息提取精度和效率,在编码器(Encoder)中进行卷积和最大池化操作,在解码器(Decoder)中进行卷积和上采样操作,如图2所示,虚线框K中为层深增长结构调节变化部分。图3虚线框K中显示了层深增长网络结构的具体调节方式,通过调节编码器和解码器的层深结构,从编码器和解码器的第5层开始逐层增加对称的网络结构,包括逐层对称增加卷积层、池化层和上采样层。其中,m为编码器和解码器同时对称向层中间增长的网络层数,5≤m≤13。编码器卷积层表示为Conv am-bm,卷积层中卷积核大小表示为am*am,卷积核个数设计为bm;解码器卷积层表示为DConv am-bm,卷积层中卷积核大小表示为am*am,卷积核个数设计为bm。Maxpool2表示编码器池化层的池化核大小为2*2,UpSample2表示解码器上采样层的上采样核大小为2*2。卷积填充方式采用Same,滑动步长为1个像元。
网络输出层(Output)为Soft-max分类层,采用Soft-max分类器提取两类震害语义信息,其公式如下:
式中,Sk(i,j)为图像(i,j)处像元输出为第k类的概率值;k、l取值包括0、1、2,分别代表完整建筑物、损毁建筑物和背景地物;xk(i,j)表示第k类在(i,j)处像元的特征值。
(4)源域模型训练:输入步骤(2)中创建的源域样本集,采用步骤(3)中设计的网络层深结构和参数,随机生成网络模型初始参数。模型训练参数包括初始学习率设置为0.01,冲量设置为0.9,权重衰减值为0.0005,迭代次数(Epochs)设置为10,批次大小(BatchSize)设置为6。训练过程使用交叉熵函数计算损失函数,如下:
其中,L为损失函数,n为训练样本数目,yi为第i个像元的真实值,ai为预测值。采用用随机梯度下降法(SGD)调整网络的权重参数,通过反向传播使得损失函数L达到最小。使用RELU函数作为激活函数:
y=max(0,x) (3)
y=f(x) (4)
式中,x为输入信号,y为激活的输出信号,其中f(x)为输入信号x的激活函数。在TensorFlow框架下完成模型训练,保存训练好的模型与参数。
(5)获取最优层深结构模型和参数:针对(2)中扩充的源域样本集,对模型的层深结构进行调整,分别训练不同层深下的网络模型。结合源域测试集比较不同层深模型对建筑物震害信息的提取精度和效率,并保存提取精度和模型训练时间最佳的网络层深结构和模型参数。其中,层深增长网络结构按照编码和解码的层深对称结构,从第5层开始逐层增加网络结构,按照步骤(3)中所述层深增长的网络结构逐层训练网络模型,本实施例中层深增长网络结构参数如下,当m=5时,a5=3,b5=256;m=6时,a6=3,b6=256;m=7时,a7=3,b7=256;m=8时,a8=3,b8=512;m=9时,a9=3,b9=512;m=10时,a10=3,b10=512;m=11时,a11=3,b11=512;m=12时,a12=3,b13=512;m=13时,a13=3,b13=512。分别训练10层、12层、14层、16层、18层、20层、22层、24层、26层9种层深网络,对应编码器、解码器各5层、6层、7层、8层、9层、10层、11层、12层、13层卷积对称式网络结构。由于网络结构中卷积层数目较少时,本例中层数少于10层,震害信息提取精度较低且训练出的模型容易过拟合。
结合步骤(2)中源域测试集计算不同层深网络模型下的Kappa系数、Micro-F1精度和模型训练时间,如图4、图5、图6所示。当网络层深大于14层时,模型对建筑物震害信息的提取精度开始下降,模型训练时间增加。本例中获取的最优层深结构为14层网络模型,记录下模型参数,模型权重(图8中T21)与偏置量(T22),作为待迁移参数(如图1中T2)。
同时记录该模型的训练参数,包括学习率(图8中的T23)、冲量(图8中的T24)、权重衰减值(图8中的T25)。
(6)目标域震害遥感影像获取:本例中获取的是2008年5月12日四川汶川地震后中国科学院对地观测与数字地球科学中心的航空遥感影像图,作为迁移学习的目标域影像数据。数据地面分辨率为0.3米,包含RGB三个波段,包括8幅500行×500列像元大小的影像。
(7)影像色彩迁移处理:利用步骤(1)中获取的玉树地震源域影像数据,结合Reinhard色彩迁移算法提取源域影像的色彩统计特征(为图1中T1)对步骤(6)中获取的汶川地震目标域影像进行色彩迁移处理,使处理后的目标域影像与源域影像具有相近的色彩统计特征。
具体包括:
将源域和目标域影像由RGB色彩空间转换到ιαβ空间。
首先将源域影像和目标域影像数据由RGB色彩空间转换到CIE XYZ色彩空间,再由CIE XYZ色彩空间转换到LMS色彩空间,最后由LMS色彩空间转换到ιαβ空间。RGB空间到LMS空间转换的计算公式:
式中,R、G、B分别表示RGB色彩空间中的红、绿、蓝三通道像元灰度值,X、Y、Z分别表示CIEXYZ色彩空间中的三色刺激值,L、M、S分别表示LMS空间中三种人眼锥体在长波长、中波长和短波长处的响应度(灵敏度)峰值。为保证转换后空间尺度的合理性,进行对数级的尺度变换,计算公式如(7)所示:
式中,L、M、S分别表示LMS空间中人眼三种锥体在长波长、中波长和短波长处的响应度(灵敏度)峰值,L'、M'、S'分别表示L、M、S的对数值。
从LMS空间转换到ιαβ空间如式(8)所示:
式中,L'、M'、S'分别表示LMS空间中对应通道L、M、S的对数值,ι表示ιαβ空间的亮度通道值,α、β分别表示ιαβ空间的颜色通道值。
本例中Reinhard色彩迁移算法利用源域玉树地区影像的标准差、均值信息来对目标域汶川地区的影像进行色彩校正,通过线性变换使目标域与源域影像的色彩统计量相一致,从而使目标域影像在视觉上达到与源域影像相近的色彩特征,其像元关系表达如式(9)所示:
式中L、A、B分别表示目标域结果影像对应通道的空间像元值,ι、α、β分别表示目标域影像对应通道的空间像元值,mι、mα、mβ和mι'、mα'、mβ'分别表示目标域影像和源域影像对应通道的均值,nι、nα、nβ和nι'、nα'、nβ'分别表示目标域影像和源域影像对应通道的标准方差。
(8)目标域样本集创建划分和扩充增强:采用目视解译的方式,利用Labelme图像标绘工具对目标域影像中的“完整建筑物”和“损毁建筑物”分别进行标绘,生成对应的语义标签,目标域深度学习样本集由8幅影像与对应的两类震害语义标签构成;将样本集按5:3的比例划分为训练集和测试集,训练集包括5幅影像,测试集包括3幅影像。利用OpenCV函数采用随机方式将样本图像及其对应标签随机裁剪为3000张256*256像元大小的样本,对样本集进行扩充。分别采用OpenCV函数库中的旋转、镜像、伽马转换、模糊处理、添加噪声等5种函数对扩充后的目标域样本集图像进行数据增强,形成虚拟样本,包括按照90°、180°和270°对样本图像进行旋转变换,通过在图像上随机散播像元值为0(黑点)和255(白点)的像元点随机添加椒盐噪声。将图像像元矩阵中每行像元值的排列顺序进行颠倒,生成镜像图像,通过“伽马转换”提升图像的暗部细节,通过“模糊处理”产生模糊效果。
(9)目标域模型训练:
结合目标域样本集训练震害信息提取模型,训练步骤为:
a)输入目标域样本数据,采用与源域完全相同的网络层深结构(图8中源域同构网络)和模型训练参数,网络层深结构包括网络输入输出层、卷积层层深及对应的卷积核大小数量,池化层池化核和上采样层上采样核大小,卷积滑动步长、填充方式。训练参数包括学习率(图8中的T23)、冲量(图8中的T24)、权重衰减值(图8中的T25)。目标域模型参数的初始值使用步骤(5)中获取图1中源域模型最优参数(T2);T2包括图8中的模型权重(T21)与偏置量(T22)参数。
b)在编码器中进行卷积和最大池化,然后在解码器中进行卷积和上采样操作,最后将特征图送到Soft-max分类器进行震害信息识别;
c)通过迭代更新网络参数,保存最终训练好的模型参数,并输出训练精度损失曲线图。
为了减少目标域模型的训练时间,与源域相比本实施例目标域训练迭代次数(Epochs)减少5次,设置为5,损失函数、激活函数、批次大小等其他模型训练参数与步骤(4)中源域模型训练完全相同。
(10)目标域影像建筑物震害信息提取与精度评价:利用步骤(9)中训练好的模型进行步骤(8)中目标域测试集影像建筑物震害信息的提取,结合目标域测试集标签数据评价目标域模型对建筑物震害信息提取的精度和效率,选用Kappa系数和Micro-F1评分作为精度评价指标。为了获得Micro-F1精度,对完整建筑物和损毁建筑物提取结果计算综合精确率Pmicro(式10)和综合召回率Rmicro(式11),由综合精确率Pmicro和综合召回率Rmicro计算得到Micro-F1(式12)。
其中,Pmicro为两类震害建筑物的综合精确率,Rmicro为两类震害建筑物的综合召回率,TP1为完整建筑物真阳性检验的像元数,FP1为完整建筑物假阳性的像元数,FN1为完整建筑物假阴性的像元数;TP2为损毁建筑物真阳性的像元数,FP2为损毁建筑物假阳性的像元数,FN2为损毁建筑物假阴性的像元数。
图9为本发明方法提取结果空间误差分布与无迁移CNN方法的对比图,其中a、b、c为目标域测试影像,d、e、f为无迁移CNN方法提取结果空间误差分布,g、h、i为本发明方法提取结果空间误差分布。S1为完整建筑物正确分类吗,S2为其错误分类,S3为其遗漏分类;S4为损毁建筑物正确分类,S5为损毁建筑物错误分类,S6为损毁建筑物遗漏分类,空间误差分布对比显示本发明方法建筑物震害信息提取结果中错分和漏分像元减少显著,提取精度增加。
本发明提取结果精度显示Kappa系数及Micro-F1评分平均达到了69.56%和74.14%,相对无迁移卷积神经网络(无迁移CNN)提高了33.17%和32.29%,对比随机森林法(RF)提高了42.73%和31.79%,比支持向量机(SVM)提高了34.83%和24.08%,如表1所示。在耗时与样本量制作方面,无迁移CNN模型(30000样本)训练耗时219分钟,本发明方法(3000样本)训练耗时11分钟,模型分类精度接近的情况下,本发明方法的目标域模型训练耗时更少,样本量更小。
表1本发明与RF、SVM、无迁移CNN方法震害信息提取精度比较
以上所述是本发明的具体实施例及所运用的技术原理,若以本发明的构想所作的改变,其所产生的功能作用仍未超出说明书及附图所涵盖的内容时,仍应属本发明的保护范围。。
Claims (7)
1.一种基于色彩-参数迁移的遥感建筑物震害信息提取方法,其特征在于,包括以下步骤:
(1)源域震害遥感影像获取:从防震减灾部门或遥感数据网站获取某一地区震后高分辨率历史遥感影像,作为迁移学习的源域影像数据;
(2)源域样本集创建划分和扩充增强;
(3)网络层深结构设计:设计提取震后完整建筑物、损毁建筑物的层深增长卷积神经网络结构;
(4)源域模型训练:设置模型训练参数,在深度学习框架下完成模型训练,保存训练好的模型与参数;
(5)获取最优层深结构模型和参数:针对扩充的源域样本集,按照层深增长网络结构对模型的层深结构进行调整,分别训练不同层深结构下的网络模型;结合源域测试集比较不同层深结构模型对建筑物震害信息的提取性能,并保存提取精度和模型训练时间最佳的网络层深结构和模型参数;
(6)目标域震害遥感影像获取:从防震减灾部门或遥感数据网站获取另一地区的地震后高分辨率遥感影像,作为迁移学习的目标域影像数据;
(7)影像色彩迁移处理:利用源域震害影像数据,提取源域影像的色彩统计特征对目标域震害影像进行色彩迁移处理,使处理后的目标域影像具有与源域影像相近的色彩统计特征;
(8)目标域样本集创建划分和扩充增强;
(9)目标域模型训练:采用最优源域模型,以该模型参数作为初始值结合目标域样本集训练目标域深度学习模型;
(10)目标域影像建筑物震害信息提取与精度评价:利用目标域模型进行目标域影像建筑物震害信息的提取,完成提取结果精度效率评价。
2.根据权利要求1所述的一种基于色彩-参数迁移的遥感建筑物震害信息提取方法,其特征在于,步骤(1)、(6)中所述的获取源域和目标域震害遥感影像对应的地震事件、震区、遥感器高度类型、成像时间不同,既可包括源域高空间分辨率卫星影像到目标域高空间分辨率航空影像的色彩-参数迁移处理,也可包括源域为高空间分辨率航空影像到目标域高分卫星影像的色彩-参数迁移处理。
3.根据权利要求1所述的一种基于色彩-参数迁移的遥感建筑物震害信息提取方法,其特征在于,步骤(3)中所述的网络层深结构设计中采用了层深增长网络结构优化震害信息提取性能和效率,层深增长网络结构中网络输入层可输入RGB三波段震害样本集数据,通过层深调节、逐层对称增加编码器和解码器的层深结构,包括逐层对称增加卷积层、池化层和上采样层。
4.根据权利要求1所述的一种基于色彩-参数迁移的遥感建筑物震害信息提取方法,其特征在于,步骤(5)中所述的为了实现网络层深结构优化,采用步骤(3)中设计的层深增长网络结构进行优化,获取最优层深结构模型,记录下最优模型权重与偏置量,同时记录训练该模型的参数,包括学习率、冲量、权重衰减值作为待迁移参数。
5.根据权利要求1所述的一种基于色彩-参数迁移的遥感建筑物震害信息提取方法,其特征在于,步骤(9)中所述的目标域模型训练采用与源域完全相同的网络层深结构和模型训练参数,网络层深结构包括网络输入输出层、卷积层层深及对应的卷积核大小数量,池化层池化核和上采样层上采样核大小,卷积滑动步长、填充方式;训练参数包括学习率、冲量、权重衰减值;目标域模型参数的初始值使用步骤(5)中获取的源域模型最优参数;源域参数包括模型权重与偏置量参数;为了减少目标域模型的训练时间,仅调少训练的迭代次数,损失函数、激活函数、批次大小其他模型训练参数与步骤(4)中源域模型训练完全相同。
6.根据权利要求1所述的一种基于色彩-参数迁移的遥感建筑物震害信息提取方法,其特征在于,步骤(7)中所述的图像色彩迁移处理,先将原始图像由RGB色彩空间变换至ιαβ色彩空间,在ιαβ色彩空间中采用Reinhard算法将源域色彩统计特征迁移至目标域图像,进而能保障目标域图像和源域图像具有相近的色彩统计特征。
7.根据权利要求1所述的一种基于色彩-参数迁移的遥感建筑物震害信息提取方法,其特征在于,步骤(10)中所述的目标域影像建筑物震害信息提取结果精度评价,对完整建筑物和损毁建筑物提取结果计算综合精确率和综合召回率,Micro-F1由综合精确率和综合召回率综合计算得到。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111653588.7A CN114359724B (zh) | 2021-12-30 | 2021-12-30 | 一种基于色彩-参数迁移的遥感建筑物震害信息提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111653588.7A CN114359724B (zh) | 2021-12-30 | 2021-12-30 | 一种基于色彩-参数迁移的遥感建筑物震害信息提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114359724A CN114359724A (zh) | 2022-04-15 |
CN114359724B true CN114359724B (zh) | 2024-04-16 |
Family
ID=81102601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111653588.7A Active CN114359724B (zh) | 2021-12-30 | 2021-12-30 | 一种基于色彩-参数迁移的遥感建筑物震害信息提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114359724B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114596372B (zh) * | 2022-05-07 | 2022-07-29 | 武汉天际航信息科技股份有限公司 | 一种影像颜色迁移方法、影像一致性改善方法和装置 |
CN116433991B (zh) * | 2023-06-14 | 2023-08-22 | 中国地质大学(武汉) | 一种用于应急救援的震后建筑物受损评估方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796152A (zh) * | 2020-01-06 | 2020-02-14 | 杭州鲁尔物联科技有限公司 | 一种基于倾斜摄影的群体建筑物震害提取方法及系统 |
CN111985355A (zh) * | 2020-08-01 | 2020-11-24 | 桂林理工大学 | 基于深度学习和云计算的遥感建筑物震害评估方法和系统 |
AU2020103905A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning |
-
2021
- 2021-12-30 CN CN202111653588.7A patent/CN114359724B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796152A (zh) * | 2020-01-06 | 2020-02-14 | 杭州鲁尔物联科技有限公司 | 一种基于倾斜摄影的群体建筑物震害提取方法及系统 |
CN111985355A (zh) * | 2020-08-01 | 2020-11-24 | 桂林理工大学 | 基于深度学习和云计算的遥感建筑物震害评估方法和系统 |
AU2020103905A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning |
Non-Patent Citations (1)
Title |
---|
全卷积神经网络在建筑物震害遥感提取中的应用研究;陈梦;王晓青;;震灾防御技术;20191215(04);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114359724A (zh) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259898B (zh) | 基于无人机航拍图像的农作物分割方法 | |
US11521379B1 (en) | Method for flood disaster monitoring and disaster analysis based on vision transformer | |
CN112836610B (zh) | 一种基于遥感数据的土地利用变化与碳储量定量估算方法 | |
CN114359724B (zh) | 一种基于色彩-参数迁移的遥感建筑物震害信息提取方法 | |
CN103700075B (zh) | 基于Tetrolet变换的多通道卫星云图融合方法 | |
CN112069955B (zh) | 基于深度学习的台风强度遥感反演方法 | |
Wang et al. | Bathymetry model based on spectral and spatial multifeatures of remote sensing image | |
CN116011342B (zh) | 一种高分辨率热红外地表温度全天候重建方法 | |
CN112926607B (zh) | 基于卷积神经网络的双支网络图像隐写框架及方法 | |
CN113591633B (zh) | 基于动态自注意力Transformer的面向对象土地利用信息解译方法 | |
CN111598786A (zh) | 一种基于深度去噪自编码网络的高光谱图像解混方法 | |
Lou et al. | Preliminary investigation on single remote sensing image inpainting through a modified GAN | |
CN112001293A (zh) | 结合多尺度信息和编解码网络的遥感影像地物分类方法 | |
Dai et al. | A remote sensing spatiotemporal fusion model of landsat and modis data via deep learning | |
CN115601281A (zh) | 基于深度学习的遥感图像时空融合方法、系统及电子设备 | |
CN113705538A (zh) | 基于深度学习的高分遥感影像道路变化检测装置及方法 | |
CN104951800A (zh) | 一种面向资源开采型地区的遥感影像融合方法 | |
CN114120036A (zh) | 一种轻量化的遥感图像云检测方法 | |
CN104065853B (zh) | 一种红外相机串扰消除方法 | |
CN114612315A (zh) | 一种基于多任务学习的高分辨率影像缺失区域重建方法 | |
CN111951182B (zh) | 基于流形加权非局部曲率正则化的高光谱图像修复方法 | |
CN109409230A (zh) | 一种空地数据互增强的震前热异常自动分级方法 | |
KR20220102329A (ko) | 산불 위험 계절 예보 장치 및 방법 | |
CN111563844A (zh) | 一种遥感图像自适应融合方法 | |
Hu et al. | A spatial constraint and deep learning based hyperspectral image super-resolution method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |