CN117152622B - 边界优化模型训练、边界优化方法、装置、设备及介质 - Google Patents
边界优化模型训练、边界优化方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117152622B CN117152622B CN202311414166.3A CN202311414166A CN117152622B CN 117152622 B CN117152622 B CN 117152622B CN 202311414166 A CN202311414166 A CN 202311414166A CN 117152622 B CN117152622 B CN 117152622B
- Authority
- CN
- China
- Prior art keywords
- image
- sample
- building
- sample image
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 229
- 238000000034 method Methods 0.000 title claims abstract description 104
- 238000012549 training Methods 0.000 title claims abstract description 92
- 230000008859 change Effects 0.000 claims abstract description 171
- 238000001514 detection method Methods 0.000 claims abstract description 167
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 62
- 238000011176 pooling Methods 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 29
- 238000013527 convolutional neural network Methods 0.000 claims description 25
- 230000004913 activation Effects 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 21
- 238000010606 normalization Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 11
- 238000005516 engineering process Methods 0.000 abstract description 10
- 238000004364 calculation method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 10
- 230000007547 defect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000000903 blocking effect Effects 0.000 description 6
- 101001095088 Homo sapiens Melanoma antigen preferentially expressed in tumors Proteins 0.000 description 4
- 102100037020 Melanoma antigen preferentially expressed in tumors Human genes 0.000 description 4
- 230000007797 corrosion Effects 0.000 description 4
- 238000005260 corrosion Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 239000011800 void material Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种边界优化模型训练、边界优化方法、装置、设备及介质,涉及遥感技术领域,该方法包括:基于原始样本影像,获得第一样本影像,基于原始样本影像的建筑物变化检测结果,获得第二样本影像,在第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像;基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型进行训练,获得边界优化模型。本发明提供的边界优化模型训练、边界优化方法、装置、设备及介质,能在不降低基于深度学习技术获得的建筑物变化检测结果的准确率的基础上,对建筑物变化检测结果进行边界优化,从而能更准确、更高效地确定上述建筑物变化检测结果中建筑物的规则边界。
Description
技术领域
本发明涉及遥感技术领域,尤其涉及一种边界优化模型训练、边界优化方法、装置、设备及介质。
背景技术
建筑物属于人类居住活动的主要场所和典型人工地理目标,建筑物的动态监测,对于数字孪生城市建设、城市规划与管理、建筑物灾后损坏评估、违章建筑监测查处等方面发挥了关键作用,具有重要的科学意义与实用价值。
现有的建筑变化检测方法中,可以基于深度学习技术对待检测区域进行建筑物变化检测,获得上述待检测区域的建筑物变化检测结果。
但是,上述基于深度学习技术获得的建筑物变化检测结果存在边缘不规则以及边缘细节差等缺陷,基于上述建筑物变化检测结果难以准确地确定建筑物的规则边界,特别是多边形建筑物的规则边界。
发明内容
本发明提供一种边界优化模型训练、边界优化方法、装置、设备及介质,用以解决现有技术中基于深度学习技术获得的建筑物变化检测结果存在边缘不规则以及边缘细节差等缺陷,通过对上述建筑物变化检测结果进行边界优化,实现基于上述建筑物变化检测结果更准确地确定建筑物的规则边界。
本发明提供一种边界优化模型训练方法,包括:
基于原始样本影像,获得第一样本影像,基于所述原始样本影像的建筑物变化检测结果,获得第二样本影像,在所述第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像,所述原始样本影像包括样本区域的前时相遥感影像和后时相遥感影像,所述原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的,所述原始样本影像的建筑物变化检测结果包括标注有所述样本建筑物的样本区域的前时相遥感影像,或者,标注有所述样本建筑物的样本区域的后时相遥感影像,所述样本建筑物为所述样本区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
基于所述第一样本影像、所述第二样本影像以及所述第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于所述训练好的生成对抗网络模型,获得边界优化模型。
根据本发明提供的一种边界优化模型训练方法,所述生成对抗网络模型,包括:生成器、判别器和重构单元;所述生成器包括编码单元和解码单元;
所述基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于所述训练好的生成对抗网络模型,获得边界优化模型,包括:
将所述第一样本影像和所述第二样本影像输入所述编码单元,获得所述编码单元输出的第一中间结果,将所述第三样本影像输入所述重构单元,获得所述重构单元输出的第二中间结果;
将所述第一中间结果和所述第二中间结果输入所述解码单元,获得所述解码单元输出的第二样本影像边界优化后的预测影像和所述第三样本影像中所述样本建筑物的边界的预测重构结果;
将所述预测影像和所述预测重构结果输入所述判别器,获得所述判别器输出的反馈结果;
在所述反馈结果不为真值的情况下,更新所述生成对抗网络模型的模型参数,并重复获得所述判别器输出的反馈结果以及判断所述反馈结果是否为真值的步骤,直至所述反馈结果为真值,获得训练好的生成对抗网络模型;
将所述训练好的生成对抗网络模型中的生成器,确定为所述边界优化模型。
根据本发明提供的一种边界优化模型训练方法,所述编码单元包括依次级联的第一卷积批归一化激活层、至少一个第一SE残差块、第一池化层、至少一个第二SE残差块、第二池化层以及空洞空间金字塔池化层;
所述解码单元包括依次级联的至少一个第三SE残差块、第一上采样层、至少一个第四SE残差块、第二上采样层、第二卷积批归一化激活层以及第一激活函数层。
根据本发明提供的一种边界优化模型训练方法,所述重构单元包括依次级联的第三卷积批归一化激活层、至少一个第一残差块、第三池化层、至少一个第二残差块和第四池化层;
所述判别器包括依次级联的至少一个第三残差块、第五池化层、至少一个第四残差块、第六池化层、至少一个第五残差块、第七池化层、至少一个第六残差块、第八池化层、至少一个第七残差块以及第二激活函数层。
根据本发明提供的一种边界优化模型训练方法,所述基于原始样本影像,获得第一样本影像,包括:
采用第一预设方式对所述原始样本影像进行图像处理,并将图像处理后得到的影像确定为所述第一样本影像;
其中,所述第一预设方式包括影像相减后取绝对值、影像分别归一化后相加以及影像在通道维度上进行叠加中的任意一种。
根据本发明提供的一种边界优化模型训练方法,所述基于所述原始样本影像的建筑物变化检测结果,获得第二样本影像,包括:
采用第二预设方式对所述原始样本影像的建筑物变化检测结果进行图像处理,并将图像处理后得到的影像确定为第二样本影像;
其中,所述第二预设方式包括消除孤立的噪点像素,和/或,过滤面积小于面积阈值的图斑。
本发明还提供一种边界优化方法,包括:
基于原始影像,获得第一目标影像,基于所述原始影像的建筑物变化检测结果,获得第二目标影像,所述原始影像包括目标区域的前时相遥感影像和后时相遥感影像,所述原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的,所述原始影像的建筑物变化检测结果包括标注有目标建筑物的目标区域的前时相遥感影像,或者,标注有所述目标建筑物的目标区域的后时相遥感影像,所述目标建筑物为所述目标区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
将所述第一目标影像和所述第二目标影像输入边界优化模型,获得所述边界优化模型输出的边界优化后的第二目标影像;
其中,所述边界优化模型是基于如上任一所述的边界优化模型训练方法训练得到的。
根据本发明提供的一种边界优化方法,所述基于原始影像,获得第一目标影像,包括:
采用第一预设方式对所述原始影像进行图像处理,并将图像处理后得到的影像确定为所述第一目标影像;
其中,所述第一预设方式包括影像相减后取绝对值、影像分别归一化后相加以及影像在通道维度上进行叠加中的任意一种。
根据本发明提供的一种边界优化方法,所述基于所述原始影像的建筑物变化检测结果,获得第二目标影像,包括:
采用第二预设方式对所述原始影像的建筑物变化检测结果进行图像处理,并将图像预处理后得到的影像确定为第二目标影像;
其中,所述第二预设方式包括消除孤立的噪点像素,和/或,过滤面积小于面积阈值的图斑。
根据本发明提供的一种边界优化方法,所述获得所述边界优化模型输出的边界优化后的第二目标影像之后,所述方法还包括:
提取所述边界优化后的第二目标影像中所述目标建筑物的角点;
确定所述目标建筑物的空间位置信息。
本发明还提供一种边界优化模型训练装置,包括:
第一数据获取模块,用于基于原始样本影像,获得第一样本影像,基于所述原始样本影像的建筑物变化检测结果,获得第二样本影像,在所述第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像,所述原始样本影像包括样本区域的前时相遥感影像和后时相遥感影像,所述原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的,所述原始样本影像的建筑物变化检测结果包括标注有所述样本建筑物的样本区域的前时相遥感影像,或者,标注有所述样本建筑物的样本区域的后时相遥感影像,所述样本建筑物为所述样本区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
模型训练模块,用于基于所述第一样本影像、所述第二样本影像以及所述第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于所述训练好的生成对抗网络模型,获得边界优化模型。
本发明还提供一种边界优化装置,包括:
第二数据获取模块,用于基于原始影像,获得第一目标影像,基于所述原始影像的建筑物变化检测结果,获得第二目标影像,所述原始影像包括目标区域的前时相遥感影像和后时相遥感影像,所述原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的,所述原始影像的建筑物变化检测结果包括标注有目标建筑物的目标区域的前时相遥感影像,或者,标注有所述目标建筑物的目标区域的后时相遥感影像,所述目标建筑物为所述目标区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
边界优化模块,用于将所述第一目标影像和所述第二目标影像输入边界优化模型,获得所述边界优化模型输出的边界优化后的第二目标影像;
其中,所述边界优化模型是基于如上任一所述的边界优化模型训练方法训练得到的。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述边界优化模型训练方法,和/或,任一如上述任一种所述边界优化方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述边界优化模型训练方法,和/或,任一如上述任一种所述边界优化方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述边界优化模型训练方法,和/或,任一如上述任一种所述边界优化方法。
本发明提供的边界优化模型训练、边界优化方法、装置、设备及介质,通过基于原始样本影像获得第一样本影像,基于原始样本影像的建筑物变化检测结果获得第二样本影像,在第二样本影像中标注建筑物的边界,并将标注后的第二样本影像确定为第三样本影像之后,基于第一样本影像、第二样本影像及第三样本影像对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型,进而基于训练好的生成对抗网络模型,获得边界优化模型,能在不降低基于深度学习技术获得的建筑物变化检测结果的准确率的基础上,基于上述边界优化模型对建筑物变化检测结果进行边界优化,从而能改善上述建筑物变化检测结果中分块现象明显、边缘细节差、规则程度差以及视觉效果差等缺陷,能更准确、更高效地确定上述建筑物变化检测结果中建筑物的规则边界,特别是能更准确地确定上述建筑物变化检测结果中多边形建筑物的规则边界。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的边界优化模型训练方法的流程示意图;
图2是本发明提供的边界优化模型训练方法中生成对抗网络模型的结构示意图;
图3为本发明提供的边界优化模型训练方法中空洞空间金字塔池化层的结构示意图;
图4是本发明提供的边界优化方法的流程示意图之一;
图5是本发明提供的边界优化方法的流程示意图之二;
图6是本发明提供的边界优化模型训练装置的结构示意图;
图7是本发明提供的边界优化装置的结构示意图;
图8是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
需要说明的是,相关技术中可以基于深度卷积神经网络构建建筑物变化检测模型,进而可以将样本区域不同时相的遥感影像作为样本,将样本区域的建筑物变化检测结果作为样本标签,对上述建筑物变化检测模型进行训练,获得训练好的建筑物变化检测模型。
获得训练好的建筑物变化检测模型之后,可以将待检测区域不同时相的遥感影像输入上述训练好的建筑物变化检测模型。
上述训练好的建筑物变化检测模型可以通过卷积计算、下采样等方式,对待检测区域不同时相的遥感影像进行建筑物变化检测,并在上述待检测区域任一时相的遥感影像或每一时相的遥感影像中标注发生变化的建筑物,进而可以将标注后的遥感影像作为待检测区域的建筑物变化检测结果进行输出。
通常情况下,高分辨率遥感影像中的建筑物的边界,通常具有明显的直线边和转折点等规则的特征。
但是,上述由深度卷积神经网络驱动的建筑物变化检测模型在对待检测区域不同时相的遥感影像进行建筑物变化检测时,频繁的下采样将导致上述建筑物变化检测模型输出的待检测区域的建筑物变化检测结果存在分块现象明显、边缘细节差、规则程度差以及视觉效果差等缺陷,基于上述建筑物变化检测结果难以准确地确定发生变化的建筑物的边界,特别是发生变化的多边形建筑物的边界。
相关技术中对基于深度学习技术获得的建筑物变化检测结果的后处理方法,通常包括基于形态学的方法、基于滤波处理的方法和基于区域的方法。例如,基于形态学算法可以消除上述建筑物变化检测结果中小面积的图斑和噪声,从而小幅提升上述建筑物变化检测结果的精度;又例如,利用主成分分析等算法可以去除上述建筑物变化检测结果中的阴影干扰和噪声等伪变化,从而提升上述建筑物变化检测结果的精度。
但是,上述后处理方法通常是通过一定的手段去除结果中的空洞、噪声等干扰像素,并未考虑如何对上述建筑物变化检测结果进行边界优化。因此,如何对上述建筑物变化检测结果进行边界优化,以实现基于上述建筑物变化检测结果更准确地确定发生变化的建筑物的规则边界,具有重要的价值和意义。
对此,本发明提供一种边界优化模型训练方法和边界优化方法。基于本发明提供的边界优化模型训练方法训练得到边界优化模型之后,可以基于上述边界优化模型对基于深度卷积神经网络获得的建筑物变化检测结果进行边界优化,改善上述建筑物变化检测结果中分块现象明显、边缘细节差、规则程度差以及视觉效果差等缺陷,进而可以实现基于边界优化后的建筑物变化检测结果更准确地确定发生变化的建筑物的规则边界,特别是可以更准确地确定发生变化的多边形建筑物的规则边界。
图1是本发明提供的边界优化模型训练方法的流程示意图。下面结合图1描述本发明的边界优化模型训练方法。如图1所示,该方法包括:步骤101、基于原始样本影像,获得第一样本影像,基于原始样本影像的建筑物变化检测结果,获得第二样本影像,在第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像,原始样本影像包括样本区域的前时相遥感影像和后时相遥感影像,原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始样本影像的建筑物变化检测结果包括标注有样本建筑物的样本区域的前时相遥感影像,或者,标注有样本建筑物的样本区域的后时相遥感影像,样本建筑物为样本区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物。
需要说明的是,本发明实施例的执行主体为边界优化模型训练装置。
具体地,本发明实施例中可以通过多种方式获取样本区域的前时相遥感影像和样本区域的后时相遥感影像,作为原始样本影像。例如,本发明实施例中可以通过数据查询的方式,获取样本区域的前时相遥感影像和样本区域的后时相遥感影像,作为原始样本影像。
可以理解的是,样本区域的前时相遥感影像和样本区域的后时相遥感影像是利用遥感卫星采集得到的。样本区域的前时相遥感影像的采集时间,早于样本区域的后时相遥感影像的采集时间。
需要说明的是,样本区域的前时相遥感影像和样本区域的后时相遥感影像已完成配准,样本区域的前时相遥感影像和样本区域的后时相遥感影像的通道为蓝、绿、红和近红外四个波段。
样本区域的前时相遥感影像和样本区域的后时相遥感影像的均为预设尺寸,样本区域的前时相遥感影像和样本区域的后时相遥感影像中像素的行数和列数均相同。其中,上述预设尺寸可以是基于先验知识和/或实际情况确定的,例如上述预设尺寸可以为512像素×512像素。
本发明实施例中可以以样本区域的前时相遥感影像的左上角为坐标原点,沿样本区域的前时相遥感影像的上边界向左为X轴,沿样本区域的前时相遥感影像的左边界向下为Y轴,建立第一影像坐标系;以样本区域的后时相遥感影像的左上角为坐标原点,沿样本区域的后时相遥感影像的上边界向左为X轴,沿样本区域的后时相遥感影像的左边界向下为Y轴,建立第二影像坐标系。在上述第一影像坐标系和上述第二影像坐标系中坐标值相同的两个像素点,对应样本区域内相同的地理位置。
需要说明的是,本发明实施例中的样本区域、样本区域的前时相遥感影像的采集时间以及样本区域的后时相遥感影像的采集时间,可以是基于先验知识和/或实际情况确定的。本发明实施例中对样本区域、样本区域的前时相遥感影像的采集时间以及样本区域的后时相遥感影像的采集时间不作具体限定。
本发明实施例中可以通过对原始样本影像进行图像处理,获得第一样本影像。
作为一个可选地实施例,基于原始样本影像,获得第一样本影像,包括:采用第一预设方式对原始样本影像进行图像处理,并将图像处理后得到的影像确定为第一样本影像;
其中,第一预设方式包括影像相减后取绝对值、影像分别归一化后相加以及影像在通道维度上进行叠加中的任意一种。
具体地,本发明实施例中可以将样本区域的前时相遥感影像和后时相遥感影像进行相减之后取绝对值得到的影像,确定为第一样本影像;
或者,可以将样本区域的前时相遥感影像和样本区域的后时相遥感影像分别归一化之后相加得到的影像,确定为第一样本遥感影像;
或者,可以将样本区域的前时相遥感影像和后时相遥感影像在通道维度上叠加为六波段的影像,确定为第一样本遥感影像。
需要说明的是,本发明实施例中原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的。
生成原始样本影像的建筑物变化检测结果的具体步骤可以包括:基于深度卷积神经网络构建建筑物变化检测模型;训练上述建筑物变化检测模型,获得训练好的建筑物变化检测模型;将原始样本影像输入训练好的建筑物变化检测模型,上述训练好的建筑物变化检测模型可以在样本区域的前时相遥感影像和/或后时相遥感影像中对发生变化的建筑物(样本建筑物)进行标注,并可以将标注后的样本区域的前时相遥感影像和/或后时相遥感影像确定为原始样本影像的建筑物变化检测结果,进而可以获取上述训练好的建筑物变化检测模型输出的原始样本影像的建筑物变化检测结果。
本发明实施例中可以通过对原始样本影像的建筑物变化检测结果进行图像处理,获得第二样本影像。
作为一个可选地实施例,基于原始样本影像的建筑物变化检测结果,获得第二样本影像,包括:采用第二预设方式对原始样本影像的建筑物变化检测结果进行图像处理,并将图像处理后得到的影像确定为第二样本影像;
其中,第二预设方式包括消除孤立的噪点像素,和/或,过滤面积小于面积阈值的图斑。
具体地,本发明实施例中可以基于开源库的OpenCV膨胀、腐蚀,消除原始样本影像的建筑物变化检测结果中孤立的噪点像素,和/或,过滤原始样本影像的建筑物变化检测结果中面积小于面积阈值的图斑。
可选地,本发明实施例中还可以基于开源库OpenCV中的膨胀、腐蚀,消除原始样本影像的建筑物变化检测结果中孤立的噪点像素,和/或,过滤原始样本影像的建筑物变化检测结果中样本建筑物所在区域内面积小于面积阈值的图斑。
其中,OpenCV(Open Source Computer Vision)是一个开源的计算机视觉库,提供了丰富的图像处理和计算机视觉算法。它是一个跨平台的库,支持多个编程语言,如C++、Python、Java等,可以在Windows、Linux、macOS等操作系统上使用。
需要说明的是,上述面积阈值的具体取值可以是根据实际情况和/或先验知识确定的。本发明实施例中对上述面积阈值的具体取值不作限定。
本发明实施例中通过采用第二预设方式对原始样本影像的建筑物变化检测结果进行图像处理,并将图像处理后得到的影像确定为第二样本影像,能为边界优化模型的训练提供更准确的数据基础,能提高训练得到的边界优化模型的计算准确率。
获取第二样本影像之后,可以通过目视解译等方式,对第二样本影像中样本建筑物的边界进行标注,进而可以将标注后的第二样本影像直接确定为第三样本影像。
可以理解的是,第一样本影像、第二样本影像以及第三样本影像之间具有一一对应关系。
步骤102、基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于训练好的生成对抗网络模型,获得边界优化模型。
具体地,获取第三样本影像之后,可以基于上述第三样本影像获得样本标签,进而可以将第一样本影像和第二样本影像作为训练样本,基于上述训练样本和上述样本标签对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型。
获得训练好的生成对抗网络模型之后,可以将训练好的生成对抗网络模型中的部分结构,确定为边界优化模型。
图2是本发明提供的边界优化模型训练方法中生成对抗网络模型的结构示意图。作为一个可选地实施例,如图2所示,生成对抗网络模型201,包括:生成器202、判别器203和重构单元204;生成器202包括编码单元205和解码单元206;
基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型201进行训练,获得训练好的生成对抗网络模型201之后,基于训练好的生成对抗网络模型201,获得边界优化模型,包括:将第一样本影像和第二样本影像输入编码单元205,获得编码单元205输出的第一中间结果,将第三样本影像输入重构单元204,获得重构单元204输出的第二中间结果;
将第一中间结果和第二中间结果输入解码单元206,获得解码单元206输出的第二样本影像边界优化后的预测影像和第三样本影像中样本建筑物的边界的预测重构结果;
将预测影像和预测重构结果输入判别器203,获得判别器203输出的反馈结果;
在反馈结果不为真值的情况下,更新生成对抗网络模型201的模型参数,并重复获得判别器203输出的反馈结果以及判断反馈结果是否为真值的步骤,直至反馈结果为真值,获得训练好的生成对抗网络模型201;
将训练好的生成对抗网络模型201中的生成器202,确定为边界优化模型。
需要说明的是,相关技术中传统的生成对抗网络(Generative AdversarialNetworks,简称GAN)是一种机器学习模型,通常由生成器(Generator)和判别器(Discriminator)两个部分组成,生成器的任务是学习生成与真实样本相似的新样本,而判别器的任务是判断输入的样本是真实样本还是由生成器生成的样本,生成器和判别器通过博弈的方式相互竞争、相互学习,以达到生成逼真样本的目标。
而本发明实施例中的生成对抗网络模型201在生成器202和判别器203的基础上增加了重构单元204,通过重构单元204的引入,可以基于重构单元204和解码单元206,对第二样本影像中样本建筑物的边界进行重构,进而可以为生成器202的解码阶段添加约束和引导,可以为生成器202提供条件约束,并通过联合训练编码单元205、重构单元204和解码单元206,避免判别器203可以轻易判断输入的样本与标签之间的真伪,能提高生成对抗网络模型201的稳定性,能提高生成对抗网络模型201的训练效率,能提高训练得到的边界优化模型的计算准确率。
将第一中间结果和第二中间结果输入解码单元206之后,解码单元206可以基于第一中间结果,生成并输出第二样本影像边界优化后的预测影像,解码单元206还可以基于第二中间结果,生成并输出第三样本影像中样本建筑物的边界的预测重构结果。
本发明实施例中的生成器202旨在学习由第二样本影像中样本建筑物所在的实际区域构成的域X和由第二样本影像中样本建筑物所在的理论区域构成的域Y之间的映射函数G,并在映射过程中引入第一样本影像对应的域Z。
对于任一第二样本影像x和第二样本影像对应的第一样本影像z,生成第二样本影像x中样本建筑物的规则边界y的映射函数可以表示为。
本发明实施例中的判别器203采用含有残差结构的卷积神经网络。
本发明实施例中的判别器203可以鉴别输入的第二样本影像边界优化后的预测影像和第三样本影像的预测重构结果之间的真伪,进而可以基于判别器203输出的反馈结果指导生成器202收敛。
需要说明的是,本发明实施例中的判别器203认为第三样本影像的预测重构结果为真值,第二样本影像边界优化后的预测影像不为真值。
本发明实施例中判别器203的损失函数可以通过如下公式表示:
生成器202的损失函数包括对抗性损失函数,对抗性损失函数可以通过如下公式表示:
其中,表示/>和/>分布函数的数学期望;/>表示判别器203;/>表示生成器202。
其中,表示/>分布函数的数学期望;/>表示重构单元204。
本发明实施例中使用二值交叉熵计算生成器202和重构单元204的重建损失,生成器202的重建损失函数可以通过如下公式表示:
重构单元204的重建损失函数可以通过如下公式表示:
生成器202的损失函数可以通过如下公式表示:
其中,、/>和/>均为比例系数。本发明实施例中/>、/>和/>的取值可以分别为3、1、3。
需要说明的是,本发明实施例中在训练生成对抗网络模型201时,可以交替训练生成器202和判别器203。
通过生成器202和判别器203的梯度反向传播交替进行,生成器202输出的第二样本影像边界优化后的预测影像中建筑物的边界逐渐变得更规则,判别器203逐渐难以辨别生成器202输出的第二样本影像边界优化后的预测影像与第三样本影像的预测重构结果之间的区别,生成器202趋于收敛。
在判别器203输出的反馈结果为真值的情况下,说明判别器203认为第二样本影像边界优化后的预测影像与第三样本影像的预测重构结果相同,生成器202收敛,获得训练好的生成对抗网络模型201。
作为一个可选地实施例,编码单元205包括依次级联的第一卷积批归一化激活层207、至少一个第一SE残差块208、第一池化层209、至少一个第二SE残差块210、第二池化层211以及空洞空间金字塔池化层212;
解码单元206包括依次级联的至少一个第三SE残差块213、第一上采样层214、至少一个第四SE残差块215、第二上采样层216、第二卷积批归一化激活层217以及第一激活函数层218。
具体地,本发明实施例中的生成器202采用U型编码-解码卷积神经网络,考虑需要从影像中恢复规则边界,因此生成器202中只采用两次下采样减少信息损失。但网络深度的降低会降低感受野的大小和模型的特征提取能力,因此,本发明实施例中将编码单元205和解码单元206中的残差结构改进为基于压缩激励机制的SE残差结构,以学习的方式调整特征图的通道权重,能够提高训练得到的边界优化模型的性能,能够提高边界优化模型输出的结果中建筑物边界的规则程度。
本发明实施例中的第一卷积批归一化激活层207与第二卷积批归一化激活层217,均可以对输入影像依次进行卷积核为7×7的卷积计算、批归一化计算以及ReLU激活函数计算。
本发明实施例中的第一SE残差块208、第二SE残差块210、第三SE残差块213和第四SE残差块215可以为结构相同的SE残差块。
需要说明的是,本发明实施例中第一SE残差块208、第二SE残差块210、第三SE残差块213和第四SE残差块215的具体数量可以是基于先验知识和/或实际情况确定的,本发明实施例中对第一SE残差块208、第二SE残差块210、第三SE残差块213和第四SE残差块215的具体数量不作限定。
本发明实施例中的第一池化层209和第二池化层211可以对输入的影像进行2×2的最大池化计算。
本发明实施例在编码单元205中引入了空洞空间金字塔池化层212(AtrousSpatial Pyramid Pooling,ASPP),并设置膨胀因子为1、2、5、7,能够在不降低特征图尺度的同时获取多个感受野的特征图,有助于模型精度的提高,能够提高训练得到的边界优化模型的性能,能够提高边界优化模型输出的结果中建筑物边界的规则程度。
图3为本发明提供的边界优化模型训练方法中空洞空间金字塔池化层的结构示意图。空洞空间金字塔池化层212的具体结构如图3所示。
本发明实施例中的第一上采样层214和第二上采样层216可以对输入的影像进行2倍的上采样计算。
本发明实施例中的第一激活函数层218可以对输入的影像进行Sigmaid激活函数计算。
作为一个可选地实施例,重构单元204包括依次级联的第三卷积批归一化激活层219、至少一个第一残差块220、第三池化层221、至少一个第二残差块222和第四池化层223;
判别器203包括依次级联的至少一个第三残差块224、第五池化层225、至少一个第四残差块226、第六池化层227、至少一个第五残差块228、第七池化层229、至少一个第六残差块230、第八池化层231、至少一个第七残差块232以及第二激活函数层233。
具体地,本发明实施例中的第三卷积批归一化激活层219可以对输入影像依次进行卷积核为7×7的卷积计算、批归一化计算以及ReLU激活函数计算。
本发明实施例中的第一残差块220、第二残差块222、第三残差块224、第四残差块226、第五残差块228、第六残差块230以及第七残差块232可以为结构相同的残差块。
需要说明的是,本发明实施例中第一残差块220、第二残差块222、第三残差块224、第四残差块226、第五残差块228、第六残差块230以及第七残差块232的具体数量可以是基于先验知识和/或实际情况确定的,本发明实施例中对第一残差块220、第二残差块222、第三残差块224、第四残差块226、第五残差块228、第六残差块230以及第七残差块232的具体数量不作限定。
本发明实施例中的第三池化层221、第四池化层223、第五池化层225、第六池化层227、第七池化层229和第八池化层231可以对输入的影像进行2×2的最大池化计算。
本发明实施例中的第二激活函数层233可以对输入的影像进行Sigmaid激活函数计算。
本发明实施例通过基于原始样本影像获得第一样本影像,基于原始样本影像的建筑物变化检测结果获得第二样本影像,在第二样本影像中标注建筑物的边界,并将标注后的第二样本影像确定为第三样本影像之后,基于第一样本影像、第二样本影像及第三样本影像对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型,进而基于训练好的生成对抗网络模型,获得边界优化模型,能在不降低基于深度学习技术获得的建筑物变化检测结果的准确率的基础上,基于上述边界优化模型对建筑物变化检测结果进行边界优化,从而能改善上述建筑物变化检测结果中分块现象明显、边缘细节差、规则程度差以及视觉效果差等缺陷,能更准确、更高效地确定上述建筑物变化检测结果中建筑物的规则边界,特别是能更准确地确定上述建筑物变化检测结果中多边形建筑物的规则边界。
图4是本发明提供的边界优化方法的流程示意图之一。下面结合图4描述本发明的边界优化方法。如图4所示,该方法包括:步骤401、基于原始影像,获得第一目标影像,基于原始影像的建筑物变化检测结果,获得第二目标影像,原始影像包括目标区域的前时相遥感影像和后时相遥感影像,原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始影像的建筑物变化检测结果包括标注有目标建筑物的目标区域的前时相遥感影像,或者,标注有目标建筑物的目标区域的后时相遥感影像,目标建筑物为目标区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物。
需要说明的是,本发明实施例的执行主体为边界优化装置。
具体地,原始影像的建筑物变化检测结果,是本发明提供的边界优化方法的优化对象。基于本发明提供的边界优化方法可以对原始影像的建筑物变化检测结果中的建筑物进行边界优化。
本发明实施例中可以通过多种方式获取目标区域的前时相遥感影像和目标区域的后时相遥感影像,作为原始影像。例如,本发明实施例中可以通过数据查询的方式,获取目标区域的前时相遥感影像和目标区域的后时相遥感影像,作为原始影像。
可以理解的是,目标区域的前时相遥感影像和目标区域的后时相遥感影像是利用遥感卫星采集得到的。目标区域的前时相遥感影像的采集时间,早于目标区域的后时相遥感影像的采集时间。
需要说明的是,目标区域的前时相遥感影像和目标区域的后时相遥感影像已完成配准,目标区域的前时相遥感影像和目标区域的后时相遥感影像的通道为蓝、绿、红和近红外四个波段。
目标区域的前时相遥感影像和目标区域的后时相遥感影像的均为预设尺寸,目标区域的前时相遥感影像和目标区域的后时相遥感影像中像素的行数和列数均相同。其中,上述预设尺寸可以是基于先验知识和/或实际情况确定的,例如上述预设尺寸可以为512像素×512像素。
本发明实施例中可以以目标区域的前时相遥感影像的左上角为坐标原点,沿目标区域的前时相遥感影像的上边界向左为X轴,沿目标区域的前时相遥感影像的左边界向下为Y轴,建立第一影像坐标系;以目标区域的后时相遥感影像的左上角为坐标原点,沿目标区域的后时相遥感影像的上边界向左为X轴,沿目标区域的后时相遥感影像的左边界向下为Y轴,建立第二影像坐标系。在上述第一影像坐标系和上述第二影像坐标系中坐标值相同的两个像素点,对应目标区域内相同的地理位置。
需要说明的是,本发明实施例中的目标区域、目标区域的前时相遥感影像的采集时间以及目标区域的后时相遥感影像的采集时间,可以是基于先验知识和/或实际情况确定的。本发明实施例中对目标区域、目标区域的前时相遥感影像的采集时间以及目标区域的后时相遥感影像的采集时间不作具体限定。
需要说明的是,本发明实施例中原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的。生成原始影像的建筑物变化检测结果的具体步骤可以包括:基于深度卷积神经网络构建建筑物变化检测模型;训练上述建筑物变化检测模型,获得训练好的建筑物变化检测模型;将原始影像输入训练好的建筑物变化检测模型,上述训练好的建筑物变化检测模型可以在目标区域的前时相遥感影像和/或后时相遥感影像中对发生变化的建筑物进行标注,进而可以将标注后的目标区域的前时相遥感影像和/或后时相遥感影像确定为原始影像的建筑物变化检测结果,进而获取上述训练好的建筑物变化检测模型输出的原始影像的建筑物变化检测结果。
本发明实施例中可以通过对原始影像进行图像处理,获得第一目标影像。
作为一个可选地实施例,基于原始影像,获得第一目标影像,包括:采用第一预设方式对原始影像进行图像处理,将图像处理后得到的影像确定为第一目标影像;
其中,第一预设方式包括影像相减后取绝对值、影像分别归一化后相加以及影像在通道维度上进行叠加中的任意一种。
图5是本发明提供的边界优化方法的流程示意图之二。如图5所示,本发明实施例中可以将目标区域的前时相遥感影像和后时相遥感影像进行相减之后取绝对值得到的影像,确定为第一目标影像;或者,可以将目标区域的前时相遥感影像和目标区域的后时相遥感影像分别归一化之后相加得到的影像,确定为第一目标影像;或者,可以将目标区域的前时相遥感影像和后时相遥感影像在通道维度上叠加为六波段的影像,确定为第一目标影像。
需要说明的是,图5中的符号“”,表示影像相减后取绝对值;图5中的符号“⊕”,表示影像分别归一化后相加;图5中的符号“©”,表示影像在通道维度上进行叠加。
本发明实施例中可以通过对原始影像的建筑物变化检测结果进行图像处理,获得第二目标影像。
作为一个可选地实施例,基于原始影像的建筑物变化检测结果,获得第二目标影像,包括:采用第二预设方式对原始影像的建筑物变化检测结果进行图像处理,并将图像预处理后得到的影像确定为第二目标影像;
其中,第二预设方式包括消除孤立的噪点像素,和/或,过滤面积小于面积阈值的图斑。
具体地,如图5所示,本发明实施例中可以基于开源库的OpenCV膨胀、腐蚀,消除原始影像的建筑物变化检测结果中孤立的噪点像素,和/或,过滤原始影像的建筑物变化检测结果中面积小于面积阈值的图斑。
可选地,本发明实施例中还可以基于开源库OpenCV的膨胀、腐蚀,消除原始影像的建筑物变化检测结果中孤立的噪点像素,和/或,过滤原始影像的建筑物变化检测结果中发生变化的建筑物所在区域内面积小于面积阈值的图斑。
需要说明的是,上述面积阈值的具体取值可以是根据实际情况和/或先验知识确定的。本发明实施例中对上述面积阈值的具体取值不作限定。
步骤402、将第一目标影像和第二目标影像输入边界优化模型,获得边界优化模型输出的边界优化后的第二目标影像;
其中,边界优化模型是基于如上任一所述的边界优化模型训练方法训练得到的。
具体地,获得第一目标影像和第二目标影像之后,可以将第一目标影像和第二目标影像输入边界优化模型。
边界优化模型可以基于第一目标影像对第二目标影像进行边界优化,进而可以获取边界优化模型输出的边界优化后的第二目标影像。
需要说明的是,本发明实施例中的边界优化模型是基于本发明提供的边界优化模型训练方法对生成对抗网络模型201进行训练,获得训练好的生成对抗网络模型201之后,基于训练好的生成对抗网络模型201获得的。基于本发明提供的边界优化训练方法对生成对抗网络模型201进行训练的具体过程可以参见上述各实施例的内容,本发明实施例中不再赘述。
本发明实施例通过基于原始影像获得第一目标影像,基于原始影像的建筑物变化检测结果获得第二目标影像之后,将第一目标影像和第二目标影像输入边界优化模型,获得边界优化模型输出的边界优化后的第二目标影像,能在不降低基于深度学习技术获得的建筑物变化检测结果的准确率的基础上,对建筑物变化检测结果进行边界优化,从而能改善上述建筑物变化检测结果中分块现象明显、边缘细节差、规则程度差以及视觉效果差等缺陷,能更准确、更高效地确定上述建筑物变化检测结果中建筑物的规则边界,特别是能更准确地确定上述建筑物变化检测结果中多边形建筑物的规则边界,优化后的建筑物变化检测结果中发生变化的建筑物包括更多的近似直角点和直线边,更加便于栅格结果转换为矢量数据,能更好地将基于深度学习技术获得的建筑物变化检测结果应用于实际业务中。
基于上述各实施例的内容,获得边界优化模型输出的边界优化后的第二目标影像之后,所述方法还包括:提取边界优化后的第二目标影像中目标建筑物的角点;
确定目标建筑物的空间位置信息。
具体地,获得边界优化模型输出的边界优化后的第二目标影像之后,可以通过角点检测方法,提取边界优化后的第二目标影像中目标建筑物的角点,进而可以基于提取到的角点判断目标建筑物的边界的规则程度,还可以进一步为提取到的角点赋予空间位置信息,便于后续的栅格结果转换为矢量数据和实际应用。
可选地,如图5所示,本发明实施例中可以基于Harrris角点检测方法,提取边界优化后的第二目标影像在两个方向上灰度变化剧烈的特征点,进而可以基于提取到的特征点,确定边界优化后的第二目标影像中目标建筑物的角点。
本发明实施例中可以用表示边界优化后的第二目标影像。基于Harrris角点检测方法提取边界优化后的第二目标影像/>中目标建筑物的角点时,首先计算在/>和/>方向上的梯度/>与/>,并计算得到/>在/>和/>方向上梯度的乘积/>、/>和/>后,使用窗口高斯函数对其进行加权得到矩阵/>,具体计算公式如下:
其中,表示窗口函数,相当于一个权重窗口。
使用矩阵可以计算得到/>中每个像素的Harris响应值/>,具体计算公式如下:
其中,表示矩阵/>的行列式,/>表示矩阵/>的迹,/>和/>表示矩阵/>的特征值,/>为一常数,取值通常为0.04至0.06。
利用阈值法将值小于阈值/>的置零,并选择固定大小的邻域窗口进行非极大值抑制,只保留窗口内响应值最大的角点,完成Harris角点检测。
本发明实施例中可以基于交并比(intersection over union,IOU)、TriMap准确率和角点MAPE评估边界优化后的第二目标影像中目标建筑物的边界的规则程度。
其中,TriMap是在掩膜的轮廓内外膨胀和腐蚀若干像素,形成/>像素宽的窄带。与IOU相比,TriMap准确率更侧重于评估边界优化后的第二目标影像中目标建筑物的边界是否更贴合实际边界,TriMap准确率的取值越大,说明边界优化的效果越理想。/>
角点MAPE也是反映边界优化后的第二目标影像中目标建筑物的边界的规则程度的重要指标,其与目标建筑物的边界的规则程度成反比。
IOU、TriMap准确率和角点MAPE的计算公式如下所示:
其中,、/>、/>分别表示真阳性、假阳性、假阴性的像素数量,/>、、/>分别表示在TriMap中的真阳性、假阳性、假阴性的像素数量。是通过Harris角点检测第二目标影像中目标建筑物的边界的真值标签得到的角点个数,/>是对边界优化后的第二目标影像进行Harris角点检测后得到的角点个数。
基于IOU、TriMap准确率和角点MAPE对边界优化后的第二目标影像中目标建筑物的边界的规则程度进行评估之后可知,边界优化后的第二目标影像中目标建筑物的边界的规则程度较高。
图6是本发明提供的边界优化模型训练装置的结构示意图。下面结合图6对本发明提供的边界优化模型训练装置进行描述,下文描述的边界优化模型训练装置与上文描述的本发明提供的边界优化模型训练方法可相互对应参照。如图6所示,该装置包括:第一数据获取模块601和模型训练模块602。
第一数据获取模块601,用于基于原始样本影像,获得第一样本影像,基于原始样本影像的建筑物变化检测结果,获得第二样本影像,在第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像,原始样本影像包括样本区域的前时相遥感影像和后时相遥感影像,原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始样本影像的建筑物变化检测结果包括标注有样本建筑物的样本区域的前时相遥感影像,或者,标注有样本建筑物的样本区域的后时相遥感影像,样本建筑物为样本区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
模型训练模块602,用于基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于训练好的生成对抗网络模型,获得边界优化模型。
具体地,第一数据获取模块601和模型训练模块602电连接。
本发明实施例中的边界优化模型训练装置,通过基于原始样本影像获得第一样本影像,基于原始样本影像的建筑物变化检测结果获得第二样本影像,在第二样本影像中标注建筑物的边界,并将标注后的第二样本影像确定为第三样本影像之后,基于第一样本影像、第二样本影像及第三样本影像对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型,进而基于训练好的生成对抗网络模型,获得边界优化模型,能在不降低基于深度学习技术获得的建筑物变化检测结果的准确率的基础上,基于上述边界优化模型对建筑物变化检测结果进行边界优化,从而能改善上述建筑物变化检测结果中分块现象明显、边缘细节差、规则程度差以及视觉效果差等缺陷,能更准确、更高效地确定上述建筑物变化检测结果中建筑物的规则边界,特别是能更准确地确定上述建筑物变化检测结果中多边形建筑物的规则边界。
图7是本发明提供的边界优化装置的结构示意图。下面结合图7对本发明提供的边界优化装置进行描述,下文描述的边界优化装置与上文描述的本发明提供的边界优化方法可相互对应参照。如图7所示,该装置包括:第二数据获取模块701和边界优化模块702。
第二数据获取模块,用于基于原始影像,获得第一目标影像,基于原始影像的建筑物变化检测结果,获得第二目标影像,原始影像包括目标区域的前时相遥感影像和后时相遥感影像,原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始影像的建筑物变化检测结果包括标注有目标建筑物的目标区域的前时相遥感影像,或者,标注有目标建筑物的目标区域的后时相遥感影像,目标建筑物为目标区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
边界优化模块,用于将第一目标影像和第二目标影像输入边界优化模型,获得边界优化模型输出的边界优化后的第二目标影像;
其中,边界优化模型是基于如上任一所述的边界优化模型训练方法训练得到的。
具体地,第二数据获取模块701和边界优化模块702电连接。
本发明实施例中的边界优化模型,通过基于原始影像获得第一目标影像,基于原始影像的建筑物变化检测结果获得第二目标影像之后,将第一目标影像和第二目标影像输入边界优化模型,获得边界优化模型输出的边界优化后的第二目标影像,能在不降低基于深度学习技术获得的建筑物变化检测结果的准确率的基础上,对建筑物变化检测结果进行边界优化,从而能改善上述建筑物变化检测结果中分块现象明显、边缘细节差、规则程度差以及视觉效果差等缺陷,能更准确、更高效地确定上述建筑物变化检测结果中建筑物的规则边界,特别是能更准确地确定上述建筑物变化检测结果中多边形建筑物的规则边界,优化后的建筑物变化检测结果中发生变化的建筑物包括更多的近似直角点和直线边,更加便于栅格结果转换为矢量数据,能更好地将基于深度学习技术获得的建筑物变化检测结果应用于实际业务中。
图8示例了一种电子设备的实体结构示意图,如图8所示,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行边界优化模型训练方法,和/或,边界优化方法。边界优化模型训练方法包括:基于原始样本影像,获得第一样本影像,基于原始样本影像的建筑物变化检测结果,获得第二样本影像,在第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像,原始样本影像包括样本区域的前时相遥感影像和后时相遥感影像,原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始样本影像的建筑物变化检测结果包括标注有样本建筑物的样本区域的前时相遥感影像,或者,标注有样本建筑物的样本区域的后时相遥感影像,样本建筑物为样本区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于训练好的生成对抗网络模型,获得边界优化模型。边界优化方法包括:基于原始影像,获得第一目标影像,基于原始影像的建筑物变化检测结果,获得第二目标影像,原始影像包括目标区域的前时相遥感影像和后时相遥感影像,原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始影像的建筑物变化检测结果包括标注有目标建筑物的目标区域的前时相遥感影像,或者,标注有目标建筑物的目标区域的后时相遥感影像,目标建筑物为目标区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;将第一目标影像和第二目标影像输入边界优化模型,获得边界优化模型输出的边界优化后的第二目标影像;其中,边界优化模型是基于如上任一所述的边界优化模型训练方法训练得到的。
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的边界优化模型训练方法,和/或,边界优化方法。边界优化模型训练方法包括:基于原始样本影像,获得第一样本影像,基于原始样本影像的建筑物变化检测结果,获得第二样本影像,在第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像,原始样本影像包括样本区域的前时相遥感影像和后时相遥感影像,原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始样本影像的建筑物变化检测结果包括标注有样本建筑物的样本区域的前时相遥感影像,或者,标注有样本建筑物的样本区域的后时相遥感影像,样本建筑物为样本区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于训练好的生成对抗网络模型,获得边界优化模型。边界优化方法包括:基于原始影像,获得第一目标影像,基于原始影像的建筑物变化检测结果,获得第二目标影像,原始影像包括目标区域的前时相遥感影像和后时相遥感影像,原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始影像的建筑物变化检测结果包括标注有目标建筑物的目标区域的前时相遥感影像,或者,标注有目标建筑物的目标区域的后时相遥感影像,目标建筑物为目标区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;将第一目标影像和第二目标影像输入边界优化模型,获得边界优化模型输出的边界优化后的第二目标影像;其中,边界优化模型是基于如上任一所述的边界优化模型训练方法训练得到的。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的边界优化模型训练方法,和/或,边界优化方法。边界优化模型训练方法包括:基于原始样本影像,获得第一样本影像,基于原始样本影像的建筑物变化检测结果,获得第二样本影像,在第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像,原始样本影像包括样本区域的前时相遥感影像和后时相遥感影像,原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始样本影像的建筑物变化检测结果包括标注有样本建筑物的样本区域的前时相遥感影像,或者,标注有样本建筑物的样本区域的后时相遥感影像,样本建筑物为样本区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于训练好的生成对抗网络模型,获得边界优化模型。边界优化方法包括:基于原始影像,获得第一目标影像,基于原始影像的建筑物变化检测结果,获得第二目标影像,原始影像包括目标区域的前时相遥感影像和后时相遥感影像,原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的,原始影像的建筑物变化检测结果包括标注有目标建筑物的目标区域的前时相遥感影像,或者,标注有目标建筑物的目标区域的后时相遥感影像,目标建筑物为目标区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;将第一目标影像和第二目标影像输入边界优化模型,获得边界优化模型输出的边界优化后的第二目标影像;其中,边界优化模型是基于如上任一所述的边界优化模型训练方法训练得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (13)
1.一种边界优化模型训练方法,其特征在于,包括:
基于原始样本影像,获得第一样本影像,基于所述原始样本影像的建筑物变化检测结果,获得第二样本影像,在所述第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像,所述原始样本影像包括样本区域的前时相遥感影像和后时相遥感影像,所述原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的,所述原始样本影像的建筑物变化检测结果包括标注有所述样本建筑物的样本区域的前时相遥感影像,或者,标注有所述样本建筑物的样本区域的后时相遥感影像,所述样本建筑物为所述样本区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
基于所述第一样本影像、所述第二样本影像以及所述第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于所述训练好的生成对抗网络模型,获得边界优化模型;
所述生成对抗网络模型,包括:生成器、判别器和重构单元;所述生成器包括编码单元和解码单元;
基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于所述训练好的生成对抗网络模型,获得边界优化模型,包括:
将所述第一样本影像和所述第二样本影像输入所述编码单元,获得所述编码单元输出的第一中间结果,将所述第三样本影像输入所述重构单元,获得所述重构单元输出的第二中间结果;
将所述第一中间结果和所述第二中间结果输入所述解码单元,获得所述解码单元输出的第二样本影像边界优化后的预测影像和所述第三样本影像中所述样本建筑物的边界的预测重构结果;
将所述预测影像和所述预测重构结果输入所述判别器,获得所述判别器输出的反馈结果;
在所述反馈结果不为真值的情况下,更新所述生成对抗网络模型的模型参数,并重复获得所述判别器输出的反馈结果以及判断所述反馈结果是否为真值的步骤,直至所述反馈结果为真值,获得训练好的生成对抗网络模型;
将所述训练好的生成对抗网络模型中的生成器,确定为所述边界优化模型。
2.根据权利要求1所述的边界优化模型训练方法,其特征在于,所述编码单元包括依次级联的第一卷积批归一化激活层、至少一个第一SE残差块、第一池化层、至少一个第二SE残差块、第二池化层以及空洞空间金字塔池化层;
所述解码单元包括依次级联的至少一个第三SE残差块、第一上采样层、至少一个第四SE残差块、第二上采样层、第二卷积批归一化激活层以及第一激活函数层。
3.根据权利要求2所述的边界优化模型训练方法,其特征在于,所述重构单元包括依次级联的第三卷积批归一化激活层、至少一个第一残差块、第三池化层、至少一个第二残差块和第四池化层;
所述判别器包括依次级联的至少一个第三残差块、第五池化层、至少一个第四残差块、第六池化层、至少一个第五残差块、第七池化层、至少一个第六残差块、第八池化层、至少一个第七残差块以及第二激活函数层。
4.根据权利要求1所述的边界优化模型训练方法,其特征在于,所述基于原始样本影像,获得第一样本影像,包括:
采用第一预设方式对所述原始样本影像进行图像处理,并将图像处理后得到的影像确定为所述第一样本影像;
其中,所述第一预设方式包括影像相减后取绝对值、影像分别归一化后相加以及影像在通道维度上进行叠加中的任意一种。
5.根据权利要求1至4任一所述的边界优化模型训练方法,其特征在于,所述基于所述原始样本影像的建筑物变化检测结果,获得第二样本影像,包括:
采用第二预设方式对所述原始样本影像的建筑物变化检测结果进行图像处理,并将图像处理后得到的影像确定为第二样本影像;
其中,所述第二预设方式包括消除孤立的噪点像素,和/或,过滤面积小于面积阈值的图斑。
6.一种边界优化方法,其特征在于,包括:
基于原始影像,获得第一目标影像,基于所述原始影像的建筑物变化检测结果,获得第二目标影像,所述原始影像包括目标区域的前时相遥感影像和后时相遥感影像,所述原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的,所述原始影像的建筑物变化检测结果包括标注有目标建筑物的目标区域的前时相遥感影像,或者,标注有所述目标建筑物的目标区域的后时相遥感影像,所述目标建筑物为所述目标区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
将所述第一目标影像和所述第二目标影像输入边界优化模型,获得所述边界优化模型输出的边界优化后的第二目标影像;
其中,所述边界优化模型是基于如权利要求1至5任一所述的边界优化模型训练方法训练得到的。
7.根据权利要求6所述的边界优化方法,其特征在于,所述基于原始影像,获得第一目标影像,包括:
采用第一预设方式对所述原始影像进行图像处理,并将图像处理后得到的影像确定为所述第一目标影像;
其中,所述第一预设方式包括影像相减后取绝对值、影像分别归一化后相加以及影像在通道维度上进行叠加中的任意一种。
8.根据权利要求6所述的边界优化方法,其特征在于,所述基于所述原始影像的建筑物变化检测结果,获得第二目标影像,包括:
采用第二预设方式对所述原始影像的建筑物变化检测结果进行图像处理,并将图像预处理后得到的影像确定为第二目标影像;
其中,所述第二预设方式包括消除孤立的噪点像素,和/或,过滤面积小于面积阈值的图斑。
9.根据权利要求6至8任一所述的边界优化方法,其特征在于,所述获得所述边界优化模型输出的边界优化后的第二目标影像之后,所述方法还包括:
提取所述边界优化后的第二目标影像中所述目标建筑物的角点;
确定所述目标建筑物的空间位置信息。
10.一种边界优化模型训练装置,其特征在于,包括:
第一数据获取模块,用于基于原始样本影像,获得第一样本影像,基于所述原始样本影像的建筑物变化检测结果,获得第二样本影像,在所述第二样本影像中标注样本建筑物的边界,并将标注后的第二样本影像确定为第三样本影像,所述原始样本影像包括样本区域的前时相遥感影像和后时相遥感影像,所述原始样本影像的建筑物变化检测结果是基于深度卷积神经网络生成的,所述原始样本影像的建筑物变化检测结果包括标注有所述样本建筑物的样本区域的前时相遥感影像,或者,标注有所述样本建筑物的样本区域的后时相遥感影像,所述样本建筑物为所述样本区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
模型训练模块,用于基于所述第一样本影像、所述第二样本影像以及所述第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于所述训练好的生成对抗网络模型,获得边界优化模型;
所述生成对抗网络模型,包括:生成器、判别器和重构单元;所述生成器包括编码单元和解码单元;
所述模型训练模块基于第一样本影像、第二样本影像以及第三样本影像,对生成对抗网络模型进行训练,获得训练好的生成对抗网络模型之后,基于所述训练好的生成对抗网络模型,获得边界优化模型,包括:
将所述第一样本影像和所述第二样本影像输入所述编码单元,获得所述编码单元输出的第一中间结果,将所述第三样本影像输入所述重构单元,获得所述重构单元输出的第二中间结果;
将所述第一中间结果和所述第二中间结果输入所述解码单元,获得所述解码单元输出的第二样本影像边界优化后的预测影像和所述第三样本影像中所述样本建筑物的边界的预测重构结果;
将所述预测影像和所述预测重构结果输入所述判别器,获得所述判别器输出的反馈结果;
在所述反馈结果不为真值的情况下,更新所述生成对抗网络模型的模型参数,并重复获得所述判别器输出的反馈结果以及判断所述反馈结果是否为真值的步骤,直至所述反馈结果为真值,获得训练好的生成对抗网络模型;
将所述训练好的生成对抗网络模型中的生成器,确定为所述边界优化模型。
11.一种边界优化装置,其特征在于,包括:
第二数据获取模块,用于基于原始影像,获得第一目标影像,基于所述原始影像的建筑物变化检测结果,获得第二目标影像,所述原始影像包括目标区域的前时相遥感影像和后时相遥感影像,所述原始影像的建筑物变化检测结果是基于深度卷积神经网络生成的,所述原始影像的建筑物变化检测结果包括标注有目标建筑物的目标区域的前时相遥感影像,或者,标注有所述目标建筑物的目标区域的后时相遥感影像,所述目标建筑物为所述目标区域的前时相遥感影像和后时相遥感影像中发生变化的建筑物;
边界优化模块,用于将所述第一目标影像和所述第二目标影像输入边界优化模型,获得所述边界优化模型输出的边界优化后的第二目标影像;
其中,所述边界优化模型是基于如权利要求1至5任一所述的边界优化模型训练方法训练得到的。
12.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至5任一项所述边界优化模型训练方法,和/或,如权利要求6至9任一项所述边界优化方法。
13.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述边界优化模型训练方法,和/或,如权利要求6至9任一项所述边界优化方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311414166.3A CN117152622B (zh) | 2023-10-30 | 2023-10-30 | 边界优化模型训练、边界优化方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311414166.3A CN117152622B (zh) | 2023-10-30 | 2023-10-30 | 边界优化模型训练、边界优化方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117152622A CN117152622A (zh) | 2023-12-01 |
CN117152622B true CN117152622B (zh) | 2024-02-23 |
Family
ID=88884693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311414166.3A Active CN117152622B (zh) | 2023-10-30 | 2023-10-30 | 边界优化模型训练、边界优化方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117152622B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464210A (zh) * | 2017-07-06 | 2017-12-12 | 浙江工业大学 | 一种基于生成式对抗网络的图像风格迁移方法 |
CN108460739A (zh) * | 2018-03-02 | 2018-08-28 | 北京航空航天大学 | 一种基于生成对抗网络的遥感图像薄云去除方法 |
CN110992252A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学合肥创新研究院 | 一种基于潜变量特征生成的图像多风格转化方法 |
CN111275779A (zh) * | 2020-01-08 | 2020-06-12 | 网易(杭州)网络有限公司 | 表情迁移方法、图像生成器的训练方法、装置及电子设备 |
CN111738953A (zh) * | 2020-06-24 | 2020-10-02 | 北京航空航天大学 | 一种基于边界感知对抗学习的大气湍流退化图像复原方法 |
CN113516135A (zh) * | 2021-06-23 | 2021-10-19 | 江苏师范大学 | 一种基于深度学习的遥感影像建筑物提取及轮廓优化方法 |
CN115565019A (zh) * | 2022-11-04 | 2023-01-03 | 西安电子科技大学 | 基于深度自监督生成对抗的单通道高分辨sar图像地物分类方法 |
CN115578645A (zh) * | 2022-09-06 | 2023-01-06 | 国家海洋环境监测中心 | 一种半监督循环一致性生成对抗网络的sar影像浮筏养殖信息提取方法 |
WO2023007198A1 (en) * | 2021-07-27 | 2023-02-02 | Számítástechnikai És Automatizálási Kutatóintézet | Training method for training a change detection system, training set generating method therefor, and change detection system |
CN116630824A (zh) * | 2023-06-06 | 2023-08-22 | 北京星视域科技有限公司 | 一种面向电力巡检机制的卫星遥感图像边界感知语义分割模型 |
CN116883850A (zh) * | 2023-07-19 | 2023-10-13 | 安徽理工大学 | 一种遥感影像建筑物变化检测方法、装置、介质及设备 |
-
2023
- 2023-10-30 CN CN202311414166.3A patent/CN117152622B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464210A (zh) * | 2017-07-06 | 2017-12-12 | 浙江工业大学 | 一种基于生成式对抗网络的图像风格迁移方法 |
CN108460739A (zh) * | 2018-03-02 | 2018-08-28 | 北京航空航天大学 | 一种基于生成对抗网络的遥感图像薄云去除方法 |
CN110992252A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学合肥创新研究院 | 一种基于潜变量特征生成的图像多风格转化方法 |
CN111275779A (zh) * | 2020-01-08 | 2020-06-12 | 网易(杭州)网络有限公司 | 表情迁移方法、图像生成器的训练方法、装置及电子设备 |
CN111738953A (zh) * | 2020-06-24 | 2020-10-02 | 北京航空航天大学 | 一种基于边界感知对抗学习的大气湍流退化图像复原方法 |
CN113516135A (zh) * | 2021-06-23 | 2021-10-19 | 江苏师范大学 | 一种基于深度学习的遥感影像建筑物提取及轮廓优化方法 |
WO2023007198A1 (en) * | 2021-07-27 | 2023-02-02 | Számítástechnikai És Automatizálási Kutatóintézet | Training method for training a change detection system, training set generating method therefor, and change detection system |
CN115578645A (zh) * | 2022-09-06 | 2023-01-06 | 国家海洋环境监测中心 | 一种半监督循环一致性生成对抗网络的sar影像浮筏养殖信息提取方法 |
CN115565019A (zh) * | 2022-11-04 | 2023-01-03 | 西安电子科技大学 | 基于深度自监督生成对抗的单通道高分辨sar图像地物分类方法 |
CN116630824A (zh) * | 2023-06-06 | 2023-08-22 | 北京星视域科技有限公司 | 一种面向电力巡检机制的卫星遥感图像边界感知语义分割模型 |
CN116883850A (zh) * | 2023-07-19 | 2023-10-13 | 安徽理工大学 | 一种遥感影像建筑物变化检测方法、装置、介质及设备 |
Non-Patent Citations (1)
Title |
---|
生成对抗网络的单图像超分辨率重建方法;彭晏飞;高艺;杜婷婷;桑雨;訾玲玲;;计算机科学与探索(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117152622A (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921799B (zh) | 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法 | |
CN108629343B (zh) | 一种基于边缘检测和改进Harris角点检测的车牌定位方法和系统 | |
CN104978715A (zh) | 一种基于滤波窗口及参数自适应的非局部均值图像去噪方法 | |
CN108846844B (zh) | 一种基于海天线的海面目标检测方法 | |
CN108681689B (zh) | 基于生成对抗网络的帧率增强步态识别方法及装置 | |
CN113822352A (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN111652790A (zh) | 一种亚像素图像配准方法 | |
Zeng et al. | Nearest neighbor based digital restoration of damaged ancient Chinese paintings | |
CN108537832A (zh) | 基于局部不变灰度特征的图像配准方法、图像处理系统 | |
CN113899349B (zh) | 海浪参数检测方法、设备及存储介质 | |
CN104463896B (zh) | 基于核相似区分布特性的图像角点检测方法及系统 | |
CN117152622B (zh) | 边界优化模型训练、边界优化方法、装置、设备及介质 | |
Mungmode et al. | A modified high frequency adaptive security approach using steganography for region selection based on threshold value | |
CN117036715A (zh) | 一种基于卷积神经网络的形变区边界自动提取方法 | |
CN117422619A (zh) | 图像重建模型的训练方法、图像重建方法、装置及设备 | |
CN113591740B (zh) | 基于深度学习的复杂河流环境下泥沙颗粒识别方法及装置 | |
CN115965796A (zh) | 一种基于图像识别的金属锈蚀检测方法及系统 | |
CN110189273A (zh) | 一种基于重抽样的隐藏图像修复方法 | |
CN112819823B (zh) | 一种面向家具板材的圆孔检测方法、系统及装置 | |
CN105678704B (zh) | 一种基于视觉感知的非局部中值盲降噪方法 | |
Jia et al. | Fractional‐integral‐operator‐based improved SVM for filtering salt‐and‐pepper noise | |
Mungmode et al. | An Enhanced Edge Adaptive Steganography Approach using Threshold Value for Region Selection | |
CN113658180A (zh) | 一种基于空间上下文引导的表面缺陷区域分割方法和装置 | |
CN108805786B (zh) | 基于最低有效位匹配隐写分析方法及装置 | |
CN115147420B (zh) | 切片间相关度检测模型训练方法、检测方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |