CN112785542A - 遥感影像转换网络地图方法、装置、计算机设备和介质 - Google Patents
遥感影像转换网络地图方法、装置、计算机设备和介质 Download PDFInfo
- Publication number
- CN112785542A CN112785542A CN202110186838.4A CN202110186838A CN112785542A CN 112785542 A CN112785542 A CN 112785542A CN 202110186838 A CN202110186838 A CN 202110186838A CN 112785542 A CN112785542 A CN 112785542A
- Authority
- CN
- China
- Prior art keywords
- network
- generator
- remote sensing
- sensing image
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000006243 chemical reaction Methods 0.000 claims abstract description 41
- 230000006870 function Effects 0.000 claims description 95
- 230000004927 fusion Effects 0.000 claims description 76
- 230000003044 adaptive effect Effects 0.000 claims description 45
- 238000013507 mapping Methods 0.000 claims description 40
- 230000003042 antagnostic effect Effects 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 14
- 125000004122 cyclic group Chemical group 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及一种遥感影像转换网络地图方法、装置、计算机设备和介质。所述方法包括:通过第一对抗网络模型,进行粗转换,在低分辨率下使得转换的地图更加自然,然后通过第二对抗网络模型,进行精转换,使得最终生成的地图更加准确,并且引入对抗学习、距离一致性以及循环一致性,使得可以进行无监督学习。采用本方法即能够使得生成网络地图更加自然,也可以使得生成网络地图的准确度提高。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种遥感影像转换网络地图方法、装置、计算机设备和介质。
背景技术
地图作为一个重要的媒介帮助我们理解赖以生存的环境的变换,近年来,利用遥感影像生成和更新地图已成为地理信息领域一个重要而富有挑战性的课题。传统的地图生成方法耗时耗力;此外,大多数用于地图生成的有监督学习方法缺乏标记的训练样本。为地震、火灾或海啸等紧急救援行动快速提供地图是一项挑战。
传统网络地图生成方式之一是依赖于遥感影像制图,另外是基于GAN的图像生成技术,通过遥感影像制图进行网络地图绘制,虽然可以准确的绘制现有的网络地图,但是工序复杂,时间消耗比较大,准确性不足,需要大量人工干预,耗费大量的人力物力,难以适应应急地理信息保障任务。虽然通过遥感影像提取地理要素已成为常态,但是目前尚不存在一个软件或者研究机构可以实现从遥感影像到地理要素的全自动提取。
发明内容
基于此,有必要针对上述技术问题,提供一种能够解决传统方式构建网络地图效率低问题的遥感影像转换网络地图方法、装置、计算机设备和介质。。
一种遥感影像转换网络地图方法,所述方法包括:
构建第一对抗网络模型;所述第一对抗网络模型:第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络;
获取原始遥感影像构建训练样本,将所述训练样本中第一原始遥感影像和第二原始遥感影像输入第一生成器网络得到第一网络地图和第二网络地图;其中,第一原始遥感影像和第二原始遥感影像之间的距离与第一网络地图和第二网络地图之间的距离满足距离一致性;
将所述第一网络地图分别输入第二生成器网络和第一判别器网络,分别得到第一遥感影像和第一判别结果;所述第一遥感影像与所述第一原始遥感影像之间满足第一循环一致性;
将所述第一遥感影像输入第二判别器,得到第二判别结果;
根据所述距离一致性、所述循环一致性、所述第一判别结果和所述第二判别结果构建第一损失函数,利用第一损失函数进行对抗学习得到训练好的第一对抗网络模型,并输出第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络的网络参数;
构建第二对抗网络模型;所述第二对抗网络模型包括:第一生成器网络、第二生成器网络、第三判别器网络和第四判别器网络,以及连接第一生成器网络与第三判别器网络的第三生成器网络,连接第二生成器网络与第四判别器网络的第四生成器网络;所述第三生成器网络和所述第四生成器网络均包括:生成器和自适应融合块;所述生成器的输出作为所述自适应融合块的输入;所述自适应融合块用于像素匹配;
将所述第一原始遥感影像输入第三生成器网络的自适应融合块、所述第一网络地图输入第三生成器网络的生成器以及所述第一网络地图输入第三生成器网络的自适应融合块,由第三生成器网络的自适应融合块输出第三网络地图;
将所述第三网络地图分别输入所述第二生成器、所述第四生成器网络的生成器、第四生成器网络的自适应融合块,以及将所述第一遥感影像输入第四生成器网络的生成器、所述第一遥感影像输入第四生成器网络的自适应融合块,由第四生成器网络的自适应融合块输出第二遥感影像;所述第一原始遥感影像和所述第二遥感影像之间满足第二循环一致性;
将第三网络地图输入第三判别器网络得到第三判别结果,将第二遥感影像输入第四判别器网络,得到第四判别结果;
根据所述第三判别结果、所述第四判别结果、所述第二循环一致性构以及所述距离一致性建第二损失函数,利用第二损失函数对第二对抗网络模型进行对抗学习得到训练好的第二对抗网络模型;
将待转换遥感影像输入训练好的第二对抗网络模型,输出网络地图。
在其中一个实施例中,还包括:根据所述第一生成器网络对应的第一映射关系,构建几何一致性损失函数;
根据所述第二生成器网络对应的第二映射关系和所述第一映射关系,构建第一循环一致性损失函数;
根据所述第一判别结果和所述第二判别结果,构建第一对抗损失函数;
根据所述几何一致性损失函数、所述第一循环一致性损失函数以及所述第一对抗损失函数,构建第一损失函数。
在其中一个实施例中,还包括:根据所述第三生成器网络对应的第三映射关系、所述第四生成器网络对应的第四映射关系、所述第一映射关系以及所述第二映射关系,构建第二循环一致性损失函数;
根据所述第三判别结果和所述第四判别结果,构建第二对抗损失函数;
根据所述几何一致性损失函数、所述第二循环一致性损失函数以及所述第二对抗损失函数,构建第二损失函数。
在其中一个实施例中,所述第一生成器网络、第二生成器网络、第三生成器网络以及第四生成器网络为四个不共享参数的生成器网络;所述生成器网络由编译器和解码器构建的U-net网络。
在其中一个实施例中,所述U-net网络中的解码器的输入端与输出端依次连接,排序最后的解码器包括上采样层和卷积层,其他解码器包括反卷积层。
在其中一个实施例中,所述解码器为patch级解码器。
在其中一个实施例中,所述U-net网络中同一层的编译器的输出端连接解码器的输入端。
一种遥感影像转换网络地图装置,所述装置包括:
粗转换训练模块,用于构建第一对抗网络模型;所述第一对抗网络模型:第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络;获取原始遥感影像构建训练样本,将所述训练样本中第一原始遥感影像和第二原始遥感影像输入第一生成器网络得到第一网络地图和第二网络地图;其中,第一原始遥感影像和第二原始遥感影像之间的距离与第一网络地图和第二网络地图之间的距离满足距离一致性;将所述第一网络地图分别输入第二生成器网络和第一判别器网络,分别得到第一遥感影像和第一判别结果;所述第一遥感影像与所述第一原始遥感影像之间满足第一循环一致性;将所述第一遥感影像输入第二判别器,得到第二判别结果;根据所述距离一致性、所述循环一致性、所述第一判别结果和所述第二判别结果构建第一损失函数,利用第一损失函数进行对抗学习得到训练好的第一对抗网络模型,并输出第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络的网络参数;
精转换训练模块,用于构建第二对抗网络模型;所述第二对抗网络模型包括:第一生成器网络、第二生成器网络、第三判别器网络和第四判别器网络,以及连接第一生成器网络与第三判别器网络的第三生成器网络,连接第二生成器网络与第四判别器网络的第四生成器网络;所述第三生成器网络和所述第四生成器网络均包括:生成器和自适应融合块;所述生成器的输出作为所述自适应融合块的输入;所述自适应融合块用于像素匹配;将所述第一原始遥感影像输入第三生成器网络的自适应融合块、所述第一网络地图输入第三生成器网络的生成器以及所述第一网络地图输入第三生成器网络的自适应融合块,由第三生成器网络的自适应融合块输出第三网络地图;将所述第三网络地图分别输入所述第二生成器、所述第四生成器网络的生成器、第四生成器网络的自适应融合块,以及将所述第一遥感影像输入第四生成器网络的生成器、所述第一遥感影像输入第四生成器网络的自适应融合块,由第四生成器网络的自适应融合块输出第二遥感影像;所述第一原始遥感影像和所述第二遥感影像之间满足第二循环一致性;将第三网络地图输入第三判别器网络得到第三判别结果,将第二遥感影像输入第四判别器网络,得到第四判别结果;根据所述第三判别结果、所述第四判别结果、所述第二循环一致性构以及所述距离一致性建第二损失函数,利用第二损失函数对第二对抗网络模型进行对抗学习得到训练好的第二对抗网络模型;
输出模块,用于将待转换遥感影像输入训练好的第二对抗网络模型,输出网络地图。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
构建第一对抗网络模型;所述第一对抗网络模型:第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络;
获取原始遥感影像构建训练样本,将所述训练样本中第一原始遥感影像和第二原始遥感影像输入第一生成器网络得到第一网络地图和第二网络地图;其中,第一原始遥感影像和第二原始遥感影像之间的距离与第一网络地图和第二网络地图之间的距离满足距离一致性;
将所述第一网络地图分别输入第二生成器网络和第一判别器网络,分别得到第一遥感影像和第一判别结果;所述第一遥感影像与所述第一原始遥感影像之间满足第一循环一致性;
将所述第一遥感影像输入第二判别器,得到第二判别结果;
根据所述距离一致性、所述循环一致性、所述第一判别结果和所述第二判别结果构建第一损失函数,利用第一损失函数进行对抗学习得到训练好的第一对抗网络模型,并输出第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络的网络参数;
构建第二对抗网络模型;所述第二对抗网络模型包括:第一生成器网络、第二生成器网络、第三判别器网络和第四判别器网络,以及连接第一生成器网络与第三判别器网络的第三生成器网络,连接第二生成器网络与第四判别器网络的第四生成器网络;所述第三生成器网络和所述第四生成器网络均包括:生成器和自适应融合块;所述生成器的输出作为所述自适应融合块的输入;所述自适应融合块用于像素匹配;
将所述第一原始遥感影像输入第三生成器网络的自适应融合块、所述第一网络地图输入第三生成器网络的生成器以及所述第一网络地图输入第三生成器网络的自适应融合块,由第三生成器网络的自适应融合块输出第三网络地图;
将所述第三网络地图分别输入所述第二生成器、所述第四生成器网络的生成器、第四生成器网络的自适应融合块,以及将所述第一遥感影像输入第四生成器网络的生成器、所述第一遥感影像输入第四生成器网络的自适应融合块,由第四生成器网络的自适应融合块输出第二遥感影像;所述第一原始遥感影像和所述第二遥感影像之间满足第二循环一致性;
将第三网络地图输入第三判别器网络得到第三判别结果,将第二遥感影像输入第四判别器网络,得到第四判别结果;
根据所述第三判别结果、所述第四判别结果、所述第二循环一致性构以及所述距离一致性建第二损失函数,利用第二损失函数对第二对抗网络模型进行对抗学习得到训练好的第二对抗网络模型;
将待转换遥感影像输入训练好的第二对抗网络模型,输出网络地图。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
构建第一对抗网络模型;所述第一对抗网络模型:第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络;
获取原始遥感影像构建训练样本,将所述训练样本中第一原始遥感影像和第二原始遥感影像输入第一生成器网络得到第一网络地图和第二网络地图;其中,第一原始遥感影像和第二原始遥感影像之间的距离与第一网络地图和第二网络地图之间的距离满足距离一致性;
将所述第一网络地图分别输入第二生成器网络和第一判别器网络,分别得到第一遥感影像和第一判别结果;所述第一遥感影像与所述第一原始遥感影像之间满足第一循环一致性;
将所述第一遥感影像输入第二判别器,得到第二判别结果;
根据所述距离一致性、所述循环一致性、所述第一判别结果和所述第二判别结果构建第一损失函数,利用第一损失函数进行对抗学习得到训练好的第一对抗网络模型,并输出第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络的网络参数;
构建第二对抗网络模型;所述第二对抗网络模型包括:第一生成器网络、第二生成器网络、第三判别器网络和第四判别器网络,以及连接第一生成器网络与第三判别器网络的第三生成器网络,连接第二生成器网络与第四判别器网络的第四生成器网络;所述第三生成器网络和所述第四生成器网络均包括:生成器和自适应融合块;所述生成器的输出作为所述自适应融合块的输入;所述自适应融合块用于像素匹配;
将所述第一原始遥感影像输入第三生成器网络的自适应融合块、所述第一网络地图输入第三生成器网络的生成器以及所述第一网络地图输入第三生成器网络的自适应融合块,由第三生成器网络的自适应融合块输出第三网络地图;
将所述第三网络地图分别输入所述第二生成器、所述第四生成器网络的生成器、第四生成器网络的自适应融合块,以及将所述第一遥感影像输入第四生成器网络的生成器、所述第一遥感影像输入第四生成器网络的自适应融合块,由第四生成器网络的自适应融合块输出第二遥感影像;所述第一原始遥感影像和所述第二遥感影像之间满足第二循环一致性;
将第三网络地图输入第三判别器网络得到第三判别结果,将第二遥感影像输入第四判别器网络,得到第四判别结果;
根据所述第三判别结果、所述第四判别结果、所述第二循环一致性构以及所述距离一致性建第二损失函数,利用第二损失函数对第二对抗网络模型进行对抗学习得到训练好的第二对抗网络模型;
将待转换遥感影像输入训练好的第二对抗网络模型,输出网络地图。
上述遥感影像转换网络地图方法、装置、计算机设备和介质,首先通过第一对抗网络模型进行无监督学习,进行遥感影像的粗转换,然后将粗转换的结果应用到第二对抗网络模型中,通过像素匹配,实现遥感影像的精转换,把循环一致性和几何一致性约束作为转换模型的损失函数的一部分,可以提高地图生成的真实度和几何精度。
附图说明
图1为一个实施例中遥感影像转换网络地图方法的流程示意图;
图2为一个实施例中第一对抗网络模型的结构示意图;
图3为一个实施例中第二对抗网络模型的结构示意图;
图4为一个实施例中生成器的示意性结构图;
图5为一个实施例中编码器的示意性结构图;
图6为一个实施例中解码器的示意性结构图;
图7为另一个实施例中解码器的示意性结构图;
图8为一个实施例中遥感影像转换网络地图装置的结构框图;
图9为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种遥感影像转换网络地图方法,包括以下步骤:
步骤102,构建第一对抗网络模型,获取原始遥感影像构建训练样本,将训练样本中第一原始遥感影像和第二原始遥感影像输入第一生成器网络得到第一网络地图和第二网络地图,将第一网络地图分别输入第二生成器网络和第一判别器网络,分别得到第一遥感影像和第一判别结果,将第一遥感影像输入第二判别器,得到第二判别结果,根据距离一致性、循环一致性、第一判别结果和第二判别结果构建第一损失函数,利用第一损失函数进行对抗学习得到训练好的第一对抗网络模型,并输出第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络的网络参数。
第一对抗网络模型:第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络。在对抗网络中,包含生成器和判别器,生成器通过映射进行输入数据的转换,判别器判断转换得到数据的真实性,通过二者之间的对抗学习,可以最终使得转换的数据达到预期。
原始遥感影像指的是通过遥感技术获取的影像,训练样本可以是网络上获取的遥感影像,也可以是本地数据库中获取的遥感影像。
第一遥感影像与第一原始遥感影像之间满足第一循环一致性。第一原始遥感影像和第二原始遥感影像之间的距离与第一网络地图和第二网络地图之间的距离满足距离一致性。
生成器是神经网络构成,因此,在由遥感影像生成网络地图时,实际是进行一次映射,因此,定义第一生成器对应第一映射关系和第二生成器对应第二映射关系。
为了便于表述,第一映射关系表示为G:X→Y、第二映射关系表示为F:Y→X。
步骤104,构建第二对抗网络模型,将第一原始遥感影像输入第三生成器网络的自适应融合块、第一网络地图输入第三生成器网络的生成器以及第一网络地图输入第三生成器网络的自适应融合块,由第三生成器网络的自适应融合块输出第三网络地图,将第三网络地图分别输入第二生成器、第四生成器网络的生成器、第四生成器网络的自适应融合块,以及将第一遥感影像输入第四生成器网络的生成器、第一遥感影像输入第四生成器网络的自适应融合块,由第四生成器网络的自适应融合块输出第二遥感影像,将第三网络地图输入第三判别器网络得到第三判别结果,将第二遥感影像输入第四判别器网络,得到第四判别结果,根据第三判别结果、第四判别结果、第二循环一致性构以及距离一致性建第二损失函数,利用第二损失函数对第二对抗网络模型进行对抗学习得到训练好的第二对抗网络模型。
第二对抗网络模型包括:第一生成器网络、第二生成器网络、第三判别器网络和第四判别器网络,以及连接第一生成器网络与第三判别器网络的第三生成器网络,连接第二生成器网络与第四判别器网络的第四生成器网络;第三生成器网络和第四生成器网络均包括:生成器和自适应融合块;生成器的输出作为自适应融合块的输入;自适应融合块用于像素匹配,第一原始遥感影像和所述第二遥感影像之间满足第二循环一致性。
步骤106,将待转换遥感影像输入训练好的第二对抗网络模型,输出网络地图。
上述遥感影像转换网络地图方法中,首先通过第一对抗网络模型进行无监督学习,进行遥感影像的粗转换,然后将粗转换的结果应用到第二对抗网络模型中,通过像素匹配,实现遥感影像的精转换,把循环一致性和几何一致性约束作为转换模型的损失函数的一部分,可以提高地图生成的真实度和几何精度。
在其中一个实施例中,根据第一生成器网络对应的第一映射关系,构建几何一致性损失函数;根据第二生成器网络对应的第二映射关系和第一映射关系,构建第一循环一致性损失函数;根据第一判别结果和第二判别结果,构建第一对抗损失函数;根据几何一致性损失函数、第一循环一致性损失函数以及第一对抗损失函数,构建第一损失函数。
如图2所示,提供一种第一对抗网络模型的示意性结构图,以下以图2为基础对本发明粗转换的实施例进行说明。
粗转换:基础训练
粗转换的模块采用循环一致性和距离限制,由两个生成器网络G1和F1以及两个判别器网络DX1,DY1组成。粗转换是在低分辨率图像域X↓和Y↓进行训练的。图2中实箭头表示输入输出,虚线箭头表示损失。
对抗损失给定遥感影像的样本X∈X↓,G1将遥感影像转换为网络地图域Y↓中的样本一方面,判别器DY1学习生成样本的真实性,若判断为生成图像,将其分类为0,若判断为真实图像,则将其分类为1。另一方面,G1通过生成越来越真实的样本来蒙蔽DY1。此过程可表述为对抗损失:
当判别器DY1试图最大化Lgan时,生成器G1试图最小化Lgan。同样地,对于生成器F1将网络地图转换成遥感影像,对抗损失可表示为:
粗转换的总体对抗损失为:
循环损失
同样地,对于样本Y1∈Y↓,使用F1进行网络地图到遥感影像的转换,使用DX1计算对抗损失,然后使用G1反向计算循环一致损失:
阶段1的总体循环损失为:
Lcyc_total=Lcyc(G1,F1,X↓)+Lcyc(F1,G1,Y↓)
距离损失
为了提高第一阶段生成网络地图的准确性,在阶段1网络中同时加入了距离限制。距离限制可解释为两个X域的样本Xi和Xj映射到Y域后,应满足d(Xi,Xj)≈a·d(G1(Xi),G1(Xj))+b。
d(·)是一个预定义的函数来衡量两个样本之间的距离,a和b是线性系数和偏移值。距离损失可表示为:
其中:
μX,μY(σX,σY)是X域和Y域中,所有可能的样本对(Xi,Xj),(Yi,Yj)的距离平均值(标准差)。
总目标函数
最后,阶段1中的总目标函数是对抗损失、循环一致性损失和距离损失的结合:
Lstage1=Lgan_total+λLcyc_total+δLdis(X↓,Y↓)
其中λ为循环一致性损失的权重,δ为距离损失的权重。
具体的,地图生成模型的原理可以概括为将一种图像转换为另一种图像。例如对于生成器X→Y来说,其目标是将遥感图像X域的样本转换为网络地图域中的样本Y。因此,网络的目标是学习X到Y的映射,并将这个映射设置在生成器X→Y上。对于生成的图像,还需要判别器X来判断它是否是真实的图像以此来组成一个对抗性的生成网络。生成器X→Y的目的是最小化目标函数来对抗试图最大化目标函数的判别器X。
在其中一个实施例中,根据第三生成器网络对应的第三映射关系、第四生成器网络对应的第四映射关系、第一映射关系以及第二映射关系,构建第二循环一致性损失函数;根据第三判别结果和所述第四判别结果,构建第二对抗损失函数;根据几何一致性损失函数、第二循环一致性损失函数以及第二对抗损失函数,构建第二损失函数。
具体的,如图3所示,提供一种第二对抗网络模型的示意性结构图,以下以图3为基础对本发明精转换的实施例进行说明。
由于粗转换的学习能力有限,像地图这类的复杂图像翻译很难学习,粗转换的网络地图转换输出看似合理,但仍有很大的改进空间。为精细化粗转换的输出,使用精转换的模型,以完成完整的网络地图转换,从而产生更高分辨率和更精细的结果。
精转换阶段由两个生成器网络G2、F2和两个判别器网络DX2、DY2组成,如图3所示。以下只描述G2的流程,因为F2与G2共享相同的结构。
G2由两个部分组成:一个新的初始化图像生成器网络G2和一个自适应融合块给定粗转换的输出使用最接近的上采样来调整它的大小,以匹配原始分辨率。粗转换中的图像生成网络只以Xi∈X作为输入,精转换中同时使用了当前阶段的输入X和前一阶段的输出具体地,沿着通道尺寸连接和X,并利用得到精细的结果
与粗转换类似,精转换的目标函数结合了对抗损失、循环一致性损失和距离损失:
生成器网络G2和F2通过纠正缺陷并添加细节来细化粗转换输出的结果。通过结合粗转换和精转换中的转换器,最终可以训练出将遥感影像转换成网络地图的生成器G,完成了在无监督的环境下图像到图像的转换。
如图4所示,以编译器和解码器均为5个为例,基于此,对本发明实施例进行说明。
生成器采用改进的U-net网络结构,引入残差网络和归一化处理。将U-net网络与残差网络相结合,有助于提高区域识别的准确性。
对地图翻译任务,需使用低级别的细节信息来保持高水平语义信息。众所周知,残差网络是用来训练更深层次网络的。更深层次的网络可以提高性能,但可能会阻碍训练,导致退化问题,而U-net被广泛认可具有更好地识别能力。U-net网络与残差块的组合可以促进几何结构信息的传播而不退化,在减少参数的情况下获得更好的性能。
在图4中,可以看出地图生成器的结构中有两个不可忽略的特征:一是U型结构,二是在相应的层中增加跳跃连接。此网络分为收缩网络和扩展网络。该收缩网络有五个编码器块,用于获取高级语义信息。输入图像大小为256×256,经过5次向下采样,图像大小为8×8。此外,解码器块自然地恢复相关的五个编码器块的分辨率,输出图像的大小最终返回到256×256。为减少空间信息下采样过程造成的损失,引入了跳跃连接层,使地图生成器可以捕捉到丰富的地理结构信息如建筑、道路、植被等。
具体的,如图5所示,将两个基本块组合成带有残差学习的编码器块,对每一层的输出进行归一化,然后通过激活函数进行激活。
在其中一个实施例中,U-net网络中的解码器的输入端与输出端依次连接,排序最后的解码器包括上采样层和卷积层,其他解码器包括反卷积层。
如图6所示,解码器块1到4包含一个反卷积层,卷积核为2×2,步长为2,还有一个卷积核大小为3×3、步长为1的全连接层。最后一个解码器块5由比例因子为2.0的上采样层和卷积核尺寸为3×3的两个卷积层组成,如图7所示。解码器块的每一层通过反卷积逐步恢复图像的位置信息,并与编码器块所对应的原始特征相结合。
在其中一个实施例中,解码器为patch级解码器。
地图转换模型由四个不共享参数的判别器组成。判别器将图像作为输入,并试图预测输入图像为原始图像还是生成器的生成的图像。通过增加卷积层,判别器的输出为预测概率值,以表明输入是否为真实图像。概率值越接近1,判别器越能判定输入为真实图像。
为了更好的区分图像的语义信息,地图生成模型的判别器后对图像进行patch级(70×70)的区分。其目标是分类70×70patch重叠的图像是真实的还是假的。这种patch级判别器结构比全图像判别器具有更少的参数,可以以完全卷积的方式处理任何大小的图像。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,提供了一种遥感影像转换网络地图装置,包括:粗转换训练模块802、精转换训练模块804和输出模块806,其中:
粗转换训练模块802,用于构建第一对抗网络模型;所述第一对抗网络模型:第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络;获取原始遥感影像构建训练样本,将所述训练样本中第一原始遥感影像和第二原始遥感影像输入第一生成器网络得到第一网络地图和第二网络地图;其中,第一原始遥感影像和第二原始遥感影像之间的距离与第一网络地图和第二网络地图之间的距离满足距离一致性;将所述第一网络地图分别输入第二生成器网络和第一判别器网络,分别得到第一遥感影像和第一判别结果;所述第一遥感影像与所述第一原始遥感影像之间满足第一循环一致性;将所述第一遥感影像输入第二判别器,得到第二判别结果;根据所述距离一致性、所述循环一致性、所述第一判别结果和所述第二判别结果构建第一损失函数,利用第一损失函数进行对抗学习得到训练好的第一对抗网络模型,并输出第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络的网络参数;
精转换训练模块804,用于构建第二对抗网络模型;所述第二对抗网络模型包括:第一生成器网络、第二生成器网络、第三判别器网络和第四判别器网络,以及连接第一生成器网络与第三判别器网络的第三生成器网络,连接第二生成器网络与第四判别器网络的第四生成器网络;所述第三生成器网络和所述第四生成器网络均包括:生成器和自适应融合块;所述生成器的输出作为所述自适应融合块的输入;所述自适应融合块用于像素匹配;将所述第一原始遥感影像输入第三生成器网络的自适应融合块、所述第一网络地图输入第三生成器网络的生成器以及所述第一网络地图输入第三生成器网络的自适应融合块,由第三生成器网络的自适应融合块输出第三网络地图;将所述第三网络地图分别输入所述第二生成器、所述第四生成器网络的生成器、第四生成器网络的自适应融合块,以及将所述第一遥感影像输入第四生成器网络的生成器、所述第一遥感影像输入第四生成器网络的自适应融合块,由第四生成器网络的自适应融合块输出第二遥感影像;所述第一原始遥感影像和所述第二遥感影像之间满足第二循环一致性;将第三网络地图输入第三判别器网络得到第三判别结果,将第二遥感影像输入第四判别器网络,得到第四判别结果;根据所述第三判别结果、所述第四判别结果、所述第二循环一致性构以及所述距离一致性建第二损失函数,利用第二损失函数对第二对抗网络模型进行对抗学习得到训练好的第二对抗网络模型;
输出模块806,用于将待转换遥感影像输入训练好的第二对抗网络模型,输出网络地图。
在其中一个是实施例中,粗转换训练模块802还用于根据所述第一生成器网络对应的第一映射关系,构建几何一致性损失函数;根据所述第二生成器网络对应的第二映射关系和所述第一映射关系,构建第一循环一致性损失函数;根据所述第一判别结果和所述第二判别结果,构建第一对抗损失函数;根据所述几何一致性损失函数、所述第一循环一致性损失函数以及所述第一对抗损失函数,构建第一损失函数。
在其中一个是实施例中,精转换训练模块804还用于根据所述第三生成器网络对应的第三映射关系、所述第四生成器网络对应的第四映射关系、所述第一映射关系以及所述第二映射关系,构建第二循环一致性损失函数;根据所述第三判别结果和所述第四判别结果,构建第二对抗损失函数;根据所述几何一致性损失函数、所述第二循环一致性损失函数以及所述第二对抗损失函数,构建第二损失函数。
在其中一个实施例中,所述第一生成器网络、第二生成器网络、第三生成器网络以及第四生成器网络为四个不共享参数的生成器网络;所述生成器网络由编译器和解码器构建的U-net网络。
在其中一个实施例中,所述U-net网络中的解码器的输入端与输出端依次连接,排序最后的解码器包括上采样层和卷积层,其他解码器包括反卷积层。
在其中一个实施例中,所述解码器为patch级解码器。
在其中一个实施例中,所述U-net网络中同一层的编译器的输出端连接解码器的输入端。
关于遥感影像转换网络地图装置的具体限定可以参见上文中对于遥感影像转换网络地图方法的限定,在此不再赘述。上述遥感影像转换网络地图装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储原始遥感影像数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种遥感影像转换网络地图方法。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述实施例中方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种遥感影像转换网络地图方法,其特征在于,所述方法包括:
构建第一对抗网络模型;所述第一对抗网络模型:第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络;
获取原始遥感影像构建训练样本,将所述训练样本中第一原始遥感影像和第二原始遥感影像输入第一生成器网络得到第一网络地图和第二网络地图;其中,第一原始遥感影像和第二原始遥感影像之间的距离与第一网络地图和第二网络地图之间的距离满足距离一致性;
将所述第一网络地图分别输入第二生成器网络和第一判别器网络,分别得到第一遥感影像和第一判别结果;所述第一遥感影像与所述第一原始遥感影像之间满足第一循环一致性;
将所述第一遥感影像输入第二判别器,得到第二判别结果;
根据所述距离一致性、所述循环一致性、所述第一判别结果和所述第二判别结果构建第一损失函数,利用第一损失函数进行对抗学习得到训练好的第一对抗网络模型,并输出第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络的网络参数;
构建第二对抗网络模型;所述第二对抗网络模型包括:第一生成器网络、第二生成器网络、第三判别器网络和第四判别器网络,以及连接第一生成器网络与第三判别器网络的第三生成器网络,连接第二生成器网络与第四判别器网络的第四生成器网络;所述第三生成器网络和所述第四生成器网络均包括:生成器和自适应融合块;所述生成器的输出作为所述自适应融合块的输入;所述自适应融合块用于像素匹配;
将所述第一原始遥感影像输入第三生成器网络的自适应融合块、所述第一网络地图输入第三生成器网络的生成器以及所述第一网络地图输入第三生成器网络的自适应融合块,由第三生成器网络的自适应融合块输出第三网络地图;
将所述第三网络地图分别输入所述第二生成器、所述第四生成器网络的生成器、第四生成器网络的自适应融合块,以及将所述第一遥感影像输入第四生成器网络的生成器、所述第一遥感影像输入第四生成器网络的自适应融合块,由第四生成器网络的自适应融合块输出第二遥感影像;所述第一原始遥感影像和所述第二遥感影像之间满足第二循环一致性;
将第三网络地图输入第三判别器网络得到第三判别结果,将第二遥感影像输入第四判别器网络,得到第四判别结果;
根据所述第三判别结果、所述第四判别结果、所述第二循环一致性构以及所述距离一致性建第二损失函数,利用第二损失函数对第二对抗网络模型进行对抗学习得到训练好的第二对抗网络模型;
将待转换遥感影像输入训练好的第二对抗网络模型,输出网络地图。
2.根据权利要求1所述的方法,其特征在于,根据所述距离一致性、所述循环一致性、所述第一判别结果和所述第二判别结果构建第一损失函数,包括:
根据所述第一生成器网络对应的第一映射关系,构建几何一致性损失函数;
根据所述第二生成器网络对应的第二映射关系和所述第一映射关系,构建第一循环一致性损失函数;
根据所述第一判别结果和所述第二判别结果,构建第一对抗损失函数;
根据所述几何一致性损失函数、所述第一循环一致性损失函数以及所述第一对抗损失函数,构建第一损失函数。
3.根据权利要求2所述的方法,其特征在于,根据所述第三判别结果、所述第四判别结果、所述第二循环一致性以及所述距离一致性构建第二损失函数,包括:
根据所述第三生成器网络对应的第三映射关系、所述第四生成器网络对应的第四映射关系、所述第一映射关系以及所述第二映射关系,构建第二循环一致性损失函数;
根据所述第三判别结果和所述第四判别结果,构建第二对抗损失函数;
根据所述几何一致性损失函数、所述第二循环一致性损失函数以及所述第二对抗损失函数,构建第二损失函数。
4.根据1所述的方法,其特征在于,所述第一生成器网络、第二生成器网络、第三生成器网络以及第四生成器网络为四个不共享参数的生成器网络;
所述生成器网络由编译器和解码器构建的U-net网络。
5.根据权利要求4所述的方法,其特征在于,所述U-net网络中的解码器的输入端与输出端依次连接,排序最后的解码器包括上采样层和卷积层,其他解码器包括反卷积层。
6.根据权利要求4所述的方法,其特征在于,所述解码器为patch级解码器。
7.根据权利要求4所述的方法,其特征在于,所述U-net网络中同一层的编译器的输出端连接解码器的输入端。
8.一种遥感影像转换网络地图装置,其特征在于,所述装置包括:
粗转换训练模块,用于构建第一对抗网络模型;所述第一对抗网络模型:第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络;获取原始遥感影像构建训练样本,将所述训练样本中第一原始遥感影像和第二原始遥感影像输入第一生成器网络得到第一网络地图和第二网络地图;其中,第一原始遥感影像和第二原始遥感影像之间的距离与第一网络地图和第二网络地图之间的距离满足距离一致性;将所述第一网络地图分别输入第二生成器网络和第一判别器网络,分别得到第一遥感影像和第一判别结果;所述第一遥感影像与所述第一原始遥感影像之间满足第一循环一致性;将所述第一遥感影像输入第二判别器,得到第二判别结果;根据所述距离一致性、所述循环一致性、所述第一判别结果和所述第二判别结果构建第一损失函数,利用第一损失函数进行对抗学习得到训练好的第一对抗网络模型,并输出第一生成器网络、第二生成器网络、第一判别器网络和第二判别器网络的网络参数;
精转换训练模块,用于构建第二对抗网络模型;所述第二对抗网络模型包括:第一生成器网络、第二生成器网络、第三判别器网络和第四判别器网络,以及连接第一生成器网络与第三判别器网络的第三生成器网络,连接第二生成器网络与第四判别器网络的第四生成器网络;所述第三生成器网络和所述第四生成器网络均包括:生成器和自适应融合块;所述生成器的输出作为所述自适应融合块的输入;所述自适应融合块用于像素匹配;将所述第一原始遥感影像输入第三生成器网络的自适应融合块、所述第一网络地图输入第三生成器网络的生成器以及所述第一网络地图输入第三生成器网络的自适应融合块,由第三生成器网络的自适应融合块输出第三网络地图;将所述第三网络地图分别输入所述第二生成器、所述第四生成器网络的生成器、第四生成器网络的自适应融合块,以及将所述第一遥感影像输入第四生成器网络的生成器、所述第一遥感影像输入第四生成器网络的自适应融合块,由第四生成器网络的自适应融合块输出第二遥感影像;所述第一原始遥感影像和所述第二遥感影像之间满足第二循环一致性;将第三网络地图输入第三判别器网络得到第三判别结果,将第二遥感影像输入第四判别器网络,得到第四判别结果;根据所述第三判别结果、所述第四判别结果、所述第二循环一致性构以及所述距离一致性建第二损失函数,利用第二损失函数对第二对抗网络模型进行对抗学习得到训练好的第二对抗网络模型;
输出模块,用于将待转换遥感影像输入训练好的第二对抗网络模型,输出网络地图。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110186838.4A CN112785542B (zh) | 2021-02-07 | 2021-02-07 | 遥感影像转换网络地图方法、装置、计算机设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110186838.4A CN112785542B (zh) | 2021-02-07 | 2021-02-07 | 遥感影像转换网络地图方法、装置、计算机设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112785542A true CN112785542A (zh) | 2021-05-11 |
CN112785542B CN112785542B (zh) | 2022-09-09 |
Family
ID=75761534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110186838.4A Active CN112785542B (zh) | 2021-02-07 | 2021-02-07 | 遥感影像转换网络地图方法、装置、计算机设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112785542B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113204608A (zh) * | 2021-05-27 | 2021-08-03 | 广州大学 | 一种基于遥感影像的地图自动更新方法、存储介质及系统 |
CN113704372A (zh) * | 2021-08-18 | 2021-11-26 | 中国人民解放军国防科技大学 | 基于深度对抗网络的遥感影像转换地图迁移方法和装置 |
CN114332181A (zh) * | 2021-12-29 | 2022-04-12 | 中国人民解放军国防科技大学 | 基于非刚性双向配准网络的遥感影像自动配准方法和装置 |
CN117422787A (zh) * | 2023-12-18 | 2024-01-19 | 中国人民解放军国防科技大学 | 一种融合判别式和生成式模型的遥感影像转换地图方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110544239A (zh) * | 2019-08-19 | 2019-12-06 | 中山大学 | 基于条件生成对抗网络的多模态mri转换方法、系统及介质 |
JP2020119554A (ja) * | 2019-01-28 | 2020-08-06 | 株式会社ストラドビジョンStradvision,Inc. | 仮想走行の環境で使用されるドメイン適応に適用され得るganを利用して、リアル特徴マップと同一または類似する特性を有するバーチャル特徴マップを生成する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 |
CN111695276A (zh) * | 2020-05-11 | 2020-09-22 | 东南大学 | 基于生成对抗学习的有限元模型代理建模方法 |
CN112270648A (zh) * | 2020-09-24 | 2021-01-26 | 清华大学 | 基于循环对抗网络的无监督图像变换方法及装置 |
-
2021
- 2021-02-07 CN CN202110186838.4A patent/CN112785542B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020119554A (ja) * | 2019-01-28 | 2020-08-06 | 株式会社ストラドビジョンStradvision,Inc. | 仮想走行の環境で使用されるドメイン適応に適用され得るganを利用して、リアル特徴マップと同一または類似する特性を有するバーチャル特徴マップを生成する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 |
CN110544239A (zh) * | 2019-08-19 | 2019-12-06 | 中山大学 | 基于条件生成对抗网络的多模态mri转换方法、系统及介质 |
CN111695276A (zh) * | 2020-05-11 | 2020-09-22 | 东南大学 | 基于生成对抗学习的有限元模型代理建模方法 |
CN112270648A (zh) * | 2020-09-24 | 2021-01-26 | 清华大学 | 基于循环对抗网络的无监督图像变换方法及装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113204608A (zh) * | 2021-05-27 | 2021-08-03 | 广州大学 | 一种基于遥感影像的地图自动更新方法、存储介质及系统 |
CN113704372A (zh) * | 2021-08-18 | 2021-11-26 | 中国人民解放军国防科技大学 | 基于深度对抗网络的遥感影像转换地图迁移方法和装置 |
CN113704372B (zh) * | 2021-08-18 | 2024-02-06 | 中国人民解放军国防科技大学 | 基于深度对抗网络的遥感影像转换地图迁移方法和装置 |
CN114332181A (zh) * | 2021-12-29 | 2022-04-12 | 中国人民解放军国防科技大学 | 基于非刚性双向配准网络的遥感影像自动配准方法和装置 |
CN114332181B (zh) * | 2021-12-29 | 2024-02-20 | 中国人民解放军国防科技大学 | 基于非刚性双向配准网络的遥感影像自动配准方法和装置 |
CN117422787A (zh) * | 2023-12-18 | 2024-01-19 | 中国人民解放军国防科技大学 | 一种融合判别式和生成式模型的遥感影像转换地图方法 |
CN117422787B (zh) * | 2023-12-18 | 2024-03-08 | 中国人民解放军国防科技大学 | 一种融合判别式和生成式模型的遥感影像转换地图方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112785542B (zh) | 2022-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112785542B (zh) | 遥感影像转换网络地图方法、装置、计算机设备和介质 | |
CN110738090B (zh) | 使用神经网络进行端到端手写文本识别的系统和方法 | |
CN111553246B (zh) | 基于多任务对抗学习网络的汉字风格迁移方法及系统 | |
CN110188768B (zh) | 实时图像语义分割方法及系统 | |
CN108460746B (zh) | 一种基于结构和纹理分层预测的图像修复方法 | |
CN110427852B (zh) | 文字识别方法、装置、计算机设备和存储介质 | |
CN110555821A (zh) | 模型训练方法、装置和存储介质 | |
CN112132739B (zh) | 3d重建以及人脸姿态归一化方法、装置、存储介质及设备 | |
CN111325660B (zh) | 一种基于文本数据的遥感图像风格转换方法 | |
CN112036260B (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
CN112884758B (zh) | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统 | |
CN116740527A (zh) | U型网络与自注意力机制结合的遥感图像变化检测方法 | |
CN113704372B (zh) | 基于深度对抗网络的遥感影像转换地图迁移方法和装置 | |
Zhang et al. | Pqa-cnn: Towards perceptual quality assured single-image super-resolution in remote sensing | |
CN116645598A (zh) | 一种基于通道注意力特征融合的遥感图像语义分割方法 | |
CN108875611B (zh) | 视频动作识别方法和装置 | |
CN116385265B (zh) | 一种图像超分辨率网络的训练方法及装置 | |
WO2023179609A1 (zh) | 一种数据处理方法及装置 | |
CN110197226B (zh) | 一种无监督图像翻译方法及系统 | |
CN116863347A (zh) | 一种高效率和精度的遥感图像语义分割方法及应用 | |
CN116912268A (zh) | 一种皮肤病变图像分割方法、装置、设备及存储介质 | |
Guo et al. | Parsnets: A parsimonious orthogonal and low-rank linear networks for zero-shot learning | |
Tang et al. | A deep map transfer learning method for face recognition in an unrestricted smart city environment | |
US20210224947A1 (en) | Computer Vision Systems and Methods for Diverse Image-to-Image Translation Via Disentangled Representations | |
CN114331894A (zh) | 一种基于潜在特征重构和掩模感知的人脸图像修复方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |