CN115526801A - 基于条件对抗神经网络的遥感影像自动匀色方法和装置 - Google Patents
基于条件对抗神经网络的遥感影像自动匀色方法和装置 Download PDFInfo
- Publication number
- CN115526801A CN115526801A CN202211225174.9A CN202211225174A CN115526801A CN 115526801 A CN115526801 A CN 115526801A CN 202211225174 A CN202211225174 A CN 202211225174A CN 115526801 A CN115526801 A CN 115526801A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- color
- sensing image
- image block
- homogenized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 19
- 230000003042 antagnostic effect Effects 0.000 title claims abstract description 10
- 238000003062 neural network model Methods 0.000 claims abstract description 22
- 238000005520 cutting process Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000012937 correction Methods 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 102100022778 POC1 centriolar protein homolog A Human genes 0.000 claims description 3
- 101710125073 POC1 centriolar protein homolog A Proteins 0.000 claims description 3
- 230000005855 radiation Effects 0.000 abstract description 9
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 27
- 238000012549 training Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000265 homogenisation Methods 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于条件对抗神经网络的遥感影像自动匀色方法和装置,涉及图像处理的技术领域,包括:获取待匀色遥感影像和色彩模板影像,其中,色彩模板影像对应的区域范围包含待匀色遥感影像对应的区域范围;基于地理坐标,按照预设尺寸分别对待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;将待匀色遥感影像块和色彩模板影像块输入条件对抗神经网络模型,得到待匀色遥感影像块对应的目标遥感影像块,其中,目标遥感影像块为完成匀色的待匀色遥感影像块;对目标遥感影像块进行拼接,得到完成匀色的遥感影像,解决了现有的遥感影像自动匀色技术存在影像内部辐射精度不均匀或者较亮区域过饱和的技术问题。
Description
技术领域
本发明涉及图像处理的技术领域,尤其是涉及一种基于条件对抗神经网络的遥感影像自动匀色方法和装置。
背景技术
现有的影像自动匀色处理算法都是基于模板影像或者标准色彩库进行的,通过统计模板影像和待匀色影像的均值、方差、直方图等信息并进行数学模型的同化处理,以达到待匀色影像的色彩在处理后能够更加贴近模板影像的色彩。然而,现有常规匀色方法大都是采用线性模型,适用于影像内部辐射较为均匀的影像,对于内部辐射不均匀的影像,传统的自动匀色方法通常得不到理想的效果;其次,遥感影像有些地物如白色房顶等本身是有一定的纹理信息的,传统匀色方法在统计计算和使用匀色系数后,会导致本身高亮的区域过饱和,丢失了遥感影像原本的纹理信息且不可逆。
针对上述问题,还未提出有效的解决方案。
发明内容
有鉴于此,本发明的目的在于提供一种基于条件对抗神经网络的遥感影像自动匀色方法和装置,以缓解了现有的遥感影像自动匀色技术存在影像内部辐射精度不均匀或者较亮区域过饱和的技术问题。
第一方面,本发明实施例提供了一种基于条件对抗神经网络的遥感影像自动匀色方法,包括:获取待匀色遥感影像和色彩模板影像,其中,所述色彩模板影像对应的区域范围包含所述待匀色遥感影像对应的区域范围;基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,其中,所述目标遥感影像块为完成匀色的待匀色遥感影像块;对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像。
进一步地,在基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块之前,所述方法还包括:判断所述待匀色遥感影像的地理坐标与所述色彩模板影像的地理坐标之间是否存在偏差;若是,则对所述待匀色遥感影像和所述色彩模板影像进行影像集合配准处理。
进一步地,所述条件对抗神经网络模型为基于Pix2PixHD构建的条件对抗神经网络模型。
进一步地,所述条件对抗神经网络模型包括:第一生成器,第二生成器,第一鉴别器和第二鉴别器,则将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,包括:将初始待匀色遥感影像块所述第一生成器,得到初始遥感影像块,其中,所述初始待匀色遥感影像块为所述待匀色遥感影像块中的任意一个待匀色遥感影像块,所述初始遥感影像块为完成匀色的初始待匀色遥感影像块且所述初始遥感影像块的分辨率小于所述初始待匀色遥感影像块的分辨率;将所述初始待匀色遥感影像块和所述初始遥感影像块输入所述第一鉴别器,得到第一预测概率值,其中,所述第一预测概率值用于表征所述初始待匀色遥感影像块和所述初始遥感影像块是否为一对真实图像;若所述第一预测概率值大于第一预设阈值,则将所述初始待匀色遥感影像块和所述初始遥感影像块输入所述第二生成器,得到中间遥感影像块,其中,所述中间遥感影像块的分辨率等于所述初始待匀色遥感影像块的分辨率;将所述中间遥感影像块和初始色彩模板影像块输入所述第二鉴别器,得到第二预测概率值,其中,所述初始色彩模板影像块为与所述初始待匀色遥感影像块的地理坐标相同的色彩模板影像块,所述第二预测概率值用于表征所述中间遥感影像块和所述初始色彩模板影像块是否为一对真实图像;若所述第二预测概率值大于第二预设阈值,则将所述中间遥感影像块确定为所述目标遥感影像块。
进一步地,在对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像之前,所述方法还包括:计算所述目标遥感影像块和所述目标遥感影像块对应的色彩模板影像块之间的目标参数,其中,所述目标参数包括:每个波段的均值、方差和标准差,峰值信噪比;基于所述目标参数,确定是否对所述目标遥感影像块进行影像色彩纠正。
第二方面,本发明实施例还提供了一种基于条件对抗神经网络的遥感影像自动匀色装置,包括:获取单元,裁切单元,匀色单元和拼接单元,其中,所述获取单元,用于获取待匀色遥感影像和色彩模板影像,其中,所述色彩模板影像对应的区域范围包含所述待匀色遥感影像对应的区域范围;所述裁切单元,用于基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;所述匀色单元,用于将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,其中,所述目标遥感影像块为完成匀色的待匀色遥感影像块;所述拼接单元,用于对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像。
进一步地,所述装置还包括:配准单元,用于:判断所述待匀色遥感影像的地理坐标与所述色彩模板影像的地理坐标之间是否存在偏差;若是,则对所述待匀色遥感影像和所述色彩模板影像进行影像集合配准处理。
进一步地,所述装置还包括:纠正单元,用于:计算所述目标遥感影像块和所述目标遥感影像块对应的色彩模板影像块之间的目标参数,其中,所述目标参数包括:每个波段的均值、方差和标准差,峰值信噪比;基于所述目标参数,确定是否对所述目标遥感影像块进行影像色彩纠正。
第三方面,本发明实施例还提供了一种电子设备,包括存储器以及处理器,所述存储器用于存储支持处理器执行上述第一方面中所述方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
第四方面,本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序。
在本发明实施例中,通过获取待匀色遥感影像和色彩模板影像,其中,所述色彩模板影像对应的区域范围包含所述待匀色遥感影像对应的区域范围;基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,其中,所述目标遥感影像块为完成匀色的待匀色遥感影像块;对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像,达到了对遥感影像自动匀色的目的,进而现有的遥感影像自动匀色技术存在影像内部辐射精度不均匀或者较亮区域过饱和的技术问题,从而实现了提高遥感影像自动匀色质量的技术效果。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于条件对抗神经网络的遥感影像自动匀色方法的流程图;
图2为本发明实施例提供的编码器-解码器结构的示意图;
图3为本发明实施例提供的U-Net网络结构的示意图;
图4为本发明实施例提供的ResNet网络block结构的示意图;
图5为本发明实施例提供的ConvNext网络block结构的示意图;
图6为本发明实施例提供的一种基于条件对抗神经网络的遥感影像自动匀色装置的示意图;
图7为本发明实施例提供的一种电子设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
根据本发明实施例,提供了一种基于条件对抗神经网络的遥感影像自动匀色方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的一种基于条件对抗神经网络的遥感影像自动匀色方法的流程图,如图1所示,该方法包括如下步骤:
步骤S102,获取待匀色遥感影像和色彩模板影像,其中,所述色彩模板影像对应的区域范围包含所述待匀色遥感影像对应的区域范围;
步骤S104,基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;
步骤S106,将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,其中,所述目标遥感影像块为完成匀色的待匀色遥感影像块;
需要说明的是,上述的条件对抗神经网络模型为基于Pix2PixHD构建的条件对抗神经网络模型。
步骤S108,对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像。
在本发明实施例中,通过获取待匀色遥感影像和色彩模板影像,其中,所述色彩模板影像对应的区域范围包含所述待匀色遥感影像对应的区域范围;基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,其中,所述目标遥感影像块为完成匀色的待匀色遥感影像块;对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像,达到了对遥感影像自动匀色的目的,进而现有的遥感影像自动匀色技术存在影像内部辐射精度不均匀或者较亮区域过饱和的技术问题,从而实现了提高遥感影像自动匀色质量的技术效果。
在本发明实施例中,在步骤S104之前,所述方法还包括:
判断所述待匀色遥感影像的地理坐标与所述色彩模板影像的地理坐标之间是否存在偏差;
若是,则对所述待匀色遥感影像和所述色彩模板影像进行影像集合配准处理。
在本发明实施例中,通常在深度学习样本训练之前会做的数据预处理有数据裁切、数据增强、数据增广等。针对遥感影像自动匀色的需求,需要形成若干对一一对应的图片样本,与地物信息自动提取的需求不同,不需要做数据增强以及数据增广来扩充样本的多样性,再加上遥感影像本身数据量通常比较大,因此,数据预处理只需要做数据的裁切即可。与普通图片不同的是,遥感影像都有地理坐标,在裁切过程中需要按照地理坐标进行裁切,而不是按照像素坐标,根据深度学习训练的需求以及硬件GPU的显存数量,通常将待匀色影像和色彩模板影像裁切为若干个256*256大小的影像块对,值得注意的一点是,裁切的影像块之间要有10个像素左右的重叠,方便后续最终成果的拼接。
由于是依靠地理坐标范围进行裁切的,因此,如果待匀色影像和色彩模板影像地理位置有偏差的话,还需要做影像几何配准预处理后才能去做影像裁切。几何配准主要是利用自动匹配的方法来搜寻待匀色影像和色彩模板影像的同名点,利用这些匹配得到的同名点,选用多项式纠正模型或者样条纠正模型对待匀色影像进行几何配准处理。同名点自动匹配使用金字塔逐级相关系数匹配方法,既能有较高的匹配效率,也能保证较高的匹配精度,自动匹配所用到的主要测度是相关系数。相关系数匹配法是采用相关系数(标准化的协方差)作为相似性度量。在统计学中,相关系数它用来表示两个随机变量间的相关性,延伸到图像匹配中,可以用来表示两块相同大小图像间的相似程度。
R(X,Y)称为两幅图像的相关系数。其中E(X),E(Y)为两幅图像的灰度均值,D(X),D(Y)为两幅图像的方差,E(XY)为两幅图像对应点相乘后的均值,它们的定义与一般统计理论中定义相同。匹配若干同名点后,利用几何多项式纠正模型将待匀色遥感影像重采样即可得到配准后的影像,配准后的影像在地理坐标精度上能够与色彩模板影像保持一致,随后可基于地理坐标进行样本数据的批量自动裁切,得到待匀色遥感影像块和色彩模板影像块。
下面对条件对抗神经网络模型进行介绍。
常规的深度学习任务如图像分类、目标检测以及语义分割或者实例分割,这些任务的结果都可以归结为预测。图像分类是预测单一的类别,目标检测是预测范围和类别,语义分割或者实例分割是预测每个像素的类别。而对抗神经网络是生成一个新的东西如一张图片。
图像处理的任务通常都是将输入图像经过一定的转换输出为另一个图像,传统的影像自动匀色任务是需要统计待匀色影像和色彩模板影像每个波段的均值、方差等来建立数学转换模型来完成的,所建立的数学转换模型旨在缩小待匀色影像和色彩模板影像的色彩误差,与传统影像自动匀色的主旨目的相同,基于深度学习的匀色方法也是如此,不同的是建立的数学模型由参数更多更复杂的神经网络模型所取代。
图像到图像翻译(Image-to-Image translation)是GAN很重要的一个应用方向,图像到图像的翻译时基于一张输入图像得到想要的输出图像的过程,可以看作是图像和图像之间的一种映射(mapping),常见的图像修复、超分辨率其实都是图像到图像翻译的例子。还包括从标签到图像的生成、图像边缘到图像的生成等过程。Pix2Pix是将GAN应用于有监督的图像到图像翻译的算法,有监督表示训练数据是成对的,该网络能够对一一输入的样本进行训练,学习输入图像和输出图像之间的映射,能够处理输出一系列复杂的应用场景,如白天转黑夜、灰度转彩色、矢量转栅格、轮廓转实体等,均取得不错的效果。但是Pix2Pix对于高分辨率影像的合成细节会产生模糊现象,后来又有学者提出了pix2pixHD的方法来解决高分辨率和图像质量的问题,也得到了不错的效果,因此,本发明尝试使用Pix2PixHD网络模型来完成遥感影像的自动匀色功能。
卷积神经网络出现以来,各种传统的影像处理算法都在进行深度学习方向的尝试和改造,卷积神经网络虽然能够自动学习出一些东西,仍然需要人的经验和设计。设计合适的损失函数便是其中的一种方式,对于影像匀色任务来说,告诉卷积神经网络去学习什么非常的重要。如果告诉卷积神经网络去学习一种不合适的损失函数,那么结果也会差强人意。
基于条件对抗生成网络模型的pix2pix算法损失函数通常为:
LcGAN(G,D)=Ex,y[logD(x,y)]+Ex,z[log(1-D(x,G(x,z)))]
其中,x为输入的待匀色影像,y为色彩模板影像,z为随机噪声,G代表生成器,D代表鉴别器。x需要输入到G和D中,G的输入是(x,z),输出是生成的图片G(x,z),D则需要分辨出(x,G(x,z))和(x,y)。如果不用随机噪声z,对抗网络仍然可以从x学习映射到y,但会产生确定性输出。生成器G希望鉴别器把自己生成的图片当作是真的,而鉴别器D则希望能够正确的区分真实样本和G生成的样本,生成器G优化目标是使得LcGAN(G,D)最小,鉴别器D的优化目标是使得LcGAN(G,D)最大。对抗训练的含义和意义就在于此。
为了保证匀色输出图像与色彩模板影像的相似度,这就需要去最小化二者之间的距离,经过大量数据试验表明,将C-GAN的损失函数和传统的L1或者L2损失函数结合起来,可以带来更好的效果,而L1损失函数能够增加输出的清晰度,因此选用L1损失函数,L1损失函数如下:
LL1(G)=Ex,y,z[‖y-G(x,z)‖1]
将对抗损失和L1损失相加,就得到了最终的整体损失函数:
要在高分辨率下区分真实的与合成的图像,就要求判别器有很大的感受野,这需要更深的网络或者更大的卷积核才能实现,而这两种选择都会增加网络容量从而使网络更容易产生过拟合问题,并且训练所需的存储空间也会增大。Pix2pixHD算法的损失函数在pix2pix的损失函数的基础上对鉴别器又做了金字塔级分层的优化,考虑到多层金字塔级后整体损失函数为下式:这里用3个鉴别器(D1,D2,D3)来处理不同尺度的图像,它们具有相同的网络结构:
其中k代表金字塔不同层级,在上述损失函数的基础上,因为模型结构中存在多尺度,所以增加一个特征匹配损失函数,用于稳定模型的训练。从D的多个层中提取特征,学习匹配真实图像和合成图像的中间表示,多层特征匹配损失函数定义为:
λ用来调节这两个组成部分的权重,Dk仅作为特征提取器,并不会最大化特征匹配损失函数LFM。
一般来说,GAN中包含两种类型的网络G和D。其中G为Generator,它的作用是生成图片,即在输入一个随机编码(random code)z之后,它将输出一幅由神经网络自动生成的、假的图片G(z)。另一个网络D为Discriminator是用来判断的,它接受G输出的图像作为输入,然后判断这幅图像的真假,真的输出为1,假的输出为0。在两个网络相互博弈的过程中,两个网络的能力都越来越高:G生成的图片越来越像真的图片,D也越来越会判断图片的真假。到了这一步,丢掉D不要了,把G拿来用作图片生成器。即在最大化D的能力的前提下,最小化D对G的判断能力,是一个最小最大值问题。Pix2pix对CGAN的生成器和鉴别器的网络结构都做了改进。
生成器网络的任务是从待匀色影像恢复出与色彩模板影像色彩一致的影像,且清晰度不能下降。
传统GAN中最常用的生成器结构是编码器-解码器(encoder-decoder)类型,pix2pix则采用的是U-Net网络结构模型,如图2和图3所示。
Net是德国Freiburg大学模式识别和图像处理组提出的一种全卷积结构。和常见的先降采样到低维度,再升采样到原始分辨率的编解码(Encoder-Decoder)结构的网络相比,U-Net的区别是加入跳转连接机制(skip-connection),对应的特征图(feature maps)和解码(decode)之后的同样大小的特征图按通道拼一起,用来保留不同分辨率下像素级的细节信息。U-Net对提升细节的效果非常明显。
Pix2PixHD是Pix2Pix的升级版,Pix2Pix本质上是一个condition GAN,可以很好的在有监督情况下将一个域的图像转化成另一个域的图像。但是生成的图像分辨率仅为256x256,而使用GAN生成高分辨率图片也是一个挑战。Pix2PixHD可以生成2k的高清图片,可以将语义分割+实例分割信息转化成真实的图片,可认为是语义分割、实例分割的逆操作。Pix2pixHD的生成器在pix2pix的生成器网络基础上又做了一些改进。
Pix2pixHD生成器由两部分组成,G1和G2,其中G2又被分成两个部分。G1和Pix2Pix的生成器没有区别,G2的左半部分提取特征,并和G1的输出层的前一层特征进行相加融合信息,把融合后的信息送人G2的后半部分输出高分辨率图像。
而本发明采用的Pix2pixHD生成器在网络的基础Block做了改动由传统的ResNetBlock变成Convnext Block,ResNet与ConvNeXt具体网络结构的如图4和图5所示。ResNet与ConvNeXt具体网络结构相关参数如下表所示:
由上表对比结果可以看出,ConvNeXt网络相比ResNet计算量提高了,参数量变大了。由于遥感影像视场范围大,并且在匀色过程中要保证原有图像的各种地物要素信息,清晰度等特征,影像的信息内容复杂多样,参数量大方便学习更多的特征信息,同时计算量高能够更快的处理数据。
除了网络结构进行替换以外,在网络块的细节上也做了优化:
激活函数ReLU替换为Gelu
ReLU的公式为ReLU(X)=MAX(0,X),对于输入的值小于0则输出为0,如果输入的值大于0则输出等于输入,公式如下:
从ReLU的微分方程我们可以发现如果输入大于0,则输出等于1,如果输入小于0则输出为0。所以当我们使用Relu激活函数时无法得到非常小的值,同时因为遥感影像的内容信息复杂多样,在计算梯度时有太多值都小于0,所以会无法更新权重,进而导致模型效果差。
GeLU的公式为:
更少的激活函数
仅在两个1*1的卷积之间添加了一个Gelu激活函数;过多的激活函数能将线性函数转换为非线性函数,增强网络模型的能力,学习到更为复杂的信息关系,表面上对遥感影像的复杂内容学习有利,但同时随着复杂程度的增加对训练要求也要更高,增加了训练的难度,甚至可能导致模型的过拟合等问题;
更少的归一化层
仅在第一个1*1的卷积之前添加了一个LN,归一化的策略就是减去均值除以方差,这样处理过后数据就会变成均值为0方差为1的正态分布,对于遥感影像来说,内容复杂多样,会有效防止部分数据的分布不均匀问题;
BN层替换为LN层
我们通常将BN使用在CNN中,而LN通常用来解决在小样本的时候BN归一化统计量会存在偏差过大的问题,虽然在残差网络直接将BN换成LN性能会下降,但在ConvNeXt中表现要好于BN。
鉴别器网络设计
鉴别器网络的任务是能够判断输出的图像是真是假,Pix2Pix用重建来解决低频成分,用GAN来解决高频成分。使用传统的L1 loss来让生成的图片跟训练的图片尽量相似,用GAN来构建高频部分的细节。鉴别器使用马尔科夫鉴别器(PatchGAN)对生成的图像切分为多个固定大小的Patch输入进去真假判断,因为不同的patch之间可以认为是相互独立的。对一张图片切割成不同的N x N大小的patch,鉴别器对每一个patch做真假判别,将一张图片所有patch的结果取平均作为最终的鉴别器输出。经过大量数据试验证明,Patch大小在70*70的时候,从视觉上看结果就和直接把整张图片作为鉴别器输入区别不大了。
使用PatchGAN的优点也显而易见,每个块的数据量更小,参数量更少,因此带来了更高的训练效率,可以应用到整张大图像中,此外,因为生成器G本身是全卷积的,对图像尺度没有限制,而鉴别器D如果是按照Patch去处理图像,也对图像大小没有限制,就会让整个C-GAN框架对图像大小没有限制,增大了框架的扩展性。
Pix2pixHD鉴别器与pix2pix不同的是使用多尺度鉴别器,在特征图的金字塔三个层级上进行鉴别并对结果取平均。鉴别的三个尺度为:特征图原图,特征图的1/2降采样,特征图的1/4降采样。显然,金字塔级越高的尺度感受野越大,就越关注影像全局色彩的一致性。
在本发明实施例中,所述条件对抗神经网络模型包括:第一生成器,第二生成器,第一鉴别器和第二鉴别器,则步骤S106包括如下步骤:
将初始待匀色遥感影像块所述第一生成器,得到初始遥感影像块,其中,所述初始待匀色遥感影像块为所述待匀色遥感影像块中的任意一个待匀色遥感影像块,所述初始遥感影像块为完成匀色的初始待匀色遥感影像块且所述初始遥感影像块的分辨率小于所述初始待匀色遥感影像块的分辨率;
将所述初始待匀色遥感影像块和所述初始遥感影像块输入所述第一鉴别器,得到第一预测概率值,其中,所述第一预测概率值用于表征所述初始待匀色遥感影像块和所述初始遥感影像块是否为一对真实图像;
若所述第一预测概率值大于第一预设阈值,则将所述初始待匀色遥感影像块和所述初始遥感影像块输入所述第二生成器,得到中间遥感影像块,其中,所述中间遥感影像块的分辨率等于所述初始待匀色遥感影像块的分辨率;
将所述中间遥感影像块和初始色彩模板影像块输入所述第二鉴别器,得到第二预测概率值,其中,所述初始色彩模板影像块为与所述初始待匀色遥感影像块的地理坐标相同的色彩模板影像块,所述第二预测概率值用于表征所述中间遥感影像块和所述初始色彩模板影像块是否为一对真实图像;
若所述第二预测概率值大于第二预设阈值,则将所述中间遥感影像块确定为所述目标遥感影像块。
在本发明实施例中,首先初始待匀色遥感影像块用x表示,初始色彩模板影像块用y表示,在训练时需要成对的图像(x和y);
x作为第一生成器G1的输入(去掉随机噪声z不会对生成效果有太大影响,但假如将x和z合并在一起作为第一生成器G1,可以得到更多样的输出,在匀色过程中并不需要结果的多样性)得到生成初始遥感影像块G(x1);
然后将G(x1)和x基于通道维度合并在一起,最后作为第一鉴别器的输入得到第一预测概率值,该预测概率值表示输入是否是一对真实图像,概率值越接近1表示第一鉴别器D越肯定输入是一对真实图像;
若第一预测概率值大于第一预设阈值,则初始待匀色遥感影像块和初始遥感影像块输入第二生成器,得到中间遥感影像块G(x2)。
将初始色彩模板影像块y和中间遥感影像块G(x2)也基于通道维度合并在一起,作为第二鉴别器的输入得到第二概率预测值。因此第二鉴别器的训练目标就是在输入不是一对真实图像(x和G(x2))时输出小的概率值(比如最小是0),在输入是一对真实图像(x和G(x2))时输出大的概率值(比如最大值是1)。
在第二概率预测值大于第二预设阈值时中间遥感影像块即为目标遥感影像块。
在本发明实施例中,在步骤S108之前,所述方法还包括:
计算所述目标遥感影像块和所述目标遥感影像块对应的色彩模板影像块之间的目标参数,其中,所述目标参数包括:每个波段的均值、方差和标准差,峰值信噪比;
基于所述目标参数,确定是否对所述目标遥感影像块进行影像色彩纠正。
在本发明实施例中,Pix2PixHD的生成器和鉴别器的网络模型训练结束后,直接使用生成器便可以生成与色彩模板影像色彩基本一致的目标遥感影像块进行影像,经过简单的影像拼接就可以生成最终的遥感整幅匀色成果图。
统计匀色后的影像和色彩模板影像在相同地理坐标范围内每个波段的均值、方差、标准差等,均值差越小,就代表着自动匀色的效果越好,直方图分布越接近也能够代表自动匀色的效果越好。
另外,本发明实施例中引入一种常用在图像重建领域的评价指标-峰值信噪比(PSNR)来衡量图像匀色后的纹理质量,该值由目标遥感影像块和目标遥感影像块对应的色彩模板影像块计算而来,此值越大,通常代表着图像质量越好。
具体计算公式如下:
其中MSE是均方根误差,m和n表示图像的尺寸,MAX是图像的最大像素值,PSNR则表示最终计算的峰值信噪比。
本发明实施例针对现有的遥感影像自动匀色算法导致的影像内部辐射精度不均匀或者较亮区域过饱和等问题,引入了深度学习领域中最近热度较高的条件对抗网络模型(Conditional Generative Adversarial Networks,简称C-GAN),该网络通过反复迭代对抗训练待匀色影像和模板影像之间的图像生成器和鉴别器模型,形成源图像到目标图像的最优转换关系模型,可以实现像素到像素的转换翻译,不必显式地统计待匀色影像和基准影像的方差和均值等信息,利用深度学习训练模型的超参数来解决传统遥感影像自动匀色算法所引起的辐射不均匀问题和较亮区域过饱和等问题。
实施例二:
本发明实施例还提供了一种基于条件对抗神经网络的遥感影像自动匀色装置,该基于条件对抗神经网络的遥感影像自动匀色装置用于执行本发明实施例上述内容所提供的基于条件对抗神经网络的遥感影像自动匀色方法,以下是本发明实施例提供的基于条件对抗神经网络的遥感影像自动匀色装置的具体介绍。
如图6所示,图6为上述基于条件对抗神经网络的遥感影像自动匀色装置的示意图,该基于条件对抗神经网络的遥感影像自动匀色装置包括:获取单元10,裁切单元20,匀色单元30和拼接单元40。
所述获取单元,用于获取待匀色遥感影像和色彩模板影像,其中,所述色彩模板影像对应的区域范围包含所述待匀色遥感影像对应的区域范围;
所述裁切单元,用于基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;
所述匀色单元,用于将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,其中,所述目标遥感影像块为完成匀色的待匀色遥感影像块;
所述拼接单元,用于对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像。
在本发明实施例中,通过获取待匀色遥感影像和色彩模板影像,其中,所述色彩模板影像对应的区域范围包含所述待匀色遥感影像对应的区域范围;基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,其中,所述目标遥感影像块为完成匀色的待匀色遥感影像块;对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像,达到了对遥感影像自动匀色的目的,进而现有的遥感影像自动匀色技术存在影像内部辐射精度不均匀或者较亮区域过饱和的技术问题,从而实现了提高遥感影像自动匀色质量的技术效果。
实施例三:
本发明实施例还提供了一种电子设备,包括存储器以及处理器,所述存储器用于存储支持处理器执行上述实施例一中所述方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
参见图7,本发明实施例还提供一种电子设备100,包括:处理器50,存储器51,总线52和通信接口53,所述处理器50、通信接口53和存储器51通过总线52连接;处理器50用于执行存储器51中存储的可执行模块,例如计算机程序。
其中,存储器51可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口53(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。
总线52可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
其中,存储器51用于存储程序,所述处理器50在接收到执行指令后,执行所述程序,前述本发明实施例任一实施例揭示的流过程定义的装置所执行的方法可以应用于处理器50中,或者由处理器50实现。
处理器50可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器50中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器50可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital SignalProcessing,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现成可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器51,处理器50读取存储器51中的信息,结合其硬件完成上述方法的步骤。
实施例四:
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述实施例一中所述方法的步骤。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种基于条件对抗神经网络的遥感影像自动匀色方法,其特征在于,包括:
获取待匀色遥感影像和色彩模板影像,其中,所述色彩模板影像对应的区域范围包含所述待匀色遥感影像对应的区域范围;
基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;
将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,其中,所述目标遥感影像块为完成匀色的待匀色遥感影像块;
对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像。
2.根据权利要求1所述的方法,其特征在于,在基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块之前,所述方法还包括:
判断所述待匀色遥感影像的地理坐标与所述色彩模板影像的地理坐标之间是否存在偏差;
若是,则对所述待匀色遥感影像和所述色彩模板影像进行影像集合配准处理。
3.根据权利要求1所述的方法,其特征在于,
所述条件对抗神经网络模型为基于Pix2PixHD构建的条件对抗神经网络模型。
4.根据权利要求1所述的方法,其特征在于,所述条件对抗神经网络模型包括:第一生成器,第二生成器,第一鉴别器和第二鉴别器,则将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,包括:
将初始待匀色遥感影像块所述第一生成器,得到初始遥感影像块,其中,所述初始待匀色遥感影像块为所述待匀色遥感影像块中的任意一个待匀色遥感影像块,所述初始遥感影像块为完成匀色的初始待匀色遥感影像块且所述初始遥感影像块的分辨率小于所述初始待匀色遥感影像块的分辨率;
将所述初始待匀色遥感影像块和所述初始遥感影像块输入所述第一鉴别器,得到第一预测概率值,其中,所述第一预测概率值用于表征所述初始待匀色遥感影像块和所述初始遥感影像块是否为一对真实图像;
若所述第一预测概率值大于第一预设阈值,则将所述初始待匀色遥感影像块和所述初始遥感影像块输入所述第二生成器,得到中间遥感影像块,其中,所述中间遥感影像块的分辨率等于所述初始待匀色遥感影像块的分辨率;
将所述中间遥感影像块和初始色彩模板影像块输入所述第二鉴别器,得到第二预测概率值,其中,所述初始色彩模板影像块为与所述初始待匀色遥感影像块的地理坐标相同的色彩模板影像块,所述第二预测概率值用于表征所述中间遥感影像块和所述初始色彩模板影像块是否为一对真实图像;
若所述第二预测概率值大于第二预设阈值,则将所述中间遥感影像块确定为所述目标遥感影像块。
5.根据权利要求4所述的方法,其特征在于,在对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像之前,所述方法还包括:
计算所述目标遥感影像块和所述目标遥感影像块对应的色彩模板影像块之间的目标参数,其中,所述目标参数包括:每个波段的均值、方差和标准差,峰值信噪比;
基于所述目标参数,确定是否对所述目标遥感影像块进行影像色彩纠正。
6.一种基于条件对抗神经网络的遥感影像自动匀色装置,其特征在于,包括:获取单元,裁切单元,匀色单元和拼接单元,其中,
所述获取单元,用于获取待匀色遥感影像和色彩模板影像,其中,所述色彩模板影像对应的区域范围包含所述待匀色遥感影像对应的区域范围;
所述裁切单元,用于基于地理坐标,按照预设尺寸分别对所述待匀色遥感影像和色彩模板影像进行裁切,得到待匀色遥感影像块和色彩模板影像块;
所述匀色单元,用于将所述待匀色遥感影像块和所述色彩模板影像块输入条件对抗神经网络模型,得到所述待匀色遥感影像块对应的目标遥感影像块,其中,所述目标遥感影像块为完成匀色的待匀色遥感影像块;
所述拼接单元,用于对所述目标遥感影像块进行拼接,得到完成匀色的遥感影像。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:配准单元,用于:
判断所述待匀色遥感影像的地理坐标与所述色彩模板影像的地理坐标之间是否存在偏差;
若是,则对所述待匀色遥感影像和所述色彩模板影像进行影像集合配准处理。
8.根据权利要求6所述的装置,其特征在于,所述装置还包括:纠正单元,用于:
计算所述目标遥感影像块和所述目标遥感影像块对应的色彩模板影像块之间的目标参数,其中,所述目标参数包括:每个波段的均值、方差和标准差,峰值信噪比;
基于所述目标参数,确定是否对所述目标遥感影像块进行影像色彩纠正。
9.一种电子设备,其特征在于,包括存储器以及处理器,所述存储器用于存储支持处理器执行权利要求1至5任一项所述方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
10.一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,其特征在于,计算机程序被处理器运行时执行上述权利要求1至5任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211225174.9A CN115526801A (zh) | 2022-10-09 | 2022-10-09 | 基于条件对抗神经网络的遥感影像自动匀色方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211225174.9A CN115526801A (zh) | 2022-10-09 | 2022-10-09 | 基于条件对抗神经网络的遥感影像自动匀色方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115526801A true CN115526801A (zh) | 2022-12-27 |
Family
ID=84700685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211225174.9A Pending CN115526801A (zh) | 2022-10-09 | 2022-10-09 | 基于条件对抗神经网络的遥感影像自动匀色方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115526801A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116703744A (zh) * | 2023-04-18 | 2023-09-05 | 二十一世纪空间技术应用股份有限公司 | 一种基于卷积神经网络的遥感影像匀光匀色方法和装置 |
CN117349462A (zh) * | 2023-12-06 | 2024-01-05 | 自然资源陕西省卫星应用技术中心 | 一种遥感智能解译样本数据集生成方法 |
CN117456192A (zh) * | 2023-12-21 | 2024-01-26 | 广东省海洋发展规划研究中心 | 一种遥感影像色彩校正方法、装置、设备及存储介质 |
-
2022
- 2022-10-09 CN CN202211225174.9A patent/CN115526801A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116703744A (zh) * | 2023-04-18 | 2023-09-05 | 二十一世纪空间技术应用股份有限公司 | 一种基于卷积神经网络的遥感影像匀光匀色方法和装置 |
CN116703744B (zh) * | 2023-04-18 | 2024-05-28 | 二十一世纪空间技术应用股份有限公司 | 一种基于卷积神经网络的遥感影像匀光匀色方法和装置 |
CN117349462A (zh) * | 2023-12-06 | 2024-01-05 | 自然资源陕西省卫星应用技术中心 | 一种遥感智能解译样本数据集生成方法 |
CN117349462B (zh) * | 2023-12-06 | 2024-03-12 | 自然资源陕西省卫星应用技术中心 | 一种遥感智能解译样本数据集生成方法 |
CN117456192A (zh) * | 2023-12-21 | 2024-01-26 | 广东省海洋发展规划研究中心 | 一种遥感影像色彩校正方法、装置、设备及存储介质 |
CN117456192B (zh) * | 2023-12-21 | 2024-05-07 | 广东省海洋发展规划研究中心 | 一种遥感影像色彩校正方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111723860B (zh) | 一种目标检测方法及装置 | |
US11551333B2 (en) | Image reconstruction method and device | |
CN111047516B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN115526801A (zh) | 基于条件对抗神经网络的遥感影像自动匀色方法和装置 | |
CN114187491B (zh) | 一种遮挡物体检测方法和装置 | |
CN111862044B (zh) | 超声图像处理方法、装置、计算机设备和存储介质 | |
CN111291637A (zh) | 一种基于卷积神经网络的人脸检测方法、装置及设备 | |
CN115661144B (zh) | 基于可变形U-Net的自适应医学图像分割方法 | |
CN110070531B (zh) | 用于检测眼底图片的模型训练方法、眼底图片的检测方法及装置 | |
CN110675385B (zh) | 一种图像处理方法、装置、计算机设备以及存储介质 | |
CN114972191A (zh) | 一种耕地变化检测方法和装置 | |
CN115620141A (zh) | 一种基于加权可变形卷积目标检测方法和装置 | |
CN113449690A (zh) | 图像场景变化的检测方法、系统及电子设备 | |
CN116342516A (zh) | 基于模型集成的儿童手骨x光图像骨龄评估方法及系统 | |
CN115797929A (zh) | 基于双注意力机制的小型农田图像分割方法、装置 | |
CN117690128B (zh) | 胚胎细胞多核目标检测系统、方法和计算机可读存储介质 | |
CN112633103A (zh) | 图像处理方法、装置和电子设备 | |
CN116542924A (zh) | 一种前列腺病灶区域检测方法、装置及存储介质 | |
CN116189160A (zh) | 一种基于局部对比度机制的红外弱小目标检测方法 | |
CN116129417A (zh) | 一种基于低质量图像的数字仪表读数检测方法 | |
CN114565626A (zh) | 基于PSPNet改进的肺部CT图像分割算法 | |
CN116415019A (zh) | 虚拟现实vr图像识别方法及装置、电子设备、存储介质 | |
CN116433607B (zh) | 基于关键区域特征双重加权融合的儿童手骨x光图像骨龄评估方法及系统 | |
CN116311086B (zh) | 植物监测方法、植物监测模型的训练方法、装置及设备 | |
CN117893413B (zh) | 基于图像增强的车载终端人机交互方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |