CN113191971A - 一种基于yuv颜色空间的无人机图像去雾方法 - Google Patents
一种基于yuv颜色空间的无人机图像去雾方法 Download PDFInfo
- Publication number
- CN113191971A CN113191971A CN202110455259.5A CN202110455259A CN113191971A CN 113191971 A CN113191971 A CN 113191971A CN 202110455259 A CN202110455259 A CN 202110455259A CN 113191971 A CN113191971 A CN 113191971A
- Authority
- CN
- China
- Prior art keywords
- image
- color space
- yuv color
- aerial vehicle
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 14
- 230000000694 effects Effects 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 24
- 230000004913 activation Effects 0.000 claims description 21
- 238000010586 diagram Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 2
- 230000009191 jumping Effects 0.000 claims 1
- 239000002245 particle Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 241000023320 Luma <angiosperm> Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000013332 literature search Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了一种基于YUV颜色空间的无人机图像去雾方法,包括如下步骤:步骤S1:收集成对的有雾和无雾的图像,搭建去雾图像数据集;步骤S2:构建出加入了注意力模块的改进U‑Net模型的生成对抗网络GAN;步骤S3:将训练数据集从RGB颜色空间转换为YUV颜色空间,放入生成对抗网络中进行训练,最终得到训练好的能够根据有雾图像生成无雾图像的GAN去雾模型。通过重新着色的方法对雾霾图像进行还原,同时加入了注意力模块用以解决轮廓边界不清晰的问题,方法简单且效果优于现有技术。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于YUV颜色空间的无人机图像去雾方法。
背景技术
在雾天情况下,航拍到的图像由于受到空气中漂浮的颗粒物的影响,图像的质量会大大降低。在雾天情况下空气中存在大量的悬浮颗粒物,这些颗粒物会对光线产生散射,导致物体反射出的光线发生衰减,同时反射光与观察者直接接受到的光线发生混合,造成相机拍摄到图像的对比度和清晰度等特征都发生改变,细节信息大量丢失。
经过对现有技术的文献检索发现,图像去雾的的研究大多集中在基于大气散射模型理论对图像进行修复。在中国专利“一种基于端到端深度学习的图像去雾方法”(申请号:CN201810897756.9)中,黄红兵等人提出了一种通过神经网络进行有雾图像修复的方法,利用神经网络预测出有雾图像的传输图和大气光值,进而通过大气散射模型恢复出无雾图像。在中国专利“一种基于域自适应的图像去雾方法及系统”(申请号:CN202010367514.6)中,桑农等人提出了一种能够自适应图像去雾的方法,通过图像转换模块有效减少合成域和真实域之间的领域偏差,提高图像去雾模型在真实域的泛化性,进而更准确的预测出暗通道先验损失。在已有的相关专利中,均是通过研究有雾图像的形成原理,根据大气散射模型等相关理论对图像进行修复工作。但是由于雾霾对于物体的遮挡,在图像上直接造成了像素的丢失,现有的基于大气散射模型的相关恢复算法很难将有雾图像进行完整的恢复。
发明内容
有鉴于此,本发明的目的是提供一种基于YUV颜色空间的无人机图像去雾方法。通过重新着色的方法对其进行还原,同时加入了注意力模块用以解决轮廓边界不清晰的问题。
本发明的目的是通过以下技术方案实现的:
一种基于YUV颜色空间的无人机图像去雾方法,包括如下步骤:
步骤S1:收集成对的有雾和无雾的图像,搭建去雾图像数据集;
步骤S2:构建出加入了注意力模块的改进U-Net模型的生成对抗网络GAN;
步骤S3:将训练数据集从RGB颜色空间转换为YUV颜色空间,放入生成对抗网络中进行训练,最终得到训练好的能够根据有雾图像生成无雾图像的GAN去雾模型。
进一步,所述步骤S2中,生成对抗网络GAN是将有雾图像作为输入图像放入生成器中,生成器根据有雾图像生成一幅新的图像,判别器将新生成的图像和无雾图像进行比对,判断新生成的图像与无雾图像是否一致,生成器根据判别器的判别结果通过反向传播算法对生成器内的参数进行优化调整,经过多轮训练,得到效果最优的生成器。
进一步,所述步骤S2中,加入了注意力模块的改进U-Net模型由编码器和解码器两部分组成。
进一步,所述编码器由卷积层、ReLU激活函数、最大池化层反复组成,每经过一次下采样,通道数翻倍;所述解码器由上采样层、ReLU激活函数、以及卷积层和ReLU激活函数反复构成。
进一步,所述编码器和解码器的每一层通过跳跃连接层进行拼接,以便实现更高层次的特征融合以及多尺度的预测。
进一步,加入的注意力模块位于跳跃连接层内,输入注意力模块的特征图大小为c×h×w,c为通道数,h×w为特征图的尺寸,在通道维度上对特征图取最大值和平均值得到两个不同的特征描述,此时两个特征图的大小均为1×h×w,然后将这两个特征在通道维度上进行合并,大小为2×h×w,并使用卷积层对合成后的特征图进行卷积,该卷积层的输入通道数为2,输出通道数为1,卷积核大小为7×7,卷积层输出的特征图大小为1×h×w,最后经过一个Sigmoid激活函数即得为在空间上的各个位置的权重,将输入图像与该权重在空间维度上逐一相乘即得到经过注意力机制后的特征图。
进一步,判别器由多个4×4卷积层和激活函数构成,将生成器生成的图像与原始的清晰图像进行拼接,放入卷积层中,最后得到二者的相似度。
进一步,YUV颜色空间是一种电视系统中常用的颜色编码方法,其中Y表示明亮度(Luminance或Luma),也就是灰度值;而U和V表示的则是色度(Chrominance或Chroma)。YUV和RGB互相转换的公式如下(RGB取值范围均为0-255)︰
Y=0.299R+0.587G+0.114B
U=-0.147R-0.289G+0.436B
V=0.615R-0.515G-0.100B
R=Y+1.14V
G=Y-0.39U-0.58V
B=Y+2.03U。
进一步,所述编码器由两个3x3的卷积层、ReLU激活函数、一个2x2的最大池化层反复组成,共4次;所述解码器由一个2x2的上采样层、ReLU激活函数、以及两个3x3的卷积层和ReLU激活函数反复构成,共4次。
本发明的目的之二是提供一种计算机装置,包括存储器、处理器及储存在存储器上并能够在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如前所述的方法。
本发明的有益效果是:与现有技术相比,本发明没有通过还原雾霾图像的物理形成过程进行修复,而是采用重新上色的思想将雾霾图像看成是一种色彩丢失,通过重新着色的方法对其进行还原,同时加入了注意力模块用以解决轮廓边界不清晰的问题,方法实现较为方便且效果优于现有技术。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书和前述的权利要求书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为GAN的结构图;
图2为改进UNet模型的结构图;
图3为注意力模块的结构图;
图4为判别器的结构图。
具体实施方式
以下将参照附图,对本发明的优选实施例进行详细的描述。应当理解,优选实施例仅为了说明本发明,而不是为了限制本发明的保护范围。
本发明的一种基于YUV颜色空间的无人机图像去雾方法,包括如下步骤:
步骤S1:收集成对的有雾和无雾的图像,搭建去雾图像数据集;
步骤S2:构建出加入了注意力模块的改进U-Net模型的生成对抗网络GAN;
步骤S3:将训练数据集从RGB颜色空间转换为YUV颜色空间,放入生成对抗网络中进行训练,最终得到训练好的能够根据有雾图像生成无雾图像的GAN去雾模型。
本专利中采用的GAN结构如图1所示,生成对抗网络GAN是将有雾图像作为输入图像放入生成器中,生成器根据有雾图像生成一幅新的图像,判别器将新生成的图像和无雾图像进行比对,判断新生成的图像与无雾图像是否一致,生成器根据判别器的判别结果通过反向传播算法对生成器内的参数进行优化调整,经过多轮训练,得到效果最优的生成器。
所述步骤S2中,加入了注意力模块的改进U-Net模型由编码器和解码器两部分组成,结构图如图2所示。左侧为编码器,右侧为解码器。编码器由两个3x3的卷积层、ReLU激活函数、一个2x2的最大池化层(步数为2)反复组成,共4次,每经过一次下采样,通道数翻倍;解码器由一个2x2的上采样层、ReLU激活函数、以及两个3x3的卷积层和ReLU激活函数反复构成,共4次。同时,编码器和解码器的每一层通过跳跃连接层进行拼接,以便实现更高层次的特征融合以及多尺度的预测。
加入的注意力模块位于跳跃连接层内,注意力模块的结构如图3所示,输入注意力模块的特征图大小为c×h×w,c为通道数,h×w为特征图的尺寸,在通道维度上对特征图取最大值和平均值得到两个不同的特征描述,此时两个特征图的大小均为1×h×w,然后将这两个特征在通道维度上进行合并,大小为2×h×w,并使用卷积层对合成后的特征图进行卷积,该卷积层的输入通道数为2,输出通道数为1,卷积核大小为7×7,卷积层输出的特征图大小为1×h×w,最后经过一个Sigmoid激活函数即得为在空间上的各个位置的权重,将输入图像与该权重在空间维度上逐一相乘即得到经过注意力机制后的特征图。
判别器主要由多个4×4卷积层和激活函数构成,其结构图如图4所示,将生成器生成的图像与原始的清晰图像进行拼接,放入卷积层中,最后得到二者的相似度。
YUV颜色空间是一种电视系统中常用的颜色编码方法,其中Y表示明亮度(Luminance或Luma),也就是灰度值;而U和V表示的则是色度(Chrominance或Chroma)。YUV和RGB互相转换的公式如下(RGB取值范围均为0-255)︰
Y=0.299R+0.587G+0.114B
U=-0.147R-0.289G+0.436B
V=0.615R-0.515G-0.100B
R=Y+1.14V
G=Y-0.39U-0.58V
B=Y+2.03U。
具体实施例
该实施例中,首先构建雾霾图像数据集,对网上现有的雾霾图像数据集进行收集整理,同时采用合成的方法对数据集进行补充,搭建出包含成对雾霾图像的雾霾图像数据集。
然后将前面得到的成对的雾霾图像,根据公式,从RGB颜色空间转换为YUV颜色空间,放入GAN模型中进行训练。在本实施例中,采用Pytorch深度学习框架,显卡为TeslaP00,批尺寸(Batch Size)设置为8,损失函数采用交叉熵损失函数。其公式为:其中yi为标签,Pi为预测结果,n为批尺寸。优化器采用Adam,学习率采用衰减的方式,初始学习率为0.0002,当损失函数的loss损失小于等于0.35,大于0.24时,学习率调整为0.0001;当loss损失小于等于0.24时,学习率调整为0.00005。当连续三轮loss损失不下降(即三个loss损失值的方差小于0.00001),认为训练完成,结束训练。采用最后一轮的模型参数作为最终模型。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种基于YUV颜色空间的无人机图像去雾方法,其特征在于:包括如下步骤:
步骤S1:收集成对的有雾和无雾的图像,搭建去雾图像数据集;
步骤S2:构建出加入了注意力模块的改进U-Net模型的生成对抗网络GAN;
步骤S3:将训练数据集从RGB颜色空间转换为YUV颜色空间,放入生成对抗网络中进行训练,最终得到训练好的能够根据有雾图像生成无雾图像的GAN去雾模型。
2.根据权利要求1所述的一种基于YUV颜色空间的无人机图像去雾方法,其特征在于:所述步骤S2中,生成对抗网络GAN是将有雾图像作为输入图像放入生成器中,生成器根据有雾图像生成一幅新的图像,判别器将新生成的图像和无雾图像进行比对,判断新生成的图像与无雾图像是否一致,生成器根据判别器的判别结果通过反向传播算法对生成器内的参数进行优化调整,经过多轮训练,得到效果最优的生成器。
3.根据权利要求1或2所述的一种基于YUV颜色空间的无人机图像去雾方法,其特征在于:所述步骤S2中,加入了注意力模块的改进U-Net模型由编码器和解码器两部分组成。
4.根据权利要求3所述的一种基于YUV颜色空间的无人机图像去雾方法,其特征在于:,所述编码器由卷积层、ReLU激活函数、最大池化层反复组成,每经过一次下采样,通道数翻倍;所述解码器由上采样层、ReLU激活函数、以及卷积层和ReLU激活函数反复构成。
5.根据权利要求3或4所述的一种基于YUV颜色空间的无人机图像去雾方法,其特征在于:所述编码器和解码器的每一层通过跳跃连接层进行拼接,以便实现更高层次的特征融合以及多尺度的预测。
6.根据权利要求5所述的一种基于YUV颜色空间的无人机图像去雾方法,其特征在于:加入的注意力模块位于跳跃连接层内,输入注意力模块的特征图大小为c×h×w,c为通道数,h×w为特征图的尺寸,在通道维度上对特征图取最大值和平均值得到两个不同的特征描述,此时两个特征图的大小均为1×h×w,然后将这两个特征在通道维度上进行合并,大小为2×h×w,并使用卷积层对合成后的特征图进行卷积,该卷积层的输入通道数为2,输出通道数为1,卷积核大小为7×7,卷积层输出的特征图大小为1×h×w,最后经过一个Sigmoid激活函数即得为在空间上的各个位置的权重,将输入图像与该权重在空间维度上逐一相乘即得到经过注意力机制后的特征图。
7.根据权利要求2所述的一种基于YUV颜色空间的无人机图像去雾方法,其特征在于:所述判别器由多个4×4卷积层和激活函数构成,将生成器生成的图像与原始的清晰图像进行拼接,放入卷积层中,最后得到二者的相似度。
8.根据权利要求7所述的一种基于YUV颜色空间的无人机图像去雾方法,其特征在于:
所述编码器由两个3x3的卷积层、ReLU激活函数、一个2x2的最大池化层反复组成,共4次;所述解码器由一个2x2的上采样层、ReLU激活函数、以及两个3x3的卷积层和ReLU激活函数反复构成,共4次。
9.一种计算机装置,包括存储器、处理器及储存在存储器上并能够在处理器上运行的计算机程序,其特征在于:所述处理器执行所述计算机程序时实现如权利要求1-8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110455259.5A CN113191971A (zh) | 2021-04-26 | 2021-04-26 | 一种基于yuv颜色空间的无人机图像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110455259.5A CN113191971A (zh) | 2021-04-26 | 2021-04-26 | 一种基于yuv颜色空间的无人机图像去雾方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113191971A true CN113191971A (zh) | 2021-07-30 |
Family
ID=76979107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110455259.5A Pending CN113191971A (zh) | 2021-04-26 | 2021-04-26 | 一种基于yuv颜色空间的无人机图像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113191971A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471429A (zh) * | 2022-10-31 | 2022-12-13 | 航天宏图信息技术股份有限公司 | 一种基于全局颜色迁移的遥感影像去雾方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109493303A (zh) * | 2018-05-30 | 2019-03-19 | 湘潭大学 | 一种基于生成对抗网络的图像去雾方法 |
CN112669242A (zh) * | 2021-03-16 | 2021-04-16 | 四川大学 | 基于改进图像增强算法与生成对抗网络的夜景复原方法 |
-
2021
- 2021-04-26 CN CN202110455259.5A patent/CN113191971A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109493303A (zh) * | 2018-05-30 | 2019-03-19 | 湘潭大学 | 一种基于生成对抗网络的图像去雾方法 |
CN112669242A (zh) * | 2021-03-16 | 2021-04-16 | 四川大学 | 基于改进图像增强算法与生成对抗网络的夜景复原方法 |
Non-Patent Citations (3)
Title |
---|
AI研习社: ""ICCV 2019 Tiger Pose Detection 冠军团队技术分享"", 《WWW.SOHU.COM/A/351195861_717210》 * |
JIAHAO ZHENG等: ""Single Image Cloud Removal Using U-Net and Generative Adversarial Networks"", 《IEEE TRANSACTION ON GEOSCIENCE AND REMOTE SENSING》 * |
YANAN GUO等: ""Cloud Detection for Satellite Imagery Using Attention-Based U-Net Convolutional Neural Network"", 《SYMMETRY》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471429A (zh) * | 2022-10-31 | 2022-12-13 | 航天宏图信息技术股份有限公司 | 一种基于全局颜色迁移的遥感影像去雾方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN108364270B (zh) | 偏色图像颜色还原方法及装置 | |
CN111507909A (zh) | 一种有雾图像清晰化的方法、装置及存储介质 | |
CN110288550B (zh) | 基于先验知识引导条件生成对抗网络的单张图像去雾方法 | |
CN111508013B (zh) | 立体匹配方法 | |
CN110136075B (zh) | 一种基于边缘锐化循环生成对抗网络的遥感影像去雾方法 | |
CN110544213A (zh) | 一种基于全局和局部特征融合的图像去雾方法 | |
CN111738948B (zh) | 一种基于双U-net的水下图像增强方法 | |
CN111539888B (zh) | 一种基于金字塔通道特征注意力的神经网络图像去雾方法 | |
CN111179196B (zh) | 一种基于分而治之的多分辨率深度网络图像去高光方法 | |
CN114004766A (zh) | 一种水下图像增强方法、系统和设备 | |
CN111539896A (zh) | 一种基于域自适应的图像去雾方法及系统 | |
CN112950521B (zh) | 一种图像去雾方法及生成器网络 | |
CN117274107B (zh) | 低照度场景下端到端色彩及细节增强方法、装置及设备 | |
Ali et al. | Boundary-constrained robust regularization for single image dehazing | |
CN113191971A (zh) | 一种基于yuv颜色空间的无人机图像去雾方法 | |
CN110738624B (zh) | 一种区域自适应的图像去雾系统及方法 | |
CN114648467B (zh) | 图像的去雾方法、装置、终端设备及计算机可读存储介质 | |
CN107301625B (zh) | 基于亮度融合网络的图像去雾方法 | |
CN116363027A (zh) | 一种利用红外图去除屏下rgb图像彩虹状眩光方法、设备及存储介质 | |
CN112926380B (zh) | 一种新型水下激光目标智能识别系统 | |
CN111028184B (zh) | 一种图像增强方法及系统 | |
CN114119428B (zh) | 一种图像去模糊方法和装置 | |
Haji-Esmaeili et al. | Playing for depth | |
US20230334626A1 (en) | Techniques for denoising videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210730 |
|
RJ01 | Rejection of invention patent application after publication |