CN115439847A - 一种基于生成对抗网络的雾天图像去雾方法及装置 - Google Patents

一种基于生成对抗网络的雾天图像去雾方法及装置 Download PDF

Info

Publication number
CN115439847A
CN115439847A CN202211075998.2A CN202211075998A CN115439847A CN 115439847 A CN115439847 A CN 115439847A CN 202211075998 A CN202211075998 A CN 202211075998A CN 115439847 A CN115439847 A CN 115439847A
Authority
CN
China
Prior art keywords
fog
image
network model
generation
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211075998.2A
Other languages
English (en)
Inventor
许达文
张祥建
张旻晋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Shihaixintu Microelectronics Co ltd
Original Assignee
Chengdu Shihaixintu Microelectronics Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Shihaixintu Microelectronics Co ltd filed Critical Chengdu Shihaixintu Microelectronics Co ltd
Priority to CN202211075998.2A priority Critical patent/CN115439847A/zh
Publication of CN115439847A publication Critical patent/CN115439847A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于生成对抗网络的雾天图像去雾方法及装置,涉及车辆自动驾驶及控制技术领域,所述方法包括:取训练图像数据集,所述训练图像数据集包括有雾图像和无雾图像对;构建生成对抗网络模型,所述生成对抗网络模型包括生成器和判别器;利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化后的生成对抗网络模型;将待去雾的雾图输入优化后的所述生成对抗网络模型,得到无雾图像。本发明增强了去雾效果,提高雾天图像的判别性;解决了现有技术中雾天环境图像存在的颜色偏差、背景模糊、对比度和能见度低等问题,降低了恶劣环境对无人驾驶车辆的影响。

Description

一种基于生成对抗网络的雾天图像去雾方法及装置
技术领域
本发明涉及车辆自动驾驶与控制技术领域,具体涉及一种基于生成对抗网络的雾天图像去雾方法及装置。
背景技术
随着人工智能的发展,各种户外场景高科技技术得以发展,但是这些户外场景应用技术需要清晰的图像数据,比如无人驾驶汽车。而在实践中,干扰是难以避免的,它们会导致获取的图像质量下降、视觉效果差、图像中的有用信息较少。这样的图像在处理后不会产生令人满意的结果,比如雨、雾、雪等恶劣环境。所以能够有效的消除这些恶劣环境对图像的影响有助于提高户外场景人工智能技术的应用,使得无人驾驶汽车能在恶劣环境下正常进行工作。
因此,本申请提供了一种基于合成生成对抗网络用于无人驾驶车辆雾天图像去雾方法,以增强去雾效果,提高雾天图像的判别性。
发明内容
针对现有技术中的缺陷,本发明提供一种基于生成对抗网络的雾天图像去雾方法及装置。
本发明的方案为:
第一方面,一种基于生成对抗网络的雾天图像去雾方法,其特征在于,包括:
步骤1:获取训练图像数据集,所述训练图像数据集包括有雾图像和无雾图像对;
步骤2:构建生成对抗网络模型,所述生成对抗网络模型包括生成器和判别器,其中,所述生成器包括4个编码器、9个Residual-Inception块和2个解码块,用于生成无雾图像;所述判别器包括2个编码器、3个残差块和1个卷积层,用于判断生成的无雾图像的真假;
步骤3:利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化后的生成对抗网络模型;
步骤4:将待去雾的雾图输入优化后的所述生成对抗网络模型,得到无雾图像。
优选地,所述生成器中的编码器包括卷积层、instance norm层和relu函数激活层,所述卷积层的核大小为3X3。
优选地,所述生成器中解码器的包括反卷积层、instance norm层和relu函数激活层,所述反卷积层的核大小为3X3。
优选地,所述Residual-Inception块采用跳跃连接,第i(i<=4)个所述Residual-Inception块的输出与第10-i个所述Residual-Inception块的输入连接。
优选地,所述Residual-Inception块由三个空间大小分别为3X3、5X5、7X7的平行卷积层组成,之后进行特征连接再通过三个平行3X3卷积层进行卷积操作,然后对卷积结果进行相加,最后通过1X1卷积层保持与Residual-Inception模块输入维度相同并把Residual-Inception模块输入特征与1X1卷积层输出进行相加。
优选地,所述判别器的编码器包括卷积层、instance norm层和relu函数激活层,所述卷积层的核大小为3X3,所述判别器的残差块包括3个卷积层和relu函数激活层,其中,第一个卷积层输出与第二个卷积层输出进行相加,第一个卷积层输出与relu激活单元输出进行相加,第二个卷积层输出加到relu激活单元输出。
优选地,所述对抗网络模型的损失函数为:
Figure BDA0003829970210000031
Figure BDA0003829970210000032
Figure BDA0003829970210000033
Figure BDA0003829970210000034
式中,
Figure BDA0003829970210000035
表示条件GAN损失用来指导图像生成,SSIM(G(x),y)表示SSIM损失用来保存图像的结构信息,
Figure BDA0003829970210000036
表示边缘损失用来保存图像的边缘信息,
Figure BDA0003829970210000037
表示L1范数,G(x)表示生成的无雾图像、y表示真实的无雾图像,μG(x)yG(x)yG(x)y分别表示图像G(x)、y的局部均值、标准差和互协方差,EG(x)表示生成的无雾图像的边缘图,Ey表示真实无雾图像的边缘图,其中,边缘图采用Canny算子进行提取。
优选地,利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化的生成对抗网络模型的方法包括:
步骤31:将所述训练图像数据集分为训练集和测试集;
步骤32:利用所述训练集对所述生成对抗网络模型进行训练,利用所述测试集对所述生成对抗网络模型进行测试;
步骤33:在所述测试结果达到预设准确率时,得到优化后的所述生成对抗网络模型。
第二方面,一种基于生成对抗网络的雾天图像去雾装置,包括:
获取模块,用于获取训练图像数据集,所述训练图像数据集包括有雾图像和无雾图像对;
构建模块,用于构建生成对抗网络模型,所述生成对抗网络模型包括生成器和判别器,其中,所述生成器包括4个编码器、9个Residual-Inception块和2个解码块,用于生成无雾图像;所述判别器包括2个编码器、3个残差块和1个卷积层,用于判断生成的无雾图像的真假;
训练模块,用于利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化的生成对抗网络模型;
去雾模块,用于将待去雾的雾图输入优化后的所述生成对抗网络模型,得到无雾图像。
第三方面,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述方法的步骤。
本发明的有益效果体现在:本发明提供了一种基于合成生成对抗网络用于无人驾驶车辆雾天图像去雾方法及装置,增强了去雾效果,提高雾天图像的判别性;解决了现有技术中雾天环境图像存在的颜色偏差、背景模糊、对比度和能见度低等问题,降低了恶劣环境对无人驾驶车辆的影响。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1为本发明实施例所提供的一种基于生成对抗网络的雾天图像去雾方法的流程图;
图2为本发明实施例所提供的生成器的结构示意图;
图3为本发明实施例所提供的生成器中编码器的Residual-Inception块的结构示意图;
图4为本发明实施例所提供的判别器的残差块的结构示意图
图5为本发明实施例所提供的一种基于生成对抗网络的雾天图像去雾装置的结构示意图;
图6为本发明实施例所提供的一种处理设备的结构示意图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
如图1所示,本发明实施例提供了一种基于生成对抗网络的雾天图像去雾方法,包括:
步骤1:获取训练图像数据集,所述训练图像数据集包括有雾图像和无雾图像对;
步骤2:构建生成对抗网络模型,所述生成对抗网络模型包括生成器和判别器,其中,所述生成器包括4个编码器、9个Residual-Inception块和2个解码块,用于生成无雾图像;所述判别器包括2个编码器、3个残差块和1个卷积层,用于判断生成的无雾图像的真假;
在本发明实施例中,所述生成器中编码器包括卷积层、IN层和relu函数激活层,所述卷积层的核大小为3X3。
在本发明实施例中,所述生成器中解码器包括反卷积层、IN层和relu函数激活层,所述反卷积层的核大小为3X3。
在本发明实施例中,生成器的每一层都包括卷积层(或者反卷积层)、IN层和LeakyReLU组成,以保证每层输出的图像大小都一致,具体的为256*256,同时,采用IN层对特征进行归一化处理,来代替其他工作中的B N对数据进行归一化,BN是对输入的一批数据进行归一化,因此一批数据中的不同样本之间容易相互影响,而IN只对单个样本的特征输出进行归一化操作可以消除这种影响。
如图3所示,在本发明实施例中,所述Residual-Inception块采用跳跃连接,第i(i<=4)个所述Residual-Inception块的输出与第10-i个所述Residual-Inception块的输入连接。
采用跳跃连接避免梯度消失,以便于实现更高层次的特征融合。
在本发明实施例中,所述Residual-Inception块由三个空间大小分别为3X3、5X5、7X7的平行卷积层组成,之后进行特征连接再通过三个平行3X3卷积层进行卷积操作,然后对卷积结果进行相加,最后通过1X1卷积层保持与Residual-Inception模块输入维度相同并把Residual-Inception模块输入特征与1X1卷积层输出进行相加。
在本发明实施例中,所述判别器的编码器包括卷积层、instance norm层和relu函数激活层,所述卷积层的核大小为3X3,所述判别器的残差块包括3个卷积层和relu函数激活层,其中,第一个卷积层输出与第二个卷积层输出进行相加,第一个卷积层输出与relu激活单元输出进行相加,第二个卷积层输出加到relu激活单元输出。
经过编码器从输入的雾图中提取特征,通过解码器从特征图中解码生成去雾图像,通过判别器判别图像的真假,以使得生成的无雾图像无限接近于真实的无雾图像。
在本发明实施例中,所述对抗网络模型的损失函数为:
Figure BDA0003829970210000061
Figure BDA0003829970210000062
Figure BDA0003829970210000063
Figure BDA0003829970210000064
式中,
Figure BDA0003829970210000071
表示条件GAN损失用来指导图像生成,SSIM(G(x),y)表示SSIM损失用来保存图像的结构信息,
Figure BDA0003829970210000072
表示边缘损失用来保存图像的边缘信息,
Figure BDA0003829970210000073
表示L1范数,G(x)表示生成的无雾图像、y表示真实的无雾图像,μG(x)yG(x)yG(x)y分别表示图像G(x)、y的局部均值、标准差和互协方差,EG(x)表示生成的无雾图像的边缘图,Ey表示真实无雾图像的边缘图,其中,边缘图采用Canny算子进行提取。
通过将雾图输入生成对抗网络模型(包括编码器、解码器和判别器),我们就可以把输入的雾图输出为无雾图像。生成对抗网络模型的参数主要通过条件GAN损失函数、条件GAN损失函数和边缘损失函数来优化。
步骤3:利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化的生成对抗网络模型;
在本发明实施例中,利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化的生成对抗网络模型的方法包括:步骤31:将所述训练图像数据集分为训练集和测试集;步骤32:利用所述训练集对所述生成对抗网络模型进行训练,利用所述测试集对所述生成对抗网络模型进行测试;步骤33:在所述测试结果达到预设准确率时,得到优化后的所述生成对抗网络模型。
具体的,通过Adam优化算法来更新生成对抗网络模型的参数。
步骤4:将待去雾的雾图输入优化后的所述生成对抗网络模型,得到无雾图像。
在本发明实施例中,通过车载摄像头获取雾天环境下的雾图,并将雾天环境下的雾图输入生成对抗网络模型,得到去雾后的无雾图像,将去雾后的所述无雾图像反馈给车机系统。
综上,本发明实施例提供了一种基于生成对抗网络的雾天图像去雾方法所述方法包括:取训练图像数据集,所述训练图像数据集包括有雾图像和无雾图像对;构建生成对抗网络模型,所述生成对抗网络模型包括生成器和判别器;利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化后的生成对抗网络模型;将待去雾的雾图输入优化后的所述生成对抗网络模型,得到无雾图像。本发明增强了去雾效果,提高雾天图像的判别性;解决了现有技术中雾天环境图像存在的颜色偏差、背景模糊、对比度和能见度低等问题,降低了恶劣环境对无人驾驶车辆的影响。
如图2所示,本发明实施例还提供了一种基于生成对抗网络的雾天图像去雾装置,包括:
获取模块201,用于获取训练图像数据集,所述训练图像数据集包括有雾图像和无雾图像对;
构建模块202,用于构建生成对抗网络模型,所述生成对抗网络模型包括生成器和判别器,其中,所述生成器包括4个编码器、9个Residual-Inception块和2个解码块,用于生成无雾图像;所述判别器包括2个编码器、3个残差块和1个卷积层,用于判断生成的无雾图像的真假;
训练模块203,用于利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化的生成对抗网络模型;
去雾模块204,用于将待去雾的雾图输入优化后的所述生成对抗网络模型,得到无雾图像。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital singnal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
图3为本发明实施例提供的一种处理设备的结构示意图,如图4所示,该处理设备可以包括:处理器301、存储器302。
存储器302用于存储程序,处理器301调用存储器302存储的程序,以执行上述方法实施例。具体实现方式和技术效果类似,这里不再赘述。
可选地,本发明还提供一种程序产品,例如计算机可读存储介质,包括程序,该程序在被处理器执行时用于执行上述方法实施例。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (10)

1.一种基于生成对抗网络的雾天图像去雾方法,其特征在于,包括,
步骤1:获取训练图像数据集,所述训练图像数据集包括有雾图像和无雾图像对;
步骤2:构建生成对抗网络模型,所述生成对抗网络模型包括生成器和判别器,其中,所述生成器包括4个编码器、9个Residual-Inception块和2个解码块,用于生成无雾图像;所述判别器包括2个编码器、3个残差块和1个卷积层,用于判断生成的无雾图像的真假;
步骤3:利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化后的生成对抗网络模型;
步骤4:将待去雾的雾图输入优化后的所述生成对抗网络模型,得到无雾图像。
2.根据权利要求1所述的一种基于生成对抗网络的雾天图像去雾方法,其特征在于,所述生成器的编码器包括卷积层、instance norm层和relu函数激活层,所述卷积层的核大小为3X3。
3.根据权利要求2所述的一种基于生成对抗网络的雾天图像去雾方法,其特征在于,所述生成器的解码器包括反卷积层、instance norm层和relu函数激活层,所述反卷积层的核大小为3X3。
4.根据权利要求3所述的一种基于生成对抗网络的雾天图像去雾方法,其特征在于,所述Residual-Inception块采用跳跃连接,第i(i<=4)个所述Residual-Inception块的输出与第10-i个所述Residual-Inception块的输入连接。
5.根据权利要求4所述的一种基于生成对抗网络的雾天图像去雾方法,其特征在于,所述Residual-Inception块由三个空间大小分别为3X3、5X5、7X7的平行卷积层组成,之后进行特征连接再通过三个平行3X3卷积层进行卷积操作,然后对卷积结果进行相加,最后通过1X1卷积层保持与Residual-Inception模块输入维度相同并把Residual-Inception模块输入特征与1X1卷积层输出进行相加。
6.根据权利要求1所述的一种基于生成对抗网络的雾天图像去雾方法,其特征在于,所述判别器的编码器包括卷积层、instance norm层和relu函数激活层,所述卷积层的核大小为3X3,所述判别器的残差块包括3个卷积层和relu函数激活层,其中,第一个卷积层输出与第二个卷积层输出进行相加,第一个卷积层输出与relu激活单元输出进行相加,第二个卷积层输出加到relu激活单元输出。
7.根据权利要求1所述的一种基于生成对抗网络的雾天图像去雾方法,其特征在于,所述对抗网络模型的损失函数为:
Figure FDA0003829970200000021
Figure FDA0003829970200000022
Figure FDA0003829970200000023
Figure FDA0003829970200000024
式中,
Figure FDA0003829970200000025
表示条件GAN损失用来指导图像生成,SSIM(G(x),y)表示SSIM损失用来保存图像的结构信息,
Figure FDA0003829970200000026
表示边缘损失用来保存图像的边缘信息,
Figure FDA0003829970200000027
表示L1范数,G(x)表示生成的无雾图像、y表示真实的无雾图像,μG(x)yG(x)yG(x)y分别表示图像G(x)、y的局部均值、标准差和互协方差,EG(x)表示生成的无雾图像的边缘图,Ey表示真实无雾图像的边缘图,其中,边缘图采用Canny算子进行提取。
8.根据权利要求1所述的一种基于生成对抗网络的雾天图像去雾方法,其特征在于,步骤3中,利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化的生成对抗网络模型的方法包括:
步骤31:将所述训练图像数据集分为训练集和测试集;
步骤32:利用所述训练集对所述生成对抗网络模型进行训练,利用所述测试集对所述生成对抗网络模型进行测试;
步骤33:在所述测试结果达到预设准确率时,得到优化后的所述生成对抗网络模型。
9.一种基于生成对抗网络的雾天图像去雾装置,其特征在于,包括:
获取模块,用于获取训练图像数据集,所述训练图像数据集包括有雾图像和无雾图像对;
构建模块,用于构建生成对抗网络模型,所述生成对抗网络模型包括生成器和判别器,其中,所述生成器包括4个编码器、9个Residual-Inception块和2个解码块,用于生成无雾图像;所述判别器包括2个编码器、3个残差块和1个卷积层,用于判断生成的无雾图像的真假;
训练模块,用于利用所述训练图像数据集对所述生成对抗网络模型进行训练,得到优化的生成对抗网络模型;
去雾模块,用于将待去雾的雾图输入优化后的所述生成对抗网络模型,得到无雾图像。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-8中任一项所述方法的步骤。
CN202211075998.2A 2022-09-02 2022-09-02 一种基于生成对抗网络的雾天图像去雾方法及装置 Pending CN115439847A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211075998.2A CN115439847A (zh) 2022-09-02 2022-09-02 一种基于生成对抗网络的雾天图像去雾方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211075998.2A CN115439847A (zh) 2022-09-02 2022-09-02 一种基于生成对抗网络的雾天图像去雾方法及装置

Publications (1)

Publication Number Publication Date
CN115439847A true CN115439847A (zh) 2022-12-06

Family

ID=84247225

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211075998.2A Pending CN115439847A (zh) 2022-09-02 2022-09-02 一种基于生成对抗网络的雾天图像去雾方法及装置

Country Status (1)

Country Link
CN (1) CN115439847A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115983352A (zh) * 2023-02-14 2023-04-18 北京科技大学 一种基于辐射场和生成对抗网络的数据生成方法及装置
CN116342437A (zh) * 2023-05-30 2023-06-27 中国空气动力研究与发展中心低速空气动力研究所 一种基于密集连接亚像素gan模型的图像去雾方法
CN116468974A (zh) * 2023-06-14 2023-07-21 华南理工大学 一种基于图像生成的烟雾检测方法、装置及存储介质
CN116721403A (zh) * 2023-06-19 2023-09-08 山东高速集团有限公司 一种道路交通标志检测方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115983352A (zh) * 2023-02-14 2023-04-18 北京科技大学 一种基于辐射场和生成对抗网络的数据生成方法及装置
CN116342437A (zh) * 2023-05-30 2023-06-27 中国空气动力研究与发展中心低速空气动力研究所 一种基于密集连接亚像素gan模型的图像去雾方法
CN116342437B (zh) * 2023-05-30 2023-07-21 中国空气动力研究与发展中心低速空气动力研究所 一种基于密集连接亚像素gan模型的图像去雾方法
CN116468974A (zh) * 2023-06-14 2023-07-21 华南理工大学 一种基于图像生成的烟雾检测方法、装置及存储介质
CN116468974B (zh) * 2023-06-14 2023-10-13 华南理工大学 一种基于图像生成的烟雾检测方法、装置及存储介质
CN116721403A (zh) * 2023-06-19 2023-09-08 山东高速集团有限公司 一种道路交通标志检测方法

Similar Documents

Publication Publication Date Title
CN115439847A (zh) 一种基于生成对抗网络的雾天图像去雾方法及装置
CN112183788B (zh) 一种域自适应设备运检系统和方法
CN114022799A (zh) 一种自监督单目深度估计方法和装置
CN115272330A (zh) 基于电池表面图像的缺陷检测方法、系统及相关设备
CN115147598A (zh) 目标检测分割方法、装置、智能终端及存储介质
CN113569852A (zh) 语义分割模型的训练方法、装置、电子设备及存储介质
CN115937442A (zh) 基于隐式神经表达的路面重建方法、车辆及存储介质
CN112149707B (zh) 图像采集控制方法、装置、介质及设备
CN113744280B (zh) 图像处理方法、装置、设备及介质
CN113989785A (zh) 一种驾驶场景分类方法、装置、设备及存储介质
CN114360064A (zh) 基于深度学习的办公场所人员行为轻量级目标检测方法
CN115810112A (zh) 图像处理方法、装置及存储介质、电子设备
CN111292331B (zh) 图像处理的方法与装置
CN113421217A (zh) 可行驶区域检测方法和装置
CN110222652B (zh) 行人检测方法、装置及电子设备
CN116912791A (zh) 目标检测方法、装置、计算机设备和存储介质
CN116843561A (zh) 一种图像增强方法及设备
CN116522973A (zh) 基于深度学习图像修复网络的受损qr码图像修复方法、装置及设备
Ali et al. Active contour image segmentation model with de‐hazing constraints
CN114418064B (zh) 一种目标检测方法、终端设备及存储介质
CN112967331B (zh) 一种图像处理的方法、电子设备及存储介质
CN116883770A (zh) 深度估计模型的训练方法、装置、电子设备及存储介质
CN115439499A (zh) 一种基于生成对抗网络的雨天图像去雨方法及装置
CN112837326A (zh) 遗留物检测方法、装置及设备
CN110363171A (zh) 天空区域预测模型的训练方法和识别天空区域的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination