CN116385293A - 基于卷积神经网络的雾天自适应目标检测方法 - Google Patents
基于卷积神经网络的雾天自适应目标检测方法 Download PDFInfo
- Publication number
- CN116385293A CN116385293A CN202310311838.1A CN202310311838A CN116385293A CN 116385293 A CN116385293 A CN 116385293A CN 202310311838 A CN202310311838 A CN 202310311838A CN 116385293 A CN116385293 A CN 116385293A
- Authority
- CN
- China
- Prior art keywords
- image
- convolution
- foggy
- defogging
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 53
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 51
- 238000000034 method Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 44
- 230000004913 activation Effects 0.000 claims description 30
- 238000013507 mapping Methods 0.000 claims description 26
- 230000009466 transformation Effects 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 230000003044 adaptive effect Effects 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 6
- 238000003707 image sharpening Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000002834 transmittance Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 abstract description 6
- 230000003287 optical effect Effects 0.000 abstract description 3
- 230000015556 catabolic process Effects 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 239000003595 mist Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- G06T5/70—
-
- G06T5/90—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Abstract
本发明提出一种基于卷积神经网络的雾天自适应目标检测方法,采用该方法在不同雾浓度的场景下对目标检测,具有较高的识别精度。所述方法包括:步骤S1:采用光学仪器设备采集雾天图像数据;步骤S2:将所述雾天图像数据输入到基于卷积神经网络结构的图像参数预测模块中,自适应地获取图像去雾和图像调节所需要的预测参数;步骤S3:将所述预测参数和所述雾天图像数据输入图像处理模块中,所述图像处理模块进行图像去雾和图像调节处理,得到恢复图像;步骤S4:将经过图像处理模块处理的图像作为YOLOv4检测器的输入,并利用YOLOv4检测器完成去雾算法和目标检测算联合优化。
Description
技术领域
本发明属雾天目标检测技术领域,涉及一种基于卷积神经网络的雾天自适应目标检测方法。
背景技术
目标检测是从视频或者图像中找到目标区域并标记出来的计算机视觉任务,通过算法提取特征来识别和定位特定类别的对象。目标检测在现实中具有广泛的应用场景,如人脸检测、车辆检测、车牌识别、行人计数以及无人驾驶等。目标检测算法通过对视频或图像内容提取特征进行学习,最后回归目标分类结果及其检测框。现有目标检测模型多基于自然场景下无降质的公共数据集,面向雾天场景下目标检测的数据集较少。
室外监控摄像头拍摄的场景图像或视频经常会受到雾、霾等漂浮大气粒子的影响,导致图像或视频内容模糊不清。这是因为大气光经过雾、霾等这些悬浮粒子时会发生分散和反射,导致成像的颜色和对比度发生变化,从而造成图像质量退化。与晴天图像相比,雾天图像整体偏白色且呈现模糊的状态。在目标检测任务中,检测精度跟图像本身的质量息息相关,图像质量下降会造成检测精度下降。
去雾算法是对雾天图像进行去雾处理的算法,该算法可以作为目标检测的预处理工具,实现对检测图像的质量提升。通过去雾算法对检测图像进行增强,有望实现更高的目标检测精度。
传统图像去雾算法无法直接用于目标检测,主要原因是传统去雾算法与目标检测算法各自独立,去雾算法仅可以充当目标检测的预处理工具,目标检测算法没有作为去雾算法的输入引导去雾算法的优化方向,在雾天目标检测任务中目标特征表达不足,在目标检测任务中目标提取难度大,目标检测模型对不同程度雾的鲁棒性差,且去雾算法和目标检测算法之间没有进行深度融合。
发明内容
为解决上述技术问题,本发明提出了一种基于卷积神经网络的雾天自适应目标检测方法,采用该方法在不同雾浓度的场景下对目标检测,具有较高的识别精度。
一种基于卷积神经网络的雾天自适应目标检测方法,包括以下步骤:
步骤S1:获取雾天图像数据;
步骤S2:将所述雾天图像数据输入到基于卷积神经网络结构的图像参数预测模块中,获取图像去雾和图像调节所需要的CF-Net预测参数;
步骤S3:将所述CF-Net预测参数和所述雾天图像数据输入图像处理模块中,所述图像处理模块基于所述CF-Net预测参数进行图像去雾和图像调节处理,得到恢复图像;
步骤S4:将经过图像处理模块处理的恢复图像作为YOLOv4检测器的输入,并利用YOLOv4检测器完成目标检测结果输出,并向所述图像参数预测模块反馈数据,以优化预测参数。
所述步骤S2包括:首先对所述雾天图像数据进行预处理,当图像分辨率大于256×256时,将所述图像缩放为256×256;当所述图像分辨率小于256×256时,保持原分辨率不变;
选用卷积层、空洞卷积层和全连接层作为所述图像参数预测模块的网络结构,通过学习所述图像的内容预测所述图像去雾所需的CF-Net预测参数。
所述图像处理模块包括三个滤波器:去雾处理模块的滤波器、图像逐像素级滤波器和图像锐化处理滤波器;所述去雾处理模块的滤波器包括:去雾调节因子ω,去雾偏置系数C参数;所述图像逐像素级滤波器包括白平衡W、伽玛变换参数G、对比度t和色调α;所述图像锐化处理滤波器包括锐化参数λ。
所述优化预测参数包括:
设置训练参数:最大训练轮次为80,每次批大小为6;
通过所述参数预测模块确定所述图像处理模块所需预测参数;
对所述图像进行去雾滤波处理;
将处理后的所述图像送入所述YOLOv4检测器中,并通过所述YOLOv4检测器的损失来计算梯度,并根据所述梯度并更新所述参数预测模块中的CF-Net的预测参数。
所述图像参数预测模块包括C1卷积层、C2卷积层、C3卷积层、C4空洞卷积层、C5空洞卷积层、F1全连接层和F2全连接层;
由所述C1卷积层接收输入的所述雾天图像数据进行卷积操作和LeakyRelu非线性激活函数激活操作,进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为16;
所述C2卷积层接收C1卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32;
所述C3卷积层接收C2卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32;
所述C4空洞卷积层接收C3卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32;
所述C5空洞卷积层接收C4空洞卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32;
所述F1全连接层连接所述C5空洞卷积层下采样的数据进行平滑处理,所述F2全连接层连接所述F1全连接层得到所述预测参数、去雾调节因子ω和去雾偏置系数C。
所述去雾处理模块将有雾图像表示如式(1)所示:
设计对比度变换函数、白平衡映射函数、伽马变换映射函数、色调变换映射函数,它们组成所述图像处理模块的图像逐像素级滤波器,向所述图像逐像素级滤波器输入像素值红色、绿色和蓝色三个通道的输入像素值J(x)=(rm,gm,bm),映射出输出所述三个通道的新像素值
(rm,gm,bm)表示红色、绿色和蓝色通道的像素值;
所述对比度变换函数表达式如式(2)所示:
Oc=(0.27rm,0.67gm,0.06bm) (2);
所述白平衡映射函数表达式如式(3)所示,其中Wr,Wg,Wb为白平衡调节的参数,rc,gc,bc为对比度变换后的所述三个通道的像素值;
rc=0.27rm,gc=0.67gm,bc=0.06bm;
Ow=(Wrrc,Wggc,Wbbc) (3);
所述伽马变换映射函数表达式如式(4)所示,其中G是伽马变换参数,rw,gw,bw为白平衡变换后的所述三个通道的像素值;
rw=Wrrc,gw=Wggc;
Ogm=(rw G,gw G,bw G) (4);
所述色调变换映射函数表达式如式(5)所示,其中T是色调曲线,t是色调曲线T的内部参数,rgm,ggm,bgm为伽马变换后的所述三个通道的像素值;
rgm=rw G,ggm=gw G,bgm=bw G;
所述图像逐像素级滤波器中的参数使用所述参数预测模块的神经网络反向传播进行优化。
所述锐化处理滤波器包括用于锐化调节的映射函数,所述锐化调节的映射函数表达式如式(6)所示:
F(x,λ)=On+λ(On-Gau(On)) (6);
其中On是输入图像,Gau(I(x))是高斯滤波器,λ是锐化参数,F(x,λ)为图像处理模块处理的图像结果。
本发明实施例提供的基于卷积神经网络的雾天自适应目标检测方法,该方法利用参数预测模块、图像处理模块以及目标检测模块,基于卷积神经网络结构,实现参数的自适应获取学习以及预测,实现了图像去雾效果以及图像的对比度、色调等图像属性的明显提升。以端到端的方式实现图像去雾处理和目标检测联合学习。通过目标检测框弱监督约束方法,参数预测模块学习到适应目标检测的图像增强参数,从而提升最终目标检测的性能。
附图说明
图1为本发明实施例提供的一种参数预测模块的网络结构示意图;
图2为本发明实施例提供的一种图像处理模块的网络结构示意图;
图3为本发明实施例提供的一种基于卷积神经网络的雾天自适应目标检测方法的流程示意图。
具体实施方式
以下结合附图对本发明的具体实施方式作出详细说明。
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。
参见图3,本发明包括:步骤S1:采用光学仪器设备采集雾天图像数据;
采用光学仪器设备采集到相关的雾天图像,大体上可以将雾气浓度分为薄雾、中雾以及大雾三类。采集的雾天图像数据集含有81110张数据,共195610个检测数据。其中人、自行车、汽车、公交车以及摩托车分别有132560、10640、32640、8220以及10520个检测数据。
步骤S2:将所述雾天图像数据输入到基于卷积神经网络结构的图像参数预测模块中,自适应地获取图像去雾和图像调节所需要的预测参数;将雾天图像数据输入到基于卷积神经网络结构的图像参数预测模块中。图像输入为一幅最大为256×256大小的图像,若图像大于256×256需要调节为256×256,若图像小于256×256则保持输入图像大小不变。由C1卷积层接收输入图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为16。C2卷积层接收C1卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32。C3卷积层接收C2卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32。C4空洞卷积层接收C3卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32。C5空洞卷积层接收C4空洞卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32。F1全连接层连接C5空洞卷积层下采样的数据进行平滑处理,F2全连接层连接F1全连接层得到最后输出参数的预测值,去雾调节因子ω,去雾偏置系数C。
步骤S3:将所述预测参数和所述雾天图像数据输入图像处理模块中,所述图像处理模块进行图像去雾和图像调节处理,得到恢复图像;
附图2展示了图像处理模块的处理流程,图像处理模块由三个可微的滤波器组成。其中,每个滤波器对应不同的参数。去雾处理模块的滤波器由去雾调节因子ω,去雾偏置系数C参数组成。图像逐像素级的滤波器包括白平衡、伽玛、对比度、色调等四部分,对应的参数分别为W、G、t、α。图像锐化处理滤波器对应的锐化参数为λ。
本发明设计了一个具有可学习参数的去雾滤波器,对从卷积神经网络中获得的去雾参数,记为去雾调节因子ω,去雾偏置系数C。有雾图像可以表示如式(1)所示:
其中I(x)是有雾的图像,J(x)表示去雾之后的图像,A为估计的大气光值,为透射率图。由于上述操作是可微的,本文可以通过反向传播来优化ω和C,使去雾滤波器更有利于有雾图像的检测。经过去雾算法处理的图像,色调整体偏暗,需要添加逐像素处理模块来调节图像的对比度,提升图像质量。
设计对比度变换函数、白平衡映射函数、伽马变换映射函数、色调变换映射函数,它们组成所述图像处理模块的图像逐像素级滤波器,向所述图像逐像素级滤波器输入像素值红色、绿色和蓝色三个通道的输入像素值J(x)=(rm,gm,bm),映射出输出所述三个通道的新像素值
(rm,gm,bm)表示红色、绿色和蓝色通道的像素值;
所述对比度变换函数表达式如式(2)所示:
Oc=(0.27rm,0.67gm,0.06bm) (2)
所述白平衡映射函数表达式如式(3)所示,其中Wr,Wg,Wb为白平衡调节的参数,rc,gc,bc为对比度变换后的所述三个通道的像素值;
rc=0.27rm,gc=0.67gm,bc=0.06bm;
Ow=(Wrrc,Wggc,Wbbc) (3)
所述伽马变换映射函数表达式如式(4)所示,其中G是伽马变换参数,rw,gw,bw为白平衡变换后的所述三个通道的像素值;
rw=Wrrc,gw=Wggc,bw=Wbbc;
Ogm=(rw G,gw G,bw G) (4)
所述色调变换映射函数表达式如式(5)所示,其中T是色调曲线,t是色调曲线T的内部参数,rgm,ggm,bgm为伽马变换后的所述三个通道的像素值;rgm=rw G,ggm=gw G,bgm=bw G;
所述图像逐像素级滤波器中的参数使用所述参数预测模块的神经网络反向传播进行优化。
去雾算法处理后的图像较为平滑,边缘信息不明显,为了解决该问题,在去雾处理后进行锐化处理,使得图像边缘细节更加丰富。锐化调节的映射函数如式(6)所示:
F(x,λ)=On+λ(On-Gau(On)) (6);
其中On是输入图像,Gan(I(x))表示高斯滤波器,λ是正比例因子,F(x,λ)为图像处理模块处理的图像结果。这种锐化操作对于x和λ都是可微的。可以通过优化λ来调整锐化度以获得更好的目标检测性能。
步骤S4:将经过图像处理模块处理的图像作为YOLOv4检测器的输入,利用YOLOv4检测器完成去雾算法和目标检测算联合优化;
如附图3所示,整个发明由参数预测模块、图像处理模块以及检测网络YOLOv4组成。首先,将输入图像调整为256×256的大小,将其输入参数预测模块学习预测图像处理模块所需的最优参数,经由图像处理模块进行去雾和图像优化处理。然后,将经过图像处理模块处理的图像作为YOLOv4检测器的输入,利用YOLOv4的检测框弱监督参数预测模块,完成去雾算法和目标检测算联合优化的过程。
联合优化的具体流程为:
(1)用预先训练参数θ初始化参数预测模块Pθ,随机参数β初始化YOLOv4网络Dβ。
(2)设置训练阶段:num_epochs=80,batch_size=6。
(3)准备雾天数据集VOC_f。
(4)通过PN=Pθ(image_batch)计算图像处理模块所需参数。
(5)通过image_batch=FP-Net(image_batch,PN)进行图像滤波处理,其中FP-Net为图像图像处理模块的集合操作。
(6)将image_batch发送到YOLOv4网络Dβ;根据YOLOv4检测损失更新参数预测模块Pθ和YOLOv4网络Dβ。
最后应说明的是,以上实施方式仅用以说明本发明实施例的技术方案而非限制,尽管参照以上较佳实施方式对本发明实施例进行了详细说明,本领域的普通技术人员应当理解,可以对本发明实施例的技术方案进行修改或等同替换都不应脱离本发明实施例的技术方案的精神和范围。
Claims (8)
1.一种基于卷积神经网络的雾天自适应目标检测方法,其特征在于,包括以下步骤:
步骤S1:获取雾天图像数据;
步骤S2:将所述雾天图像数据输入到基于卷积神经网络结构的图像参数预测模块中,获取图像去雾和图像调节所需要的CF-Net预测参数;
步骤S3:将所述CF-Net预测参数和所述雾天图像数据输入图像处理模块中,所述图像处理模块基于所述CF-Net预测参数进行图像去雾和图像调节处理,得到恢复图像;
步骤S4:将经过图像处理模块处理的恢复图像作为YOLOv4检测器的输入,并利用YOLOv4检测器完成目标检测结果输出,并向所述图像参数预测模块反馈数据,以优化预测参数。
2.根据权利要求1所述的基于卷积神经网络的雾天自适应目标检测方法,其特征在于,所述步骤S2包括:首先对所述雾天图像数据进行预处理,当图像分辨率大于256×256时,将所述图像缩放为256×256;当所述图像分辨率小于256×256时,保持原分辨率不变;
选用卷积层、空洞卷积层和全连接层作为所述图像参数预测模块的网络结构,通过学习所述图像的内容预测所述图像去雾所需的CF-Net预测参数。
3.根据权利要求1所述的基于卷积神经网络的雾天自适应目标检测方法,其特征在于,所述图像处理模块包括三个滤波器:去雾处理模块的滤波器、图像逐像素级滤波器和图像锐化处理滤波器;所述去雾处理模块的滤波器包括:去雾调节因子ω,去雾偏置系数C参数;所述图像逐像素级滤波器包括白平衡W、伽玛变换参数G、对比度t和色调α;所述图像锐化处理滤波器包括锐化参数λ。
4.根据权利要求1所述的基于卷积神经网络的雾天自适应目标检测方法,其特征在于,所述优化预测参数包括:
设置训练参数:最大训练轮次为80,每次批大小为6;
通过所述参数预测模块确定所述图像处理模块所需预测参数;
对所述图像进行去雾滤波处理;
将处理后的所述图像送入所述YOLOv4检测器中,并通过所述YOLOv4检测器的损失来计算梯度,并根据所述梯度并更新所述参数预测模块中的CF-Net的预测参数。
5.根据权利要求2所述的基于卷积神经网络的雾天自适应目标检测方法,其特征在于,所述图像参数预测模块包括C1卷积层、C2卷积层、C3卷积层、C4空洞卷积层、C5空洞卷积层、F1全连接层和F2全连接层;
由所述C1卷积层接收输入的所述雾天图像数据进行卷积操作和LeakyRelu非线性激活函数激活操作,进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为16;
所述C2卷积层接收C1卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32;
所述C3卷积层接收C2卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32;
所述C4空洞卷积层接收C3卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32;
所述C5空洞卷积层接收C4空洞卷积层处理的图像进行卷积操作和LeakyRelu非线性激活函数激活操作进行下采样,其中卷积核大小为3×3,卷积步长为2,输出通道大小为32;
所述F1全连接层连接所述C5空洞卷积层下采样的数据进行平滑处理,所述F2全连接层连接所述F1全连接层得到所述预测参数、去雾调节因子ω和去雾偏置系数C。
7.根据权利要求6所述的基于卷积神经网络的雾天自适应目标检测方法,其特征在于,设计对比度变换函数、白平衡映射函数、伽马变换映射函数、色调变换映射函数,它们组成所述图像处理模块的图像逐像素级滤波器,向所述图像逐像素级滤波器输入像素值红色、绿色和蓝色三个通道的输入像素值
J(x)=(rm,gm,bm),映射出输出所述三个通道的新像素值
(rm,gm,bm)表示红色、绿色和蓝色通道的像素值;
所述对比度变换函数表达式如式(2)所示:
Oc=(0.27rm,0.67gm,0.06bm) (2);
所述白平衡映射函数表达式如式(3)所示,其中Wr,Wg,Wb为白平衡调节的参数,rc,gc,bc为对比度变换后的所述三个通道的像素值;rc=0.27rm,gc=0.67gm,bc=0.06bm;
Ow=(Wrrc,Wggc,Wbbc) (3);
所述伽马变换映射函数表达式如式(4)所示,其中G是伽马变换参数,rw,gw,bw为白平衡变换后的所述三个通道的像素值;
rw=Wrrc,gw=Wggc,bw=Wbbc;;
Ogm=(rw G,gw G,bw G) (4);
所述色调变换映射函数表达式如式(5)所示,其中T是色调曲线,t是色调曲线T的内部参数,rgm,ggm,bgm为伽马变换后的所述三个通道的像素值;
rgm=rw G,ggm=gw G,bgm=bw G;
所述图像逐像素级滤波器中的参数使用所述参数预测模块的神经网络反向传播进行优化。
8.根据权利要求7所述的基于卷积神经网络的雾天自适应目标检测方法,其特征在于,所述锐化处理滤波器包括用于锐化调节的映射函数,所述锐化调节的映射函数表达式如式(6)所示:
F(x,λ)=On+λ(On-Gau(On)) (6);
其中On是输入图像,Gau(I(x))是高斯滤波器,λ是锐化参数,F(x,λ)为图像处理模块处理的图像结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310311838.1A CN116385293A (zh) | 2023-03-28 | 2023-03-28 | 基于卷积神经网络的雾天自适应目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310311838.1A CN116385293A (zh) | 2023-03-28 | 2023-03-28 | 基于卷积神经网络的雾天自适应目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116385293A true CN116385293A (zh) | 2023-07-04 |
Family
ID=86960895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310311838.1A Pending CN116385293A (zh) | 2023-03-28 | 2023-03-28 | 基于卷积神经网络的雾天自适应目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116385293A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117456313A (zh) * | 2023-12-22 | 2024-01-26 | 中国科学院宁波材料技术与工程研究所 | 色调曲线估计网络的训练方法、估计、映射方法及系统 |
-
2023
- 2023-03-28 CN CN202310311838.1A patent/CN116385293A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117456313A (zh) * | 2023-12-22 | 2024-01-26 | 中国科学院宁波材料技术与工程研究所 | 色调曲线估计网络的训练方法、估计、映射方法及系统 |
CN117456313B (zh) * | 2023-12-22 | 2024-03-22 | 中国科学院宁波材料技术与工程研究所 | 色调曲线估计网络的训练方法、估计、映射方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN108230264B (zh) | 一种基于ResNet神经网络的单幅图像去雾方法 | |
CN108615226B (zh) | 一种基于生成式对抗网络的图像去雾方法 | |
WO2021164234A1 (zh) | 图像处理方法以及图像处理装置 | |
CN108564549B (zh) | 一种基于多尺度稠密连接网络的图像去雾方法 | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN112819772A (zh) | 一种高精度快速图形检测识别方法 | |
CN109509156B (zh) | 一种基于生成对抗模型的图像去雾处理方法 | |
CN112102179B (zh) | 一种基于Retinex的深度网络单幅图像去雾方法 | |
CN111582074A (zh) | 一种基于场景深度信息感知的监控视频树叶遮挡检测方法 | |
CN112070688A (zh) | 一种基于上下文引导生成对抗网络的单幅图像去雾方法 | |
CN116385293A (zh) | 基于卷积神经网络的雾天自适应目标检测方法 | |
CN112164010A (zh) | 一种多尺度融合卷积神经网络图像去雾方法 | |
CN114881867A (zh) | 一种基于深度学习的图像去噪方法 | |
Qian et al. | CIASM-Net: a novel convolutional neural network for dehazing image | |
CN112419163B (zh) | 一种基于先验知识和深度学习的单张图像弱监督去雾方法 | |
CN110738624B (zh) | 一种区域自适应的图像去雾系统及方法 | |
CN116542865A (zh) | 一种基于结构重参数化的多尺度实时去雾方法及装置 | |
CN113763261B (zh) | 一种海雾气象条件下的远小目标实时检测方法 | |
CN113936022A (zh) | 一种基于多模态特征与极化注意力的图像去雾方法 | |
CN114140361A (zh) | 融合多级特征的生成式对抗网络图像去雾方法 | |
CN113870162A (zh) | 一种融合光照和反射的低光图像增强方法 | |
CN114882346A (zh) | 一种基于视觉的水下机器人目标自主识别方法 | |
CN113792793B (zh) | 一种不良气象环境下道路视频监测提升方法 | |
CN112733714B (zh) | 一种基于vgg网络的自动人群计数图像识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |