CN107316286A - 一种图像中雨雾同步合成、去除的方法和装置 - Google Patents
一种图像中雨雾同步合成、去除的方法和装置 Download PDFInfo
- Publication number
- CN107316286A CN107316286A CN201710549424.7A CN201710549424A CN107316286A CN 107316286 A CN107316286 A CN 107316286A CN 201710549424 A CN201710549424 A CN 201710549424A CN 107316286 A CN107316286 A CN 107316286A
- Authority
- CN
- China
- Prior art keywords
- image
- convolutional neural
- neural networks
- rain
- reference picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000001360 synchronised effect Effects 0.000 title claims abstract description 40
- 150000001875 compounds Chemical class 0.000 title claims abstract description 29
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 119
- 238000012549 training Methods 0.000 claims abstract description 54
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 37
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 36
- 238000005516 engineering process Methods 0.000 claims abstract description 10
- 239000003595 mist Substances 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000000149 argon plasma sintering Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 7
- 241000208340 Araliaceae Species 0.000 claims description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 3
- 235000008434 ginseng Nutrition 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000010189 synthetic method Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 48
- 238000004891 communication Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 8
- 230000001537 neural effect Effects 0.000 description 8
- 230000007935 neutral effect Effects 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000000151 deposition Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004549 pulsed laser deposition Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000001704 evaporation Methods 0.000 description 1
- 230000008020 evaporation Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明实施例提供了一种图像中雨雾同步合成、去除的方法和装置,合成方法为:选取任一幅不带雨雾的真实图像作参考图像;将参考图像经过有雨图像模型RRM进行融合,合成接近真实场景的有雨雾图像;去除方法为:选取多张合成有雨雾的图像作为训练集;对全卷积神经网络进行训练,获得训练后的全卷积神经网络;获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨后的图像。该方法实现了图像中雨雾同步合成和去除的问题。
Description
技术领域
本发明属于图像处理技术领域,特别是涉及一种图像中雨雾同步、去除的方法和装置。
背景技术
以面向室外场景的智能监控系统例,现有的智能监控系统首先通过摄像头采集图像,然后通过各种计算机视觉算法对图像内容进行分析,包括图像中特定目标的识别与跟踪、打架斗殴等异常事件的检测。这类视觉算法通常都需要对图像特征的准确提取,因此对图像质量要求很高。
然而,天气因素是监控系统无法控制的,下雨会不可避免地造成图像质量的下降,从而影响图像特征提取的准确性,进而导致视觉算法性能下降甚至完全失效。同时,下雨所造成的图像质量下降意味着图像的可观测性也会下降,这会导致用户难以通过人眼对监控内容进行判断与分析,通过对大量的有雨图像进行观察,发现在真实环境中,由于下雨导致空气的湿度上升,进而环境中的水分蒸发等因素会产生水汽或者雾气(本发明中统称为雾),导致了获取的图像更加模糊。
基于此,目前有两种方法对下雨天拍摄的图像进行了成研究,第一种方法提出了一种卷积神经网络,可以同时实现图像中雨的检测和去除,但不能去雾,该方法虽然意识到真实有雨图像中雨雾并存的现象,也对有雨图像先进行去雾、再去雨、最后再去雾的处理,也获得了清晰的图像。但是该方法将雨和雾看做相互独立的两部分,分别对所述两部分进行处理。然而,真实环境中,雨雾并不是相互独立的,雾是由雨产生的,雾的浓度与雨的分布也存在一定的关系。因此,该方法对于真实有雨图像的处理效果不佳。
发明内容
本发明实施例的目的在于提供一种图像中雨雾同步合成和去除的方法和装置,以实现图像中雨雾同步合成和去除的问题。具体技术方案如下:
一种图像中雨雾同步合成方法,该方法包括:
选取任一幅不带雨雾的真实图像作参考图像;
将参考图像经过有雨图像模型RRM进行处理,合成接近真实场景的有雨雾图像J,其中,RRM模型为:J=I+R*H,I和R分别为不带雨雾的参考图像和雨线,H为雾的图像模型,*代表卷积。
进一步地,所述将参考图像经过有雨图像模型RRM进行处理,合成接近真实场景的有雨图像J,包括:
将所述参考图像I由RGB色彩空间转换到亮度色度YCbCr空间,获得YCbCr空间的图像;
根据所述YCbCr空间的图像,将雨线R叠加在所述YCbCr空间的Y通道上,合成带有雨线的图像;
将所述带有雨线的YCbCr图像转化到RGB空间,获得带有雨线的RGB图像;
计算所述参考图像的透射率t(x),获得雾的图像模型H(x),其中,x为参考图像中的像素点;
将所述带有雨线的图像与雾的图像模型H(x)进行处理,合成带有雨雾的合成图像J。
进一步地,所述计算参考图像的透射率t(x),获得含有雾的图像模型H(x),包括:
计算参考图像的深度信息d(x);
根据参考图像的深度信息d(x)和大气光散射系数β,获得透射率t(x);
利用获取的透射率t(x),基于大气散射模型,获得含有雾的图像模型H(x):
H(x)=R(x)·t(x)+A·(1-t(x))
其中,A为大气光。
一种图像中雨雾同步去除方法,所述方法包括:
选取多张合成有雨雾的图像作为训练集;
对全卷积神经网络进行训练,获得训练后的全卷积神经网络;
获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨后的图像。
进一步地,所述对全卷积神经网络进行训练,获得训练后的全卷积神经网络,包括:
构建全卷积神经网络,所述全卷积神经网络为:
Ft(X)=σ(Wt*Ft-1(X)+Bt)
其中,X为全卷积神经网络中有雨雾的图像的参数输入,Ft(X)、Ft-1(X)分别为全卷积神经网络的第t层和t-1层特征图的输出,t={1,2,……,T},T为卷积神经网络的层数,T取自然数,Wt和Bt分别为全卷积神经网络的权重和偏置,σ(·)为双曲正切激活函数;
选取与有雨雾的图像对应的不带雨雾的真实图像作参考图像;
基于构建的全卷积神经网络和参考图像,根据色彩损失函数l和暗通道损失函数lD,获得全卷积神经网络训练的目标函数L,其中,所述全卷积神经网络训练的目标函数L为:
λ为用于平衡色彩损失函数l和暗通道损失函数lD的参数,N为训练样本的总数量,y是参考图像的像素值,||·||2是L2范数的平方,d是参考图像的暗通道,是图像的稀疏暗通道函数, 表示阿达马乘积,M是一个大小与去雨图像Ft(x)相同的三维掩码矩阵,i、j为图像Ft(x)的像素位置,c为图像通道数;
对所述全卷积神经网络训练的目标函数L进行优化,获得全卷积神经网络的权重和偏置,从而获得训练后的全卷积神经网络。
一种图像中雨雾同步合成装置,该装置包括:
第一选取参考图像模块,用于选取任一幅不带雨雾的真实图像作参考图像;
合成图像模块,用于将参考图像经过有雨图像模型RRM进行处理,合成接近真实场景的有雨雾图像J,其中,RRM模型为:J=I+R*H,I和R分别为不带雨雾的参考图像和雨线,H为雾的图像模型,*代表卷积。
进一步地,所述合成图像模块,包括:
转换YCbCr空间子模块,用于将所述参考图像I由RGB空间转换到亮度色度YCbCr空间,获得YCbCr空间的图像;
合成雨线子模块,用于根据所述YCbCr空间的图像,将雨线R叠加在所述YCbCr图像的Y通道上,合成带有雨线的图像;
转换RGB空间子模块,将所述带有雨线的图像转化到RGB空间,获得带有雨线的RGB图像;
获得雾图像模型子模块,计算所述参考图像的透射率t(x),获得雾的图像模型H(x),其中,x为参考图像中的像素点;
合成雨雾的合成图像子模块,用于将所述带有雨线的RGB图像与雾的图像模型H(x)进行处理,合成带有雨雾的合成图像J。
进一步地,所述获得雾图像模型子模块,包括:
深度信息子单元,用于计算参考图像的深度信息d(x);
透射率子单元,用于根据参考图像的深度信息d(x)和大气光散射系数β,获得透射率t(x);
含雾的图像模型计算子单元,用于利用获取的透射率t(x),基于大气散射模型,获得含有雾的图像模型H(x):
H(x)=R(x)·t(x)+A·(1-t(x))
其中,A为大气光。
一种图像中雨雾同步去除装置,该装置包括:
选取有雨雾图像模块,用于选取多张合成的有雨雾图像作为训练集;
训练全卷积神经网络模块,用于对全卷积神经网络进行训练,获得训练后的全卷积神经网络;
去除雨雾模块,用于获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨雾后的图像。
进一步地,所述训练全卷积神经网络模块,包括:
构建全卷积神经网络子模块,用于构建全卷积神经网络,所述全卷积神经网络为:
Ft(X)=σ(Wt*Ft-1(X)+Bt)
其中,X为全卷积神经网络中有雨雾的图像的参数输入,Ft(X)、Ft-1(X)分别为全卷积神经网络的第t层和t-1层特征图的输出,t={1,2,……,T},T为卷积神经网络的层数,T取自然数,Wt和Bt分别为全卷积神经网络的权重和偏置,σ(·)为双曲正切激活函数;
第二选取参考图像子模块,用于选取与有雨雾的图像对应的不带雨雾的真实图像作参考图像;
构建目标函数子模块,用于在构建的全卷积神经网络和参考图像基础上,根据色彩损失函数l和暗通道损失函数lD,获得全卷积神经网络训练的目标函数L,其中,所述全卷积神经网络训练的目标函数L为:
λ为用于平衡色彩损失函数l和暗通道损失函数lD的参数,N为训练样本的总数量,y是参考图像的像素值,||·||2是L2范数的平方,d是参考图像的暗通道,是图像的稀疏暗通道函数, 表示阿达马乘积,M是一个大小与去雨图像Ft(x)相同的三维掩码矩阵,i、j为图像Ft(x)的像素位置,c为图像通道数,c=3;
优化目标函数子模块,用于对所述全卷积神经网络训练的目标函数L进行优化,获得全卷积神经网络的权重和偏置,从而获得训练后的全卷积神经网络。
本发明实施例提供的一种图像中雨雾同步、去除的方法和装置,可以通过选取任一幅不带雨雾的RGB的真实图像作参考图像;将参考图像经过有雨模型RRM进行融合,合成接近真实场景的有雨雾图像;选取多张合成有雨雾的图像作为训练集;并对全卷积神经网络进行训练,获得训练后的全卷积神经网络;将拍摄的真实有雨图像输入到训练后的全卷积神经网络,获得去除雨后的图像,该方案解决了图像中雨雾同步合成和去除的问题,使得获得了更加真实的雨雾合成和去除的图像;当然,实施本发明的任一产品或方法必不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的第一种图像中雨雾同步合成方法的流程示意图;
图2为本申请实施例提供的第一种图像中雨雾同步去除方法的流程示意图;
图3为本申请实施例提供的图像中雨雾同步合成过程的示意图;
图4为本申请实施例提供的第二种图像中雨雾同步合成方法的流程示意图;
图5为本申请实施例提供的第二种图像中雨雾同步去除方法的流程示意图;
图6为本申请实施例提供的第一种图像中雨雾同步合成装置的示意图;
图7为本申请实施例提供的合成合成图像模块的示意图;
图8为本申请实施例提供的第一种图像中雨雾同步去除装置的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本申请实施例提供的第一种图像中雨雾同步合成方法,该方法包括:
S101,选取任一幅不带雨雾的真实图像作参考图像;
其中,所述不带雨雾的真实图像是指在晴天拍摄的真实照片。
S102,将参考图像经过有雨图像模型RRM进行处理,合成接近真实场景的有雨雾图像J,其中,RRM模型为:J=I+R*H,I和R分别为不带雨雾的参考图像和雨线,H为雾的图像模型,*代表卷积。
其中,上述将参考图像经过有雨图像模型RRM进行处理指的是将参考图像作为RRM模型的输入,经过RRM模型处理,输出合成接近真实场景的有雨雾图像J。
值得一提的是,相比传统的线性模型,即J=I+R,上述RRM模型即J=I+R*H不但可以描述图像中雨雾共存的问题,而且也可以表达图像中雨雾的非线性关系。
其中,所述H为:H(x)=S(x)·t(x)+A·(1-t(x)),t(x)为参考图像的透射率,S(x)为大气散射模型,A为大气光,x为参考图像中的像素点。
上述的一种实施方式,包括:
将所述参考图像I由RGB色彩空间转换到亮度色度YCbCr空间,获得YCbCr空间的图像;
根据所述YCbCr空间的图像,将雨线R叠加在所述YCbCr空间的Y通道上,合成带有雨线的图像;
将所述带有雨线的YCbCr图像转化到RGB空间,获得带有雨线的RGB图像;
计算所述参考图像的透射率t(x),获得雾的图像模型H(x),其中,x为参考图像中的像素点;
将所述带有雨线的RGB图像与雾的图像模型H(x)进行处理,合成带有雨雾的合成图像J。
其中,上述根据所述YCbCr空间的图像,将雨线R叠加在所述YCbCr空间的Y通道上,合成带有雨线的图像的一种实现方法可以采用合成图像所使用的雨线Garg等人(KshitizGarg,and Shree K Nayar.Photorealistic rendering of rain streaks,ACMTransactions on Graphics,2006.)提出的雨线渲染技术及数据集;需要说明的是,本申请文件对如何合成带有雨线的图像的方法并不限定。
上述的另一种实施方式,包括:
将所述参考图像I由RGB色彩空间转换到亮度色度YCbCr空间,获得YCbCr空间的图像;
根据所述YCbCr空间的图像,将雨线R叠加在所述YCbCr空间的Y通道上,合成带有雨线的图像;
将所述带有雨线的YCbCr图像转化到RGB空间,获得带有雨线的RGB图像;
计算所述参考图像的透射率t(x),获得雾的图像模型H(x),其中,x为参考图像中的像素点;
计算参考图像的深度信息d(x);
根据参考图像的深度信息d(x)和大气光散射系数β,获得透射率t(x);
利用获取的透射率t(x),基于大气散射模型,获得含有雾的图像模型H(x):
H(x)=R(x)·t(x)+A·(1-t(x))
其中,A为大气光。
将所述带有雨线的RGB图像与雾的图像模型H(x)进行处理,合成带有雨雾的合成图像J。
上述透射率t(x)为t(x)=e-β·d(x),大气光散射系数β设置为(0.5~1.5)之间的随机值。
需要说明的是,大气光A的值可以设置为1,本发明并不对此进行限制。
上述计算参考图像的深度信息d(x)可以利用Liu等人提出的方法(Fayao Liu,andChunhua Shen,et al.Deep convolutional neural fields for depth estimation froma single image,CVPR2015.)来计算参考图像的深度信息d(x),需要说明的是,本申请文件对如何计算计算参考图像的深度信息并不限定。
由此可见,本实施例中提供的一种图像中雨雾同步合成方法解决了图像中雨雾同步合成问题,使得获得了更加真实的带有雨雾图像。
图2为本申请实施例提供的第一种图像中雨雾同步去除方法,该方法包括:
S201,选取多张合成有雨雾的图像作为训练集;
其中,上述合成有雨雾的图像可以采用本申请文件中的一种图像中雨雾同步合成方法去合成多张有雨雾的图像;需要说明的是上述采用本申请文件合成有雨雾的图像的方法,仅为本发明的一具体实例的方法,本发明对此并不限定。
上述训练集可以理解为:多张参考图像用来对全卷积神经网络进行训练,多张参考图像形成的几何,称为训练集。
S202,对进行训练,获得训练后的全卷积神经网络;
其中,上述对全卷积神经网络进行训练是利用上一步多张参考图像对全卷积神经网络进行训练的,训练后的全卷积神经网络是用于图像中雨雾的同步去除;
需要说明的是:本步骤的全卷积神经网络可以采用现有技术的全卷积神经网络,也可以构造全卷积神经网络,并申请并不对此限定。
具体的,
构建全卷积神经网络,所述全卷积神经网络为:
Ft(X)=σ(Wt*Ft-1(X)+Bt)
其中,X为全卷积神经网络中有雨雾的图像的参数输入,Ft(X)、Ft-1(X)分别为全卷积神经网络的第t层和t-1层特征图的输出,t={1,2,……,T},T为卷积神经网络的层数,T取自然数,Wt和Bt分别为全卷积神经网络的权重和偏置,σ(·)为双曲正切激活函数;
选取与有雨雾的图像对应的不带雨雾的真实图像作参考图像;
基于构建的全卷积神经网络和参考图像,根据色彩损失函数l和暗通道损失函数lD,获得全卷积神经网络训练的目标函数L,其中,所述全卷积神经网络训练的目标函数L为:
λ为用于平衡色彩损失函数l和暗通道损失函数lD的参数,N为训练样本的总数量,y是参考图像的像素值,||·||2是L2范数的平方,d是参考图像的暗通道,是图像的稀疏暗通道函数, 表示阿达马乘积,M是一个大小与去雨图像Ft(x)相同的三维掩码矩阵,i、j为图像Ft(x)的像素位置,c为图像通道数。
对所述全卷积神经网络训练的目标函数L进行优化,获得全卷积神经网络的权重和偏置,从而获得训练后的全卷积神经网络。
其中,本实施例中T的值可以为3,则t的值可以为t={1,2,3}。
上述c,可选地,c=3。
上述min代表最小值。
上述实施方式中色彩损失函数用来优化去雨的结果。
上述实施方式中暗通道损失函数是用来优化去雾的结果,这是因为由于受到雾的影响,相同场景雨天拍摄的图像其暗通道值往往比晴天拍摄的图像的暗通道值大,证明了下雨时往往是伴随着雾的。因此,需要设计暗通道损失函数来优化去雾效果。
在上述实施例中,由于传统暗通道的公式为:
Rc是图像R的RGB通道之一,Ω(x)是一个以像素x为中心的图像块。通过统暗通道的公式可知暗通道描述的是图像的局部最小值。在传统的暗通道计算方法中,一个图像块的局部最小值将作为整个图像块中所有像素点的暗通道值,在卷积神经网络中直接使用上述计算方式,将会导致反向传播过程中,网络的残差被放大,进而导致输出图像的亮度变小,图像细节丢失。因此,提出了公式此公式用来计算稀疏的暗通道值。由于是一个非线性函数,将其转化为:
其中,表示阿达马乘积,M是一个大小与图像Ft(x)相同的三维掩码矩阵:也就是说,将一块大小为n×n×3的图像块与对应的位置矩阵相乘,就可以求出该图像块的稀疏暗通道在三维矩阵中,只有图像块x三个通道的最小值是非零的,其余元素全为0,如图3所示。通过三维掩码矩阵M,可以方便的计算反向传播的残差,如图3所示。
全卷积神经网络的输入是一个三元组{x,y,d},其中x表示合成的雨图,y和d分别表示对应的参考图像和暗通道参考图像。因此,目标函数可以定义为:
对的最小化可以保证网络的输出图像更接近无雨的参考图像,对的最小化可以保证图像中的雾也能被同步的去除。为了训练这两个任务,采用联合监督的方式进行训练,即
S203,获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨后的图像。
这种情况下,可以理解为全卷积神经网络已经被训练完成,若要想去除带有雨雾的图像,仅需将其作为训练后的全卷积神经网络的输入参数,便可以直接输出去除雨后的图像。
由此可见,本实施例中提供的一种图像中雨雾同步去除方法解决了图像中雨雾同步去除问题,使得获得了更加真实的无雨雾图像,为监控人员和调用图像的公职人员提供了便利。
图4为本申请实施例提供的第二种图像中雨雾同步合成方法,该方法为:
S301,选取任一幅不带雨雾的真实图像作参考图像;
S302,将所述参考图像I由RGB色彩空间转换到亮度色度YCbCr空间,获得YCbCr空间的图像;
S303,根据所述YCbCr空间的图像,将雨线R叠加在所述YCbCr空间的Y通道上,合成带有雨线的图像;
S304,将所述带有雨线的YCbCr图像转化到RGB空间,获得带有雨线的RGB图像;
S305,计算参考图像的深度信息d(x),其中,x为参考图像中的像素点;
S306,根据参考图像的深度信息d(x)和大气光散射系数β,获得透射率t(x),t(x)=e-β·d(x);
S307,利用获取的透射率t(x),基于大气散射模型,获得含有雾的图像模型H(x):
H(x)=R(x)·t(x)+A·(1-t(x))
其中,A为大气光。
S308,将所述带有雨线的RGB图像与雾的图像模型H(x)进行处理,合成带有雨雾的合成图像J。
由此可见,本实施例中提供的一种图像中雨雾同步合成方法能够同时将雨和雾合成,获得带雨的图像,利用该装置对图像进行雨雾合成,具有较好的效果,且合成效率高。
图5为本申请实施例提供的第二种图像中雨雾同步去除方法,该方法包括:
S401,选取多张合成有雨雾的图像作为训练集;
S402,构建全卷积神经网络,所述全卷积神经网络为:
Ft(X)=σ(Wt*Ft-1(X)+Bt)
其中,X为全卷积神经网络中有雨雾的图像的参数输入,Ft(X)、Ft-1(X)分别为全卷积神经网络的第t层和t-1层特征图的输出,t={1,2,……,T},T为卷积神经网络的层数,T取自然数,Wt和Bt分别为全卷积神经网络的权重和偏置,σ(·)为双曲正切激活函数;
S403,选取与有雨雾的图像对应的不带雨雾的RGB空间的真实图像作参考图像;
S404,基于构建的全卷积神经网络和参考图像,根据色彩损失函数l和暗通道损失函数lD,获得全卷积神经网络训练的目标函数L,其中,所述全卷积神经网络训练的目标函数L为:
λ为用于平衡色彩损失函数l和暗通道损失函数lD的参数,N为训练样本的总数量,y是参考图像的像素值,||·||2是L2范数的平方,d是参考图像的暗通道,是图像的稀疏暗通道函数, 表示阿达马乘积,M是一个大小与去雨图像Ft(x)相同的三维掩码矩阵,i、j为图像Ft(x)的像素位置,c为图像通道数。
S405,对所述全卷积神经网络训练的目标函数L进行优化,获得全卷积神经网络的权重和偏置,从而获得训练后的全卷积神经网络。
S406,获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨后的图像。
图6为本申请实施例提供的一种图像中雨雾同步合成装置,该装置包括:
第一选取参考图像模块501,用于选取任一幅不带雨雾的RGB空间的真实图像作参考图像;
合成图像模块502,用于将参考图像经过有雨图像模型RRM进行融合,合成接近真实场景的有雨雾图像J,其中,RRM模型为:J=I+R*H,I和R分别为不带雨雾的参考图像和雨线,H为雾的图像模型,*代表卷积。
具体的,
图7为本申请实施例提供的合成合成图像模块的示意图,所述合成图像模块502,包括:
转换YCbCr空间子模块503,用于将所述参考图像I由RGB色彩空间转换到亮度色度YCbCr空间,获得YCbCr空间的图像;
合成雨线子模块504,用于根据所述YCbCr空间的图像,将雨线R叠加在所述YCbCr空间的Y通道上,合成带有雨线的图像;
转换RGB空间子模块505,将将所述带有雨线的YCbCr图像转化到RGB空间,获得带有雨线的RGB图像;
获得雾图像模型子模块506,计算所述参考图像的透射率t(x),获得雾的图像模型H(x);
合成雨雾的合成图像子模块507,用于将所述带有雨线的RGB图像与雾的图像模型H(x)进行融合,合成带有雨雾的合成图像J。
所述获得雾图像模型子模块506,包括:
深度信息子单元,用于计算参考图像的深度信息d(x);
透射率子单元,用于根据参考图像的深度信息d(x)和大气光散射系数β,获得透射率t(x);
含雾的图像模型计算子单元,用于利用获取的透射率t(x),基于大气散射模型,获得含有雾的图像模型H(x):
H(x)=R(x)·t(x)+A·(1-t(x))
其中,A为大气光。
由此可见,本实施例中提供的一种图像中雨雾同步合成装置能够同时将雨和雾合成,获得带雨的图像,利用该装置对图像进行雨雾合成,具有较好的效果,且合成效率高。
图8为本实施例中提供的一种图像中雨雾同步去除装置,该装置包括:
选取有雨雾图像模块601,用于选取多张合成有雨雾的图像作为训练集;
训练全卷积神经网络模块602,用于对全卷积神经网络进行训练,获得训练后的全卷积神经网络;
去除雨模块603,用于获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨后的图像。
具体的,
所述训练全卷积神经网络模块602,包括:
构建全卷积神经网络子模块,用于构建全卷积神经网络,所述全卷积神经网络为:
Ft(X)=σ(Wt*Ft-1(X)+Bt)
其中,X为全卷积神经网络中有雨雾的图像的参数输入,Ft(X)、Ft-1(X)分别为全卷积神经网络的第t层和t-1层特征图的输出,t={1,2,……,T},T为卷积神经网络的层数,T取自然数,,Wt和Bt分别为全卷积神经网络的权重和偏置,σ(·)为双曲正切激活函数;
第二选取参考图像子模块,用于选取与有雨雾的图像对应的不带雨雾的真实图像作参考图像;
构建目标函数子模块,用于在构建的全卷积神经网络和参考图像基础上,根据色彩损失函数l和暗通道损失函数lD,获得全卷积神经网络训练的目标函数L,其中,所述全卷积神经网络训练的目标函数L为:
λ为用于平衡色彩损失函数l和暗通道损失函数lD的参数,N为训练样本的总数量,y是参考图像的像素值,||·||2是L2范数的平方,d是参考图像的暗通道,是图像的稀疏暗通道函数, 表示阿达马乘积,M是一个大小与去雨图像Ft(x)相同的三维掩码矩阵,j为图像Ft(x)的像素位置,c为图像通道数;
优化目标函数子模块,用于对所述全卷积神经网络训练的目标函数L进行优化,获得全卷积神经网络的权重和偏置,从而获得训练后的全卷积神经网络。
本申请实施例还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信,
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现本申请实施例提供的图像中雨雾同步合成。
具体的,上述图像中雨雾同步合成方法,包括:
选取任一幅不带雨雾的真实图像作参考图像;
将参考图像经过有雨图像模型RRM进行处理,合成接近真实场景的有雨雾图像J,其中,RRM模型为:J=I+R*H,I和R分别为不带雨雾的参考图像和雨线,H为雾的图像模型,*代表卷积。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
上述的相关图像中雨雾同步合成的实施方式与前述方法实施例部分提供的图像中雨雾同步合成方式相同,这里不再赘述。
执行本实施例提供的电子设备时,获得带雨的图像,并对图像进行雨雾合成,具有较好的效果,且合成效率高。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现本申请实施例提供的图像中雨雾同步合成。
具体的,上述图像中雨雾同步合成方法,包括:
选取任一幅不带雨雾的真实图像作参考图像;
将参考图像经过有雨图像模型RRM进行处理,合成接近真实场景的有雨雾图像J,其中,RRM模型为:J=I+R*H,I和R分别为不带雨雾的参考图像和雨线,H为雾的图像模型,*代表卷积。
执行本实施例提供的计算机可读存储介质中存储的应用程序时,获得带雨的图像,并对图像进行雨雾合成,具有较好的效果,且合成效率高。
上述的相关图像中雨雾同步合成的实施方式与前述方法实施例部分提供的图像中雨雾同步合成方式相同,这里不再赘述。
本申请实施例还提供了另一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信,
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现本申请实施例提供的图像中雨雾同步方法。
具体的,上述图像中雨雾同步方法,包括:
选取多张合成有雨雾的图像作为训练集;
对全卷积神经网络进行训练,获得训练后的全卷积神经网络;
获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨后的图像。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
上述的相关图像中雨雾同步去除的实施方式与前述方法实施例部分提供的图像中雨雾同步去除方式相同,这里不再赘述。
由此可见,执行本实施例提供的计算机电子设备时,能够同时将雨和雾去除,获得不带雨的图像,对图像处理的效果较好,相较于传统去除设备,本设备即效率高又节约成本和资源。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行本申请实施例提供的图像中雨雾同步方法。
具体的,上述图像中雨雾同步方法,包括:
选取多张合成有雨雾的图像作为训练集;
对全卷积神经网络进行训练,获得训练后的全卷积神经网络;
获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨后的图像。
由此可见,执行本实施例提供的计算机可读存储介质中存储的应用程序时,能够同时将雨和雾去除,获得不带雨的图像,对图像处理的效果较好,相较于传统可读存储介质,本可读存储介质即效率高又节约成本和资源。
上述的相关图像中雨雾同步去除的实施方式与前述方法实施例部分提供的图像中雨雾同步去除方式相同,这里不再赘述。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (10)
1.一种图像中雨雾同步合成方法,其特征在于,所述方法包括:
选取任一幅不带雨雾的真实图像作参考图像;
将参考图像经过有雨图像模型RRM进行处理,合成接近真实场景的有雨雾图像J,其中,RRM模型为:J=I+R*H,I和R分别为不带雨雾的参考图像和雨线,H为雾的图像模型,*代表卷积。
2.如权利要求1的方法,其特征在于,所述将参考图像经过有雨图像模型RRM进行处理,合成接近真实场景的有雨图像J,包括:
将所述参考图像I由RGB色彩空间转换到亮度色度YCbCr空间,获得YCbCr空间的图像;
根据所述YCbCr空间的图像,将雨线R叠加在所述YCbCr空间的Y通道上,合成带有雨线的图像;
将所述带有雨线的YCbCr图像转化到RGB空间,获得带有雨线的RGB图像;
计算所述参考图像的透射率t(x),获得雾的图像模型H(x),其中,x为参考图像中的像素点;
将所述带有雨线的RGB图像与雾的图像模型H(x)进行处理,合成带有雨雾的合成图像J。
3.如权利要求2所述的方法,其特征在于,所述计算参考图像的透射率t(x),获得含有雾的图像模型H(x),包括:
计算参考图像的深度信息d(x);
根据参考图像的深度信息d(x)和大气光散射系数β,获得透射率t(x);
利用获取的透射率t(x),基于大气散射模型,获得含有雾的图像模型H(x):
H(x)=R(x)·t(x)+A·(1-t(x))
其中,A为大气光。
4.一种图像中雨雾同步去除方法,其特征在于,所述方法包括:
选取多张合成有雨雾的图像作为训练集;
对全卷积神经网络进行训练,获得训练后的全卷积神经网络;
获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨后的图像。
5.如权利要求4所述的方法,其特征在于,所述对全卷积神经网络进行训练,获得训练后的全卷积神经网络,包括:
构建全卷积神经网络,所述全卷积神经网络为:
Ft(X)=σ(Wt*Ft-1(X)+Bt)
其中,X为全卷积神经网络中有雨雾的图像的参数输入,Ft(X)、Ft-1(X)分别为全卷积神经网络的第t层和t-1层特征图的输出,t={1,2,……,T},T为卷积神经网络的层数,T取自然数,Wt和Bt分别为全卷积神经网络的权重和偏置,σ(·)为双曲正切激活函数;
选取与有雨雾的图像对应的不带雨雾的真实图像作参考图像;
基于构建的全卷积神经网络和参考图像,根据色彩损失函数l和暗通道损失函数lD,获得全卷积神经网络训练的目标函数L,其中,所述全卷积神经网络训练的目标函数L为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>L</mi>
<mo>=</mo>
<mi>l</mi>
<mo>+</mo>
<msub>
<mi>l</mi>
<mi>D</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>F</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>y</mi>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>&CenterDot;</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>D</mi>
<mo>~</mo>
</mover>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>t</mi>
</msub>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>d</mi>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
λ为用于平衡色彩损失函数l和暗通道损失函数lD的参数,N为训练样本的总数量,y是参考图像的像素值,||·||2是L2范数的平方,d是参考图像的暗通道,是图像的稀疏暗通道函数, 表示阿达马乘积,M是一个大小与去雨图像Ft(x)相同的三维掩码矩阵,i、j为图像Ft(x)的像素位置,c为图像通道数;
对所述全卷积神经网络训练的目标函数L进行优化,获得全卷积神经网络的权重和偏置,从而获得训练后的全卷积神经网络。
6.一种图像中雨雾同步合成装置,其特征在于,该装置包括:
第一选取参考图像模块,用于选取任一幅不带雨雾的真实图像作参考图像;
合成图像模块,用于将参考图像经过有雨图像模型RRM进行处理,合成接近真实场景的有雨雾图像J,其中,RRM模型为:J=I+R*H,I和R分别为不带雨雾的参考图像和雨线,H为雾的图像模型,*代表卷积。
7.如权利要求6的装置,其特征在于,所述合成图像模块,包括:
转换YCbCr空间子模块,用于将所述参考图像I由RGB空间转换到亮度色度YCbCr空间,获得YCbCr空间的图像;
合成雨线子模块,用于根据所述YCbCr空间的图像,将雨线R叠加在所述YCbCr图像的Y通道上,合成带有雨线的图像;
转换RGB空间子模块,将所述带有雨线的图像转化到RGB空间,获得带有雨线的RGB图像;
获得雾图像模型子模块,计算所述参考图像的透射率t(x),获得雾的图像模型H(x),其中,x为参考图像中的像素点;
合成雨雾的合成图像子模块,用于将所述带有雨线的RGB图像与雾的图像模型H(x)进行处理,合成带有雨雾的合成图像J。
8.如权利要求7的装置,其特征在于,所述获得雾图像模型子模块,包括:
深度信息子单元,用于计算参考图像的深度信息d(x);
透射率子单元,用于根据参考图像的深度信息d(x)和大气光散射系数β,获得透射率t(x);
含雾的图像模型计算子单元,用于利用获取的透射率t(x),基于大气散射模型,获得含有雾的图像模型H(x):
H(x)=R(x)·t(x)+A·(1-t(x))
其中,A为大气光。
9.一种图像中雨雾同步去除装置,其特征在于,该装置包括:
选取有雨雾图像模块,用于选取多张合成的有雨雾图像作为训练集;
训练全卷积神经网络模块,用于对全卷积神经网络进行训练,获得训练后的全卷积神经网络;
去除雨雾模块,用于获取拍摄的真实有雨图像,将拍摄的真实有雨图像输入训练后的全卷积神经网络,输出去除雨雾后的图像。
10.如权利要求9所述的装置,其特征在于,所述训练全卷积神经网络模块,包括:
构建全卷积神经网络子模块,用于构建全卷积神经网络,所述全卷积神经网络为:
Ft(X)=σ(Wt*Ft-1(X)+Bt)
其中,X为全卷积神经网络中有雨雾的图像的参数输入,Ft(X)、Ft-1(X)分别为全卷积神经网络的第t层和t-1层特征图的输出,t={1,2,……,T},T为卷积神经网络的层数,T取自然数,Wt和Bt分别为全卷积神经网络的权重和偏置,σ(·)为双曲正切激活函数;
第二选取参考图像子模块,用于选取与有雨雾的图像对应的不带雨雾的真实图像作参考图像;
构建目标函数子模块,用于在构建的全卷积神经网络和参考图像基础上,根据色彩损失函数l和暗通道损失函数lD,获得全卷积神经网络训练的目标函数L,其中,所述全卷积神经网络训练的目标函数L为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>L</mi>
<mo>=</mo>
<mi>l</mi>
<mo>+</mo>
<msub>
<mi>l</mi>
<mi>D</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>F</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>y</mi>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>&CenterDot;</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>D</mi>
<mo>~</mo>
</mover>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>t</mi>
</msub>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>d</mi>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
λ为用于平衡色彩损失函数l和暗通道损失函数lD的参数,N为训练样本的总数量,y是参考图像的像素值,||·||2是L2范数的平方,d是参考图像的暗通道,是图像的稀疏暗通道函数, 表示阿达马乘积,M是一个大小与去雨图像Ft(x)相同的三维掩码矩阵,i、j为图像Ft(x)的像素位置,c为图像通道数,c=3;
优化目标函数子模块,用于对所述全卷积神经网络训练的目标函数L进行优化,获得全卷积神经网络的权重和偏置,从而获得训练后的全卷积神经网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710549424.7A CN107316286B (zh) | 2017-07-07 | 2017-07-07 | 一种图像中雨雾同步合成、去除的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710549424.7A CN107316286B (zh) | 2017-07-07 | 2017-07-07 | 一种图像中雨雾同步合成、去除的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107316286A true CN107316286A (zh) | 2017-11-03 |
CN107316286B CN107316286B (zh) | 2020-05-22 |
Family
ID=60177747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710549424.7A Active CN107316286B (zh) | 2017-07-07 | 2017-07-07 | 一种图像中雨雾同步合成、去除的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107316286B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109493300A (zh) * | 2018-11-15 | 2019-03-19 | 湖南鲲鹏智汇无人机技术有限公司 | 基于fpga卷积神经网络的航拍图像实时去雾方法及无人机 |
CN109753983A (zh) * | 2017-11-07 | 2019-05-14 | 北京京东尚科信息技术有限公司 | 图像分类方法、装置和计算机可读存储介质 |
CN110598547A (zh) * | 2019-08-06 | 2019-12-20 | 清华大学 | 快速运动人体姿态估计方法及装置 |
CN111161160A (zh) * | 2019-12-04 | 2020-05-15 | 新奇点企业管理集团有限公司 | 一种雾天障碍物检测方法、装置、电子设备和存储介质 |
CN111614974A (zh) * | 2020-04-07 | 2020-09-01 | 上海推乐信息技术服务有限公司 | 一种视频图像修复方法和系统 |
CN112581377A (zh) * | 2019-09-30 | 2021-03-30 | 上海商汤临港智能科技有限公司 | 图像处理方法、装置和电子设备 |
TWI734598B (zh) * | 2020-08-26 | 2021-07-21 | 元智大學 | 影像雨紋去除方法 |
CN113194334A (zh) * | 2021-04-16 | 2021-07-30 | 厦门智瞳科技有限公司 | 一种保护隐私的图像处理方法、装置、终端及存储介质 |
WO2022126355A1 (zh) * | 2020-12-15 | 2022-06-23 | 罗伯特·博世有限公司 | 基于图像的处理方法和设备 |
CN115861146A (zh) * | 2023-02-28 | 2023-03-28 | 季华实验室 | 一种目标被遮挡的处理方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780356A (zh) * | 2016-11-15 | 2017-05-31 | 天津大学 | 基于卷积神经网络和先验信息的图像去雾方法 |
-
2017
- 2017-07-07 CN CN201710549424.7A patent/CN107316286B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780356A (zh) * | 2016-11-15 | 2017-05-31 | 天津大学 | 基于卷积神经网络和先验信息的图像去雾方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753983A (zh) * | 2017-11-07 | 2019-05-14 | 北京京东尚科信息技术有限公司 | 图像分类方法、装置和计算机可读存储介质 |
CN109493300A (zh) * | 2018-11-15 | 2019-03-19 | 湖南鲲鹏智汇无人机技术有限公司 | 基于fpga卷积神经网络的航拍图像实时去雾方法及无人机 |
CN110598547A (zh) * | 2019-08-06 | 2019-12-20 | 清华大学 | 快速运动人体姿态估计方法及装置 |
CN112581377A (zh) * | 2019-09-30 | 2021-03-30 | 上海商汤临港智能科技有限公司 | 图像处理方法、装置和电子设备 |
CN112581377B (zh) * | 2019-09-30 | 2024-06-11 | 上海商汤临港智能科技有限公司 | 图像处理方法、装置和电子设备 |
CN111161160A (zh) * | 2019-12-04 | 2020-05-15 | 新奇点企业管理集团有限公司 | 一种雾天障碍物检测方法、装置、电子设备和存储介质 |
CN111614974B (zh) * | 2020-04-07 | 2021-11-30 | 上海推乐信息技术服务有限公司 | 一种视频图像修复方法和系统 |
CN111614974A (zh) * | 2020-04-07 | 2020-09-01 | 上海推乐信息技术服务有限公司 | 一种视频图像修复方法和系统 |
TWI734598B (zh) * | 2020-08-26 | 2021-07-21 | 元智大學 | 影像雨紋去除方法 |
WO2022126355A1 (zh) * | 2020-12-15 | 2022-06-23 | 罗伯特·博世有限公司 | 基于图像的处理方法和设备 |
CN113194334B (zh) * | 2021-04-16 | 2023-06-06 | 厦门智瞳科技有限公司 | 一种保护隐私的图像处理方法、装置、终端及存储介质 |
CN113194334A (zh) * | 2021-04-16 | 2021-07-30 | 厦门智瞳科技有限公司 | 一种保护隐私的图像处理方法、装置、终端及存储介质 |
CN115861146A (zh) * | 2023-02-28 | 2023-03-28 | 季华实验室 | 一种目标被遮挡的处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107316286B (zh) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107316286A (zh) | 一种图像中雨雾同步合成、去除的方法和装置 | |
CN107610113A (zh) | 一种图像中基于深度学习的小目标的检测方法及装置 | |
CN107066935A (zh) | 基于深度学习的手部姿态估计方法及装置 | |
CN108229379A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN104484033B (zh) | 基于bim的虚拟现实展示方法和系统 | |
CN103582893B (zh) | 用于增强现实表示的二维图像获取 | |
CN108596184A (zh) | 图像语义分割模型的训练方法、可读存储介质及电子设备 | |
CN105678248B (zh) | 基于深度学习的人脸关键点对齐算法 | |
CN107220997A (zh) | 一种立体匹配方法及系统 | |
CN106874857A (zh) | 一种基于视频分析的活体判别方法及系统 | |
CN107274445A (zh) | 一种图像深度估计方法和系统 | |
CN108256404A (zh) | 行人检测方法和装置 | |
CN108446694A (zh) | 一种目标检测方法及装置 | |
CN102385752B (zh) | 一种基于距离和色彩差异的立体匹配方法 | |
CN108021923A (zh) | 一种用于深度神经网络的图像特征提取方法 | |
CN108960261A (zh) | 一种基于注意力机制的显著物体检测方法 | |
CN110310301A (zh) | 一种检测目标图像的方法及装置 | |
CN106952338A (zh) | 基于深度学习的三维重建的方法、系统及可读存储介质 | |
CN110197149A (zh) | 耳部关键点检测方法、装置、存储介质及电子设备 | |
CN108122280A (zh) | 一种三维点云的重建方法及装置 | |
CN107463927A (zh) | 一种基于卷积神经网络的道路减速带检测方法及装置 | |
CN107347125A (zh) | 视频图像的处理方法、装置和终端设备 | |
CN108337504A (zh) | 一种评价视频质量的方法及装置 | |
CN108837510A (zh) | 信息的展示方法和装置、存储介质、电子装置 | |
CN104077768B (zh) | 一种鱼眼镜头径向畸变的标定方法及标定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |