CN104978719A - 基于时空相关性的自适应交通视频实时去雾方法 - Google Patents
基于时空相关性的自适应交通视频实时去雾方法 Download PDFInfo
- Publication number
- CN104978719A CN104978719A CN201510333199.4A CN201510333199A CN104978719A CN 104978719 A CN104978719 A CN 104978719A CN 201510333199 A CN201510333199 A CN 201510333199A CN 104978719 A CN104978719 A CN 104978719A
- Authority
- CN
- China
- Prior art keywords
- image
- value
- transmissivity
- pixel
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000009826 distribution Methods 0.000 claims abstract description 42
- 238000012937 correction Methods 0.000 claims abstract description 9
- 239000003595 mist Substances 0.000 claims description 54
- 230000005540 biological transmission Effects 0.000 claims description 48
- 238000003379 elimination reaction Methods 0.000 claims description 38
- 230000008030 elimination Effects 0.000 claims description 35
- 238000002834 transmittance Methods 0.000 claims description 29
- 230000009467 reduction Effects 0.000 claims description 22
- 238000011156 evaluation Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 238000012544 monitoring process Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 7
- 230000002123 temporal effect Effects 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 5
- 230000001965 increasing effect Effects 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 238000002955 isolation Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 230000035515 penetration Effects 0.000 claims description 3
- 238000011084 recovery Methods 0.000 claims description 3
- 238000011946 reduction process Methods 0.000 claims description 3
- 230000001105 regulatory effect Effects 0.000 claims description 3
- 230000003252 repetitive effect Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 238000003892 spreading Methods 0.000 claims description 3
- 230000007480 spreading Effects 0.000 claims description 3
- 238000011160 research Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
基于时空相关性的自适应交通视频实时去雾方法,包括:步骤1、估算时间片初始帧的车道空间区域、雾霾影响标志值T、初始透射率校正值X和透射率分布情况;步骤2、提取视频中的直线车道,确定一个有限的车道区域;步骤3、通过从原图像中找到雾霾干扰最小的区域,获取其中最亮的像素值作为大气光强;步骤4、划分空间范围,每一个空间范围都设定一个标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头;步骤5、获得每个图像块的最优透射率值的透射率分布,采用导向滤波对块状的透射率分布进行优化;步骤6、对车道空间区域部分的原图像像素值求解,还原出车道部分的无雾图像。
Description
技术领域
本发明涉及一种交通视频实时去雾方法。
背景技术
基于视频处理和视觉技术的方法被越来越广泛的应用于交通监控系统中,但是由于交通视频拍摄的是户外场景,经常会受到多变的天气的影响。目前,雾霾天气频发,而雾霾环境下获取的交通视频图像存在模糊退化的现象,导致图像的清晰度较低,从而明显影响交通视频图像处理的各类服务,包括车辆检测、车辆目标特征提取、车辆跟踪等操作,出现无法有效地识别车辆、难以提取车辆的细节特征等问题。分析雾霾交通视频图像的特征后发现,提高图像清晰度、去除雾霾干扰,才能有效确保车辆的准确识别和特征提取,因此,提出有效的交通视频去雾方法对于雾霾环境下的交通视频图像处理有十分重要的意义。
目前,很多研究者都针对单幅图像的去雾方法展开研究。单幅图像的去雾算法主要分为两类,基于图像增强的方法和基于图像复原的方法。基于图像增强的方法是从人类的视觉感受出发,通过直接增强图像对比度、修正图像的色彩等信息,进行雾霾天图像质量的改善,其中最常见的方法就是直方图均衡算法和基于Retinex理论的图像增强算法。但是,由于该类方法从图像处理角度出发,缺乏了对雾霾影响图像的成因的分析,所以,在图像还原过程中可能出现失真或过度增强的效果;如果想改进算法的去雾效果,会增加算法的复杂度,无法适应实时性需求。基于图像复原的方法从图像降质的逆过程入手,通过建立物理模型来描述图像退化的详细过程,符合雾霾天图像还原的实际情况,是目前常用的图像去雾方法。该类方法最关键的步骤是如何获得退化模型的参数,早期提出的方法都需要提前进行图像采集或者设置固定采集装置,因此无法做到随时随地处理各类图像,缺乏适应性;随后,越来越多的研究者开始采用一定的先验知识或者提出假设条件,使算法在实际应用时更具有可行性。总体来说,基于图像复原的图像去雾方法可以有效地实现图像去雾,但是也存在一定的局限。如果想要获得更精细的模型参数,就需要利用外部的高精密仪器,进行前期的数据整理,在实际应用过程中,外部仪器设施的布置以及复杂的前期数据整理,都使得该方法无法适应于各种未知场景,缺少拓展性。若是在求解模型参数时借助最优化工具,就会带来巨大的计算复杂度和时间复杂度。当然,也可以采用一定的先验知识或者给出假设条件、弱化限制来获取参数,但是随之而来的问题就是算法的鲁棒性较弱,在浓雾、浓霾时算法失效,不适合对未知环境下的退化图像进行处理。在单幅图像去雾算法的基础上,视频去雾算法的研究也在逐渐深入。在视频去雾的过程中,将视频图像看做单独的帧图像,可直接应用单幅图像去雾算法,但是如何保证视频去雾的实时性是算法的关键。
综合来看,现有的图像去雾或者视频去雾算法,主要存在三个方面的问题:实时性较差、还原后对比度失真、无法消除浓雾的影响。分析后两个问题的本质,其实是图像去雾算法无法适应不同雾霾干扰程度的图像。
发明内容
本发明要克服现有技术的上述缺点提供一种基于时空相关性的自适应交通视频实时去雾方法,提高算法对不同程度雾霾干扰图像的去雾效果,加强算法自适应性,并利用交通视频的时空相关特性提高算法实时性。
本发明所述的基于时空相关性的自适应交通视频实时去雾方法的主要步骤如图1所示。
步骤1、利用交通视频时间连续性,设立时间片,估算时间片初始帧的车道空间区域、雾霾影响标志值T、初始透射率校正值X和透射率分布情况;在该段时间内其他图像帧的去雾还原过程中,采用初始帧计算获得的参数。
一般情况下,交通视频都由固定在道路上的监控摄像头拍摄,一段时间内的场景相对统一,所以在考虑时间连续性时,可以将一个时间片段内的交通视频作为一个整体进行分析。因此,我们通过设立时间片,直接利用时间片初始帧估算该时间片内所有视频帧的参数,包括该段视频的车道空间区域范围、雾霾影响标志值T、初始透射率校正值X和透射率分布情况。
步骤2、采用一种基于直线提取的交通视频图像车道空间分离算法,提取视频中的直线车道,确定一个有限的车道区域。
由于一般拍摄的交通视频都有包含车道隔离带或其他背景信息,而在进行交通视频检测时,车辆识别、跟踪或事件检测主要的感兴趣区域都为车道部分,因此,可以利用车道的直线特征分离出车道空间,单独对车道进行去雾处理,减小待处理的图像,从而加速去雾。
提取交通视频图像车道空间的具体步骤如下:
Step1:通过边缘检测,获取视频图像中的边缘信息;
Step2:利用Hough直线拟合,筛选掉角度明显有误的直线,获得候选的车道边界;
Step3:找到候选车道边界中最左侧和最右侧的直线,设定为车道边界,并且找到车道边界的交点;
Step4:由车道边界的交点及图像边界获得一个矩形规则车道区域,若交点在图像的范围外,则默认车道空间为整个图像空间。
步骤3、采用一种基于四叉树细分的层次搜索方法进行大气光强估计,通过从原图像中找到雾霾干扰最小的区域,获取其中最亮的像素值作为大气光强。
图像去雾方法的实现以求解雾天成像模型(1)为基础
I(p)=J(p)t(p)+A(1-t(p)) (1)
其中,p表示图像中的某个像素点:I(p)表示全部反射光线经过衰减后最终达到成像设备时的光线强度,即生成的带雾图像;t(p)表示达到成像设备且没有被散射的那部分光线的传播率,即光线穿透雾霾的能力参数,可称为透射率且t(p)∈[0,1]。J(p)表示景物目标直接反射的光强,即需要恢复的真实无雾图像;A描述的是观测者视线方向无穷远处的光照强度,可表示为全局的大气光强。因此,要求解模型(1)获取真实图像J(p),需要首先获得大气光强A及透射率分布t(p)。
本步骤进行大气光强估计,具体操作如下:
Step1:将图像均匀分成四个区域;
Step2:每个区域赋予一个权值S。权值S为该区域的像素均值与像素值标准差的差值。
Step3:选择权值最大的区域作为下一个待处理的子图像。
Step4:重复操作Step1~Step3,直至子图像的大小小于一个预先设定的阈值,可以设定为子图像长*宽小于200像素。
在最后获取的区域中,找到像素I(p),使||(Ir(p),Ig(p),Ib(P))‐(255,255,255)||最小,令该像素值为大气光强值。
步骤4、根据交通监控摄像头的空间分布情况,划分空间范围,每一个空间范围都设定一个标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头。
随着交通网络布局的日益复杂,交通监控系统设置的数量也逐渐增加,很多时候同一路段有多个监控摄像头,甚至同一路段的不同车道也有专门的监控装置。这些摄像头拍摄的交通视频在物理上处于同一个场景空间,而且同一地区的摄像头其硬件指标通常情况下都是相同的。而天气情况也是一种具有空间区域特征的指标,比如在一定区域空间范围内的雾霾浓度都是类似的。对于完整的交通视频处理系统,系统内会接入多路摄像头数据,很多分布于同一空间区域的摄像头拍摄出的视频图像质量相近,因此,可以利用摄像头的空间区域分布特性加速多路摄像头的去雾处理速度,实现整个交通视频处理系统的性能优化。
我们将空间距离相近的摄像头划分为统一区域,取其中的一个摄像头为标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头。因此,如果判定该摄像头不是标定摄像头,则可根据系统中已近获取该区域标定摄像头的相关参数,直接进行该摄像头透射率分布估算及优化。
步骤5、采用自适应透射率估计方法,在获取雾霾影响标志值T及恒定的初始透射率校正值X后计算初始透射率。然后在图像对比度评价值及图像信息丢失情况之间寻找平衡点,在以初始透射率为起始值的固定范围内使代价函数E最小,从而获得每个图像块的最优透射率值的透射率分布。最后,采用导向滤波对块状的透射率分布进行优化。
(a)获取雾霾影响标志值
本发明引入图像雾霾影响标志值T和初始透射率校正值X,通过原图像的性质估算出初始透射率值,从而在不同雾霾干扰程度下的图像能估算出适合的透射率值。最终,透射率初始值为T*X。
图像雾霾影响标志值T基于暗通道先验假设,即对于清晰的户外无雾图像,在没有天空的大多数区域中,总是存在这样一些像素,它们至少一个颜色通道具有很低的像素值,也就是说,这些像素的最小值趋近于零。对于任意的输入图像J,其暗通道的表达式为:
上式中下标C表示彩色图像的R/G/B三个通道,Ω(p)表示以像素p为中心的一个窗口,y表示以p为中心的窗口内的像素。而暗通道先验假设用数学公式的形式可以表示为Jdark→0。
雾天成像模型(1)可变形为:
其中下标C表示彩色图像的R/G/B三个通道,Ic(p)表示带雾图像R/G/B通道中像素p的值,Jc(p)表示无雾图像R/G/B通道中像素p的值;t(p)为像素p的透射率值;Ac为R/G/B通道中的大气光强估计值。
设每一个窗口内透射率t(x)为常数值为t并且A值已经给定,对式(3)两边求两次最小值运算:
根据暗通道先验理论有:
因此,可推导出:
把式(6)带入式(4)中,得到:
这就是透射率的预估值。该值是一个暗通道图像块中的透射率值,最后计算所有图像块透射率的均值就可以得到整幅图像的透射率分布均值T。
(b)获取恒定的初始透射率校正值X
初始透射率校正值X综合考虑原图像中的对比度C和雾霾影响标志值T,根据T*C的取值范围可以分阶段确定一个恒定的X,如表1所示。
表1 分阶段初始透射率校正值的计算
T*C的范围 | 梯度恒定X |
T*C<10 | 0.5 |
10<=T*C<15 | 0.6 |
15<=T*C<20 | 0.7 |
20<=T*C<25 | 0.8 |
25<=T*C<30 | 0.9 |
T*C>=30 | 1 |
初始透射率值为T*X,在后续步骤,进行透射率估计时,以T*X作为固定范围的起始值。
(c)同时考虑信息丢失和图像对比度增强的的透射率估计
自适应透射率估计方法根据透射率局部一致的假设,以32*32大小的子块为单位,设定同一子块内的透射率值一致。一般情况下,被雾霾影响的图像子块的对比度会降低,为了更好地达到去雾效果,需要增加图像子块的对比度,因此可以通过使还原后的图像块具备最大的对比度来获得最优的透射率估计值。图像对比度评估采用均方误差(Mean squared error,MSE)对比度CMSE,其数学表达式如下:
其中Jc表示每一个色彩通道的图像块,c∈{r,g,b};是图像块像素的均值,N是图像块的像素总数。
将公式(8)代入公式(1),并变形可得:
在上式中,就是输入的原图像块的像素均值。
均方误差对比度CMSE随着t值的增加而递减,即还原后的图像对比度会随着透射率估计值的减小而增强。因此,为了使还原后的图像块具有更高的对比度,透射率t要取尽量小的值。但是,t的取值会影响到计算出的还原图像的像素值,如果还原后的像素值在[0,255]的区间范围外,则会产生信息丢失,影响图像的还原质量。根据公式(1)的属性,为了避免图像信息丢失,使更大范围内的输入像素值可以被有效还原,需要取较大的t值。因此,本发明引入了对比度评价值Econtrast和信息丢失评价值Eloss,并将以上两个评价值整合成一个代价值E,使E值最小的t*就是每一个图像块最优的透射率值。
E=Econtrast+λLEloss
(12)
上式中,和分别是还原图像和原图像中对应块B的像素值均值,NB是图像块B的像素数量;min{0,Jc(p)}和max{0,Jc(p)-255}分别表示超过区间[0,255]的像素值之和;λL用来调节对比度评价值和信息丢失评价值的重要度,即平衡对比度和信息丢失的情况。
根据以上的公式,以初始透射率值为起始值在一个区间范围内寻找最优的透射率值t*使E最小化,该t*值就是每一个图像块最优的透射率值。
(d)基于导向滤波的透射率分布优化
由于之前的算法中假设图像块内的透射率局部一致,所以透射率估计都是以图像块的形式进行操作,所获得的透射率分布图也存在明显的块状结构,从而导致还原后的图像存在块状的锯齿边缘。因此,本发明采用基于导向滤波的方法优化存在块状结构的透射率分布图。
导向滤波的基本公式如下:
其中,是滤波后的透射率,I(q)是导向图,我们用待去雾的图像作为导向图;sT=(sr,sg,sb)T是缩放向量,ψ是偏移量。
计算透射率时设定一个尺寸为41*41的窗口,对于一个窗口W,通过最小二乘法,使块状透射率值t*和滤波后的透射率之间的差别最小,这样就能获得一个最佳的s*和ψ*值。
当透射率较小时,会增强还原后的图像的噪音,因此,实现算法时可以将透射率值的最小下限定为0.1。
步骤6、利用上述步骤求得的大气光强和透射率分布值,对车道空间区域部分的原图像像素值在模型(1)下求解,还原出车道部分的无雾图像。
已求出大气光强、透射率值后,通过求解模型(1)可以获得还原出去雾后的图像;并采用伽马校正方法对还原后的图像进行灰度校正,避免还原后的图像出现比原图像更深的值。在图像还原过程中,只需要对车道空间区域部分的像素进行还原计算。为了有很好的视觉效果,可以完整还原时间片初始帧,将该帧的背景替换到后续帧中,从而避免有明显的车道区域分界线。
本发明的优点是:
1、本发明提出的交通视频去雾方法采用自适应对比度增强的交通图像去雾算法,能够根据图像的雾霾影响程度,自适应处理各种不同程度的雾霾图像,在增强对比度的同时,还保证了图像信息的完整性,有较好的图像去雾效果。
2、目前的视频去雾算法都是从通用视频的角度出发,没有利用特定场景的视频特征开展相应去雾算法的研究。本发明的方法针对交通视频,利用交通视频的时间关联性、图像车道特征、监控摄像头的空间位置等信息,大大提高了交通视频去雾的整体效率。
附图说明
图1是本发明的流程图。
具体实施方式
下面参照附图进一步说明本发明。
本发明所述的基于时空相关性的自适应交通视频实时去雾方法的主要步骤如图1所示。
步骤1、利用交通视频时间连续性,设立时间片,估算时间片初始帧的车道空间区域、雾霾影响标志值T、初始透射率校正值X和透射率分布情况;在该段时间内其他图像帧的去雾还原过程中,采用初始帧计算获得的参数。
一般情况下,交通视频都由固定在道路上的监控摄像头拍摄,一段时间内的场景相对统一,所以在考虑时间连续性时,可以将一个时间片段内的交通视频作为一个整体进行分析。因此,我们通过设立时间片,直接利用时间片初始帧估算该时间片内所有视频帧的参数,包括该段视频的车道空间区域范围、雾霾影响标志值T、初始透射率校正值X和透射率分布情况。
步骤2、采用一种基于直线提取的交通视频图像车道空间分离算法,提取视频中的直线车道,确定一个有限的车道区域。
由于一般拍摄的交通视频都有包含车道隔离带或其他背景信息,而在进行交通视频检测时,车辆识别、跟踪或事件检测主要的感兴趣区域都为车道部分,因此,可以利用车道的直线特征分离出车道空间,单独对车道进行去雾处理,减小待处理的图像,从而加速去雾。
提取交通视频图像车道空间的具体步骤如下:
Step1:通过边缘检测,获取视频图像中的边缘信息;
Step2:利用Hough直线拟合,筛选掉角度明显有误的直线,获得候选的车道边界;
Step3:找到候选车道边界中最左侧和最右侧的直线,设定为车道边界,并且找到车道边界的交点;
Step4:由车道边界的交点及图像边界获得一个矩形规则车道区域,若交点在图像的范围外,则默认车道空间为整个图像空间。
步骤3、采用一种基于四叉树细分的层次搜索方法进行大气光强估计,通过从原图像中找到雾霾干扰最小的区域,获取其中最亮的像素值作为大气光强。
图像去雾方法的实现以求解雾天成像模型(1)为基础
I(p)=J(p)t(p)+A(1-t(p)) (1)
其中,p表示图像中的某个像素点:I(p)表示全部反射光线经过衰减后最终达到成像设备时的光线强度,即生成的带雾图像;t(p)表示达到成像设备且没有被散射的那部分光线的传播率,即光线穿透雾霾的能力参数,可称为透射率且t(p)∈[0,1]。J(p)表示景物目标直接反射的光强,即需要恢复的真实无雾图像;A描述的是观测者视线方向无穷远处的光照强度,可表示为全局的大气光强。因此,要求解模型(1)获取真实图像J(p),需要首先获得大气光强A及透射率分布t(p)。
本步骤进行大气光强估计,具体操作如下:
Step1:将图像均匀分成四个区域;
Step2:每个区域赋予一个权值S。权值S为该区域的像素均值与像素值标准差的差值。
Step3:选择权值最大的区域作为下一个待处理的子图像。
Step4:重复操作Step1~Step3,直至子图像的大小小于一个预先设定的阈值,可以设定为子图像长*宽小于200像素。
在最后获取的区域中,找到像素I(p),使||(Ir(p),Ig(p),Ib(P))‐(255,255,255)||最小,令该像素值为大气光强值。
步骤4、根据交通监控摄像头的空间分布情况,划分空间范围,每一个空间范围都设定一个标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头。
随着交通网络布局的日益复杂,交通监控系统设置的数量也逐渐增加,很多时候同一路段有多个监控摄像头,甚至同一路段的不同车道也有专门的监控装置。这些摄像头拍摄的交通视频在物理上处于同一个场景空间,而且同一地区的摄像头其硬件指标通常情况下都是相同的。而天气情况也是一种具有空间区域特征的指标,比如在一定区域空间范围内的雾霾浓度都是类似的。对于完整的交通视频处理系统,系统内会接入多路摄像头数据,很多分布于同一空间区域的摄像头拍摄出的视频图像质量相近,因此,可以利用摄像头的空间区域分布特性加速多路摄像头的去雾处理速度,实现整个交通视频处理系统的性能优化。
我们将空间距离相近的摄像头划分为统一区域,取其中的一个摄像头为标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头。因此,如果判定该摄像头不是标定摄像头,则可根据系统中已近获取该区域标定摄像头的相关参数,直接进行该摄像头透射率分布估算及优化。
步骤5、采用自适应透射率估计方法,在获取雾霾影响标志值T及恒定的初始透射率校正值X后计算初始透射率。然后在图像对比度评价值及图像信息丢失情况之间寻找平衡点,在以初始透射率为起始值的固定范围内使代价函数E最小,从而获得每个图像块的最优透射率值的透射率分布。最后,采用导向滤波对块状的透射率分布进行优化。
(a)获取雾霾影响标志值
本发明引入图像雾霾影响标志值T和初始透射率校正值X,通过原图像的性质估算出初始透射率值,从而在不同雾霾干扰程度下的图像能估算出适合的透射率值。最终,透射率初始值为T*X。
图像雾霾影响标志值T基于暗通道先验假设,即对于清晰的户外无雾图像,在没有天空的大多数区域中,总是存在这样一些像素,它们至少一个颜色通道具有很低的像素值,也就是说,这些像素的最小值趋近于零。对于任意的输入图像J,其暗通道的表达式为:
上式中下标C表示彩色图像的R/G/B三个通道,Ω(p)表示以像素p为中心的一个窗口。而暗通道先验假设用数学公式的形式可以表示为Jdark→0。
雾天成像模型(1)可变形为:
设每一个窗口内透射率t(x)为常数值为t~(x),并且A值已经给定,对式(3)两边求两次最小值运算:
根据暗通道先验理论有:
因此,可推导出:
把式(6)带入式(4)中,得到:
这就是透射率的预估值。该值是一个暗通道图像块中的透射率值,最后计算所有图像块透射率的均值就可以得到整幅图像的透射率分布均值T。
(b)获取恒定的初始透射率校正值X
初始透射率校正值X综合考虑原图像中的对比度C和雾霾影响标志值T,根据T*C的取值范围可以分阶段确定一个恒定的X,如表1所示。
表1 分阶段初始透射率校正值的计算
T*C的范围 | 梯度恒定X |
T*C<10 | 0.5 |
10<=T*C<15 | 0.6 |
15<=T*C<20 | 0.7 |
20<=T*C<25 | 0.8 |
25<=T*C<30 | 0.9 |
T*C>=30 | 1 |
初始透射率值为T*X,在后续步骤,进行透射率估计时,以T*X作为固定范围的起始值。
(c)同时考虑信息丢失和图像对比度增强的的透射率估计
自适应透射率估计方法根据透射率局部一致的假设,以32*32大小的子块为单位,设定同一子块内的透射率值一致。一般情况下,被雾霾影响的图像子块的对比度会降低,为了更好地达到去雾效果,需要增加图像子块的对比度,因此可以通过使还原后的图像块具备最大的对比度来获得最优的透射率估计值。图像对比度评估采用均方误差(Mean squared error,MSE)对比度CMSE,其数学表达式如下:
其中Jc表示每一个色彩通道的图像块,c∈{r,g,b};是图像块像素的均值,N是图像块的像素总数。
将公式(8)代入公式(1),并变形可得:
在上式中,就是输入的原图像块的像素均值。
均方误差对比度CMSE随着t值的增加而递减,即还原后的图像对比度会随着透射率估计值的减小而增强。因此,为了使还原后的图像块具有更高的对比度,透射率t要取尽量小的值。但是,t的取值会影响到计算出的还原图像的像素值,如果还原后的像素值在[0,255]的区间范围外,则会产生信息丢失,影响图像的还原质量。根据公式(1)的属性,为了避免图像信息丢失,使更大范围内的输入像素值可以被有效还原,需要取较大的t值。因此,本发明引入了对比度评价值Econtrast和信息丢失评价值Eloss,并将以上两个评价值整合成一个代价值E,使E值最小的t*就是每一个图像块最优的透射率值。
E=Econtrast+λLEloss
(12)
上式中,和分别是还原图像和原图像中对应块B的像素值均值,NB是图像块B的像素数量;min{0,Jc(p)}和max{0,Jc(p)-255}分别表示超过区间[0,255]的像素值之和;λL用来调节对比度评价值和信息丢失评价值的重要度,即平衡对比度和信息丢失的情况。
根据以上的公式,以初始透射率值为起始值在一个区间范围内寻找最优的透射率值t*使E最小化,该t*值就是每一个图像块最优的透射率值。
(d)基于导向滤波的透射率分布优化
由于之前的算法中假设图像块内的透射率局部一致,所以透射率估计都是以图像块的形式进行操作,所获得的透射率分布图也存在明显的块状结构,从而导致还原后的图像存在块状的锯齿边缘。因此,本发明采用基于导向滤波的方法优化存在块状结构的透射率分布图。
导向滤波的基本公式如下:
其中,是滤波后的透射率,I(q)是导向图,我们用待去雾的图像作为导向图;sT=(sr,sg,sb)T是缩放向量,ψ是偏移量。
计算透射率时设定一个尺寸为41*41的窗口,对于一个窗口W,通过最小二乘法,使块状透射率值t*和滤波后的透射率之间的差别最小,这样就能获得一个最佳的s*和ψ*值。
当透射率较小时,会增强还原后的图像的噪音,因此,实现算法时可以将透射率值的最小下限定为0.1。
步骤6、利用上述步骤求得的大气光强和透射率分布值,对车道空间区域部分的原图像像素值在模型(1)下求解,还原出车道部分的无雾图像。
已求出大气光强、透射率值后,通过求解模型(1)可以获得还原出去雾后的图像;并采用伽马校正方法对还原后的图像进行灰度校正,避免还原后的图像出现比原图像更深的值。在图像还原过程中,只需要对车道空间区域部分的像素进行还原计算。为了有很好的视觉效果,可以完整还原时间片初始帧,将该帧的背景替换到后续帧中,从而避免有明显的车道区域分界线。
Claims (1)
1.基于时空相关性的自适应交通视频实时去雾方法,包括如下步骤:
步骤1、利用交通视频时间连续性,设立时间片,估算时间片初始帧的车道空间区域、雾霾影响标志值T、初始透射率校正值X和透射率分布情况;在该段时间内其他图像帧的去雾还原过程中,采用初始帧计算获得的参数;
一般情况下,交通视频都由固定在道路上的监控摄像头拍摄,一段时间内的场景相对统一,所以在考虑时间连续性时,可以将一个时间片段内的交通视频作为一个整体进行分析;因此,通过设立时间片,直接利用时间片初始帧估算该时间片内所有视频帧的参数,包括该段视频的车道空间区域范围、雾霾影响标志值T、初始透射率校正值X和透射率分布情况;
步骤2、采用一种基于直线提取的交通视频图像车道空间分离算法,提取视频中的直线车道,确定一个有限的车道区域;
由于一般拍摄的交通视频都有包含车道隔离带或其他背景信息,而在进行交通视频检测时,车辆识别、跟踪或事件检测主要的感兴趣区域都为车道部分,因此,可以利用车道的直线特征分离出车道空间,单独对车道进行去雾处理,减小待处理的图像,从而加速去雾;
提取交通视频图像车道空间的具体步骤如下:
Step21:通过边缘检测,获取视频图像中的边缘信息;
Step22:利用Hough直线拟合,筛选掉角度明显有误的直线,获得候选的车道边界;
Step23:找到候选车道边界中最左侧和最右侧的直线,设定为车道边界,并且找到车道边界的交点;
Step24:由车道边界的交点及图像边界获得一个矩形规则车道区域,若交点在图像的范围外,则默认车道空间为整个图像空间;
步骤3、采用一种基于四叉树细分的层次搜索方法进行大气光强估计,通过从原图像中找到雾霾干扰最小的区域,获取其中最亮的像素值作为大气光强;
图像去雾方法的实现以求解雾天成像模型(1)为基础
I(p)=J(p)t(p)+A(1-t(p)) (1)
其中,p表示图像中的某个像素点:I(p)表示全部反射光线经过衰减后最终达到成像设备时的光线强度,即生成的带雾图像;t(p)表示达到成像设备且没有被散射的那部分光线的传播率,即光线穿透雾霾的能力参数,可称为透射率且t(p)∈[0,1];J(p)表示景物目标直接反射的光强,即需要恢复的真实无雾图像;A描述的是观测者视线方向无穷远处的光照强度,可表示为全局的大气光强;因此,要求解模型(1)获取真实图像J(p),需要首先获得大气光强A及透射率分布t(p);
本步骤进行大气光强估计,具体操作如下:
Step31:将图像均匀分成四个区域;
Step32:每个区域赋予一个权值S;权值S为该区域的像素均值与像素值标准差的差值;
Step33:选择权值最大的区域作为下一个待处理的子图像;Step4:重复操作Step1~Step3,直至子图像的大小小于一个预先设定的阈值,可以设定为子图像长*宽小于200像素;
在最后获取的区域中,找到像素I(p),使||(Ir(p),Ig(p),Ib(P))‐(255,255,255)||最小,其中Ir(p)、Ig(p)、Ib(P)分别是像素I(p)的R、G、B分量,令该像素值为大气光强值;
步骤4、根据交通监控摄像头的空间分布情况,划分空间范围,每一个空间范围都设定一个标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头;
随着交通网络布局的日益复杂,交通监控系统设置的数量也逐渐增加,很多时候同一路段有多个监控摄像头,甚至同一路段的不同车道也有专门的监控装置;这些摄像头拍摄的交通视频在物理上处于同一个场景空间,而且同一地区的摄像头其硬件指标通常情况下都是相同的;而天气情况也是一种具有空间区域特征的指标,比如在一定区域空间范围内的雾霾浓度都是类似的;对于完整的交通视频处理系统,系统内会接入多路摄像头数据,很多分布于同一空间区域的摄像头拍摄出的视频图像质量相近,因此,可以利用摄像头的空间区域分布特性加速多路摄像头的去雾处理速度,实现整个交通视频处理系统的性能优化;
将空间距离相近的摄像头划分为统一区域,取其中的一个摄像头为标定摄像头,用该摄像头拍摄的图像计算雾霾影响标志值T、图像对比度及初始透射率校正值,应用到该区域的其他摄像头;因此,如果判定该摄像头不是标定摄像头,则可根据系统中已近获取该区域标定摄像头的相关参数,直接进行该摄像头透射率分布估算及优化;
步骤5、采用自适应透射率估计方法,在获取雾霾影响标志值T及恒定的初始透射率校正值X后计算初始透射率;然后在图像对比度评价值及图像信息丢失情况之间寻找平衡点,在以初始透射率为起始值的固定范围内使代价函数E最小,从而获得每个图像块的最优透射率值的透射率分布;最后,采用导向滤波对块状的透射率分布进行优化;
(a)获取雾霾影响标志值
本发明引入图像雾霾影响标志值T和初始透射率校正值X,通过原图像的性质估算出初始透射率值,从而在不同雾霾干扰程度下的图像能估算出适合的透射率值;最终,透射率初始值为T*X;
图像雾霾影响标志值T基于暗通道先验假设,即对于清晰的户外无雾图像,在没有天空的大多数区域中,总是存在这样一些像素,它们至少一个颜色通道具有很低的像素值,也就是说,这些像素的最小值趋近于零;对于任意的输入图像J,其暗通道的表达式为:
上式中Jdark(p)表示像素p的暗通道值,Jc(y)表示输入图像中y像素的值,下标C表示彩色图像的R/G/B三个通道,Ω(p)表示以像素p为中心的一个窗口,y表示以p为中心的窗口内的像素;而暗通道先验假设用数学公式的形式可以表示为Jdark→0;
雾天成像模型(1)可变形为:
其中下标C表示彩色图像的R/G/B三个通道,Ic(p)表示带雾图像R/G/B通道中像素p的值,Jc(p)表示无雾图像R/G/B通道中像素p的值;t(p)为像素p的透射率值;Ac为R/G/B通道中的大气光强估计值;
设每一个窗口内透射率t(x)为常数值为t~(x),并且大气光强Ac值已经给定,对式(3)两边求两次最小值运算:
根据暗通道先验理论有:
因此,可推导出:
把式(6)带入式(4)中,得到:
这就是透射率t~(p)的预估值;该值是一个暗通道图像块中的透射率值,最后计算所有图像块透射率的均值就可以得到整幅图像的透射率分布均值T;
(b)获取恒定的初始透射率校正值X
初始透射率校正值X综合考虑原图像中的对比度C和雾霾影响标志值T,根据T*C的取值范围可以分阶段确定一个恒定的X,如表1所示;
表1 分阶段初始透射率校正值的计算
初始透射率值为T*X,在后续步骤,进行透射率估计时,以T*X作为固定范围的起始值;
(c)同时考虑信息丢失和图像对比度增强的的透射率估计
自适应透射率估计方法根据透射率局部一致的假设,以32*32大小的子块为单位,设定同一子块内的透射率值一致;一般情况下,被雾霾影响的图像子块的对比度会降低,为了更好地达到去雾效果,需要增加图像子块的对比度,因此可以通过使还原后的图像块具备最大的对比度来获得最优的透射率估计值;图像对比度评估采用均方误差(Mean squared error,MSE)对比度CMSE,其数学表达式如下:
将公式(8)代入公式(1),并变形可得:
在上式中,就是输入的原图像块的像素均值;
均方误差对比度CMSE随着t值的增加而递减,即还原后的图像对比度会随着透射率估计值的减小而增强;因此,为了使还原后的图像块具有更高的对比度,透射率t要取尽量小的值;但是,t的取值会影响到计算出的还原图像的像素值,如果还原后的像素值在[0,255]的区间范围外,则会产生信息丢失,影响图像的还原质量;根据公式(1)的属性,为了避免图像信息丢失,使更大范围内的输入像素值可以被有效还原,需要取较大的t值;因此,本发明引入了对比度评价值Econtrast和信息丢失评价值Eloss,并将以上两个评价值整合成一个代价值E,使E值最小的t*就是每一个图像块最优的透射率值;
E=Econtrast+λLEloss
(12)
上式中,和分别是还原图像和原图像中对应块B的像素值均值,NB是图像块B的像素数量;min{0,Jc(p)}和max{0,Jc(p)-255}分别表示超过区间[0,255]的像素值之和;λL用来调节对比度评价值和信息丢失评价值的重要度,即平衡对比度和信息丢失的情况;
根据以上的公式,以初始透射率值为起始值在一个区间范围内寻找最优的透射率值t*使E最小化,该t*值就是每一个图像块最优的透射率值;
(d)基于导向滤波的透射率分布优化
由于之前的算法中假设图像块内的透射率局部一致,所以透射率估计都是以图像块的形式进行操作,所获得的透射率分布图也存在明显的块状结构,从而导致还原后的图像存在块状的锯齿边缘;因此,本发明采用基于导向滤波的方法优化存在块状结构的透射率分布图;
导向滤波的基本公式如下:
其中,是滤波后的透射率,I(q)是导向图,我们用待去雾的图像作为导向图;sT=(sr,sg,sb)T是缩放向量,ψ是偏移量;
计算透射率时设定一个尺寸为41*41的窗口,对于一个窗口W,通过最小二乘法,使块状透射率值t*和滤波后的透射率之间的差别最小,这样就能获得一个最佳的缩放向量s*和一个最佳的偏移量ψ*值;
当透射率较小时,会增强还原后的图像的噪音,因此,实现算法时可以将透射率值的最小下限定为0.1;
步骤6、利用上述步骤求得的大气光强和透射率分布值,对车道空间区域部分的原图像像素值在模型(1)下求解,还原出车道部分的无雾图像;
已求出大气光强、透射率值后,通过求解模型(1)可以获得还原出去雾后的图像;并采用伽马校正方法对还原后的图像进行灰度校正,避免还原后的图像出现比原图像更深的值;在图像还原过程中,只需要对车道空间区域部分的像素进行还原计算;为了有很好的视觉效果,可以完整还原时间片初始帧,将该帧的背景替换到后续帧中,从而避免有明显的车道区域分界线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510333199.4A CN104978719A (zh) | 2015-06-16 | 2015-06-16 | 基于时空相关性的自适应交通视频实时去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510333199.4A CN104978719A (zh) | 2015-06-16 | 2015-06-16 | 基于时空相关性的自适应交通视频实时去雾方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104978719A true CN104978719A (zh) | 2015-10-14 |
Family
ID=54275199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510333199.4A Pending CN104978719A (zh) | 2015-06-16 | 2015-06-16 | 基于时空相关性的自适应交通视频实时去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104978719A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469372A (zh) * | 2015-12-30 | 2016-04-06 | 广西师范大学 | 一种基于均值滤波的雾天图像清晰化处理方法 |
CN105976338A (zh) * | 2016-05-12 | 2016-09-28 | 山东大学 | 一种基于天空识别与分割的暗通道先验去雾方法 |
CN106485682A (zh) * | 2016-10-18 | 2017-03-08 | 乐视控股(北京)有限公司 | 一种实时图像处理方法及装置 |
CN106846260A (zh) * | 2016-12-21 | 2017-06-13 | 常熟理工学院 | 一种计算机中视频去雾方法 |
CN107610058A (zh) * | 2017-08-28 | 2018-01-19 | 浙江工业大学 | 基于下采样的高分辨率图像去雾方法 |
CN110175967A (zh) * | 2019-06-05 | 2019-08-27 | 海南大学 | 图像去雾处理方法、系统、计算机设备和存储介质 |
CN111047874A (zh) * | 2019-12-19 | 2020-04-21 | 中科寒武纪科技股份有限公司 | 智能交通违章管理方法及相关产品 |
CN112949389A (zh) * | 2021-01-28 | 2021-06-11 | 西北工业大学 | 一种基于改进目标检测网络的雾霾图像目标检测方法 |
CN113129219A (zh) * | 2019-12-30 | 2021-07-16 | 比亚迪股份有限公司 | 图像处理方法、装置及设备 |
CN114697473A (zh) * | 2020-12-25 | 2022-07-01 | 浙江宇视科技有限公司 | 一种摄像机除雾方法、装置、电子设备和存储介质 |
CN116030247A (zh) * | 2023-03-20 | 2023-04-28 | 之江实验室 | 一种医学图像样本生成方法、装置、存储介质及电子设备 |
CN113129219B (zh) * | 2019-12-30 | 2024-06-21 | 比亚迪股份有限公司 | 图像处理方法、装置及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08315285A (ja) * | 1995-05-17 | 1996-11-29 | Nippon Signal Co Ltd:The | 画像処理装置 |
CN104036466A (zh) * | 2014-06-17 | 2014-09-10 | 浙江立元通信技术股份有限公司 | 一种视频去雾方法与系统 |
CN104200445A (zh) * | 2014-09-26 | 2014-12-10 | 常熟理工学院 | 一种最优对比度和最小信息损失的图像去雾方法 |
CN104616258A (zh) * | 2015-01-26 | 2015-05-13 | 中南大学 | 一种针对道路图像的快速去雾方法 |
-
2015
- 2015-06-16 CN CN201510333199.4A patent/CN104978719A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08315285A (ja) * | 1995-05-17 | 1996-11-29 | Nippon Signal Co Ltd:The | 画像処理装置 |
CN104036466A (zh) * | 2014-06-17 | 2014-09-10 | 浙江立元通信技术股份有限公司 | 一种视频去雾方法与系统 |
CN104200445A (zh) * | 2014-09-26 | 2014-12-10 | 常熟理工学院 | 一种最优对比度和最小信息损失的图像去雾方法 |
CN104616258A (zh) * | 2015-01-26 | 2015-05-13 | 中南大学 | 一种针对道路图像的快速去雾方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469372A (zh) * | 2015-12-30 | 2016-04-06 | 广西师范大学 | 一种基于均值滤波的雾天图像清晰化处理方法 |
CN105976338A (zh) * | 2016-05-12 | 2016-09-28 | 山东大学 | 一种基于天空识别与分割的暗通道先验去雾方法 |
CN106485682A (zh) * | 2016-10-18 | 2017-03-08 | 乐视控股(北京)有限公司 | 一种实时图像处理方法及装置 |
CN106846260A (zh) * | 2016-12-21 | 2017-06-13 | 常熟理工学院 | 一种计算机中视频去雾方法 |
CN106846260B (zh) * | 2016-12-21 | 2019-06-07 | 常熟理工学院 | 一种计算机中视频去雾方法 |
CN107610058A (zh) * | 2017-08-28 | 2018-01-19 | 浙江工业大学 | 基于下采样的高分辨率图像去雾方法 |
CN110175967B (zh) * | 2019-06-05 | 2020-07-17 | 邓诗雨 | 图像去雾处理方法、系统、计算机设备和存储介质 |
CN110175967A (zh) * | 2019-06-05 | 2019-08-27 | 海南大学 | 图像去雾处理方法、系统、计算机设备和存储介质 |
CN111047874A (zh) * | 2019-12-19 | 2020-04-21 | 中科寒武纪科技股份有限公司 | 智能交通违章管理方法及相关产品 |
CN111047874B (zh) * | 2019-12-19 | 2020-12-29 | 安徽寒武纪信息科技有限公司 | 智能交通违章管理方法及相关产品 |
CN113129219A (zh) * | 2019-12-30 | 2021-07-16 | 比亚迪股份有限公司 | 图像处理方法、装置及设备 |
CN113129219B (zh) * | 2019-12-30 | 2024-06-21 | 比亚迪股份有限公司 | 图像处理方法、装置及设备 |
CN114697473A (zh) * | 2020-12-25 | 2022-07-01 | 浙江宇视科技有限公司 | 一种摄像机除雾方法、装置、电子设备和存储介质 |
CN114697473B (zh) * | 2020-12-25 | 2024-02-27 | 浙江宇视科技有限公司 | 一种摄像机除雾方法、装置、电子设备和存储介质 |
CN112949389A (zh) * | 2021-01-28 | 2021-06-11 | 西北工业大学 | 一种基于改进目标检测网络的雾霾图像目标检测方法 |
CN116030247A (zh) * | 2023-03-20 | 2023-04-28 | 之江实验室 | 一种医学图像样本生成方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104978719A (zh) | 基于时空相关性的自适应交通视频实时去雾方法 | |
KR101582479B1 (ko) | 동영상에 포함된 헤이즈 제거를 위한 영상 처리 장치 및 그 방법 | |
US10963993B2 (en) | Image noise intensity estimation method, image noise intensity estimation device, and image recognition device | |
Raikwar et al. | Lower bound on transmission using non-linear bounding function in single image dehazing | |
CN110570365B (zh) | 基于先验信息的图像去雾方法 | |
CN107301624B (zh) | 基于区域划分及浓雾预处理的卷积神经网络去雾方法 | |
CN102831591B (zh) | 一种基于高斯滤波的单幅图像的实时去雾方法 | |
CN103530893B (zh) | 相机抖动场景下基于背景差和运动信息的前景检测方法 | |
KR101582478B1 (ko) | 정지영상에 포함된 헤이즈 제거를 위한 영상 처리 장치 및 그 방법 | |
US20220210350A1 (en) | Image dehazing method and image dehazing apparatus using the same | |
CN105913390B (zh) | 一种图像去雾方法及系统 | |
CN103985091A (zh) | 基于亮度暗先验与双边滤波的单幅图像去雾方法 | |
CN105550999A (zh) | 一种基于背景复用的视频图像增强处理方法 | |
CN103077504A (zh) | 一种基于自适应光照计算的图像去雾方法 | |
CN104166968A (zh) | 一种图像去雾的方法、装置及移动终端 | |
CN103578083A (zh) | 基于联合均值漂移的单幅图像去雾方法 | |
CN110782407A (zh) | 一种基于天空区域概率分割的单幅图像去雾方法 | |
CN104182943A (zh) | 一种融合人眼视觉特性的单幅图像去雾方法 | |
CN106657948A (zh) | 低照度Bayer图像的增强方法及增强装置 | |
CN104717400A (zh) | 一种监控视频的实时去雾方法 | |
CN111598814B (zh) | 基于极端散射通道的单图像去雾方法 | |
Choi et al. | Fog detection for de-fogging of road driving images | |
CN110349113B (zh) | 一种基于暗原色先验改进的自适应图像去雾方法 | |
CN115393216A (zh) | 基于偏振特性与大气传输模型的图像去雾方法和装置 | |
CN105913391A (zh) | 一种基于形状可变形态学重构的去雾方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20151014 |
|
WD01 | Invention patent application deemed withdrawn after publication |