CN113487516B - 一种图像数据的去雾处理方法 - Google Patents
一种图像数据的去雾处理方法 Download PDFInfo
- Publication number
- CN113487516B CN113487516B CN202110846246.0A CN202110846246A CN113487516B CN 113487516 B CN113487516 B CN 113487516B CN 202110846246 A CN202110846246 A CN 202110846246A CN 113487516 B CN113487516 B CN 113487516B
- Authority
- CN
- China
- Prior art keywords
- value
- image
- pixel point
- original image
- sky
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 67
- 230000003287 optical effect Effects 0.000 claims abstract description 48
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 238000002834 transmittance Methods 0.000 claims abstract description 14
- 238000012937 correction Methods 0.000 claims description 13
- 238000009499 grossing Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 10
- 238000012545 processing Methods 0.000 description 6
- 238000006731 degradation reaction Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000003915 air pollution Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种图像数据的去雾处理方法,属于计算机视觉技术领域。方法包括:获取原始图像,在原始图像中找到天空最远处;在RGB色彩空间下,将天空最远处的色彩向量作为光轴的方向,原始图像中的所有像素点的RGB值向光轴做投影,得到每个像素点各轴分量在光轴上投影的截距值,将各轴分量在光轴上投影的截距值相加得到对应像素点的亮度值;根据每个像素点的亮度值,结合大气物理光学模型中的透射率计算公式计算得到每个像素点的透射率;根据环境光值、每个像素点的透射率结合大气散射去雾模型得到去雾后的图像,所述环境光值由天空最远处的亮度值确定。本发明更加准确的刻画了原始图像的色彩结构特征,提高去雾效果。
Description
技术领域
本发明涉及一种图像数据的去雾处理方法,属于计算机视觉技术领域。
背景技术
光学遥感是对地面观测的重要手段,被广泛的用于军事侦察、气象、测绘、环境监测、资源开发、农林业调查、灾害预警监控和城市规划等多个方面。然而,大气环境的恶化使得光学遥感图像的质量进一步恶化。近年来,工业化的快速发展致使环境问题日益恶劣,空气污染日趋严重。雾霾天气发生的频率越来越高,各大城市年雾霾天气发生频度均超过了200天,浓度也有逐渐变大的趋势,在短期内很难得到抑制。
雾霾由悬浮在空气中的微小颗粒物构成,微小颗粒物对可见光吸收和散射的双重作用会导致遥感图像质量或者地面图像产生不同程度的下降,这种降质作用的力度会随景深的增大而逐渐增加。因此,需要对图像数据进行去雾处理。
现有的图像去雾算法按照实现原理的不同可以分为以下两类:
1.基于亮度分布矫正的图像增强算法。
此类算法将雾霾图像看作对比度和色度异常的降质图像,通过矫正病态的亮度分布和失真的色度实现去雾的目的,整个过程可以看作是一种特殊的图像对比度增强过程,对浓度较低的雾霾去除效果较好。由于通道不一致性的客观存在,对比度增强实际上是一个失真的过程,在雾霾空间分布不规则和不连续性的影响下,这种失真会被进一步放大。因此,在处理景深复杂的图像时将会引入较为明显的色彩失真。
同时,雾霾对成像过程的干扰被视为作用于亮度分量上的加性或乘性噪声进行建模,并未考虑通道不一致性和雾霾空间分布不均的特征,去雾霾的过程中引入的色彩结构信息畸变难以避免。因此,一般采用第2种方法对图像进行去雾处理。
2.基于物理模型的图像重构算法。
此类算法是从模拟大气粒子对成像过程的影响入手,明确雾霾造成图像退化的物理原因,对大气粒子的散射作用进行分析建模,得到大气散射模型,大气散射模型是一种均匀作用于可见光谱各个频段上的复合型噪声,能够较为准确的刻画亮度信息的退化过程,从而有效重构亮度结构信息,进而消除大气散射影响,实现对图像的去雾重构。
基于暗原色先验的单图像去雾算法是基于物理模型的去雾算法中较为先进的一种,利用暗原色先验和拉普拉斯正则化方法估计雾霾图像亮度结构退化模型,通过大气散射模型重构图像。对景深分布复杂,雾霾浓度较高的图像,处理效果优势尤为突出,是图像去雾的研究热点和主要发展方向。
然而,这类算法对色彩结构特征的重构效果同样不甚理想,原因在于:计算时默认雾霾的颜色为纯白色,并且在建模过程未考虑雾霾对不同光谱频段影响的差异性,故难以准确刻画色彩结构特征的退化过程;此外,传统的去雾霾重构框架中,用于重构图像的环境光、景深等必要参量均未知,需要用估计值近似替代,不可避免的引入了误差,而图像重构是一个不适定的病态反问题,微小的误差扰动将导致重构结果出现较大偏差,在缺少有效约束的情况下,难以稳定的获取重构结果。
发明内容
本申请的目的在于提供一种图像数据的去雾处理方法,用以解决现有的去雾处理方法处理效果差的问题。
为实现上述目的,本申请提出了一种图像数据的去雾处理方法的技术方案,包括以下步骤:
1)获取原始图像,在原始图像中找到天空最远处;
2)在RGB色彩空间下,将天空最远处的色彩向量作为光轴的方向,原始图像中的所有像素点的RGB值向光轴做投影,得到每个像素点各轴分量在光轴上投影的截距值,将各轴分量在光轴上投影的截距值相加得到对应像素点的亮度值;
3)根据每个像素点的亮度值,结合大气物理光学模型中的透射率计算公式计算得到每个像素点的透射率;并且根据天空最远处的亮度值确定环境光值;
4)根据环境光值、每个像素点的透射率结合大气散射去雾模型得到去雾后的图像,所述环境光值由天空最远处的亮度值确定。
本发明的图像数据的去雾处理方法的技术方案的有益效果是:本发明在原始图像中找到天空最远处,并且将天空最远处的色彩向量作为光轴的方向,将原始图像中的所有像素点向光轴做投影,进而确定出每个像素点的亮度值,进而根据天空最远处的亮度值和计算出的透射率对原始图像进行去雾处理,更加准确的刻画了原始图像的色彩结构特征,提高去雾效果。
进一步的,为了更加准确的找到天空最远处的位置,在原始图像中找到天空最远处的步骤包括:
设定一个滑动窗口,将滑动窗口在原始图像的每列中从上到下进行滑动;
根据与滑动窗口大小匹配的功率卷积核、以及原始图像的初始化亮度图计算每滑动一个滑动步长,滑动窗口内的代价功率;
每列中代价功率超出功率阈值的位置即为每列的水平线的位置;
所有列中水平线的最低的位置即为天空最远处。
进一步的,所述滑动窗口内的代价功率为滑动窗口内的平均代价功率,所述平均代价功率的计算过程为:
E(ix,iy)α=Kernalαoimgα;
其中,E(ix,iy)α为滑动窗口中心点坐标为(ix,iy),滑动窗口大小为α的滑动窗口的总代价功率;Kernalα为滑动窗口大小为α时的功率卷积核;o为哈达玛积;imgα为滑动窗口中心点坐标为(ix,iy),滑动窗口大小为α的滑动窗口内的图像亮度值;E(ix,iy)为滑动窗口中心点坐标为(ix,iy),滑动窗口大小为α的滑动窗口内的平均代价功率。
进一步的,所述步骤2)中像素点的亮度的计算过程为:
其中,(R,G,B)为像素点的RGB值;为像素点r轴分量的值,也即(R,0,0);R′为像素点r轴分量在光轴上投影的截距值;为像素点g轴分量的值,也即(0,G,0);G′为像素点g轴分量在光轴上投影的截距值;为像素点b轴分量的值,也即(0,0,B);B′为像素点b轴分量在光轴上投影的截距值;为天空最远处的色彩向量;|A|为的模。
进一步的,当步骤1)中的原始图像通过双目相机得到,原始图像包括左视图原始图像和右视图原始图像;所述透射率计算公式中的距离值为图像中物体到双目相机光心的距离;图像中物体到双目相机光心的距离根据左视图原始图像和右视图原始图像所有像素点的亮度值进行双目立体匹配后两张图像的视差值计算得出。
进一步的,为了提高双目立体匹配的速度,左视图原始图像和右视图原始图像均设定一个匹配窗口,根据SAD算法、Census算法计算左匹配窗口和右匹配窗口的代价差值,进而结合WAT算法的方式进行双目立体匹配;匹配窗口边缘的像素点采用Census算法进行匹配,匹配窗口内部的像素点采用SAD算法进行匹配。
进一步的,为了更加准确的得到视差值,得到两张图像的视差值后,还包括进行左右一致性检测,修正视差值的步骤,修正过程为:
其中,D′(O)为修正后的像素点O的左视图视差值;DL(O)为修正前的像素点O的左视图视差值;DR(O)为像素点O的右视图视差值。
进一步的,修正视差值后,还包括利用引导滤波函数平滑视差值的步骤。
进一步的,为了提高环境光值的准确性,所述步骤3)中,根据天空最远处的亮度值、以及修正后的视差值确定环境光值:
判断天空最远处的亮度值与修正后的视差值中最小视差值对应的像素点中的最大亮度值的大小;
若天空最远处的亮度值≥最大亮度值,则将天空最远处的亮度值作为环境光值;
若天空最远处的亮度值<最大亮度值,则将最大亮度值作为环境光值。
大气散射去雾模型为:
其中:J(x)为无雾图像;ω为系数,用于调节去雾的力度大小;I(x)为有雾图像;A′为环境光值;t(x)为透射率;x为像素点。
附图说明
图1是本发明图像数据的去雾处理方法的流程示意图;
图2是本发明寻找天空最远处的示意图;
图3-1是本发明第一张有雾图像;
图3-2是本发明第一张有雾图像中采用本发明的方法和原始方法找到的光轴对比图;
图3-3是本发明第二张有雾图像;
图3-4是本发明第二张有雾图像中采用本发明的方法和原始方法找到的光轴对比图;
图4是本发明求解窗口代价值时网格划分示意图;
图5-1是本发明的双目立体匹配与传统双目立体匹配的精度对比图;
图5-2是本发明的去雾方法与传统去雾方法在图像大小相同,不同双目立体匹配窗口下的去雾时间对比图;
图6-1是本发明验证例中第一张原始图像;
图6-2是本发明验证例中第一张原始图像利用He(何凯明)算法得到的环境光值的位置;
图6-3是本发明验证例中第一张原始图像利用本发明算法得到的环境光值的位置;
图6-4是本发明验证例中第一张原始图像利用He算法的去雾图像;
图6-5是本发明验证例中第一张原始图像利用本发明算法得到的环境光值的位置、进而利用He算法的去雾图像;
图6-6是本发明验证例中第一张原始图像利用本发明算法的去雾图像;
图7-1是本发明验证例中第一张原始图像去雾图像的天空局部对比图;
图7-2是本发明验证例中第一张原始图像去雾图像的楼体局部对比图;
图8-1是本发明验证例中第二张原始图像;
图8-2是本发明验证例中第一张原始图像利用He算法得到的环境光值的位置;
图8-3是本发明验证例中第二张原始图像利用本发明算法得到的环境光值的位置;
图8-4是本发明证例中第二张原始图像利用He算法的去雾图像;
图8-5是本发明验证例中第二张原始图像利用本发明算法得到的环境光值的位置、进而利用He算法的去雾图像;
图8-6是本发明验证例中第二张原始图像利用本发明算法的去雾图像。
具体实施方式
图像数据的去雾处理方法实施例:
本发明的主要构思在于,本发明通过找到天空最远处,将天空最远处的色彩向量作为光轴,将原始图像中的每个像素点向光轴投影,进而得到更加准确的每个像素点的亮度,在后续进行去雾处理的过程中更加准确的还原了图像的色彩特征,提高了图像的去雾效果。
具体的,以下以双目相机拍摄系统为例对本发明的去雾处理方法进行详细描述。
图像数据的去雾处理方法如图1所示,包括以下步骤:
1)对双目相机进行标定,通过双目相机采集图像数据,并对所采集的图像数据进行畸变校正,得到校正后的原始图像数据,校正后的原始图像数据包括左视图原始图像和右视图原始图像。
本步骤中,首先对双目相机进行标定,相机标定所采用的棋盘格为边长为22mm的正方形棋盘格,因此最后在算法中计算出来的距离单位也为毫米。
接着采用双目相机拍摄系统,以能看到实时视差图为标准,对带有雾霾的图像数据进行采集。
最后,对采集的数据进行畸变校正,消除了因镜头自身原因所产生的径向畸变或桶形畸变,得到校正后的原始图像数据。
关于具体的双目相机的标定、数据采集、以及校正的过程为现有技术,这里不做过多赘述。
2)根据初始化光轴(1,1,1),将左视图原始图像向初始化光轴投影,得到左视图原始图像的初始化亮度图,采用滑窗的方式进行功率求解,找到天空最远处的位置A点。
本步骤中,只需对左视图原始图像和右视图原始图像中的其中一幅原始图像寻找天空最远处即可,一般情况下选取左视图原始图像。
将左视图原始图像转化为初始化亮度图(转换过程与步骤3)类似,具体转换过程在后续进行介绍),并且将左视图原始图像进行m行、n列的网格划分,设定一个大小为α的滑动窗口(也即一个滑动窗口内像素点的数量为α),该窗口在每列中按行进行滑动(也即从上到下的方向进行滑动),确定每列中的对应水平线(水平线即天空与地面的交接处)所处的行数,行数最大时滑动窗口所处的行和列即为天空最远处的区域,该初始区域的中心位置即为天空最远处的位置。
详细过程如图2所示:将滑动窗口放置在左视图原始图像的左上角,第1列中,滑动窗口按行的方向从上到下进行扫描,确定第1列中水平线的所处的行数;第2列中,滑动窗口按行的方向从上到下进行扫描,确定第2列中水平线的所处的行数;…;第n列中,滑动窗口按行的方向从上到下进行扫描,确定第n列中水平线的所处的行数;完成全图扫描。找出行数最大时(也即水平线最低时)滑动窗口所处的行和列,确定为天空最远处的区域。
每列中,确定对应水平线所处的行数的过程为:计算滑动窗口在该列下,每行处的平均代价功率,平均代价功率大于功率阈值σ时对应的行数所处的位置即为水平线的位置。平均代价功率的求解过程如下:
E(ix,iy)α=Kernalαoimgα;
其中,E(ix,iy)α为滑动窗口中心点坐标为(ix,iy),滑动窗口大小为α的滑动窗口总代价功率;Kernalα为滑动窗口大小为α时的功率卷积核;o为哈达玛积;imgα为滑动窗口中心点坐标为(ix,iy),滑动窗口大小为α的滑动窗口内的图像亮度值;E(ix,iy)为滑动窗口中心点坐标为(ix,iy),滑动窗口大小为α的滑动窗口内平均代价功率;imgSize(2)为图像划分的行数;Line为功率卷积核内卷积的行数,k=0,1,2,…,q,q的大小与功率卷积核的行数有关,功率卷积核的大小根据图像大小进行匹配。
本步骤中,为了提高水平线确定的准确性,采用滑动窗口内平均代价功率作为判断依据,作为其他实施方式,也可以直接采用滑动窗口总代价功率确定水平线的位置。
本步骤中,为了提高天空最远处寻找的准确性,采用滑窗的方式寻找天空最远处,作为其他实施方式,可以对图像进行二值化分割确定天空最远处。
本步骤中,可以理解为将(0,0,0)为色彩空间的坐标原点、r通道(即r轴分量)、g通道(即g轴分量)、b通道(即b轴分量)为坐标轴的三维色彩空间坐标系,A点的色彩坐标为(r,g,b),因此,向量为坐标原点指向A点的向量。
如图3-1、3-2、3-3、3-4所示,图3-1、3-3为两张有雾图像,图3-2、3-4为对应的光轴,分别为采用本发明的方法和原始方法找到的光轴对比图,实线的箭头为原始方法找到的光轴,虚线的箭头为本发明的方法找到的光轴。
4)将RGB色彩空间下的左视图原始图像、以及右视图原始图像上的所有像素点的RGB值向光轴做投影,得到所有像素点的亮度。
现有技术的算法中均为雾霾的颜色为纯白色,但是这样是不准确的,例如:雾霾为黄色,或者一天内时间的不同雾霾呈现不同的颜色。因此本发明将天空最远处的色彩作为雾霾的颜色,进而求解其他像素点的亮度值,提高了亮度计算的准确性。
具体的,对于任意一个像素点(R,G,B)亮度I计算的过程如下:
其中,为像素点r通道的值,也即(R,0,0);R′为像素点r通道在光轴上投影的截距值;为像素点g通道的值,也即(0,G,0);G′为像素点g通道在光轴上投影的截距值;为像素点b通道的值,也即(0,0,B);B′为像素点b通道在光轴上投影的截距值;|A|为光轴的模。
将左视图原始图像、以及右视图原始图像上的所有的像素点的RGB值代入上述公式即可求出左视图原始图像的左亮度图、以及右视图原始图像的右亮度图。
同时,将步骤2)中得到的左视图原始图像中的天空最远处A点的位置代入左亮度图中,找出A点的亮度值IA,A点的亮度值可以作为环境光的值。
5)将左亮度图和右亮度图采用滑窗的方式,采用SAD算法、Census算法以及胜者为王(WAT)方法进行双目匹配,得到左亮度图和右亮度图的中同名像素点的视差值,以左亮度图为基准得到左视图视差值DL,以右亮度图为基准得到右视图视差值DR。
视差是指左右亮度图中同名像素点在图中位置的差值,在左右亮度图中同一纵坐标下,代价差值最小的匹配窗口即可认为是同名匹配窗口,同名匹配窗口的中心点即为同名像素点。
以左亮度图为基准在右亮度图中找出与左亮度图相同的同名匹配窗口,具体为,在左亮度图中确定一个匹配窗口的位置,并计算该匹配窗口的代价值,右亮度图中的匹配窗口在同一纵坐标下从左向右滑动(滑动步长为1个像素点),右亮度图中的匹配窗口每滑动一个像素点,计算右亮度图中的匹配窗口对应的代价值,右亮度图中的匹配窗口滑动结束(这里的滑动结束可以为滑动到图的最右点,也可以为代价值超出阈值后结束滑动),并且计算每滑动一个像素点,右亮度图的匹配窗口代价值与左亮度图中匹配窗口代价值的代价差值,代价差值最小对应的右亮度图中的匹配窗口即为与左亮度图中的匹配窗口的同名匹配窗口(利用差值最小的方式也即胜者为王WAT方法)。差值最小对应的右亮度图中的匹配窗口的位置与左亮度图中确定的匹配窗口的位置的差值即为同名匹配窗口的左视图视差值,进而确定了同名像素点的左视图视差值。
以此类推,切换左亮度图中匹配窗口的位置,确定左亮度图中每个像素点的左视图视差值。
同理,以右亮度图为基准在左亮度图中找出与右亮度图相同的同名匹配窗口,进而确定右亮度图中每个像素点的右视图视差值。
以左亮度图为基准的代价差值的计算过程如下:
如图4所示,将一个匹配窗口进行网格划分,每个网格均有相应的亮度值,匹配窗口靠四边的颜色较浅的网格(简称边网格)采用Census的方式求解边网格的比特串ξ,匹配窗口内部的颜色较深的网格(简称内部网格)采用SAD的方式求解内部网格的代价值S(S为所有内部网格的亮度和),每个匹配窗口的代价值包括边网格的比特串和内部网格的代价值。
代价值S的计算为:S=∑Ip;Ip为第p个内部网格的亮度值。
其中,Iq为第q个边网格的亮度值;I0为中心网格的亮度值。
因此,左亮度图中匹配窗口的代价值包括:左亮度图中匹配窗口边网格的比特串ξ左和左亮度图中匹配窗口内部网格的代价值SSAD左,右亮度图中匹配窗口的代价值包括:右亮度图中匹配窗口边网格的比特串ξ右和右亮度图中匹配窗口内部网格的代价值SSAD右。
最终代价差值的计算为:
C左=|SSAD左-SSAD右|+T;
其中,C左为以左亮度图为基准的代价差值,T为ξ左和ξ右中比特串值不相同的网格数量。
同理,以左亮度图为基准的代价差值C右与C左的计算过程基本相同,这里不做过多介绍。
本步骤中,在传统的SAD与Census结合的滑窗匹配方法上进行改进,传统的SAD与Census结合的方法是将窗口内的所有网格均进行SAD和Census的计算,这样会产生相同像素复用的情形,因此本发明代价值计算方式,可以用更大的匹配窗口,在保证匹配精度的情况下实现更高速的匹配效率。
如图5-1、5-2所示,在不同浓度的雾霾干扰情况下,两种融合方式的误差相差不大(图5-1中颜色较深的为本发明的融合误差,颜色较浅的为现有技术的融合误差),但是本发明所提出的方法效率更高。随着滑动窗口的增大,传统的融合方式会大大增加算法复杂度,而本发明却仅仅只有缓慢的提升。如图5-2所示,本实验在一副360*202的图像上,窗口半径都为3的情况下,本发明的融合法只需要25s左右(图中实线),而传统的匹配方法却需要48s左右(图中虚线),在精度相差不大的情况下,速度提升近一倍。
6)对步骤5)得到的左视图中每个像素点的左视图视差值和右视图中同名像素点的右视图视差值进行左右一致性的检测,修正视差值。
左视图视差值的修正过程(以下均对左视图进行处理)如下:
其中,D′(O)为修正后的像素点O的左视图视差值;DL(O)为修正前的像素点O的左视图视差值;DR(O)为像素点O的右视图视差值。
7)对修正后的左视图视差值进行引导滤波,得到平滑后的每个像素点的左视图视差值。
引导滤波过程如下:
D″=Fguidfilter(D′,D′,r,eps);
其中,D″为引导滤波后的左视图视差值;D′为修正后的左视图视差值;Fguidfilter为引导滤波函数,为Matlab软件内置函数,可以消除空洞与平滑视差;r为2;eps为0.12。
8)将步骤7)得到的像素坐标系下的左视图转换到世界坐标系下,进而得到左视图中每个像素点到双目相机光心的距离(也即深度图)。
计算过程如下:
其中:b为双目相机的基线长度,f为相机的像素焦距,D″为每个像素点的左视图视差值,Z为像素点(也即图像中的物体)到双目相机光心的距离。
9)根据像素点到双目相机光心的距离Z,结合大气物理光学模型中透射率的计算公式计算出每个像素点的透射率,得到左视图的透射图
其中:t(x)为透射率,β一般取值为0.1,x代表像素点;d(x)为归一化后的距离;Zmin为距离最小值;Zmax为距离最大值。
本步骤中,环境光的值可以采用步骤4)中计算的A点的亮度值,为了判断A点的亮度值是否为准确的环境光的值,可以对A点的亮度值进行验证。
验证过程如下:判断A点的亮度值与步骤7)中一致性检测后的左视图视差值最小的像素点(可能存在多个视差值最小的像素点)中的最大亮度值:
若A点的亮度值≥最大亮度值,则将A点的亮度值作为环境光的值A′;
若A点的亮度值<最大亮度值,则将最大亮度值作为环境光的值A′。
上述实施例中,步骤6)~步骤8)为双目立体匹配的过程,为了提高匹配速度,匹配过程采用了匹配窗口边缘的像素点采用Census算法进行匹配,匹配窗口内部的像素点采用SAD算法进行匹配的结合方式进行匹配,当然作为其他实施方式,也可以采用现有技术进行双目立体匹配,本发明对此不做限制。
以下通过实际的去雾对比验证本发明提出的去雾方法的效果。
本次选取的室外图像为真实雾天的图像,为减少饱和度、对比度提升亮度之后的图像。为了从主观上展现出,环境光值(也即大气光值)的重要性,我们进行了两组组对比实验。
采用He(何凯明暗通道算法)所提出的基于暗通道先验的去雾算法与本发明的去雾算法进行比较,比较结果如下。
第一组:图6-1是第一张原始图像;图6-2是利用He(何凯明)算法得到的环境光值的位置(图中的方框处);图6-3是利用本发明算法得到的环境光值的位置(图中的方框处);图6-4是利用He算法的去雾图像;图6-5是利用本发明算法得到的环境光值的位置、进而利用He算法的去雾图像;图6-6是利用本发明算法的去雾图像;图7-1是去雾图像的天空局部对比图,最上方为图6-4的局部放大图,中间为图6-6的局部放大图,最下方为图6-5的局部放大图;图7-2是去雾图像的楼体局部对比图,上方为图6-4的局部放大图,下方为图6-6的局部放大图。
第二组:图8-1是第二张原始图像;图8-2是利用He算法得到的环境光值的位置(图为局部放大图,图中的方框处为环境光值的位置);图8-3是本发明算法得到的环境光值的位置;图8-4是利用He算法的去雾图像;图8-5是利用本发明算法得到的环境光值的位置、进而利用He算法的去雾图像;图8-6是利用本发明算法的去雾图像。
可以看出,本发明提高了在RGB色彩空间下环境光值求解的准确性,使得去雾后的图像色彩结构效果更加明显。
本专利方法通过双目相机计算出遥感图像的景深分布,从而更好的计算出环境的透射率与当前场景的环境光。能够更好的适应于多种复杂场景,避免了颜色失真、大气环境光估计不准确以及拍摄画面需包含天空等多种限制因素,具有重要的科学意义与应用价值。并且天空最远处的寻找,环境光值的计算也可适用于单目相机的系统,本发明对此不做限制。
Claims (8)
1.一种图像数据的去雾处理方法,其特征在于,包括以下步骤:
1)获取原始图像,在原始图像中找到天空最远处,其步骤包括:
a.设定一个滑动窗口,将滑动窗口在原始图像的每列中从上到下进行滑动;
b.根据与滑动窗口大小匹配的功率卷积核、以及原始图像的初始化亮度图计算每滑动一个滑动步长,滑动窗口内的代价功率,
所述滑动窗口内的代价功率为滑动窗口内的平均代价功率,所述平均代价功率的计算过程为:
E(ix,iy)α=Kernalαo imgα;
其中,E(ix,iy)α为滑动窗口中心点坐标为(ix,iy),滑动窗口大小为α的滑动窗口的总代价功率;Kernalα为滑动窗口大小为α时的功率卷积核;o为哈达玛积;imgα为滑动窗口中心点坐标为(ix,iy),滑动窗口大小为α的滑动窗口内的图像亮度值;E(ix,iy)为滑动窗口中心点坐标为(ix,iy),滑动窗口大小为α的滑动窗口内的平均代价功率;
c.每列中代价功率超出功率阈值的位置即为每列的水平线的位置;
d.所有列中水平线的最低的位置即为天空最远处;
2)在RGB色彩空间下,将天空最远处的色彩向量作为光轴的方向,原始图像中的所有像素点的RGB值向光轴做投影,得到每个像素点各轴分量在光轴上投影的截距值,将各轴分量在光轴上投影的截距值相加得到对应像素点的亮度值;
3)根据每个像素点的亮度值,结合大气物理光学模型中的透射率计算公式计算得到每个像素点的透射率;并且根据天空最远处的亮度值确定环境光值;
4)根据环境光值、每个像素点的透射率结合大气散射去雾模型得到去雾后的图像,所述环境光值由天空最远处的亮度值确定。
3.根据权利要求1所述的图像数据的去雾处理方法,其特征在于,当步骤1)中的原始图像通过双目相机得到,原始图像包括左视图原始图像和右视图原始图像;所述透射率计算公式中的距离值为图像中物体到双目相机光心的距离;图像中物体到双目相机光心的距离根据左视图原始图像和右视图原始图像所有像素点的亮度值进行双目立体匹配后两张图像的视差值计算得出。
4.根据权利要求3所述的图像数据的去雾处理方法,其特征在于,左视图原始图像和右视图原始图像均设定一个匹配窗口,根据SAD算法、Census算法计算左匹配窗口和右匹配窗口的代价差值,进而结合WAT算法的方式进行双目立体匹配;匹配窗口边缘的像素点采用Census算法进行匹配,匹配窗口内部的像素点采用SAD算法进行匹配。
6.根据权利要求5所述的图像数据的去雾处理方法,其特征在于,修正视差值后,还包括利用引导滤波函数平滑视差值的步骤。
7.根据权利要求5所述的图像数据的去雾处理方法,其特征在于,所述步骤3)中,根据天空最远处的亮度值、以及修正后的视差值确定环境光值:
判断天空最远处的亮度值与修正后的视差值中最小视差值对应的像素点中的最大亮度值的大小;
若天空最远处的亮度值≥最大亮度值,则将天空最远处的亮度值作为环境光值;
若天空最远处的亮度值<最大亮度值,则将最大亮度值作为环境光值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110846246.0A CN113487516B (zh) | 2021-07-26 | 2021-07-26 | 一种图像数据的去雾处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110846246.0A CN113487516B (zh) | 2021-07-26 | 2021-07-26 | 一种图像数据的去雾处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113487516A CN113487516A (zh) | 2021-10-08 |
CN113487516B true CN113487516B (zh) | 2022-09-06 |
Family
ID=77942786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110846246.0A Active CN113487516B (zh) | 2021-07-26 | 2021-07-26 | 一种图像数据的去雾处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113487516B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023140472A1 (en) * | 2022-01-24 | 2023-07-27 | Samsung Electronics Co., Ltd. | Method and electronic device for optical camera quality enhancement |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107025636A (zh) * | 2017-03-09 | 2017-08-08 | 广东欧珀移动通信有限公司 | 结合深度信息的图像去雾方法及装置和电子装置 |
CN111192205A (zh) * | 2019-11-22 | 2020-05-22 | 晏子俊 | 一种图像去雾方法、系统和计算机可读存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5787695B2 (ja) * | 2011-09-28 | 2015-09-30 | 株式会社トプコン | 画像取得装置 |
CN107438170B (zh) * | 2016-05-25 | 2020-01-17 | 杭州海康威视数字技术股份有限公司 | 一种图像透雾方法及实现图像透雾的图像采集设备 |
CN107256562A (zh) * | 2017-05-25 | 2017-10-17 | 山东师范大学 | 基于双目视觉系统的图像去雾方法和装置 |
CN111210481A (zh) * | 2020-01-10 | 2020-05-29 | 大连理工大学 | 多波段立体相机的深度估计加速方法 |
CN111583131B (zh) * | 2020-04-16 | 2022-08-05 | 天津大学 | 一种基于双目图像的去雾方法 |
CN111553862B (zh) * | 2020-04-29 | 2023-10-13 | 大连海事大学 | 一种海天背景图像去雾和双目立体视觉定位方法 |
-
2021
- 2021-07-26 CN CN202110846246.0A patent/CN113487516B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107025636A (zh) * | 2017-03-09 | 2017-08-08 | 广东欧珀移动通信有限公司 | 结合深度信息的图像去雾方法及装置和电子装置 |
CN111192205A (zh) * | 2019-11-22 | 2020-05-22 | 晏子俊 | 一种图像去雾方法、系统和计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113487516A (zh) | 2021-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111062905B (zh) | 一种基于显著图增强的红外和可见光融合方法 | |
CN106157267B (zh) | 一种基于暗通道先验的图像去雾透射率优化方法 | |
CN110660088B (zh) | 一种图像处理的方法和设备 | |
EP3542347B1 (en) | Fast fourier color constancy | |
TWI489416B (zh) | 影像還原方法 | |
CN110827218B (zh) | 基于图像hsv透射率加权校正的机载图像去雾方法 | |
CN111354077B (zh) | 一种基于双目视觉的三维人脸重建方法 | |
CN110276831B (zh) | 三维模型的建构方法和装置、设备、计算机可读存储介质 | |
CN109886883A (zh) | 实时偏振透雾成像图像增强处理方法 | |
CN109919889B (zh) | 一种基于双目视差的能见度检测算法 | |
CN104346833A (zh) | 一种基于单目视觉的车辆重构算法 | |
He et al. | Single image dehazing with white balance correction and image decomposition | |
CN115578297A (zh) | 一种自适应色彩补偿与细节优化的广义衰减图像增强方法 | |
CN113313702A (zh) | 基于边界约束与颜色校正的航拍图像去雾方法 | |
CN112561996A (zh) | 一种自主水下机器人回收对接中目标检测方法 | |
CN113487516B (zh) | 一种图像数据的去雾处理方法 | |
Cui et al. | A novel underwater image restoration method based on decomposition network and physical imaging model | |
CN106709876B (zh) | 一种基于暗像元原理的光学遥感图像去雾方法 | |
CN107295261A (zh) | 图像去雾处理方法、装置、存储介质和移动终端 | |
Negru et al. | Exponential image enhancement in daytime fog conditions | |
CN106960421A (zh) | 基于统计特性和亮度估计的夜晚图像去雾方法 | |
CN113936022A (zh) | 一种基于多模态特征与极化注意力的图像去雾方法 | |
CN113902659A (zh) | 一种基于显著目标增强的红外和可见光融合方法 | |
CN110766712A (zh) | 基于引导滤波器的细节层图像获取的方法及其相关设备 | |
CN111028156A (zh) | 一种基于暗原色先验模型的混合滤波图像去雾算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |