CN105898111A - 一种基于谱聚类的视频去雾方法 - Google Patents
一种基于谱聚类的视频去雾方法 Download PDFInfo
- Publication number
- CN105898111A CN105898111A CN201610298894.6A CN201610298894A CN105898111A CN 105898111 A CN105898111 A CN 105898111A CN 201610298894 A CN201610298894 A CN 201610298894A CN 105898111 A CN105898111 A CN 105898111A
- Authority
- CN
- China
- Prior art keywords
- image
- transmittance
- pixel
- video
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000003595 spectral effect Effects 0.000 title claims abstract description 46
- 238000002834 transmittance Methods 0.000 claims abstract description 126
- 239000011159 matrix material Substances 0.000 claims description 47
- 238000005070 sampling Methods 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 16
- 230000003068 static effect Effects 0.000 claims description 15
- 230000011218 segmentation Effects 0.000 claims description 14
- 230000036962 time dependent Effects 0.000 claims description 11
- 230000009191 jumping Effects 0.000 claims description 9
- 238000006731 degradation reaction Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 230000015556 catabolic process Effects 0.000 claims description 5
- 238000003672 processing method Methods 0.000 claims description 4
- -1 ( i ) - F Chemical class 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 238000013139 quantization Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 2
- 230000000877 morphologic effect Effects 0.000 claims description 2
- 238000003709 image segmentation Methods 0.000 claims 1
- 238000001228 spectrum Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 7
- 238000011084 recovery Methods 0.000 abstract 1
- 230000035515 penetration Effects 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于谱聚类的视频去雾方法,具体按照以下步骤实施:步骤1:摄像头采集有雾视频,步骤2:判断步骤1中采集到的当前帧图像Ik是否为视频的第一帧图像I1,如果是,转入步骤3;否则转入步骤4;步骤3:对对第一帧图像I1估计全局大气光A、类分割,并计算各个类的透射率;步骤4:对从第二帧开始的视频图像估计透射率;步骤5:根据估计到的全局大气光和透射率,恢复一帧图像。本发明一种基于谱聚类的视频去雾方法,更好地保证了视频帧内的空间一致性,减弱了去雾恢复后视频图像的块效应;并且,更好地保证了视频帧间的连续性,避免了视频帧间的闪烁效应。
Description
技术领域
本发明属于视频处理技术领域,具体涉及一种基于谱聚类的视频去雾方法。
背景技术
在视频监控行业,雾霾也已经成为高清监控的隐形杀手,透雾监控需求变得越来越迫切。就目前的发展来看,透雾技术主要体现在光学透雾和数字透雾两个方面。光学透雾主要采用针对红外波段成像特殊优化的镜头,利用雾气中的红外光进行成像。光学透雾只能得到黑白监控画面,并且镜头成本昂贵难以普及。数字透雾技术主要包括基于非模型的图像增强方法和基于模型的图像复原方法。通过图像增强方式的透雾处理方法适用范围广,能在一定程度上提高图像的对比度,但该方法未能从图像退化过程的原因入手进行补偿,从而不能获得很好的透雾效果。基于图像复原的方法研究雾天图像降质的物理过程,并建立雾天退化模型,反演退化过程,补偿退化过程造成的失真,以获得无雾图像的最优估计值从而改善雾天图像质量。这种方法针对性强,得到的去雾效果自然,一般不会有信息损失,但这种方法整体而言计算量较大。
基于暗原色先验的单一图像去雾方法有很好的去雾效果,但当场景中含有大面积明亮区域,且该区域亮度与大气光很相似时,暗原色先验就会失效,使这些区域在复原过程中造成失真。Kim等人提出了一种视频去雾方法,在透射率估计时引入时空一致性约束来改善视频去雾效果,但基于固定块划分的处理模式使得图像边缘会出现光晕和闪烁情况。
发明内容
本发明的目的是提供一种基于谱聚类的视频去雾方法,解决了现有视频去雾方法对于视频帧间时间连续性和视频帧内空间一致性考虑不足的问题。
本发明所采用的技术方案是,一种基于谱聚类的视频去雾方法,具体按照以下步骤实施:
步骤1:摄像头采集有雾视频,该视频序列作为去雾的输入,其中分别为图像Ik的RGB颜色空间三个通道值,图像大小为width×height;
步骤2:判断步骤1中采集到的当前帧图像Ik是否为视频的第一帧图像I1,如果是,转入步骤3;否则转入步骤4;
步骤3:对第一帧图像I1估计全局大气光A、谱聚类分割,并计算各个类的透射率;
步骤3.1:对第一帧图像I1估计全局大气光A;
步骤3.2:对第一帧图像I1进行谱聚类分割;
步骤3.3:计算各个类的透射率,根据像素所在的类别得到对应像素的透射率;
步骤4:对从第二帧开始的视频图像估计透射率;
步骤5:根据估计到的全局大气光和透射率,恢复一帧图像。
本发明的特点还在于,
步骤3.1具体为:
步骤3.1.1:输入视频图像Iin,初始值为第一帧图像I1,即Iin=I1,计算该图像的面积Iin_Area,Iin_Area=width*height,其中width和height分别表示图像的宽和高,设定面积阈值T,若Iin_Area>T,则将当前图像均分成四个子区域Ii,i=1,2,3,4,转入步骤3.1.2,否则将当前图像记作I1_end并转入步骤3.1.4;
步骤3.1.2:分别求出步骤3.1.1中四个子区域Ii的三颜色通道的像素均值和标准差的差值的累加和R_Ii:
其中,c∈{r,g,b},为第i子区域中某个像素的某一颜色通道的值,mean(·)为某一颜色通道的像素均值,std(·)为某一颜色通道的像素标准差;
步骤3.1.3:选取R_Ii中的最大值Ii_max:
Ii_max=max(R_Ii)
其中,max(·)代表求最大值;
将该最大值Ii_max对应的子区域作为输入图像Iin,返回步骤3.1.1进行递归搜索;
步骤3.1.4:计算图像I1_end中每个像素点的颜色向量(I1_endr,I1_endg,I1_endb)和白色向量(255,255,255)的距离I1_endDis:
其中,I1_endc为图像I1_end中某一个像素点的某一个颜色通道的值;
将最接近白色的像素点也就是I1_endDis值最小时对应的颜色向量(I1_end'r,I1_end'g,I1_end'b)作为全局大气光,即A=(I1_end'r,I1_end'g,I1_end'b)。
步骤3.2具体为:
步骤3.2.1:对视频的第一帧图像I1进行下采样,得到下采样图像I1-,I1-图像的宽和高分别为W_=width/s1,H_=height/s2,s1和s2为下采样率,对I1-提取YUV颜色空间的Y分量图作为谱聚类的输入图像,聚类个数初始化为m;
步骤3.2.2:将图像映射为一幅带权无向图G(V,W),该无向图中的每一个节点Vn,n=1,2,…,W_×H_对应中的毎一个像素pn,n=1,2,…,W_×H_,无向图G(V,W)的N×N邻接矩阵记为W,其中N=W_×H_,邻接矩阵W中的元素Wij代表像素对(pi,pj)之间的相似度,该相似度Wij定义为特征相似指数函数和空间邻近指数函数的乘积为:
其中,F(i)表示中像素pi的亮度特征向量,X(i)表示像素pi在图像中的空间位置,σ1和σx分别用来调节两部分相似度函数所占的比例;
步骤3.2.3:由邻接矩阵W求对角矩阵D和拉普拉斯矩阵L:
L=D-W
归一化L得到归一化的拉普拉斯矩阵Lnor:
Lnor=D-1/2LD-1/2=I-D-1/2WD-1/2
其中矩阵I、D、L和Lnor维数都为N×N,I为单位矩阵;
步骤3.2.4:将归一化后的拉普拉斯矩阵Lnor进行奇异值分解,选取前m
个特征值对应的特征向量Hi=(h1i,h2i,…,hNi)′,i=1,2,…,m,将m个特征向量Hi按列排列组成N×m特征矩阵H,该矩阵的每一行元素代表一个分类的样本,即对应中的一个像素;
步骤3.2.5:对特征矩阵H进行K-均值聚类,得到m个m维的聚类中心Vi=(v1,v2,…vm),i=1,2,…,m;
步骤3.2.6:把特征矩阵H的每一行元素按聚类中心Vi进行矢量量化,得到每一行元素所属的类,因为每一个像素对应一行元素,从而得到每一个像素所属的类别,由此得到图像的谱聚类分割矩阵Sm,矩阵的大小为W_×H_,各场景类别记为{C1,C2,…Cm}。
步骤3.3具体为:
步骤3.3.1:输入第一帧有雾视频图像I1和谱聚类分割矩阵Sm;
步骤3.3.2:将图像I1下采样,记为I1-,I1-图像的宽和高分别为W_=width/s1,H_=height/s2,s1和s2为下采样率,对I1-提取YUV颜色空间的Y分量图
步骤3.3.3:初始化谱聚类类数计数器i=0;
步骤3.3.4:构造中第i个场景Ci即第i类像素基于空间一致性的去雾总代价函数Ec:
Ec=Econtrast+λLEloss
其中:λL是一个常数,
Econtrast为去雾对比度代价函数为:
Eloss为信息损失代价函数为:
其中,A为大气光,k表示视频帧数,Jk(p)表示去雾后的图像,表示去雾后图像的Y分量值,Ik(p)表示有雾图像,表示有雾图像的Y分量值,表示图像的均值,表示图像的均值,像素p∈Ci,是Ci类中的像素点个数,t表示透射率;
步骤3.3.5:估计第i个场景Ci即第i类像素的透射率
步骤3.3.5.1:初始化透射率t=0.3,初始化代价函数Ec的最小时值f costmin=FLT_MAX,FLT_MAX为float型数据的最大值,初始化理想透射率fOptTrs=t;
步骤3.3.5.2:计算当前t下,代价函数Ec的值f cost;
步骤3.3.5.3:判断f cost≤f costmin是否为真,若为真,则令f costmin=f cost,fOptTrs=t,然后进入步骤3.3.5.4,反之则直接进入步骤3.3.5.4;
步骤3.3.5.4:令t=t+0.1,判断t<1是否为真,若为真,返回步骤3.3.5.2,若为假,跳转至步骤3.3.5.5;
步骤3.3.5.5:得到f cost的最小值f costmin对应的透射率fOptTrs,即得到静止场景类别Ci的透射率
步骤3.3.6:令i=i+1,判断i<m是否为真,若为真,返回步骤3.3.4,若为假,则得到各个类Ci,i=1,2,…,m的透射率根据像素所在的类别得到对应像素的透射率t1(x,y),其中(x,y)为像素所在图像位置。
步骤4具体为:
基于帧差法估计运动目标区域,首先,输入前后两帧视频图像Ik-1和Ik,计算它们的差值图Dk,然后设置阈值,将Dk二值化,得到D'k,对D'k进行形态学滤波处理,得到Rk,最后对Rk进行连通性分析,获取连通域的轮廓,根据轮廓个数NumOutline得到运动目标区域Objrh,rh=1,2,…,NumOutline;
步骤4.1:对从第二帧开始的视频图像,根据其在第一帧图像对应位置的场景类别Ci,i=1,2,…,m,建立时空一致性透射率模型,计算得到各个场景类别Ci的透射率根据像素所在的类别得到对应像素的透射率
步骤4.2:对从第二帧开始的视频图像的运动目标建立运动目标透射率模型,计算得到各个目标Objrh的透射率根据运动目标区域更新对应区域处的像素透射率,得到当前帧每个像素最终的透射率tk(x,y)。
步骤4.1具体为:
步骤4.1.1:输入相邻两帧视频图像Ik-1和Ik,输入第k-1帧的透射率tk-1(x,y),输入谱聚类分割矩阵Sm;
步骤4.1.2:将图像Ik-1和Ik下采样,记为Ik-1-和Ik-,图像的宽和高分别为W_=width/s1,H_=height/s2,s1和s2为下采样率,对Ik-1-和Ik-提取YUV颜色空间的Y分量图和
步骤4.1.3:初始化谱聚类类数计数器i=0;
步骤4.1.4:构造中第i个场景Ci即第i类像素基于时空一致性的静态背景透射率模型ES:
其中,λT为时间相关代价函数的权重系数,λL是一个常数,
为时间相关性代价函数为:
Econtrast为去雾对比度代价函数为:
Eloss为信息损失代价函数为:
假设相邻两帧图像同一个场景点的亮度信息是相同的,则:
其中,为权重系数为
tk(p)=τk(p)tk-1(p)
其中,Y表示YUV色彩空间的Y分量,A为大气光,σ为常数,k表示视频帧数,tk(p)为当前帧像素点p处的透射率,τk(p)是时间相关性参数,为图像一个谱聚类分割类Ci中的时间相关性参数,Ik(p)表示有雾图像,Jk(p)表示去雾后的图像,表示图像的均值,表示图像的均值,像素p∈Ci,是Ci类中的像素点个数,t表示透射率,ωk(p)为表示相邻帧之间图像差异的概率值;
步骤4.1.5:估计对应的透射率
步骤4.1.5.1:初始化透射率t=0.3,初始化代价函数ES的最小值f costmin=FLT_MAX,FLT_MAX为float型数据的最大值,初始化理想透射率fOptTrs=t;
步骤4.1.5.2:计算在当前t和前一帧透射率图tk-1(x,y)条件下代价函数ES的值f cost;
步骤4.1.5.3:判断f cost≤f costmin是否为真,若为真,则令f costmin=f cost,fOptTrs=t,然后进入步骤4.1.5.4,反之则直接进入步骤4.1.5.4;
步骤4.1.5.4:令t=t+0.1,判断t<1是否为真,若为真,返回步骤4.1.5.2,若为假,跳转至步骤4.1.5.5;
步骤4.1.5.5:得到f cost的最小值f costmin对应的透射率fOptTrs,即得到静止场景类别Ci的透射率
步骤4.1.6:令i=i+1,判断i<m是否为真,若为真,返回步骤4.1.4,若为假,则得到各个类Ci,i=1,2,…,m的透射率根据像素所在的类别得到对应像素的透射率其中(x,y)为像素所在图像位置。
步骤4.2具体为:
步骤4.2.1:输入相邻两帧图像和第k-1帧的透射率tk-1(x,y)、帧的运动目标集合rh=1,2,…,NumOutline;
步骤4.2.2:初始化运动目标数目j=0;
步骤4.2.3:利用块匹配算法,获取中第j个运动目标在前一帧图像中的对应区域
步骤4.2.4:构造中第j个运动目标基于时空一致性的透射率模型Eo:
其中,λT为时间相关代价函数的权重系数,λL是一个常数,
为运动目标的时间连续性代价函数为:
Econtrast为去雾对比度代价函数为:
Eloss为信息损失代价函数为:
其中:A为大气光,k表示视频帧数,Y表示YUV色彩空间的Y分量,Jk(p)表示去雾后的图像,Ik(p)表示有雾图像,表示图像的均值,表示图像的均值,像素p∈Ci,是Ci类中的像素点个数,t表示透射率,tk代表当前帧运动目标的透射率,代表运动目标在前一帧图像中对应区域的透射率,代表目标在相邻两帧图像中的亮度相似性;
步骤4.2.5:估计中运动目标区域对应的透射率
步骤4.2.5.1:初始化透射率t=0.3,初始化代价函数Eo的最小值f costmin=FLT_MAX,FLT_MAX为float型数据的最大值,初始化理想透射率fOptTrs=t;
步骤4.2.5.2:计算在当前t和前一帧透射率图tk-1(x,y)条件下,代价函数Eo的值f cost;
步骤4.2.5.3:判断f cost≤f costmin是否为真,若为真,则令f costmin=f cost,fOptTrs=t,然后进入步骤4.2.5.4,反之则直接进入步骤4.2.5.4;
步骤4.2.5.4:令t=t+0.1,判断t<1是否为真,若为真,返回步骤4.2.5.2,若为假,跳转至步骤4.2.5.5;
步骤4.2.5.5:得到f cost的最小值f costmin对应的透射率fOptTrs,即得到运动目标区域将的透射率,
步骤4.2.6:令j=j+1,判断j<NumOutline是否为真,若为真,返回步骤4.2.4,若为假,则得到每个运动目标rh=1,2,…,NumOutline的透射率根据像素所在的运动目标区域,更新对应位置处的透射率,最终得到第k帧的透射率tk(x,y)。
步骤5具体为:
步骤5.1:将得到的第k帧图像大小为W_×H_的透射率图tk(x,y)进行上采样,得到大小为width×height的透射率图tk+(x,y),width=W_×s1,height=H_×s2,s1和s2为上采样率,再使用导向滤波方法将该透射率图进行细化,得到细化后的透射率图I_tk(x,y);
步骤5.2:利用得到的细化后的第k帧图像透射率图I_tk(x,y)和估计到的大气光A=(I_end'r,I_end'g,I_end'b),基于如下式所示的雾天图像退化模型,恢复一帧视频图像中每一个像素:
其中:c∈(r,g,b),表示三颜色通道,透射率t则为I_tk(x,y)中对应位置处的值。
步骤5.3:将恢复后的一帧图像写入视频文件,并判断视频是否结束,若没有,继续估计下一帧参数,恢复图像,反之则输出恢复后的视频序列。
本发明的有益效果是:
①本发明提出的一种基于谱聚类的视频去雾方法,能够将场景中的同一目标分割到同一类中,将不同的目标分割到不同的类中,从而克服将同一目标分在不同的块中或者将不同的目标分在同一个块中的固定块分割方法的缺陷,实现对静止场景更准确可靠的分割,提升后续透射率估计的精确度;
②本发明提出的一种基于谱聚类的视频去雾方法,根据谱分割的结果引入基于类的透射率估计模型,更好地维持了视频图像的空间一致性,减弱了去雾后视频图像的块效应;
③本发明提出的基于谱聚类的视频去雾方法,首先利用帧差法获取运动目标区域,再对运动目标采用块匹配算法获得其在上一帧图像中的对应位置,最后引入运动目标的透射率模型对运动目标进行透射率估计,更好地保证了视频系列帧间图像的连续性,避免了去雾后视频帧间的闪烁效应。
附图说明
图1是本发明视频去雾方法的流程图;
图2是本发明视频去雾方法中估计全局大气光的流程图;
图3是本发明视频去雾方法中谱聚类分割的流程图;
图4是本发明视频去雾方法中基于帧差法估计运动目标区域的流程图;
图5是本发明视频去雾方法中空间一致性估计透射率的流程图;
图6是本发明视频去雾方法中时空一致性估计透射率的流程图;
图7是本发明视频去雾方法中运动目标估计透射率的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于谱聚类的视频去雾方法,流程图如图1所示,具体按照以下步骤实施:
步骤1:摄像头采集有雾视频,该视频序列作为去雾的输入,其中分别为图像Ik的RGB颜色空间三个通道值,图像大小为width×height。
步骤2:判断步骤1中采集到的当前帧图像Ik是否为视频的第一帧图像I1,如果是,转入步骤3;否则转入步骤4。
步骤3:对第一帧图像I1估计全局大气光A,然后对第一帧图像I1应用谱聚类算法进行类分割,得到m类场景目标{C1,C2,…Cm},最后对m类场景目标{C1,C2,…Cm}建立空间一致性透射率模型,计算各个类Ci,i=1,2,…,m的透射率根据像素所在的类别得到对应像素的透射率t1(x,y),其中(x,y)为像素所在图像位置,具体为:
步骤3.1:根据最亮色值的四叉树细分的递归计算方法计算全局大气光A,流程如图2所示,具体为:
步骤3.1.1:输入视频图像Iin(初始值为第一帧图像I1,即Iin=I1),计算该图像的面积I1_Area,I1_Area=width*height,其中width和height分别表示图像的宽和高。设定面积阈值T=200,若I1_Area>T,则将当前图像均分成四个子区域Ii,i=1,2,3,4,转入步骤3.1.2,否则将当前图像记作I1_end并转入步骤3.1.4;
步骤3.1.2:分别求出步骤3.1.1中四个子区域Ii的三颜色通道的像素均值和标准差的差值的累加和R_Ii:
其中,c∈{r,g,b},为第i子区域中某个像素的某一颜色通道的值,mean(·)为某一颜色通道的像素均值,std(·)为某一颜色通道的像素标准差。
步骤3.1.3:选取R_Ii中的最大值Ii_max:
Ii_max=max(R_Ii) (4)
其中,max(·)代表求最大值;
将该最大值Ii_max对应的子区域作为输入图像Iin,返回步骤3.1.1进行递归搜索。
步骤3.1.4:计算图像I1_end中每个像素点的颜色向量(I1_endr,I1_endg,I1_endb)和白色向量(255,255,255)的距离I1_endDis:
其中,I1_endc为图像I1_end中某一个像素点的某一个颜色通道的值;
将最接近白色的像素点也就是I1_endDis值最小时对应的颜色向量(I1_end′r,I1_end'g,I1_end'b)作为全局大气光,即A=(I1_end'r,I1_end'g,I1_end'b)。
步骤3.2:谱聚类分割的流程图如图3所示,具体为:
步骤3.2.1:对视频的第一帧图像I1进行下采样,得到下采样图像I1-,I1-图像的宽和高分别为W_=width/s1,H_=height/s2,s1和s2为下采样率,取s1=width/320,s2=height/240。对I1-提取YUV颜色空间的Y分量图作为谱聚类的输入图像,聚类个数初始化为m,m的取值可根据场景内容调整。
步骤3.2.2:将图像映射为一幅带权无向图G(V,W),该无向图中的每一个节点Vn,n=1,2,…,W_×H_对应中的毎一个像素pn,n=1,2,…,W_×H_。无向图G(V,W)的N×N邻接矩阵记为W,其中N=W_×H_。邻接矩阵W中的元素Wij代表像素对(pi,pj)之间的相似度,该相似度Wij定义为特征相似指数函数和空间邻近指数函数的乘积为:
其中,F(i)表示中像素pi的亮度特征向量,X(i)表示像素pi在图像中的空间位置,σ1和σx分别用来调节两部分相似度函数所占的比例,一般σ1=0.3,σx=0.7;
步骤3.2.3:由邻接矩阵W求对角矩阵D和拉普拉斯矩阵L:
L=D-W (8)
归一化L得到归一化的拉普拉斯矩阵Lnor:
Lnor=D-1/2LD-1/2=I-D-1/2WD-1/2 (9)
其中矩阵I、D、L和Lnor维数都为N×N,I为单位矩阵。
步骤3.2.4:将归一化后的拉普拉斯矩阵Lnor进行奇异值分解,选取前m个特征值对应的特征向量Hi=(h1i,h2i,…,hNi)′,i=1,2,…,m,将m个特征向量Hi按列排列组成N×m特征矩阵H,该矩阵的每一行元素代表一个分类的样本,即对应中的一个像素。
步骤3.2.5:对特征矩阵H进行K-均值聚类,得到m个m维的聚类中心Vi=(v1,v2,…vm),i=1,2,…,m。
步骤3.2.6:把特征矩阵H的每一行元素按聚类中心Vi进行矢量量化,得到每一行元素所属的类,因为每一个像素对应一行元素,从而得到每一个像素所属的类别,由此得到图像的谱聚类分割矩阵Sm,矩阵的大小为W_×H_,各场景类别记为{C1,C2,…Cm}。
步骤3.3:对m类场景目标{C1,C2,…Cm}建立空间一致性透射率模型,计算各个类Ci,i=1,2,…,m的透射率流程如图5所示,具体为:
步骤3.3.1:输入第一帧有雾视频图像I1和谱聚类分割矩阵Sm;
步骤3.3.2:将图像I1下采样,记为I1-,I1-图像的宽和高分别为W_=width/s1,H_=height/s2,s1和s2为下采样率,取s1=width/320,s2=height/240,对I1-提取YUV颜色空间的Y分量图
步骤3.3.3:初始化谱聚类类数计数器i=0;
步骤3.3.4:构造中第i个场景Ci(即第i类像素)基于空间一致性的去雾总代价函数:
步骤3.3.4.1:空间一致性透射率模型的建立
对视频序列中的一帧图像而言,去雾处理应该保证场景中各类目标(对象)的空间一致性,即同一目标的透射率取值应该相同,不同目标的透射率取值应该不同。故,根据谱聚类的结果,对中的m类场景目标{C1,C2,…Cm},建立基于类的空间一致性透射模型,即要计算m个透射率,设置每个类对应的透射率初始值为0.3。为了方便起见,用t代替
步骤3.3.4.2:建立对比度代价函数
通常情况下,同一图像区域,相对无雾条件,在有雾条件下的颜色对比度更低。通过去雾处理可以提高图像的对比度,根据去雾模型:
建立如下的去雾对比度代价函数Econtrast:
其中,A为大气光,k表示视频帧数,Y表示YUV色彩空间的Y分量,Jk(p)表示去雾后的图像,Ik(p)表示有雾图像,表示图像的均值,表示图像的均值,像素p∈Ci,是Ci类中的像素点个数,是MSE评价指标,在这里表示对比度。
步骤3.3.4.3:建立信息损失代价函数
步骤3.3.4.2中的去雾模型可看作斜率为1/t(t为透射率)的一条直线,输入Ik(p)的像素值范围为[0,255],输出Jk(p)的像素值范围记为[α,β],由于0≤t≤1,则1/t≥1,[α,β]可能会超出[0,255]的范围,在这种情况下,下溢像素值将被截断为0,上溢的像素值将被截断为255,这种强行截断会造成一定的信息损失。定义截断像素值的平方和为信息损失代价函数Eloss,如下式:
步骤3.3.4.4:建立空间一致性的去雾总代价函数
去雾处理的目的不仅要提高对比度,也要最大限度地减少信息损失,故,建立总代价函数Ec:
Ec=Econtrast+λLEloss (13)
其中:λL是一个常数,用来调节代价函数中对比度代价函数和信息损失代价函数的比重。经验取值为λL=5.0。
步骤3.3.5:估计第i个场景Ci(即第i类像素)的透射率
步骤3.3.5.1:初始化透射率t=0.3,初始化代价函数Ec的最小时值f costmin=FLT_MAX,FLT_MAX=3.402823466*1038为float型数据的最大值,初始化理想透射率fOptTrs=t;
步骤3.3.5.2:计算当前t下,代价函数Ec的值f cost;
步骤3.3.5.3:判断f cost≤f costmin是否为真,若为真,则令f costmin=f cost,fOptTrs=t,然后进入步骤3.3.5.4,反之则直接进入步骤3.3.5.4;
步骤3.3.5.4:令t=t+0.1,判断t<1是否为真,若为真,返回步骤3.3.5.2,循环步骤3.3.5.2~3.3.5.4,直到t<1为假,跳转至步骤3.3.5.5;
步骤3.3.5.5:得到f cost的最小值f costmin对应的透射率fOptTrs,即得到静止场景类别Ci的透射率
步骤3.3.6:令i=i+1,判断i<m是否为真,若为真,返回步骤3.3.4,迭代法计算每一类像素对应的透射率,反之得到各个类Ci,i=1,2,…,m的透射率根据像素所在的类别得到对应像素的透射率t1(x,y),其中(x,y)为像素所在图像位置。
步骤4:基于帧差法估计运动目标区域,流程如图4所示,首先,输入前后两帧视频图像Ik-1和Ik,计算它们的差值图Dk,然后设置阈值为100,将Dk二值化,得到D'k,对D'k进行核大小为3×3的中值滤波和一次膨胀,消除小的噪声和不连续的孔洞,得到Rk,最后求取Rk的连通域的轮廓,并设定面积阈值为900,将小于该面积的轮廓剔除。最终得到NumOutline个轮廓,对应得到运动目标区域Objrh,rh=1,2,…,NumOutline。对视频从第二帧开始的图像建立静态背景和运动目标透射率模型,估计透射率。
步骤4.1:对从第二帧开始的视频图像,根据其在第一帧图像对应位置的场景类别Ci,i=1,2,…,m,建立时空一致性透射率模型,计算得到各个场景类别Ci的透射率根据像素所在的类别得到对应像素的透射率流程如图6所示,具体为:
步骤4.1.1:输入相邻两帧视频图像Ik-1和Ik,输入第k-1帧的透射率tk-1(x,y),输入谱聚类分割矩阵Sm;
步骤4.1.2:将图像Ik-1和Ik下采样,记为Ik-1-和Ik-,图像的宽和高分别为W_=width/s1,H_=height/s2,s1和s2为下采样率,取s1=width/320,s2=height/240,对Ik-1-和Ik-提取YUV颜色空间的Y分量图和
步骤4.1.3:初始化谱聚类类数计数器i=0;
步骤4.1.4:构造中第i个场景Ci(即第i类像素)基于时空一致性的静态背景透射率模型:
步骤4.1.4.1:静态透射率模型的建立
在视频中,除了帧内的空间一致性之外,还具有帧间的时间连续性,即相邻两帧之间相同目标具有相似的透射率,反之不同。故,对Ik进行下采样,得到下采样图像Ik-,对Ik-提取YUV颜色空间的Y分量图根据谱聚类的结果,对中的m类场景目标{C1,C2,…Cm},建立基于类的时空一致性透射模型,即要计算m个透射率,设置每个类对应的透射率初始值为0.3。为了方便起见,用t代替
步骤4.1.4.2:时间代价函数的建立
假设相邻两帧图像同一个场景点的亮度信息是相同的,则:
其中k表示视频帧数,表示去雾后图像的Y分量值,像素p∈Ci,假设当前帧透射率tk(p)和前一帧相同位置的透射率tk-1(p)之间的关系如下式:
tk(p)=τk(p)tk-1(p) (15)
根据公式(10)和(14)可得公式(16),τk(p)是时间相关性参数,随着雾大小的变化会影响透射率的取值,为:
其中和表示前后两帧有雾图像的Y分量值,在公式(15)中比较了相邻两帧同一位置处的透射率关系,即便是静态背景,同一位置处的亮度也有可能发生一定的变化,用一个简单的概率模型来表示相邻帧之间图像的差异,如下式所示:
其中,σ控制着此概率模型的变化,我们按照经验σ=10,然后定义图像一个谱聚类分割类Ci中的时间相关性参数为:
对每一个图像类都定义一个时间相关性代价,这个代价为前一帧和当前帧的透射率的平方差,但前一帧的透射率t值,需要乘上一个相关性参数
最终,定义时间相关性代价函数为:
其中, 为权重系数,代表两帧之间相同类的相似度。
步骤4.1.4.3:建立时空一致性的去雾总代价函数
对静态背景建立的透射率模型基于时空一致性的,即既要保证帧内图像的空间一致性,也要保证帧间图像的时间连续性,因而静态背景透射率模型ES为:
λT为时间相关代价函数的权重系数,同时考虑到三部分代价函数的数量级,一般设置λT=255*255。
步骤4.1.5:估计对应的透射率,具体步骤如下:
步骤4.1.5.1:初始化透射率t=0.3,初始化代价函数ES的最小值f costmin=FLT_MAX,FLT_MAX=3.402823466*1038为float型数据的最大值,初始化理想透射率fOptTrs=t;
步骤4.1.5.2:计算在当前t和前一帧透射率图tk-1(x,y)条件下,代价函数ES的值f cost;
步骤4.1.5.3:判断f cost≤f costmin是否为真,若为真,则令f costmin=f cost,fOptTrs=t,然后进入步骤4.1.5.4,反之则直接进入步骤4.1.5.4;
步骤4.1.5.4:令t=t+0.1,判断t<1是否为真,若为真,返回步骤4.1.5.2,循环步骤4.1.5.2~步骤4.1.5.4,直到t<1为假,跳转至步骤4.1.5.5;
步骤4.1.5.5:得到f cost的最小值f costmin对应的透射率fOptTrs,即得到静止场景类别Ci的透射率
步骤4.1.6:令i=i+1,判断i<m是否为真,若为真,返回步骤4.1.4,迭代法计算每一类像素对应的透射率,反之得到各个类Ci,i=1,2,…,m的透射率根据像素所在的类别得到对应像素的透射率其中(x,y)为像素所在图像位置。
步骤4.2:对从第二帧开始的视频图像的运动目标建立运动目标透射率模型,计算得到各个目标Objrh的透射率根据运动目标区域更新对应区域处的像素透射率,得到当前帧每个像素最终的透射率tk(x,y),流程如图7所示,具体为:
步骤4.2.1:输入相邻两帧图像和第k-1帧的透射率tk-1(x,y)、帧的运动目标集合rh=1,2,…,NumOutline;
步骤4.2.2:初始化运动目标数目j=0;
步骤4.2.3:采用经典的块匹配算法,获取中第j个运动目标在前一帧图像中的对应区域
步骤4.2.4:构造中第j个运动目标基于时空一致性的透射率模型
前面讨论的静态背景透射率模型,是基于相邻两帧之间相同类同一位置处的透射率是相似的这一假设的,但是这一假设对于运动目标是不成立的,因为运动目标在相邻帧之间并不在同一个类中,因此,基于帧差法获取毎帧图像运动目标的位置Objrh,rh=1,2,…,NumOutline,Objrh=(x,y,w,h)代表运动目标所在的矩形区域,进而定义运动目标的时间连续性代价函数为:
其中:tk代表当前帧运动目标的透射率,代表运动目标在前一帧图像中对应区域的透射率,代表目标在相邻两帧图像中的亮度相似性;最后,定义运动目标的透射率模型为:
步骤4.2.5:估计中运动目标区域对应的透射率,具体步骤如下:
步骤4.2.5.1:初始化透射率t=0.3,初始化代价函数Eo的最小值f costmin=FLT_MAX,FLT_MAX=3.402823466*1038为float型数据的最大值,初始化理想透射率fOptTrs=t;
步骤4.2.5.2:计算在当前t和前一帧透射率图tk-1(x,y)条件下,代价函数Eo的值f cost;
步骤4.2.5.3:判断f cost≤f costmin是否为真,若为真,则令f costmin=f cost,fOptTrs=t,然后进入步骤4.2.5.4,反之则直接进入步骤4.2.5.4;
步骤4.2.5.4:令t=t+0.1,判断t<1是否为真,若为真,返回步骤4.2.5.2,循环步骤4.2.5.2~步骤4.2.5.4,直到t<1为假,跳转至步骤4.2.5.5;
步骤4.2.5.5:得到f cost的最小值f costmin对应的透射率fOptTrs,即得到运动目标区域将的透射率,
步骤4.2.6:令j=j+1,判断j<NumOutline是否为真,若为真,返回步骤4.2.4,迭代法计算每一个运动目标对应的透射率,反之得到每个运动目标rh=1,2,…,NumOutline的透射率根据像素所在的运动目标区域,更新对应位置处的透射率,最终得到第k帧的透射率tk(x,y)。
步骤5:根据估计到的全局大气光和透射率,恢复一帧图像,具体操作如下:
步骤5.1:将得到的第k帧图像大小为W_×H_的透射率图tk(x,y)进行上采样,得到大小为width×height的透射率图tk+(x,y),width=W_×s1,height=H_×s2,s1和s2为上采样率。再使用经典的导向滤波方法将该透射率图进行细化,得到细化后的透射率图I_tk(x,y);
步骤5.2:利用得到的细化后的第k帧图像透射率图I_tk(x,y)和估计到的大气光A=(I_end'r,I_end'g,I_end'b),基于如下式所示的雾天图像退化模型,恢复一帧视频图像中每一个像素:
其中:c∈(r,g,b),表示三颜色通道,透射率t则为I_tk(x,y)中对应位置处的值。
步骤5.3:将恢复后的一帧图像写入视频文件,并判断视频是否结束,若没有,继续估计下一帧参数,恢复图像,反之则输出恢复后的视频序列。
Claims (8)
1.一种基于谱聚类的视频去雾方法,其特征在于,具体按照以下步骤实施:
步骤1:摄像头采集有雾视频,该视频序列作为去雾的输入,其中分别为图像Ik的RGB颜色空间三个通道值,图像大小为width×height;
步骤2:判断步骤1中采集到的当前帧图像Ik是否为视频的第一帧图像I1,如果是,转入步骤3;否则转入步骤4;
步骤3:对对第一帧图像I1估计全局大气光A、谱聚类分割,并计算各个类的透射率;
步骤3.1:对第一帧图像I1估计全局大气光A;
步骤3.2:对第一帧图像I1进行谱聚类分割;
步骤3.3:计算各个类的透射率,根据像素所在的类别得到对应像素的透射率;
步骤4:对从第二帧开始的视频图像估计透射率;
步骤5:根据估计到的全局大气光和透射率,恢复一帧图像。
2.根据权利要求1所述的一种基于谱聚类的视频去雾方法,其特征在于,所述步骤3.1具体为:
步骤3.1.1:输入视频图像Iin,初始值为第一帧图像I1,即Iin=I1,计算该图像的面积Iin_Area,Iin_Area=width*height,其中width和height分别表示图像的宽和高,设定面积阈值T,若Iin_Area>T,则将当前图像均分成四个子区域Ii,i=1,2,3,4,转入步骤3.1.2,否则将当前图像记作I1_end并转入步骤3.1.4;
步骤3.1.2:分别求出步骤3.1.1中四个子区域Ii的三颜色通道的像素均值和标准差的差值的累加和R_Ii:
其中,c∈{r,g,b},为第i子区域中某个像素的某一颜色通道的值,mean(·)为某一颜色通道的像素均值,std(·)为某一颜色通道的像素标准差;
步骤3.1.3:选取R_Ii中的最大值Ii_max:
Ii_max=max(R_Ii)
其中,max(·)代表求最大值;
将该最大值Ii_max对应的子区域作为输入图像Iin,返回步骤3.1.1进行递归搜索;
步骤3.1.4:计算图像I1_end中每个像素点的颜色向量(Il_endr:Il_endg:Il_endb)和白色向量(255,255,255)的距离I1_endDis:
其中,I1_endc为图像I1_end中某一个像素点的某一个颜色通道的值;
将最接近白色的像素点也就是I1_endDis值最小时对应的颜色向量(I1_end'r,I1_end'g,I1_end'b)作为全局大气光,即A=(I1_end'r,I1_end'g,I1_end'b)。
3.根据权利要求1所述的一种基于谱聚类的视频去雾方法,其特征在于,所述步骤3.2具体为:
步骤3.2.1:对视频的第一帧图像I1进行下采样,得到下采样图像I1-,I1-图像的宽和高分别为W-=width/s1,H-=height/s2,s1和s2为下采样率,对I1-提取YUV颜色空间的Y分量图作为谱聚类的输入图像,聚类个数初始化为m;
步骤3.2.2:将图像映射为一幅带权无向图G(V,W),该无向图中的每一个节点Vn,n=1,2,…,W-×H-对应中的毎一个像素pn,n=1,2,…,W-×H-,无向图G(V,W)的N×N邻接矩阵记为W,其中N=W-×H-,邻接矩阵W中的元素Wij代表像素对(pi,pj)之间的相似度,该相似度Wij定义为特征相似指数函数和空间邻近指数函数的乘积为:
其中,F(i)表示中像素pi的亮度特征向量,X(i)表示像素pi在图像中的空间位置,σ1和σx分别用来调节两部分相似度函数所占的比例;
步骤3.2.3:由邻接矩阵W求对角矩阵D和拉普拉斯矩阵L:
L=D-W
归一化L得到归一化的拉普拉斯矩阵Lnor:
Lnor=D-1/2LD-1/2=I-D-1/2WD-1/2
其中矩阵I、D、L和Lnor维数都为N×N,I为单位矩阵;
步骤3.2.4:将归一化后的拉普拉斯矩阵Lnor进行奇异值分解,选取前m个特征值对应的特征向量Hi=(h1i,h2i,…,hNi)′,i=1,2,…,m,将m个特征向量Hi按列排列组成N×m特征矩阵H,该矩阵的每一行元素代表一个分类的样本,即对应中的一个像素;
步骤3.2.5:对特征矩阵H进行K-均值聚类,得到m个m维的聚类中心Vi=(v1,v2,…vm),i=1,2,…,m;
步骤3.2.6:把特征矩阵H的每一行元素按聚类中心Vi进行矢量量化,得到每一行元素所属的类,因为每一个像素对应一行元素,从而得到每一个像素所属的类别,由此得到图像的谱聚类分割矩阵Sm,矩阵的大小为W-×H-,各场景类别记为{C1,C2,…Cm}。
4.根据权利要求3所述的一种基于谱聚类的视频去雾方法,其特征在于,所述步骤3.3具体为:
步骤3.3.1:输入第一帧有雾视频图像I1和谱聚类分割矩阵Sm;
步骤3.3.2:将图像I1下采样,记为I1-,I1-图像的宽和高分别为W-=width/s1,H-=height/s2,s1和s2为下采样率,对I1-提取YUV颜色空间的Y分量图
步骤3.3.3:初始化谱聚类类数计数器i=0;
步骤3.3.4:构造中第i个场景Ci即第i类像素基于空间一致性的去雾总代价函数Ec:
Ec=Econtrast+λLEloss
其中:λL是一个常数,
Econtrast为去雾对比度代价函数为:
Eloss为信息损失代价函数为:
其中,A为大气光,k表示视频帧数,Jk(p)表示去雾后的图像,表示去雾后图像的Y分量值,Ik(p)表示有雾图像,表示有雾图像的Y分量值,表示图像的均值,表示图像的均值,像素p∈Ci,是Ci类中的像素点个数,t表示透射率;
步骤3.3.5:估计第i个场景Ci即第i类像素的透射率
步骤3.3.5.1:初始化透射率t=0.3,初始化代价函数Ec的最小时值fcostmin=FLT_MAX,FLT_MAX为float型数据的最大值,初始化理想透射率fOptTrs=t;
步骤3.3.5.2:计算当前t下,代价函数Ec的值fcost;
步骤3.3.5.3:判断fcost≤fcostmin是否为真,若为真,则令fcostmin=fcost,fOptTrs=t,然后进入步骤3.3.5.4,反之则直接进入步骤3.3.5.4;
步骤3.3.5.4:令t=t+0.1,判断t<1是否为真,若为真,返回步骤3.3.5.2,若为假,跳转至步骤3.3.5.5;
步骤3.3.5.5:得到fcost的最小值fcostmin对应的透射率fOptTrs,即得到静止场景类别Ci的透射率
步骤3.3.6:令i=i+1,判断i<m是否为真,若为真,返回步骤3.3.4,若为假,则得到各个类Ci,i=1,2,…,m的透射率根据像素所在的类别得到对应像素的透射率t1(x,y),其中(x,y)为像素所在图像位置。
5.根据权利要求3所述的一种基于谱聚类的视频去雾方法,其特征在于,所述步骤4具体为:
基于帧差法估计运动目标区域,首先,输入前后两帧视频图像Ik-1和Ik,计算它们的差值图Dk,然后设置阈值,将Dk二值化,得到D'k,对D'k进行形态学滤波处理,得到Rk,最后对Rk进行连通性分析,获取连通域的轮廓,根据轮廓个数NumOutline得到运动目标区域Objrh,rh=1,2,…,NumOutline;
步骤4.1:对从第二帧开始的视频图像,根据其在第一帧图像对应位置的场景类别Ci,i=1,2,…,m,建立时空一致性透射率模型,计算得到各个场景类别Ci的透射率根据像素所在的类别得到对应像素的透射率
步骤4.2:对从第二帧开始的视频图像的运动目标建立运动目标透射率模型,计算得到各个目标Objrh的透射率根据运动目标区域更新对应区域处的像素透射率,得到当前帧每个像素最终的透射率tk(x,y)。
6.根据权利要求5所述的一种基于谱聚类的视频去雾方法,其特征在于,所述步骤4.1具体为:
步骤4.1.1:输入相邻两帧视频图像Ik-1和Ik,输入第k-1帧的透射率tk-1(x,y),输入谱聚类分割矩阵Sm;
步骤4.1.2:将图像Ik-1和Ik下采样,记为Ik-1-和Ik-,图像的宽和高分别为W-=width/s1,H-=height/s2,s1和s2为下采样率,对Ik-1-和Ik-提取YUV颜色空间的Y分量图和
步骤4.1.3:初始化谱聚类类数计数器i=0;
步骤4.1.4:构造中第i个场景Ci即第i类像素基于时空一致性的静态背景透射率模型ES:
其中,λT为时间相关代价函数的权重系数,λL是一个常数,
为时间相关性代价函数为:
Econtrast为去雾对比度代价函数为:
Eloss为信息损失代价函数为:
假设相邻两帧图像同一个场景点的亮度信息是相同的,则:
其中,为权重系数为
tk(p)=τk(p)tk-1(p)
其中,Y表示YUV色彩空间的Y分量,A为大气光,σ为常数,k表示视频帧数,tk(p)为当前帧像素点p处的透射率,τk(p)是时间相关性参数,为图像一个谱聚类分割类Ci中的时间相关性参数,Ik(p)表示有雾图像,Jk(p)表示去雾后的图像,表示图像的均值,表示图像的均值,像素p∈Ci,是Ci类中的像素点个数,t表示透射率,ωk(p)为表示相邻帧之间图像差异的概率值;
步骤4.1.5:估计对应的透射率
步骤4.1.5.1:初始化透射率t=0.3,初始化代价函数ES的最小值fcostmin=FLT_MAX,FLT_MAX为float型数据的最大值,初始化理想透射率fOptTrs=t;
步骤4.1.5.2:计算在当前t和前一帧透射率图tk-1(x,y)条件下代价函数ES的值fcost;
步骤4.1.5.3:判断fcost≤fcostmin是否为真,若为真,则令fcostmin=fcost,fOptTrs=t,然后进入步骤4.1.5.4,反之则直接进入步骤4.1.5.4;
步骤4.1.5.4:令t=t+0.1,判断t<1是否为真,若为真,返回步骤4.1.5.2,若为假,跳转至步骤4.1.5.5;
步骤4.1.5.5:得到fcost的最小值fcostmin对应的透射率fOptTrs,即得到静止场景类别Ci的透射率
步骤4.1.6:令i=i+1,判断i<m是否为真,若为真,返回步骤4.1.4,若为假,则得到各个类Ci,i=1,2,…,m的透射率根据像素所在的类别得到对应像素的透射率其中(x,y)为像素所在图像位置。
7.根据权利要求5所述的一种基于谱聚类的视频去雾方法,其特征在于,所述步骤4.2具体为:
步骤4.2.1:输入相邻两帧图像和第k-1帧的透射率tk-1(x,y)、帧的运动目标集合rh=1,2,…,NumOutline;
步骤4.2.2:初始化运动目标数目j=0;
步骤4.2.3:利用块匹配算法,获取中第j个运动目标在前一帧图像中的对应区域
步骤4.2.4:构造中第j个运动目标基于时空一致性的透射率模型Eo:
其中,λT为时间相关代价函数的权重系数,λL是一个常数,
为运动目标的时间连续性代价函数为:
Econtrast为去雾对比度代价函数为:
Eloss为信息损失代价函数为:
其中:A为大气光,k表示视频帧数,Y表示YUV色彩空间的Y分量,Jk(p)表示去雾后的图像,Ik(p)表示有雾图像,表示图像的均值,表示图像的均值,像素p∈Ci,是Ci类中的像素点个数,t表示透射率,tk代表当前帧运动目标的透射率,代表运动目标在前一帧图像中对应区域的透射率,代表目标在相邻两帧图像中的亮度相似性;
步骤4.2.5:估计中运动目标区域对应的透射率
步骤4.2.5.1:初始化透射率t=0.3,初始化代价函数Eo的最小值fcostmin=FLT_MAX,FLT_MAX为float型数据的最大值,初始化理想透射率fOptTrs=t;
步骤4.2.5.2:计算在当前t和前一帧透射率图tk-1(x,y)条件下,代价函数Eo的值fcost;
步骤4.2.5.3:判断fcost≤fcostmin是否为真,若为真,则令fcostmin=fcost,fOptTrs=t,然后进入步骤4.2.5.4,反之则直接进入步骤4.2.5.4;
步骤4.2.5.4:令t=t+0.1,判断t<1是否为真,若为真,返回步骤4.2.5.2,若为假,跳转至步骤4.2.5.5;
步骤4.2.5.5:得到fcost的最小值fcostmin对应的透射率fOptTrs,即得到运动目标区域将的透射率,
步骤4.2.6:令j=j+1,判断j<NumOutline是否为真,若为真,返回步骤4.2.4,若为假,则得到每个运动目标rh=1,2,…,NumOutline的透射率根据像素所在的运动目标区域,更新对应位置处的透射率,最终得到第k帧的透射率tk(x,y)。
8.根据权利要求6或7所述的一种基于谱聚类的视频去雾方法,其特征在于,所述步骤5具体为:
步骤5.1:将得到的第k帧图像大小为W-×H-的透射率图tk(x,y)进行上采样,得到大小为width×height的透射率图tk+(x,y),width=W-×s1,height=H-×s2,s1和s2为上采样率,再使用导向滤波方法将该透射率图进行细化,得到细化后的透射率图I_tk(x,y);
步骤5.2:利用得到的细化后的第k帧图像透射率图I_tk(x,y)和估计到的大气光A=(I_end'r,I_end'g,I_end'b),基于如下式所示的雾天图像退化模型,恢复一帧视频图像中每一个像素:
其中:c∈(r,g,b),表示三颜色通道,透射率t则为I_tk(x,y)中对应位置处的值;
步骤5.3:将恢复后的一帧图像写入视频文件,并判断视频是否结束,若没有,继续估计下一帧参数,恢复图像,反之则输出恢复后的视频序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610298894.6A CN105898111B (zh) | 2016-05-06 | 2016-05-06 | 一种基于谱聚类的视频去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610298894.6A CN105898111B (zh) | 2016-05-06 | 2016-05-06 | 一种基于谱聚类的视频去雾方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105898111A true CN105898111A (zh) | 2016-08-24 |
CN105898111B CN105898111B (zh) | 2018-11-27 |
Family
ID=56702424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610298894.6A Active CN105898111B (zh) | 2016-05-06 | 2016-05-06 | 一种基于谱聚类的视频去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105898111B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111291663A (zh) * | 2020-01-22 | 2020-06-16 | 中山大学 | 一种利用时空信息的快速视频目标物体分割方法 |
CN111738928A (zh) * | 2020-04-30 | 2020-10-02 | 南京图格医疗科技有限公司 | 一种基于概率优化和神经网络的内窥镜去雾方法及装置 |
CN111775132A (zh) * | 2020-07-14 | 2020-10-16 | 广州百畅信息科技有限公司 | 一种磁力履带式通信塔设备维修攀爬机器人 |
CN112949389A (zh) * | 2021-01-28 | 2021-06-11 | 西北工业大学 | 一种基于改进目标检测网络的雾霾图像目标检测方法 |
CN117474801A (zh) * | 2023-10-30 | 2024-01-30 | 安徽大学 | 一种融合时空频信息的非均匀遥感视频影像去雾方法 |
CN117649439A (zh) * | 2024-01-30 | 2024-03-05 | 山东省海洋资源与环境研究院(山东省海洋环境监测中心、山东省水产品质量检验中心) | 一种海草床面积的获取方法、系统、设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140205192A1 (en) * | 2011-08-30 | 2014-07-24 | Fujitsu Limited | Image defogging method and system |
CN104091310A (zh) * | 2014-06-24 | 2014-10-08 | 三星电子(中国)研发中心 | 一种图像去雾方法和装置 |
CN104881681A (zh) * | 2015-05-22 | 2015-09-02 | 浙江大学 | 基于混合图模型的图像序列类别标注方法 |
CN105023256A (zh) * | 2015-08-13 | 2015-11-04 | 丘璇 | 一种图像去雾方法及系统 |
-
2016
- 2016-05-06 CN CN201610298894.6A patent/CN105898111B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140205192A1 (en) * | 2011-08-30 | 2014-07-24 | Fujitsu Limited | Image defogging method and system |
CN104091310A (zh) * | 2014-06-24 | 2014-10-08 | 三星电子(中国)研发中心 | 一种图像去雾方法和装置 |
CN104881681A (zh) * | 2015-05-22 | 2015-09-02 | 浙江大学 | 基于混合图模型的图像序列类别标注方法 |
CN105023256A (zh) * | 2015-08-13 | 2015-11-04 | 丘璇 | 一种图像去雾方法及系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111291663A (zh) * | 2020-01-22 | 2020-06-16 | 中山大学 | 一种利用时空信息的快速视频目标物体分割方法 |
CN111291663B (zh) * | 2020-01-22 | 2023-06-20 | 中山大学 | 一种利用时空信息的快速视频目标物体分割方法 |
CN111738928A (zh) * | 2020-04-30 | 2020-10-02 | 南京图格医疗科技有限公司 | 一种基于概率优化和神经网络的内窥镜去雾方法及装置 |
CN111738928B (zh) * | 2020-04-30 | 2021-04-13 | 南京图格医疗科技有限公司 | 一种基于概率优化和神经网络的内窥镜去雾方法 |
CN111775132A (zh) * | 2020-07-14 | 2020-10-16 | 广州百畅信息科技有限公司 | 一种磁力履带式通信塔设备维修攀爬机器人 |
CN112949389A (zh) * | 2021-01-28 | 2021-06-11 | 西北工业大学 | 一种基于改进目标检测网络的雾霾图像目标检测方法 |
CN117474801A (zh) * | 2023-10-30 | 2024-01-30 | 安徽大学 | 一种融合时空频信息的非均匀遥感视频影像去雾方法 |
CN117474801B (zh) * | 2023-10-30 | 2024-05-07 | 安徽大学 | 一种融合时空频信息的非均匀遥感视频影像去雾方法 |
CN117649439A (zh) * | 2024-01-30 | 2024-03-05 | 山东省海洋资源与环境研究院(山东省海洋环境监测中心、山东省水产品质量检验中心) | 一种海草床面积的获取方法、系统、设备和存储介质 |
CN117649439B (zh) * | 2024-01-30 | 2024-04-09 | 山东省海洋资源与环境研究院(山东省海洋环境监测中心、山东省水产品质量检验中心) | 一种海草床面积的获取方法、系统、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105898111B (zh) | 2018-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105898111B (zh) | 一种基于谱聚类的视频去雾方法 | |
Li et al. | Image dehazing using residual-based deep CNN | |
Tripathi et al. | Single image fog removal using bilateral filter | |
CN109685045B (zh) | 一种运动目标视频跟踪方法及系统 | |
Zhang et al. | A new haze removal approach for sky/river alike scenes based on external and internal clues | |
CN107301624B (zh) | 基于区域划分及浓雾预处理的卷积神经网络去雾方法 | |
KR102261532B1 (ko) | 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법 | |
CN109389569B (zh) | 基于改进DehazeNet的监控视频实时去雾方法 | |
CN105046653B (zh) | 一种视频雨滴去除方法及系统 | |
Wang et al. | Variational single nighttime image haze removal with a gray haze-line prior | |
TW202105324A (zh) | 基於多個視訊訊框的深度偵測的方法及系統 | |
WO2016165064A1 (zh) | 基于多视角学习的鲁棒性前景检测方法 | |
CN106657948A (zh) | 低照度Bayer图像的增强方法及增强装置 | |
CN111460964A (zh) | 一种广电传输机房低照度条件下运动目标检测方法 | |
Liu et al. | Single image haze removal via depth-based contrast stretching transform | |
CN110111239B (zh) | 一种基于tof相机软分割的人像头部背景虚化方法 | |
Wang et al. | Haze removal algorithm based on single-images with chromatic properties | |
Hong et al. | Single image dehazing based on pixel-wise transmission estimation with estimated radiance patches | |
Kumari et al. | A new fast and efficient dehazing and defogging algorithm for single remote sensing images | |
Park et al. | Image enhancement for extremely low light conditions | |
CN111429375A (zh) | 日间图像参照辅助的夜晚监控视频质量提升方法 | |
CN106296740B (zh) | 一种基于低秩稀疏表达的目标精细轮廓跟踪方法 | |
CN113096033B (zh) | 基于Retinex模型自适应结构的低光照图像增强方法 | |
Zhang et al. | A compensation textures dehazing method for water alike area | |
Van Vo et al. | High dynamic range video synthesis using superpixel-based illuminance-invariant motion estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |