CN107203981A - 一种基于雾气浓度特征的图像去雾方法 - Google Patents

一种基于雾气浓度特征的图像去雾方法 Download PDF

Info

Publication number
CN107203981A
CN107203981A CN201710458620.3A CN201710458620A CN107203981A CN 107203981 A CN107203981 A CN 107203981A CN 201710458620 A CN201710458620 A CN 201710458620A CN 107203981 A CN107203981 A CN 107203981A
Authority
CN
China
Prior art keywords
mrow
pixel
msub
image
transmissivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710458620.3A
Other languages
English (en)
Other versions
CN107203981B (zh
Inventor
顾振飞
张登银
鞠铭烨
袁小燕
单祝鹏
李秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Yunkai Data Technology Co.,Ltd.
Original Assignee
Nanjing College of Information Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing College of Information Technology filed Critical Nanjing College of Information Technology
Priority to CN201710458620.3A priority Critical patent/CN107203981B/zh
Publication of CN107203981A publication Critical patent/CN107203981A/zh
Application granted granted Critical
Publication of CN107203981B publication Critical patent/CN107203981B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30192Weather; Meteorology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明提出一种基于雾气浓度特征的图像去雾方法,包括:求取有雾图像中每个像素的雾气浓度特征值;基于雾气浓度特征值,利用图像分割方法将有雾图像分割获得子场景集;在子场景集中筛选出类天空区域;选择类天空区域中饱和度分量最低的前1%的像素组成候选像素集,选择候选像素集中亮度分量最大的前10%的像素作为大气光区域,求取大气光区域中所有像素的强度均值作为全局大气光值;求取有雾图像中每个像素的透射率;根据全局大气光值和透射率得到去雾图像。本发明方法在去雾处理过程中能准确定位大气光区域,不易受有雾图像中高亮噪声点或干扰物的影响,从而得到准确的全局大气光值,获得更好的去雾效果,用于各种有雾图像的去雾,鲁棒性好。

Description

一种基于雾气浓度特征的图像去雾方法
技术领域
本发明具体涉及一种基于雾气浓度特征的图像去雾方法,属于图像去雾处理技术领域。
背景技术
雾天环境下,由于受到大气中悬浮颗粒的影响,成像设备所采集的图像可视性差、饱和度低,清晰度严重不足。因此,对雾天降质图像进行清晰化处理具有重要的现实意义。
图像去雾方法中效果较好且最通用的为基于大气散射模型的图像去雾方法,该类方法使用大气散射模型来描述雾霾天气条件下的成像过程,依据的大气散射模型如下:
I(x,y)=L·J(x,y)+L·(1-t(x,y))
其中,I(x,y)表示有雾图像中像素(x,y)的强度值,J(x,y)表示去雾图像中像素(x,y)的强度值,J(x,y)=ρ(x,y)·t(x,y),ρ(x,y)表示有雾图像中像素(x,y)的场景反照率,t(x,y)表示有雾图像中像素(x,y)的透射率,L表示全局大气光值。有雾图像的大小与去雾图像的大小相同,并且有雾图像中的像素(x,y)与去雾图像中像素(x,y)相对应,即像素(x,y)处于有雾图像和去雾图像中的相同位置。基于大气散射模型的图像去雾方法的过程就是依次求取有雾图像的全局大气光值和透射率,根据大气散射模型,从有雾图像中的每个像素的强度值恢复出去雾图像中的每个像素的强度值。
现有的图像去雾方法中对有雾图像中大气光区域的定位不准确,求取的全局大气光值准确率低,影响恢复出的去雾图像的效果。有些图像去雾方法中直接将全图最亮像素作为大气光区域,而全图最亮像素极有可能归属于高亮噪声点或者干扰物(如白色物体)。He方法[1]先利用暗通道先验获取有雾图像的暗通道图,然后定位出暗通道图中的最亮的0.1%的像素点,最后选择这些像素中具有最高强度的像素作为大气光区域。Zhu方法[2]利用颜色衰减先验获取有雾图像的深度图,然后定位出深度图中最亮的0.1%的像素点,并将这些像素中具有最高强度的像素作为大气光区域。虽然后两种方法进一步提高了大气光区域定位的精确性,但是其可靠性仍然严重依赖于所用先验知识的有效性,因而在特定条件下存在一定失效的可能,鲁棒性不足。
发明内容
本发明解决的技术问题是:现有图像去雾方法对有雾图像中大气光区域的定位精度低,不能适用于各种有雾图像,鲁棒性差。
为解决上述问题,本发明提出了一种基于雾气浓度特征的图像去雾方法,包括以下步骤:
S1,在有雾图像中定位大气光区域,计算全局大气光值,具体包括:
S101、获取有雾图像,根据下式求取有雾图像中每个像素的雾气浓度特征值:
其中,S(x,y)表示有雾图像中像素(x,y)的雾气浓度特征值,I′(x,y)表示像素(x,y)的亮度分量,表示像素(x,y)的梯度分量,I°(x,y)表示像素(x,y)的饱和度分量,γ1表示亮度权值,γ2表示梯度权值,γ3表示饱和度权值,γ4表示量化误差补偿值;
S102、基于雾气浓度特征值,利用图像分割方法将有雾图像进行分割,获得子场景集{Δ(k),k∈[1,K]},其中Δ(k)表示第k个子场景,K表示子场景的总个数;
S103、在子场景集{Δ(k),k∈[1,K]}中,利用下式筛选出类天空区域:
其中,表示类天空区域,(x,y)表示子场景Δ(k)中的像素,S(x,y)表示像素(x,y)的雾气浓度特征值,|Δ(k)|表示子场景Δ(k)中的像素总数;
S104、选择类天空区域中饱和度分量最低的前1%的像素组成候选像素集,选择候选像素集中亮度分量最大的前10%的像素作为大气光区域,求取大气光区域中所有像素的强度均值作为全局大气光值L
S2,求取有雾图像中每个像素的透射率;
S3,根据全局大气光值和透射率得到去雾图像。
考虑到现有对有雾图像的透射率的计算大都是基于暗通道先验,本质上是一个基于邻域的估计过程,因此估计效果对所涉及的邻域范围敏感。过大的邻域范围(如局部像素块大小为15×15)会提高估计准确性但是会导致较差的边缘特性,过小的邻域范围(如如局部像素块大小为1×1)可以极大的提高边缘特性但是却会因为邻域内信息的缺乏而导致较低的估计准确性。本发明做了进一步改进,S2求取有雾图像中每个像素的透射率,具体包括:
S201、根据S1得到的全局大气光值,求取有雾图像中每个像素分别在局部像素块大小为15×15和局部像素块大小为1×1下的透射率,从而构成第一透射图tα和第二透射图tβ,计算透射率的公式如下:
其中,t(x,y)表示像素(x,y)的透射率,Ω(x,y)表示以有雾图像中的任意一个像素(x,y)为中心的局部像素块,Ic(x',y')表示局部像素块Ω(x,y)中任意一个像素(x',y')的R、G、B三个通道的任意一个通道的强度值,L表示全局大气光值;
S202、将第一透射图tα分解为不同的频率分量,得到第一透射频率分量集将第二透射图tβ分解为不同的频率分量,得到第二透射频率分量集其中表示第一透射频率第i个分量,表示第二透射频率第i个分量;
S203、使用下式将第一透射频率分量和第二透射频率分量进行融合,得到M+1个融合频率分量:
其中,表示融合频率第i个分量,
S204、将M+1个融合频率分量重构,得到融合透射图tfusion
S205、判断S103获得的类天空区域是否为天空区域,具体包括:
S2051、利用下式计算天空场景雾气浓度值:
其中,表示天空场景雾气浓度值,(x,y)表示类天空区域中任意一个像素,S(x,y)表示像素(x,y)的雾气浓度特征值,表示求取类天空区域中所有像素的雾气浓度特征值的均值;
S2052、利用下式计算天空场景面积占比:
其中,P表示天空场景面积占比,表示类天空区域中的像素总数,res表示有雾图像的分辨率;
S2053、若天空场景雾气浓度值大于等于0.6且天空场景面积占比大于等于0.2,则判定类天空区域为天空区域,其中Δsky表示天空区域,否则执行S3;
S206、利用下式对有雾图像中每个像素的融合透射率进行一次修正,得到一次修正透射率:
其中,t'fusion(x,y)表示有雾图像中的像素(x,y)的一次修正透射率,S(x,y)表示像素(x,y)的雾气浓度特征值,表示求取天空区域Δsky中所有像素的雾气浓度特征值的均值,tfusion(x,y)表示像素(x,y)的融合透射率;
S207、使用下式对有雾图像中每个像素的一次修正透射率进行二次修正,得到二次修正透射率作为该像素的透射率:
其中,tfinal(x,y)表示有雾图像中的像素(x,y)的二次修正透射率,t'fusion(x,y)表示像素(x,y)的一次修正透射率,表示像素(x,y)的融合透射率的梯度分量,表示像素(x,y)的二次修正透射率的梯度分量,表示求二范数的平方,α1表示第一正则化因子,α2表示第二正则化因子,α3表示第三正则化因子。
本发明在透射率计算的过程中,使用融合技术将大邻域范围下的透射率和小邻域范围下的透射率进行融合获得融合透射率,在边缘特性和估计准确度上获得平衡,对融合透射率连续进行两次修正,最终获得有雾图像的透射率,提高了去雾效果,减少了过增强和色偏现象。
本发明的有益效果:本发明方法根据求解出的有雾图像的雾气浓度特征值将有雾图像分割成多个子场景,识别出类天空区域,在类天空区域中定位大气光区域,从而求取出全局大气光值。本发明方法在去雾处理过程中能准确定位大气光区域,不易受有雾图像中高亮噪声点或干扰物的影响,从而得到精确的全局大气光值,获得更好的去雾效果,可应用于各种有雾图像的去雾,鲁棒性好。
附图说明
图1是本发明实施例一的流程图。
图2是本发明实施例二对具体图像进行去雾获得的中间效果流程图。
图3是本发明实施例一和现有图像去雾方法定位大气光区域的第一对比图。
图4是本发明实施例一和现有图像去雾方法定位大气光区域的第二对比图。
图5是本发明实施例二和现有图像去雾方法对第一有雾图像进行去雾处理的效果对比图。
图6是本发明实施例二和现有图像去雾方法对第二有雾图像进行去雾处理的效果对比图。
图7是本发明实施例二和现有图像去雾方法对薄雾图像进行去雾处理的效果对比图。
图8是本发明实施例二和现有图像去雾方法对浓雾图像进行去雾处理的效果对比图。
具体实施方式
下面将通过实施例结合附图详细描述本发明的具体流程。
实施例一
本发明实施例一提出了一种基于雾气浓度特征的图像去雾方法,如图1所示,包括以下步骤:
S1,在有雾图像中定位大气光区域,计算全局大气光值,具体包括:
S101、获取有雾图像,根据下式求取有雾图像的每个像素的雾气浓度特征值:
其中,S(x,y)表示有雾图像中的像素(x,y)的雾气浓度特征值,I′(x,y)表示像素(x,y)的亮度分量,表示像素(x,y)的梯度分量,I°(x,y)表示像素(x,y)的饱和度分量,γ1表示亮度权值,γ2表示梯度权值,γ3表示饱和度权值,γ4表示量化误差补偿值。
在具体处理过程中,设置γ1=0.9313,γ2=0.1111,γ3=-1.4634,γ4=-0.0213。
S102、基于雾气浓度特征值,利用图像分割方法对有雾图像进行分割,获得子场景集{Δ(k),k∈[1,K]},其中Δ(k)表示第k个子场景,K表示子场景的总个数。
在具体处理过程中,可采用高斯混合模型算法、K-means聚类算法、FCM聚类算法、Random walks算法等图像分割方法对有雾图像进行分割,使用上述图像分割方法进行分割为现有技术,在此不再详细介绍具体分割流程。
S103、在子场景集{Δ(k),k∈[1,K]}中,利用下式筛选出类天空区域:
其中,表示类天空区域,即在K个子场景中值最大的子场景,(x,y)表示子场景Δ(k)中的像素,S(x,y)表示像素(x,y)的雾气浓度特征值,|Δ(k)|表示子场景Δ(k)中的像素总数。
S104、选择类天空区域中饱和度分量最低的前1%的像素组成候选像素集,选择候选像素集中亮度分量最大的前10%的像素作为大气光区域,求取大气光区域中所有像素的强度均值作为全局大气光值L
S2、求取有雾图像中每个像素的透射率。
具体的,该步骤可采用任意一种现有图像去雾方法中的透射率计算方法,比如He方法中基于暗原色先验信息估算透射率,Zhang方法中采用双区域滤波估算透射率等等。
S3、根据全局大气光值和透射率得到去雾图像。
具体的,根据S1求得的全局大气光值和S2求得的透射率,通过下式求取每个像素的场景反照率:
其中,ρ(x,y)表示有雾图像中的像素(x,y)的场景反照率,I(x,y)表示有雾图像中的像素(x,y)的强度值,L表示全局大气光值,t(x,y)表示有雾图像中的像素(x,y)的透射率。
再通过下式求取与有雾图像中的每个像素相对应的去雾图像中的每个像素的强度值,从而组成去雾图像:
J(x,y)=L·ρ(x,y) (4)
其中,J(x,y)为去雾图像中的像素(x,y)的强度值。
大气光区域定位效果评价
使用本发明实施例一、He方法[1]、Zhu方法[2]和Shwartz方法[3]对相同的图像进行大气光区域的定位,图3和图4为效果对比图。图3和图4中矩形框内为本发明实施例一的定位结果,三角形框内为He方法的定位结果,圆形框内为Zhu方法的定位结果,菱形框内为Shwartz方法的定位结果,从图3和图4中可以看出,本发明方法对有雾图像中大气光区域的定位准确率更高,不易受有雾图像中高亮噪声点或干扰物的影响。
实施例二
图2为本发明实施例二具体应用在一个有雾图像的去雾过程中的流程图,图中有各步骤的效果图,结合图2对本发明实施例二做详细说明。
本发明实施例二提出了一种基于雾气浓度特征的图像去雾方法,包括以下步骤:
S1,在有雾图像中定位大气光区域,计算全局大气光值,具体包括:
S101、获取有雾图像,如图2(a),根据下式求取有雾图像的每个像素的雾气浓度特征值:
其中,S(x,y)表示有雾图像中的像素(x,y)的雾气浓度特征值,I′(x,y)表示像素(x,y)的亮度分量,表示像素(x,y)的强度的梯度分量,I°(x,y)表示像素(x,y)的饱和度分量,γ1表示亮度权值,γ2表示强度权值,γ3表示饱和度权值,γ4表示补偿值。
在具体处理过程中,设置γ1=0.9313,γ2=0.1111,γ3=-1.4634,γ4=-0.0213,有雾图像中所有像素的雾气浓度特征值构成雾气浓度特征图,如图2(b)所示。
S102、基于雾气浓度特征值,利用图像分割方法对有雾图像进行分割,获得子场景集{Δ(k),k∈[1,K]},其中Δ(k)表示第k个子场景,K表示子场景的总数。
在具体处理过程中,可采用高斯混合模型算法、K-means聚类算法、FCM聚类算法、Random walks算法等图像分割方法将有雾图像进行分割,上述图像分割方法为现有技术,在此不再详细介绍具体分割流程。本发明具体实施例中采用高斯混合模型算法进行分割,具体分割步骤参见Reynolds方法[4],图2(c)为场景分割结果图。
S103、在子场景集{Δ(k),k∈[1,K]}中,利用下式筛选出类天空区域:
其中,表示类天空区域,即在K个子场景中值最大的子场景,(x,y)表示子场景Δ(k)中的像素,S(x,y)表示像素(x,y)的雾气浓度特征值,|Δ(k)|表示子场景Δ(k)中的像素总数。
如图2(d)所示,图中白色区域为筛选出的类天空区域。
S104、选择类天空区域中饱和度分量最低的前1%的像素组成候选像素集,选择候选像素集中亮度分量最大的前10%的像素作为大气光区域,求取大气光区域中所有像素的强度均值作为全局大气光值L
S2、求取有雾图像中每个像素的透射率,具体包括:
S201、根据S1得到的全局大气光值,求取有雾图像中的每个像素分别在两个邻域范围下的透射率,从而构成第一透射图tα和第二透射图tβ,计算透射率的公式如下:
其中,t(x,y)表示像素(x,y)的透射率,Ω(x,y)表示以有雾图像中的任意一个像素(x,y)为中心的局部像素块,Ic(x',y')表示局部像素块Ω(x,y)中任意一个像素(x',y')的R、G、B三个通道的任意一个通道的强度值,L表示全局大气光值。
具体为,设定局部像素块的大小为15×15,利用上式求取有雾图像中的每个像素的透射率,从而构成第一透射图tα,如图2(f)所示;设定局部像素块的大小为1×1,利用上式求取有雾图像中的每个像素的透射率,从而构成第一透射图tβ,如图2(g)所示。
S202、将第一透射图tα分解为不同的频率分量,得到第一透射频率分量集共M+1个频率分量,将第二透射图tβ分解为不同的频率分量,得到第二透射频率分量集共M+1个频率分量,其中表示第一透射频率第i个分量,表示第二透射频率第i个分量。
具体的,将透射图分解为不同的频率分量为现有技术,本发明实施例中采用Burt方法[5]公开的分解方法步骤,在此不再详细描述。
S203、使用下式将M+1个第一透射频率分量和M+1个第二透射频率分量分别进行融合,得到M+1个融合频率分量:
其中,表示融合频率第i个分量,
S204、将M+1个融合频率分量重构,得到融合透射图tfusion,融合透射图tfusion由有雾图像中所有像素的融合透射率组成,如图2(h)所示。
S205、判断S103获得的类天空区域是否为天空区域,包括:
S2051、利用下式计算天空场景雾气浓度值:
其中,表示天空场景雾气浓度值,(x,y)表示类天空区域中任意一个像素,S(x,y)表示像素(x,y)的雾气浓度特征值,表示求取类天空区域中所有像素的雾气浓度特征值的均值;
S2052、利用下式计算天空场景面积占比:
其中,P表示天空场景面积占比,表示类天空区域中的像素总数,res表示有雾图像的分辨率;
S2053、若天空场景雾气浓度值大于等于0.6且天空场景面积占比大于等于0.2,则判定类天空区域为天空区域,其中Δsky表示天空区域,否则执行S3。
该判断步骤也可在执行S103步骤后执行,如图2所示,不同的是若判定类天空区域不是天空区域,则执行S104。
S206、利用下式对有雾图像中每个像素的融合透射率进行一次修正,得到一次修正透射率:
其中,t'fusion(x,y)为有雾图像中的像素(x,y)的一次修正透射率,S(x,y)表示像素(x,y)的雾气浓度特征值,表示求取天空区域Δsky中所有像素的雾气浓度特征值的均值,tfusion(x,y)表示像素(x,y)的融合透射率。
有雾图像中,天空区域的每个像素的一次修正透射率为该像素的雾气浓度特征值与天空区域中所有像素的雾气浓度特征的均值比再乘上该像素的融合透射率,考虑到透射率的取值范围,所以使用对天空区域的像素的融合透射率进行修正;而非天空区域中的每个像素的一次修正透射率为其融合透射率,即t'fusion(x,y)=tfusion(x,y)。有雾图像中所有像素的一次修正透射率组成有雾图像的一次修正透射图tfusion,如图2(i)所示。
S207、使用下式对有雾图像中每个像素的一次修正透射率进行二次修正,得到二次修正透射率作为该像素的透射率:
其中,tfinal(x,y)表示有雾图像中的像素(x,y)的二次修正透射率,t'fusion(x,y)表示像素(x,y)的一次修正透射率,表示像素(x,y)的融合透射率的梯度分量,表示像素(x,y)的二次修正透射率的梯度分量,表示求二范数的平方,α1表示第一正则化因子,α2表示第二正则化因子,α3表示第三正则化因子。
具体处理过程中,设置α1=1.073,α2=0.801,α3=1.697,有雾图像中所有像素的二次修正透射率组成有雾图像的二次修正透射图tfinal,如图2(j)所示。
S3、根据S1求得的全局大气光值和S2求得的有雾图像中每个像素的二次修正透射率,通过下式求取每个像素的场景反照率:
其中,ρ(x,y)表示有雾图像中的像素(x,y)的场景反照率,I(x,y)表示有雾图像中的像素(x,y)的强度值,L表示全局大气光值,tfinal(x,y)表示有雾图像中的像素(x,y)的二次修正透射率。
再通过下式求取与有雾图像中的每个像素相对应的去雾图像中的每个像素的强度值,从而组成去雾图像,如图2(k)所示:
J(x,y)=L·ρ(x,y) (4)
其中,J(x,y)为去雾图像中的像素(x,y)的强度值。
去雾效果评价
使用本发明实施例二、He方法[1]、Meng方法[6]、Ancuti方法[7]、Yu方法[8]、Tarel方法[9]和Choi方法[10]对相同图像进行去雾处理,图5至图8为去雾效果对比图。图5(a)和图6(a)为有雾图像,图7(a)为薄雾图像,图8(a)为浓雾图像,图5(b)、6(b)、7(b)和8(b)为使用He方法得到的去雾图像,图5(c)、6(c)、7(c)和8(c)为使用Meng方法得到的去雾图像,图5(d)、6(d)、7(d)和8(d)为使用Ancuti方法得到的去雾图像,图5(e)、6(e)、7(e)和8(e)为使用Yu方法得到的去雾图像,图5(f)、6(f)、7(f)和8(f)为使用Tarel方法得到的去雾图像,图5(g)、6(g)、7(g)和8(g)为使用Choi方法得到的去雾图像,图5(h)、6(h)、7(h)和8(h)为使用本发明实施例二得到的去雾图像。从图5至图8可以看出,本发明方法与现有去雾图像相比,去雾消除更为彻底、所恢复出的纹理细节更多、过增强和色偏现象更少。
参考文献
[1]He,K.;Sun,J.;Tang,X.Single image haze removal using dark channelprior.IEEE Trans.Pattern Anal.Mach.Intell.33(12)(2011)2341–2353.
[2]Zhu,Q.;Mai,J.;Shao,L.A fast single image haze removal algorithmusing color attenuation prior.IEEE Transactions on Image Processing,2015,24,3522–3533.
[3]Shwartz,S.;Namer,E.;Schechner,Y.Y.Blind haze separation.InProceedings of the IEEE Computer Society Conference on Computer Vision andPattern Recognition,Washington,DC,USA,17–22June 2006,1984–1991.
[4]Reynolds,D.A.;Quatieri,T.F.;Dunn,R.B.Speaker verification usingadapted Gaussian mixture models.Digit.Signal Process.2000,10,19–41.
[5]Burt,P.J.;Adelson,E.H.The Laplacian pyramid as a compact imagecode.IEEE Trans.Commun.1983,31,532–540.
[6]Meng,G.;Wang,Y.;Duan,J.;Xiang,S.;Pan,C.Efficient image dehazingwith boundary constraint and contextual regularization.IEEE internationalconference on computer vision,2013,617-624.
[7]Ancuti,C.O.;Ancuti,C.Single image dehazing by multi-scalefusion.IEEE Trans.Image Process.2013,22,3271–3282.
[8]Yu,T.;Riaz,I.;Piao,J.;Shin,H.Real-time single image dehazing usingblock-to-pixel interpolation and adaptive dark channel prior.IET ImageProcess.2015,9,725–734.
[9]Tarel,J.P.;Hautiere,N.Fast visibility restoration from a singlecolor or gray level image.Computer Vision,2009,12,2201-2208.
[10]Choi,L.K.;You,J.;Bovik,A.C.Referenceless prediction of perceptualfog density and perceptual image defogging.IEEE Trans.Image Process.2015,24,3888–3901.

Claims (2)

1.一种基于雾气浓度特征的图像去雾方法,其特征在于,包括以下步骤:
S1,在有雾图像中定位大气光区域,计算全局大气光值,具体包括:
S101、获取有雾图像,根据下式求取有雾图像中每个像素的雾气浓度特征值:
其中,S(x,y)表示有雾图像中像素(x,y)的雾气浓度特征值,I′(x,y)表示像素(x,y)的亮度分量,表示像素(x,y)的梯度分量,I°(x,y)表示像素(x,y)的饱和度分量,γ1表示亮度权值,γ2表示梯度权值,γ3表示饱和度权值,γ4表示量化误差补偿值;
S102、基于雾气浓度特征值,利用图像分割方法对有雾图像进行分割,获得子场景集{Δ(k),k∈[1,K]},其中Δ(k)表示第k个子场景,K表示子场景的总个数;
S103、在子场景集{Δ(k),k∈[1,K]}中,利用下式筛选出类天空区域:
<mrow> <mover> <mi>&amp;Delta;</mi> <mo>^</mo> </mover> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> <mi>k</mi> </munder> <mo>{</mo> <mfrac> <mrow> <munder> <mo>&amp;Sigma;</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> <mo>&amp;Element;</mo> <mi>&amp;Delta;</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </munder> <mi>S</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <mi>&amp;Delta;</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> </mfrac> <mo>}</mo> <mo>,</mo> <mi>k</mi> <mo>&amp;Element;</mo> <mo>&amp;lsqb;</mo> <mn>1</mn> <mo>,</mo> <mi>K</mi> <mo>&amp;rsqb;</mo> </mrow>
其中,表示类天空区域,(x,y)表示子场景Δ(k)中的像素,S(x,y)表示像素(x,y)的雾气浓度特征值,|Δ(k)|表示子场景Δ(k)中的像素总数;
S104、选择类天空区域中饱和度分量最低的前1%的像素组成候选像素集,选择候选像素集中亮度分量最大的前10%的像素作为大气光区域,求取大气光区域中所有像素的强度均值作为全局大气光值L
S2,求取有雾图像中每个像素的透射率;
S3,根据全局大气光值和透射率得到去雾图像。
2.根据权利要求1所述的基于雾气浓度特征的图像去雾方法,其特征在于,S2求取有雾图像中每个像素的透射率,具体包括:
S201、根据S1得到的全局大气光值,求取有雾图像中每个像素分别在局部像素块大小为15×15和局部像素块大小为1×1下的透射率,从而构成第一透射图tα和第二透射图tβ,计算透射率的公式如下:
<mrow> <mi>t</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>1</mn> <mo>-</mo> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>c</mi> <mo>&amp;Element;</mo> <mo>{</mo> <mi>R</mi> <mo>,</mo> <mi>G</mi> <mo>,</mo> <mi>B</mi> <mo>}</mo> </mrow> </munder> <mrow> <mo>(</mo> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> <msup> <mi>y</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> <mo>&amp;Element;</mo> <mi>&amp;Omega;</mi> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </munder> <mo>(</mo> <mfrac> <mrow> <msup> <mi>I</mi> <mi>c</mi> </msup> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> <msup> <mi>y</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> </mrow> <msub> <mi>L</mi> <mi>&amp;infin;</mi> </msub> </mfrac> <mo>)</mo> <mo>)</mo> </mrow> </mrow>
其中,t(x,y)表示像素(x,y)的透射率,Ω(x,y)表示以有雾图像中的任意一个像素(x,y)为中心的局部像素块,Ic(x',y')表示局部像素块Ω(x,y)中任意一个像素(x',y')的R、G、B三个通道的任意一个通道的强度值,L表示全局大气光值;
S202、将第一透射图tα分解为不同的频率分量,得到第一透射频率分量集将第二透射图tβ分解为不同的频率分量,得到第二透射频率分量集其中表示第一透射频率第i个分量,表示第二透射频率第i个分量;
S203、使用下式将第一透射频率分量和第二透射频率分量进行融合,得到M+1个融合频率分量:
<mrow> <msubsup> <mi>L</mi> <mrow> <mi>f</mi> <mi>u</mi> <mi>s</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> </mrow> <mi>i</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>&amp;gamma;</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msubsup> <mi>L</mi> <mi>&amp;alpha;</mi> <mi>i</mi> </msubsup> <mo>+</mo> <msub> <mi>&amp;gamma;</mi> <mi>i</mi> </msub> <mo>&amp;CenterDot;</mo> <msubsup> <mi>L</mi> <mi>&amp;beta;</mi> <mi>i</mi> </msubsup> <mo>,</mo> <mn>0</mn> <mo>&amp;le;</mo> <mi>i</mi> <mo>&amp;le;</mo> <mi>M</mi> </mrow> 1
其中,表示融合频率第i个分量,
S204、将M+1个融合频率分量重构,得到融合透射图tfusion
S205、判断S103获得的类天空区域是否为天空区域,具体包括:
S2051、利用下式计算天空场景雾气浓度值:
<mrow> <mover> <mi>S</mi> <mo>&amp;OverBar;</mo> </mover> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> </mrow> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> <mo>&amp;Element;</mo> <mover> <mi>&amp;Delta;</mi> <mo>^</mo> </mover> </mrow> </munder> <mrow> <mo>(</mo> <mi>S</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow>
其中,表示天空场景雾气浓度值,(x,y)表示类天空区域中任意一个像素,S(x,y)表示像素(x,y)的雾气浓度特征值,表示求取类天空区域中所有像素的雾气浓度特征值的均值;
S2052、利用下式计算天空场景面积占比:
<mrow> <mi>P</mi> <mo>=</mo> <mfrac> <mrow> <mo>|</mo> <mover> <mi>&amp;Delta;</mi> <mo>^</mo> </mover> <mo>|</mo> </mrow> <mrow> <mi>r</mi> <mi>e</mi> <mi>s</mi> </mrow> </mfrac> </mrow>
其中,P表示天空场景面积占比,表示类天空区域中的像素总数,res表示有雾图像的分辨率;
S2053、若天空场景雾气浓度值大于等于0.6且天空场景面积占比大于等于0.2,则判定类天空区域为天空区域,其中Δsky表示天空区域,否则执行S3;
S206、利用下式对有雾图像中每个像素的融合透射率进行一次修正,得到一次修正透射率:
<mrow> <msubsup> <mi>t</mi> <mrow> <mi>f</mi> <mi>u</mi> <mi>s</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> </mrow> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>min</mi> <mo>(</mo> <mrow> <mi>max</mi> <mrow> <mo>(</mo> <mrow> <mfrac> <mrow> <mi>S</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> <mrow> <munder> <mrow> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> </mrow> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> <mo>&amp;Element;</mo> <msub> <mi>&amp;Delta;</mi> <mrow> <mi>s</mi> <mi>k</mi> <mi>y</mi> </mrow> </msub> </mrow> </munder> <mrow> <mo>(</mo> <mi>S</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <mi>max</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>t</mi> <mrow> <mi>f</mi> <mi>u</mi> <mi>s</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> </mrow> <mo>,</mo> <mn>0.1</mn> </mrow> <mo>)</mo> </mrow> <mo>,</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>,</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msub> <mi>&amp;Delta;</mi> <mrow> <mi>s</mi> <mi>k</mi> <mi>y</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>t</mi> <mrow> <mi>f</mi> <mi>u</mi> <mi>s</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>,</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;NotElement;</mo> <msub> <mi>&amp;Delta;</mi> <mrow> <mi>s</mi> <mi>k</mi> <mi>y</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,t'fusion(x,y)表示有雾图像中的像素(x,y)的一次修正透射率,S(x,y)表示像素(x,y)的雾气浓度特征值,表示求取天空区域Δsky中所有像素的雾气浓度特征值的均值,tfusion(x,y)表示像素(x,y)的融合透射率;
S207、使用下式对有雾图像中每个像素的一次修正透射率进行二次修正,得到二次修正透射率作为该像素的透射率:
<mrow> <msub> <mi>t</mi> <mrow> <mi>f</mi> <mi>i</mi> <mi>n</mi> <mi>a</mi> <mi>l</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <msub> <mi>&amp;alpha;</mi> <mn>1</mn> </msub> <mn>2</mn> </mfrac> <mo>&amp;CenterDot;</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>t</mi> <mrow> <mi>f</mi> <mi>u</mi> <mi>s</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <msubsup> <mi>t</mi> <mrow> <mi>f</mi> <mi>u</mi> <mi>s</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> </mrow> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <mfrac> <msub> <mi>&amp;alpha;</mi> <mn>2</mn> </msub> <mn>2</mn> </mfrac> <mo>&amp;CenterDot;</mo> <mo>|</mo> <mo>|</mo> <mo>&amp;dtri;</mo> <msub> <mi>t</mi> <mrow> <mi>f</mi> <mi>u</mi> <mi>s</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <mfrac> <msub> <mi>&amp;alpha;</mi> <mn>3</mn> </msub> <mn>2</mn> </mfrac> <mo>&amp;CenterDot;</mo> <mo>|</mo> <mo>|</mo> <mo>&amp;dtri;</mo> <msub> <mi>t</mi> <mrow> <mi>f</mi> <mi>u</mi> <mi>s</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>&amp;dtri;</mo> <msubsup> <mi>t</mi> <mrow> <mi>f</mi> <mi>u</mi> <mi>s</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> </mrow> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow>
其中,tfinal(x,y)表示有雾图像中的像素(x,y)的二次修正透射率,t'fusion(x,y)表示像素(x,y)的一次修正透射率,▽tfusion(x,y)表示像素(x,y)的融合透射率的梯度分量,▽t'fusion(x,y)表示像素(x,y)的二次修正透射率的梯度分量,表示求二范数的平方,α1表示第一正则化因子,α2表示第二正则化因子,α3表示第三正则化因子。
CN201710458620.3A 2017-06-16 2017-06-16 一种基于雾气浓度特征的图像去雾方法 Active CN107203981B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710458620.3A CN107203981B (zh) 2017-06-16 2017-06-16 一种基于雾气浓度特征的图像去雾方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710458620.3A CN107203981B (zh) 2017-06-16 2017-06-16 一种基于雾气浓度特征的图像去雾方法

Publications (2)

Publication Number Publication Date
CN107203981A true CN107203981A (zh) 2017-09-26
CN107203981B CN107203981B (zh) 2019-10-01

Family

ID=59907020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710458620.3A Active CN107203981B (zh) 2017-06-16 2017-06-16 一种基于雾气浓度特征的图像去雾方法

Country Status (1)

Country Link
CN (1) CN107203981B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107705263A (zh) * 2017-10-10 2018-02-16 福州图森仪器有限公司 一种基于rgb‑ir传感器的自适应透雾方法和终端
CN108182671A (zh) * 2018-01-25 2018-06-19 南京信息职业技术学院 一种基于天空区域识别的单幅图像去雾方法
CN108389175A (zh) * 2018-04-26 2018-08-10 长安大学 融合变差函数和颜色衰减先验的图像去雾方法
CN109919859A (zh) * 2019-01-25 2019-06-21 暨南大学 一种户外场景图像去雾增强方法、计算设备及其存储介质
CN110189259A (zh) * 2018-02-23 2019-08-30 深圳富泰宏精密工业有限公司 图像去雾霾方法、电子设备及计算机可读存储介质
CN110544213A (zh) * 2019-08-06 2019-12-06 天津大学 一种基于全局和局部特征融合的图像去雾方法
CN112686105A (zh) * 2020-12-18 2021-04-20 云南省交通规划设计研究院有限公司 一种基于视频图像多特征融合的雾浓度等级识别方法
CN112825189A (zh) * 2019-11-21 2021-05-21 武汉Tcl集团工业研究院有限公司 一种图像去雾方法及相关设备
CN113139922A (zh) * 2021-05-31 2021-07-20 中国科学院长春光学精密机械与物理研究所 图像去雾方法及去雾装置
CN113837971A (zh) * 2021-09-30 2021-12-24 重庆邮电大学 一种基于暗通道和分数阶多变分正则化的图像去雾方法
CN116630349A (zh) * 2023-07-25 2023-08-22 山东爱福地生物股份有限公司 基于高分辨率遥感图像的秸秆还田区域快速分割方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8755628B2 (en) * 2012-09-10 2014-06-17 Google Inc. Image de-hazing by solving transmission value
CN104881848A (zh) * 2015-05-14 2015-09-02 西安电子科技大学 一种基于cuda的低照度图像增强并行优化方法
CN105118027A (zh) * 2015-07-28 2015-12-02 北京航空航天大学 一种图像的去雾方法
US20160071244A1 (en) * 2014-09-04 2016-03-10 National Taipei University Of Technology Method and system for image haze removal based on hybrid dark channel prior
CN106056557A (zh) * 2016-06-12 2016-10-26 南京邮电大学 一种基于改进大气散射模型的单幅图像快速去雾方法
CN106780390A (zh) * 2016-12-27 2017-05-31 西安电子科技大学 基于边缘分类加权融合的单幅图像去雾方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8755628B2 (en) * 2012-09-10 2014-06-17 Google Inc. Image de-hazing by solving transmission value
US20160071244A1 (en) * 2014-09-04 2016-03-10 National Taipei University Of Technology Method and system for image haze removal based on hybrid dark channel prior
CN104881848A (zh) * 2015-05-14 2015-09-02 西安电子科技大学 一种基于cuda的低照度图像增强并行优化方法
CN105118027A (zh) * 2015-07-28 2015-12-02 北京航空航天大学 一种图像的去雾方法
CN106056557A (zh) * 2016-06-12 2016-10-26 南京邮电大学 一种基于改进大气散射模型的单幅图像快速去雾方法
CN106780390A (zh) * 2016-12-27 2017-05-31 西安电子科技大学 基于边缘分类加权融合的单幅图像去雾方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHENFEI GU: "A Single Image Dehazing Method Using Average Saturation Prior", 《HINDAWI》 *
鞠铭烨等: "基于雾气浓度估计的图像去雾算法", 《自动化学报》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107705263A (zh) * 2017-10-10 2018-02-16 福州图森仪器有限公司 一种基于rgb‑ir传感器的自适应透雾方法和终端
CN108182671A (zh) * 2018-01-25 2018-06-19 南京信息职业技术学院 一种基于天空区域识别的单幅图像去雾方法
CN108182671B (zh) * 2018-01-25 2022-04-22 南京信息职业技术学院 一种基于天空区域识别的单幅图像去雾方法
CN110189259A (zh) * 2018-02-23 2019-08-30 深圳富泰宏精密工业有限公司 图像去雾霾方法、电子设备及计算机可读存储介质
CN110189259B (zh) * 2018-02-23 2022-07-08 荷兰移动驱动器公司 图像去雾霾方法、电子设备及计算机可读存储介质
CN108389175A (zh) * 2018-04-26 2018-08-10 长安大学 融合变差函数和颜色衰减先验的图像去雾方法
CN108389175B (zh) * 2018-04-26 2021-05-18 长安大学 融合变差函数和颜色衰减先验的图像去雾方法
CN109919859B (zh) * 2019-01-25 2021-09-07 暨南大学 一种户外场景图像去雾增强方法、计算设备及其存储介质
CN109919859A (zh) * 2019-01-25 2019-06-21 暨南大学 一种户外场景图像去雾增强方法、计算设备及其存储介质
CN110544213A (zh) * 2019-08-06 2019-12-06 天津大学 一种基于全局和局部特征融合的图像去雾方法
CN110544213B (zh) * 2019-08-06 2023-06-13 天津大学 一种基于全局和局部特征融合的图像去雾方法
CN112825189A (zh) * 2019-11-21 2021-05-21 武汉Tcl集团工业研究院有限公司 一种图像去雾方法及相关设备
CN112825189B (zh) * 2019-11-21 2024-03-12 武汉Tcl集团工业研究院有限公司 一种图像去雾方法及相关设备
CN112686105B (zh) * 2020-12-18 2021-11-02 云南省交通规划设计研究院有限公司 一种基于视频图像多特征融合的雾浓度等级识别方法
CN112686105A (zh) * 2020-12-18 2021-04-20 云南省交通规划设计研究院有限公司 一种基于视频图像多特征融合的雾浓度等级识别方法
CN113139922A (zh) * 2021-05-31 2021-07-20 中国科学院长春光学精密机械与物理研究所 图像去雾方法及去雾装置
CN113139922B (zh) * 2021-05-31 2022-08-02 中国科学院长春光学精密机械与物理研究所 图像去雾方法及去雾装置
CN113837971A (zh) * 2021-09-30 2021-12-24 重庆邮电大学 一种基于暗通道和分数阶多变分正则化的图像去雾方法
CN113837971B (zh) * 2021-09-30 2023-08-04 重庆邮电大学 一种基于暗通道和分数阶多变分正则化的图像去雾方法
CN116630349A (zh) * 2023-07-25 2023-08-22 山东爱福地生物股份有限公司 基于高分辨率遥感图像的秸秆还田区域快速分割方法
CN116630349B (zh) * 2023-07-25 2023-10-20 山东爱福地生物股份有限公司 基于高分辨率遥感图像的秸秆还田区域快速分割方法

Also Published As

Publication number Publication date
CN107203981B (zh) 2019-10-01

Similar Documents

Publication Publication Date Title
CN107203981B (zh) 一种基于雾气浓度特征的图像去雾方法
CN103955905B (zh) 基于快速小波变换和加权图像融合的单幅图像去雾方法
CN105354865B (zh) 多光谱遥感卫星影像自动云检测方法及系统
CN103606132B (zh) 基于空域和时域联合滤波的多帧数字图像去噪方法
CN104134200B (zh) 一种基于改进加权融合的运动场景图像拼接方法
CN107680054A (zh) 雾霾环境下多源图像融合方法
CN103440644B (zh) 一种基于最小描述长度的多尺度图像弱边缘检测方法
CN103942758A (zh) 基于多尺度融合的暗通道先验图像去雾方法
CN109064418A (zh) 一种基于非局部均值的非均匀噪声图像去噪方法
CN105654436A (zh) 一种基于前景背景分离的背光图像增强去噪方法
CN109816673A (zh) 一种非极大值抑制、动态阈值计算及图像边缘检测方法
CN103903254B (zh) 一种x光图像处理方法、系统及x光图像处理设备
CN108830873A (zh) 深度图像物体边缘提取方法、装置、介质及计算机设备
CN103679656B (zh) 一种图像自动锐化方法
CN101571950A (zh) 基于各向同性扩散和稀疏表示的图像修复方法
CN106815583A (zh) 一种基于mser和swt相结合的夜间车辆车牌定位方法
CN105139391B (zh) 一种雾霾天气交通图像边缘检测方法
CN110245600B (zh) 自适应起始快速笔画宽度无人机道路检测方法
CN103544491A (zh) 一种面向复杂背景的光学字符识别方法及装置
CN108171674B (zh) 针对任意视角投影仪图像的视觉矫正方法
CN104021527B (zh) 一种图像中雨雪的去除方法
CN104574312A (zh) 标靶图像求圆心的方法和装置
CN106920235A (zh) 基于矢量底图匹配的星载光学遥感影像自动校正方法
CN206249426U (zh) 一种图像复原系统
CN114973028B (zh) 一种航拍视频图像实时变化检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200115

Address after: 213161 B301, science and technology industry building, Changzhou Research Institute, Dalian University of technology, Changzhou City, No. 18, middle Changwu Road, Wujin District, Changzhou City, Jiangsu Province

Patentee after: Changzhou efudi Information Technology Co., Ltd

Address before: Xianlin University City Road in Qixia District of Nanjing City, Jiangsu Province, No. 99 210046

Patentee before: Nanjing College of Information Technology

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210329

Address after: 210000 Room 401, building 01, 108 ganjiabian East, Yaohua street, Qixia District, Nanjing City, Jiangsu Province

Patentee after: Nanjing Yunkai Data Technology Co.,Ltd.

Address before: 213611 B301, science and technology industry building, Changzhou Research Institute, Changzhou science and Education City, No.18, middle Changwu Road, Wujin District, Changzhou City, Jiangsu Province

Patentee before: Changzhou efudi Information Technology Co.,Ltd.