CN112465697A - 一种海上雾天图像模拟方法 - Google Patents

一种海上雾天图像模拟方法 Download PDF

Info

Publication number
CN112465697A
CN112465697A CN202011459200.5A CN202011459200A CN112465697A CN 112465697 A CN112465697 A CN 112465697A CN 202011459200 A CN202011459200 A CN 202011459200A CN 112465697 A CN112465697 A CN 112465697A
Authority
CN
China
Prior art keywords
picture
depth map
scene
sea surface
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011459200.5A
Other languages
English (en)
Other versions
CN112465697B (zh
Inventor
苏丽
崔浩浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202011459200.5A priority Critical patent/CN112465697B/zh
Publication of CN112465697A publication Critical patent/CN112465697A/zh
Application granted granted Critical
Publication of CN112465697B publication Critical patent/CN112465697B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种海上雾天图像模拟方法,构建海上场景样本图片数据集并人工标注,将数据集分为天空、海面和前景目标,并进行语义分割训练,得到网络参数;假设天空部分距离摄像头为无穷远,海面部分与天空接触处为无穷远,图片最下方距离摄像头距离为0,其他海面部分满足x3变化趋势由近及远变化,前景目标深度与最下方跟海面接触处深度保持一致得到深度图;对深度图进行均值滤波和两次高斯模糊来进行平滑,并将其与横纵方向皆满足‑ax2+b变化趋势且边缘的灰度为0的灰度块相加,a,b为随机数,来模拟不均匀雾团,利用深度图模拟出雾天下的海面场景图片。本发明可以基于大气散射模型模拟出较为真实的雾天下海上场景图片,实现该场景下的样本数量增广。

Description

一种海上雾天图像模拟方法
技术领域
本发明涉及一种海上雾天图像模拟方法,涉及雾效模拟、深度学习和计算机视觉领域。
背景技术
当在空气中相对湿度达到100%,水汽充足,且大气稳定的条件下,空气中的水汽凝结成细微的水滴或冰晶,悬浮于和地面相近的大气中,便形成了雾。雾天是一种无论海上还是陆地上都比较常见的自然现象,其出现往往伴随着大气能见度的下降,可视距离的缩短,严重影响着交通、航行等的安全性,因此,其在计算机视觉任务中是不可忽视的场景。在利用深度学习进行海上目标的识别、分割等任务时,若仅用晴天下的图片进行神经网络的训练,当遇见雾天天气时则会出现准确率严重降低的问题,但海面雾天的天气图片又比较难以获得,数量稀少,远远不足以支持神经网络的训练,利用传统的仿射变换等样本增广方法对数量绝对稀缺的雾天图片增广效果有限,风格迁移仅通过改变图像的风格、纹理很难真实的模拟出雾天场景。
发明内容
针对上述现有技术,本发明要解决的技术问题是提供一种海上雾天图像模拟方法,可以基于大气散射模型模拟出较为真实的雾天下海上场景图片,从而实现该场景下的样本数量的增广。
为解决上述技术问题,本发明的一种海上雾天图像模拟方法,包括以下步骤:
步骤1:准备数据集,具体为:
获取海上场景图片数据集,并对其进行人工标注,要求标签文件将数据集图片分为天空、海面和海上目标三部分;
步骤2:训练语义分割网络,具体为:
将步骤1的数据集及其标签送入网络中采用deeplab v3+语义分割算法进行训练,得到语义分割网络;
步骤3:深度图模拟,具体为:
从数据集中挑选出一张图片,经过步骤2中训练好的语义分割网络,得到其语义分割结果,构建与该图片相同形状的单通道灰度矩阵,将语义分割结果中对应的天空部分灰度置为255,模拟出无限远的距离;海面部分与天空接触处灰度置为255,图片底部灰度置为0,模拟摄像头所处的位置,其他海面部分从0到255变化且满足x3的变化规律,模拟图片中像素点代表的景物距离摄像头由近及远变化;海上目标部分设置为与其在x轴方向上与海面接触部分海面的灰度值相同,代表了海上目标在纵向上与摄像头之间的距离不变,得到的灰度矩阵为模拟的海面场景的深度图;
步骤4:将步骤3模拟得到的深度图进行三次卷积滤波,平滑深度图;
步骤5:模拟不均匀雾团,具体为:
将平滑后的深度图的随机位置上与横纵方向皆满足-ax2+b变化趋势的灰度块相加,其中横纵方向上系数a,b不相同,随机变化,且保持灰度块儿边缘的灰度为0,模拟得到场景中不同区域雾的浓度可能不同的情况;
步骤6:将模拟得到的深度图带入大气散射模型中得到模拟的海面雾天图片,具体为:
大气散射模型为I(x)=J(x)t(x)+A(1-t(x)),其中I(x)表示雾天下的最终成像图像,J(x)为x=0处的光照强度,即没有衰减的目标反射光,即晴天下正常拍摄得到的图片,t(x)=e-β(λ)d
Figure BDA0002830717120000021
表示大气光的散射效果,即透射率,β与目标与成像设备之间的距离d有关,A为无穷远处的大气光强,为常值,设置Rm为(400,600)之间的随机数,将晴天下海面上场景照片作为J(x),步骤5模拟得到的深度图作为d,即可输出该场景对应的雾天下的图片。
作为本发明的一个优选方案,步骤4中将步骤3模拟得到的深度图进行三次卷积滤波,平滑深度图具体为:第一次使用卷积核形状为(15,1)的均值滤波,平滑其横向的深度变化,之后进行两次卷积核为(9,9)的高斯模糊,来对深度图整体进行平滑。
本发明的有益效果:由于从物联网上能够直接获得的海上场景雾天照片数量稀少,无法满足深度学习中神经网络的训练需求,如果仅使用晴天下海上场景图片进行训练,将造成神经网络的过拟合,导致其在雾天下的性能降低,无法进行准确的识别、跟踪等任务。本发明提供了一种海上雾天图像模拟方法,通过该方法可以由单张的晴天下海上场景图片直接模拟出其对应的雾天下海上场景图片,从而扩充雾天下海上场景数据集,解决该场景下样本图像数量稀少的问题。
附图说明
图1为部分所使用的晴天下训练集图片及其标签;
图2为部分测试集图片及其语义分割结果;
图3为由分割结果模拟所得深度图;
图4为深度图平滑前后生成雾天图像结果对比图;
图5为最终生成的雾天图。
具体实施方式
下面结合附图对本发明具体实施方式做进一步说明。
雾天是一种无论海上还是陆地上都比较常见的自然现象,其出现往往伴随着大气能见度的下降,可视距离的缩短,严重影响着交通、航行等的安全性,因此,其在计算机视觉任务中是不可忽视的场景。在利用深度学习进行海上目标的识别、分割等任务时,若仅用晴天下的图片进行神经网络的训练,当遇见雾天天气时则会出现准确率严重降低的问题,但海面雾天的天气图片又比较难以获得,数量稀少,远远不足以支持神经网络的训练。本发明中提供了一种对海面场景的深度进行模拟,得到其深度图,之后基于大气散射模型模拟出较为真实的雾天下海上场景图片的方法,从而实现雾天下的样本数量的增广。
本发明首先通过互联网或其他途径构建具有一定数量的海上场景样本图片数据集,并对其进行人工标注,将数据集分为天空、海面和前景目标三部分,并利用基于深度学习的语义分割算法deeplap v3+对其进行语义分割训练,得到能够直接进行语义分割的网络参数;之后假设天空部分距离摄像头为无穷远,海面部分与天空接触处为无穷远,图片最下方距离摄像头距离为0,其他海面部分满足x3变化趋势由近及远变化,前景目标的深度与最下方跟海面接触处的深度保持一致,从而得到模拟出的深度图;对深度图进行一次卷积核形状为(15,1)的均值滤波和两次卷积核为(9,9)的高斯模糊来进行平滑,并将其与横纵方向皆满足-ax2+b变化趋势且边缘的灰度为0的灰度块儿相加,a,b为随机数,来模拟不均匀的雾团,最后利用深度图基于大气散射模型模拟出雾天下的海面场景图片。
本发明的目的是这样实现的:
1、准备数据集
通过网络下载或其他方法得到海上场景图片数据集,并对其进行人工标注,要求标签文件将数据集图片分为三部分:天空、海面、海上目标。
2、训练语义分割网络
deeplab v3+为一种常用的基于深度学习的图像语义分割算法,将准备的数据集及其标签送入网络中进行训练,即可得到语义分割网络。
3、深度图模拟
从数据集中挑选出一张图片,经过步骤2中训练好的语义分割网络,得到其语义分割结果。构建与该图片相同形状的单通道灰度矩阵,将语义分割结果中对应的天空部分灰度置为255,模拟出无限远的距离;海面部分与天空接触处灰度置为255,图片底部灰度置为0,模拟摄像头所处的位置,其他海面部分使得其满足x3的变化规律,从0到255变化,模拟图片中像素点代表的景物距离摄像头由近及远变化;海上目标部分设置为与其在x轴方向上与海面接触部分海面的灰度值相同,代表了海上目标在纵向上与摄像头之间的距离不变。最终得到的灰度矩阵即为模拟的海面场景的深度图。
4、平滑深度图
将上一步模拟得到的深度图进行三次卷积滤波,第一次使用卷积核形状为(15,1)的均值滤波,平滑其横向的深度变化,之后进行两次卷积核为(9,9)的高斯模糊,来对深度图整体进行平滑。
5、模拟不均匀雾团
对平滑后的深度图的随机位置上与横纵方向皆满足-ax2+b变化趋势的灰度块儿相加,其中横纵方向上系数a,b不相同,随机变化,且保持灰度块儿边缘的灰度为0。从而模拟出场景中不同区域雾的浓度可能不同的情况。
6、将模拟得到的深度图带入大气散射模型中得到模拟的海面雾天图片。
大气散射模型为I(x)=J(x)t(x)+A(1-t(x)),其中I(x)表示雾天下的最终成像图像,J(x)为x=0处的光照强度,即没有衰减的目标反射光,即晴天下正常拍摄得到的图片,t(x)=e-β(λ)d
Figure BDA0002830717120000041
表示大气光的散射效果,即透射率,其大小与目标与成像设备之间的距离d有关,A为无穷远处的大气光强,为常值。
设置A=(200,200,200),Rm为(400,600)之间的随机数,将晴天下海面上场景照片作为J(x),上一步中模拟得到的深度图作为d,即可输出该场景对应的雾天下的图片。
本发明的海上雾天图像模拟方法包括以下步骤:
步骤1、从网络上下载晴天下海上场景图片数据集并对其进行标注,要求标签将图片分为天空、海面、前景目标三部分,如附图1所示。
步骤2、将训练集图片放入语义分割网络deeplab v3+中进行训练,得到其语义分割结果,如附图2所示。
步骤3、根据语义分割结果初步模拟出其深度图。构建与图片大小相同的单通道灰度矩阵,其中将分割结果中天空部分置为255,模拟出与摄像头距离为无限远,海面部分与天空接触处灰度置为255,图片底部灰度置为0,模拟摄像头所处的位置,其他海面部分使得其满足x3的变化规律,从0到255变化,模拟图片中像素点代表的景物距离摄像头由近及远变化;海上目标部分设置为与其在x轴方向上与海面接触部分海面的灰度值相同,代表了海上目标在纵向上与摄像头之间的距离不变。最终得到的灰度矩阵即为模拟的海面场景的深度图,结果如附图3所示。
步骤4、平滑深度图。将步骤3中模拟得到的深度图进行三次卷积滤波,第一次使用卷积核形状为(15,1)的均值滤波,平滑其横向的深度变化,之后进行两次卷积核为(9,9)的高斯模糊,来对深度图整体进行平滑,平滑前后结果与直接利用其生成的雾天图像如附图4所示,左边为平滑前,右边为平滑后。
步骤5、模拟不均匀雾团。对平滑后的深度图的随机位置上与横纵方向皆满足-ax2+b变化趋势的灰度块儿相加,其中横纵方向上系数a,b不相同,随机变化,且保持灰度块儿边缘的灰度为0。从而模拟出场景中不同区域雾的浓度可能不同的情况。
步骤6、利用大气散射模型生成雾天下海上场景图片。
大气散射模型为I(x)=J(x)t(x)+A(1-t(x)),其中I(x)表示雾天下的最终成像图像,J(x)为x=0处的光照强度,即没有衰减的目标反射光,即晴天下正常拍摄得到的图片,t(x)=e-β(λ)d
Figure BDA0002830717120000051
表示大气光的散射效果,即透射率,其大小与目标与成像设备之间的距离d有关,A为无穷远处的大气光强,为常值。
设置A=(200,200,200),Rm为(400,600)之间的随机数,将晴天下海面上场景照片作为J(x),上一步中模拟得到的深度图作为d,即可输出该场景对应的雾天下的图片。最终模拟结果如附图5所示。
实施例:
1、准备数据集
通过网络下载或其他方法得到海上场景图片数据集,并对其标注,要求标签文件将数据集图片分为三部分:天空、海面、海上目标。
2、训练语义分割网络
deeplab v3+为一种常用的基于深度学习的图像语义分割方法,将准备的数据集及其标签送入网络中进行训练,即可训练得到语义分割网络。
3、深度图模拟
从数据集中挑选出一张图片,经过步骤2中训练好的语义分割网络,得到其语义分割结果。构建与该图片相同形状的单通道灰度矩阵,将语义分割结果中对应的天空部分灰度置为255,模拟出无限远的距离;海面部分与天空接触处灰度置为255,图片底部灰度置为0,模拟摄像头所处的位置,其他海面部分使得其满足x3的变化规律,从0到255变化,模拟图片中像素点代表的景物距离摄像头由近及远变化;海上目标部分设置为与其在x轴方向上与海面接触部分海面的灰度值相同,代表了海上目标在纵向上与摄像头之间的距离不变。最终得到的灰度矩阵即为模拟的海面场景的深度图。
4、平滑深度图
将上一步模拟得到的深度图进行三次卷积滤波,第一次使用卷积核形状为(15,1)的均值滤波,平滑其横向的深度变化,之后进行两次卷积核为(9,9)的高斯模糊,来对深度图整体进行平滑。
5、模拟不均匀雾团
对平滑后的深度图的随机位置上与横纵方向皆满足-ax2+b变化趋势的灰度块儿相加,其中横纵方向上系数a,b不相同,随机变化,且保持灰度块儿边缘的灰度为0。从而模拟出场景中不同区域雾的浓度可能不同的情况。
6、将模拟得到的深度图带入大气散射模型中得到模拟的海面雾天图片。
大气散射模型为I(x)=J(x)t(x)+A(1-t(x)),其中I(x)表示雾天下的最终成像图像,J(x)为x=0处的光照强度,即没有衰减的目标反射光,即晴天下正常拍摄得到的图片,t(x)=e-β(λ)d
Figure BDA0002830717120000061
表示大气光的散射效果,即透射率,其大小与目标与成像设备之间的距离d有关,A为无穷远处的大气光强,为常值。
设置A=(200,200,200),Rm为(400,600)之间的随机数,将晴天下海面上场景照片作为J(x),上一步中模拟得到的深度图作为d,即可输出该场景对应的雾天下的图片。

Claims (2)

1.一种海上雾天图像模拟方法,其特征在于,包括以下步骤:
步骤1:准备数据集,具体为:
获取海上场景图片数据集,并对其进行人工标注,要求标签文件将数据集图片分为天空、海面和海上目标三部分;
步骤2:训练语义分割网络,具体为:
将步骤1的数据集及其标签送入网络中采用deeplab v3+语义分割算法进行训练,得到语义分割网络;
步骤3:深度图模拟,具体为:
从数据集中挑选出一张图片,经过步骤2中训练好的语义分割网络,得到其语义分割结果,构建与该图片相同形状的单通道灰度矩阵,将语义分割结果中对应的天空部分灰度置为255,模拟出无限远的距离;海面部分与天空接触处灰度置为255,图片底部灰度置为0,模拟摄像头所处的位置,其他海面部分从0到255变化且满足x3的变化规律,模拟图片中像素点代表的景物距离摄像头由近及远变化;海上目标部分设置为与其在x轴方向上与海面接触部分海面的灰度值相同,代表了海上目标在纵向上与摄像头之间的距离不变,得到的灰度矩阵为模拟的海面场景的深度图;
步骤4:将步骤3模拟得到的深度图进行三次卷积滤波,平滑深度图;
步骤5:模拟不均匀雾团,具体为:
将平滑后的深度图的随机位置上与横纵方向皆满足-ax2+b变化趋势的灰度块相加,其中横纵方向上系数a,b不相同,随机变化,且保持灰度块儿边缘的灰度为0,模拟得到场景中不同区域雾的浓度可能不同的情况;
步骤6:将模拟得到的深度图带入大气散射模型中得到模拟的海面雾天图片,具体为:
大气散射模型为I(x)=J(x)t(x)+A(1-t(x)),其中I(x)表示雾天下的最终成像图像,J(x)为x=0处的光照强度,即没有衰减的目标反射光,即晴天下正常拍摄得到的图片,t(x)=e-β(λ)d
Figure FDA0002830717110000011
表示大气光的散射效果,即透射率,β与目标与成像设备之间的距离d有关,A为无穷远处的大气光强,为常值,设置Rm为(400,600)之间的随机数,将晴天下海面上场景照片作为J(x),步骤5模拟得到的深度图作为d,即可输出该场景对应的雾天下的图片。
2.根据权利要求1所述的一种海上雾天图像模拟方法,其特征在于:步骤4所述将步骤3模拟得到的深度图进行三次卷积滤波,平滑深度图具体为:第一次使用卷积核形状为(15,1)的均值滤波,平滑其横向的深度变化,之后进行两次卷积核为(9,9)的高斯模糊,来对深度图整体进行平滑。
CN202011459200.5A 2020-12-11 2020-12-11 一种海上雾天图像模拟方法 Active CN112465697B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011459200.5A CN112465697B (zh) 2020-12-11 2020-12-11 一种海上雾天图像模拟方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011459200.5A CN112465697B (zh) 2020-12-11 2020-12-11 一种海上雾天图像模拟方法

Publications (2)

Publication Number Publication Date
CN112465697A true CN112465697A (zh) 2021-03-09
CN112465697B CN112465697B (zh) 2023-03-17

Family

ID=74803697

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011459200.5A Active CN112465697B (zh) 2020-12-11 2020-12-11 一种海上雾天图像模拟方法

Country Status (1)

Country Link
CN (1) CN112465697B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223105A (zh) * 2021-04-19 2021-08-06 天津大学 基于大气散射模型的雾天图像生成方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6834127B1 (en) * 1999-11-18 2004-12-21 Fuji Photo Film Co., Ltd. Method of adjusting output image areas
CN110263706A (zh) * 2019-06-19 2019-09-20 南京邮电大学 一种雾霾天气车载视频动态目标检测和识别的方法
CN110310241A (zh) * 2019-06-26 2019-10-08 长安大学 一种融合深度区域分割的多大气光值交通图像去雾方法
CN110766640A (zh) * 2019-11-05 2020-02-07 中山大学 一种基于深度语义分割的图像去雾方法
CN111145116A (zh) * 2019-12-23 2020-05-12 哈尔滨工程大学 一种基于生成对抗网络的海面雨天图像样本增广方法
CN111192219A (zh) * 2020-01-02 2020-05-22 南京邮电大学 一种基于改进的逆大气散射模型卷积网络的图像去雾方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6834127B1 (en) * 1999-11-18 2004-12-21 Fuji Photo Film Co., Ltd. Method of adjusting output image areas
CN110263706A (zh) * 2019-06-19 2019-09-20 南京邮电大学 一种雾霾天气车载视频动态目标检测和识别的方法
CN110310241A (zh) * 2019-06-26 2019-10-08 长安大学 一种融合深度区域分割的多大气光值交通图像去雾方法
CN110766640A (zh) * 2019-11-05 2020-02-07 中山大学 一种基于深度语义分割的图像去雾方法
CN111145116A (zh) * 2019-12-23 2020-05-12 哈尔滨工程大学 一种基于生成对抗网络的海面雨天图像样本增广方法
CN111192219A (zh) * 2020-01-02 2020-05-22 南京邮电大学 一种基于改进的逆大气散射模型卷积网络的图像去雾方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
TAO FA等: "Development of an all-sky imaging system for cloud cover assessment", 《APPLIED OPTICS》 *
WENZHANG等: "An integrated ship segmentation method based on discriminator and extractor", 《IMAGE AND VISION COMPUTING》 *
苏丽等: "一种改进的全景海雾图像去雾算法", 《计算机仿真》 *
董健康等: "室外自然场景下的雾天模拟生成算法", 《计算机辅助设计与图形学学报》 *
蒋子源: "用深度学习技术解决图像语义分割问题", 《电子制作》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223105A (zh) * 2021-04-19 2021-08-06 天津大学 基于大气散射模型的雾天图像生成方法

Also Published As

Publication number Publication date
CN112465697B (zh) 2023-03-17

Similar Documents

Publication Publication Date Title
Starik et al. Simulation of rain in videos
CN109272455B (zh) 基于弱监督生成对抗网络的图像去雾方法
US12106428B2 (en) Radiance fields for three-dimensional reconstruction and novel view synthesis in large-scale environments
Rousseau et al. Realistic real-time rain rendering
Paulin et al. Review and analysis of synthetic dataset generation methods and techniques for application in computer vision
DE102009049849A1 (de) Verfahren zur Bestimmung der Pose einer Kamera und zur Erkennung eines Objekts einer realen Umgebung
Satilmis et al. A machine-learning-driven sky model
CN109993804A (zh) 一种基于条件生成对抗网络的道路场景去雾方法
CN105447825B (zh) 图像去雾方法及其系统
CN110827218A (zh) 基于图像hsv透射率加权校正的机载图像去雾方法
CN116883588A (zh) 一种大场景下的三维点云快速稠密重建方法及系统
CN104318528A (zh) 基于多尺度wls滤波的雾天图像恢复方法
CN117150755A (zh) 一种基于神经点渲染的自动驾驶场景仿真方法及系统
CN114972646B (zh) 一种实景三维模型独立地物的提取与修饰方法及系统
CN112465697B (zh) 一种海上雾天图像模拟方法
Nentwig et al. Concerning the applicability of computer graphics for the evaluation of image processing algorithms
CN115205626A (zh) 一种应用于涂层缺陷检测领域的数据增强方法
EP3855399A1 (en) Photo-realistic image generation using geo-specific data
Goncalves et al. Guidednet: Single image dehazing using an end-to-end convolutional neural network
CN113450267B (zh) 可快速获取多种自然退化图像复原模型的迁移学习方法
Wang et al. An airlight estimation method for image dehazing based on gray projection
Schofield Non-photorealistic rendering: a critical examination and proposed system.
CN113326924A (zh) 基于深度神经网络的稀疏图像内关键目标测光定位方法
Tang et al. NDPC-Net: A dehazing network in nighttime hazy traffic environments
CN107607931B (zh) 一种激光雷达回波图像处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant