CN114693542A - 图像去雾方法和使用图像去雾方法的图像去雾设备 - Google Patents
图像去雾方法和使用图像去雾方法的图像去雾设备 Download PDFInfo
- Publication number
- CN114693542A CN114693542A CN202110688264.0A CN202110688264A CN114693542A CN 114693542 A CN114693542 A CN 114693542A CN 202110688264 A CN202110688264 A CN 202110688264A CN 114693542 A CN114693542 A CN 114693542A
- Authority
- CN
- China
- Prior art keywords
- image
- defogged
- green
- red
- defogging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000013135 deep learning Methods 0.000 claims abstract description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 46
- 238000001514 detection method Methods 0.000 claims description 32
- 230000005540 biological transmission Effects 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 11
- 230000002708 enhancing effect Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 7
- 238000003709 image segmentation Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000007670 refining Methods 0.000 claims 3
- 230000001131 transforming effect Effects 0.000 claims 2
- 238000007430 reference method Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 10
- 230000006872 improvement Effects 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 10
- 230000002411 adverse Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 229910021607 Silver chloride Inorganic materials 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- HKZLPVFGJNLROG-UHFFFAOYSA-M silver monochloride Chemical compound [Cl-].[Ag+] HKZLPVFGJNLROG-UHFFFAOYSA-M 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 206010034960 Photophobia Diseases 0.000 description 1
- 239000012190 activator Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000036561 sun exposure Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种图像去雾方法和使用图像去雾方法的图像去雾设备。在一方面中,本发明涉及一种图像去雾方法,所述方法包含但不限于:接收输入图像;通过去雾模块对图像去雾以输出已去雾红绿蓝图像;通过高动态范围(HDR)模块恢复已去雾红绿蓝图像的图像亮度以输出高动态范围图像;以及通过ReflectNet推断模型去除高动态范围图像的反射,其中ReflectNet推断模型使用深度学习架构。
Description
技术领域
本发明涉及一种图像去雾方法和使用图像去雾方法的图像去雾设备。
背景技术
由于氯化银涂布纸(silver chloride-coated paper)技术出现,成像装置可以使光通过狭缝以曝光氯化银涂布纸,氯化银涂布纸可以根据行进光强度在空间上暗化成像,以及随着越来越多的终端使用者成为可能间接支持从静态动态图像捕捉到动态图像捕捉(即,摄像机)的推进,成像装置的利用率已逐年增加。从专业、科学到消费电子产品来看,成像装置的适用性前所未有地广泛。在大批量生产系统的支持下,成像装置每像素密度的成本相应地降低。这些条件造成了成像装置(即,相机)的相关工程领域中的广泛应用。
消费电子产品中的物联网(Internet-of-Thing;IoT)能力的提高使得自动驾驶车辆(autonomous driving vehicle;ADV)的发展已变得更加重要。图1绘示利用不同成像传感器以感测障碍物的周围环境的ADV。在ADV的应用场景中,红绿蓝色(RGB)相机是一种最显要的成像装置,RGB相机能够在对应相机的有限视场(field ofview;FOV)内提供周围环境的密集语义或实例信息。这种特定信息将为致动器(actuator)提供必需数据以实现ADV的主要目标,即,从一个位置自主地移动到另一位置,同时避开在周围轨迹的预测范围内的对象或障碍物。图像数据可以经过各种处理,例如对象检测、图像分割、对象跟踪、深度估计以及其它相关应用。
除后续处理模块的能力以外,来自对应RGB相机的感知质量可以影响所述后续处理模块的性能。表1比较在不同环境限制条件下的RGB相机的属性。根据表1,RGB相机易受到源于光或源于天气条件的干扰。由于RGB相机是无源传感器,所以图像数据高度依赖于传感器数组所感知的行进光信号。任何可能衰减或分散行进光信号的空中微粒或中间物质,均被视为RGB相机的减退因子(decimating factor)。
限制条件 | 属性 | 限制条件 | 属性 |
传感器类型 | 无源 | 天气影响 | 轻敏感度 |
勒克斯(Lux)干扰 | 高敏感度 | 视场 | 有限 |
曝光效应 | 高敏感度 | 分辨率 | 密集 |
表1
在ADV的发展中,不同的天气条件是不可控制变量,将在一定程度上影响RGB相机的图像质量。在ADV发展的常见情境下的不利天气可分类成:(a)日眩光/直射光曝光;(b)雨/雪条件以及(c)有雾(foggy/hazy)条件。对于涉及日眩光/直射光曝光的情境,RGB相机的图像质量将随着直接曝光使光传感器数组削减/饱和而降低,这可能不仅影响曝光的图像区,而且还可能影响其邻近图像区。由于过度曝光的像素和其邻近区域,这种特定情境通过降低图像熵来减少感知的对象性。因此,抑制了显要对象的图像特征,而使得大多数对象检测算法产生适当检测的任务变得更为艰巨。
对于涉及雨/雪条件的情境,中间物质(例如水滴或雪花)的存在会衰减进入相机镜头的光总量,衰减程度直接对应于雨/雪条件的强度。这些物质也可能取决于RGB相机安装和/或设计的方式所引起图像失真和/或FOV障碍。类似地,涉及有雾条件的情境也将降低RGB相机的可见度,这是因为,取决于对应的雾度(haze/fog)情况的严重程度,潮湿空气/污染物的存在会吸收一定程度的光强度。因此,与雨/雪条件类似,由于大多数的高频信息被抑制,有雾条件也将使大多数对象检测算法的执行更具挑战性,例如,特征提取的分析。
作为实际实例,在图2A中绘示的晴朗下午条件下,所感知的对象性是清晰的,具有相当大的对比度和图像可见度。然而,图2B中所绘示的不利条件,例如低光环境中的不平衡强度以及暴雨条件所产生不合期望的情形会对用于自动驾驶车辆上的周围对象感测的RGB相机的可靠性带来问题。在低光环境中的不均衡强度期间,由于在直方图值的较高范围内偏移的其它像素的强度的过度曝光而使得对比率被抑制。在暴雨条件中,由于空中物质的存在而增加会衰减进入传感器数组的行进光的量而造成大气通道增加。这些条件显示RGB相机作为无源感测装置的局限性。
实际上,作为图像预处理功能以增强RGB图像质量的软件解决方案可变为RGB相机的补丁元素,RGB相机的图像质量通常受到不利天气条件影响。然而,为了显著地解决RGB相机在任何类型的天气条件(不利或正常)期间的可靠性,作为任何软件解决方案的补充补丁,RGB相机的硬件改进是必要的。在图像预处理功能中,对RGB图像进行像素级或区域级处理,共同目的在于增强图像对比度以及通过选择性滤波(即,雾度去除)改进所感知的物件性。
图2C将相关技术中的对象检测算法的性能(例如由J.雷德蒙(J.Redmon)等人教导的YOLOv3,“YOLOv3:增量改进(YOLOv3:An Incremental Improvement)”,arXiv:1804.02767,2018年4月)与来自原始和已处理RGB版本的输入图像进行比较。原始RGB图像是在不利天气条件下,例如(从左上到右下)曝光过度、曝光不足、下雨条件以及有雾条件,直接从对应的相机获得的。另一方面,已处理的RGB图像是图像预处理功能对于对应原始RGB图像的产物;因此,已处理RGB图像可称为原始RGB图像的增强版本。在本现有技术中,将图像去雾和高动态范围(high dynamic range;HDR)增强用作图像预处理功能。
参考图2C,在相关技术中,相比于使用已处理RGB图像实施的对象检测算法的检测率,使用原始RGB图像实施的对象检测算法的检测率更低。这表示图像预处理能够增强原始RGB图像的感知对象性;因此,实现算法的分类器可用更高图像可见度检测任何先前考虑的对象。另外,原始的和已处理的RGB图像在假阳性率方面都一样低。尽管这种情况可归因于在相关技术中所实施的对象检测算法的稳定性;但这种情况可以展现图像预处理在避免过度增强方面的能力,过度增强将产生造成假阳性的不期望假像。
根据前述内容,调节和改进RGB图像的感知质量的图像预处理技术对于后续计算摄影至关重要。已处理RGB图像的应用可以在计算机和机器视觉的范围内扩展。最常见的应用是需要以RGB相机作为感测装置的自动驾驶车辆,包含地面、空中或海上车辆。然而,由于已经证实那些RGB相机在各种不利天气情形下可能具有质量下降的问题,所以需要图像预处理功能作为解决方案补丁,在各种天气条件(不利或正常天气条件)下改进图像对比度和感知对象而不引起任何错误或过度增强效应。
发明内容
有鉴于此,本发明的实施例提供一种图像去雾方法和使用图像去雾方法的图像去雾设备。
在一方面中,本发明的实施例提供一种图像去雾方法,且所述方法包含但不限于:接收输入图像;通过去雾模块去雾图像以输出已去雾RGB图像;通过高动态范围(HDR)模块恢复已去雾RGB图像的图像亮度以输出HDR图像;以及通过ReflectNet推断模型去除HDR图像的反射,其中ReflectNet推断模型使用深度学习架构。
在一方面中,本发明的实施例提供一种图像去雾设备,包含但不限于:传感器和耦合到传感器的处理器。处理器配置成至少进行以下操作:接收输入图像;通过去雾模块去雾图像以输出已去雾RGB图像;通过HDR模块恢复已去雾RGB图像的图像亮度以输出HDR图像;以及通过ReflectNet推断模型去除HDR图像的反射,其中ReflectNet推断模型使用深度学习架构。
为了可更好地理解前述内容,如下详细地描述伴有附图的若干实施例。应理解,前文总体描述以及以下详细描述都是示例性的,且希望提供对所要求的本发明的进一步解释。
然而,应理解,本发明内容可并不含有本发明的所有方面和实施例,且因此不希望用任何方式加以限制或约束。此外,本发明将包含对于本领域的技术人员来说显而易见的改进和修改。
附图说明
包含附图以便进一步理解本发明,且附图并入本说明书中并构成本说明书的一部分。附图示出本发明的示例性实施例,且与实施方式一起用来解释本发明的原理。
图1绘示利用不同成像传感器来感测障碍物的周围环境的自动驾驶车辆(ADV)。
图2A为在晴朗下午条件下通过RGB相机获取的图像。
图2B示出RGB相机易受不利条件(例如夜间曝光、暴雨、日照、浓雾以及昏暗夜晚)的影响。
图2C示出对于对象检测算法来说图像预处理对RGB图像的影响。
图3是绘示根据本发明的示例性实施例的图像去雾方法的步骤的流程图。
图4绘示根据本发明的示例性实施例的图像去雾设备的方块图。
图5是绘示根据本发明的示例性实施例的图像去雾方法的步骤的流程图。
图6为通过根据本发明的示例性实施例的图像去雾方法处理的输入RGB图像和输出RGB图像的实施实例。
图7是绘示根据本发明的示例性实施例的图像去雾方法的步骤的详细流程图。
图8是绘示根据本发明的示例性实施例的去雾模块的算法的详细流程图。
图9为通过去雾模块的算法处理的输入RGB图像和输出已去雾图像的实施实例。
图10为通过根据本发明的示例性实施例的去雾模块中的最小信道估计算法处理的输入RGB图像和最小信道图的实施实例。
图11为通过根据本发明的示例性实施例的去雾模块中的引导式滤波算法处理的反转最小信道图和雾度透射图的实施实例。
图12为根据本发明的示例性实施例的在去雾模块中从雾度透射图得到强度值的大气检测算法的实施实例。
图13为根据本发明的示例性实施例的在去雾模块中恢复已去雾RGB图像的线性颜色重构算法的实施实例。
图14是绘示根据本发明的示例性实施例的HDR模块的算法的详细流程图。
图15为根据本发明的示例性实施例的到HDR模块的输入已去雾图像和通过HDR模块处理的输出HDR图像的实施实例。
图16是绘示通过根据本发明的示例性实施例的那卡-拉什顿补偿器(Naka-Rushton Compensator)增强已去雾RGB图像是图像亮度的流程图。
图17为通过根据本发明的示例性实施例的局部直方图操作(Local HistogramOperation)增强已去雾RGB图像的图像对比度的实施实例。
图18是绘示通过根据本发明的示例性实施例的ReflectNet推断模型去除HDR图像的反射的流程图。
图19为通过根据本发明的示例性实施例的ReflectNet推断模型处理的输入已去雾图像和输出HDR图像的实施实例。
图20为根据本发明的示例性实施例的ReflectNet推断模型的编码器-解码器架构的实施实例。
图21为根据本发明的示例性实施例的用于训练ReflectNet推断模型的数据集中的原始RGB图像和RGB图像的反射版本的实施实例。
图22是将图像去雾方法的实施实例与现有技术中的基准方法进行比较的表。
图23是将图像去雾方法的实施实例与现有技术中的基准方法的性能评价进行比较的表。
图24示出与现有技术中的通过基准方法处理的输出图像相比,通过根据本发明的示例性实施例的图像去雾方法处理的输入原始图像和输出图像的实例。
图25是示出与现有技术中对通过基准方法处理的原始RGB图像和RGB图像的对象检测的性能评价相比,对通过根据本发明的示例性实施例的图像去雾方法处理的RGB图像的对象检测的性能评价的表。
图26示出根据本发明的示例性实施例的对原始图像、通过现有技术中的基准方法处理的图像以及通过图像去雾方法处理的图像的对象检测算法的实施实例。
附图标号说明
40:图像去雾设备;
401:传感器;
402:处理器;
601、602、901、902:图像;
1001:输入RGB图像;
1002:最小信道图;
1101:反转最小信道图;
1102、1201:雾度透射图;
1202:已去雾图像;
1203:强度值;
1301:输入图像;
1302:已去雾RGB图像;
1501、1901:输入已去雾图像;
1502、1902:输出高动态范围图像;
1601:原始RGB图像;
1602:亮度图;
1603、1604、1605:信道;
1606:亮像素;
1607:暗像素;
S1611、S1612、S301、S302、S303、S304、S501、S502、S503、S504、S505、S701、S702、S703、S704、S801、S802、S803、S804、S1401、S1402、S1801:步骤;
1701:已去雾RGB图像ID();
1702:输出HDR图像IH();
2301:基于熵的测量增强;
2302:对比度改进指数;
2303:强度测量;
2501:准确度;
2502:假阳性率。
具体实施方式
现将详细参考本发明的当前示例性实施例,附图中绘示出了所述示例性实施例的实例。只要可能,相同的附图标号在附图和描述中用以代表相同或类似部分。
对于上述挑战,本发明提供混合的图像处理框架以解决在数字视觉技术的部署中可能遇到的各种挑战。图像处理框架将从使用图像去雾方法的图像去雾设备的角度进行解释。图像去雾设备可以安置在例如户外环境中的自动化或任何机器人系统内,例如自主车辆、空中无人机以及海上无人机等等。图像去雾设备将包含但不限于传感器和耦合到传感器的处理器,且处理器配置成至少进行以下操作:接收输入图像;通过去雾模块去雾图像以输出已去雾RGB图像;通过HDR模块恢复已去雾RGB图像的图像亮度以输出HDR图像;以及通过ReflectNet推断模型去除HDR图像的反射,其中ReflectNet推断模型使用深度学习架构。通过所提供的框架可以增强图像质量并且可以改进后续处理(例如对象检测和图像分割)的性能。
图3是绘示根据本发明的示例性实施例的图像去雾方法的流程图。在步骤S301中,图像去雾设备将通过传感器接收输入图像。在步骤S302中,图像去雾设备将通过去雾模块去雾图像以输出已去雾RGB图像。在步骤S303中,图像去雾设备将通过HDR模块恢复已去雾RGB图像的图像亮度以输出HDR图像。在步骤S304中,图像去雾设备将通过ReflectNet推断模型去除HDR图像的反射,其中ReflectNet推断模型使用深度学习架构。
图4绘示根据本发明的示例性实施例的图像去雾设备的方块图。图像去雾设备40将包含但不限于传感器401和耦合到传感器401的处理器402。处理器402将配置成至少进行以下操作:接收输入图像;通过去雾模块去雾图像以输出已去雾RGB图像;通过HDR模块恢复已去雾RGB图像的图像亮度以输出HDR图像;以及通过ReflectNet推断模型去除HDR图像的反射,其中ReflectNet推断模型使用深度学习架构。
图5是绘示出根据本发明的示例性实施例的图像去雾方法的步骤的流程图。在步骤S501中,图像去雾设备将通过传感器接收输入RGB图像。在步骤S502中,在本发明的一实施例中,图像去雾设备将去雾RGB图像并通过图像去雾模块输出已去雾RGB图像。更具体地说,图像去雾设备可以检测和恢复由于存在雾/雨或相机传感器与对象之间的任何其它中间物质而造成的衰减效应。在一个实施例中,图像去雾模块可以使用传统计算机视觉来设计以基于深度感知来检测雾量,且随后线性地补偿或恢复受影响的像素,同时保持2D RGB图像中的深度感测。具体地,图像去雾设备可以从雾或雨恢复像素,从而真正地增加图像亮度。在步骤S503中,在本发明的一实施例中,图像去雾设备将通过HDR模块恢复已去雾RGB图像的图像亮度以输出HDR图像。更具体地说,可以设计HDR模块以改进对应的RGB图像的动态范围。在一个实施例中,图像去雾设备可以补偿可能由图像去雾模块或自然地从低光环境引起的图像暗化。具体地,图像去雾设备可以产生亮度增强,所述亮度增强在低光像素与任何亮光像素之间找到平衡。在步骤S504中,图像去雾设备将去除HDR图像的反射。在示例性实施例中,反射去除可以采用有图像分割的内建功能的机器学习方法从输入图像分离反射图以获得无反射输出图像。具体地,在一个实施例中,反射去除可以通过可使用深度学习架构(例如编码器-解码器网络)的ReflectNet推断模型来实施。
图6为通过根据本发明的示例性实施例的图像去雾方法处理的输入RGB图像和输出RGB图像的实施实例。参考图6,图像601是如图5的步骤S501中所绘示的可以由传感器接收的输入RGB图像的实例,并且图像602是在图像601已经历如图5中所绘示的步骤S502到步骤S504的处理之后可以在图5的步骤S505中产生的输出RGB图像的实例。
图7是绘示根据本发明的示例性实施例的图像去雾方法的步骤的详细流程图。在步骤S701中,图像去雾设备将通过传感器接收输入RGB图像。输入RGB图像可以表示为I()。在示例性实施例中,在步骤S702中,输入RGB图像I()首先由图像去雾模块处理以去除来自雾、雨或将衰减由相机传感器接收的光量的任何其它中间介质的不利影响。具体地,在一个实施例中,步骤S702中的图像去雾模块可以由四个子模块实施:(a)最小信道估计;(b)引导式滤波;(c)大气信道检测;(d)线性颜色重构。在通过图像去雾模块处理输入RGB图像I()之后,可以产生指示为ID()的输出已去雾图像。
在步骤S703中,在示例性实施例中,HDR模块可以恢复图像亮度的减退抽样(decimation),减退抽样可能归因于使图像暗化和/或从光或低光环境曝光的图像去雾模块。更具体地说,HDR模块包含两个子模块:那卡-拉什顿补偿器和局部直方图均衡(LHE)操作。那卡-拉什顿补偿器是用以恢复任何曝光不足或过度曝光的图像亮度的补偿公式。这种补偿可以从在初始化期间计算的已去雾图像ID()获取统计信息。LHE操作是一种局部直方图均衡技术,其可以针对任何对比度损失增强每一颜色信道(r、g、b)的图像对比度,所述对比度损失可由那卡-拉什顿补偿器引发。在通过HDR模块处理已去雾图像ID()之后,可以产生表示为IH()的HDR图像。
在步骤S704中,在示例性实施例中,反射去除模块可以使用机器学习方法,即可以基于深度学习架构的ReflectNet推断模型。在一个实施例中,ReflectNet推断模型可以通过具有来自分割架构的预训练模型的编码器-解码器网络来实施。编码器侧和预训练模型(来自分割架构)将创建超列(hypercolumn)特征,超列特征由译码器侧译码以用于相对于表示为O()的输出RGB图像分离反射图。
图8是绘示根据本发明的示例性实施例的去雾模块的算法的详细流程图。去雾模块可以公式表示如下:
I(x)=ID(x)T(x)+A(1-T(x)), (1)
其中I()是输入RGB图像,ID()是输出已去雾图像,T()是去雾透射图,A是大气系数,且x是像素位置。
在步骤S801处,在示例性实施例中,大气检测中的最小信道估计是基于雾/雨或公式(1)中表示的任何中间介质设计的。在不存在雾或无雾图像的情况下,大多数像素的颜色饱和度将反映对象的实际颜色,而雾的存在将引入会增加图像亮度并且降低颜色饱和度的衰减效应。在无雾图像的情况下,输入RGB图像I()的至少一个颜色信道将落在强度的低端光谱中。换句话说,通过观察具有最小像素值的颜色信道将反映雾介质的存在,如公式(1)中所绘示。
具体地,在一个实施例中,最小信道估计实施逐块操作,所述逐块操作将输入RGB图像I()分割成n(Ω)数目个块片段,其中Ω(x)是在x处具有中心坐标的块片段以估计对应的Ω(x)的最小信道像素值,如在以下公式表示:
其中r,g,b是输入RGB图像I()中的颜色信道。Ω(x)的维度是可以进行精细调整以实现所需去雾性能的用户约束。Ω(x)的较高维度将构成最小信道图的较低分辨率;而Ω(x)的较低维度可能引起最小信道的过度估计。
在步骤S802处,在示例性实施例中,引导式滤波通过A.莱文(A.Levin)、D.里奇斯(D.Lischinski)以及Y.韦斯(Y.Weiss)(自然图像抠图的封闭形式解决方案,《计算机视觉以及图案识别》,第1卷,第61页到第68页,2006年)所教导来实施,即,通过基于输入RGB图像I()中的颜色和形状信息将反转最小信道图的形状细化成雾度透射图T()。具体地,在一个实施例中,引导式滤波可以如下公式表示:
其中E是大小为I()的单位矩阵,且λ是软约束的参数。λ的值将确定I()对控制中的形状细化的影响程度。应注意,在(3)中,最小信道图为反转,这是因为T()将必须反映雾度的透射率。这意味T()中的低值表示附近对象或低雾度引发效应,而中的低值对应于T()的反面。
更具体地说,在一个实施例中,(3)中的L是如下公式的拉普拉斯(Laplacian)矩阵:
其中Ii、,Ij是i像素、j像素处的I()的颜色;ρij是克罗内克函数(Kroneckerdelta);ωk是大小为n()的窗口核;μk、σk是ωk中的均值和协方差;ε是正规化参数;且E3是具有3×3尺寸的单位矩阵(类似于公式(3)中的E)。
在步骤S803处,在示例性实施例中,可以使用大气信道检测估计大气系数。所述大气信道检测模块从T()中的最低像素得到I()的强度值,如以下公式表示:
须注意的是,大气信道检测模块并不基于图像中的最亮像素来估计大气系数,这是因为大气信道检测模块可能不是空气光强度的正确表示。T利用通过将较大透射率值假设为最远对象/环境(换句话说,空气光强度)来确保反映空气光强度的像素的位置。
在步骤S804处,在示例性实施例中,在可以确定雾度透射图T()和大气系数A之后,线性颜色重构可以使用雾度透射图T()和大气系数A针对任何雾度效应恢复I()中的颜色信道。操作是对每个颜色信道的逐像素计算,如以下公式:
图9为通过去雾模块的算法处理的输入RGB图像和输出已去雾图像的实施实例。参考图9,线性颜色重构能够去除雾度引发的图像901/将其抑制成无雾图像902。尽管无雾图像902引入较好的可见度,但由于图像去雾的本质是降低由雾度引发的图像的亮度,所以降低整体图像亮度。
图10为通过去雾模块中的最小信道估计算法处理的输入RGB图像1001和最小信道图1002的实施实例。最小信道估计算法基于块操作计算输入RGB图像1001的最小信道图1002。在存在雾度的情况下,对象的像素值将相应地受其相对于相机的位置的影响。在图10中,最小信道图1002构成类深度图,所述类深度图间接感知为雾度介质产生深度感知的感觉。由于最小信道估计使用具有最小像素值的信道,所以明亮或高饱和对象的存在将影响最小信道图1002中的类深度效应,如图10中所绘示的交通灯一样。
图11为通过去雾模块中的引导式滤波算法处理的反转最小信道图1101和雾度透射图1102的实施实例。如图11中所绘示,引导式滤波算法平滑反转最小信道图1101的粗略形状,以及使用拉普拉斯变换基于I中所提供的颜色和形状信息校正最小信道的错误估计。在雾度透射图1102中可以较高分辨率感知对象的轮廓。
图12为去雾模块中的大气检测算法的实施实例,所述大气检测算法从已去雾图像1202的雾度透射图1201得到强度值1203。如图12中所绘示,大气检测算法可以估计表示大气系数A的强度值1203。从雾度传透射图1201中的最低像素得到强度值1203。雾度透射图1201的利用通过将较大透射率值假设为最远对象/环境(换句话说,空气光强度)来确保反射空气光强度的像素的位置。
图13为去雾模块中的线性颜色重构算法的实施实例,所述去雾模块从输入图像1301恢复已去雾RGB图像1302。如图13中所绘示,线性颜色重构算法可以去除或抑制输入图像1301中的雾度引发的图像,并且恢复已去雾RGB图像1302中的无雾图像版本。尽管无雾图像1302引入较好的可见度,但由于图像去雾的本质是降低由雾度引发的输入图像1301的亮度,所以降低整体图像亮度。
图14是绘示根据本发明的示例性实施例的HDR模块的算法的详细流程图。在步骤S1401处,在示例性实施例中,那卡-拉什顿补偿器使用逐像素分割和像素变换进行设计。
图15为根据本发明的示例性实施例的到HDR模块的输入已去雾图像1501和通过HDR模块处理的输出HDR图像1502的实施实例。如图15中所绘示,HDR模块恢复输出HDR图像1502中的图像亮度,所述输出HDR图像1502由于使图像暗化或从光环境或低光环境曝光的去雾模块而可能位于输入已去雾图像1501中。
图16是绘示出通过根据本发明的示例性实施例的那卡-拉什顿补偿器增强已去雾RGB图像是图像亮度的流程图。具体地,图16示出那卡-拉什顿补偿器的细节。那卡-拉什顿补偿器模块开始于颜色校正,所述颜色校正将原始RGB图像1601的彩色信道转化成亮度图1602,表示为ID,y。原始RGB图像1601ID分解成r信道、g信道、b信道(1603到1605),即分别为ID,r、ID,b、ID,g。
在步骤S1611处,这些图1603到图1605用于计算像素集群的阈值以相对于ID的暗像素1607将亮像素1606分割为:
其中μD,c表示cth信道处的平均图像像素。(7)中存在非线性地和线性地缩放ID,y中的亮度的两个系数,即α和β。被称作B的双线性滤波器核用于消除来自ID,y的噪声。
在步骤1612处,根据基于像素的分割,阈值ξ可以用于将原始RGB图像1601 ID分割成不同颜色信道1603到信道1605。ID,c是基于ξ进行分割的,并且像素使用以下公式进行变换:
和
参考图14,在步骤S1402处,在一个实施例中,LHE操作是局部直方图均衡技术,其针对任何对比度损失增强每一颜色信道(r、g、b)的图像对比度,所述对比度损失可由那卡-拉什顿补偿器引发。
图17为通过局部直方图操作增强已去雾RGB图像ID()1701和输出HDR图像IH()1702的图像对比度的实施实例。如图17中所绘示,HDR图像IH()1702中的对比度可以通过局部直方图操作来增强。对比度可由于均衡亮度但可能损失已去雾RGB图像ID()1701中的对比度的那卡-拉什顿补偿器而降低。
图18是绘示通过根据本发明的示例性实施例的RefiectNet推断模型去除HDR图像的反射的流程图。在步骡S1801处,在一个实施例中,ReflectNet推断模型可以使用通常用于分割网络的正常卷积和扩张卷积的组合进行设计。图19示出通过ReflectNet推断模型处理的输入已去雾图像1901和输出HDR图像1902的实施实例。如图19中所绘示,ReflectNet推断模型抑制来自输入已去雾图像1901的输出HDR图像1902中的任何反射引发的假象,所述假象可能归因于通过HDR增强的轻微反射的增强或本身来自反射条件。
图20是在本发明一个示例性实施例中的RefiectNet推断模型的架构。ReflectNet推断模型可以使用具有来自分割架构的预训练模型的编码器-解码器网络。编码器侧和预训练模型(来自分割架构)将创建将由解码器侧解码以用于相对于输出RGB图像分离反射图的超列特征。训练编码器-解码器架构以用于学习与反射去除相关的特征;而预训练模型提供习得的特征以执行空间分割。
参考图21,在一个实施例中,可以使用一对原始RGB图像和其反射图像训练ReflectNet推断模型。在这个实施例中,使用将两个图像混合成混合图像的ImageMix函数来生产数据集。原始RGB图像将用作地面实况,而混合图像作为输入。
在示例性实施例中,GTR表示原始RGB图像,并且I()表示混合图像或任何反射引发的RGB图像;O()和OR()分别是输出反射去除RGB图像和估计的反射图。损失函数计算为:
L(θ)=w1Lf(θ)+w2La(θ)+w3Lg(θ), (11)
其中w是均衡损失的权重,并且θ是网络权重。(11)中存在三个损失函数,包含特征损失、对抗损失以及梯度损失。特征损失计算如下:
这种损失将在模型运行地面实况GTR时的l层差异处的所选特征与来自输入RGB图像I()的结果进行比较。对抗损失测量O()的负对数概率以具有如下的自然地面实况:
最后,梯度损失测量地面实况与所得图像之间的对比度比较,以如下公式表示:
此损失函数中的双曲正切用于最小化O()与OR()之间的边缘偏差,I()中的边缘应该来自O()或OR(),而不是两者。
图22是将图像去雾方法的实施实例与现有技术中的基准方法进行比较的表。参考图22,性能评价由两个方法组成:(a)所提出的方法和(b)基准方法。两种方法都是使用相似框架的图像预处理算法。基于图5中的流程图,所提出的方法包含:图像去雾、HDR增强以及反射去除。为了确保评价公平性,使基准方法符合通用框架,其中每一函数都由现有技术的先前状态构造。举例来说,图像去雾使用颜色衰减来表示,如由D.恩戈(D.Ngo)等人教导的“用于单图像雾度去除的改进的颜色衰减先验(Improved Color Attenuation Prior forSingle-Image Haze Removal)”,《应用科学》,[线上(Online)],2019年9月;HDR增强由直方图均衡表示,如由OpenCV教导的,“直方图均衡(Histogram Equalization)”,开源计算机视觉(Open Source Computer Vision),[线上],2020年7月;反射去除由CEILNet表示,如由Q.法恩(Q.Fan)等人教导的“用于单图像反射去除和图像平滑的通用架构(GenericArchitecture for Single Image Reflection Removal and Image Smoothing)”,ICCV,2017年。所提出的方法和基准方法都使用如图22中所绘示的相同硬件和软件来实施。
图23是将图像去雾方法的实施实例与现有技术中的基准方法的性能评价进行比较的表。在示例性实施例中,可以实施包含基于熵的测量增强(Entropy-basedMeasurement Enhancement;EME)2301、对比度改进指数(Contrast Improvement Index;CII)2302、强度测量(Intensity Measure;IM)2303的各种度量,以对现有技术中的基准方法与所提出的图像去雾方法之间的感知质量执行定量评估。
基于熵的测量增强(EME)2301是用于基于熵测量得到输出与输入相比较的改进指数的度量。EME的较大分数表示熵信息的较高指数。EME2301的最大值是∞。在一个实施例中,EME 2301计算为:
其中Np是所比较的图像中的总像素,Nb是块大小的尺寸,且Iy和Oy是参考图像和输入图像。
对比度改进指数(CII)2302是用于基于对比度测量得到输出与输入相比较的改进指数的度量。CII 2302较大分数表示对比度改进的较高指数。CII 2302的最大值是∞。在一个实施例中,如下计算CII 2302:
其中Np是所比较的图像中的总像素,Nb是块大小的尺寸,且Iy和Oy是参考图像和输入图像。
强度测量(IM)2303是基于原始图像得到亮度耐性的比率的度量。IM 2303的较大分数表示图像亮度的较好耐性。IM 2303的最大值是1。在一个实施例中,IM 2303定义为:
其中Np是所比较图像中的总像素,且Iy和Oy是参考图像和输入图像。
在一个实施例中,基于通用框架顺序地对所有三个阶段进行评价。根据图23中的评价,所提出的方法在所有阶段中的所有度量中都胜过基准方法。这种方法包含图像去雾、HDR子模块以及反射去除功能。基于最终结果分数(参看反射去除结果),所提出的方法实现CII=2.695并且EME=2.336或比基准方法高+39.9%和高+17.5%。这些结果表明所提出的方法可以增强RGB图像中的对比度和熵信息。
在一个实施例中,在强度测量比率方面,所提出的方法能够保持平均74.8%的亮度;而基准方法能够保持平均55.2%的亮度。这种结果可展现所提出方法保持如原始图像将提供的亮度;同时去除雾度、反射以及对比率的能力。除了感知指数外,还根据时间复杂度对所提出的方法和基准方法进行评估。图23绘示在所有功能类别中,所提出的方法的时间复杂度低于基准方法。这相对于现有技术展现所提出方法的效率。
图24示出与现有技术中的通过基准方法处理的输出图像相比,通过根据本发明的示例性实施例的图像去雾方法处理的输入原始图像和输出图像的实例。参考图24,定性地,基准方法不能够稳定地去除雾度效应,这是因为基准方法引入几个过度平滑假象以及降低图像可见度的过度暗化效应。另一方面,与原始RGB相比较,所提出方法能够在轻微亮度损失和适当颜色再现的情况下去除雾度。
图25是示出与现有技术中对通过基准方法处理的原始RGB图像和RGB图像的对象检测的性能评价相比,对通过根据本发明的示例性实施例的图像去雾方法处理的RGB图像的对象检测的性能评价的表。评价使用基于IoU的计算来将预测与地面实况之间的重叠百分比微调为:
其中BD和BR分别是检测框和地面实况数据。
参考图25,在一个实施例中,使用IoU信息,测量真阳性(true positive;TP)、假阳性(false positive;FP)以及假阴性(false negative;FN)以获得准确度(ACC)2501和假阳性率(false positive rate;FPR)2502,如下列公式:
在一个实施例中,根据图25中的实验,来自所提出方法的所得图像实现较好的准确度和假阳性率。所提出的方法能够将准确度提高8.2%并将假阳性率降低10.9%,而基准方法将准确度提高1.9%并将假阳性率提高4.2%。这种现象显示基准方法可能过度增强其图像,以至于针对YOLOv3产生非所要假象以推断为对象。对象检测结果的可视化绘示于图26中。
对于本领域的技术人员将显而易见的是,可在不脱离本发明的范围或精神的情况下对所公开的实施例进行各种修改和变化。鉴于前述内容,希望本发明涵盖修改和变化,只要所述修改和变化属于所附权利要求书和其等效物的范围内。
Claims (24)
1.一种图像去雾方法,其特征在于,包括:
接收输入图像;
通过去雾模块对所述图像去雾以输出已去雾红绿蓝图像;
通过高动态范围模块恢复所述已去雾红绿蓝图像的图像亮度以输出高动态范围图像;以及
通过ReflectNet推断模型去除所述高动态范围图像的反射,其中所述ReflectNet推断模型使用深度学习架构。
2.根据权利要求1所述的图像去雾方法,其特征在于,其中,通过去雾模块对所述图像去雾以输出已去雾红绿蓝图像的步骤包括:
通过最小信道估计算法估计反转最小信道图;
通过引导式滤波算法将所述反转最小信道图细化成雾度透射图;
通过大气检测算法得到所述雾度透射图的强度值;以及
通过线性颜色重构算法恢复已去雾红绿蓝图像。
3.根据权利要求2所述的图像去雾方法,其特征在于,其中,通过最小信道估计算法估计反转最小信道图的步骤包括:
将所述输入图像分割成多个块片段,其中所述块片段中的每一个包括中心像素;以及
针对所有颜色信道得到块片段的具有最低强度值的像素。
4.根据权利要求2所述的图像去雾方法,其特征在于,其中,通过引导式滤波算法将所述反转最小信道图细化成雾度透射图的步骤包括:
使用软约束参数平滑所述反转最小信道图以控制形状细化;以及
使用拉普拉斯矩阵校正所述反转最小信道图。
5.根据权利要求2所述的图像去雾方法,其特征在于,其中,通过大气检测算法得到所述雾度透射图的强度值的步骤包括:
在所述雾度透射图中得到具有最低强度值的像素。
6.根据权利要求2所述的图像去雾方法,其特征在于,其中,通过线性颜色重构算法恢复已去雾红绿蓝图像的步骤包括:
使用所述雾度透射图和大气系数进行逐像素操作以计算所述已去雾红绿蓝图像的强度值,其中所述大气系数由所述大气检测算法得到。
7.根据权利要求1所述的图像去雾方法,其特征在于,其中,通过高动态范围模块恢复所述已去雾红绿蓝图像的图像亮度以输出高动态范围图像的步骤包括:
通过那卡-拉什顿补偿器增强所述已去雾红绿蓝图像的图像亮度;以及
通过局部直方图操作增强所述已去雾红绿蓝图像的图像对比度。
8.根据权利要求7所述的图像去雾方法,其特征在于,其中,通过那卡-拉什顿补偿器增强所述已去雾红绿蓝图像的图像亮度的步骤包括:
执行颜色校正,所述颜色校正将所述已去雾红绿蓝图像的颜色信道转化成亮度图;
使用所述亮度图计算用于分割所述已去雾红绿蓝图像中的亮像素和暗像素的阈值;以及
使用从所述亮度图计算的补偿系数变换所述已去雾红绿蓝图像的像素。
9.根据权利要求7所述的图像去雾方法,其特征在于,其中,通过局部直方图操作增强所述已去雾红绿蓝图像的图像对比度的步骤包括:
针对所述已去雾红绿蓝图像执行强度的直方图均衡。
10.根据权利要求1所述的图像去雾方法,其特征在于,其中,所述ReflectNet推断模型包括具有预训练图像分割模型的特征的编码器-解码器网络,以使反射图与所述图像分离。
11.根据权利要求1所述的图像去雾方法,其特征在于,其中,通过ReflectNet推断模型去除所述高动态范围图像的反射的步骤包括:
编码来自所述高动态范围图像的特征;以及
解码所述特征以输出红绿蓝图像。
12.根据权利要求1所述的图像去雾方法,其特征在于,其中,所述ReflectNet推断模型使用损失函数进行训练,所述损失函数包括:
特征损失;
对抗损失;以及
梯度损失。
13.一种图像去雾设备,其特征在于,包括:
传感器;以及
处理器,耦合到所述传感器,且所述处理器配置成至少用于进行以下操作:
接收输入图像;
通过去雾模块对所述图像去雾以输出已去雾红绿蓝图像;
通过高动态范围模块恢复所述已去雾红绿蓝图像的图像亮度以输出高动态范围图像;以及
通过ReflectNet推断模型去除所述高动态范围图像的反射,其中所述ReflectNet推断模型使用深度学习架构。
14.根据权利要求13所述的图像去雾设备,其特征在于,其中,所述处理器配置成用于通过去雾模块对所述图像去雾以输出已去雾红绿蓝图像,所述处理器进一步配置成用于进行以下操作:
通过最小信道估计算法估计反转最小信道图;
通过引导式滤波算法将所述反转最小信道图细化成雾度透射图;
通过大气检测算法得到所述雾度透射图的强度值;以及
通过线性颜色重构算法恢复已去雾红绿蓝图像。
15.根据权利要求13所述的图像去雾设备,其特征在于,其中,所述处理器配置成用于通过最小信道估计算法估计反转最小信道图,所述处理器进一步配置成用于进行以下操作:
将所述输入图像分割成多个块片段,其中所述块片段中的每一个包括中心像素;以及
针对所有颜色信道得到块片段的具有最低强度值的像素。
16.根据权利要求13所述的图像去雾设备,其特征在于,其中,所述处理器配置成用于通过引导式滤波算法将所述反转最小信道图细化成雾度透射图,所述处理器进一步配置成用于进行以下操作:
使用软约束参数平滑所述反转最小信道图以控制形状细化;以及
使用拉普拉斯矩阵校正所述反转最小信道图。
17.根据权利要求13所述的图像去雾设备,其特征在于,其中,所述处理器配置成用于通过大气检测算法得到所述雾度透射图的强度值,所述处理器进一步配置成用于进行以下操作:
在所述雾度透射图中得到具有最低强度值的像素。
18.根据权利要求13所述的图像去雾设备,其特征在于,其中,所述处理器配置成用于通过线性颜色重构算法恢复已去雾红绿蓝图像,所述处理器进一步配置成用于进行以下操作:
使用所述雾度透射图和大气系数进行逐像素操作以计算所述已去雾红绿蓝图像的强度值,其中所述大气系数由所述大气检测算法得到。
19.根据权利要求13所述的图像去雾设备,其特征在于,其中,所述处理器配置成用于通过高动态范围模块恢复所述已去雾红绿蓝图像的图像亮度以输出高动态范围图像,所述处理器进一步配置成用于进行以下操作:
通过那卡-拉什顿补偿器增强所述已去雾红绿蓝图像的图像亮度;以及
通过局部直方图操作增强所述已去雾红绿蓝图像的图像对比度。
20.根据权利要求19所述的图像去雾设备,其特征在于,其中,所述处理器配置成用于通过那卡-拉什顿补偿器增强所述已去雾红绿蓝图像的图像亮度,所述处理器进一步配置成用于进行以下操作:
执行颜色校正,所述颜色校正将所述已去雾红绿蓝图像的颜色信道转化成亮度图;
使用所述亮度图计算用于分割所述已去雾红绿蓝图像中的亮像素和暗像素的阈值;以及
使用从所述亮度图计算的补偿系数变换所述已去雾红绿蓝图像的像素。
21.根据权利要求19所述的图像去雾设备,其特征在于,其中,所述处理器配置成用于通过局部直方图操作增强所述已去雾红绿蓝图像的图像对比度,所述处理器进一步配置成用于进行以下操作:
针对所述已去雾红绿蓝图像执行强度的直方图均衡。
22.根据权利要求13所述的图像去雾设备,其特征在于,其中,所述ReflectNet推断模型进一步配置成用于具有预训练图像分割模型的特征的编码器-解码器网络,以使反射图与所述图像分离。
23.根据权利要求13所述的图像去雾设备,其特征在于,其中,所述处理器配置成用于通过ReflectNet推断模型去除所述高动态范围图像的反射,所述处理器进一步配置成用于进行以下操作:
编码来自所述高动态范围图像的特征;以及
解码所述特征以输出红绿蓝图像。
24.根据权利要求13所述的图像去雾设备,其特征在于,其中,所述ReflectNet推断模型使用损失函数进行训练,所述损失函数包括:
特征损失;
对抗损失;以及
梯度损失。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/134,216 US11528435B2 (en) | 2020-12-25 | 2020-12-25 | Image dehazing method and image dehazing apparatus using the same |
US17/134,216 | 2020-12-25 | ||
TW110113181 | 2021-04-13 | ||
TW110113181A TWI808406B (zh) | 2020-12-25 | 2021-04-13 | 圖像去霧方法和使用圖像去霧方法的圖像去霧設備 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114693542A true CN114693542A (zh) | 2022-07-01 |
Family
ID=82135715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110688264.0A Pending CN114693542A (zh) | 2020-12-25 | 2021-06-21 | 图像去雾方法和使用图像去雾方法的图像去雾设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114693542A (zh) |
-
2021
- 2021-06-21 CN CN202110688264.0A patent/CN114693542A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI808406B (zh) | 圖像去霧方法和使用圖像去霧方法的圖像去霧設備 | |
US11037278B2 (en) | Systems and methods for transforming raw sensor data captured in low-light conditions to well-exposed images using neural network architectures | |
CN108694705B (zh) | 一种多帧图像配准与融合去噪的方法 | |
Eigen et al. | Restoring an image taken through a window covered with dirt or rain | |
Park et al. | Single image dehazing with image entropy and information fidelity | |
US8878963B2 (en) | Apparatus and method for noise removal in a digital photograph | |
CN107424133B (zh) | 图像去雾方法、装置、计算机可存储介质和移动终端 | |
KR102261532B1 (ko) | 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법 | |
CN111612741B (zh) | 一种基于失真识别的精确无参考图像质量评价方法 | |
CN113298810A (zh) | 结合图像增强和深度卷积神经网络的道线检测方法 | |
CN113313702A (zh) | 基于边界约束与颜色校正的航拍图像去雾方法 | |
WO2021179764A1 (zh) | 图像处理模型生成方法、处理方法、存储介质及终端 | |
CN112053302A (zh) | 高光谱图像的去噪方法、装置及存储介质 | |
CN115393216A (zh) | 基于偏振特性与大气传输模型的图像去雾方法和装置 | |
Singh et al. | Visibility enhancement and dehazing: Research contribution challenges and direction | |
CN115187688A (zh) | 基于大气光偏振正交盲分离的雾图重构方法及电子设备 | |
Senthilkumar et al. | A review on haze removal techniques | |
CN116883868A (zh) | 基于自适应图像去雾的无人机智能巡航检测方法 | |
CN114693542A (zh) | 图像去雾方法和使用图像去雾方法的图像去雾设备 | |
Negru et al. | Exponential image enhancement in daytime fog conditions | |
CN104732503B (zh) | 图像去雾增强方法和装置 | |
Mittal et al. | IoT based image defogging system for road accident control during winters | |
Jiji et al. | A novel technique for enhancing color of undersea deblurred imagery | |
Jayanthi et al. | Underwater haze removal using contrast boosted grayscale image | |
Park et al. | Variational image dehazing using a fuzzy membership function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |