CN114202472A - 一种高精度水下成像方法和装置 - Google Patents
一种高精度水下成像方法和装置 Download PDFInfo
- Publication number
- CN114202472A CN114202472A CN202111388971.4A CN202111388971A CN114202472A CN 114202472 A CN114202472 A CN 114202472A CN 202111388971 A CN202111388971 A CN 202111388971A CN 114202472 A CN114202472 A CN 114202472A
- Authority
- CN
- China
- Prior art keywords
- underwater
- image
- scene radiation
- graph
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 65
- 230000005855 radiation Effects 0.000 claims abstract description 85
- 230000015556 catabolic process Effects 0.000 claims abstract description 34
- 238000006731 degradation reaction Methods 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims abstract description 17
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 11
- 238000010586 diagram Methods 0.000 claims abstract description 7
- 238000002834 transmittance Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 24
- 238000010276 construction Methods 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 13
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000004088 simulation Methods 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 238000013459 approach Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 238000012937 correction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种高精度水下成像方法和装置,其中,该方法包括:构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;从水下失真图像估计透射率图和背景光图,根据水下成像公式将场景辐射图、透射率图和背景光图合成模拟水下失真图像;基于水下失真图像,构建先验判别子网络,输入为场景辐射图,输出水下图像降质程度;基于水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。本发明针对利用深度学习解决水下成像问题时面临的水下图像没有真值的问题,避免了对于真值图的依赖,结合水下成像模型,利用一张水下失真图像恢复出清晰、高对比度以及颜色校正的水下图像。
Description
技术领域
本发明涉及水下成像等技术领域,尤其涉及一种高精度水下成像方法和装置。
背景技术
近年来,海洋环境探测特别是水下探测技术越来越得到人们的关注。水下资源开发的迫切需求对高质量的水下成像技术提出了要求。水下成像技术主要受两方面因素的制约:一是受水体和水中粒子的吸收,二是受水体和水中粒子的散射,造成水下图像颜色偏移,对比度低,图像模糊的问题,因此恢复水下场景正常颜色、提高对比度、增强细节成为许多学者研究的重点。
传统的水下成像方法分为两部分,一部分为基于物理成像模型的图像复原方法,例如Schechner等人提出了经典的水下偏振成像模型,通过计算后向散射光的偏振度对透射率进行估计,进而根据水下成像模型反演恢复对比度增强的图像;另一部分为基于图像增强的手段来改善水下图像的视觉质量,通过对两个预先进行颜色校正和滤波处理的退化图像作为融合的输入,可以获得符合期望的结果。但传统的水下成像方法面临算法复杂、普适性差的问题。
近年来随着深度学习的快速发展,利用神经网络恢复水下图像的方法越来越多。用CycleGAN网络生成水下图像数据集,然后提出了另一种网络UGAN用于恢复水下图像。WaterGAN网络生成一个包含相对深度、地面彩色图像和逼真的水下图像的大型训练数据集,将这些数据用作两阶段网络的输入,用于单目图像的色彩校正。构建了水下图片的数据集UIEBD并提出了一种基于fusion的水下图片增强模型DUIENet,该网络将输入和预测的置信度图融合以实现增强的结果。但由于水下环境的特殊性,真实的水下场景的数据集很少,利用少量的数据集很难从水下图像中学习到先验信息。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,针对上述问题,本发明提出了一种高精度水下成像方法,规避了水下图像没有真值的问题,结合水下成像模型和视觉增强方法,利用一张水下失真图像恢复出清晰、高对比度以及颜色校正的水下图像。
本发明的另一个目的在于提出一种高精度水下成像装置。
为达上述目的,本发明一方面提出了一种高精度水下成像方法,包括以下步骤:
S1,构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;
S2,从所述水下失真图像估计透射率图和背景光图,根据水下成像公式将所述场景辐射图、透射率图和所述背景光图合成模拟水下失真图像;
S3,基于所述水下失真图像,构建先验判别子网络,输入为所述场景辐射图,输出水下图像降质程度;
S4,基于所述水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。
本发明实施例的高精度水下成像方法,构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;从水下失真图像估计透射率图和背景光图,根据水下成像公式将场景辐射图、透射率图和背景光图合成模拟水下失真图像;基于水下失真图像,构建先验判别子网络,输入为场景辐射图,输出水下图像降质程度;基于水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。本发明针对利用深度学习解决水下成像问题时面临的水下图像没有真值的问题,避免了对于真值图的依赖,结合水下成像模型和视觉增强方法,利用一张水下失真图像恢复出清晰、高对比度以及颜色校正的水下图像。
另外,根据本发明上述实施例的高精度水下成像方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述S1,包括:引入自注意力机制,并采用残差结构,所述输出为与所述输入相同大小的具有三通道的图像;其中,所述自注意力机制包含BN层、自注意力层以及ReLU层。
进一步地,在本发明的一个实施例中,所述从所述水下失真图像估计透射率图和背景光图,包括:利用颜色图像的Non-local先验信息以及水下图像红色通道衰减的先验信息,估计出水下图像的透射率图和背景光图。
进一步地,在本发明的一个实施例中,所述从所述水下失真图像估计透射率图和背景光图,包括:利用颜色图像的Non-local先验信息以及水下图像红色通道衰减的先验信息,估计出水下图像的透射率图和背景光图。
进一步地,在本发明的一个实施例中,所述S3,包括:先验判别子网络,在最后一层采用sigmoid函数,将输出归一化到[0,1]区间内,输出为水下图像降质程度;其中,所述先验判别子网络包括采用T2T-ViT网络的T2T module和Deep-Narrow形式的骨干结构中的多种。
进一步地,在本发明的一个实施例中,所述S4,包括:建立损失函数,所述损失函数包括两部分,第一部分为场景辐射子网络的损失函数,第二部分为水下图像降质程度,基于所述损失函数,利用Adam梯度下降算法优化网络参数,使模拟水下失真图像趋近于采集的所述水下失真图像,并同时最小化水下图像降质程度。
进一步地,在本发明的一个实施例中,所述引入自注意力机制,并采用残差结构,所述输出为与所述输入相同大小的具有三通道的图像,包括:利用Non-local估计透射率图和背景光图将所述三通道的图像以所述水下物理成像公式的方式结合构建得到
进一步地,在本发明的一个实施例中,所述损失函数,其中,
第一个为:
Erec=||I(x)-I’(x)||2
第二个为:
进一步地,在本发明的一个实施例中,所述S3,还包括:将场景辐射图输入训练好的先验判别子网络中,输出为水下图像的降质程度P,将降质程度P加入损失函数中,并最小化所述损失函数,更新场景辐射子网络,输出优化后的场景辐射图J(x)为预设清晰度的水下图像。
为达到上述目的,本发明另一方面提出了一种高精度水下成像装置,包括:
第一构建模块,用于构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;
合成模拟模块,用于从所述水下失真图像估计透射率图和背景光图,根据水下成像公式将所述场景辐射图、透射率图和所述背景光图合成模拟水下失真图像;
第二构建模块,用于基于所述水下失真图像,构建先验判别子网络,输入为所述场景辐射图,输出水下图像降质程度;
图像输出模块,用于基于所述水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。
本发明实施例的高精度水下成像装置,第一构建模块,用于构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;合成模拟模块,用于从水下失真图像估计透射率图和背景光图,根据水下成像公式将场景辐射图、透射率图和背景光图合成模拟水下失真图像;第二构建模块,用于基于水下失真图像,构建先验判别子网络,输入为场景辐射图,输出水下图像降质程度;图像输出模块,用于基于水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。本发明针对利用深度学习解决水下成像问题时面临的水下图像没有真值的问题,避免了对于真值图的依赖,结合水下成像模型和视觉增强方法,利用一张水下失真图像恢复出清晰、高对比度以及颜色校正的水下图像。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的高精度水下成像方法的流程图;
图2为根据本发明实施例的网络结构示意图;
图3为根据本发明实施例的高精度水下成像装置结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
下面参照附图描述根据本发明实施例提出的高精度水下成像方法及装置。
图1是本发明一个实施例的高精度水下成像方法的流程图。
如图1所示,该高精度水下成像方法包括以下步骤:
S1,构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图。
S2,从水下失真图像估计透射率图和背景光图,根据水下成像公式将场景辐射图、透射率图和背景光图合成模拟水下失真图像;
S3,基于水下失真图像,构建先验判别子网络,输入为场景辐射图,输出水下图像降质程度;
S4,基于水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。
作为一种示例,本发明包括但不限于引入自注意力机制,并采用残差结构,输出为与输入相同大小的具有三通道的图像;其中,自注意力机制包含BN层、自注意力层以及ReLU层。
作为一种示例,本发明利用颜色图像的Non-local先验信息以及水下图像红色通道衰减大的先验信息,估计出水下图像的透射率图和背景光图。
作为一种示例,本发明的先验判别子网络包括但不限制于采用T2T-ViT网络的T2Tmodule和Deep-Narrow形式的骨干结构,在最后一层采用sigmoid函数,将输出归一化到[0,1]区间内,输出为水下图像降质程度。
作为一种示例,本发明建立损失函数,包括两部分,第一部分为场景辐射子网络的损失函数,第二部分为水下图像降质程度,利用Adam梯度下降算法优化网络参数,使合成的模拟水下失真图像趋近于采集的水下失真图像,并同时最小化水下图像降质程度。
下面结合附图对本发明实施例做进一步阐述。
图2为根据本发明实施例的网络结构示意图,如图2所示:
首先在水下通过相机,采集一张失真的水下图像I(x)。将该图输入进网络中,引入自注意力机制,将输入图像分块,在每一块图像块中做自注意力处理。该网络包含了BN层、自注意力层以及ReLU层,并采用采用残差结构,输出为与输入相同大小的具有三通道的图像利用Non-local估计透射率图和背景光图将3幅图像以水下物理成像公式的方式结合起来构建得到
网络采用的损失函数有两个,第一个为:
Erec=||I(x)-I’(x)||2
Erec设计的目的在于优化网络参数,从而使输出的场景辐射图可以更好地去合成水下失真图像。
第二个为:
先验网络采用T2T-ViT网络的T2T module和Deep-Narrow形式的骨干结构,在最后一层采用sigmoid函数,将输出归一化到[0,1]区间内。训练时不需水下图像-真值图对应的图像对,只需训练集有一部分是水下图像一部分是地上图像即可。将场景辐射图输入进训练好的先验网络中,输出为水下图像的降质程度P。将P加进损失函数中,并最小化损失函数,更新场景辐射子网络,输出优化后的场景辐射图J(x)为清晰的高精度水下图像。
综上,本发明构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;从采集的水下失真图像估计透射率图和背景光图;将场景辐射图、透射率图和背景光图合成模拟水下失真图像;构建先验判别子网络,输入为场景辐射图,输出水下图像降质程度;优化场景辐射子网络参数,使合成的模拟水下失真图像趋近于采集的水下失真图像,并同时最小化水下图像降质程度;输出优化后的高精度场景辐射图。
本发明实施例的高精度水下成像方法,针对利用深度学习解决水下成像问题时面临的水下图像没有真值的问题,避免了对于真值图的依赖,结合水下成像模型和视觉增强方法,利用一张水下失真图像恢复出清晰、高对比度以及颜色校正的水下图像。
为了实现上述实施例,如图3所示,本实施例中还提供了高精度水下成像装置10,该装置10包括:第一构建模块100、合成模拟模块200、第二构建模块300和图像输出模块400。
第一构建模块100,用于构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;
合成模拟模块200,用于从水下失真图像估计透射率图和背景光图,根据水下成像公式将场景辐射图、透射率图和背景光图合成模拟水下失真图像;
第二构建模块300,用于基于水下失真图像,构建先验判别子网络,输入为场景辐射图,输出水下图像降质程度;
图像输出模块400,用于基于水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。
进一步地,上述第一构建模块100,还用于:引入自注意力机制,并采用残差结构,输出为与输入相同大小的具有三通道的图像;其中,自注意力机制包含BN层、自注意力层以及ReLU层。
根据本发明实施例的高精度水下成像装置,通过第一构建模块,用于构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;合成模拟模块,用于从水下失真图像估计透射率图和背景光图,根据水下成像公式将场景辐射图、透射率图和背景光图合成模拟水下失真图像;第二构建模块,用于基于水下失真图像,构建先验判别子网络,输入为场景辐射图,输出水下图像降质程度;图像输出模块,用于基于水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。本发明针对利用深度学习解决水下成像问题时面临的水下图像没有真值的问题,避免了对于真值图的依赖,结合水下成像模型和视觉增强方法,利用一张水下失真图像恢复出清晰、高对比度以及颜色校正的水下图像。
需要说明的是,前述对高精度水下成像方法实施例的解释说明也适用于该实施例的高精度水下成像装置,此处不再赘述。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种高精度水下成像方法,其特征在于,包括以下步骤:
S1,构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;
S2,从所述水下失真图像估计透射率图和背景光图,根据水下成像公式将所述场景辐射图、透射率图和所述背景光图合成模拟水下失真图像;
S3,基于所述水下失真图像,构建先验判别子网络,输入为所述场景辐射图,输出水下图像降质程度;
S4,基于所述水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。
2.根据权利要求1所述的高精度水下成像方法,其特征在于,所述S1,包括:
引入自注意力机制,并采用残差结构,所述输出为与所述输入相同大小的具有三通道的图像;其中,所述自注意力机制包含BN层、自注意力层以及ReLU层。
3.根据权利要求1所述的高精度水下成像方法,其特征在于,所述从所述水下失真图像估计透射率图和背景光图,包括:
利用颜色图像的Non-local先验信息以及水下图像红色通道衰减的先验信息,估计出水下图像的透射率图和背景光图。
4.根据权利要求1所述的高精度水下成像方法,其特征在于,所述S3,包括:
先验判别子网络,在最后一层采用sigmoid函数,将输出归一化到[0,1]区间内,输出为水下图像降质程度;其中,所述先验判别子网络包括采用T2T-ViT网络的T2T module和Deep-Narrow形式的骨干结构中的多种。
5.根据权利要求1所述的高精度水下成像方法,其特征在于,所述S4,包括:
建立损失函数,所述损失函数包括两部分,第一部分为场景辐射子网络的损失函数,第二部分为水下图像降质程度,基于所述损失函数,利用Adam梯度下降算法优化网络参数,使模拟水下失真图像趋近于采集的所述水下失真图像,并同时最小化水下图像降质程度。
9.一种高精度水下成像装置,其特征在于,包括:
第一构建模块,用于构建场景辐射子网络,输入为采集的水下失真图像,输出为场景辐射图;
合成模拟模块,用于从所述水下失真图像估计透射率图和背景光图,根据水下成像公式将所述场景辐射图、透射率图和所述背景光图合成模拟水下失真图像;
第二构建模块,用于基于所述水下失真图像,构建先验判别子网络,输入为所述场景辐射图,输出水下图像降质程度;
图像输出模块,用于基于所述水下图像降质程度,优化场景辐射子网络参数,以输出优化后的高精度场景辐射图。
10.根据权利要求9所述的高精度水下成像装置,其特征在于,所述第一构建模块,还用于:
引入自注意力机制,并采用残差结构,所述输出为与所述输入相同大小的具有三通道的图像;其中,所述自注意力机制包含BN层、自注意力层以及ReLU层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111388971.4A CN114202472A (zh) | 2021-11-22 | 2021-11-22 | 一种高精度水下成像方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111388971.4A CN114202472A (zh) | 2021-11-22 | 2021-11-22 | 一种高精度水下成像方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114202472A true CN114202472A (zh) | 2022-03-18 |
Family
ID=80648345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111388971.4A Pending CN114202472A (zh) | 2021-11-22 | 2021-11-22 | 一种高精度水下成像方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114202472A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116309232A (zh) * | 2023-05-15 | 2023-06-23 | 中国海洋大学 | 一种结合物理先验与深度学习的水下图像增强方法 |
CN116363012A (zh) * | 2023-04-11 | 2023-06-30 | 河海大学 | 一种抑制场景光源扰动的水下图像恢复方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150254810A1 (en) * | 2014-03-07 | 2015-09-10 | The University Of British Columbia | System and method for solving inverse imaging problems |
CN111861939A (zh) * | 2020-07-30 | 2020-10-30 | 四川大学 | 一种基于无监督学习的单张图像去雾方法 |
CN113052776A (zh) * | 2021-04-09 | 2021-06-29 | 北京邮电大学 | 基于多尺度深度图像先验的无监督图像去雾方法 |
-
2021
- 2021-11-22 CN CN202111388971.4A patent/CN114202472A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150254810A1 (en) * | 2014-03-07 | 2015-09-10 | The University Of British Columbia | System and method for solving inverse imaging problems |
CN111861939A (zh) * | 2020-07-30 | 2020-10-30 | 四川大学 | 一种基于无监督学习的单张图像去雾方法 |
CN113052776A (zh) * | 2021-04-09 | 2021-06-29 | 北京邮电大学 | 基于多尺度深度图像先验的无监督图像去雾方法 |
Non-Patent Citations (1)
Title |
---|
李社蕾 等: "基于暗原色先验模型的水下图像增强算法", 计算机技术与发展, 28 May 2018 (2018-05-28) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116363012A (zh) * | 2023-04-11 | 2023-06-30 | 河海大学 | 一种抑制场景光源扰动的水下图像恢复方法和装置 |
CN116363012B (zh) * | 2023-04-11 | 2024-01-30 | 河海大学 | 一种抑制场景光源扰动的水下图像恢复方法和装置 |
CN116309232A (zh) * | 2023-05-15 | 2023-06-23 | 中国海洋大学 | 一种结合物理先验与深度学习的水下图像增强方法 |
CN116309232B (zh) * | 2023-05-15 | 2023-08-18 | 中国海洋大学 | 一种结合物理先验与深度学习的水下图像增强方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cao et al. | Underwater image restoration using deep networks to estimate background light and scene depth | |
CN114202472A (zh) | 一种高精度水下成像方法和装置 | |
CN110827210B (zh) | 一种基于颜色曲线分解的水下图像清晰化方法及系统 | |
CN113077505B (zh) | 一种基于对比学习的单目深度估计网络的优化方法 | |
CN111275638B (zh) | 基于多通道注意力选择生成对抗网络的人脸修复方法 | |
CN112508812B (zh) | 图像色偏校正方法、模型训练方法、装置及设备 | |
CN114066831B (zh) | 一种基于两阶段训练的遥感图像镶嵌质量无参考评价方法 | |
CN109584188A (zh) | 一种基于卷积神经网络的图像去雾方法 | |
CN110223251A (zh) | 适用于人工与自然光源的卷积神经网络水下图像复原方法 | |
CN111861949B (zh) | 一种基于生成对抗网络的多曝光图像融合方法及系统 | |
CN104331867B (zh) | 图像去雾的方法、装置及移动终端 | |
CN114862707B (zh) | 一种多尺度特征恢复图像增强方法、装置及存储介质 | |
CN116703752A (zh) | 融合近红外的Transformer结构的图像去雾方法及装置 | |
CN114881879A (zh) | 一种基于亮度补偿残差网络的水下图像增强方法 | |
US11783454B2 (en) | Saliency map generation method and image processing system using the same | |
CN114945943A (zh) | 基于虹膜大小估计深度 | |
CN112215766B (zh) | 一种图像复原与图像增强相融合的图像去雾方法及其卷积网络 | |
CN113191962B (zh) | 基于环境背景光的水下图像颜色恢复方法、装置及存储介质 | |
CN111161159A (zh) | 一种基于先验知识与深度学习结合的图像去雾方法和装置 | |
CN112785517B (zh) | 一种基于高分辨率表征的图像去雾方法和装置 | |
CN114119383A (zh) | 一种基于多特征融合的水下图像复原方法 | |
CN117726545A (zh) | 一种使用非局部雾线和多重曝光融合的图像去雾方法 | |
CN111968039A (zh) | 基于硅传感器相机的昼夜通用图像处理方法、装置及设备 | |
CN114529460A (zh) | 低照度场景智慧公路监测快速去雾方法、装置和电子设备 | |
Huang et al. | Unsupervised image dehazing based on improved generative adversarial networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |