CN113191992A - 一种基于低秩分解与融合的水下图像增强方法 - Google Patents
一种基于低秩分解与融合的水下图像增强方法 Download PDFInfo
- Publication number
- CN113191992A CN113191992A CN202110393892.6A CN202110393892A CN113191992A CN 113191992 A CN113191992 A CN 113191992A CN 202110393892 A CN202110393892 A CN 202110393892A CN 113191992 A CN113191992 A CN 113191992A
- Authority
- CN
- China
- Prior art keywords
- image
- detail
- 1basic
- 2basic
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 230000004927 fusion Effects 0.000 title claims abstract description 63
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 39
- 238000012937 correction Methods 0.000 claims abstract description 6
- 230000000873 masking effect Effects 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 36
- 239000011159 matrix material Substances 0.000 claims description 33
- 239000000126 substance Substances 0.000 claims description 12
- 238000012935 Averaging Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 claims description 7
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 abstract description 8
- 230000008447 perception Effects 0.000 abstract description 2
- 238000003384 imaging method Methods 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013441 quality evaluation Methods 0.000 description 4
- 241000196171 Hydrodictyon reticulatum Species 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 239000013618 particulate matter Substances 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于低秩分解与融合的水下图像增强方法,其先获得颜色校正后的水下图像;对颜色校正后的水下图像进行处理,采用伽马校正方法获得高对比图像,采用归一化非锐化掩蔽方法获得细节突出图像;对高对比图像和细节突出图像各自的L通道进行低秩分解得到各自的第一层基础层图像和第一层细节层图像,再获取各自的第二层基础层图像和第二层细节层图像;对第二层基础层图像进行简单加权融合,采用核范数对第一层细节层图像进行融合、对第二层细节层图像进行融合;对三个融合结果进行加和得到L通道,结合a通道和b通道各自的均值得到增强结果图像;优点是能在保留大量图像细节的情况下进行融合,能提高融合结果的主观感知和客观评价分数。
Description
技术领域
本发明涉及一种水下图像增强方法,尤其是涉及一种基于低秩分解与融合的水下图像增强方法。
背景技术
水下视觉是海洋科学研究和海洋工程中最基本的部分之一,如水下成像技术,有助于海底勘探研究海洋生物学和检查地质环境,除此以外,自主水下航行器(AUV)也可以依靠水下视觉在复杂条件下控制自身。然而,水下成像受光衰减和散射光以及低端光学成像设备的影响,会导致最终成像结果出现多种问题。例如,光衰减会导致水下图像内光照强度较弱,并会引入颜色偏移,而周围的散射光会导致场景的外观被模糊掉,因此水下图像通常会发生退化,如低对比度、颜色偏移和噪声。除此以外,水下成像还受其他几个重要因素的影响,包括水温和盐度,以及水中颗粒物的类型和数量。严峻的水下环境使得水下图像的外观和颜色难以恢复,而颜色和对比度对于水下视觉任务和研究是极其重要的。因此,如何有效地增强水下图像,使其接近于无水的地面图像已成为一个具有挑战性的问题。
传统的水下图像增强方法往往只关注颜色或者对比度中的其中一个,然而,这种水下图像增强方法的处理结果并不符合人眼对于水下图像的期望,不但如此,这种水下图像增强方法的处理结果在客观上也不符合一幅优秀图像的评价。因此,传统的水下图像增强方法演变出了基于融合的策略,将多方面的处理结果进行有效地融合,获得符合人眼期望的水下图像,同时在客观评价上也能获得优秀的成绩。但是,普通的融合方法并不能完美地融合图像,通常都是以损失图像细节作为代价。所以如何在保留图像细节的情况下,尽可能地融合出优秀的水下图像是目前水下图像融合领域中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于低秩分解与融合的水下图像增强方法,其能够在保留大量图像细节的情况下进行融合,进而能够有效地提高融合结果的主观感知和客观评价分数。
本发明解决上述技术问题所采用的技术方案为:一种基于低秩分解与融合的水下图像增强方法,其特征在于包括以下步骤:
步骤1:将水下图像的R通道、G通道和B通道对应记为{IR(i,j)}、{IG(i,j)}和{IB(i,j)};然后采用通道补偿方法对{IR(i,j)}中的每个像素点的像素值进行补偿处理,得到补偿后的R通道,记为{IRC(i,j)};对{IG(i,j)}中的每个像素点的像素值不进行补偿处理;对于{IB(i,j)},若人眼主观判定水下图像明显偏绿,则对{IB(i,j)}中的每个像素点的像素值进行补偿处理,得到补偿后的B通道,记为{IBC(i,j)},否则,对{IB(i,j)}中的每个像素点的像素值不进行补偿处理;若人眼主观判定水下图像明显偏绿,则将{IRC(i,j)}、{IG(i,j)}和{IBC(i,j)}组合成补偿后的水下图像,否则,将{IRC(i,j)}、{IG(i,j)}和{IB(i,j)}组合成补偿后的水下图像;其中,1≤i≤Width,1≤j≤Height,Width表示水下图像的宽度,Height表示水下图像的高度,IR(i,j)表示{IR(i,j)}中坐标位置为(i,j)的像素点的像素值,IG(i,j)表示{IG(i,j)}中坐标位置为(i,j)的像素点的像素值,IB(i,j)表示{IB(i,j)}中坐标位置为(i,j)的像素点的像素值,IRC(i,j)表示{IRC(i,j)}中坐标位置为(i,j)的像素点的像素值,IBC(i,j)表示{IBC(i,j)}中坐标位置为(i,j)的像素点的像素值,补偿后的水下图像的宽度为Width且高度为Height;
步骤2:对补偿后的水下图像依次进行灰度世界白平衡处理和直方图对比度调整,得到颜色校正后的水下图像,记为{I'(i,j)};其中,{I'(i,j)}的宽度为Width且高度为Height,I'(i,j)表示{I'(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤3:采用伽马校正方法对{I'(i,j)}进行处理,得到色彩鲜艳的高对比图像,记为{I'1(i,j)};并采用归一化非锐化掩蔽方法对{I'(i,j)}进行处理,得到细节突出图像,记为{I'2(i,j)};其中,{I'1(i,j)}和{I'2(i,j)}的宽度为Width且高度为Height,I'1(i,j)表示{I'1(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2(i,j)表示{I'2(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤4:将{I'1(i,j)}和{I'2(i,j)}分别由RGB颜色空间转换至Lab颜色空间;然后对{I'1(i,j)}的L通道进行低秩分解,得到{I'1(i,j)}的第一层基础层图像和第一层细节层图像,对应记为{I'1basic(i,j)}和{I'1detail(i,j)};同样,对{I'2(i,j)}的L通道进行低秩分解,得到{I'2(i,j)}的第一层基础层图像和第一层细节层图像,对应记为{I'2basic(i,j)}和{I'2detail(i,j)};再对{I'1basic(i,j)}进行低秩分解,得到{I'1(i,j)}的第二层基础层图像和第二层细节层图像,对应记为{I'1basic_basic(i,j)}和{I'1basic_detail(i,j)};同样,对{I'2basic(i,j)}进行低秩分解,得到{I'2(i,j)}的第二层基础层图像和第二层细节层图像,对应记为{I'2basic_basic(i,j)}和{I'2basic_detail(i,j)};其中,{I'1basic(i,j)}、{I'1detail(i,j)}、{I'2basic(i,j)}、{I'2detail(i,j)}、{I'1basic_basic(i,j)}、{I'1basic_detail(i,j)}、{I'2basic_basic(i,j)}、{I'2basic_detail(i,j)}的宽度为Width且高度为Height,I'1basic(i,j)表示{I'1basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'1detail(i,j)表示{I'1detail(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2basic(i,j)表示{I'2basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2detail(i,j)表示{I'2detail(i,j)}中坐标位置为(i,j)的像素点的像素值,I'1basic_basic(i,j)表示{I'1basic_basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'1basic_detail(i,j)表示{I'1basic_detail(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2basic_basic(i,j)表示{I'2basic_basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2basic_detail(i,j)表示{I'2basic_detail(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤5:对{I'1basic_basic(i,j)}和{I'2basic_basic(i,j)}进行简单加权融合,将融合得到的图像作为基础层融合图像,并记为{I'basic(i,j)};采用核范数融合技术对{I'1detail(i,j)}和{I'2detail(i,j)}进行融合,将融合得到的图像作为第一细节层融合图像,并记为{I'detail_1(i,j)};同样,采用核范数融合技术对{I'1basic_detail(i,j)}和{I'2basic_detail(i,j)}进行融合,将融合得到的图像作为第二细节层融合图像,并记为{I'detail_2(i,j)};其中,{I'basic(i,j)}、{I'detail_1(i,j)}、{I'detail_2(i,j)}的宽度为Width且高度为Height,I'basic(i,j)表示{I'basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'detail_1(i,j)表示{I'detail_1(i,j)}中坐标位置为(i,j)的像素点的像素值,I'detail_2(i,j)表示{I'detail_2(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤6:对{I'basic(i,j)}、{I'detail_1(i,j)}和{I'detail_2(i,j)}进行加和,得到水下图像的增强结果图像的L通道,记为将中坐标位置为(i,j)的像素点的像素值记为 对{I'1(i,j)}的a通道与{I'2(i,j)}的a通道进行简单加和求平均,得到水下图像的增强结果图像的a通道,记为将中坐标位置为(i,j)的像素点的像素值记为 对{I'1(i,j)}的b通道与{I'2(i,j)}的b通道进行简单加和求平均,得到水下图像的增强结果图像的b通道,记为将中坐标位置为(i,j)的像素点的像素值记为 然后将和组合成Lab颜色空间的增强结果图像;再将Lab颜色空间的增强结果图像由Lab颜色空间转换至RGB颜色空间;其中,表示{I'1(i,j)}的a通道中坐标位置为(i,j)的像素点的像素值,表示{I'2(i,j)}的a通道中坐标位置为(i,j)的像素点的像素值,表示{I'1(i,j)}的b通道中坐标位置为(i,j)的像素点的像素值,表示{I'2(i,j)}的b通道中坐标位置为(i,j)的像素点的像素值。
所述的步骤1中, 其中,表示{IR(i,j)}中的所有像素点的像素值经归一化处理后的平均值, 表示{IG(i,j)}中的所有像素点的像素值经归一化处理后的平均值, 表示{IB(i,j)}中的所有像素点的像素值经归一化处理后的平均值,
所述的步骤3中,I'1(i,j)=α×(I'(i,j))gamma;其中,α为常数,gamma为伽马指数。
所述的步骤3中,{I'2(i,j)}的获取过程为:
步骤3_1:对{I'(i,j)}进行高斯滤波处理,将得到的图像记为{I'gauss(i,j)};其中,{I'gauss(i,j)}的宽度为Width且高度为Height,I'gauss(i,j)表示{I'gauss(i,j)}中坐标位置为(i,j)的像素点的像素值,高斯滤波处理所使用的滤波器的大小为5×5、标准差为3;
步骤3_2:以{I'gauss(i,j)}作为滤波掩膜,对{I'(i,j)}进行滤波处理,得到模糊图像,记为{I'imblur(i,j)};其中,{I'imblur(i,j)}的宽度为Width且高度为Height,I'imblur(i,j)表示{I'imblur(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤3_3:对{I'(i,j)}与{I'imblur(i,j)}做差值,得到包含有大量细节和结构的图像,记为{I'unSharpMask(i,j)},将{I'unSharpMask(i,j)}中坐标位置为(i,j)的像素点的像素值记为I'unSharpMask(i,j),I'unSharpMask(i,j)=I'(i,j)-I'imblur(i,j);其中,{I'unSharpMask(i,j)}的宽度为Width且高度为Height;
步骤3_4:对{I'unSharpMask(i,j)}进行直方图拉伸,将得到的图像记为{I'hist(i,j)};其中,{I'hist(i,j)}的宽度为Width且高度为Height,I'hist(i,j)表示{I'hist(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤3_5:根据{I'hist(i,j)}和{I'(i,j)},计算得到{I'2(i,j)},I'2(i,j)=0.5×I'hist(i,j)+0.5×I'(i,j)。
所述的步骤4的具体过程为:
步骤4_1:将{I'1(i,j)}和{I'2(i,j)}分别由RGB颜色空间转换至Lab颜色空间;
步骤4_2:选取Num幅水下增强图像;然后使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在每幅水下增强图像中滑动获取所有图像块,从Num幅水下增强图像中共获取10090~40654个图像块;接着计算每个图像块的标准差,将第n个图像块的标准差记为SDn,再根据每个图像块的标准差判定该图像块为细节图像块还是为平滑图像块,对于第n个图像块,若SDn大于设定的判定阈值Th,则判定第n个图像块为细节图像块,若SDn小于或等于设定的判定阈值Th,则判定第n个图像块为平滑图像块;其中,Num≥40,Num幅水下增强图像的尺寸不要求一致,图像块的尺寸大小为16×16,1≤n≤N,N表示从Num幅水下增强图像中共获取的图像块的数量,10090≤N≤40654,1≤u≤16,1≤v≤16,Blockn(u,v)表示第n个图像块中坐标位置为(u,v)的像素点的像素值,μn表示第n个图像块中的所有像素点的像素值的平均值;
步骤4_3:在从Num幅水下增强图像中共获取的N个图像块中随机选取最少2000个图像块,要求随机选取的图像块中细节图像块和平滑图像块各占一半;然后将选取的细节图像块作为正样本,将选取的平滑图像块作为负样本;再将所有正样本和所有负样本作为输入,由LatLRR和ALM学习得到投影矩阵,记为Λ;其中,Λ的大小为256×256;
步骤4_4:将{I'1(i,j)}的L通道记为对进行低秩分解的过程为:{I'1detail(i,j)}=R(V1detail),其中,表示中坐标位置为(i,j)的像素点的像素值,的宽度为Width且高度为Height;代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,m表示从中获取的图像块的数量;V1detail为中间变量,V1detail的维数为256×m;R(V1detail)代表将V1detail重构为图像;
将{I'2(i,j)}的L通道记为对进行低秩分解的过程为:{I'2detail(i,j)}=R(V2detail),其中,表示中坐标位置为(i,j)的像素点的像素值,的宽度为Width且高度为Height;代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,从中获取的图像块的数量为m;V2detail为中间变量,V2detail的维数为256×m;R(V2detail)代表将V2detail重构为图像;
对{I'1basic(i,j)}进行低秩分解的过程为:V1basic_detail=Λ×P({I'1basic(i,j)}),{I'1basic_detail(i,j)}=R(V1basic_detail),I'1basic_basic(i,j)=I'1basic(i,j)-I'1basic_detail(i,j);其中,P({I'1basic(i,j)})代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在{I'1basic(i,j)}中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,从{I'1basic(i,j)}中获取的图像块的数量为m;V1basic_detail为中间变量,V1basic_detail的维数为256×m;R(V1basic_detail)代表将V1basic_detail重构为图像;
对{I'2basic(i,j)}进行低秩分解的过程为:V2basic_detail=Λ×P({I'2basic(i,j)}),{I'2basic_detail(i,j)}=R(V2basic_detail),I'2basic_basic(i,j)=I'2basic(i,j)-I'2basic_detail(i,j);其中,P({I'2basic(i,j)})代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在{I'2basic(i,j)}中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,从{I'2basic(i,j)}中获取的图像块的数量为m;V2basic_detail为中间变量,V2basic_detail的维数为256×m;R(V2basic_detail)代表将V2basic_detail重构为图像。
所述的步骤5中,I'basic(i,j)=ω1×I'1basic_basic(i,j)+ω2×I'2basic_basic(i,j);其中,ω1为I'1basic_basic(i,j)的权重值,ω2为I'2basic_basic(i,j)的权重值,ω1+ω2=1。
所述的步骤5中,{I'detail_1(i,j)}的获取过程为:
步骤5_A1:在步骤4_4的基础上,令Vfdetail(k)=ω1detail(k)×V1detail(k)+ω2detail(k)×V2detail(k);其中,1≤k≤m,Vfdetail(k)为中间变量,Vfdetail(k)的维数为256×1,V1detail(k)表示V1detail的第k个列向量,V2detail(k)表示V2detail的第k个列向量,V1detail(k)和V2detail(k)的维数均为256×1,ω1detail(k)为V1detail(k)的融合权重,ω2detail(k)为V2detail(k)的融合权重, ω'1detail(k)表示V1detail(k)的初始权重,ω'1detail(k)=||re(V1detail(k))||*,ω'2detail(k)表示V2detail(k)的初始权重,ω'2detail(k)=||re(V2detail(k))||*,符号“|| ||*”为核范数计算符号,re(V1detail(k))代表将V1detail(k)重建为图像块,re(V2detail(k))代表将V2detail(k)重建为图像块,重建的图像块的尺寸大小为16×16;
步骤5_A2:将Vfdetail(1),Vfdetail(2),…,Vfdetail(k),…,Vfdetail(m)依次排成一行构成的一个维数为256×m的矩阵记为Vfdetail;其中,Vfdetail(1)、Vfdetail(2)、Vfdetail(m)均根据Vfdetail(k)=ω1detail(k)×V1detail(k)+ω2detail(k)×V2detail(k)计算得到;
步骤5_A3:将Vfdetail重构为图像,将得到的图像作为{I'detail_1(i,j)};
所述的步骤5中,{I'detail_2(i,j)}的获取过程为:
步骤5_B1:在步骤4_4的基础上,令Vfbasic_detail(k)=ω1basic_detail(k)×V1basic_detail(k)+ω2basic_detail(k)×V2basic_detail(k);其中,1≤k≤m,Vfbasic_detail(k)为中间变量,Vfbasic_detail(k)的维数为256×1,V1basic_detail(k)表示V1basic_detail的第k个列向量,V2basic_detail(k)表示V2basic_detail的第k个列向量,V1basic_detail(k)和V2basic_detail(k)的维数均为256×1,ω1basic_detail(k)为V1basic_detail(k)的融合权重,ω2basic_detail(k)为V2basic_detail(k)的融合权重, ω'1basic_detail(k)表示V1basic_detail(k)的初始权重,ω'1basic_detail(k)=||re(V1basic_detail(k))||*,ω'2basic_detail(k)表示V2basic_detail(k)的初始权重,ω'2basic_detail(k)=||re(V2basic_detail(k))||*,符号“|| ||*”为核范数计算符号,re(V1basic_detail(k))代表将V1basic_detail(k)重建为图像块,re(V2basic_detail(k))代表将V2basic_detail(k)重建为图像块,重建的图像块的尺寸大小为16×16;
步骤5_B2:将Vfbasic_detail(1),Vfbasic_detail(2),…,Vfbasic_detail(k),…,Vfbasic_detail(m)依次排成一行构成的一个维数为256×m的矩阵记为Vfbasic_detail;其中,Vfbasic_detail(1)、Vfbasic_detail(2)、Vfbasic_detail(m)均根据Vfbasic_detail(k)=ω1basic_detail(k)×V1basic_detail(k)+ω2basic_detail(k)×V2basic_detail(k)计算得到;
步骤5_B3:将Vfbasic_detail重构为图像,将得到的图像作为{I'detail_2(i,j)}。
与现有技术相比,本发明的优点在于:
1)本发明方法采用低秩分解与核范数融合作为颜色校正后的水下图像的融合方式,通过低秩分解有效地分离出第一层基础层图像和第一层细节层图像及第二层基础层图像和第二层细节层图像,再根据核范数融合第一层细节层图像,同样根据核范数融合第二层细节层图像,融合的最终结果内保留了大量的图像细节,尤其在过亮和过暗区域,细节保留程度非常高。
2)利用本发明方法最终得到的水下图像的增强结果图像,其将颜色校正后的水下图像中的优点有效地保留了下来,在人眼主观评价中获得了更高地认同,同时与目前大多数的水下图像增强或恢复方法相比,利用本发明方法最终得到的水下图像的增强结果图像在不同质量评价指标上的得分都领先于其他方法。
附图说明
图1为本发明方法的总体实现框图;
图2为本发明方法中的低秩分解的实现过程示意图;
图3a为一幅原始的水下图像;
图3b为对图3a对应的补偿后的水下图像依次进行灰度世界白平衡处理和直方图对比度调整后得到的颜色校正后的水下图像;
图3c为图3b对应的色彩鲜艳的高对比图像;
图3d为图3b对应的细节突出图像;
图3e为对图3c所示的色彩鲜艳的高对比图像的L通道进行低秩分解得到的第一层基础层图像;
图3f为对图3d所示的细节突出图像的L通道进行低秩分解得到的第一层基础层图像;
图3g为对图3c所示的色彩鲜艳的高对比图像的第二层基础层图像和图3d所示的细节突出图像的第二层基础层图像进行简单加权融合得到的基础层融合图像;
图3h为对图3c所示的色彩鲜艳的高对比图像的第一层细节层图像和图3d所示的细节突出图像的第一层细节层图像采用核范数融合技术进行融合得到的第一细节层融合图像;
图3i为对图3c所示的色彩鲜艳的高对比图像的第二层细节层图像和图3d所示的细节突出图像的第二层细节层图像采用核范数融合技术进行融合得到的第二细节层融合图像;
图3j为将对图3g所示的基础层融合图像、图3h所示的第一细节层融合图像和图3i所示的第二细节层融合图像进行加和得到的水下图像的增强结果图像的L通道、对图3c所示的色彩鲜艳的高对比图像的a通道和图3d所示的细节突出图像的a通道进行简单加和求平均得到的水下图像的增强结果图像的a通道、对图3c所示的色彩鲜艳的高对比图像的b通道和图3d所示的细节突出图像的b通道进行简单加和求平均得到的水下图像的增强结果图像的b通道组合成的增强结果图像转换至RGB颜色空间后的图像。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于低秩分解与融合的水下图像增强方法,其总体实现框图如图1所示,其包括以下步骤:
步骤1:将水下图像的R通道、G通道和B通道对应记为{IR(i,j)}、{IG(i,j)}和{IB(i,j)};然后采用通道补偿方法对{IR(i,j)}中的每个像素点的像素值进行补偿处理,得到补偿后的R通道,记为{IRC(i,j)};对{IG(i,j)}中的每个像素点的像素值不进行补偿处理;对于{IB(i,j)},若人眼主观判定水下图像明显偏绿,则对{IB(i,j)}中的每个像素点的像素值进行补偿处理,得到补偿后的B通道,记为{IBC(i,j)},否则,对{IB(i,j)}中的每个像素点的像素值不进行补偿处理;若人眼主观判定水下图像明显偏绿,则将{IRC(i,j)}、{IG(i,j)}和{IBC(i,j)}组合成补偿后的水下图像,否则,将{IRC(i,j)}、{IG(i,j)}和{IB(i,j)}组合成补偿后的水下图像;其中,1≤i≤Width,1≤j≤Height,Width表示水下图像的宽度,Height表示水下图像的高度,IR(i,j)表示{IR(i,j)}中坐标位置为(i,j)的像素点的像素值,IG(i,j)表示{IG(i,j)}中坐标位置为(i,j)的像素点的像素值,IB(i,j)表示{IB(i,j)}中坐标位置为(i,j)的像素点的像素值,IRC(i,j)表示{IRC(i,j)}中坐标位置为(i,j)的像素点的像素值,IBC(i,j)表示{IBC(i,j)}中坐标位置为(i,j)的像素点的像素值,补偿后的水下图像的宽度为Width且高度为Height;在判断是否需要对{IB(i,j)}中的每个像素点的像素值进行补偿处理时,考虑水域环境,由人眼对水下图像进行肉眼观察,由于在不同的水域,所成像的水下图像的B通道可能损失严重,水下图像偏绿,因此在明显偏绿的情况下进行补偿处理。
在本实施例中,步骤1中, 其中,表示{IR(i,j)}中的所有像素点的像素值经归一化处理后的平均值, 表示{IG(i,j)}中的所有像素点的像素值经归一化处理后的平均值, 表示{IB(i,j)}中的所有像素点的像素值经归一化处理后的平均值,
步骤2:对补偿后的水下图像依次进行灰度世界白平衡处理和直方图对比度调整,得到颜色校正后的水下图像,记为{I'(i,j)};其中,{I'(i,j)}的宽度为Width且高度为Height,I'(i,j)表示{I'(i,j)}中坐标位置为(i,j)的像素点的像素值;在此,灰度世界白平衡处理和直方图对比度调整均为现有技术,经过灰度世界白平衡处理和直方图对比度调整后使得得到的颜色校正后的水下图像的色彩亮度更加自然,图3a给出了一幅原始的水下图像,图3b给出了对图3a对应的补偿后的水下图像依次进行灰度世界白平衡处理和直方图对比度调整后得到的颜色校正后的水下图像。
步骤3:采用伽马校正方法对{I'(i,j)}进行处理,得到色彩鲜艳的高对比图像,记为{I'1(i,j)};并采用归一化非锐化掩蔽方法对{I'(i,j)}进行处理,得到细节突出图像,记为{I'2(i,j)};其中,{I'1(i,j)}和{I'2(i,j)}的宽度为Width且高度为Height,I'1(i,j)表示{I'1(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2(i,j)表示{I'2(i,j)}中坐标位置为(i,j)的像素点的像素值。
在本实施例中,步骤3中,I'1(i,j)=α×(I'(i,j))gamma;其中,α为常数,在本实施例中取α=1,gamma为伽马指数,在本实施例中取gamma=1.2。
在本实施例中,步骤3中,{I'2(i,j)}的获取过程为:
步骤3_1:对{I'(i,j)}进行高斯滤波处理,将得到的图像记为{I'gauss(i,j)};其中,{I'gauss(i,j)}的宽度为Width且高度为Height,I'gauss(i,j)表示{I'gauss(i,j)}中坐标位置为(i,j)的像素点的像素值,高斯滤波处理所使用的滤波器的大小为5×5、标准差为3。
步骤3_2:以{I'gauss(i,j)}作为滤波掩膜,对{I'(i,j)}进行滤波处理,得到模糊图像,记为{I'imblur(i,j)};其中,{I'imblur(i,j)}的宽度为Width且高度为Height,I'imblur(i,j)表示{I'imblur(i,j)}中坐标位置为(i,j)的像素点的像素值。
步骤3_3:对{I'(i,j)}与{I'imblur(i,j)}做差值,得到包含有大量细节和结构的图像,记为{I'unSharpMask(i,j)},将{I'unSharpMask(i,j)}中坐标位置为(i,j)的像素点的像素值记为I'unSharpMask(i,j),I'unSharpMask(i,j)=I'(i,j)-I'imblur(i,j);其中,{I'unSharpMask(i,j)}的宽度为Width且高度为Height。
步骤3_4:对{I'unSharpMask(i,j)}进行直方图拉伸,将得到的图像记为{I'hist(i,j)};其中,{I'hist(i,j)}的宽度为Width且高度为Height,I'hist(i,j)表示{I'hist(i,j)}中坐标位置为(i,j)的像素点的像素值。
步骤3_5:根据{I'hist(i,j)}和{I'(i,j)},计算得到{I'2(i,j)},I'2(i,j)=0.5×I'hist(i,j)+0.5×I'(i,j)。
图3c给出了图3b对应的色彩鲜艳的高对比图像,图3d给出了图3b对应的细节突出图像。
步骤4:将{I'1(i,j)}和{I'2(i,j)}分别由RGB颜色空间转换至Lab颜色空间;然后对{I'1(i,j)}的L通道进行低秩分解,得到{I'1(i,j)}的第一层基础层图像和第一层细节层图像,对应记为{I'1basic(i,j)}和{I'1detail(i,j)};同样,对{I'2(i,j)}的L通道进行低秩分解,得到{I'2(i,j)}的第一层基础层图像和第一层细节层图像,对应记为{I'2basic(i,j)}和{I'2detail(i,j)};再对{I'1basic(i,j)}进行低秩分解,得到{I'1(i,j)}的第二层基础层图像和第二层细节层图像,对应记为{I'1basic_basic(i,j)}和{I'1basic_detail(i,j)};同样,对{I'2basic(i,j)}进行低秩分解,得到{I'2(i,j)}的第二层基础层图像和第二层细节层图像,对应记为{I'2basic_basic(i,j)}和{I'2basic_detail(i,j)};其中,{I'1basic(i,j)}、{I'1detail(i,j)}、{I'2basic(i,j)}、{I'2detail(i,j)}、{I'1basic_basic(i,j)}、{I'1basic_detail(i,j)}、{I'2basic_basic(i,j)}、{I'2basic_detail(i,j)}的宽度为Width且高度为Height,I'1basic(i,j)表示{I'1basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'1detail(i,j)表示{I'1detail(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2basic(i,j)表示{I'2basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2detail(i,j)表示{I'2detail(i,j)}中坐标位置为(i,j)的像素点的像素值,I'1basic_basic(i,j)表示{I'1basic_basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'1basic_detail(i,j)表示{I'1basic_detail(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2basic_basic(i,j)表示{I'2basic_basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2basic_detail(i,j)表示{I'2basic_detail(i,j)}中坐标位置为(i,j)的像素点的像素值。
在本实施例中,步骤4的具体过程为:
步骤4_1:将{I'1(i,j)}和{I'2(i,j)}分别由RGB颜色空间转换至Lab颜色空间。
步骤4_2:选取Num幅水下增强图像;然后使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在每幅水下增强图像中滑动获取所有图像块,从Num幅水下增强图像中共获取10090~40654个图像块;接着计算每个图像块的标准差,将第n个图像块的标准差记为SDn,SDn的值越大意味着第n个图像块包含有更多的信息;再根据每个图像块的标准差判定该图像块为细节图像块还是为平滑图像块,对于第n个图像块,若SDn大于设定的判定阈值Th,则判定第n个图像块为细节图像块,若SDn小于或等于设定的判定阈值Th,则判定第n个图像块为平滑图像块;其中,Num≥40,Num幅水下增强图像的尺寸不要求一致,Num幅水下增强图像为采用现有的增强效果比较理想的水下图像增强方法对Num幅原始水下图像增强处理得到,图像块的尺寸大小为16×16,由于Num幅水下增强图像的尺寸不一致,从各幅水下增强图像中获取的图像块的数量不一致,因此要求共获取10090~40654个图像块即可,1≤n≤N,N表示从Num幅水下增强图像中共获取的图像块的数量,10090≤N≤40654,1≤u≤16,1≤v≤16,Blockn(u,v)表示第n个图像块中坐标位置为(u,v)的像素点的像素值,μn表示第n个图像块中的所有像素点的像素值的平均值,在本实施例中取Th=0.5。
步骤4_3:在从Num幅水下增强图像中共获取的N个图像块中随机选取最少2000个图像块,要求随机选取的图像块中细节图像块和平滑图像块各占一半;然后将选取的细节图像块作为正样本,将选取的平滑图像块作为负样本;再将所有正样本和所有负样本作为输入,由LatLRR和ALM学习得到投影矩阵,记为Λ;其中,Λ的大小为256×256。
步骤4_4:低秩分解的分解理论依据为X=XZ+ξX+E,X表示观测数据矩阵或称为输入图像矩阵,Z表示低秩系数,ξ表示显著性系数,E表示稀疏噪声部分;然后通过方程可以得到全局结构部分XZ和局部结构部分ξX,根据图像所表现的细节或者平滑的特性,将全局结构部分图像称为基础层图像,将局部结构部分图像称为细节层图像。
将{I'1(i,j)}的L通道记为对进行低秩分解的过程为:{I'1detail(i,j)}=R(V1detail),其中,表示中坐标位置为(i,j)的像素点的像素值,的宽度为Width且高度为Height;代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序(可按“Z”字型扫描方式)排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,m表示从中获取的图像块的数量;V1detail为中间变量,V1detail的维数为256×m;R(V1detail)代表将V1detail重构为图像。
将{I'2(i,j)}的L通道记为对进行低秩分解的过程为:{I'2detail(i,j)}=R(V2detail),其中,表示中坐标位置为(i,j)的像素点的像素值,的宽度为Width且高度为Height;代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序(可按“Z”字型扫描方式)排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,从中获取的图像块的数量为m;V2detail为中间变量,V2detail的维数为256×m;R(V2detail)代表将V2detail重构为图像。
对{I'1basic(i,j)}进行低秩分解的过程为:V1basic_detail=Λ×P({I'1basic(i,j)}),{I'1basic_detail(i,j)}=R(V1basic_detail),I'1basic_basic(i,j)=I'1basic(i,j)-I'1basic_detail(i,j);其中,P({I'1basic(i,j)})代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在{I'1basic(i,j)}中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序(可按“Z”字型扫描方式)排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,从{I'1basic(i,j)}中获取的图像块的数量为m;V1basic_detail为中间变量,V1basic_detail的维数为256×m;R(V1basic_detail)代表将V1basic_detail重构为图像。
对{I'2basic(i,j)}进行低秩分解的过程为:V2basic_detail=Λ×P({I'2basic(i,j)}),{I'2basic_detail(i,j)}=R(V2basic_detail),I'2basic_basic(i,j)=I'2basic(i,j)-I'2basic_detail(i,j);其中,P({I'2basic(i,j)})代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在{I'2basic(i,j)}中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序(可按“Z”字型扫描方式)排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,从{I'2basic(i,j)}中获取的图像块的数量为m;V2basic_detail为中间变量,V2basic_detail的维数为256×m;R(V2basic_detail)代表将V2basic_detail重构为图像。
图2给出了低秩分解的实现过程示意图。
图3e给出了对图3c所示的色彩鲜艳的高对比图像的L通道进行低秩分解得到的第一层基础层图像,图3f给出了对图3d所示的细节突出图像的L通道进行低秩分解得到的第一层基础层图像。
步骤5:对{I'1basic_basic(i,j)}和{I'2basic_basic(i,j)}进行简单加权融合,将融合得到的图像作为基础层融合图像,并记为{I'basic(i,j)};为了尽可能地保留足够多的图像细节信息,采用核范数融合技术对{I'1detail(i,j)}和{I'2detail(i,j)}进行融合,将融合得到的图像作为第一细节层融合图像,并记为{I'detail_1(i,j)};同样,为了尽可能地保留足够多的图像细节信息,采用核范数融合技术对{I'1basic_detail(i,j)}和{I'2basic_detail(i,j)}进行融合,将融合得到的图像作为第二细节层融合图像,并记为{I'detail_2(i,j)};其中,{I'basic(i,j)}、{I'detail_1(i,j)}、{I'detail_2(i,j)}的宽度为Width且高度为Height,I'basic(i,j)表示{I'basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'detail_1(i,j)表示{I'detail_1(i,j)}中坐标位置为(i,j)的像素点的像素值,I'detail_2(i,j)表示{I'detail_2(i,j)}中坐标位置为(i,j)的像素点的像素值。
在本实施例中,步骤5中,I'basic(i,j)=ω1×I'1basic_basic(i,j)+ω2×I'2basic_basic(i,j);其中,ω1为I'1basic_basic(i,j)的权重值,ω2为I'2basic_basic(i,j)的权重值,ω1+ω2=1,在本实施例中取ω1=ω2=0.5。
在本实施例中,步骤5中,{I'detail_1(i,j)}的获取过程为:
步骤5_A1:在步骤4_4的基础上,令Vfdetail(k)=ω1detail(k)×V1detail(k)+ω2detail(k)×V2detail(k);其中,1≤k≤m,Vfdetail(k)为中间变量,Vfdetail(k)的维数为256×1,V1detail(k)表示V1detail的第k个列向量,V2detail(k)表示V2detail的第k个列向量,V1detail(k)和V2detail(k)的维数均为256×1,ω1detail(k)为V1detail(k)的融合权重,ω2detail(k)为V2detail(k)的融合权重, ω'1detail(k)表示V1detail(k)的初始权重,ω'1detail(k)=||re(V1detail(k))||*,ω'2detail(k)表示V2detail(k)的初始权重,ω'2detail(k)=||re(V2detail(k))||*,符号“|| ||*”为核范数计算符号,re(V1detail(k))代表将V1detail(k)重建为图像块,re(V2detail(k))代表将V2detail(k)重建为图像块,重建的图像块的尺寸大小为16×16。
步骤5_A2:将Vfdetail(1),Vfdetail(2),…,Vfdetail(k),…,Vfdetail(m)依次排成一行构成的一个维数为256×m的矩阵记为Vfdetail;其中,Vfdetail(1)、Vfdetail(2)、Vfdetail(m)均根据Vfdetail(k)=ω1detail(k)×V1detail(k)+ω2detail(k)×V2detail(k)计算得到。
步骤5_A3:将Vfdetail重构为图像,将得到的图像作为{I'detail_1(i,j)}。
所述的步骤5中,{I'detail_2(i,j)}的获取过程为:
步骤5_B1:在步骤4_4的基础上,令Vfbasic_detail(k)=ω1basic_detail(k)×V1basic_detail(k)+ω2basic_detail(k)×V2basic_detail(k);其中,1≤k≤m,Vfbasic_detail(k)为中间变量,Vfbasic_detail(k)的维数为256×1,V1basic_detail(k)表示V1basic_detail的第k个列向量,V2basic_detail(k)表示V2basic_detail的第k个列向量,V1basic_detail(k)和V2basic_detail(k)的维数均为256×1,ω1basic_detail(k)为V1basic_detail(k)的融合权重,ω2basic_detail(k)为V2basic_detail(k)的融合权重, ω'1basic_detail(k)表示V1basic_detail(k)的初始权重,ω'1basic_detail(k)=||re(V1basic_detail(k))||*,ω'2basic_detail(k)表示V2basic_detail(k)的初始权重,ω'2basic_detail(k)=||re(V2basic_detail(k))||*,符号“|| ||*”为核范数计算符号,re(V1basic_detail(k))代表将V1basic_detail(k)重建为图像块,re(V2basic_detail(k))代表将V2basic_detail(k)重建为图像块,重建的图像块的尺寸大小为16×16。
步骤5_B2:将Vfbasic_detail(1),Vfbasic_detail(2),…,Vfbasic_detail(k),…,Vfbasic_detail(m)依次排成一行构成的一个维数为256×m的矩阵记为Vfbasic_detail;其中,Vfbasic_detail(1)、Vfbasic_detail(2)、Vfbasic_detail(m)均根据Vfbasic_detail(k)=ω1basic_detail(k)×V1basic_detail(k)+ω2basic_detail(k)×V2basic_detail(k)计算得到。
步骤5_B3:将Vfbasic_detail重构为图像,将得到的图像作为{I'detail_2(i,j)}。
图3g给出了对图3c所示的色彩鲜艳的高对比图像的第二层基础层图像和图3d所示的细节突出图像的第二层基础层图像进行简单加权融合得到的基础层融合图像,图3h给出了对图3c所示的色彩鲜艳的高对比图像的第一层细节层图像和图3d所示的细节突出图像的第一层细节层图像采用核范数融合技术进行融合得到的第一细节层融合图像,图3i给出了对图3c所示的色彩鲜艳的高对比图像的第二层细节层图像和图3d所示的细节突出图像的第二层细节层图像采用核范数融合技术进行融合得到的第二细节层融合图像。
步骤6:对{I'basic(i,j)}、{I'detail_1(i,j)}和{I'detail_2(i,j)}进行加和,得到水下图像的增强结果图像的L通道,记为将中坐标位置为(i,j)的像素点的像素值记为 对{I'1(i,j)}的a通道与{I'2(i,j)}的a通道进行简单加和求平均,得到水下图像的增强结果图像的a通道,记为将中坐标位置为(i,j)的像素点的像素值记为 对{I'1(i,j)}的b通道与{I'2(i,j)}的b通道进行简单加和求平均,得到水下图像的增强结果图像的b通道,记为将中坐标位置为(i,j)的像素点的像素值记为 然后将和组合成Lab颜色空间的增强结果图像;再将Lab颜色空间的增强结果图像由Lab颜色空间转换至RGB颜色空间;其中,表示{I'1(i,j)}的a通道中坐标位置为(i,j)的像素点的像素值,表示{I'2(i,j)}的a通道中坐标位置为(i,j)的像素点的像素值,表示{I'1(i,j)}的b通道中坐标位置为(i,j)的像素点的像素值,表示{I'2(i,j)}的b通道中坐标位置为(i,j)的像素点的像素值。
图3j给出了将对图3g所示的基础层融合图像、图3h所示的第一细节层融合图像和图3i所示的第二细节层融合图像进行加和得到的水下图像的增强结果图像的L通道、对图3c所示的色彩鲜艳的高对比图像的a通道和图3d所示的细节突出图像的a通道进行简单加和求平均得到的水下图像的增强结果图像的a通道、对图3c所示的色彩鲜艳的高对比图像的b通道和图3d所示的细节突出图像的b通道进行简单加和求平均得到的水下图像的增强结果图像的b通道组合成的增强结果图像转换至RGB颜色空间后的图像。
为了验证本发明方法的性能,从“Li C,Guo C,Ren W,et al.,An UnderwaterImage Enhancement Benchmark Dataset and Beyond[J],IEEE Transaction on ImageProcessing,2019,29:4376-4389”(水下图像增强基准数据集及其他)一文中所构建的真实水下数据集里选取具有代表性的20幅水下图像进行测试。水下图像的选取标准为:包含不同内容的水下图像、具备不同的色偏(绿色、蓝色和蓝绿色)、具有不同程度的模糊以及包含明显的水下生物或物体。
为了使实验结果更具说服力,将本发明方法与3种近几年具有代表性的方法进行对比,3种对比方法分别为GL-Net、Water-Net、CBF。GL-Net是一种联合全局和局部增强的深度学习算法,引自Fu X,Cao X.Underwater Image Enhancement with Global-LocalNetworks and Compressed-Histogram Equalization[J],Signal Processing:ImageCommunication,2020:115892(水下图像增强采用全局-局部网络和压缩直方图均衡化)。Water-Net是一种基于端到端学习的水下图像增强网络,引自Li C,Guo C,Ren W,et al.,An Underwater Image Enhancement Benchmark Dataset and Beyond[J],IEEETransaction on Image Processing,2019,29:4376-4389(水下图像增强基准数据集及其他)。CBF是一种基于金字塔融合的水下图像增强方法,引自Ancuti C O,Ancuti C,Vleeschouwer C D,et al.,Color Balance and Fusion for Underwater ImageEnhancement[J],IEEE Transactions on Image Processing,2017,27(99):379-393(水下图像增强中的颜色均衡与融合)。
选取3种常见的图像质量客观评价方法,即UIQM(Underwater Image QualityMeasurement)、IL-NIQE(Integrated Local-NIQE)和FRIQUEE(Feature maps basedReferenceless Image QUality Evaluation Engine),对分别采用本发明方法以及3种对比方法增强后的水下图像的质量进行评分。其中,UIQM是一种专门的水下图像质量评价方法,引自K.Panetta,C.Gao and S.Agaian,Human-Visual-System-Inspired UnderwaterImage Quality Measures[J],IEEE Journal of Oceanic Engineering,2016,41(3):541-551(人体视觉系统启发的水下图像质量测量);IL-NIQE引自Zhang L,Zhang L,Bovik A C,A Feature-Enriched Completely Blind Image Quality Evaluator[J],IEEETransactions on Image Processing,2015,24(8):2579-2591(一种特征丰富的无参考图像质量评价器);FRIQUEE引自Deepti G,Bovik A C,Perceptual Quality Prediction onAuthentically Distorted Images Using a Bag of Features Approach[J],Journal ofVision,2017,17(1):1-25(使用特征包方法对真实失真图像进行感知质量预测),为具有代表性的无参考图像质量评价方法。UIQM和FRIQUEE方法的评价分数越高,IL-NIQE方法的评价分数越低,则说明水下图像增强方法的性能越好。表1给出了本发明方法与其他3种水下图像增强方法的评分结果。
表1本发明方法与其他3种对比方法的不同客观质量评分比较
方法 | UIQM | IL-NIQE | FRIQUEE |
GL-Net | 4.0413 | 20.3171 | 58.6916 |
Water-Net | 3.6192 | 21.1980 | 55.7558 |
CBF | 4.0614 | 19.9261 | 56.4087 |
本发明方法 | 4.2527 | 19.4019 | 63.6364 |
从表1中可以看出,本发明方法得到的客观质量评价分数均高于其他3种对比方法,展示出了本发明方法优越的性能。
Claims (7)
1.一种基于低秩分解与融合的水下图像增强方法,其特征在于包括以下步骤:
步骤1:将水下图像的R通道、G通道和B通道对应记为{IR(i,j)}、{IG(i,j)}和{IB(i,j)};然后采用通道补偿方法对{IR(i,j)}中的每个像素点的像素值进行补偿处理,得到补偿后的R通道,记为{IRC(i,j)};对{IG(i,j)}中的每个像素点的像素值不进行补偿处理;对于{IB(i,j)},若人眼主观判定水下图像明显偏绿,则对{IB(i,j)}中的每个像素点的像素值进行补偿处理,得到补偿后的B通道,记为{IBC(i,j)},否则,对{IB(i,j)}中的每个像素点的像素值不进行补偿处理;若人眼主观判定水下图像明显偏绿,则将{IRC(i,j)}、{IG(i,j)}和{IBC(i,j)}组合成补偿后的水下图像,否则,将{IRC(i,j)}、{IG(i,j)}和{IB(i,j)}组合成补偿后的水下图像;其中,1≤i≤Width,1≤j≤Height,Width表示水下图像的宽度,Height表示水下图像的高度,IR(i,j)表示{IR(i,j)}中坐标位置为(i,j)的像素点的像素值,IG(i,j)表示{IG(i,j)}中坐标位置为(i,j)的像素点的像素值,IB(i,j)表示{IB(i,j)}中坐标位置为(i,j)的像素点的像素值,IRC(i,j)表示{IRC(i,j)}中坐标位置为(i,j)的像素点的像素值,IBC(i,j)表示{IBC(i,j)}中坐标位置为(i,j)的像素点的像素值,补偿后的水下图像的宽度为Width且高度为Height;
步骤2:对补偿后的水下图像依次进行灰度世界白平衡处理和直方图对比度调整,得到颜色校正后的水下图像,记为{I'(i,j)};其中,{I'(i,j)}的宽度为Width且高度为Height,I'(i,j)表示{I'(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤3:采用伽马校正方法对{I'(i,j)}进行处理,得到色彩鲜艳的高对比图像,记为{I'1(i,j)};并采用归一化非锐化掩蔽方法对{I'(i,j)}进行处理,得到细节突出图像,记为{I'2(i,j)};其中,{I'1(i,j)}和{I'2(i,j)}的宽度为Width且高度为Height,I'1(i,j)表示{I'1(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2(i,j)表示{I'2(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤4:将{I'1(i,j)}和{I'2(i,j)}分别由RGB颜色空间转换至Lab颜色空间;然后对{I'1(i,j)}的L通道进行低秩分解,得到{I'1(i,j)}的第一层基础层图像和第一层细节层图像,对应记为{I'1basic(i,j)}和{I'1detail(i,j)};同样,对{I'2(i,j)}的L通道进行低秩分解,得到{I'2(i,j)}的第一层基础层图像和第一层细节层图像,对应记为{I'2basic(i,j)}和{I'2detail(i,j)};再对{I'1basic(i,j)}进行低秩分解,得到{I'1(i,j)}的第二层基础层图像和第二层细节层图像,对应记为{I'1basic_basic(i,j)}和{I'1basic_detail(i,j)};同样,对{I'2basic(i,j)}进行低秩分解,得到{I'2(i,j)}的第二层基础层图像和第二层细节层图像,对应记为{I'2basic_basic(i,j)}和{I'2basic_detail(i,j)};其中,{I'1basic(i,j)}、{I'1detail(i,j)}、{I'2basic(i,j)}、{I'2detail(i,j)}、{I'1basic_basic(i,j)}、{I'1basic_detail(i,j)}、{I'2basic_basic(i,j)}、{I'2basic_detail(i,j)}的宽度为Width且高度为Height,I'1basic(i,j)表示{I'1basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'1detail(i,j)表示{I'1detail(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2basic(i,j)表示{I'2basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2detail(i,j)表示{I'2detail(i,j)}中坐标位置为(i,j)的像素点的像素值,I'1basic_basic(i,j)表示{I'1basic_basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'1basic_detail(i,j)表示{I'1basic_detail(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2basic_basic(i,j)表示{I'2basic_basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'2basic_detail(i,j)表示{I'2basic_detail(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤5:对{I'1basic_basic(i,j)}和{I'2basic_basic(i,j)}进行简单加权融合,将融合得到的图像作为基础层融合图像,并记为{I'basic(i,j)};采用核范数融合技术对{I'1detail(i,j)}和{I'2detail(i,j)}进行融合,将融合得到的图像作为第一细节层融合图像,并记为{I'detail_1(i,j)};同样,采用核范数融合技术对{I'1basic_detail(i,j)}和{I'2basic_detail(i,j)}进行融合,将融合得到的图像作为第二细节层融合图像,并记为{I'detail_2(i,j)};其中,{I'basic(i,j)}、{I'detail_1(i,j)}、{I'detail_2(i,j)}的宽度为Width且高度为Height,I'basic(i,j)表示{I'basic(i,j)}中坐标位置为(i,j)的像素点的像素值,I'detail_1(i,j)表示{I'detail_1(i,j)}中坐标位置为(i,j)的像素点的像素值,I'detail_2(i,j)表示{I'detail_2(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤6:对{I'basic(i,j)}、{I'detail_1(i,j)}和{I'detail_2(i,j)}进行加和,得到水下图像的增强结果图像的L通道,记为将中坐标位置为(i,j)的像素点的像素值记为 对{I'1(i,j)}的a通道与{I'2(i,j)}的a通道进行简单加和求平均,得到水下图像的增强结果图像的a通道,记为将中坐标位置为(i,j)的像素点的像素值记为 对{I'1(i,j)}的b通道与{I'2(i,j)}的b通道进行简单加和求平均,得到水下图像的增强结果图像的b通道,记为将中坐标位置为(i,j)的像素点的像素值记为 然后将和组合成Lab颜色空间的增强结果图像;再将Lab颜色空间的增强结果图像由Lab颜色空间转换至RGB颜色空间;其中,表示{I'1(i,j)}的a通道中坐标位置为(i,j)的像素点的像素值,表示{I'2(i,j)}的a通道中坐标位置为(i,j)的像素点的像素值,表示{I'1(i,j)}的b通道中坐标位置为(i,j)的像素点的像素值,表示{I'2(i,j)}的b通道中坐标位置为(i,j)的像素点的像素值。
3.根据权利要求1或2所述的一种基于低秩分解与融合的水下图像增强方法,其特征在于所述的步骤3中,I'1(i,j)=α×(I'(i,j))gamma;其中,α为常数,gamma为伽马指数。
4.根据权利要求3所述的一种基于低秩分解与融合的水下图像增强方法,其特征在于所述的步骤3中,{I'2(i,j)}的获取过程为:
步骤3_1:对{I'(i,j)}进行高斯滤波处理,将得到的图像记为{I'gauss(i,j)};其中,{I'gauss(i,j)}的宽度为Width且高度为Height,I'gauss(i,j)表示{I'gauss(i,j)}中坐标位置为(i,j)的像素点的像素值,高斯滤波处理所使用的滤波器的大小为5×5、标准差为3;
步骤3_2:以{I'gauss(i,j)}作为滤波掩膜,对{I'(i,j)}进行滤波处理,得到模糊图像,记为{I'imblur(i,j)};其中,{I'imblur(i,j)}的宽度为Width且高度为Height,I'imblur(i,j)表示{I'imblur(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤3_3:对{I'(i,j)}与{I'imblur(i,j)}做差值,得到包含有大量细节和结构的图像,记为{I'unSharpMask(i,j)},将{I'unSharpMask(i,j)}中坐标位置为(i,j)的像素点的像素值记为I'unSharpMask(i,j),I'unSharpMask(i,j)=I'(i,j)-I'imblur(i,j);其中,{I'unSharpMask(i,j)}的宽度为Width且高度为Height;
步骤3_4:对{I'unSharpMask(i,j)}进行直方图拉伸,将得到的图像记为{I'hist(i,j)};其中,{I'hist(i,j)}的宽度为Width且高度为Height,I'hist(i,j)表示{I'hist(i,j)}中坐标位置为(i,j)的像素点的像素值;
步骤3_5:根据{I'hist(i,j)}和{I'(i,j)},计算得到{I'2(i,j)},I'2(i,j)=0.5×I'hist(i,j)+0.5×I'(i,j)。
5.根据权利要求1所述的一种基于低秩分解与融合的水下图像增强方法,其特征在于所述的步骤4的具体过程为:
步骤4_1:将{I'1(i,j)}和{I'2(i,j)}分别由RGB颜色空间转换至Lab颜色空间;
步骤4_2:选取Num幅水下增强图像;然后使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在每幅水下增强图像中滑动获取所有图像块,从Num幅水下增强图像中共获取10090~40654个图像块;接着计算每个图像块的标准差,将第n个图像块的标准差记为SDn,再根据每个图像块的标准差判定该图像块为细节图像块还是为平滑图像块,对于第n个图像块,若SDn大于设定的判定阈值Th,则判定第n个图像块为细节图像块,若SDn小于或等于设定的判定阈值Th,则判定第n个图像块为平滑图像块;其中,Num≥40,Num幅水下增强图像的尺寸不要求一致,图像块的尺寸大小为16×16,1≤n≤N,N表示从Num幅水下增强图像中共获取的图像块的数量,10090≤N≤40654,1≤u≤16,1≤v≤16,Blockn(u,v)表示第n个图像块中坐标位置为(u,v)的像素点的像素值,μn表示第n个图像块中的所有像素点的像素值的平均值;
步骤4_3:在从Num幅水下增强图像中共获取的N个图像块中随机选取最少2000个图像块,要求随机选取的图像块中细节图像块和平滑图像块各占一半;然后将选取的细节图像块作为正样本,将选取的平滑图像块作为负样本;再将所有正样本和所有负样本作为输入,由LatLRR和ALM学习得到投影矩阵,记为Λ;其中,Λ的大小为256×256;
步骤4_4:将{I'1(i,j)}的L通道记为对进行低秩分解的过程为:{I'1detail(i,j)}=R(V1detail),其中,表示中坐标位置为(i,j)的像素点的像素值,的宽度为Width且高度为Height;代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,m表示从中获取的图像块的数量;V1detail为中间变量,V1detail的维数为256×m;R(V1detail)代表将V1detail重构为图像;
将{I'2(i,j)}的L通道记为对进行低秩分解的过程为:{I'2detail(i,j)}=R(V2detail),其中,表示中坐标位置为(i,j)的像素点的像素值,的宽度为Width且高度为Height;代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,从中获取的图像块的数量为m;V2detail为中间变量,V2detail的维数为256×m;R(V2detail)代表将V2detail重构为图像;
对{I'1basic(i,j)}进行低秩分解的过程为:V1basic_detail=Λ×P({I'1basic(i,j)}),{I'1basic_detail(i,j)}=R(V1basic_detail),I'1basic_basic(i,j)=I'1basic(i,j)-I'1basic_detail(i,j);其中,P({I'1basic(i,j)})代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在{I'1basic(i,j)}中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,从{I'1basic(i,j)}中获取的图像块的数量为m;V1basic_detail为中间变量,V1basic_detail的维数为256×m;R(V1basic_detail)代表将V1basic_detail重构为图像;
对{I'2basic(i,j)}进行低秩分解的过程为:V2basic_detail=Λ×P({I'2basic(i,j)}),{I'2basic_detail(i,j)}=R(V2basic_detail),I'2basic_basic(i,j)=I'2basic(i,j)-I'2basic_detail(i,j);其中,P({I'2basic(i,j)})代表使用尺寸大小为16×16的滑动窗,以滑动步长为1像素在{I'2basic(i,j)}中滑动获取所有图像块,再将每个图像块中的所有像素点的像素值按序排成一竖列构成一个维数为256×1的列向量,之后按照提取图像块的顺序将所有图像块对应的列向量依次排成一行构成的一个维数为256×m的矩阵,从{I'2basic(i,j)}中获取的图像块的数量为m;V2basic_detail为中间变量,V2basic_detail的维数为256×m;R(V2basic_detail)代表将V2basic_detail重构为图像。
6.根据权利要求1所述的一种基于低秩分解与融合的水下图像增强方法,其特征在于所述的步骤5中,I'basic(i,j)=ω1×I'1basic_basic(i,j)+ω2×I'2basic_basic(i,j);其中,ω1为I'1basic_basic(i,j)的权重值,ω2为I'2basic_basic(i,j)的权重值,ω1+ω2=1。
7.根据权利要求5所述的一种基于低秩分解与融合的水下图像增强方法,其特征在于所述的步骤5中,{I'detail_1(i,j)}的获取过程为:
步骤5_A1:在步骤4_4的基础上,令Vfdetail(k)=ω1detail(k)×V1detail(k)+ω2detail(k)×V2detail(k);其中,1≤k≤m,Vfdetail(k)为中间变量,Vfdetail(k)的维数为256×1,V1detail(k)表示V1detail的第k个列向量,V2detail(k)表示V2detail的第k个列向量,V1detail(k)和V2detail(k)的维数均为256×1,ω1detail(k)为V1detail(k)的融合权重,ω2detail(k)为V2detail(k)的融合权重, ω'1detail(k)表示V1detail(k)的初始权重,ω'1detail(k)=||re(V1detail(k))||*,ω'2detail(k)表示V2detail(k)的初始权重,ω'2detail(k)=||re(V2detail(k))||*,符号“|| ||*”为核范数计算符号,re(V1detail(k))代表将V1detail(k)重建为图像块,re(V2detail(k))代表将V2detail(k)重建为图像块,重建的图像块的尺寸大小为16×16;
步骤5_A2:将Vfdetail(1),Vfdetail(2),…,Vfdetail(k),…,Vfdetail(m)依次排成一行构成的一个维数为256×m的矩阵记为Vfdetail;其中,Vfdetail(1)、Vfdetail(2)、Vfdetail(m)均根据Vfdetail(k)=ω1detail(k)×V1detail(k)+ω2detail(k)×V2detail(k)计算得到;
步骤5_A3:将Vfdetail重构为图像,将得到的图像作为{I'detail_1(i,j)};
所述的步骤5中,{I'detail_2(i,j)}的获取过程为:
步骤5_B1:在步骤4_4的基础上,令Vfbasic_detail(k)=ω1basic_detail(k)×V1basic_detail(k)+ω2basic_detail(k)×V2basic_detail(k);其中,1≤k≤m,Vfbasic_detail(k)为中间变量,Vfbasic_detail(k)的维数为256×1,V1basic_detail(k)表示V1basic_detail的第k个列向量,V2basic_detail(k)表示V2basic_detail的第k个列向量,V1basic_detail(k)和V2basic_detail(k)的维数均为256×1,ω1basic_detail(k)为V1basic_detail(k)的融合权重,ω2basic_detail(k)为V2basic_detail(k)的融合权重, ω'1basic_detail(k)表示V1basic_detail(k)的初始权重,ω'1basic_detail(k)=||re(V1basic_detail(k))||*,ω'2basic_detail(k)表示V2basic_detail(k)的初始权重,ω'2basic_detail(k)=||re(V2basic_detail(k))||*,符号“|| ||*”为核范数计算符号,re(V1basic_detail(k))代表将V1basic_detail(k)重建为图像块,re(V2basic_detail(k))代表将V2basic_detail(k)重建为图像块,重建的图像块的尺寸大小为16×16;
步骤5_B2:将Vfbasic_detail(1),Vfbasic_detail(2),…,Vfbasic_detail(k),…,Vfbasic_detail(m)依次排成一行构成的一个维数为256×m的矩阵记为Vfbasic_detail;其中,Vfbasic_detail(1)、Vfbasic_detail(2)、Vfbasic_detail(m)均根据Vfbasic_detail(k)=ω1basic_detail(k)×V1basic_detail(k)+ω2basic_detail(k)×V2basic_detail(k)计算得到;
步骤5_B3:将Vfbasic_detail重构为图像,将得到的图像作为{I'detail_2(i,j)}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110393892.6A CN113191992B (zh) | 2021-04-13 | 2021-04-13 | 一种基于低秩分解与融合的水下图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110393892.6A CN113191992B (zh) | 2021-04-13 | 2021-04-13 | 一种基于低秩分解与融合的水下图像增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113191992A true CN113191992A (zh) | 2021-07-30 |
CN113191992B CN113191992B (zh) | 2023-06-02 |
Family
ID=76975551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110393892.6A Active CN113191992B (zh) | 2021-04-13 | 2021-04-13 | 一种基于低秩分解与融合的水下图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113191992B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410157A (zh) * | 2018-06-19 | 2019-03-01 | 昆明理工大学 | 基于低秩稀疏分解和pcnn的图像融合方法 |
CN111968054A (zh) * | 2020-08-14 | 2020-11-20 | 中国海洋大学 | 基于潜在低秩表示和图像融合的水下图像颜色增强方法 |
-
2021
- 2021-04-13 CN CN202110393892.6A patent/CN113191992B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410157A (zh) * | 2018-06-19 | 2019-03-01 | 昆明理工大学 | 基于低秩稀疏分解和pcnn的图像融合方法 |
CN111968054A (zh) * | 2020-08-14 | 2020-11-20 | 中国海洋大学 | 基于潜在低秩表示和图像融合的水下图像颜色增强方法 |
Non-Patent Citations (2)
Title |
---|
孙青;李玲;辛云宏: "基于局部多尺度低秩分解的红外小目标检测算法" * |
许辰;骆挺;蒋刚毅;郁梅;姜求平;徐海勇: "融合结构与非结构信息的自然图像恰可察觉失真阈值估计" * |
Also Published As
Publication number | Publication date |
---|---|
CN113191992B (zh) | 2023-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liang et al. | Single underwater image enhancement by attenuation map guided color correction and detail preserved dehazing | |
Wu et al. | A two-stage underwater enhancement network based on structure decomposition and characteristics of underwater imaging | |
CN109754377B (zh) | 一种多曝光图像融合方法 | |
CN111968054B (zh) | 基于潜在低秩表示和图像融合的水下图像颜色增强方法 | |
El Khoury et al. | Color and sharpness assessment of single image dehazing | |
CN107507145A (zh) | 一种基于不同颜色空间自适应直方图拉伸的水下图像增强方法 | |
Zhou et al. | Underwater image restoration based on secondary guided transmission map | |
CN105205792A (zh) | 一种基于亮度色度分离的水下图像增强方法 | |
CN106683056A (zh) | 一种机载光电红外数字图像处理方法及装置 | |
CN110689504B (zh) | 一种基于二次引导透射图的水下图像复原方法 | |
CN107292830A (zh) | 低照度图像增强及评价方法 | |
Zhou et al. | Multicolor light attenuation modeling for underwater image restoration | |
CN104346809A (zh) | 采用高动态范围的图像质量数据集的图像质量评价方法 | |
CN114841846A (zh) | 一种基于视觉感知的自编码彩色图像鲁棒水印处理方法 | |
Cheng et al. | Semantic single-image dehazing | |
CN115272072A (zh) | 一种基于多特征图像融合的水下图像超分辨率方法 | |
Liu et al. | Fog removal algorithms: survey and perceptual evaluation | |
CN113609944A (zh) | 一种静默活体检测方法 | |
CN111476739B (zh) | 水下图像增强方法、系统及存储介质 | |
CN113191992B (zh) | 一种基于低秩分解与融合的水下图像增强方法 | |
Sudhakara et al. | Multi-scale fusion for underwater image enhancement using multi-layer perceptron | |
CN115564676A (zh) | 一种水下图像增强方法、系统及可读存储介质 | |
CN114862707A (zh) | 一种多尺度特征恢复图像增强方法、装置及存储介质 | |
Honnutagi et al. | Underwater video enhancement using manta ray foraging lion optimization-based fusion convolutional neural network | |
CN115457265B (zh) | 基于生成对抗网络和多尺度融合的图像去雾方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |