CN114897882A - 一种基于加权平均曲率滤波分解的遥感图像融合方法 - Google Patents
一种基于加权平均曲率滤波分解的遥感图像融合方法 Download PDFInfo
- Publication number
- CN114897882A CN114897882A CN202210656563.0A CN202210656563A CN114897882A CN 114897882 A CN114897882 A CN 114897882A CN 202210656563 A CN202210656563 A CN 202210656563A CN 114897882 A CN114897882 A CN 114897882A
- Authority
- CN
- China
- Prior art keywords
- image
- weighted
- spatial frequency
- local
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 34
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 60
- 230000003595 spectral effect Effects 0.000 claims abstract description 38
- 238000001914 filtration Methods 0.000 claims abstract description 16
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 230000004927 fusion Effects 0.000 claims description 39
- 210000002569 neuron Anatomy 0.000 claims description 22
- 230000000694 effects Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000003321 amplification Effects 0.000 claims description 10
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 10
- 238000001228 spectrum Methods 0.000 claims description 9
- 230000008878 coupling Effects 0.000 claims description 7
- 238000010168 coupling process Methods 0.000 claims description 7
- 238000005859 coupling reaction Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 4
- 241001347978 Major minor Species 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 210000002856 peripheral neuron Anatomy 0.000 claims description 3
- 230000000638 stimulation Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 108010014172 Factor V Proteins 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims description 2
- 238000003062 neural network model Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 abstract description 16
- 230000000007 visual effect Effects 0.000 abstract description 5
- 238000004949 mass spectrometry Methods 0.000 description 11
- 230000003044 adaptive effect Effects 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 3
- 230000014759 maintenance of location Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- PRSUTWWKYIVBEU-UHFFFAOYSA-N 4-(4-bromophenyl)-4-(dimethylamino)-1-(2-phenylethyl)cyclohexan-1-ol Chemical compound C1CC(N(C)C)(C=2C=CC(Br)=CC=2)CCC1(O)CCC1=CC=CC=C1 PRSUTWWKYIVBEU-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000124008 Mammalia Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于加权平均曲率滤波分解的遥感图像融合方法采用自适应加权平均方法,将多光谱图像各波段融合生成强度分量I。将强度分量I作为初始α通道进行光谱估计,得到前景色F和背景色B。通过加权平均曲率滤波和高斯滤波将全色图像分解为小尺度图像、大尺度图像和基本图像。利用图像的局部能量动态调节连接系数的大小。通过脉冲耦合神经网络融合强度分量I和基本图像。将融合后的图像以及大尺度图像、小尺度图像线性组合在一起构造最终的α通道。根据图像抠图模型,将前景色F和背景色B、最终的α通道进行重构,得到融合图像。本发明通过与十种典型的融合方法进行比较,在主观视觉效果和客观评价方面都取得较好的结果。
Description
技术领域
本发明涉及多光谱和全色遥感图像融合技术领域,尤其是涉及一种基于加权平均曲率滤波分解的遥感图像融合方法。
背景技术
随着遥感技术的快速发展,可以获得很多具有不同分辨率的遥感图像。多光谱(Multispectral,MS)图像包含丰富的光谱信息,在灾害监测、海洋研究、目标识别等领域得到广泛的应用。全色(Panchromatic,PAN)图像具有高空间分辨率和低光谱分辨率。单一传感器获取的遥感图像存在信息不完全的缺点。因此,MS和PAN图像融合技术对于获得高空间和光谱分辨率的融合图像至关重要。MS和PAN图像融合又叫全色锐化。全色锐化技术主要分为两类:基于分量替换(Component Substitution,CS)的算法和基于多尺度分解(Multi-scale decomposition,MSD)的算法。对于基于CS的算法,MS图像被变换到新的投影空间,分解为光谱成分和空间成分,然后用全色图像替换空间分量。最后,进行相应的逆变换重建融合后的图像。基于CS的经典算法包括强度色调饱和(Intensity Hue Saturation,IHS)变换、主成分分析、Gram-Schmidt(GS)等。其可以有效提升空间分辨率,但可能会出现一定程度的光谱失真。常见的MSD算法包括:小波变换、曲线变换、轮廓波变换和剪切波变换(Non-Subsampled Shearlet Transform,NSST)。对于基于MSD的算法,源图像通过多尺度分解方法分解为不同尺度的子图像。在不同尺度的子图像上根据不同的融合规则对子图像进行融合。最后通过逆变换重建融合后的图像。基于MSD的算法可以获得更好的光谱分辨率,但空间分辨率低于CS算法。
近年来,边缘保持滤波(Edge-preserving Filter,EPF)在图像处理中得到了广泛的应用。常见的EPF算法包括双边滤波、引导图像滤波和高斯曲率滤波。EPF可以在平滑图像的同时保留图像的边缘信息,充分利用图像的空间信息。基于这一优越特性,EPF经常被用作图像融合中的一种图像分解方法。另一种重要的算法是基于脉冲耦合神经网络(PulseCoupled Neural Network,PCNN)。PCNN经过多次迭代可以更准确地提取图像特征,更有利于图像融合。
发明内容
本发明的目的是提供一种基于加权平均曲率滤波分解的遥感图像融合方法,解决了融合图像空间失真和光谱失真问题,通过与十种典型的融合方法进行比较,在主观视觉效果和客观评价方面都取得较好的结果。
为实现上述目的,本发明提供了一种基于加权平均曲率滤波分解的遥感图像融合方法,包括以下步骤:
S1、计算多光谱强度分量:采用基于局部空间频率的自适应加权平均方法,用于将多光谱图像各波段融合生成强度分量I,加权局部空间频率利用水平、垂直以及主副对角线方向的八邻域内的多个像素点,依据距离中心像素的欧氏距离赋予不同的权重,加权之后再参与计算,根据加权局部空间频率设计自适应加权平均的系数ωi,具体如下所示:
其中n是多光谱图像的波段,WLSFi表示多光谱图像第i个波段在(x,y)位置处的加权局部空间频率值,MSi(x,y)表示多光谱图像第i个波段在(x,y)位置的像素值,ωi(x,y)表示多光谱图像第i个波段在(x,y)位置的加权系数,I(x,y)表示强度分量I在(x,y)位置处的像素值;
S2、光谱估计:将I作为初始α通道,根据下列公式计算前景图像F和背景图像B,后续利用F、B进行图像重构:
S3、多尺度分解:利用加权平均曲率滤波(WMCF)和高斯滤波(GF)对全色图像进行多尺度分解,得到大尺度图像L、小尺度图像S和基本图像B,通过这种分解方法,将输入图像分解成三个不同尺度的子图像,分解过程为利用WMCF和GF对输入图像M进行处理,分别获得滤波图像Iw和Ig,通过M和Iw的差值得到小尺度图像,大尺度图像是差分结果:
Ig=GF(M,σ,ρ). (4)
Iw=WMCF(M,p). (5)
S=M-Iw. (6)
L=Iw-Ig. (7)
B=Ig. (8);
S4、分量融合:利用图像的局部能量E来动态调节连接系数β的大小,根据图像的特征自适应变化保留图像边缘的特征信息,自适应连接系数β描述为:
其中,E(x,y)表示(x,y)处的局部能量,βxy表示(x,y)处的连接系数,局部能量的计算具体描述如下:
其中C(x,y)表示图像在(x,y)处的像素值,W为加权系数矩阵,具体细节如下:
将加权局部空间频率值作为脉冲耦合神经网络的输入,利用图像的局部能量E来动态调节连接系数β的大小,根据图像的特征自适应变化,当达到最大迭代次数时,迭代停止,得到强度分量I的点火次数总和TB和基本图像B的点火次数总和,根据点火次数总和取大原则进行融合,如下式所示:
其中FA(x,y)代表融合图像FA在(x,y)位置的像素值,I(x,y)代表强度分量I在(x,y)位置的像素值,B(x,y)代表基本图像B在(x,y)位置的像素值,最终,通过加权局部空间频率引导的脉冲耦合神经网络融合基本图像B和强度分量I得到融合图像FA;
S5、图像重构:通过S、L和FA的线性组合重建融合后的图像FB作为最终的α通道,根据如下公式,组合α、F和B进行重构,得到最终的融合结果:
Ii=αiFi+(1-αi)Bi (13)。
优选的,所述步骤S2根据图像抠图模型,通过线性合成模型将输入图像区分为前景图像F和背景图像B,即第i个像素的颜色是对应的前景颜色和背景颜色的线性组合:
Ii=αiFi+(1-αi)Bi (14)
其中Fi是第i个像素的前景颜色,Bi是第i个像素的背景颜色,其中,α是前景图像F的不透明度,根据图像抠图模型的局部线性假设,如果α包含该图像的大部分边缘信息,则该图像的对应的光谱前景和背景色在空间上是平滑的,在确定输入图像和α的同时,通过求解以下函数估计前景图像F和背景图像B:
优选的,所述步骤S4中脉冲耦合神经网络模型具体为:
标准的PCNN模型由以下公式描述:
Uij[n]=Fij[n](1+βLij[n]). (18)
Tij[n]用于阈值调节,Uij[n]用于产生调制信号与阈值进行比较产生脉冲信号Yij[n],共有9个参数,9个参数分属四类:时间衰减常数、放大系数、连接系数以及权值矩阵,时间衰减常数为αF,αL,αθ,这三个参数分别来自输入域F、连接输入域L以及动态门限T,αF,αL控制着F,L通道信号的衰减速度,αθ控制着阈值衰减的速度,放大系数为VF、VL、VE,这三个参数分别是输入域F、连接输入域L以及动态门限T的放大系数,连接系数β来自调制域U起到调节神经元之间相互影响的作用,同时该参数还影响着中心神经元的点火周期,权值矩阵为W、M,这两个参数分别来自输入域F、连接输入域L,矩阵中的元素表示神经元之间的连接强弱关系;
接收域F接收外部刺激S、自身的刺激Fij[n-1],L接收周围神经元的刺激,调制域针对接收域的信号F和L进行调制得到内部活动项U,将脉冲产生域神经元对应位置的内部活动项U与动态阈值Tij进行比较,若Uij>Tij,则脉冲发生器启动神经元点火输出Yij=1,否则神经元不点火,输出Yij=0,得到最后结果Y,上述过程不断重复,直到满足条件为止。
优选的,所述步骤S1和S4中加权局部空间频率具体为:
传统的空间频率描述水平和垂直两个方向的空间信息,传统的空间频率计算如下式:
其中,RF、CF分别是行频率、列频率,RF、CF包含水平、垂直两个方向;
对空间频率的计算进行改进,在原有基础上增加对角方向的计算,此外,基于欧几里得度量,确定行、列频率的加权系数为改进后的空间频率称为加权局部空间频率(WLSF),用于反映各像素邻域范围内的活跃程度,WLSF同时包含行、列和对角方向,对八个方向的空间频率进行加权求和,加权局部空间频率反映各像素邻域范围内的活跃程度,加权局部空间频率的计算公式如下:
其中,RF、CF和DF分别是行频率、列频率和对角频率,RF、CF包含水平、垂直两个方向,DF包含正副对角线方向,具体定义如下:
RF=RF1+RF2,CF=CF1+CF2 (23)
DF=DF1+DF2+DF3+DF4 (24)
其中,(2M+1)(2N+1)代表局部区域的大小,f(x,y)代表(x,y)位置处的像素值。
优选的,所述步骤S3中加权平均曲率具体为:
图片U的加权平均曲率(WMC)定义为:
对于二维图像即n=2,该等式变为:
对于3×3窗口,考虑8个法线方向和半窗口,8种情况产生相应的内核:
根据8个内核计算出八个距离:
其中*表示卷积操作,加权平均曲率的离散形式表示为:
Hw≈dk,k=argmin{|di|;i=1,2,...,8}. (37)
WMCF的简化过程表示为:
Iout=WMC(Iin). (38)
其中Iin和Iout是输入和滤波后的图像,WMC(·)表示WMCF操作。
因此,本发明采用上述一种基于加权平均曲率滤波分解的遥感图像融合方法,具备以下有益效果:
(1)引入图像抠图模型有效保持多光谱遥感图像的光谱分辨率;
(2)将加权平均曲率滤波应用于遥感图像融合领域,具有包括尺度和对比度鲁棒性、快速计算和边缘保持的优点;
(3)将加权局部空间频率作为脉冲耦合神经网络的输入,利用图像的局部能量动态调节连接系数的大小,根据图像的特征自适应变化,通过加权局部空间频率引导的脉冲耦合神经网络有效融合子图像;
(4)本发明提出的遥感图像融合方法在大多数情况下都取得了良好的性能。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为基于WMCF和GF的分解方法流程图;
图2为本发明方法流程图;
图3为PCNN模型的基本结构图;
图4为PCNN神经元的连接模型;
图5为ΔU,H(U)和HwU之间的关系图;
图6为三组MS和PAN图像;
图7为十种不同方法在第一组图像上的融合结果:(1)BT;(2)GSA;(3)GF;(4)IHS;(5)CT;(6)PCA;(7)PRACS;(8)NSST-SR;(9)BDSD-PC;(10)WT;(11)本发明的方法;(12)参考的多光谱图像;
图8为十种不同方法在第二组图像上的融合结果:(1)BT;(2)GSA;(3)GF;(4)IHS;(5)CT;(6)PCA;(7)PRACS;(8)NSST-SR;(9)BDSD-PC;10)WT;(11)本发明的方法;(12)参考的多光谱图像;
图9为十种不同方法在第三组图像上的融合结果:(1)BT;(2)GSA;(3)GF;(4)IHS;(5)CT;(6)PCA;(7)PRACS;(8)NSST-SR;(9)BDSD-PC;(10)WT;(11)本发明的方法;(12)参考的多光谱图像。
具体实施方式
本发明提供了一种基于加权平均曲率滤波分解的遥感图像融合方法,具体的融合过程包括如下步骤:
(1)计算多光谱强度分量:
如果采用简单的平均规则,会丢失原图像的一些细节、纹理等重要信息。所以,有必要根据图像中不同区域包含信息的重要程度进行加权,然后再进行融合。加权系数的准确选择决定了融合图像的质量,本发明采用基于加权局部空间频率(Weighted LocalSpatial Frequency,WLSF)的自适应加权平均方法,用于将多光谱图像各波段融合生成强度分量I。
图像的邻近像素之间存在较大的相关性,任何单个像素都无法准确表达局部的区域特征。加权局部空间频率可以充分利用局部区域内包括水平、垂直以及主副对角线方向的八邻域内的多个像素点。依据距离中心像素的欧氏距离赋予不同的权重,加权之后再参与计算。加权局部空间频率可以作为空间域中细节、纹理等重要信息的评价指标。加权局部空间频率值较大的像素被认为是权重较大的信息,如细节、纹理等,在融合过程中赋予较大的权重。因此,本发明根据加权局部空间频率设计自适应加权平均的系数ωi,具体如下所示。
其中n是多光谱图像的波段,WLSFi表示多光谱图像第i个波段在(x,y)位置处的加权局部空间频率值。MSi(x,y)表示多光谱图像第i个波段在(x,y)位置的像素值。ωi(x,y)表示多光谱图像第i个波段在(x,y)位置的加权系数。I(x,y)表示强度分量I在(x,y)位置处的像素值。
(2)光谱估计:
将I作为初始α通道,根据如下公式计算前景图像F和背景图像B,方便后续利用F、B进行图像重构。
F和B包含丰富的光谱信息,但不包含空间信息,后续步骤的主要目的是通过融合从全色图像中获得空间细节信息。
(3)多尺度分解
加权平均曲率滤波(Weighted Mean Curvature Filter,WMCF)可以在平滑图像的同时保留边缘信息,因此可以用于图像分解。此外,高斯滤波(Gaussian Filter,GF)是一种广泛使用的图像平滑算子(表示为GF(·))。在本发明中,多尺度分解是基于WMCF和GF的。利用WMCF和GF对PAN图像进行多尺度分解,得到大尺度图像L、小尺度图像S和基本图像B。通过这种分解方法,可以将输入图像分解成三个不同尺度的子图像。分解过程为利用WMCF和GF对输入图像M进行处理,分别获得滤波图像Iw和Ig。其次,通过M和Iw的差值得到小尺度图像(S)。大尺度图像(L)也是差分结果。基于WMCF和GF的图像分解方法流程图如图1所示。
Ig=GF(M,σ,ρ). (4)
Iw=WMCF(M,p). (5)
S=M-Iw. (6)
L=Iw-Ig. (7)
B=Ig. (8)。
(4)分量融合:
在图像融合中,PCNN模型起着重要的作用,但它有一个缺点:对于一幅图像,一个像素对应一个神经元。一旦单独使用PCNN,就很难找到边缘、纹理等细节信息。在这种情况下,融合结果可能会发生局部模糊。连接系数β表示局部区域内像素值的变化情况,传统的融合方法大多选取固定的连接系数。但是,每个像素点之间的连接强度各不相同,所以固定的β不能改善融合图像的质量。局部能量是评价图像细节信息的重要指标,所以本发明利用图像的局部能量E来动态调节连接系数β的大小,根据图像的特征自适应变化,以便充分保留图像边缘的特征信息。自适应连接系数β描述为:
其中,E(x,y)表示(x,y)处的局部能量。βxy表示(x,y)处的连接系数。局部能量越大,空间细节就越清晰。根据如上公式可看出,此时连接系数β的值相应也越大,从而会促进PCNN点火。局部能量的计算具体描述如下:
其中C(x,y)表示图像在(x,y)处的像素值。W为加权系数矩阵,具体细节如下:
将加权局部空间频率值作为脉冲耦合神经网络的输入。利用图像的局部能量E来动态调节连接系数β的大小,根据图像的特征自适应变化。当达到最大迭代次数时,迭代停止,得到强度分量I的点火次数总和TI和基本图像B的点火次数总和TB。根据点火次数总和取大原则进行融合,如下式所示。
其中FA(x,y)代表融合图像FA在(x,y)位置的像素值,I(x,y)代表强度分量I在(x,y)位置的像素值,B(x,y)代表基本图像B在(x,y)位置的像素值。
最终,通过加权局部空间频率引导的脉冲耦合神经网络融合基本图像B和强度分量I得到融合图像FA。
(5)图像重构:
通过S、L和FA的线性组合重建融合后的图像FB作为最终的α通道。根据如下公式,组合α、F和B进行重构,得到最终的融合结果。
Ii=αiFi+(1-αi)Bi (13)
其中Fi是第i个像素的前景颜色,Bi是第i个像素的背景颜色,Ii第i个像素的颜色。
经过上面步骤之后,便能得到最终的融合结果,图2为基于加权平均曲率滤波分解的遥感图像融合方法即本发明的流程图。
补充说明:
1.图像抠图模型:
根据图像抠图模型,通过线性合成模型将输入图像区分为前景图像F和背景图像B,即第i个像素的颜色是对应的前景颜色和背景颜色的线性组合。
Ii=αiFi+(1-αi)Bi (14)
其中Fi是第i个像素的前景颜色,Bi是第i个像素的背景颜色,其中,α是前景图像F的不透明度。根据图像抠图模型的局部线性假设,如果α包含该图像的大部分边缘信息,则该图像的对应的光谱前景和背景色在空间上将是平滑的。在确定输入图像和α的同时,通过求解以下函数估计前景图像F和背景图像B。
2.脉冲耦合神经网络:
PCNN是Johnson等人研究哺乳动物视觉皮层工作机理,以Eckhorn模型和Rybak模型为基础改进和优化提出。单个神经元由输入部分、连接部分和脉冲发生器三个部分组成。PCNN模型的基本结构如图3所示。与人工神经网络不同,PCNN不需要任何训练过程。在PCNN模型中,图像像素和神经元存在一对一的对应关系。PCNN神经元的连接模型如图4所示。
标准的PCNN模型由以下的公式描述:
Uij[n]=Fij[n](1+βLij[n]). (18)
Tij[n]用于阈值调节,Uij[n]用于产生调制信号与阈值进行比较产生脉冲信号Yij[n]。共有9个参数,9个参数分属四类:时间衰减常数、放大系数、连接系数以及权值矩阵等。
时间衰减常数:αF,αL,αθ,这三个参数分别来自输入域F、连接输入域L以及动态门限T。αF,αL控制着F,L通道信号的衰减速度,αθ控制着阈值衰减的速度。
放大系数:VF、VL、VE。这三个参数分别是输入域F、连接输入域L以及动态门限T的放大系数。
连接系数β:该参数来自调制域U主要起到调节神经元之间相互影响的作用,同时该参数还影响着中心神经元的点火周期。
权值矩阵W,M:这两个参数分别来自输入域F、连接输入域L。矩阵中的元素表示神经元之间的连接强弱关系。
工作原理:
首先,接收域F接收外部刺激S、自身的刺激Fij[n-1],L接收周围神经元的刺激。调制域针对接收域的信号F和L进行调制得到内部活动项U;将脉冲产生域神经元对应位置的内部活动项U与动态阈值Tij进行比较,若Uij>Tij,则脉冲发生器启动神经元点火输出Yij=1,否则神经元不点火,输出Yij=0,得到最后结果Y。上述过程不断重复,直到满足条件为止。
3.加权局部空间频率:
加权局部空间频率可以反映各像素邻域范围内的活跃程度,空间频率值越大,局部区域内各像素点的活跃度越高。但是,传统的空间频率只描述水平和垂直两个方向的空间信息而缺乏对角信息,导致融合结果可能丢失一些纹理、细节信息。然而,这些信息对融合来说至关重要。传统的空间频率计算如下式。
其中,RF、CF分别是行频率、列频率。RF、CF包含水平、垂直两个方向。
本发明对空间频率的计算进行改进,在原有基础上增加对角方向的计算。此外,基于欧几里得度量,确定行、列频率的加权系数为改进后的空间频率称为加权局部空间频率(Weighted Local Spatial Frequency,WLSF)。WLSF同时包含行、列和对角方向,对八个方向的空间频率进行加权求和。加权局部空间频率可以反映各像素邻域范围内的活跃程度,空间频率值越大,局部区域内各像素点的活跃度越高。加权局部空间频率的计算公式如下:
其中,RF、CF和DF分别是行频率、列频率和对角频率。RF、CF包含水平、垂直两个方向,DF包含正副对角线方向,具体定义如下:
RF=RF1+RF2,CF=CF1+CF2 (23)
DF=DF1+DF2+DF3+DF4 (24)
其中,(2M+1)(2N+1)代表局部区域的大小。f(x,y)代表(x,y)位置处的像素值。
4.加权平均曲率滤波:
图片U的加权平均曲率(Weighted Mean Curvature,WMC)定义为:
对于二维图像即n=2,该等式变为:
其中Δ是各向同性拉普拉斯算子,Ux和Uy是x和y方向的偏导数,Uxy是相应的二阶偏导数。这种WMC定义既可以解释为按平均曲率加权的梯度,也可以解释为按梯度加权的平均曲率。WMC与梯度和MC的关系如图3所示。(33)和(34)是对WMC的连续形式的定义,但是实际图像是由离散的像素点组成的。因此,有必要对离散形式进行定义。
对于3×3窗口,将考虑8个可能的法线方向和半窗口。所有8种情况都会产生相应的内核:
根据八个内核可以计算出八个距离:
其中*表示卷积操作。离散形式可以表示为:
Hw≈dk,k=argmin{|di|;i=1,2,...,8}. (37)
WMC的简化过程可以表示为:
Iout=WMC(Iin). (38)
其中Iin和Iout是输入和滤波后的图像,WMC(·)表示WMCF操作。
以下通过实施例对本发明的技术方案作进一步说明。
实施例
本发明使用了一个包含27组图像的数据集进行实验,这些图像是由LANDSAT 7ETM+拍摄的。数据集的图像大小为400×400像素,在6个波段(红、绿、蓝、近红外、中红外和短波红外)工作。多光谱图像的空间分辨率为30m,全色图像的空间分辨率为15m。因此,由于数据集中没有高分辨率的MS图像作为参考图像,所以我们先将原始的多光谱图像进行上采样,得到像素大小为400×400的多光谱图像。接着,将像素大小为400×400的多光谱图像和全色图像进行下采样,得到像素大小为200×200的多光谱图像和全色图像作为实验图像。随机选择三对不同场景的图像进行对照实验。最后,将原始MS图像作为参考图像,与各方法融合后的图像进行比较。图6展示了三组MS和PAN图像,随后将用于实验分析。
本发明将十种具有代表性的融合方法:(1)BT(Brovey Transform-basedmethod),(2)GSA(Gram Schmidt Adaptive-based method),(3)GF(Guided Filter-basedmethod),(4)IHS(Intensity-Hue-Saturation-based method),(5)CT(CurveletTransform-based method),(6)PCA(Principal Component Analysis-based method),(7)PRACS(Partial Replacement Adaptive Component Substitution-based method),(8)NSST-SR(NSST and Sparse Representation-based method),(9)BDSD-PC(Banddependent Spatial-detail with Physical Constrains-basedmethod),(10)WT(WaveletTransform-based method)和本发明的融合方法进行比较。
通常可以通过主观评价和客观评价来衡量一种遥感图像融合方法的性能。在进行主观评价时,通常会考虑目标的清晰度以及融合图像与原始多光谱图像光谱的接近程度。然而,仅凭主观评价难以对融合质量进行准确比较。为了对图像融合方法进行定量评价,采用若干指标来评价不同融合方法的性能。在实验中,使用六个众所周知的客观评价指标,并详细介绍如下。
(1)相关系数(Correlation Coefficient,CC)计算参考图像和融合结果之间的相关性。该值越大,表示融合结果越接近参考图像,理想值是1。
(2)光谱角制图(SpectralAngle Mapper,SAM)反映融合图像和参考图像之间的光谱失真。SAM值越小,融合图像中的光谱失真越小。
(3)光谱信息散度(Spectral Information Divergence,SID)评测光谱之间的差异,理想值为0。
(4)无参考质量评价指标(Quality with No Reference,QNR)可以在没有参考图像的情况下评估融合图像的质量,由光谱失真指数Dλ、空间失真指数DS和全局QNR值三部分组成。对于全局QNR,值越大则融合效果越好,理想值为1。
(5)Dλ是QNR的亚度量,可以测量光谱失真。其值越小,融合效果越好,理想值为0。
(6)DS是QNR的亚度量,可以测量空间畸变。其值越小,融合效果越好,理想值为0。
图7、8、9中的(1)-(12)分别给出第一组图像、第二组图像、第三组图像对分别经BT、GSA、GF、IHS、CT、PCA、PRACS、NSST-SR、BDSD-PC、WT方法与本发明方法得到的融合结果,并与参考的多光谱图像作对比。为了更加直观地比较融合结果之间的差异,对融合结果进行局部放大,放大图像置于右下角。表1、2、3分别列出三组图像融合结果的六种包含光谱和空间质量评价的客观指标数值。对于所有的融合质量评价指标,最好的结果以红色粗体显示。
表1第一组图像融合结果的客观评价
表2第二组图像融合结果的客观评价
表3第三组图像融合结果的客观评价
从图7、图8、图9中可以看出,(1)BT、(2)GSA、(3)GF、(6)PCA方法的融合图像在整体区域出现光谱失真,和参考多光谱图像相比光谱差异较大,在局部放大区域比较明显。(10)WT方法的融合图像空间细节失真较为严重。(3)GF方法的融合图像空间细节和光谱均发生一定程度的失真。其余方法保持了较好的光谱特性,但是局部放大部分空间细节比较模糊。从主观视觉角度分析,本发明方法的空间细节更加清晰,在改善空间细节的同时具有很好的光谱保持特性。
从表1、2、3中可以看出,本发明方法在六个评价指标中的CC、SID、Ds、QNR上表现最好,尤其是QNR值,在所有方法中遥遥领先,比较接近最优值1。从客观评价指标角度分析,本发明方法具有良好的空间细节保持特性和光谱保持特性,整体效果较好。
综合本方法在第一、二、三组图像融合结果的客观评价结果以及视觉效果,本发明的方法在六个评价指标中的CC、SID、Ds、QNR上表现较好,空间细节较为清晰且光谱分辨率较高。该方法具有良好的空间细节保持特性和光谱保持特性,能够在保留多光谱图像更多光谱信息的同时,从全色图像中获得更多的空间细节,充分验证了本发明方法的有效性。
因此,本发明采用上述一种基于加权平均曲率滤波分解的遥感图像融合方法,解决了融合图像空间失真和光谱失真问题,通过与十种典型的融合方法进行比较,在主观视觉效果和客观评价方面都取得较好的结果。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。
Claims (5)
1.一种基于加权平均曲率滤波分解的遥感图像融合方法,其特征在于,包括以下步骤:
S1、计算多光谱强度分量:采用基于局部空间频率的自适应加权平均方法,用于将多光谱图像各波段融合生成强度分量I,加权局部空间频率利用水平、垂直以及主副对角线方向的八邻域内的多个像素点,依据距离中心像素的欧氏距离赋予不同的权重,加权之后再参与计算,根据加权局部空间频率设计自适应加权平均的系数ωi,具体如下所示:
其中n是多光谱图像的波段,WLSFi表示多光谱图像第i个波段在(x,y)位置处的加权局部空间频率值,MSi(x,y)表示多光谱图像第i个波段在(x,y)位置的像素值,ωi(x,y)表示多光谱图像第i个波段在(x,y)位置的加权系数,I(x,y)表示强度分量I在(x,y)位置处的像素值;
S2、光谱估计:将I作为初始α通道,根据下列公式计算前景图像F和背景图像B,后续利用F、B进行图像重构:
S3、多尺度分解:利用加权平均曲率滤波(WMCF)和高斯滤波(GF)对全色图像进行多尺度分解,得到大尺度图像L、小尺度图像S和基本图像B,通过这种分解方法,将输入图像分解成三个不同尺度的子图像,分解过程为利用WMCF和GF对输入图像M进行处理,分别获得滤波图像Iw和Ig,通过M和Iw的差值得到小尺度图像,大尺度图像是差分结果:
Ig=GF(M,σ,ρ). (4)
Iw=WMCF(M,p). (5)
S=M-Iw. (6)
L=Iw-Ig. (7)
B=Ig. (8);
S4、分量融合:利用图像的局部能量E来动态调节连接系数β的大小,根据图像的特征自适应变化保留图像边缘的特征信息,自适应连接系数β描述为:
其中,E(x,y)表示(x,y)处的局部能量,βxy表示(x,y)处的连接系数,局部能量的计算具体描述如下:
其中C(x,y)表示图像在(x,y)处的像素值,W为加权系数矩阵,具体细节如下:
将加权局部空间频率值作为脉冲耦合神经网络的输入,利用图像的局部能量E来动态调节连接系数β的大小,根据图像的特征自适应变化,当达到最大迭代次数时,迭代停止,得到强度分量I的点火次数总和TB和基本图像B的点火次数总和,根据点火次数总和取大原则进行融合,如下式所示:
其中FA(x,y)代表融合图像FA在(x,y)位置的像素值,I(x,y)代表强度分量I在(x,y)位置的像素值,B(x,y)代表基本图像B在(x,y)位置的像素值,最终,通过加权局部空间频率引导的脉冲耦合神经网络融合基本图像B和强度分量I得到融合图像FA;
S5、图像重构:通过S、L和FA的线性组合重建融合后的图像FB作为最终的α通道,根据如下公式,组合α、F和B进行重构,得到最终的融合结果:
Ii=αiFi+(1-αi)Bi (13)。
2.根据权利要求1所述的一种基于加权平均曲率滤波分解的遥感图像融合方法,其特征在于:所述步骤S2根据图像抠图模型,通过线性合成模型将输入图像区分为前景图像F和背景图像B,即第i个像素的颜色是对应的前景颜色和背景颜色的线性组合:
Ii=αiFi+(1-αi)Bi (14)
其中Fi是第i个像素的前景颜色,Bi是第i个像素的背景颜色,其中,α是前景图像F的不透明度,根据图像抠图模型的局部线性假设,如果α包含该图像的大部分边缘信息,则该图像的对应的光谱前景和背景色在空间上是平滑的,在确定输入图像和α的同时,通过求解以下函数估计前景图像F和背景图像B:
3.根据权利要求1所述的一种基于加权平均曲率滤波分解的遥感图像融合方法,其特征在于,所述步骤S4中脉冲耦合神经网络模型具体为:
标准的PCNN模型由以下公式描述:
Uij[n]=Fij[n](1+βLij[n]). (18)
Tij[n]用于阈值调节,Uij[n]用于产生调制信号与阈值进行比较产生脉冲信号Yij[n],共有9个参数,9个参数分属四类:时间衰减常数、放大系数、连接系数以及权值矩阵,时间衰减常数为αF,αL,αθ,这三个参数分别来自输入域F、连接输入域L以及动态门限T,αF,αL控制着F,L通道信号的衰减速度,αθ控制着阈值衰减的速度,放大系数为VF、VL、VE,这三个参数分别是输入域F、连接输入域L以及动态门限T的放大系数,连接系数β来自调制域U起到调节神经元之间相互影响的作用,同时该参数还影响着中心神经元的点火周期,权值矩阵为W、M,这两个参数分别来自输入域F、连接输入域L,矩阵中的元素表示神经元之间的连接强弱关系;
接收域F接收外部刺激S、自身的刺激Fij[n-1],L接收周围神经元的刺激,调制域针对接收域的信号F和L进行调制得到内部活动项U,将脉冲产生域神经元对应位置的内部活动项U与动态阈值Tij进行比较,若Uij>Tij,则脉冲发生器启动神经元点火输出Yij=1,否则神经元不点火,输出Yij=0,得到最后结果Y,上述过程不断重复,直到满足条件为止。
4.根据权利要求1所述的一种基于加权平均曲率滤波分解的遥感图像融合方法,其特征在于,所述步骤S1和S4中加权局部空间频率具体为:
传统的空间频率描述水平和垂直两个方向的空间信息,传统的空间频率计算如下式:
其中,RF、CF分别是行频率、列频率,RF、CF包含水平、垂直两个方向;
对空间频率的计算进行改进,在原有基础上增加对角方向的计算,此外,基于欧几里得度量,确定行、列频率的加权系数为改进后的空间频率称为加权局部空间频率(WLSF),用于反映各像素邻域范围内的活跃程度,WLSF同时包含行、列和对角方向,对八个方向的空间频率进行加权求和,加权局部空间频率反映各像素邻域范围内的活跃程度,加权局部空间频率的计算公式如下:
其中,RF、CF和DF分别是行频率、列频率和对角频率,RF、CF包含水平、垂直两个方向,DF包含正副对角线方向,具体定义如下:
RF=RF1+RF2,CF=CF1+CF2 (23)
DF=DF1+DF2+DF3+DF4 (24)
其中,(2M+1)(2N+1)代表局部区域的大小,f(x,y)代表(x,y)位置处的像素值。
5.根据权利要求1所述的一种基于加权平均曲率滤波分解的遥感图像融合方法,其特征在于,所述步骤S3中加权平均曲率具体为:
图片U的加权平均曲率(WMC)定义为:
对于二维图像即n=2,该等式变为:
对于3×3窗口,考虑8个法线方向和半窗口,8种情况产生相应的内核:
根据8个内核计算出八个距离:
其中*表示卷积操作,加权平均曲率的离散形式表示为:
Hw≈dk,k=argmin{|di|;i=1,2,...,8}. (37)
WMCF的简化过程表示为:
Iout=WMC(Iin). (38)
其中Iin和Iout是输入和滤波后的图像,WMC(·)表示WMCF操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210656563.0A CN114897882B (zh) | 2022-06-10 | 2022-06-10 | 一种基于加权平均曲率滤波分解的遥感图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210656563.0A CN114897882B (zh) | 2022-06-10 | 2022-06-10 | 一种基于加权平均曲率滤波分解的遥感图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114897882A true CN114897882A (zh) | 2022-08-12 |
CN114897882B CN114897882B (zh) | 2024-04-19 |
Family
ID=82729018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210656563.0A Active CN114897882B (zh) | 2022-06-10 | 2022-06-10 | 一种基于加权平均曲率滤波分解的遥感图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114897882B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115345238A (zh) * | 2022-08-17 | 2022-11-15 | 中国人民解放军61741部队 | 一种海水透明度融合数据的生成方法及生成装置 |
CN116188305A (zh) * | 2023-02-16 | 2023-05-30 | 长春理工大学 | 基于加权引导滤波的多光谱图像重建方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101291219B1 (ko) * | 2012-03-16 | 2013-07-31 | 한국항공우주연구원 | 전정색영상과 다분광영상의 융합 방법 및 그 장치 |
CN105303542A (zh) * | 2015-09-22 | 2016-02-03 | 西北工业大学 | 基于梯度加权的自适应sfim图像融合算法 |
CN108921809A (zh) * | 2018-06-11 | 2018-11-30 | 上海海洋大学 | 整体原则下基于空间频率的多光谱和全色图像融合方法 |
US20200396397A1 (en) * | 2019-06-13 | 2020-12-17 | Apple Inc. | Multispectral Image Processing System and Method |
CN113421200A (zh) * | 2021-06-23 | 2021-09-21 | 中国矿业大学(北京) | 基于多尺度变换与脉冲耦合神经网络的图像融合方法 |
WO2021205735A1 (en) * | 2020-04-08 | 2021-10-14 | Mitsubishi Electric Corporation | Systems and methods for blind multi- spectral image fusion |
-
2022
- 2022-06-10 CN CN202210656563.0A patent/CN114897882B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101291219B1 (ko) * | 2012-03-16 | 2013-07-31 | 한국항공우주연구원 | 전정색영상과 다분광영상의 융합 방법 및 그 장치 |
CN105303542A (zh) * | 2015-09-22 | 2016-02-03 | 西北工业大学 | 基于梯度加权的自适应sfim图像融合算法 |
CN108921809A (zh) * | 2018-06-11 | 2018-11-30 | 上海海洋大学 | 整体原则下基于空间频率的多光谱和全色图像融合方法 |
US20200396397A1 (en) * | 2019-06-13 | 2020-12-17 | Apple Inc. | Multispectral Image Processing System and Method |
WO2021205735A1 (en) * | 2020-04-08 | 2021-10-14 | Mitsubishi Electric Corporation | Systems and methods for blind multi- spectral image fusion |
CN113421200A (zh) * | 2021-06-23 | 2021-09-21 | 中国矿业大学(北京) | 基于多尺度变换与脉冲耦合神经网络的图像融合方法 |
Non-Patent Citations (1)
Title |
---|
张静 等: "结合多元经验模态分解和加权最小二乘滤波器的遥感图像融合", 光子学报, no. 05, 6 March 2019 (2019-03-06), pages 129 - 142 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115345238A (zh) * | 2022-08-17 | 2022-11-15 | 中国人民解放军61741部队 | 一种海水透明度融合数据的生成方法及生成装置 |
CN115345238B (zh) * | 2022-08-17 | 2023-04-07 | 中国人民解放军61741部队 | 一种海水透明度融合数据的生成方法及生成装置 |
CN116188305A (zh) * | 2023-02-16 | 2023-05-30 | 长春理工大学 | 基于加权引导滤波的多光谱图像重建方法 |
CN116188305B (zh) * | 2023-02-16 | 2023-12-19 | 长春理工大学 | 基于加权引导滤波的多光谱图像重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114897882B (zh) | 2024-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110533620B (zh) | 基于aae提取空间特征的高光谱和全色图像融合方法 | |
CN108830796B (zh) | 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法 | |
CN107194904B (zh) | 基于增补机制和pcnn的nsct域图像融合方法 | |
CN114897882A (zh) | 一种基于加权平均曲率滤波分解的遥感图像融合方法 | |
Miao et al. | Local segmentation of images using an improved fuzzy C-means clustering algorithm based on self-adaptive dictionary learning | |
Jiang et al. | A switched view of Retinex: Deep self-regularized low-light image enhancement | |
Xu et al. | Learning deformable kernels for image and video denoising | |
CN112069919A (zh) | 基于非凸低秩矩阵逼近和全变分正则化的高光谱图像去噪方法 | |
Liu et al. | UMAG-Net: A new unsupervised multiattention-guided network for hyperspectral and multispectral image fusion | |
CN108921809B (zh) | 整体原则下基于空间频率的多光谱和全色图像融合方法 | |
Zhang et al. | IID-MEF: A multi-exposure fusion network based on intrinsic image decomposition | |
CN109272477A (zh) | 一种基于nsst与自适应双通道pcnn的融合方法以及融合处理器 | |
CN116664451B (zh) | 基于多图像处理的测量机器人测量优化方法 | |
CN107944497A (zh) | 基于主成分分析的图像块相似性度量方法 | |
Wang et al. | Metalantis: A Comprehensive Underwater Image Enhancement Framework | |
CN111460966B (zh) | 基于度量学习和近邻增强的高光谱遥感图像分类方法 | |
CN112651945A (zh) | 一种基于多特征的多曝光图像感知质量评价方法 | |
CN116664462A (zh) | 一种基于ms-dsc和i_cbam的红外和可见光图像融合方法 | |
Liu et al. | A multiscale approach to deep blind image quality assessment | |
CN110084774B (zh) | 一种增强的梯度传递和总变差最小化融合图像的方法 | |
CN116645283A (zh) | 基于自监督感知损失多尺度卷积神经网络的低剂量ct图像去噪方法 | |
Pan et al. | ChebyLighter: Optimal Curve Estimation for Low-light Image Enhancement | |
Ding et al. | Learning-based underwater image enhancement: An efficient two-stream approach | |
Yan et al. | You only need one color space: An efficient network for low-light image enhancement | |
CN114897757B (zh) | 一种基于nsst和参数自适应pcnn的遥感图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |