CN114897706A - 一种全色多光谱影像融合的绿色植被增强方法 - Google Patents

一种全色多光谱影像融合的绿色植被增强方法 Download PDF

Info

Publication number
CN114897706A
CN114897706A CN202111114781.3A CN202111114781A CN114897706A CN 114897706 A CN114897706 A CN 114897706A CN 202111114781 A CN202111114781 A CN 202111114781A CN 114897706 A CN114897706 A CN 114897706A
Authority
CN
China
Prior art keywords
image
panchromatic
multispectral
band
green vegetation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111114781.3A
Other languages
English (en)
Inventor
王密
谢广奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Jiudian High Score Remote Sensing Technology Co ltd
Original Assignee
Wuhan Jiudian High Score Remote Sensing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Jiudian High Score Remote Sensing Technology Co ltd filed Critical Wuhan Jiudian High Score Remote Sensing Technology Co ltd
Priority to CN202111114781.3A priority Critical patent/CN114897706A/zh
Publication of CN114897706A publication Critical patent/CN114897706A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration by non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种全色多光谱影像融合的绿色植被增强方法,首先基于有理函数模型对全色影像与多光谱影像进行粗配准;然后将粗配准的多光谱影像与全色影像进行小面元微分配准;接着基于归一化植被指数小面元微分配准后的多光谱影像进行绿色植被增强;再将全色影像与进行绿色植被增强后的多光谱影像进行融合,得到最终绿色植被增强的融合结果。本发明在融合过程中对绿色植被进行了增强,改善了融合效果,解决了全色多光谱融合影像中绿色植被偏暗的问题,有利于最终的成图效果的改善及后续的判读与处理。

Description

一种全色多光谱影像融合的绿色植被增强方法
技术领域
本发明涉及遥感图像处理领域,尤其涉及一种全色多光谱影像融合的绿色植被增强方法。
背景技术
当空间分辨率提升,相对地必然会降低光谱分辨率,反之当光谱分辨率提升也会导致空间分辨率降低。因为对于遥感相机而言,探元只有接收足够的能量才能维持信噪比,多光谱单波段接收能量弱,只能增大探元尺寸,从而导致多光谱的空间分辨率低于全色;而全色的空间分辨率虽然高于多光谱,但是为了增加接收能量的强度,其波谱范围较宽,其光谱分辨能力低于多光谱,在相等的条件下,提高空间分辨率必然会降低光谱分辨率,这是不可调和的矛盾。
因此主流的光学卫星在设计的时候也充分考虑了这个因素,会同时设计具备高空间分辨率的全色影像以及具备高光谱分辨率的多光谱影像,这也为地面获取同时具备高空间分辨率与高光谱分辨率的遥感影像提供了硬件基础,获取此类影像的过程即为全色多光谱影像融合,融合影像也是光学卫星重要的图像产品,有利于后期的判读和处理。
现有技术的融合方法中,由于卫星影像是高比特量化,图像目视较暗,尤其是植被区域,一般呈现暗绿色,与人们常见的亮绿色有着较大的区别,往往会影响判读员判读,也就是说现有的全色多光谱融合影像中存在绿色植被偏暗的问题。
发明内容
本发明提出一种全色多光谱影像融合的绿色植被增强方法,在融合过程中对绿色植被进行了增强,有利于最终的成图效果的改善及后续的判读与处理,解决了现有技术中存在的绿色植被偏暗的技术问题。
为了解决上述技术问题,本发明提供了一种全色多光谱影像融合的绿色植被增强方法,包括:
S1:基于有理函数模型对全色影像与多光谱影像进行粗配准;
S2:将粗配准的多光谱影像与全色影像进行小面元微分配准;
S3:基于归一化植被指数小面元微分配准后的多光谱影像进行绿色植被增强;
S4:将全色影像与进行绿色植被增强后的多光谱影像进行融合,得到最终绿色植被增强的融合结果。
在一种实施方式中,步骤S1包括:
S1.1:通过有理函数模型计算全色影像和多光谱影像的重叠区域:
S1.2:读取重叠区域的全色影像,并以重叠区域的全色影为基准对多光谱影像进行微分地理配准,以实现粗配准。
在一种实施方式中,步骤S1.2包括:
S1.2.1:将全色影像按照计算得到的重叠区域读入到内存中,将读入内存的全色影像进行均匀格网点划分,得到相应的全色影像的像方坐标(s,l);
S1.2.2:通过全色影像的有理函数模型计算每个格网点的物方坐标(B,L,H);
S1.2.3:将格网点的物方坐标通过多光谱影像的有理函数模型计算得到每个格网点的多光谱影像的像方坐标(s′,l′);
S1.2.4:构建全色影像的像方坐标(s,l)到多光谱影像的像方坐标(s′,l′)的变换模型:
(s,l)=g(s′,l′);
S1.2.5:将多光谱影像通过上述变换模型映射重采样到全色影像坐标中,得到与全色影像粗配准的多光谱影像。
在一种实施方式中,步骤S2包括:
S2.1:构建虚拟全色影像,公式如下:
Mssp=r1*BandB+r2*BandG+r3*BandR+r4*BandNIR
上式中,Mssp为转换后的与全色更接近的虚拟全色影像,r1、r2、r3、r4分别为波段B,G,R,NIR与全色影像对应的波段范围比例,BandB、BandG、BandR、BaudNIR分别代表虚拟多光谱影像中的蓝光波段、绿光波段、红光波段以及近红外波段;
S2.2:通过在全色影像上选取均匀的格网点,以格网点为中心,建立m×n的匹配窗口,并在虚拟全色影像上建立同样大小和形状的匹配窗口,计算相关系数,公式如下:
Figure BDA0003275170290000031
其中,每个相关系数对应一个点,值最大的相关系数对应的点为匹配的同名点,其中,m,n表示匹配窗口的行列大小,i,j表示匹配窗口内的行号和列号,gi,j,gi+r,j+c分别表示M、N波段影像匹配窗口内的灰度值,c,r是N波段影像对于M波段影像在行、列上的坐标差;
S2.3:获得最大相关系数对应的点的上下左右四个点,并获得四个点对应的相关系数,根据四个点对应的相关系数进行高斯曲面拟合,得到全色影像与虚拟全色影像的同名点坐标;
S2.4:根据得到的全色影像与虚拟全色影像的同名点坐标,对粗配准后的多光谱影像进行微分配准。
在一种实施方式中,步骤S3包括:
S3.1:计算NDVI指数,计算公式如下:
Figure BDA0003275170290000032
上式中,NIR是近红外波段像素值,R是红光波段像素值;
S3.2:根据设定的阈值提取绿色植被区域,如下所示:
Figure BDA0003275170290000033
上式中,t为阈值;
S3.3:对绿色植被进行增强,公式如下:
Figure BDA0003275170290000034
上式中,α为增强比例,(1+NDVI-t)*α为增强系数,BandG为多光谱影像的绿光波段。
在一种实施方式中,步骤S4采用的融合方法为基于平滑滤波的亮度变换,公式为:
Figure BDA0003275170290000041
其中,MS为通过S3绿色增强后的多光谱影像,PAN为S2进行小面元微分配准后的全色影像,PAN′为S2进行小面元微分配准后的低分辨率全色影像,Fusion是融合结果。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
本发明提供一种全色多光谱影像融合的绿色植被增强方法,首先基于有理函数模型对全色影像与多光谱影像进行粗配准;然后将粗配准的多光谱影像与全色影像进行小面元微分配准;接着基于归一化植被指数小面元微分配准后的多光谱影像进行绿色植被增强;再将全色影像与进行绿色植被增强后的多光谱影像进行融合,得到最终绿色植被增强的融合结果。本发明在融合过程中对绿色植被进行了增强,改善了融合效果,解决了全色多光谱融合影像中绿色植被偏暗的问题,有利于最终的成图效果的改善及后续的判读与处理。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一种全色多光谱影像融合的绿色植被增强方法的流程图。
图2是本发明绿色植被增强前后效果的对比图。
具体实施方式
本申请发明人通过大量的研究与实践发现,融合影像是光学卫星重要的图像产品,有利于后期的判读和处理。此外由于卫星影像是高比特量化,图像目视较暗,尤其是植被区域,一般呈现暗绿色,与人们常见的亮绿色有着较大的区别,往往会影响判读员判读。而人眼对绿色特别敏感,符合自然图像特点的绿色植被对出图效果与判读精度都有着较大的提升。因此对绿色植被的增强也有着重要的意义,尤其是在使用场景较为丰富的融合影像中。
综上所述,为了提升全色多光谱影像融合的效果与判读精度,本发明针对性地提出了一种全色多光谱影像融合的绿色植被增强方法,在融合过程中完成绿色植被增强,使得融合影像中的绿色植被信息更加突出。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了解决全色多光谱融合影像中绿色植被偏暗的问题,本发明在融合过程中对绿色植被进行了增强,有利于最终的成图效果的改善及后续的判读与处理。本发明提出了一种全色多光谱影像融合的绿色植被增强方法,包括:
S1:基于有理函数模型对全色影像与多光谱影像进行粗配准;
S2:将粗配准的多光谱影像与全色影像进行小面元微分配准;
S3:基于归一化植被指数小面元微分配准后的多光谱影像进行绿色植被增强;
S4:将全色影像与进行绿色植被增强后的多光谱影像进行融合,得到最终绿色植被增强的融合结果。
具体来说,请参见图1,为一种全色多光谱影像融合的绿色植被增强方法的流程图。步骤S1中的有理函数模型为(Rational Function Model,RFM)。粗配准之后的多光谱影像与全色影像由于卫星平台震颤、定标随机误差等影响,仍然需要进行精配准,因此,通过步骤S2对小面元微分配准对粗配准之后的多光谱影像与全色影像进行精配准,以消除潜在的随机误差。
通过前述步骤S1~S2,已经可以得到精确配准的全色影像与多光谱影像,此时可对多光谱影像进行绿色植被增强,最后通过步骤S4将全色影像与绿色植被增强后的多光谱影像快速融合,得到最终经过绿色植被增强的融合结果,融合可选用SFIM(基于平滑滤波的亮度变换)、PSD(全色光谱分解)、GS(正交变换)等高保真的融合方法。
在一种实施方式中,步骤S1包括:
S1.1:通过有理函数模型计算全色影像和多光谱影像的重叠区域:
S1.2:读取重叠区域的全色影像,并以重叠区域的全色影为基准对多光谱影像进行微分地理配准,以实现粗配准。
具体来说,通过有理函数模型(Rational Function Model,RFM)可以确定全色与多光谱各自的地理范围,包括大地纬度B、大地经度L以及大地高程H(即为物方坐标BLH),其中,H采用平均高程。RFM模型可以构建物方坐标(B,L,H)与像方坐标(s,l)的关系,如下式所示:
Figure BDA0003275170290000061
其中上式中的,(U,V,W)为物方坐标(B,L,H)的归一化坐标:
Figure BDA0003275170290000062
其中,LonOff,LatOff,HeiOff分别为物方坐标的平移值,LonScale,LatScale,HeiScale分别为物方坐标的缩放值。
公式(1)中的多项式分子、分母分别表示如下:
Figure BDA0003275170290000063
其中,ai,bi,ci,di(i=1,2,…,20)为有理多项式系数(Rational PolynomialCoefficients,RPCs)。一般情况下,b1,d1均取值为1。
通过RFM模型即可计算得到全色和多光谱各自的地理范围,此时二者的地理范围在统一的地理坐标系中,即可计算得到重叠区域的地理范围,将重叠区域的地理范围通过RFM模型计算回各自的像方坐标系中,即可获得重叠区域的像方坐标范围。
接下来则可以读取重叠区的全色影像,并且以此为基准完成多光谱的微分地理配准,即粗配准。
在一种实施方式中,步骤S1.2包括:
S1.2.1:将全色影像按照计算得到的重叠区域读入到内存中,将读入内存的全色影像进行均匀格网点划分,得到相应的全色影像的像方坐标(s,l);
S1.2.2:通过全色影像的有理函数模型计算每个格网点的物方坐标(B,L,H);
S1.2.3:将格网点的物方坐标通过多光谱影像的有理函数模型计算得到每个格网点的多光谱影像的像方坐标(s′,l′);
S1.2.4:构建全色影像的像方坐标(s,l)到多光谱影像的像方坐标(s′,l′)的变换模型:
(s,l)=g(s′,l′) (4)
S1.2.5:将多光谱影像通过上述变换模型映射重采样到全色影像坐标中,得到与全色影像粗配准的多光谱影像。
具体来说,将全色影像按照计算得到的重叠区域读入到内存当中,则可以此为基准对多光谱影像进行微分地理配准。S1.2.4中,g()表示变换模型,变换模型可以为线性模型、放射变换模型、透视变换模型等的一种,从精度和效率的角度考虑,本实施例选用透视变换模型。
在映射的过程中需要对多光谱影像进行重采样,可以选用最近邻近重采样、双线性重采样、双三次重采样等重采样方法中的一种,基于效率与精度的考虑,本实施例选用双线性重采样。
在一种实施方式中,步骤S2包括:
S2.1:构建虚拟全色影像,公式如下:
Mssp=r1*BandB+r2*BandG+r3*BandR+r4*BandNIR (5)
上式中,Mssp为转换后的与全色影像更接近的虚拟全色影像(相对多光谱影像来说,虚拟全色影像与全色影像更接近),r1、r2、r3、r4分别为波段B,G,R,NIR与全色影像对应的波段范围比例,BandB、BandG、BandR、BandNIR分别代表虚拟多光谱影像中的蓝光波段、绿光波段、红光波段以及近红外波段;
S2.2:通过在全色影像上选取均匀的格网点,以格网点为中心,建立m×n的匹配窗口,并在虚拟全色影像上建立同样大小和形状的匹配窗口,计算相关系数,公式如下:
Figure BDA0003275170290000081
其中,每个相关系数对应一个点,值最大的相关系数对应的点为匹配的同名点,其中,m,n表示匹配窗口的行列大小,i,j表示匹配窗口内的行号和列号,gi,j,gi+r,j+c分别表示M、N波段影像匹配窗口内的灰度值,c,r是N波段影像对于M波段影像在行、列上的坐标差;
S2.3:获得最大相关系数对应的点的上下左右四个点,并获得四个点对应的相关系数,根据四个点对应的相关系数进行高斯曲面拟合,得到全色影像与虚拟全色影像的同名点坐标;
S2.4:根据得到的全色影像与虚拟全色影像的同名点坐标,对粗配准后的多光谱影像进行微分配准。
具体来说,由于多光谱波谱范围比较窄,其与全色影像的相关性不高,因此要构建虚拟全色影像与全色影像更好地进行匹配。构建的公式如(5)所示,r1、r2、r3、r4可由遥感卫星的设计参数查阅得出。
S2.2中,对于已经进行了配准处理的多光谱影像,取c=r=0;对于未进行波段配准的影像,c,r的大小则根据相机设计值来确定。
由于图像是离散数据,通过步骤S2.2计算相关系数得到的同名点坐标也是离散的,并不连续,因此通过步骤S2.3,根据四个点对应的相关系数进行高斯曲面拟合,得到连续的同名点坐标,即为全色影像与虚拟全色影像的同名点坐标。
在得到的连续的全色影像与虚拟全色影像的同名点坐标之后,可对粗配准后的多光谱影像进行微分配准,匹配方法与步骤S1相同,微分配准也可选用线性模型、放射变换模型、透视变换模型等的一种,重采样方法也可选用最近邻近重采样、双线性重采样、双三次重采样等中的一种,与前述步骤相同的考虑,本实施例选用透视变换及双线性重采样。
在一种实施方式中,步骤S3包括:
S3.1:计算NDVI指数,计算公式如下:
Figure BDA0003275170290000091
上式中,NIR是近红外波段像素值,R是红光波段像素值;
S3.2:根据设定的阈值提取绿色植被区域,如下所示:
Figure BDA0003275170290000092
上式中,t为阈值;
S3.3:对绿色植被进行增强,公式如下:
Figure BDA0003275170290000093
上式中,α为增强比例,(1+NDVI-t)*α为增强系数,BandG为多光谱影像的绿光波段。
具体来说,S3.1中,NDVI指数通过测量近红外(植被强烈反射)和红光(植被吸收)之间的差异来量化植被。当值为负数时,可能是水。另一方面,如果NDVI值接近+1,则是茂密的绿叶。然而,当NDVI接近于零时,没有绿叶,可能是城市化区域。因此得到如公式(7)所述的计算公式。
由于需要对绿色植被增强,则首先需要提取绿色植被区域,从NDVI的定义可知,当NDVI大于0越接近+1表示茂密的植被,因此设定一个阈值即可区分绿色植被与非植被,如公式(8)所示。阈值t可根据实际图像需求进行更改,本实施方式中t设为0.3,
提取得到绿色植被区域之后即可对绿色植被进行增强,彩色图像由RGB三原色构成,而绿色色彩强度主要由G分量决定,因此对绿色增强主要提升G分量的像素值,将上述步骤中得到的植被区域分别加上一个增强系数即可对其进行增强,增强系数的幅度由NDVI指数决定,正如前文中所述,NDVI值越高表示植被越茂密,因此可对G分量BandG进行重构,公式如式(9)所示。其中,根据实际需求可以调整α的值,本实施方式中α设为1,当α越小增强效果越弱,当α越大增强效果越强。
在一种实施方式中,步骤S4采用的融合方法为基于平滑滤波的亮度变换,公式为:
Figure BDA0003275170290000101
其中,MS为通过S3绿色增强后的多光谱影像,PAN为S2进行小面元微分配准后的全色影像,PAN′为S2进行小面元微分配准后的低分辨率全色影像,Fusion是融合结果。
具体来说,步骤S4将全色影像与绿色植被增强后的多光谱影像快速融合,得到最终经过绿色植被增强的融合结果,融合可选用SFIM、PSD、GS等高保真的融合方法,本实施方式选用基于平滑滤波的亮度变换,即SFIM模型。Pan和Pan′的比值只保留了高分辨率图像的边缘细节信息,而基本消除了光谱与对比度信息。SFIM模型可以被视为是在低分辨率图像中添加了高分辨率细节,其融合结果与高分辨率图像的光谱差异无关,SFIM模型具有较好的色彩保持能力
经过绿色植被增强前后的效果对比可参见图2,其中A部分是原图,B部分是绿色增强之后的图,A1、B1分别为绿色增强前后全图,A2、B2,A3、B3分别为绿色增强前后局部放大图。(彩色附图具体可以参见实审参考资料)。
与现有技术相比,该方法能够对融合后的绿色植被进行显著地增强,适用于对融合影像有绿色植被增强的需求与单位,能够提升融合图像的效果与判读精度,并且为后续处理提供有力的支撑。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (6)

1.一种全色多光谱影像融合的绿色植被增强方法,其特征在于,包括:
S1:基于有理函数模型对全色影像与多光谱影像进行粗配准;
S2:将粗配准的多光谱影像与全色影像进行小面元微分配准;
S3:基于归一化植被指数小面元微分配准后的多光谱影像进行绿色植被增强;
S4:将全色影像与进行绿色植被增强后的多光谱影像进行融合,得到最终绿色植被增强的融合结果。
2.如权利要求1所述的全色多光谱影像融合的绿色植被增强方法,其特征在于,步骤S1包括:
S1.1:通过有理函数模型计算全色影像和多光谱影像的重叠区域:
S1.2:读取重叠区域的全色影像,并以重叠区域的全色影为基准对多光谱影像进行微分地理配准,以实现粗配准。
3.如权利要求2所述的全色多光谱影像融合的绿色植被增强方法,其特征在于,步骤S1.2包括:
S1.2.1:将全色影像按照计算得到的重叠区域读入到内存中,将读入内存的全色影像进行均匀格网点划分,得到相应的全色影像的像方坐标(s,l);
S1.2.2:通过全色影像的有理函数模型计算每个格网点的物方坐标(B,L,片);
S1.2.3:将格网点的物方坐标通过多光谱影像的有理函数模型计算得到每个格网点的多光谱影像的像方坐标(s′,l′);
S1.2.4:构建全色影像的像方坐标(s,l)到多光谱影像的像方坐标(s′,l′)的变换模型:
(s,1)=g(s′,l′);
S1.2.5:将多光谱影像通过上述变换模型映射重采样到全色影像坐标中,得到与全色影像粗配准的多光谱影像。
4.如权利要求1所述的全色多光谱影像融合的绿色植被增强方法,其特征在于,步骤S2包括:
S2.1:构建虚拟全色影像,公式如下:
Mssp=r1*BandB+r2*BandG+r3*BandR+r4*BandNIR
上式中,Mssp为转换后的与全色影像更接近的虚拟全色影像,r1、r2、r3、r4分别为波段B,G,R,NIR与全色影像对应的波段范围比例,BandB、BandG、BandR、BandNIR分别代表虚拟多光谱影像中的蓝光波段、绿光波段、红光波段以及近红外波段;
S2.2:通过在全色影像上选取均匀的格网点,以格网点为中心,建立m×n的匹配窗口,并在虚拟全色影像上建立同样大小和形状的匹配窗口,计算相关系数,公式如下:
Figure FDA0003275170280000021
其中,每个相关系数对应一个点,值最大的相关系数对应的点为匹配的同名点,其中,m,n表示匹配窗口的行列大小,i,j表示匹配窗口内的行号和列号,gi,j,gi+r,j+c分别表示M、N波段影像匹配窗口内的灰度值,c,r是N波段影像对于M波段影像在行、列上的坐标差;
S2.3:获得最大相关系数对应的点的上下左右四个点,并获得四个点对应的相关系数,根据四个点对应的相关系数进行高斯曲面拟合,得到全色影像与虚拟全色影像的同名点坐标;
S2.4:根据得到的全色影像与虚拟全色影像的同名点坐标,对粗配准后的多光谱影像进行微分配准。
5.如权利要求1所述的全色多光谱影像融合的绿色植被增强方法,其特征在于,步骤S3包括:
S3.1:计算NDVI指数,计算公式如下:
Figure FDA0003275170280000022
上式中,NIR是近红外波段像素值,R是红光波段像素值;
S3.2:根据设定的阈值提取绿色植被区域,如下所示:
Figure FDA0003275170280000031
上式中,t为阈值;
S3.3:对绿色植被进行增强,公式如下:
Figure FDA0003275170280000032
上式中,α为增强比例,(1+NDVI-t)*α为增强系数,BandG为多光谱影像的绿光波段。
6.如权利要求1所述的全色多光谱影像融合的绿色植被增强方法,其特征在于,步骤S4采用的融合方法为基于平滑滤波的亮度变换,公式为:
Figure FDA0003275170280000033
其中,MS为通过S3绿色增强后的多光谱影像,PAN为S2进行小面元微分配准后的全色影像,PAN′为S2进行小面元微分配准后的低分辨率全色影像,Fusion是融合结果。
CN202111114781.3A 2021-09-23 2021-09-23 一种全色多光谱影像融合的绿色植被增强方法 Pending CN114897706A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111114781.3A CN114897706A (zh) 2021-09-23 2021-09-23 一种全色多光谱影像融合的绿色植被增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111114781.3A CN114897706A (zh) 2021-09-23 2021-09-23 一种全色多光谱影像融合的绿色植被增强方法

Publications (1)

Publication Number Publication Date
CN114897706A true CN114897706A (zh) 2022-08-12

Family

ID=82714192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111114781.3A Pending CN114897706A (zh) 2021-09-23 2021-09-23 一种全色多光谱影像融合的绿色植被增强方法

Country Status (1)

Country Link
CN (1) CN114897706A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237770A (zh) * 2023-08-29 2023-12-15 珠江水利委员会珠江水利科学研究院 基于指数幂函数的遥感影像融合方法、系统、设备及介质
CN117437164A (zh) * 2023-11-08 2024-01-23 武汉大势智慧科技有限公司 一种三维模型纹理增强方法、装置、电子设备和介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237770A (zh) * 2023-08-29 2023-12-15 珠江水利委员会珠江水利科学研究院 基于指数幂函数的遥感影像融合方法、系统、设备及介质
CN117437164A (zh) * 2023-11-08 2024-01-23 武汉大势智慧科技有限公司 一种三维模型纹理增强方法、装置、电子设备和介质

Similar Documents

Publication Publication Date Title
CN111080724B (zh) 一种红外和可见光的融合方法
CN107123089B (zh) 基于深度卷积网络的遥感图像超分辨重建方法及系统
US7826685B2 (en) Spatial and spectral calibration of a panchromatic, multispectral image pair
CN112991288B (zh) 基于丰度图像锐化重构的高光谱遥感图像融合方法
CN106251320B (zh) 基于联合稀疏与结构字典的遥感图像融合方法
CN112819737B (zh) 基于3d卷积的多尺度注意力深度卷积网络的遥感图像融合方法
JP4185075B2 (ja) 緑被率マップ作成装置、緑被率マップ作成方法、及び、プログラム。
CN114897706A (zh) 一种全色多光谱影像融合的绿色植被增强方法
CN109118463B (zh) 一种基于hsl和图像熵的sar图像和光学图像融合方法
CN107958450B (zh) 基于自适应高斯滤波的全色多光谱影像融合方法及系统
CN108765359A (zh) 一种基于jskf模型和nsct技术的高光谱遥感影像与全色图像的融合方法
CN105303542B (zh) 基于梯度加权的自适应sfim图像融合算法
Yang et al. Pansharpening for multiband images with adaptive spectral–intensity modulation
CN109166089A (zh) 一种对多光谱图像和全色图像进行融合的方法
CN108932708A (zh) 基于超分辨增强的星载多光谱遥感图像融合方法
CN114174783A (zh) 用于创建具有改进的图像捕获的局部制剂的系统和方法
CN110544212A (zh) 基于层级特征融合的卷积神经网络高光谱图像锐化方法
Zhang et al. Preprocessing and fusion analysis of GF-2 satellite Remote-sensed spatial data
CN111681171A (zh) 基于分块匹配的全色与多光谱图像高保真融合方法及装置
Bi et al. Haze removal for a single remote sensing image using low-rank and sparse prior
CN108734685A (zh) 一种无人机载高光谱线阵列遥感影像的拼接方法
CN113793289A (zh) 基于cnn和nsct的多光谱图像和全色图像模糊融合方法
CN111861888A (zh) 图像处理方法、装置、电子设备及存储介质
Ye et al. An unsupervised SAR and optical image fusion network based on structure-texture decomposition
CN109064394B (zh) 一种基于卷积神经网络的图像超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination