CN110084747A - 基于全色锐化技术支持下的空间引力模型亚像元定位方法 - Google Patents

基于全色锐化技术支持下的空间引力模型亚像元定位方法 Download PDF

Info

Publication number
CN110084747A
CN110084747A CN201910196829.6A CN201910196829A CN110084747A CN 110084747 A CN110084747 A CN 110084747A CN 201910196829 A CN201910196829 A CN 201910196829A CN 110084747 A CN110084747 A CN 110084747A
Authority
CN
China
Prior art keywords
sub
pixed mapping
image
model
pixed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910196829.6A
Other languages
English (en)
Other versions
CN110084747B (zh
Inventor
王鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201910196829.6A priority Critical patent/CN110084747B/zh
Publication of CN110084747A publication Critical patent/CN110084747A/zh
Application granted granted Critical
Publication of CN110084747B publication Critical patent/CN110084747B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10041Panchromatic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了基于全色锐化技术支持下的空间引力模型亚像元定位方法,具体为:将原始粗糙分辨率的遥感图像与来自同一区域的精细分辨率的全色图像基于主成分分析的全色锐化技术进行融合,产生精细分辨率的遥感图像;精细分辨率的遥感图像通过软分类技术获得包含空‑谱信息的精细丰度图像;前一步得到的精细丰度图像与通过基于混合空间引力模型获得的精细丰度图像利用线性整合方法获得更精细的丰度图像;根据更精细的丰度图像提供的亚像元预测值,通过类别分配方法将类别标签分配到每个亚像元中,获得最终的亚像元定位结果。本发明通过全色锐化技术更加充分利用空‑谱信息,改善传统的基于空间引力模型亚像元定位方法,获得更精确的亚像元定位结果。

Description

基于全色锐化技术支持下的空间引力模型亚像元定位方法
技术领域
本发明涉及基于全色锐化技术支持下的空间引力模型亚像元定位方法,属于遥感信息处理技术领域。
背景技术
土地覆盖类型的多样性和传感器瞬时视场的局限性所产生的混合像元是制约遥感图像空间分辨率的主要因素。这些制约使得准确的地物目标识别产生了很大的困难,而准确的目标识别对工业、农业、环境以及军事等方面都有着十分重要的意义。因此,现今遥感信息处理技术领域的热点问题之一就是处理混合像元以提高地物类别分布精度。亚像元定位技术(也称为超分辨率制图技术)通过一定的比例尺度将每个混合像元细分成亚像元并估计出各亚像元的地物类别,实现了从低分辨率的丰度图像(光谱解混结果)转变成高分辨率的地物类别分布图像的过程。
Tatem博士提出了一系列基于Hopfield神经网络模型的亚像元定位方法。Muad等继续讨论了在基于Hopfield神经网络模型的亚像元定位方法中不同的参数设置对识别不同尺度目标的能力。比利时根特大学的Mertens博士提出了基于BP神经网络的亚像元定位方法。后来Mertens博士又将该网络与小波变换相结合从而发掘更多的空间分布细节,进而提高了该方法目定位精度。基于空间引力模型的亚像元定位模型由于其简单的物理意义和不需要先验的结构信息而得到了广泛的应用。属于基于空间引力模型的亚像元定位模型的方法主要区别在于计算空间引力的尺度不同,如亚像元-像元空间引力模型、亚像元-亚像元空间引力模型和更有效的混合空间引力模型。然而,现有的这些基于空间引力模型的亚像元定位模型方法被直接应用于通过对原始的粗遥感图像进行解混而得到的粗糙丰度图像中。由于原始图像的分辨率较粗糙,粗糙丰度图像很难完全提取出原始图像的空-谱信息,影响最终的定位精度。
发明内容
本发明所要解决的技术问题是:提供基于全色锐化技术支持下的空间引力模型亚像元定位方法,能够更加充分利用原始图像的空-谱信息,获得定位精度更高的结果。
本发明为解决上述技术问题采用以下技术方案:
基于全色锐化技术支持下的空间引力模型亚像元定位方法,包括如下步骤:
步骤1,将原始低空间分辨率的遥感图像与来自同一区域的高空间分辨率的全色图像通过基于主成分分析的全色锐化技术进行融合,得到具有高空间分辨率的遥感图像;
步骤2,将步骤1得到的具有高空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得具有空-谱信息的丰度图像;
步骤3,将原始低空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得粗糙丰度图像,将粗糙丰度图像通过基于混合空间引力模型获得精细丰度图像;
步骤4,将步骤2得到的具有空-谱信息的丰度图像与步骤3得到的精细丰度图像,利用线性整合方法进行整合,得到整合后的丰度图像,根据整合后的丰度图像获取图像中亚像元属于每个类别标签的预测值,并通过类别分配方法将类别标签分配到每个亚像元中,获得最终的亚像元定位结果。
作为本发明的一种优选方案,步骤1所述基于主成分分析的全色锐化技术,具体公式为:
其中,是全色锐化后得到的图像,表示第b光谱波段被全色锐化后的图像,代表第b波段原始低空间分辨率的遥感图像插值到全色图像尺寸后的图像,gb是增益矢量,P是来自同一区域的高空间分辨率的全色图像,yb是权值向量,b=1,2,...,B,B为遥感图像波段总数。
作为本发明的一种优选方案,步骤2所述基于线性混合模型的软分类方法,具体公式为:
其中,是全色锐化后得到的图像的光谱值矢量,是所有亚像元属于第m类的预测值的矢量,E是光谱端元构成的矩阵,W是随机噪声。
作为本发明的一种优选方案,步骤3所述基于混合空间引力模型,具体公式为:
其中,为通过基于混合空间引力模型获得的精细丰度图像上亚像元属于每个类别的预测值,θ(0≤θ<1)是权重参数,分别通过基于亚像元-像元空间引力模型和基于亚像元-亚像元空间引力模型获得;
基于亚像元-像元空间引力模型如下:
其中,Cm(PJ)表示通过对原始低空间分辨率的遥感图像进行软分类获得的粗糙丰度图像Cm中与中心亚像元pn相邻的第J个像元PJ属于第m类的预测值,M为地物类别总数量,K为像元数目,S为比例尺度,wnJ是中心亚像元pn和相邻像元PJ之间空间相关性的权重;
wnJ=exp(-d(pn,PJ)21)
其中,d(pn,PJ)为中心亚像元pn和相邻像元PJ之间的欧几里得距离,ε1是指数模型参数;
基于亚像元-亚像元空间引力模型如下:
其中,wnj表示为中心亚像元pn和相邻亚像元pj之间空间相关性的权重;
wnj=exp(-d(pn,pj)22)
其中,d(pn,pj)定义为中心亚像元pn和相邻亚像元pj之间的欧几里得距离,ε2是指数模型参数。
作为本发明的一种优选方案,步骤4所述类别分配方法,具体公式为:
其中,tJ表示所有亚像元的软属性值之和,M为地物类别总数量,K为像元数目,S为比例尺度,PN表示一个像元,N=1,2,...,K,K是像元数目,pn表示一个亚像元,n=1,2,...,KS2,KS2是亚像元的数目,Cm(PN)表示粗糙丰度图像Cm中像元PN属于第m类的预测值。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明的方法改善现有的基于空间引力模型的亚像元定位模型,能够更加充分利用原始图像的空-谱信息,获得定位精度更高的结果。
附图说明
图1是本发明基于全色锐化技术支持下的空间引力模型亚像元定位方法流程示意图。
图2是基于PCA的全色锐化技术原理示意图。
图3是University of Pavia的高光谱遥感图像数据集的亚像元定位结果,其中,(a)为评价参考图像,(b)为SPSAM,(c)为MSPSAM,(d)为HSAM,(e)为PT。
图4是Washington,DC的高光谱遥感图像数据集的亚像元定位结果,其中,(a)为评价参考图像,(b)为SPSAM,(c)为MSPSAM,(d)为HSAM,(e)为PT。
图5是不同比例尺度S下本发明方法与其他三种方法的对比示意图,其中,(a)为PCC(%),(b)为Kappa。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1所示,为本发明基于全色锐化技术支持下的空间引力模型亚像元定位方法(Subpixel Mapping Based on Spatial Attraction Model by PansharpeningTechnology,PT)的实现框图,具体步骤如下:
(1)输入为大小M×N的原始粗糙遥感图像O与大小MS×NS来自同一区域的高空间分辨率全色图像P通过基于主成分分析(principal component analysis,PCA)的全色锐化技术进行融合,产生具有精细分辨率的全色锐化结果基于PCA的全色锐化技术原理图如图2所示。
对原始粗糙分辨率的遥感图像O进行线性变换,生成一组称为主分量的标量图像,原始图像的空间信息收集在第一主分量中,而光谱信息集中在其他主分量中;随后,利用精细分辨率的全色图像P替换包含空间信息的第一主分量,进而增强原始遥感图像的空间分辨率,全色图像与被替换主分量之间的相关性越大,融合方法引入的光谱失真越小;在替换发生之前对全色图像与所选主分量进行直方图匹配,通过直方图匹配的全色图像将显示与要替换的主分量相同的均值和方差;最后,应用线性反变换获得全色锐化结果;基于PCA的全色锐化模型一般可以由以下公式表示:
其中,b(b=1,2,...,B,B为遥感图像波段总数)表示第b光谱波段,O代表原始粗糙分辨率遥感图像,是全色锐化后得到的图像,表示第b光谱波段被全色锐化后的图像,代表第b波段原始粗糙辨率遥感图像插值到全色图像尺寸后的图像,gb=[g1,g2,...,gN]是增益矢量,P代表精细分辨率全色图像,同时I是被定义为:
其中权值向量yb=[y1,y2,...,yB]T被用来测量光谱波段和全色图像之间的光谱重叠。
(2)通过全色锐化技术获得的全色锐化结果通过基于线性混合模型的软分类方法获得包含丰富原始图像空-谱信息的M幅精细丰度图像(m=1,2,...,M,M为遥感图像中类别总数),精细丰度图像含有亚像元pn(n=1,2,...,K×S2,K为像元数目,当比例尺度为S时,亚像元总数量为K×S2)属于第m类的预测值线性混合模型可以通过公式(3)表示。
其中,是全色锐化后得到的图像的光谱值矢量;是所有亚像元属于第m类的预测值的矢量;E为光谱端元所构成的矩阵;W是随机噪声。线性解混模型常常需要利用最小二乘的方法寻求在随机噪声W最小的情况下的最优估计,同时还需要附加全约束条件(归一化和非负性约束)以满足实际物理意义。
(3)步骤(2)获得的新型的含有亚像元属于每个类别的预测值的精细丰度图像与通过基于混合空间引力模型获得含有亚像元属于每个类别的预测值的精细丰度图像利用线性整合方法获得含有更准确的亚像元属于每个类别的预测值Fm(pn)的更精细丰度图像Fm。基于混合空间引力模型可以公式(4)给出。
其中θ(0≤θ<1)是权重参数。分别通过基于亚像元-像元空间引力模型和基于亚像元-亚像元空间引力模型获得。基于亚像元-像元空间引力模型如公式(5)和(6)所示。
其中Cm(PJ)是通过对原始图像进行软分类获得的粗糙丰度图像Cm中与中心亚像元pn相邻的第J个像元PJ属于第m类的预测值,J是相邻像元数目。本发明选取相邻像元数为8个。wnJ是中心亚像元pn和相邻像元PJ之间空间相关性的权重,如公式(7)所示。
wnJ=exp(-d(pn,PJ)21) (7)
其中d(pn,PJ)定义为中心亚像元pn和相邻像元PJ之间的欧几里得距离。ε1是指数模型参数。
基于亚像元-亚像元空间引力模型如公式(8)和(9)所示。
其中比例尺度为S,则8个相邻的像元将被分割成8×S2个相邻亚像元;此时,wnj表示为中心亚像元pn和相邻亚像元pj之间空间相关性的权重,如公式(10)所示。
wnj=exp(-d(pn,pj)22) (10)
其中d(pn,pj)定义为中心亚像元pn和相邻亚像元pj之间的欧几里得距离。ε2是指数模型参数。
最终,将含有亚像元属于每个类别的预测值的精细丰度图像与含有亚像元属于每个类别的预测值的精细丰度图像进行线性整合获得含有更准确的亚像元属于每个类别的预测值Fm(pn)的更精细丰度图像Fm,如公式(11)所示。
其中α(0≤α<1)是平衡预测值的权重参数。
(4)根据更精细丰度图像Fm提供的更准确的亚像元属于每个类别的预测值Fm(pn),在每个类别亚像元数目固定的前提下,通过基于线性优化技术的类别分配方法将硬属性值(类别标签)分配到每个亚像元中,获得最终的亚像元定位结果。
其中PN(N=1,2,...,K,K是像元数目)表示一个像元;pn(n=1,2,...,KS2,KS2是亚像元的数目)代表一个亚像元。基于线性优化技术的类别分配方法是依据公式(12)的数学模型使所有亚像元软属性值之和tJ最大化进行的条件下,将所有亚像元整体进行类别分配。
图3为University of Pavia的高光谱遥感图像数据集的亚像元定位结果。其中:(a)评价参考图像,(b)基于亚像元-像元空间引力模型的的亚像元定位方法(Subpixel-Pixel Spatial Attraction Model,SPSAM),(c)基于亚像元-亚像元空间引力模型的的亚像元定位方法(Subpixel-Subpixel Spatial Attraction Model,MSPSAM),(d)基于混合空间引力模型的的亚像元定位方法(Hybrid Spatial Attraction Model,HSAM),(e)基于全色锐化技术的亚像元定位方法(PT)。
图4为Washington,DC的高光谱遥感图像数据集的亚像元定位结果。其中:(a)评价参考图像,(b)基于亚像元-像元空间引力模型的的亚像元定位方法(Subpixel-PixelSpatial Attraction Model,SPSAM),(c)基于亚像元-亚像元空间引力模型的的亚像元定位方法(Subpixel-Subpixel Spatial Attraction Model,MSPSAM),(d)基于混合空间引力模型的的亚像元定位方法(Hybrid Spatial Attraction Model,HSAM),(e)基于全色锐化技术的亚像元定位方法(PT)。
图5是与比例尺度S相关的四种算法的对比结果,其中,(a)为PCC(%),(b)为Kappa。
通过将本发明提出方法应用到两组不同的遥感图像来证明所提出方法的高效性。为了进行定量评估,对原始精细的遥感图像进行下采样以产生模拟低分辨率图像,第一组图像降采样比例和放大比例取S=4,为了测试方法在不同比例尺度下的性能,第二组图像降采样比例和放大比例取S=2,S=4和S=8。因为在下采样的情况下,亚像素级的土地覆盖类是已知的,因此便于直接评估图像配准误差对技术的影响。同时,为了避免全色图像采集误差对最终定位结果的影响,仅考虑全色锐化技术对定位结果的影响,利用IKONOS卫星的光谱响应生成合适的合成全色图像。利用每个类别定位精度和总体精度评价(percentageof correctly classified,PCC)和Kappa系数来定量评价。
第一组试验中,目标为University of Pavia的高光谱遥感图像数据集,图3是对粗糙遥感图像的亚像元定位结果,从图中可以看出,PT方法的结果最接近参考图像,效果更佳。表1为第一组实验中各种方法的每个类别的定位精度和总体精度评价PCC,进一步验证了所提出的方法在亚像元定位上的优势。
表1第一组实验各种方法的数据分析结果(%)
SPSAM MSPSAM HSAM PT
草地 96.37 97.10 97.73 99.13
沥青 95.48 97.29 97.47 99.82
45.13 55.23 56.32 72.31
77.18 83.37 83.60 90.30
PCC 85.17 88.73 89.20 93.87
第二组实验选取一幅来自Washington,DC的高光谱遥感图像。图4展示了四种方法的定位结果。图5为在三种比例尺度下四种方法的PCC(%)和Kappa。与第一组实验结论相似,所提出的方法PT仍然在亚像元定位方法中存在明显优势。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (5)

1.基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,包括如下步骤:
步骤1,将原始低空间分辨率的遥感图像与来自同一区域的高空间分辨率的全色图像通过基于主成分分析的全色锐化技术进行融合,得到具有高空间分辨率的遥感图像;
步骤2,将步骤1得到的具有高空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得具有空-谱信息的丰度图像;
步骤3,将原始低空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得粗糙丰度图像,将粗糙丰度图像通过基于混合空间引力模型获得精细丰度图像;
步骤4,将步骤2得到的具有空-谱信息的丰度图像与步骤3得到的精细丰度图像,利用线性整合方法进行整合,得到整合后的丰度图像,根据整合后的丰度图像获取图像中亚像元属于每个类别标签的预测值,并通过类别分配方法将类别标签分配到每个亚像元中,获得最终的亚像元定位结果。
2.根据权利要求1所述基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,步骤1所述基于主成分分析的全色锐化技术,具体公式为:
其中, 是全色锐化后得到的图像,表示第b光谱波段被全色锐化后的图像,代表第b波段原始低空间分辨率的遥感图像插值到全色图像尺寸后的图像,gb是增益矢量,P是来自同一区域的高空间分辨率的全色图像,yb是权值向量,b=1,2,...,B,B为遥感图像波段总数。
3.根据权利要求1所述基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,步骤2所述基于线性混合模型的软分类方法,具体公式为:
其中,是全色锐化后得到的图像的光谱值矢量,是所有亚像元属于第m类的预测值的矢量,E是光谱端元构成的矩阵,W是随机噪声。
4.根据权利要求1所述基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,步骤3所述基于混合空间引力模型,具体公式为:
其中,为通过基于混合空间引力模型获得的精细丰度图像上亚像元属于每个类别的预测值,θ(0≤θ<1)是权重参数,分别通过基于亚像元-像元空间引力模型和基于亚像元-亚像元空间引力模型获得;
基于亚像元-像元空间引力模型如下:
其中,Cm(PJ)表示通过对原始低空间分辨率的遥感图像进行软分类获得的粗糙丰度图像Cm中与中心亚像元pn相邻的第J个像元PJ属于第m类的预测值,M为地物类别总数量,K为像元数目,S为比例尺度,wnJ是中心亚像元pn和相邻像元PJ之间空间相关性的权重;
wnJ=exp(-d(pn,PJ)21)
其中,d(pn,PJ)为中心亚像元pn和相邻像元PJ之间的欧几里得距离,ε1是指数模型参数;
基于亚像元-亚像元空间引力模型如下:
其中,wnj表示为中心亚像元pn和相邻亚像元pj之间空间相关性的权重;
wnj=exp(-d(pn,pj)22)
其中,d(pn,pj)定义为中心亚像元pn和相邻亚像元pj之间的欧几里得距离,ε2是指数模型参数。
5.根据权利要求1所述基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,步骤4所述类别分配方法,具体公式为:
其中,tJ表示所有亚像元的软属性值之和,M为地物类别总数量,K为像元数目,S为比例尺度,PN表示一个像元,N=1,2,...,K,K是像元数目,pn表示一个亚像元,n=1,2,...,KS2,KS2是亚像元的数目,Cm(PN)表示粗糙丰度图像Cm中像元PN属于第m类的预测值。
CN201910196829.6A 2019-03-15 2019-03-15 基于全色锐化技术支持下的空间引力模型亚像元定位方法 Active CN110084747B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910196829.6A CN110084747B (zh) 2019-03-15 2019-03-15 基于全色锐化技术支持下的空间引力模型亚像元定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910196829.6A CN110084747B (zh) 2019-03-15 2019-03-15 基于全色锐化技术支持下的空间引力模型亚像元定位方法

Publications (2)

Publication Number Publication Date
CN110084747A true CN110084747A (zh) 2019-08-02
CN110084747B CN110084747B (zh) 2023-04-07

Family

ID=67413196

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910196829.6A Active CN110084747B (zh) 2019-03-15 2019-03-15 基于全色锐化技术支持下的空间引力模型亚像元定位方法

Country Status (1)

Country Link
CN (1) CN110084747B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139901A (zh) * 2021-04-15 2021-07-20 青岛地质工程勘察院(青岛地质勘查开发局) 一种流域尺度植被净初级生产力遥感精细反演方法
CN113624691A (zh) * 2020-05-07 2021-11-09 南京航空航天大学 一种基于空间-光谱相关性的光谱图像超分辨率映射方法
CN113902650A (zh) * 2021-12-07 2022-01-07 南湖实验室 基于平行深度学习网络架构的遥感影像锐化方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102446278A (zh) * 2011-09-14 2012-05-09 哈尔滨工程大学 一种基于多时相遥感图像的亚像元定位方法
US8737733B1 (en) * 2011-04-22 2014-05-27 Digitalglobe, Inc. Hyperspherical pan sharpening
CN104933690A (zh) * 2015-06-04 2015-09-23 中国科学院遥感与数字地球研究所 基于混合亚像元解混的遥感多光谱与全色图像融合方法
CN108921035A (zh) * 2018-06-06 2018-11-30 中国农业科学院农业资源与农业区划研究所 基于空间引力和像元聚集度的亚像元定位方法和系统
CN109102469A (zh) * 2018-07-04 2018-12-28 华南理工大学 一种基于卷积神经网络的遥感图像全色锐化方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8737733B1 (en) * 2011-04-22 2014-05-27 Digitalglobe, Inc. Hyperspherical pan sharpening
CN102446278A (zh) * 2011-09-14 2012-05-09 哈尔滨工程大学 一种基于多时相遥感图像的亚像元定位方法
CN104933690A (zh) * 2015-06-04 2015-09-23 中国科学院遥感与数字地球研究所 基于混合亚像元解混的遥感多光谱与全色图像融合方法
CN108921035A (zh) * 2018-06-06 2018-11-30 中国农业科学院农业资源与农业区划研究所 基于空间引力和像元聚集度的亚像元定位方法和系统
CN109102469A (zh) * 2018-07-04 2018-12-28 华南理工大学 一种基于卷积神经网络的遥感图像全色锐化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PENG WANG: "Utilizing Pansharpening Technique to Produce Sub-Pixel Resolution Thematic Map from Coarse Remote Sensing Image", 《REMOTE SENSING》 *
魏然: "多源遥感地表温度数据时空融合研究及应用", 《中国博士学位论文全文数据库 (基础科学辑)》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113624691A (zh) * 2020-05-07 2021-11-09 南京航空航天大学 一种基于空间-光谱相关性的光谱图像超分辨率映射方法
CN113624691B (zh) * 2020-05-07 2022-10-04 南京航空航天大学 一种基于空间-光谱相关性的光谱图像超分辨率映射方法
CN113139901A (zh) * 2021-04-15 2021-07-20 青岛地质工程勘察院(青岛地质勘查开发局) 一种流域尺度植被净初级生产力遥感精细反演方法
CN113902650A (zh) * 2021-12-07 2022-01-07 南湖实验室 基于平行深度学习网络架构的遥感影像锐化方法

Also Published As

Publication number Publication date
CN110084747B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN109492527B (zh) 一种基于全色锐化技术的遥感图像亚像元定位方法
CN105787516B (zh) 一种基于空谱局部性低秩超图学习的高光谱图像分类方法
CN105138970B (zh) 基于空间信息的极化sar图像分类方法
CN110084747A (zh) 基于全色锐化技术支持下的空间引力模型亚像元定位方法
CN108182449A (zh) 一种高光谱图像分类方法
CN110070518A (zh) 一种基于双路径支持下的高光谱图像超分辨率制图方法
CN104282008B (zh) 对图像进行纹理分割的方法和装置
CN101561865B (zh) 基于多参数谱特征的合成孔径雷达图像目标识别方法
CN101807258B (zh) 基于核标度切维数约简的合成孔径雷达图像目标识别方法
CN103295031B (zh) 一种基于正则风险最小化的图像目标计数方法
CN111680579B (zh) 一种自适应权重多视角度量学习的遥感图像分类方法
CN107798696A (zh) 一种基于保局pca的三维点云配准方法
CN102446278B (zh) 一种基于多时相遥感图像的亚像元定位方法
CN104809471B (zh) 一种基于空间光谱信息的高光谱图像残差融合分类方法
CN106651834A (zh) 无参考图像的变电设备红外热像图质量评价方法及装置
CN109509193A (zh) 一种基于高精度配准的肝脏ct图谱分割方法及系统
CN110516754A (zh) 一种基于多尺度超像元分割的高光谱图像分类方法
Yan et al. Label image constrained multiatlas selection
CN106886754B (zh) 一种基于三角面片的三维场景下的物体识别方法及系统
CN110298883A (zh) 一种基于扩展随机游走算法的遥感图像亚像元定位方法
CN110188864A (zh) 基于分布表示和分布度量的小样本学习方法
CN108846845A (zh) 基于缩略图与分层模糊聚类的sar图像分割方法
Wang et al. Subpixel land cover mapping based on dual processing paths for hyperspectral image
CN106485277B (zh) 一种基于多连接决策流形对准的高分辨率多时相遥感图像分类方法
CN107220615B (zh) 一种融合兴趣点大数据的城市不透水面信息提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant