CN110084747A - 基于全色锐化技术支持下的空间引力模型亚像元定位方法 - Google Patents
基于全色锐化技术支持下的空间引力模型亚像元定位方法 Download PDFInfo
- Publication number
- CN110084747A CN110084747A CN201910196829.6A CN201910196829A CN110084747A CN 110084747 A CN110084747 A CN 110084747A CN 201910196829 A CN201910196829 A CN 201910196829A CN 110084747 A CN110084747 A CN 110084747A
- Authority
- CN
- China
- Prior art keywords
- sub
- pixed mapping
- image
- model
- pixed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 103
- 238000000034 method Methods 0.000 title claims abstract description 83
- 230000004807 localization Effects 0.000 title claims abstract description 22
- 238000001228 spectrum Methods 0.000 claims abstract description 23
- 230000005484 gravity Effects 0.000 claims abstract description 18
- 238000002156 mixing Methods 0.000 claims abstract description 12
- 230000010354 integration Effects 0.000 claims abstract description 7
- 238000000513 principal component analysis Methods 0.000 claims abstract description 7
- VMXUWOKSQNHOCA-UKTHLTGXSA-N ranitidine Chemical group [O-][N+](=O)\C=C(/NC)NCCSCC1=CC=C(CN(C)C)O1 VMXUWOKSQNHOCA-UKTHLTGXSA-N 0.000 claims description 7
- 230000003595 spectral effect Effects 0.000 claims description 6
- 230000001537 neural effect Effects 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 claims 1
- 238000002474 experimental method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 241001614291 Anoplistes Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/49—Analysis of texture based on structural texture description, e.g. using primitives or placement rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10041—Panchromatic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于全色锐化技术支持下的空间引力模型亚像元定位方法,具体为:将原始粗糙分辨率的遥感图像与来自同一区域的精细分辨率的全色图像基于主成分分析的全色锐化技术进行融合,产生精细分辨率的遥感图像;精细分辨率的遥感图像通过软分类技术获得包含空‑谱信息的精细丰度图像;前一步得到的精细丰度图像与通过基于混合空间引力模型获得的精细丰度图像利用线性整合方法获得更精细的丰度图像;根据更精细的丰度图像提供的亚像元预测值,通过类别分配方法将类别标签分配到每个亚像元中,获得最终的亚像元定位结果。本发明通过全色锐化技术更加充分利用空‑谱信息,改善传统的基于空间引力模型亚像元定位方法,获得更精确的亚像元定位结果。
Description
技术领域
本发明涉及基于全色锐化技术支持下的空间引力模型亚像元定位方法,属于遥感信息处理技术领域。
背景技术
土地覆盖类型的多样性和传感器瞬时视场的局限性所产生的混合像元是制约遥感图像空间分辨率的主要因素。这些制约使得准确的地物目标识别产生了很大的困难,而准确的目标识别对工业、农业、环境以及军事等方面都有着十分重要的意义。因此,现今遥感信息处理技术领域的热点问题之一就是处理混合像元以提高地物类别分布精度。亚像元定位技术(也称为超分辨率制图技术)通过一定的比例尺度将每个混合像元细分成亚像元并估计出各亚像元的地物类别,实现了从低分辨率的丰度图像(光谱解混结果)转变成高分辨率的地物类别分布图像的过程。
Tatem博士提出了一系列基于Hopfield神经网络模型的亚像元定位方法。Muad等继续讨论了在基于Hopfield神经网络模型的亚像元定位方法中不同的参数设置对识别不同尺度目标的能力。比利时根特大学的Mertens博士提出了基于BP神经网络的亚像元定位方法。后来Mertens博士又将该网络与小波变换相结合从而发掘更多的空间分布细节,进而提高了该方法目定位精度。基于空间引力模型的亚像元定位模型由于其简单的物理意义和不需要先验的结构信息而得到了广泛的应用。属于基于空间引力模型的亚像元定位模型的方法主要区别在于计算空间引力的尺度不同,如亚像元-像元空间引力模型、亚像元-亚像元空间引力模型和更有效的混合空间引力模型。然而,现有的这些基于空间引力模型的亚像元定位模型方法被直接应用于通过对原始的粗遥感图像进行解混而得到的粗糙丰度图像中。由于原始图像的分辨率较粗糙,粗糙丰度图像很难完全提取出原始图像的空-谱信息,影响最终的定位精度。
发明内容
本发明所要解决的技术问题是:提供基于全色锐化技术支持下的空间引力模型亚像元定位方法,能够更加充分利用原始图像的空-谱信息,获得定位精度更高的结果。
本发明为解决上述技术问题采用以下技术方案:
基于全色锐化技术支持下的空间引力模型亚像元定位方法,包括如下步骤:
步骤1,将原始低空间分辨率的遥感图像与来自同一区域的高空间分辨率的全色图像通过基于主成分分析的全色锐化技术进行融合,得到具有高空间分辨率的遥感图像;
步骤2,将步骤1得到的具有高空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得具有空-谱信息的丰度图像;
步骤3,将原始低空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得粗糙丰度图像,将粗糙丰度图像通过基于混合空间引力模型获得精细丰度图像;
步骤4,将步骤2得到的具有空-谱信息的丰度图像与步骤3得到的精细丰度图像,利用线性整合方法进行整合,得到整合后的丰度图像,根据整合后的丰度图像获取图像中亚像元属于每个类别标签的预测值,并通过类别分配方法将类别标签分配到每个亚像元中,获得最终的亚像元定位结果。
作为本发明的一种优选方案,步骤1所述基于主成分分析的全色锐化技术,具体公式为:
其中,是全色锐化后得到的图像,表示第b光谱波段被全色锐化后的图像,代表第b波段原始低空间分辨率的遥感图像插值到全色图像尺寸后的图像,gb是增益矢量,P是来自同一区域的高空间分辨率的全色图像,yb是权值向量,b=1,2,...,B,B为遥感图像波段总数。
作为本发明的一种优选方案,步骤2所述基于线性混合模型的软分类方法,具体公式为:
其中,是全色锐化后得到的图像的光谱值矢量,是所有亚像元属于第m类的预测值的矢量,E是光谱端元构成的矩阵,W是随机噪声。
作为本发明的一种优选方案,步骤3所述基于混合空间引力模型,具体公式为:
其中,为通过基于混合空间引力模型获得的精细丰度图像上亚像元属于每个类别的预测值,θ(0≤θ<1)是权重参数,和分别通过基于亚像元-像元空间引力模型和基于亚像元-亚像元空间引力模型获得;
基于亚像元-像元空间引力模型如下:
其中,Cm(PJ)表示通过对原始低空间分辨率的遥感图像进行软分类获得的粗糙丰度图像Cm中与中心亚像元pn相邻的第J个像元PJ属于第m类的预测值,M为地物类别总数量,K为像元数目,S为比例尺度,wnJ是中心亚像元pn和相邻像元PJ之间空间相关性的权重;
wnJ=exp(-d(pn,PJ)2/ε1)
其中,d(pn,PJ)为中心亚像元pn和相邻像元PJ之间的欧几里得距离,ε1是指数模型参数;
基于亚像元-亚像元空间引力模型如下:
其中,wnj表示为中心亚像元pn和相邻亚像元pj之间空间相关性的权重;
wnj=exp(-d(pn,pj)2/ε2)
其中,d(pn,pj)定义为中心亚像元pn和相邻亚像元pj之间的欧几里得距离,ε2是指数模型参数。
作为本发明的一种优选方案,步骤4所述类别分配方法,具体公式为:
其中,tJ表示所有亚像元的软属性值之和,M为地物类别总数量,K为像元数目,S为比例尺度,PN表示一个像元,N=1,2,...,K,K是像元数目,pn表示一个亚像元,n=1,2,...,KS2,KS2是亚像元的数目,Cm(PN)表示粗糙丰度图像Cm中像元PN属于第m类的预测值。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明的方法改善现有的基于空间引力模型的亚像元定位模型,能够更加充分利用原始图像的空-谱信息,获得定位精度更高的结果。
附图说明
图1是本发明基于全色锐化技术支持下的空间引力模型亚像元定位方法流程示意图。
图2是基于PCA的全色锐化技术原理示意图。
图3是University of Pavia的高光谱遥感图像数据集的亚像元定位结果,其中,(a)为评价参考图像,(b)为SPSAM,(c)为MSPSAM,(d)为HSAM,(e)为PT。
图4是Washington,DC的高光谱遥感图像数据集的亚像元定位结果,其中,(a)为评价参考图像,(b)为SPSAM,(c)为MSPSAM,(d)为HSAM,(e)为PT。
图5是不同比例尺度S下本发明方法与其他三种方法的对比示意图,其中,(a)为PCC(%),(b)为Kappa。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1所示,为本发明基于全色锐化技术支持下的空间引力模型亚像元定位方法(Subpixel Mapping Based on Spatial Attraction Model by PansharpeningTechnology,PT)的实现框图,具体步骤如下:
(1)输入为大小M×N的原始粗糙遥感图像O与大小MS×NS来自同一区域的高空间分辨率全色图像P通过基于主成分分析(principal component analysis,PCA)的全色锐化技术进行融合,产生具有精细分辨率的全色锐化结果基于PCA的全色锐化技术原理图如图2所示。
对原始粗糙分辨率的遥感图像O进行线性变换,生成一组称为主分量的标量图像,原始图像的空间信息收集在第一主分量中,而光谱信息集中在其他主分量中;随后,利用精细分辨率的全色图像P替换包含空间信息的第一主分量,进而增强原始遥感图像的空间分辨率,全色图像与被替换主分量之间的相关性越大,融合方法引入的光谱失真越小;在替换发生之前对全色图像与所选主分量进行直方图匹配,通过直方图匹配的全色图像将显示与要替换的主分量相同的均值和方差;最后,应用线性反变换获得全色锐化结果;基于PCA的全色锐化模型一般可以由以下公式表示:
其中,b(b=1,2,...,B,B为遥感图像波段总数)表示第b光谱波段,O代表原始粗糙分辨率遥感图像,是全色锐化后得到的图像,表示第b光谱波段被全色锐化后的图像,代表第b波段原始粗糙辨率遥感图像插值到全色图像尺寸后的图像,gb=[g1,g2,...,gN]是增益矢量,P代表精细分辨率全色图像,同时I是被定义为:
其中权值向量yb=[y1,y2,...,yB]T被用来测量光谱波段和全色图像之间的光谱重叠。
(2)通过全色锐化技术获得的全色锐化结果通过基于线性混合模型的软分类方法获得包含丰富原始图像空-谱信息的M幅精细丰度图像(m=1,2,...,M,M为遥感图像中类别总数),精细丰度图像含有亚像元pn(n=1,2,...,K×S2,K为像元数目,当比例尺度为S时,亚像元总数量为K×S2)属于第m类的预测值线性混合模型可以通过公式(3)表示。
其中,是全色锐化后得到的图像的光谱值矢量;是所有亚像元属于第m类的预测值的矢量;E为光谱端元所构成的矩阵;W是随机噪声。线性解混模型常常需要利用最小二乘的方法寻求在随机噪声W最小的情况下的最优估计,同时还需要附加全约束条件(归一化和非负性约束)以满足实际物理意义。
(3)步骤(2)获得的新型的含有亚像元属于每个类别的预测值的精细丰度图像与通过基于混合空间引力模型获得含有亚像元属于每个类别的预测值的精细丰度图像利用线性整合方法获得含有更准确的亚像元属于每个类别的预测值Fm(pn)的更精细丰度图像Fm。基于混合空间引力模型可以公式(4)给出。
其中θ(0≤θ<1)是权重参数。和分别通过基于亚像元-像元空间引力模型和基于亚像元-亚像元空间引力模型获得。基于亚像元-像元空间引力模型如公式(5)和(6)所示。
其中Cm(PJ)是通过对原始图像进行软分类获得的粗糙丰度图像Cm中与中心亚像元pn相邻的第J个像元PJ属于第m类的预测值,J是相邻像元数目。本发明选取相邻像元数为8个。wnJ是中心亚像元pn和相邻像元PJ之间空间相关性的权重,如公式(7)所示。
wnJ=exp(-d(pn,PJ)2/ε1) (7)
其中d(pn,PJ)定义为中心亚像元pn和相邻像元PJ之间的欧几里得距离。ε1是指数模型参数。
基于亚像元-亚像元空间引力模型如公式(8)和(9)所示。
其中比例尺度为S,则8个相邻的像元将被分割成8×S2个相邻亚像元;此时,wnj表示为中心亚像元pn和相邻亚像元pj之间空间相关性的权重,如公式(10)所示。
wnj=exp(-d(pn,pj)2/ε2) (10)
其中d(pn,pj)定义为中心亚像元pn和相邻亚像元pj之间的欧几里得距离。ε2是指数模型参数。
最终,将含有亚像元属于每个类别的预测值的精细丰度图像与含有亚像元属于每个类别的预测值的精细丰度图像进行线性整合获得含有更准确的亚像元属于每个类别的预测值Fm(pn)的更精细丰度图像Fm,如公式(11)所示。
其中α(0≤α<1)是平衡预测值和的权重参数。
(4)根据更精细丰度图像Fm提供的更准确的亚像元属于每个类别的预测值Fm(pn),在每个类别亚像元数目固定的前提下,通过基于线性优化技术的类别分配方法将硬属性值(类别标签)分配到每个亚像元中,获得最终的亚像元定位结果。
其中PN(N=1,2,...,K,K是像元数目)表示一个像元;pn(n=1,2,...,KS2,KS2是亚像元的数目)代表一个亚像元。基于线性优化技术的类别分配方法是依据公式(12)的数学模型使所有亚像元软属性值之和tJ最大化进行的条件下,将所有亚像元整体进行类别分配。
图3为University of Pavia的高光谱遥感图像数据集的亚像元定位结果。其中:(a)评价参考图像,(b)基于亚像元-像元空间引力模型的的亚像元定位方法(Subpixel-Pixel Spatial Attraction Model,SPSAM),(c)基于亚像元-亚像元空间引力模型的的亚像元定位方法(Subpixel-Subpixel Spatial Attraction Model,MSPSAM),(d)基于混合空间引力模型的的亚像元定位方法(Hybrid Spatial Attraction Model,HSAM),(e)基于全色锐化技术的亚像元定位方法(PT)。
图4为Washington,DC的高光谱遥感图像数据集的亚像元定位结果。其中:(a)评价参考图像,(b)基于亚像元-像元空间引力模型的的亚像元定位方法(Subpixel-PixelSpatial Attraction Model,SPSAM),(c)基于亚像元-亚像元空间引力模型的的亚像元定位方法(Subpixel-Subpixel Spatial Attraction Model,MSPSAM),(d)基于混合空间引力模型的的亚像元定位方法(Hybrid Spatial Attraction Model,HSAM),(e)基于全色锐化技术的亚像元定位方法(PT)。
图5是与比例尺度S相关的四种算法的对比结果,其中,(a)为PCC(%),(b)为Kappa。
通过将本发明提出方法应用到两组不同的遥感图像来证明所提出方法的高效性。为了进行定量评估,对原始精细的遥感图像进行下采样以产生模拟低分辨率图像,第一组图像降采样比例和放大比例取S=4,为了测试方法在不同比例尺度下的性能,第二组图像降采样比例和放大比例取S=2,S=4和S=8。因为在下采样的情况下,亚像素级的土地覆盖类是已知的,因此便于直接评估图像配准误差对技术的影响。同时,为了避免全色图像采集误差对最终定位结果的影响,仅考虑全色锐化技术对定位结果的影响,利用IKONOS卫星的光谱响应生成合适的合成全色图像。利用每个类别定位精度和总体精度评价(percentageof correctly classified,PCC)和Kappa系数来定量评价。
第一组试验中,目标为University of Pavia的高光谱遥感图像数据集,图3是对粗糙遥感图像的亚像元定位结果,从图中可以看出,PT方法的结果最接近参考图像,效果更佳。表1为第一组实验中各种方法的每个类别的定位精度和总体精度评价PCC,进一步验证了所提出的方法在亚像元定位上的优势。
表1第一组实验各种方法的数据分析结果(%)
SPSAM | MSPSAM | HSAM | PT | |
草地 | 96.37 | 97.10 | 97.73 | 99.13 |
沥青 | 95.48 | 97.29 | 97.47 | 99.82 |
树 | 45.13 | 55.23 | 56.32 | 72.31 |
砖 | 77.18 | 83.37 | 83.60 | 90.30 |
PCC | 85.17 | 88.73 | 89.20 | 93.87 |
第二组实验选取一幅来自Washington,DC的高光谱遥感图像。图4展示了四种方法的定位结果。图5为在三种比例尺度下四种方法的PCC(%)和Kappa。与第一组实验结论相似,所提出的方法PT仍然在亚像元定位方法中存在明显优势。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (5)
1.基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,包括如下步骤:
步骤1,将原始低空间分辨率的遥感图像与来自同一区域的高空间分辨率的全色图像通过基于主成分分析的全色锐化技术进行融合,得到具有高空间分辨率的遥感图像;
步骤2,将步骤1得到的具有高空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得具有空-谱信息的丰度图像;
步骤3,将原始低空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得粗糙丰度图像,将粗糙丰度图像通过基于混合空间引力模型获得精细丰度图像;
步骤4,将步骤2得到的具有空-谱信息的丰度图像与步骤3得到的精细丰度图像,利用线性整合方法进行整合,得到整合后的丰度图像,根据整合后的丰度图像获取图像中亚像元属于每个类别标签的预测值,并通过类别分配方法将类别标签分配到每个亚像元中,获得最终的亚像元定位结果。
2.根据权利要求1所述基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,步骤1所述基于主成分分析的全色锐化技术,具体公式为:
其中, 是全色锐化后得到的图像,表示第b光谱波段被全色锐化后的图像,代表第b波段原始低空间分辨率的遥感图像插值到全色图像尺寸后的图像,gb是增益矢量,P是来自同一区域的高空间分辨率的全色图像,yb是权值向量,b=1,2,...,B,B为遥感图像波段总数。
3.根据权利要求1所述基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,步骤2所述基于线性混合模型的软分类方法,具体公式为:
其中,是全色锐化后得到的图像的光谱值矢量,是所有亚像元属于第m类的预测值的矢量,E是光谱端元构成的矩阵,W是随机噪声。
4.根据权利要求1所述基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,步骤3所述基于混合空间引力模型,具体公式为:
其中,为通过基于混合空间引力模型获得的精细丰度图像上亚像元属于每个类别的预测值,θ(0≤θ<1)是权重参数,和分别通过基于亚像元-像元空间引力模型和基于亚像元-亚像元空间引力模型获得;
基于亚像元-像元空间引力模型如下:
其中,Cm(PJ)表示通过对原始低空间分辨率的遥感图像进行软分类获得的粗糙丰度图像Cm中与中心亚像元pn相邻的第J个像元PJ属于第m类的预测值,M为地物类别总数量,K为像元数目,S为比例尺度,wnJ是中心亚像元pn和相邻像元PJ之间空间相关性的权重;
wnJ=exp(-d(pn,PJ)2/ε1)
其中,d(pn,PJ)为中心亚像元pn和相邻像元PJ之间的欧几里得距离,ε1是指数模型参数;
基于亚像元-亚像元空间引力模型如下:
其中,wnj表示为中心亚像元pn和相邻亚像元pj之间空间相关性的权重;
wnj=exp(-d(pn,pj)2/ε2)
其中,d(pn,pj)定义为中心亚像元pn和相邻亚像元pj之间的欧几里得距离,ε2是指数模型参数。
5.根据权利要求1所述基于全色锐化技术支持下的空间引力模型亚像元定位方法,其特征在于,步骤4所述类别分配方法,具体公式为:
其中,tJ表示所有亚像元的软属性值之和,M为地物类别总数量,K为像元数目,S为比例尺度,PN表示一个像元,N=1,2,...,K,K是像元数目,pn表示一个亚像元,n=1,2,...,KS2,KS2是亚像元的数目,Cm(PN)表示粗糙丰度图像Cm中像元PN属于第m类的预测值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910196829.6A CN110084747B (zh) | 2019-03-15 | 2019-03-15 | 基于全色锐化技术支持下的空间引力模型亚像元定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910196829.6A CN110084747B (zh) | 2019-03-15 | 2019-03-15 | 基于全色锐化技术支持下的空间引力模型亚像元定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110084747A true CN110084747A (zh) | 2019-08-02 |
CN110084747B CN110084747B (zh) | 2023-04-07 |
Family
ID=67413196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910196829.6A Active CN110084747B (zh) | 2019-03-15 | 2019-03-15 | 基于全色锐化技术支持下的空间引力模型亚像元定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110084747B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139901A (zh) * | 2021-04-15 | 2021-07-20 | 青岛地质工程勘察院(青岛地质勘查开发局) | 一种流域尺度植被净初级生产力遥感精细反演方法 |
CN113624691A (zh) * | 2020-05-07 | 2021-11-09 | 南京航空航天大学 | 一种基于空间-光谱相关性的光谱图像超分辨率映射方法 |
CN113902650A (zh) * | 2021-12-07 | 2022-01-07 | 南湖实验室 | 基于平行深度学习网络架构的遥感影像锐化方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102446278A (zh) * | 2011-09-14 | 2012-05-09 | 哈尔滨工程大学 | 一种基于多时相遥感图像的亚像元定位方法 |
US8737733B1 (en) * | 2011-04-22 | 2014-05-27 | Digitalglobe, Inc. | Hyperspherical pan sharpening |
CN104933690A (zh) * | 2015-06-04 | 2015-09-23 | 中国科学院遥感与数字地球研究所 | 基于混合亚像元解混的遥感多光谱与全色图像融合方法 |
CN108921035A (zh) * | 2018-06-06 | 2018-11-30 | 中国农业科学院农业资源与农业区划研究所 | 基于空间引力和像元聚集度的亚像元定位方法和系统 |
CN109102469A (zh) * | 2018-07-04 | 2018-12-28 | 华南理工大学 | 一种基于卷积神经网络的遥感图像全色锐化方法 |
-
2019
- 2019-03-15 CN CN201910196829.6A patent/CN110084747B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8737733B1 (en) * | 2011-04-22 | 2014-05-27 | Digitalglobe, Inc. | Hyperspherical pan sharpening |
CN102446278A (zh) * | 2011-09-14 | 2012-05-09 | 哈尔滨工程大学 | 一种基于多时相遥感图像的亚像元定位方法 |
CN104933690A (zh) * | 2015-06-04 | 2015-09-23 | 中国科学院遥感与数字地球研究所 | 基于混合亚像元解混的遥感多光谱与全色图像融合方法 |
CN108921035A (zh) * | 2018-06-06 | 2018-11-30 | 中国农业科学院农业资源与农业区划研究所 | 基于空间引力和像元聚集度的亚像元定位方法和系统 |
CN109102469A (zh) * | 2018-07-04 | 2018-12-28 | 华南理工大学 | 一种基于卷积神经网络的遥感图像全色锐化方法 |
Non-Patent Citations (2)
Title |
---|
PENG WANG: "Utilizing Pansharpening Technique to Produce Sub-Pixel Resolution Thematic Map from Coarse Remote Sensing Image", 《REMOTE SENSING》 * |
魏然: "多源遥感地表温度数据时空融合研究及应用", 《中国博士学位论文全文数据库 (基础科学辑)》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113624691A (zh) * | 2020-05-07 | 2021-11-09 | 南京航空航天大学 | 一种基于空间-光谱相关性的光谱图像超分辨率映射方法 |
CN113624691B (zh) * | 2020-05-07 | 2022-10-04 | 南京航空航天大学 | 一种基于空间-光谱相关性的光谱图像超分辨率映射方法 |
CN113139901A (zh) * | 2021-04-15 | 2021-07-20 | 青岛地质工程勘察院(青岛地质勘查开发局) | 一种流域尺度植被净初级生产力遥感精细反演方法 |
CN113902650A (zh) * | 2021-12-07 | 2022-01-07 | 南湖实验室 | 基于平行深度学习网络架构的遥感影像锐化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110084747B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492527B (zh) | 一种基于全色锐化技术的遥感图像亚像元定位方法 | |
CN105787516B (zh) | 一种基于空谱局部性低秩超图学习的高光谱图像分类方法 | |
CN105138970B (zh) | 基于空间信息的极化sar图像分类方法 | |
CN110084747A (zh) | 基于全色锐化技术支持下的空间引力模型亚像元定位方法 | |
CN108182449A (zh) | 一种高光谱图像分类方法 | |
CN110070518A (zh) | 一种基于双路径支持下的高光谱图像超分辨率制图方法 | |
CN104282008B (zh) | 对图像进行纹理分割的方法和装置 | |
CN101561865B (zh) | 基于多参数谱特征的合成孔径雷达图像目标识别方法 | |
CN101807258B (zh) | 基于核标度切维数约简的合成孔径雷达图像目标识别方法 | |
CN103295031B (zh) | 一种基于正则风险最小化的图像目标计数方法 | |
CN111680579B (zh) | 一种自适应权重多视角度量学习的遥感图像分类方法 | |
CN107798696A (zh) | 一种基于保局pca的三维点云配准方法 | |
CN102446278B (zh) | 一种基于多时相遥感图像的亚像元定位方法 | |
CN104809471B (zh) | 一种基于空间光谱信息的高光谱图像残差融合分类方法 | |
CN106651834A (zh) | 无参考图像的变电设备红外热像图质量评价方法及装置 | |
CN109509193A (zh) | 一种基于高精度配准的肝脏ct图谱分割方法及系统 | |
CN110516754A (zh) | 一种基于多尺度超像元分割的高光谱图像分类方法 | |
Yan et al. | Label image constrained multiatlas selection | |
CN106886754B (zh) | 一种基于三角面片的三维场景下的物体识别方法及系统 | |
CN110298883A (zh) | 一种基于扩展随机游走算法的遥感图像亚像元定位方法 | |
CN110188864A (zh) | 基于分布表示和分布度量的小样本学习方法 | |
CN108846845A (zh) | 基于缩略图与分层模糊聚类的sar图像分割方法 | |
Wang et al. | Subpixel land cover mapping based on dual processing paths for hyperspectral image | |
CN106485277B (zh) | 一种基于多连接决策流形对准的高分辨率多时相遥感图像分类方法 | |
CN107220615B (zh) | 一种融合兴趣点大数据的城市不透水面信息提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |