CN113920431A - 一种适用于高分辨率遥感影像的融合方法 - Google Patents
一种适用于高分辨率遥感影像的融合方法 Download PDFInfo
- Publication number
- CN113920431A CN113920431A CN202111186453.4A CN202111186453A CN113920431A CN 113920431 A CN113920431 A CN 113920431A CN 202111186453 A CN202111186453 A CN 202111186453A CN 113920431 A CN113920431 A CN 113920431A
- Authority
- CN
- China
- Prior art keywords
- building
- image
- pan
- fusion
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 38
- 230000004927 fusion Effects 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 28
- 230000000694 effects Effects 0.000 claims abstract description 11
- 238000013135 deep learning Methods 0.000 claims abstract description 10
- 230000011218 segmentation Effects 0.000 claims description 36
- 238000001914 filtration Methods 0.000 claims description 8
- 239000007787 solid Substances 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 3
- 238000013461 design Methods 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 239000003795 chemical substances by application Substances 0.000 description 13
- 230000009466 transformation Effects 0.000 description 10
- 230000003595 spectral effect Effects 0.000 description 8
- 238000000513 principal component analysis Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明是一种适用于高分辨率遥感影像的融合方法。本发明涉及遥感影像融合领域,具体涉及一种适用于高分辨率遥感影像的融合方法的设计。本发明主要解决高分辨率的全色影像与分辨率略低一些的多光谱影像融合得到高分辨率多光谱影像的问题。本发明利用YOLACT深度学习方法,对高分辨率全色影像中的建筑进行提取,从影像中截取滑动窗口,根据滑动窗口内的建筑物数量与分布,计算得到“建筑权值”,然后以SFIM融合方法为基础,融合运算的参数随着“建筑权值”的变化而自适应调整,从而使建筑区域与非建筑区域的融合效果都实现最优,最终得到视觉效果与清晰度更好、信息量更丰富的高分辨率多光谱影像。
Description
技术领域
本发明涉及遥感影像融合技术领域,是一种适用于高分辨率遥感影像的融合方法。
背景技术
获取遥感影像时往往难以兼顾高分辨率与多光谱两个方面,因此将高分辨率的全色影像与分辨率略低一些的多光谱影像融合得到高分辨率多光谱影像的技术显得至关重要。遥感影像融合技术可以使上述两种影像优势互补,为用户提供信息更丰富、更真实清晰的融合影像,有利于提升图像的特征提取、目标分类识别的精度,增强数据的实用性。
目前遥感影像融合的方法主要分为像素级融合、特征级融合与决策级融合三类。后两类融合方法计算较为复杂,仍处于研究实验阶段,没有在工程化的商业软件中得到广泛应用,因此这里主要介绍第一类融合方法。像素级融合方法中,在商业软件中常见的方法包括亮度-色调-饱和度(Intensity Hue Saturation,IHS)变换、Brovey变换、主成分分析(Principal Components Analysis,PCA)变换、GS(Gram-Schmidt)变换、PanSharp融合、SFIM(Smoothing Filter-based Intensity Modulation)融合方法等。其中IHS变换与Brovey变换只能处理三个波段的多光谱影像,因此这里不作过多介绍。PCA变换首先对多光谱影像进行多维正交线性变换,用高分辨率全色影像替换信息量最多的第一个分量,然后进行逆变换得到高分辨率的多光谱影像,由于第一分量的信息过于集中,融合影像会存在较大的光谱畸变(即颜色失真);GS变换的原理与PCA变换类似,变换后各个分量包含的信息量相差不大,可以一定程度的改善光谱畸变的问题,但计算量较大,不适用于处理较大尺寸的高分辨率遥感影像。
学者根据DN(Digital Number)值、辐照度与地表反射率的关系,提出Fusion=MS×Pan/Pan’,其中Fusion表示融合结果,MS表示多光谱影像,Pan表示高分辨率全色影像,Pan’表示低分辨率全色影像。理想的Pan’应具有与MS一致的空间特征,在运算中可以抵消掉MS的空间信息;理想的Pan’应具有与Pan一致的光谱特征,在运算中可以抵消掉Pan的光谱与对比度信息,只保留高分辨率影像的边缘细节信息。PanSharp方法通过多光谱影像的加权拟合来获取Pan’,基于最小二乘法计算各个波段的权重,当影像较大或存在云、海等过亮或过暗的地物时,权重系数会受极端灰度区域的影响,从而加剧PanSharp方法的光谱畸变,导致融合结果颜色失真。SFIM通过对Pan进行邻域滤波来得到Pan’,满足与Pan的光谱特征相似的要求,但Pan’的空间特征与MS相差较大,导致融合结果空间信息融入度低,清晰度不佳。有的学者在SFIM方法的基础上进行改进,通过调整高斯滤波参数,使Pan’与MS所有波段的平均梯度值相等,从而使Pan’的空间特征与MS相近,对融合结果的清晰程度有所改善。
IHS变换、Brovey变换只支持三个波段,而目前大多数多光谱影像都具有至少4个波段(蓝波段、绿波段、红波段与近红外波段),因此这两种方法使用场景受限;PCA变换方法由于第一分量的信息过于集中,融合影像会存在较大的光谱畸变(即颜色失真);GS变换可以一定程度的改善光谱畸变的问题,但计算量较大,不适用于处理较大尺寸的高分辨率遥感影像。PanSharp方法受极端灰度区域的影响,易导致融合结果颜色失真;传统的SFIM方法融合结果空间信息融入度低,清晰度不佳;改进的SFIM方法对于MS计算平均梯度,建筑区域的空间特征信息较丰富,平均梯度往往较大,而非建筑区域(如植被、裸土等)空间特征信息较稀疏,平均梯度较小,但该方法对于上述区域均采用同一组融合参数进行处理,导致建筑区域与非建筑区域都难以获得各自的最优效果,融合影像的视觉效果、清晰度与信息量仍不理想。
发明内容
本发明针对现有技术的缺点,首先利用YOLACT深度学习方法,对高分辨率全色影像中的建筑进行提取,对建筑区域与非建筑区域进行区分,以SFIM融合方法为基础进行改进,采用自适应的参数进行融合,从而使两类区域的融合效果都实现最优。
本发明提供了一种适用于高分辨率遥感影像的融合方法,本发明提供了以下技术方案:
一种适用于高分辨率遥感影像的融合方法,包括以下步骤:
步骤1:利用YOLACT深度学习框架,对高分辨率的全色影像Pan进行建筑实例分割;
步骤2:剔除建筑分割结果中的异常值,根据影像分辨率与分割结果的像素面积,得到建筑分割结果的实地面积;
步骤3:从分割结果上取一个圆形的滑动窗口;
步骤4:对多光谱影像MS上采样至与全色影像Pan相同的分辨率;
步骤5:取建筑权值部分作为建筑区域,分别计算多光谱影像MS两个区域的平均梯度;
步骤6:对全色影像Pan进行高斯滤波,确定融合影像Fusion。
优选地,所述步骤1具体为:
利用YOLACT深度学习框架,对高分辨率的全色影像Pan进行建筑实例分割,判定为建筑区域的像素赋值为1,判定为非建筑区域的像素赋值为0,所使用的YOLACT框架已经用人工标注建筑物的遥感影像样本进行训练。
优选地,所述步骤2具体为:根据影像分辨率与分割结果的像素面积,得到建筑分割结果的实地面积,对面积大于140,000平方米或小于40平方米的建筑分割结果进行剔除;白色图斑表示被判定为建筑的像素,圆圈标注的面积过小的建筑分割结果剔除。
优选地,所述步骤3具体为:
从分割结果seg上取一个圆形的滑动窗口P,设P的中心像素坐标为(x,y),计算中心像素的建筑权值γ(x,y),通过下式表示:
其中,seg(x,y)表示该像素点的建筑分割结果,当值为1表示该像素被判定为建筑,值为0表示该像素被判定为非建筑;n表示滑动窗口P内提取的建筑个数;d1,d2,...,dn,表示滑动窗口中心点到n个建筑的距离,单位为米;dth是一个常数,min表示取输入的数值中最小的一个,max表示取输入的数值中最大的一个。
优选地,滑动窗口P的半径取400米,dth设为50;随着P不断滑动,seg影像上每个像素都计算得到一个建筑权值,保存为影像。
优选地,所述步骤5具体为:
取建筑权值γ(x,y)>0.5部分作为建筑区域,将γ(x,y)≤0.5部分作为非建筑区域,分别计算多光谱影像MS两个区域的平均梯度AGB和AGO,单个波段的平均梯度的计算公式如下式所示::
其中,M、N表示影像的高度、宽度,单位为像素;f为影像的一个波段,f(i,j)表示该波段第i行j列的像素值;(k=1,2,...,C)表示各个波段的建筑区域与非建筑区域的平均梯度,其中C表示波段数;AGB和AGO的值为各个波段平均梯度的平均值。
优选地,所述步骤6具体为:
步骤6.1:对全色影像Pan进行高斯滤波,通过下式所示:
其中,G表示权值,x、y表示像素坐标,
步骤6.2:依次取σ=0.5,0.6,0.7,0.8,0.9,1.0,得到5个高斯滤波后的Pan,分别计算其平均梯度,以平均梯度为纵轴,σ为横轴,拟合二次多项式;
步骤6.3:当拟合曲线的值达到AGB和AGO,取大于0的最小的解作为σB与σO值,即当高斯滤波的σ参数取值为σB与σO时,分别实现建筑区域与非建筑区域的融合效果的最优;
步骤6.4:对Pan进行高斯滤波,σ分别取σB和σO,得到Pan'B和Pan'O;将Pan'B和Pan'O根据建筑权值γ(x,y)加权叠加得到Pan',通过下式表示:
Pan'(x,y)=γ(x,y)×Pan'B(x,y)+(1-γ(x,y))×Pan'O(x,y) (6)
其中,Pan'(x,y)、Pan'B(x,y)与Pan'O(x,y)表示取点(x,y)处的像素值;
利用SFIM模型求解得到最终的融合影像Fusion,通过下式表示:
本发明具有以下有益效果:
本发明涉及遥感影像融合领域,具体涉及一种适用于高分辨率遥感影像的融合方法的设计。本发明主要解决高分辨率的全色影像与分辨率略低一些的多光谱影像融合得到高分辨率多光谱影像的问题。本发明利用YOLACT深度学习方法,对高分辨率全色影像中的建筑进行提取,从影像中截取滑动窗口,根据滑动窗口内的建筑物数量与分布,计算得到“建筑权值”,然后以SFIM融合方法为基础,融合运算的参数随着“建筑权值”的变化而自适应调整,从而使建筑区域与非建筑区域的融合效果都实现最优,最终得到视觉效果与清晰度更好、信息量更丰富的高分辨率多光谱影像。
附图说明
图1高分辨率的全色影像;
图2分辨率稍低一些的多光谱影像;
图3建筑分割结果;
图4建筑权值γ;
图5平均梯度AG与σ参数的二次多项式拟合;
图6本发明方法与其他方法融合效果;
图7为一种适用于高分辨率遥感影像的融合方法流程图。
具体实施方式
以下结合具体实施例,对本发明进行了详细说明。
具体实施例一:
根据图1至图7所示,本发明为解决上述技术问题采取的具体优化技术方案是:一种适用于高分辨率遥感影像的融合方法,包括以下步骤:
一种适用于高分辨率遥感影像的融合方法,包括以下步骤:
步骤1:利用YOLACT深度学习框架,对高分辨率的全色影像Pan进行建筑实例分割;
所述步骤1具体为:
利用YOLACT深度学习框架,对高分辨率的全色影像Pan进行建筑实例分割,判定为建筑区域的像素赋值为1,判定为非建筑区域的像素赋值为0,如图1、图2、图3所示。需要注意的是,所使用的YOLACT框架已经用人工标注建筑物的遥感影像样本进行训练。
步骤2:剔除建筑分割结果中的异常值,根据影像分辨率与分割结果的像素面积,得到建筑分割结果的实地面积;
所述步骤2具体为:根据影像分辨率与分割结果的像素面积,得到建筑分割结果的实地面积,对面积大于140,000平方米或小于40平方米的建筑分割结果进行剔除;如图3所示,白色图斑表示被判定为建筑的像素,圆圈标注的面积过小的建筑分割结果剔除。
步骤3:从分割结果上取一个圆形的滑动窗口;
所述步骤3具体为:
从分割结果seg上取一个圆形的滑动窗口P,设P的中心像素坐标为(x,y),计算中心像素的建筑权值γ(x,y),通过下式表示:
其中,seg(x,y)表示该像素点的建筑分割结果,当值为1表示该像素被判定为建筑,值为0表示该像素被判定为非建筑;n表示滑动窗口P内提取的建筑个数;d1,d2,...,dn,表示滑动窗口中心点到n个建筑的距离,单位为米;dth是一个常数,min表示取输入的数值中最小的一个,max表示取输入的数值中最大的一个。
滑动窗口P的半径取400米,dth设为50;随着P不断滑动,seg影像上每个像素都计算得到一个建筑权值,保存为影像,如图4所示。
步骤4:对多光谱影像MS上采样至与全色影像Pan相同的分辨率;
步骤5:取建筑权值部分作为建筑区域,分别计算多光谱影像MS两个区域的平均梯度;
所述步骤5具体为:
取建筑权值γ(x,y)>0.5部分作为建筑区域,将γ(x,y)≤0.5部分作为非建筑区域,分别计算多光谱影像MS两个区域的平均梯度AGB和AGO,单个波段的平均梯度的计算公式如下式所示::
其中,M、N表示影像的高度、宽度,单位为像素;f为影像的一个波段,f(i,j)表示该波段第i行j列的像素值;(k=1,2,...,C)表示各个波段的建筑区域与非建筑区域的平均梯度,其中C表示波段数;AGB和AGO的值为各个波段平均梯度的平均值。
步骤6:对全色影像Pan进行高斯滤波,确定融合影像Fusion。
所述步骤6具体为:
步骤6.1:对全色影像Pan进行高斯滤波,通过下式所示:
其中,G表示权值,x、y表示像素坐标,
步骤6.2:依次取σ=0.5,0.6,0.7,0.8,0.9,1.0,得到5个高斯滤波后的Pan,分别计算其平均梯度,以平均梯度为纵轴,σ为横轴,拟合二次多项式;
步骤6.3:当拟合曲线的值达到AGB和AGO,取大于0的最小的解作为σB与σO值,即当高斯滤波的σ参数取值为σB与σO时,分别实现建筑区域与非建筑区域的融合效果的最优,如图5所示。
步骤6.4:对Pan进行高斯滤波,σ分别取σB和σO,得到Pan'B和Pan'O;将Pan'B和Pan'O根据建筑权值γ(x,y)加权叠加得到Pan',通过下式表示:
Pan'(x,y)=γ(x,y)×Pan'B(x,y)+(1-γ(x,y))×Pan'O(x,y) (6)
其中,Pan'(x,y)、Pan'B(x,y)与Pan'O(x,y)表示取点(x,y)处的像素值;
利用SFIM模型求解得到最终的融合影像Fusion,通过下式表示:
最终的融合影像Fusion与其他商业软件中的融合方法的处理效果如图6所示,定量评价效果如表1所示(波段1~4依次表示蓝、绿、红、近红外波段,最佳的数值用加粗字体标识),从清晰程度、信息量、与原始影像的相似性等方面看,本发明提出的方法显著优于其他方法。
表1各方法融合结果的定量评价
由于影像内建筑区域与非建筑区域的结构特征、纹理特征、细节信息相差较大,而现有融合方法对于建筑区域与非建筑区域没有进行区分,对两类区域采用同样的参数进行融合处理,而相同的参数难以在两个区域都达到各自的最优效果。
本发明方法克服了现有方法的缺陷,以SFIM融合方法为基础进行改进,创新性地利用YOLACT深度学习方法,对高分辨率全色影像中的建筑进行提取,然后计算“建筑权值”,融合运算的参数随着“建筑权值”的变化而自适应调整,从而使建筑区域与非建筑区域的融合效果都实现最优。实验表明,本发明提出的方法,在清晰程度、信息量、与原始影像的相似性等方面,显著优于其他融合方法。本方法广泛适用于各种米级、亚米级高分辨率遥感影像,为影像产品的自动化生产提供技术支撑,可服务于测绘、土地规划、自然资源调查、军事等领域。
以上所述仅是一种适用于高分辨率遥感影像的融合方法的优选实施方式,一种适用于高分辨率遥感影像的融合方法的保护范围并不仅局限于上述实施例,凡属于该思路下的技术方案均属于本发明的保护范围。应当指出,对于本领域的技术人员来说,在不脱离本发明原理前提下的若干改进和变化,这些改进和变化也应视为本发明的保护范围。
Claims (7)
1.一种适用于高分辨率遥感影像的融合方法,其特征是:包括以下步骤:
步骤1:利用YOLACT深度学习框架,对高分辨率的全色影像Pan进行建筑实例分割;
步骤2:剔除建筑分割结果中的异常值,根据影像分辨率与分割结果的像素面积,得到建筑分割结果的实地面积;
步骤3:从分割结果上取一个圆形的滑动窗口;
步骤4:对多光谱影像MS上采样至与全色影像Pan相同的分辨率;
步骤5:取建筑权值部分作为建筑区域,分别计算多光谱影像MS两个区域的平均梯度;
步骤6:对全色影像Pan进行高斯滤波,确定融合影像Fusion。
2.根据权利要求1所述的一种适用于高分辨率遥感影像的融合方法,其特征是:所述步骤1具体为:
利用YOLACT深度学习框架,对高分辨率的全色影像Pan进行建筑实例分割,判定为建筑区域的像素赋值为1,判定为非建筑区域的像素赋值为0,所使用的YOLACT框架已经用人工标注建筑物的遥感影像样本进行训练。
3.根据权利要求2所述的一种适用于高分辨率遥感影像的融合方法,其特征是:所述步骤2具体为:根据影像分辨率与分割结果的像素面积,得到建筑分割结果的实地面积,对面积大于140,000平方米或小于40平方米的建筑分割结果进行剔除;白色图斑表示被判定为建筑的像素,圆圈标注的面积过小的建筑分割结果剔除。
5.根据权利要求4所述的一种适用于高分辨率遥感影像的融合方法,其特征是:滑动窗口P的半径取400米,dth设为50;随着P不断滑动,seg影像上每个像素都计算得到一个建筑权值,保存为影像。
7.根据权利要求6所述的一种适用于高分辨率遥感影像的融合方法,其特征是:所述步骤6具体为:
步骤6.1:对全色影像Pan进行高斯滤波,通过下式所示:
其中,G表示权值,x、y表示像素坐标,
步骤6.2:依次取σ=0.5,0.6,0.7,0.8,0.9,1.0,得到5个高斯滤波后的Pan,分别计算其平均梯度,以平均梯度为纵轴,σ为横轴,拟合二次多项式;
步骤6.3:当拟合曲线的值达到AGB和AGO,取大于0的最小的解作为σB与σO值,即当高斯滤波的σ参数取值为σB与σO时,分别实现建筑区域与非建筑区域的融合效果的最优;
步骤6.4:对Pan进行高斯滤波,σ分别取σB和σO,得到Pan'B和Pan'O;将Pan'B和Pan'O根据建筑权值γ(x,y)加权叠加得到Pan',通过下式表示:
Pan'(x,y)=γ(x,y)×Pan'B(x,y)+(1-γ(x,y))×Pan'O(x,y) (6)
其中,Pan'(x,y)、Pan'B(x,y)与Pan'O(x,y)表示取点(x,y)处的像素值;
利用SFIM模型求解得到最终的融合影像Fusion,通过下式表示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111186453.4A CN113920431A (zh) | 2021-10-12 | 2021-10-12 | 一种适用于高分辨率遥感影像的融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111186453.4A CN113920431A (zh) | 2021-10-12 | 2021-10-12 | 一种适用于高分辨率遥感影像的融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113920431A true CN113920431A (zh) | 2022-01-11 |
Family
ID=79239439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111186453.4A Pending CN113920431A (zh) | 2021-10-12 | 2021-10-12 | 一种适用于高分辨率遥感影像的融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113920431A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114972288A (zh) * | 2022-06-10 | 2022-08-30 | 北京市遥感信息研究所 | 一种全色多光谱影像融合方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1489111A (zh) * | 2003-08-21 | 2004-04-14 | 上海交通大学 | 基于局部统计特性和彩色空间变换的遥感影像融合方法 |
CN102982517A (zh) * | 2012-11-02 | 2013-03-20 | 武汉大学 | 基于光谱与空间局部相关的遥感影像融合方法 |
CN109509160A (zh) * | 2018-11-28 | 2019-03-22 | 长沙理工大学 | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 |
CN110555843A (zh) * | 2019-09-11 | 2019-12-10 | 浙江师范大学 | 一种高精度的无参考融合遥感影像质量分析方法及系统 |
CN111951202A (zh) * | 2020-06-24 | 2020-11-17 | 中国电力科学研究院有限公司 | 一种输电线路卫星遥感影像融合方法及装置 |
CN112017160A (zh) * | 2020-08-05 | 2020-12-01 | 中国公路工程咨询集团有限公司 | 一种基于多策略组合的多源遥感影像道路材质精细提取方法 |
CN113205471A (zh) * | 2021-04-01 | 2021-08-03 | 辽宁师范大学 | 基于Log-Gabor变换与方向区域熵的引导滤波遥感影像融合方法 |
-
2021
- 2021-10-12 CN CN202111186453.4A patent/CN113920431A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1489111A (zh) * | 2003-08-21 | 2004-04-14 | 上海交通大学 | 基于局部统计特性和彩色空间变换的遥感影像融合方法 |
CN102982517A (zh) * | 2012-11-02 | 2013-03-20 | 武汉大学 | 基于光谱与空间局部相关的遥感影像融合方法 |
CN109509160A (zh) * | 2018-11-28 | 2019-03-22 | 长沙理工大学 | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 |
CN110555843A (zh) * | 2019-09-11 | 2019-12-10 | 浙江师范大学 | 一种高精度的无参考融合遥感影像质量分析方法及系统 |
CN111951202A (zh) * | 2020-06-24 | 2020-11-17 | 中国电力科学研究院有限公司 | 一种输电线路卫星遥感影像融合方法及装置 |
CN112017160A (zh) * | 2020-08-05 | 2020-12-01 | 中国公路工程咨询集团有限公司 | 一种基于多策略组合的多源遥感影像道路材质精细提取方法 |
CN113205471A (zh) * | 2021-04-01 | 2021-08-03 | 辽宁师范大学 | 基于Log-Gabor变换与方向区域熵的引导滤波遥感影像融合方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114972288A (zh) * | 2022-06-10 | 2022-08-30 | 北京市遥感信息研究所 | 一种全色多光谱影像融合方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104182949B (zh) | 基于直方图特征点配准的影像匀色与融合方法及系统 | |
CN107610114B (zh) | 基于支持向量机的光学卫星遥感影像云雪雾检测方法 | |
CN111696123A (zh) | 超像素分类识别的遥感图像水域分割提取方法 | |
CN112307901B (zh) | 一种面向滑坡检测的sar与光学影像融合方法及系统 | |
CN110427922A (zh) | 一种基于机器视觉和卷积神经网络病虫害识别系统和方法 | |
CN109478232A (zh) | 自然环境中的杂草的识别 | |
CN106295562A (zh) | 一种高分辨率遥感影像道路信息提取方法 | |
CN102982538B (zh) | 一种资源卫星多光谱图像模拟真彩色方法 | |
CN113077486B (zh) | 一种山区植被覆盖率监测方法及系统 | |
CN103984946A (zh) | 一种基于K-means的高分辨率遥感地图道路提取方法 | |
CN105405138B (zh) | 基于显著性检测的水面目标跟踪方法 | |
CN107958450B (zh) | 基于自适应高斯滤波的全色多光谱影像融合方法及系统 | |
CN104537634A (zh) | 动态图像中去除雨滴影响的方法和系统 | |
CN113920431A (zh) | 一种适用于高分辨率遥感影像的融合方法 | |
CN115578660B (zh) | 基于遥感图像的土地地块分割方法 | |
CN111476723B (zh) | 一种Landsat-7扫描线纠正器失效的遥感图像丢失像素恢复方法 | |
CN111008642A (zh) | 基于卷积神经网络的高分辨率遥感影像分类方法及系统 | |
CN106951863A (zh) | 一种基于随机森林的变电站设备红外图像变化检测方法 | |
CN113888397A (zh) | 基于无人机遥感和图像处理技术的烟草清塘点株方法 | |
CN107977959B (zh) | 一种适用于电力作业机器人的呼吸器状态识别方法 | |
WO2013184518A2 (en) | Automatic processing scale estimation for use in an image process | |
CN109993104B (zh) | 一种遥感图像对象层次的变化检测方法 | |
CN106204596B (zh) | 一种基于高斯拟合函数与模糊混合估计的全色波段遥感影像云检测方法 | |
KR20210096925A (ko) | 대용량 항공정사영상의 효율적인 색상보정 방법 | |
CN114612333B (zh) | 一种基于显微镜图像的微囊藻类细胞统计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |