CN112883839A - 基于自适应样本集构造与深度学习的遥感影像解译方法 - Google Patents

基于自适应样本集构造与深度学习的遥感影像解译方法 Download PDF

Info

Publication number
CN112883839A
CN112883839A CN202110140498.1A CN202110140498A CN112883839A CN 112883839 A CN112883839 A CN 112883839A CN 202110140498 A CN202110140498 A CN 202110140498A CN 112883839 A CN112883839 A CN 112883839A
Authority
CN
China
Prior art keywords
interpretation
sample
remote sensing
sensing image
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110140498.1A
Other languages
English (en)
Other versions
CN112883839B (zh
Inventor
胡艳
李朋龙
丁忆
胡翔云
马泽忠
肖禾
张觅
张泽烈
荣子豪
李晓龙
罗鼎
陈静
段松江
刘朝晖
曾攀
殷明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Geographic Information And Remote Sensing Application Center
Wuhan University WHU
Original Assignee
Chongqing Geographic Information And Remote Sensing Application Center
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Geographic Information And Remote Sensing Application Center, Wuhan University WHU filed Critical Chongqing Geographic Information And Remote Sensing Application Center
Priority to CN202110140498.1A priority Critical patent/CN112883839B/zh
Publication of CN112883839A publication Critical patent/CN112883839A/zh
Application granted granted Critical
Publication of CN112883839B publication Critical patent/CN112883839B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Abstract

本发明公开了一种基于自适应样本集构造与深度学习的遥感影像解译方法,包括步骤:对样本总集进行特征提取,并对提取的特征进行聚类,构建视觉词袋模型的特征词典,得到样本子集;构建基于深度学习网络的解译模型,并先后输入样本总集和聚类的样本子集对解译模型进行训练,分别得到总解译模型和与各样本子集相对应的子解译模型;采用总解译模型以及根据待解译遥感影像的影像特征选取的合适的若干子解译模型,对待解译遥感影像进行自适应解译。其显著效果是:通过聚类的自动化、分布式手段快速建立海量遥感影像的样本库,并利用机器深度学习技术对样本库数据进行训练,获得适应于不同场景的智能解译模型,解译精度高,鲁棒性好。

Description

基于自适应样本集构造与深度学习的遥感影像解译方法
技术领域
本发明涉及到遥感影像处理技术领域,具体涉及一种基于自适应样本集构造与深度学习的遥感影像解译方法。
背景技术
遥感技术经过几十年的发展,卫星遥感影像分辨率不断提高。随着国内资源三号、高分系列以及其它商业卫星不断发射成功,遥感信息提取获得了充足的信息来源。而遥感影像分类是利用遥感技术手段获得土地覆盖信息的重要环节,如何利用遥感影像大数据,实现遥感影像的自动分类以及不同时相的影像变化信息提取是一项非常重要的研究课题。
近年来利用高分辨率遥感图像进行变化信息提取受到了广泛的关注,然而实际作业中依然依赖于人工核查,导致生产效率低下。随着计算机计算性能的不断提升与大数据时代的到来,人工智能技术已经在计算机视觉、自然语言处理、信息检索与语音识别等领域取得了巨大的成功。使用人工智能技术特别是深度学习技术对遥感大数据进行遥感影像解译、变化发现成为了遥感领域新的热点,为土地利用变化检测、自然资源违法监测提供了新的思路,具有重要的应用价值。
目前,针对高分辨遥感影像自动解译与识别任务的研究方法主要有两种:第一种是传统的模式识别方法,这类方法将目标任务视为模式分类问题,综合利用影像的光谱、几何、纹理特征,或者专家知识和经验指数,构建特征知识库实现“经验化”的解译过程,主要包括特征抽取、特征融合及选择,以及特征分类三个步骤。第二种是人工智能的方法,人类视觉系统具有极强的识别能力和适应(学习)能力,人工智能方法是解决遥感影像快速采集地理信息的必由之路,视觉认知计算通过对人类视觉认知机理的了解,完成其数学建模以实现高效、鲁棒的视觉任务。
然而,以上两种方法的解译都具有较大的局限性,传统模式识别方法由于图像分割、特征选择等环节缺乏普适的原则或理论,在大范围复杂影像中难以达到实际应用所需的精度和鲁棒性;人工智能方法在遥感影像高可靠性的信息提取中,现有的以深度学习为代表的计算机视觉方法也难以媲美人类视觉系统的鲁棒性,主要原因在于缺乏大量已标注的像素级专业数据库供分析研究,因此如何对现有数据库进行有效构造和利用迫在眉睫。
发明内容
针对现有技术的不足,本发明的目的是提供一种基于自适应样本集构造与深度学习的遥感影像解译方法,基于聚类的自动化、分布式手段快速建立海量遥感影像的样本库,并利用机器深度学习技术,对样本库数据进行训练,获得适应于不同场景的智能解译模型对遥感影像进行解译。
为达到上述目的,本发明采用的技术方案如下:
一种基于自适应样本集构造与深度学习的遥感影像解译方法,其关键在于:包括如下步骤:
步骤1,对样本总集进行特征提取,并对提取的特征进行聚类,构建视觉词袋模型的特征词典,得到样本子集;
步骤2,构建基于深度学习网络的解译模型,并先后输入样本总集和聚类的样本子集对解译模型进行训练,分别得到总解译模型和与各样本子集相对应的子解译模型;
步骤3,采用总解译模型以及根据待解译遥感影像的影像特征选取的合适的若干子解译模型,对待解译遥感影像进行自适应解译。
进一步的,步骤1中获得样本子集的具体步骤为:
步骤1.1,将样本总集中所有影像划分为若干影像块,提取每个影像块的CS-LBP特征,获得CS-LBP直方图;
步骤1.2,对提取的CS-LBP直方图进行主分量变换,取其中降维到5~10维后的数据集,并根据最大最小值进行归一化得到纹理特征向量;
步骤1.3,采用K-means聚类方法将所有影像块的纹理特征向量进行聚类,并构建视觉词袋模型;
步骤1.4,通过统计每个CS-LBP特征对应视觉词袋模型中的单词在影像中出现的次数,并对样本总集中所有影像进行聚类,构建视觉词袋模型的特征词典,获得样本子集。
进一步的,所述CS-LBP特征的提取公式为:
Figure BDA0002928382810000031
其中,
Figure BDA0002928382810000032
N表示半径为R时邻域像素的个数;Ii表示第i个像素点的灰度值;Ic表示中心像素的灰度值,Ii和Ii+(N/2)即是以中心像素为对称中心的两个像素的灰度值;T是一个反应平坦区域灰度值波动的阈值。
进一步的,步骤1.2中对提取的CS-LBP直方图进行主分量变换的步骤如下:
步骤A1,将每个影像块的CS-LBP特征按列组成矩阵X;
步骤A2,将矩阵X按行均值化,即先求每一行的均值,然后该行的每个元素都减去这个均值;
步骤A3,求协方差矩阵C;
步骤A4,计算出协方差矩阵C对应的特征向量;
步骤A5,将特征向量按对应的特征值的大小,从上而下按行排列成矩阵,并取前5~10行组成矩阵P;
步骤A6,按照Y=PX计算获得降维后的数据集。
进一步的,步骤1.3中采用K-means聚类方法将所有影像块的纹理特征向量进行聚类的具体步骤为:
步骤B1,在纹理特征样本中随机选取k个样本点作为各个簇的中心点;
步骤B3,计算所有样本点与各个簇中心之间的距离,然后把样本点划入最近的簇中;
步骤B3,根据簇中已有的样本点,重新计算簇中心;
步骤B4,重复步骤B2-B3,遍历纹理特征样本中所有可能的样本点。
进一步的,步骤2中所述的深度学习网络为AlexNet、VGGNet、ResNet中的任一种。
进一步的,步骤3中对待解译遥感影像进行自适应解译的具体步骤如下:
步骤3.1,将待解译遥感影像进行分块处理;
步骤3.2,通过步骤1的特征提取方式提取每一小块影像的CS-LBP特征,并生成视觉单词直方图;
步骤3.3,采用直方图相交法分别计算每一小块影像的CS-LBP特征与每个样本子集特征的相似度;
步骤3.4,选取相似度最高的若干个子解译模型以及总解译模型进行解译,并对解译结果进行概率加权处理,得到每小块影像的解译结果;
步骤3.5,对所有小块影像的解译结果进行组合,获得整幅待解译遥感影像的解译结果。
进一步的,步骤3.1中对待解译遥感影像进行分块处理的切片规格大小为512*512。
进一步的,步骤3.3中采用直方图相交法计算相似度的公式如下:
Figure BDA0002928382810000041
其中,HQ(k)和HD(k)分别是影像块和样本子集特征的统计直方图,P(Q,D)为二者之间的相似度,k为影像的特征取值,L为特征可取值个数。
与现有的遥感影像解译方法相比,本发明方法可根据场景类别,通过自动化、分布式手段快速建立海量影像数据样本库,并利用机器深度学习技术,对样本库数据进行训练,最终获得典型地物的深度学习模型,能够应用于基础地理信息数据快速更新、遥感影像变化检测等方面,在促进地理国情监测、土地利用规划监测等任务有效准确开展等方面具有重要意义。
本发明的显著效果是:通过聚类的自动化、分布式手段快速建立海量遥感影像的样本库,并利用机器深度学习技术对样本库数据进行训练,获得适应于不同场景的智能解译模型,与传统解译方法相比,本发明方法从原始数据中自动学习深度特征,适应遥感影像解译的不同情况,更加快速和智能;与其他深度学习方法相比,本发明方法可以根据场景类别自动选择模型进行训练和解译,可以得到更鲁棒的模型,以及更高精度的遥感影像解译结果。
附图说明
图1是本发明的方法流程图;
图2是影像切片数据示意图;
图3是LBP/C计算示例图;
图4是CS-LBP计算示例图;
图5是样本聚类流程图;
图6是WorldView-2影像的示意图;
图7是图6的解译结果图;
图8是资源三号影像的示意图;
图9是图8的解译结果图。
具体实施方式
下面结合附图对本发明的具体实施方式以及工作原理作进一步详细说明。
如图1所示,一种基于自适应样本集构造与深度学习的遥感影像解译方法,具体步骤如下:
步骤1,对样本总集进行特征提取,并对提取的特征进行聚类,构建视觉词袋模型的特征词典,得到样本子集,具体步骤如下:
步骤1.1,将样本总集中所有影像划分为若干影像块,提取每个影像块的CS-LBP特征,获得CS-LBP直方图;
本例中,所述影像采用如图2所示的国产高分辨率影像卫星切片,所有切片规格均为512*512,将所有影像划分为m*n个影像块,经实验验证,m和n均取值12时得到的效果最佳。
LBP是一种灰度不变纹理描述算子,利用公式(1)比较领域像素和中心像素灰度值的大小,然后与一个标准模板计算卷积得到:
Figure BDA0002928382810000051
其中,N表示半径为R时邻域像素的个数;Ii表示第i个像素点的灰度值;Ic表示中心像素的灰度值。
为了描述纹理强度,通常还会增加一项局部对比度,组成LBP/C纹理描述算子,利用公式(2)将邻域内灰度值大于中心像素的所有像素灰度均值减去小于中心像素的所有像素灰度均值来计算局部对比度。对于八邻域内计算LBP/C示意图如图3所示,LBP=1+8+32+128=169,C=(6+7+9+7)/4-(5+2+1+3)/4=4.5。
Figure BDA0002928382810000052
与LBP比较邻域像素和中心像素的大小不同,CS-LBP比较的是以中心像素为对称中心的一对像素的大小,计算公式如下:
Figure BDA0002928382810000061
其中,
Figure BDA0002928382810000062
N表示半径为R时邻域像素的个数;Ii表示第i个像素点的灰度值;Ic表示中心像素的灰度值,Ii和Ii+(N/2)即是以中心像素为对称中心的两个像素的灰度值;T是一个反应平坦区域灰度值波动的阈值,通常取灰度值取值范围的1%。
CS-LBP计算示例如图4所示。通过设置阈值,CS-LBP对平坦地区亦有很强的鲁棒性,其取值范围是0~15,考虑8级对比度,则是16*8=128维。
为了进一步降低维数,本发明算法提取CS-LBP直方图后会进行主分量变换(Principle Component Analysis),进入步骤1.2。
步骤1.2,对提取的CS-LBP直方图进行主分量变换,取其中降维到5~10维后的数据集,并根据最大最小值进行归一化得到纹理特征向量;
主分量变化具体步骤如下,这些直方图数据维度为128,共M个:
步骤A1,将每个影像块的CS-LBP特征按列组成矩阵X128,M
步骤A2,将矩阵X按行均值化,即先求每一行的均值,然后该行的每个元素都减去这个均值;
步骤A3,求协方差矩阵
Figure BDA0002928382810000063
步骤A4,计算出协方差矩阵C对应的特征向量;
步骤A5,将特征向量按对应的特征值的大小,从上而下按行排列成矩阵,并取前5~10行组成矩阵P;
步骤A6,按照Y=PX计算获得降维后的数据集。
步骤1.3,采用K-means聚类方法将所有影像块的纹理特征向量进行聚类,并构建视觉词袋模型;
K-means聚类方法是一种无监督分类算法,假设有无标签数据集:
Figure BDA0002928382810000071
该算法的任务是将数据集聚类成K个簇C=C1,C2,…,Ck,最小化损失函数为:
Figure BDA0002928382810000072
其中ui为簇Ci的中心点:
Figure BDA0002928382810000073
要找到以上问题的最优解需要遍历所有可能的簇划分,K-means算法使用贪心策略求得一个近似解,具体步骤如下:
步骤B1,在纹理特征样本中随机选取k个样本点作为各个簇的中心点;
步骤B3,计算所有样本点与各个簇中心之间的距离,然后把样本点划入最近的簇中;
步骤B3,根据簇中已有的样本点,重新计算簇中心;
步骤B4,重复步骤B2-B3,遍历纹理特征样本中所有可能的样本点。
步骤1.4,通过统计每个CS-LBP特征对应视觉词袋模型中的单词在影像中出现的次数,可以得到每张影像的视觉单词直方图,并对样本总集中所有影像进行聚类,将所有样本聚为N类。构建视觉词袋模型的特征词典,获得N类样本子集。样本总计智能聚类过程如5所示。
步骤2,构建基于深度学习网络的解译模型,并先后输入样本总集和聚类的样本子集对解译模型进行训练,分别得到总解译模型和与各样本子集相对应的子解译模型;
本例中,所述的深度学习网络可使用现有的各种流行的卷积神经网络如AlexNet、VGGNet、ResNet中的任一种进行训练。首先对样本总集进行训练,得到解译效果不错的总解译模型,然后在总解译模型的基础上对各样本子集进行微调以获得子解译模型,这样可以在加快训练速度的同时有效防止模型过拟合。
本发明方法主要在以VGGNet为骨架的对偶多尺度流形排序优化网络上进行了实验,该网络主要分为两个部分:
A.通过深度学习建立目标表征
从图像像素开始,建立图像的深度学习网络,通过逐层学习得到图像的表达。为了更加有效表达目标,对深度网络的每层赋予一定意义。深度学习的本质是通过构建具有多个隐层的机器学习模型,从海量的训练数据中学习更有用的特征,从而最终提升分类或预测的准确性。因此深度学习也是一种特征学习,自动从图像数据中学习最能表达目标的特征。
B.利用上下文信息调整深度网络
得到图像表达后,利用目标标记、目标上下文、场景上下文信息对深度网络权值进行调整,通过上下文形成“扩张-非扩张”卷积层,增强深度网络的判别能力,消除不确定性或歧义性,以减少处理时间,提高目标检测性能。传统的很多方法是基于局部特征的,然而高层语义描述才是更稳定的,因此加入上下文的语义描述可以填补低层特征和高层语义之间的鸿沟。
在目标层基础上设置目标群层和场景层,通过多尺度多方向滤波器特征的空间分布提取场景上下文特征,利用流形排序优化方法提高地物分类精度。目标层、目标群层、场景层之间形成一个有监督的网络。通过该网络指导整个模型的学习,调整深度网络参数,提高目标检测性能。
步骤3,采用总解译模型以及根据待解译遥感影像的影像特征选取的合适的若干子解译模型,对待解译遥感影像进行自适应解译,具体步骤如下:
步骤3.1,将待解译遥感影像按步骤1中切片规格大小512*512进行分块处理;
步骤3.2,通过步骤1的特征提取方式提取每一小块影像的CS-LBP特征,并生成视觉单词直方图;
步骤3.3,采用直方图相交法分别计算每一小块影像的CS-LBP特征与每个样本子集特征的相似度;
采用直方图相交法计算相似度的公式如下:
Figure BDA0002928382810000081
其中,HQ(k)和HD(k)分别是影像块和样本子集特征的统计直方图,P(Q,D)为二者之间的相似度,k为影像的特征取值,L为特征可取值个数。
步骤3.4,选取相似度最高的若干个子解译模型以及总解译模型进行解译,并对解译结果进行概率加权处理,得到每小块影像的解译结果;
具体的,对得到的所有的相似度P1,P2,…,Pn进行排序,选其中值最大的3个相似度所属的子集的模型作为约束子解译模型,以最初的总解译模型作为主要解译模型,对于影像中每个像素,每个模型都可以得到其对应的所属类别概率,即可以得到4个影像的概率图PD1、PD2、PD3、PD0,由于总解译模型已经可以得到不错的解译效果,其他子解译模型是对总解译模型的优化和约束,且相似度越大的模型优化效果越好,经实验验证,对各概率图按照0.3,0.2,0.1,0.4的概率进行加权求和得到的解译效果最佳,即:
PD=0.3×PD1+0.2×PD2+0.1×PD3+0.4×PD0 (8)
步骤3.5,对所有小块影像的解译结果进行组合,获得整幅待解译遥感影像的解译结果。
跟常规样本库制作方法相比,本发明的基于自适应的样本集构造和自动模型选择训练方法可以突破因时相不同、传感器平台不同造成的高分辨率遥感影像光谱差异问题,增强语义分割的鲁棒性;由于本发明中加入了对场景的约束,可以抑制无关场景信息的干扰,提升语义视觉信号抽取的可靠性。采用本发明所述方法进行解译的优异效果可见图6-图9。其中,图6与图7为对对一张WorldView-2遥感影像的解译结果图,解译的整体像素精度达到90.3%;图8与图9为一张资源三号遥感影像的解译结果图,解译的整体像素精度达到93.7%。
以上对本发明所提供的技术方案进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (9)

1.一种基于自适应样本集构造与深度学习的遥感影像解译方法,其特征在于,包括如下步骤:
步骤1,对样本总集进行特征提取,并对提取的特征进行聚类,构建视觉词袋模型的特征词典,得到样本子集;
步骤2,构建基于深度学习网络的解译模型,并先后输入样本总集和聚类的样本子集对解译模型进行训练,分别得到总解译模型和与各样本子集相对应的子解译模型;
步骤3,采用总解译模型以及根据待解译遥感影像的影像特征选取的合适的若干子解译模型,对待解译遥感影像进行自适应解译。
2.根据权利要求1所述的基于自适应样本集构造与深度学习的遥感影像解译方法,其特征在于:步骤1中获得样本子集的具体步骤为:
步骤1.1,将样本总集中所有影像划分为若干影像块,提取每个影像块的CS-LBP特征,获得CS-LBP直方图;
步骤1.2,对提取的CS-LBP直方图进行主分量变换,取其中降维到5~10维后的数据集,并根据最大最小值进行归一化得到纹理特征向量;
步骤1.3,采用K-means聚类方法将所有影像块的纹理特征向量进行聚类,并构建视觉词袋模型;
步骤1.4,通过统计每个CS-LBP特征对应视觉词袋模型中的单词在影像中出现的次数,并对样本总集中所有影像进行聚类,构建视觉词袋模型的特征词典,获得样本子集。
3.根据权利要求2所述的基于自适应样本集构造与深度学习的遥感影像解译方法,其特征在于:所述CS-LBP特征的提取公式为:
Figure FDA0002928382800000011
其中,
Figure FDA0002928382800000012
N表示半径为R时邻域像素的个数;Ii表示第i个像素点的灰度值;Ic表示中心像素的灰度值,Ii和Ii+(N/2)即是以中心像素为对称中心的两个像素的灰度值;T是一个反应平坦区域灰度值波动的阈值。
4.根据权利要求2所述的基于自适应样本集构造与深度学习的遥感影像解译方法,其特征在于:步骤1.2中对提取的CS-LBP直方图进行主分量变换的步骤如下:
步骤A1,将每个影像块的CS-LBP特征按列组成矩阵X;
步骤A2,将矩阵X按行均值化,即先求每一行的均值,然后该行的每个元素都减去这个均值;
步骤A3,求协方差矩阵C;
步骤A4,计算出协方差矩阵C对应的特征向量;
步骤A5,将特征向量按对应的特征值的大小,从上而下按行排列成矩阵,并取前5~10行组成矩阵P;
步骤A6,按照Y=PX计算获得降维后的数据集。
5.根据权利要求2所述的基于自适应样本集构造与深度学习的遥感影像解译方法,其特征在于:步骤1.3中采用K-means聚类方法将所有影像块的纹理特征向量进行聚类的具体步骤为:
步骤B1,在纹理特征样本中随机选取k个样本点作为各个簇的中心点;
步骤B3,计算所有样本点与各个簇中心之间的距离,然后把样本点划入最近的簇中;
步骤B3,根据簇中已有的样本点,重新计算簇中心;
步骤B4,重复步骤B2-B3,遍历纹理特征样本中所有可能的样本点。
6.根据权利要求1所述的基于自适应样本集构造与深度学习的遥感影像解译方法,其特征在于:步骤2中所述的深度学习网络为AlexNet、VGGNet、ResNet中的任一种。
7.根据权利要求1所述的基于自适应样本集构造与深度学习的遥感影像解译方法,其特征在于:步骤3中对待解译遥感影像进行自适应解译的具体步骤如下:
步骤3.1,将待解译遥感影像进行分块处理;
步骤3.2,通过步骤1的特征提取方式提取每一小块影像的CS-LBP特征,并生成视觉单词直方图;
步骤3.3,采用直方图相交法分别计算每一小块影像的CS-LBP特征与每个样本子集特征的相似度;
步骤3.4,选取相似度最高的若干个子解译模型以及总解译模型进行解译,并对解译结果进行概率加权处理,得到每小块影像的解译结果;
步骤3.5,对所有小块影像的解译结果进行组合,获得整幅待解译遥感影像的解译结果。
8.根据权利要求7所述的基于自适应样本集构造与深度学习的遥感影像解译方法,其特征在于:步骤3.1中对待解译遥感影像进行分块处理的切片规格大小为512*512。
9.根据权利要求7所述的基于自适应样本集构造与深度学习的遥感影像解译方法,其特征在于:步骤3.3中采用直方图相交法计算相似度的公式如下:
Figure FDA0002928382800000031
其中,HQ(k)和HD(k)分别是影像块和样本子集特征的统计直方图,P(Q,D)为二者之间的相似度,k为影像的特征取值,L为特征可取值个数。
CN202110140498.1A 2021-02-02 2021-02-02 基于自适应样本集构造与深度学习的遥感影像解译方法 Active CN112883839B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110140498.1A CN112883839B (zh) 2021-02-02 2021-02-02 基于自适应样本集构造与深度学习的遥感影像解译方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110140498.1A CN112883839B (zh) 2021-02-02 2021-02-02 基于自适应样本集构造与深度学习的遥感影像解译方法

Publications (2)

Publication Number Publication Date
CN112883839A true CN112883839A (zh) 2021-06-01
CN112883839B CN112883839B (zh) 2021-10-22

Family

ID=76052509

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110140498.1A Active CN112883839B (zh) 2021-02-02 2021-02-02 基于自适应样本集构造与深度学习的遥感影像解译方法

Country Status (1)

Country Link
CN (1) CN112883839B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113436281A (zh) * 2021-06-16 2021-09-24 中国电子科技集团公司第五十四研究所 一种融合lbp特征的遥感图像样本处理方法
CN113590732A (zh) * 2021-08-02 2021-11-02 高崟 遥感解译样本点的显示方法、装置、电子设备及存储介质
CN113762070A (zh) * 2021-07-26 2021-12-07 中国测绘科学研究院 用于深度学习的地表覆盖分类样本采集方法
CN113989678A (zh) * 2021-11-18 2022-01-28 生态环境部卫星环境应用中心 生态系统分类样本库构建方法和装置
CN114445726A (zh) * 2021-12-13 2022-05-06 广东省国土资源测绘院 一种基于深度学习的样本库建立方法和装置
CN115937439A (zh) * 2023-03-02 2023-04-07 航天宏图信息技术股份有限公司 城市建筑三维模型的构建方法、装置及电子设备
CN116129265A (zh) * 2023-01-03 2023-05-16 国网湖北省电力有限公司经济技术研究院 一种基于神经网络的遥感影像工程量监测方法
CN116523884A (zh) * 2023-05-06 2023-08-01 广州纳诺科技股份有限公司 一种遥感影像数据智能解译方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102810158A (zh) * 2011-05-31 2012-12-05 中国科学院电子学研究所 一种基于多尺度语义模型的高分辨率遥感目标提取方法
CN103218625A (zh) * 2013-05-10 2013-07-24 陆嘉恒 一种基于代价敏感支持向量机的遥感图像自动解译方法
US20170076438A1 (en) * 2015-08-31 2017-03-16 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
CN107315990A (zh) * 2017-05-04 2017-11-03 深圳市美好幸福生活安全系统有限公司 一种基于xcs‑lbp特征以及级联aksvm的行人检测算法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102810158A (zh) * 2011-05-31 2012-12-05 中国科学院电子学研究所 一种基于多尺度语义模型的高分辨率遥感目标提取方法
CN103218625A (zh) * 2013-05-10 2013-07-24 陆嘉恒 一种基于代价敏感支持向量机的遥感图像自动解译方法
US20170076438A1 (en) * 2015-08-31 2017-03-16 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
CN107315990A (zh) * 2017-05-04 2017-11-03 深圳市美好幸福生活安全系统有限公司 一种基于xcs‑lbp特征以及级联aksvm的行人检测算法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113436281A (zh) * 2021-06-16 2021-09-24 中国电子科技集团公司第五十四研究所 一种融合lbp特征的遥感图像样本处理方法
CN113762070A (zh) * 2021-07-26 2021-12-07 中国测绘科学研究院 用于深度学习的地表覆盖分类样本采集方法
CN113590732A (zh) * 2021-08-02 2021-11-02 高崟 遥感解译样本点的显示方法、装置、电子设备及存储介质
CN113590732B (zh) * 2021-08-02 2023-11-24 高崟 遥感解译样本点的显示方法、装置、电子设备及存储介质
CN113989678A (zh) * 2021-11-18 2022-01-28 生态环境部卫星环境应用中心 生态系统分类样本库构建方法和装置
CN113989678B (zh) * 2021-11-18 2022-06-10 生态环境部卫星环境应用中心 生态系统分类样本库构建方法和装置
CN114445726B (zh) * 2021-12-13 2022-08-02 广东省国土资源测绘院 一种基于深度学习的样本库建立方法和装置
CN114445726A (zh) * 2021-12-13 2022-05-06 广东省国土资源测绘院 一种基于深度学习的样本库建立方法和装置
CN116129265A (zh) * 2023-01-03 2023-05-16 国网湖北省电力有限公司经济技术研究院 一种基于神经网络的遥感影像工程量监测方法
CN116129265B (zh) * 2023-01-03 2024-03-08 国网湖北省电力有限公司经济技术研究院 一种基于神经网络的遥感影像工程量监测方法
CN115937439A (zh) * 2023-03-02 2023-04-07 航天宏图信息技术股份有限公司 城市建筑三维模型的构建方法、装置及电子设备
CN116523884A (zh) * 2023-05-06 2023-08-01 广州纳诺科技股份有限公司 一种遥感影像数据智能解译方法
CN116523884B (zh) * 2023-05-06 2023-11-14 广州纳诺科技股份有限公司 一种遥感影像数据智能解译方法

Also Published As

Publication number Publication date
CN112883839B (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN112883839B (zh) 基于自适应样本集构造与深度学习的遥感影像解译方法
CN110689086B (zh) 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
CN109657584B (zh) 辅助驾驶的改进LeNet-5融合网络交通标志识别方法
CN112418117B (zh) 一种基于无人机图像的小目标检测方法
CN111723675B (zh) 基于多重相似性度量深度学习的遥感图像场景分类方法
EP3614308A1 (en) Joint deep learning for land cover and land use classification
CN108108751B (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
CN110110802A (zh) 基于高阶条件随机场的机载激光点云分类方法
CN108052966A (zh) 基于卷积神经网络的遥感图像场景自动提取和分类方法
Zhang et al. Road recognition from remote sensing imagery using incremental learning
CN115170805A (zh) 一种结合超像素和多尺度分层特征识别的图像分割方法
CN105930792A (zh) 一种基于视频局部特征字典的人体动作分类方法
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN115240024A (zh) 一种联合自监督学习和半监督学习的地外图片分割方法和系统
CN114842264A (zh) 一种基于多尺度空谱特征联合学习的高光谱图像分类方法
CN113808166B (zh) 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法
CN113657414B (zh) 一种物体识别方法
CN111310820A (zh) 基于交叉验证深度cnn特征集成的地基气象云图分类方法
Liu et al. Image retrieval using CNN and low-level feature fusion for crime scene investigation image database
Defriani et al. Recognition of Regional Traditional House in Indonesia Using Convolutional Neural Network (CNN) Method
CN114359632A (zh) 一种基于改进PointNet++神经网络的点云目标分类方法
CN109815887B (zh) 一种基于多智能体协作的复杂光照下人脸图像的分类方法
CN105844299A (zh) 一种基于词袋模型的图像分类方法
Kontopoulos et al. TraClets: Harnessing the power of computer vision for trajectory classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant