CN111126482B - 一种基于多分类器级联模型的遥感影像自动分类方法 - Google Patents

一种基于多分类器级联模型的遥感影像自动分类方法 Download PDF

Info

Publication number
CN111126482B
CN111126482B CN201911336286.XA CN201911336286A CN111126482B CN 111126482 B CN111126482 B CN 111126482B CN 201911336286 A CN201911336286 A CN 201911336286A CN 111126482 B CN111126482 B CN 111126482B
Authority
CN
China
Prior art keywords
classifier
remote sensing
sensing image
segmentation
segmented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911336286.XA
Other languages
English (en)
Other versions
CN111126482A (zh
Inventor
王光辉
唐新明
刘宇
张涛
王更
郑书磊
刘慧杰
王界
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ministry Of Natural Resources Land Satellite Remote Sensing Application Center
Original Assignee
Ministry Of Natural Resources Land Satellite Remote Sensing Application Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ministry Of Natural Resources Land Satellite Remote Sensing Application Center filed Critical Ministry Of Natural Resources Land Satellite Remote Sensing Application Center
Priority to CN201911336286.XA priority Critical patent/CN111126482B/zh
Publication of CN111126482A publication Critical patent/CN111126482A/zh
Application granted granted Critical
Publication of CN111126482B publication Critical patent/CN111126482B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/45Analysis of texture based on statistical description of texture using co-occurrence matrix computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

本发明公开了一种基于多分类器级联模型的遥感影像自动分类方法,包括如下步骤,S1、获取待分类的高分辨率遥感影像数据;S2、采用多尺度分割算法对待分类的高分辨率遥感影像数据进行分割,获取多个分割对象;计算每个分割对象的特征值,并对各所述分割对象的特征值进行特征融合;S3、根据待分类的高分辨率遥感影像数据的地物类别,综合分析候选分类器的特征,构建自适应多分类器级联模型;等步骤。优点是:该分类方法能够实现高分辨率卫星遥感影像的高精度、高可靠、高效率的自动分类信息提取,解决单个分类器特定地物分类精度整体精度低、多特征多信息交互性差及自动化程度低的瓶颈问题。

Description

一种基于多分类器级联模型的遥感影像自动分类方法
技术领域
本发明涉及遥感影像处理技术领域,尤其涉及一种基于多分类器级联模型的遥感影像自动分类方法。
背景技术
对遥感影像提取地物类别信息,是遥感数据在各个领域得到广泛应用的基础环节,是遥感数据满足大众化地理空间信息需求的技术保证。在高分辨率遥感影像上,相比于中低分辨率影像,不同地物目标的光谱、空间特征差异更加明显,从而可以形成颜色差异、大小不同的像斑对象。传统基于像元的影像分类方式应用在高分辨率遥感影像上有很大的局限性,考虑空间上下文的面向对象分类方法成为了当前研究应用的主要方式。
面向对象的方法进行信息提取时处理的不再是单个像素,而是同质性极高的、包含更多语义信息的像斑对象。在分类过程中不仅利用像斑的光谱特征,更多利用的是像斑的几何信息,以及像斑间的语义信息、纹理信息和拓扑关系。能够减少传统基于像元层次分类过程语义的损失率,使得分类结果包含更丰富的语义信息。面向对象的方法包含两个优点,一是能够利用像斑对象的多特征,二是可以在不同的尺度上提取不同层次的信息,找到不同地物在最佳尺度上的空间表达,充分挖掘遥感影像潜在的信息。总之,面向对象的方法是对遥感影像更深入的理解,更侧重于对影像语义的分析。
近年来,学者们研究出许多分类精度更优的分类器,目前遥感影像分类器包括最小距离法、马氏距离法、最大似然法、神经网络、波谱角等。大量文献表明,对于不同场景、不同环境的研究区域,没有哪一种分类器能够在所有情况下都合适。因此,多分类器融合成为了分类课题的研究重点。不同的分类模型在分类性能和分类精度上存在着互补的关系,通过取长补短的策略进行结合,成功解决了单个分类器难以解决的分类问题,因而在不同领域得到了广泛的应用。
现有对多分类器集成的研究主要从三个方面进行:
一是具有差异性的个体分类器生成,常见的有Bagging算法,原理是随机从初始训练集抽样学习,训练成有差异的子分类器;Boosting算法,原理是通过多次训练样本,对训练失败的样本赋以较大权重,也就是让学习算法在后续的学习中几种对比较难得训练例子进行学习;随机森林算法,原理是随机选择样本以及随机选择特征构建具有差异性的决策树,大量决策树构成随机森林,对没有关联的子树的分类信息进行融合可以得到分类精度更高的结果。但是,当随机森林中的决策树个数很多时,训练时需要的空间和时间会较大。
二是如何度量个体分类器的差异性,包括成对差异性和非成对差异性,成对差异性有相关系数、双错测度、不一致度量、Q统计量等;非成对差异性常见的有熵、Kappa度量、广义差异性、一致失效性等。对这些差异性的综合分析非常重要,是构建集成分类器生效的必要条件,是创建好的集成模型的关键要素。
三是对个体分类器输出信息的融合方法。根据子分类器输出信息的层次可分为抽象级融合与度量级融合。抽象级融合指分类器指输出类别标签,如简单投票法、加权投票法、随机森林算法等,优点是融合简单,对子分类器要求不高,缺点是没有利用更多的信息。度量级融合方法较多,如贝叶斯方法、证据理论融合方法、模糊积分融合方法、决策模板融合方法等,这些方法的优点是利用了个体分类器的输出概率信息,可靠性更高,缺点是计算复杂。
发明内容
本发明的目的在于提供一种基于多分类器级联模型的遥感影像自动分类方法,从而解决现有技术中存在的前述问题。
为了实现上述目的,本发明采用的技术方案如下:
一种基于多分类器级联模型的遥感影像自动分类方法,包括如下步骤,
S1、获取待分类的高分辨率遥感影像数据;
S2、采用多尺度分割算法对待分类的高分辨率遥感影像数据进行分割,获取多个分割对象;计算每个分割对象的特征值,并对各所述分割对象的特征值进行特征融合;
S3、根据待分类的高分辨率遥感影像数据的地物类别,综合分析候选分类器的特征,构建自适应多分类器级联模型;
S4、利用混淆矩阵,以候选分类器的用户精度和制图精度均值作为输出概率加权值,辅以贝叶斯平均融合法进行融合决策,构建改进的贝叶斯平均融合规则,即并联模型,并获取并联模型的分类决策;
S5、采用自适应多分类器级联模型和并联模型对各分割对象进行逐一确定类别标签,并经过精度评估和质量检核后输出自动分类结果。
优选的,步骤S1具体为,根据需要分类的高分辨率遥感影像的类别信息,选择样本标记数据作为自动分类训练的输入条件,采用人工目视解译的方式,根据经验选择验证样本数据作为自动分类训练结果的评定标准;将需要分类的高分辨率遥感影像进行自动分类训练,以获取待分类的高分辨率遥感影像数据。
优选的,所述多尺度分割算法包括异质性评价和区域合并,所述多尺度分割算法包括如下具体内容,
A1、采用光谱与形状特征加权算法,计算异质性指标,
Figure BDA0002331029340000031
其中,wc代表C维度下的权重;n1、n2代表同质性区域的面积,h1c、h2c分别代表合并前相邻区域的异质性,hmc代表合并后新区域的异质性,hdiff代表异质性指标;
A2、采用全局最优的方法进行区域合并,采用最小合并代价准则确定合并顺序,合并规则为,
Figure BDA0002331029340000032
其中,Ω1和Ω2分别为R1和R2的邻接区域,p(R1,R2)为合并规则;
A3、利用最近邻接图加速区域合并,构建区域邻接图描述需要分类的高分辨率遥感影像,将初始分割的区域作为所述区域邻接图中的结点,结点之间使用相邻区域的相似度作为权重进行连接,通过对结点的合并实现区域的合并,最终获取多个分割对象;区域邻接图中需要对结点之间的相异度从小到大排序,每次合并后需要对结点和边进行更新。
优选的,分割对象的特征值包括所述分割对象的颜色特征、纹理特征和形状特征;计算每个分割对象的特征值具体包括如下内容,
B1、计算各分割对象的颜色特征;使用颜色矩作为分割对象的颜色特征,采用颜色矩的一阶矩、二阶矩和三阶矩表达分割对象的颜色特征分布,
Figure BDA0002331029340000041
Figure BDA0002331029340000042
Figure BDA0002331029340000043
其中,Ei、σi、si分别表示所述分割对象的第i个颜色通道一阶矩、二阶矩和三阶矩的特征值,pij表示所述分割对象的第i个颜色通道分量中第j个像元的灰度值,N表示所述分割对象的像元总数目;则分割对象的颜色特征可表示为{ERR,sR,EGG,sG,EBB,sB};
B2、计算各分割对象的纹理特征;使用灰度共生矩阵算法计算分割对象的纹理特征,具体是从分割对象中灰度值为i的像元(其坐标为(x,y))开始计算,统计与其距离为d,灰度为j的像元(其坐标为(x+Δx,y+Δy))同时出现的次数p(x,j,d,θ),
p(x,j,d,θ)={(x,y),(x+Δx,y+Δy)|f(x,y)=i,f(x+Δx,y+Δy)=j}
其中,x,y=0,1,2,...,N-1表示分割对象的单像元位置;i,j=0,1,2,...,k-1表示灰度级;Δx、Δy表示位置偏移量;d为灰度共生矩阵步长;θ为灰度共生矩阵的生成方向,取0°、45°、90°、135°四个主方向,从而得到四个方向不同的灰度共生矩阵;
B3、计算各分割对象的形状特征;使用形状指数和密度反应分割对象的形状特征,具体为
Figure BDA0002331029340000044
Figure BDA0002331029340000051
其中,e为边界长度;A为对象面积,s是指形状指数;形状指数的值越大,则表示分割对象越破碎;d为分割对象的密度,n为分割对象的像素数量;X和Y分别是分割对象所有像元的(x,y)坐标构成的矢量,Var(X)和Var(Y)分别是X和Y的方差;密度表征分割对象的紧致度,密度值越大,则表示分割对象的形状越接近方形。
优选的,对分割对象的单一特征值进行特征选择,以降低初始特征空间的维度;之后将前期融合后的各单一特征值合并成一个新的特征向量再进行综合特征选择,以获取最佳特征子集,即分割对象的最佳特征值集合。
优选的,所述候选分类器包括最近邻分类器、贝叶斯分类器、支持向量机分类器和神经网络分类器;步骤S3包括如下内容,
S31、使用四折交叉验证方法验证各候选分类器的精度;将待分类的高分辨率遥感影像数据分成至少四份,轮流将其中三份作为训练数据,剩余一份作为测试数据进行实验,每次实验都会得到分类器的正确率,以四次结果的正确率平均值作为该分类器的精度验证结果;
S32、对比步骤S31的精度验证结果,选取每个类别的最优分类器;
S33、将每个类别的最优分类器进行组合,构建多分类器级联模型;
S34、根据待分类的高分辨率遥感影像数据在多分类器级联模型中的分类情况,预测类别排序,并根据所述类别排序自适应的调整多分类器级联模型中各分类器的级联顺序;得到自适应多分类器级联模型。
优选的,所述自适应多分类器模型中的各个分类器均设置有相应的阈值范围,当使用自适应多分类器级联模型对分割对象进行分类时,若所述分割对象满足相应分类器的阈值范围,则将该分割对象纳入该分类器的类别中;否则,将该分割对象转入下一分类器中;若所述自适应多分类器级联模型中的所有分类器均拒识该分割对象,则使用并联模型对该分割对象进行分类。
优选的,步骤S4中,利用混淆矩阵,对于各候选分类器而言,类别j的用户精度和制图精度分别为,
Figure BDA0002331029340000061
Figure BDA0002331029340000062
其中,pk(X∈Cj)代表用户精度,pk(X∈Ci)代表制图精度,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数;
则改进的贝叶斯平均融合规则为,
Figure BDA0002331029340000063
其中,PE(X∈Ci)为改进的贝叶斯平均融合规则,pk(X∈Cj)为用户精度,pk(X∈Ci)为制图精度,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数,E为贝叶斯融合模型,X为分割对象,
分类决策为,
Figure BDA0002331029340000064
其中,E(X)为分类决策,PE(X∈Ci)为改进的贝叶斯平均融合规则,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数,E为贝叶斯融合模型,X为分割对象。
本发明的有益效果是:本发明能够实现高分辨率卫星遥感影像的高精度、高可靠、高效率的自动分类信息提取,解决单个分类器特定地物分类精度整体精度低、多特征多信息交互性差及自动化程度低的瓶颈问题。
附图说明
图1是本发明实施例中分类方法的原理示意图;
图2是本发明实施例中不同分类器的类别准确率;
图3是本发明实施例中不同分类器的总体分类精度和kappa系数;
图4是本发明实施例中自适应多分类器级联模型的分类精度;
图5是本发明实施例中不同方法分类精度的对比。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。
如图1至图5所示,本实施例中提供了一种基于多分类器级联模型的遥感影像自动分类方法,包括如下步骤,
S1、获取待分类的高分辨率遥感影像数据;
S2、采用多尺度分割算法对待分类的高分辨率遥感影像数据进行分割,获取多个分割对象;计算每个分割对象的特征值,并对各所述分割对象的特征值进行特征融合;
S3、根据待分类的高分辨率遥感影像数据的地物类别,综合分析候选分类器的特征,构建自适应多分类器级联模型;
S4、利用混淆矩阵,以候选分类器的用户精度和制图精度均值作为输出概率加权值,辅以贝叶斯平均融合法进行融合决策,构建改进的贝叶斯平均融合规则,即并联模型,并获取并联模型的分类决策;
S5、采用自适应多分类器级联模型和并联模型对各分割对象进行逐一确定类别标签,并经过精度评估和质量检核后输出自动分类结果。
本实施例中,步骤S1具体为,根据需要分类的高分辨率遥感影像的类别信息,选择样本标记数据作为自动分类训练的输入条件,采用人工目视解译的方式,根据经验选择验证样本数据作为自动分类训练结果的评定标准;将需要分类的高分辨率遥感影像进行自动分类训练,以获取待分类的高分辨率遥感影像数据。同时需要对需要分类的高分辨率遥感影像进行几何校正与辐射校正的影像预处理。
本实施例中,采用多尺度分割算法对待分类的高分辨率遥感影像数据进行分割,得到多个分割对象,具体是采用区域合并规则,对待分类的高分辨率遥感影像数据进行多尺度分割,分割过程为从同质性比较高的小区域对象开始,合并成比较大的对象多边形。
本实施例中,所述多尺度分割算法包括异质性评价和区域合并,所述多尺度分割算法包括如下具体内容,
A1、采用光谱与形状特征加权算法,计算异质性指标,
Figure BDA0002331029340000081
其中,wc代表C维度下的权重;n1、n2代表同质性区域的面积,h1c、h2c分别代表合并前相邻区域的异质性,hmc代表合并后新区域的异质性,hdiff代表异质性指标;
A2、采用全局最优的方法进行区域合并,采用最小合并代价准则确定合并顺序,合并规则为,
Figure BDA0002331029340000082
其中,Ω1和Ω2分别为R1和R2的邻接区域,p(R1,R2)为合并规则,式中Ω1和Ω2分别为R1和R2的邻接区域,合并的原则是在各自的邻接区域中R1和R2相似度最大,并且服从一致性准则,合并后区域的一致性采用序贯概率比检验法(Sequential Probability RatioTest,SPRT)进行判断,最后利用最近邻接图(Nearest Neighbor Graph,NNG)加速区域合并过程。
A3、利用最近邻接图加速区域合并,构建区域邻接图描述需要分类的高分辨率遥感影像,将初始分割的区域作为所述区域邻接图中的结点,结点之间使用相邻区域的相似度作为权重进行连接,通过对结点的合并实现区域的合并,最终获取多个分割对象;区域邻接图中需要对结点之间的相异度从小到大排序,每次合并后需要对结点和边进行更新。
本实施例中,区域合并准则规定了区域合并的顺序及终止条件,对区域合并的结果有直接的影响。采用全局最优的方法进行区域合并,即采用最小合并代价准则确定合并顺序。合并的原则是在各自的邻接区域中R1和R2相似度最大,并且服从一致性准则,合并后区域的一致性采用序贯概率比检验法(Sequential Probability Ratio Test,SPRT)进行判断,设随机变量X的概率分布为样本观察值;而对备择假设服从分布来检验零假设服从分布。
在合并过程中加速区域合并,利用最近邻接图(Nearest Neighbor Graph,NNG)加速区域合并,区域合并的一般步骤是先构建区域邻接图(Region Adjacency Graph,RAG)来描述一幅图像,RAG是一个无向图,初始分割的区域视为图中的结点,结点之间用相邻区域的相似度作为权重进行连接,通过对结点的合并实现区域的合并。RAG中需要对结点之间的相异度从小到大排序,每次合并之后需要对结点和边进行更新;最后得到多尺度分割的最优分割对象文件,也就是最优分割方案。
本实施例中,颜色特征对图像表面的视觉特征进行描述,从而使图像中的每个像元都起到贡献,属于一种全局特征。常用的颜色特征主要有直方图(Histogram)、颜色集(Color Sets)、颜色矩(Color Moments)等几种。本发明充分考虑特征计算的简便性和有效性,选取简单而有效的颜色矩作为所述分割对象的颜色特征。颜色矩利用数学中矩的概念,并且低阶矩中集中了颜色分布信息的主要部分,因此在表达图像的颜色特征分布时仅使用一阶矩(Mean Moment)、二阶矩(Variance Moment)和三阶矩(Skewness Moment)能满足颜色矩的要求。
纹理特征是描述物体外表或图像中某一区域同质现象的视觉特征,具有尺度不变性和旋转不变性。经典纹理特征提取算法包括灰度共生矩阵(Grey Level Co-occurrenceMatrix,GLCM)、空间自相关(Spatial Autocorrelation)以及小波变换(WaveletTransform,WT)等。本发明选择灰度共生矩阵作为主要纹理特征进行计算。GLCM的数学描述方法,其内部机理是从图像区域中灰度值为i的像元(其坐标为(x,y))开始计算,统计与其距离为d、灰度为j的像元(其坐标为(x+Δx,y+Δy))同时出现的次数p(x,j,d,θ)。
形状特征是图像视觉特征的核心之一,对位移、尺度、旋转等具有不变性,所以能较好地表达图像的内容。结合实际情况和实验验证,本发明选取应用较好的形状指数和密度来反映分割对象的形状特征。定义如下:
形状指数(Shape Index),主要用来描述图像对象边界的光滑程度,图像对象越是破碎,形状指数的值也就越大。
密度(Density)。表征分割对象的紧致度,一个对象的形状越接近正方形,其值越大。
本实施例中,分割对象的特征值包括所述分割对象的颜色特征、纹理特征和形状特征;计算每个分割对象的特征值具体包括如下内容,
B1、计算各分割对象的颜色特征;使用颜色矩作为分割对象的颜色特征,采用颜色矩的一阶矩、二阶矩和三阶矩表达分割对象的颜色特征分布,
Figure BDA0002331029340000101
Figure BDA0002331029340000102
Figure BDA0002331029340000103
其中,Ei、σi、si分别表示所述分割对象的第i个颜色通道一阶矩、二阶矩和三阶矩的特征值,pij表示所述分割对象的第i个颜色通道分量中第j个像元的灰度值,N表示所述分割对象的像元总数目;所述分割对象的颜色特征便可用一个9维的直方图向量来表示,即为{ERR,sR,EGG,sG,EBB,sB};
B2、计算各分割对象的纹理特征;使用灰度共生矩阵算法计算分割对象的纹理特征,具体是从分割对象中灰度值为i的像元(其坐标为(x,y))开始计算,统计与其距离为d,灰度为j的像元(其坐标为(x+Δx,y+Δy))同时出现的次数p(x,j,d,θ),
p(x,j,d,θ)={(x,y),(x+Δx,y+Δy)|f(x,y)=i,f(x+Δx,y+Δy)=j}
其中,x,y=0,1,2,...,N-1表示分割对象的单像元位置;i,j=0,1,2,...,k-1表示灰度级;Δx、Δy表示位置偏移量;d为灰度共生矩阵步长;θ为灰度共生矩阵的生成方向,取0°、45°、90°、135°四个主方向,从而得到四个方向不同的灰度共生矩阵;
B3、计算各分割对象的形状特征;使用形状指数和密度反应分割对象的形状特征,具体为
Figure BDA0002331029340000111
Figure BDA0002331029340000112
其中,e为边界长度;A为对象面积,s是指形状指数;形状指数的值越大,则表示分割对象越破碎;d为分割对象的密度,n为分割对象的像素数量;X和Y分别是分割对象所有像元的(x,y)坐标构成的矢量,Var(X)和Var(Y)分别是X和Y的方差;密度表征分割对象的紧致度,密度值越大,则表示分割对象的形状越接近方形。
本实施例中,对分割对象的单一特征值进行特征选择,以降低初始特征空间的维度;之后将前期融合后的各单一特征值合并成一个新的特征向量再进行综合特征选择,以获取最佳特征子集,即分割对象的最佳特征值集合。
本实施例中,特征融合在图像信息融合中具有十分重要的意义,属于中间层图像融合层次。特征选择即在融合的所有特征向量中按照某种策略从中选择一个新的特征向量。本发明充分考虑特征向量维数大小及不同特征自身的重要性;首先对单一特征向量进行特征选择,从而降低初始特征空间的维数,消除特征之间的冗余信息,以利于后期分析处理;然后把前期融合后的单一数据合并成一个新的特征向量再进行综合特征选择,对新组合的特征向量进行再次进行降维,且保证维数压缩后特征向量的能量和相关性。
在对特征向量实施特征选择前,确定一个依据原则来保证选择和提取的可靠性。本案借助酉空间概念,引入类内散度矩阵、类间散度矩阵和总体散度矩阵来更好地辅助判决类内距离以及类间距离,从而把高维度特征向量映射到表现较佳的其他鉴别向量空间中去。引入的三类散度矩阵定义详述如下:
(1)类内散度矩阵
设有M个类别,Ω1,…,ΩM,Ωi类样本集定义为
Figure BDA0002331029340000113
第i个类别的样本集均值为m(i),则Ωi类的类内散度矩阵公式可记为:
Figure BDA0002331029340000121
其中,
Figure BDA0002331029340000122
即是Ωi的协方差矩阵。
M个类别的总类内散度矩阵数学公式为:
Figure BDA0002331029340000123
则{Sw}是所有类的特征方差的平均测度。
(2)类间散度矩阵
第i个类别样本集均值记为m(i),第j个类别样本集均值记为m(j),则第i和j两类别间的散度矩阵数学表达式为:
Figure BDA0002331029340000124
M个类别的总类间散度矩阵数学表达式为:
Figure BDA0002331029340000125
令:m为总体均值,
Figure BDA0002331029340000126
则有:
Figure BDA0002331029340000127
则{SB}是每一类的均值与全局均值之间平均距离的一种测度。
(3)总体散度矩阵
总体散度矩阵可以定义为:
Figure BDA0002331029340000128
其中,N为总的样本数,
Figure BDA0002331029340000129
可以证明:ST=SW+SB
则ST是全局均值向量的协方差矩阵,{ST}是特征值关于全局均值的方差和。
由上述定义表达式,可看出三个散度矩阵均为是对称矩阵,在此引入Fisher鉴别准则,
Figure BDA0002331029340000131
本发明使用较为常用的J1判据来衡量类别可分性。
所谓特征选择就是从N个原始特征中选取其中最优的M个特征(N>M),实际上特征之间并大多不是相互独立,且可分性判据也不一定满足可加性
Figure BDA0002331029340000132
这一条件,因此需要一个合理的特征选择搜索算法。本发明借助模拟退火法(Simulated Annealing,SA)思想,利用顺序后退选择法(Sequential Backward Selection,SBS)进行特征选择。为了提高特征计算效率,首先将归一化后的单一特征集进行特征选择,然后把特征选择后的各类特征集合并成一个新的特征集,最后从该特征集中再次进行特征选择,获得最佳的特征子集。SBS方法从特征全集开始,每次从初始特征集中去除掉一个对类别可分性贡献最小的特征,使剩余特征集类别可分判据最大,如此循环直到满足设定的停止准则。SBS搜索算法如下:
(1)开始时X0={x1,…,xN},从N个初始特征中去除掉一个特征xj,使得
Figure BDA0002331029340000133
最大;
(2)在第k步中,Xk已剔除了k个特征,对剩余的N-k个计算J(Xk-1∪xj),其中,j=1,2,…,N-k-1,按照大小排序,将可分性判据最大的特征剔除,以此循环直至满足停止准则。
本实施例中,根据待分类的高分辨率遥感影像数据的地物类别、对应类别的样本信息和样本数量,综合分析基分类器特征,构建自适应多分类器级联模型。
传统分类过程中使用的是一种分类器,对某种地物或某个区域有较好的分类效果但对其它地物或区域效果也许较差,单一分类器所使用的信息并不丰富,存在一定的局限性与不足,导致最终的输出类别精度无法满足实际应用的需要,因此,能够综合利用各种分类器的优势的多分类器集成。多分类器集成对不同分类器之间的互补信息加以利用,可以构造优于单个分类器的融合器,从而显著提高分类精度。本发明充分考虑了分类器级联组合方式的严密性和并联组合方式的灵活性,提出了一种自适应多分类器级联结构。
自适应多分类器级联模型的分类原理为,通过重新判定方法组合各候选分类器。即当分割对象输入分类器后,按照某个“规则”对其类别作出判断,如满足一定的条件,则对其类别作出判断,并终止后续分类器对该分割对象的判断。如不满足该条件,则该分类器对其拒识,将其输入下一级分类器,进行相应判断操作。这里采用的“规则”指的是,当输入的分割对象通过某个分类器,若分类后结果为该类别,并且按照某个置信度进行判断,在该阈值范围内,则认为此分割对象属于该类,否则,若不满足上述两个条件中的任意一个,则该分类器对其拒识,交给下一级分类器处理。若自适应多分类器级联模型中的所有分类器都拒识,则最终交给并联模型去完成分类。
目前常用的分类器包括最近邻分类器、贝叶斯分类器、支持向量机分类器、神经网络分类器等,在实验中具有较高的分类精度。一般情况下,度量层次输出的分类器包含信息丰富,因此,本发明将这些常用的具有度量层次输出的分类器作为候选分类器集来构造自适应多分类器级联模型。
本实施例中,所述候选分类器包括最近邻分类器、贝叶斯分类器、支持向量机分类器和神经网络分类器;步骤S3包括如下内容,
S31、使用四折交叉验证方法验证各候选分类器的精度;将待分类的高分辨率遥感影像数据分成至少四份,轮流将其中三份作为训练数据,剩余一份作为测试数据进行实验,每次实验都会得到分类器的正确率,以四次结果的正确率平均值作为该分类器的精度验证结果;
S32、对比步骤S31的精度验证结果,选取每个类别的最优分类器;
S33、将每个类别的最优分类器进行组合,构建多分类器级联模型;
S34、根据待分类的高分辨率遥感影像数据在多分类器级联模型中的分类情况,预测类别排序,并根据所述类别排序自适应的调整多分类器级联模型中各分类器的级联顺序;得到自适应多分类器级联模型。
本实施例中,为了测试候选分类器精度,在开发和优化数据挖掘模型的过程中需要将含有类别真值标签的分割对象分为两个部分,一部分用作训练分类模型,另一部分用作检核精度。本发明采用四折交叉验证的方法。其基本思路是:将含有标签的待分类的高分辨率遥感影像数据分成四份,轮流将其中三份作为训练数据,剩余一份作为测试数据进行实验,每次实验都会得到分类器的正确率,以四次结果的正确率平均值作为该分类器的精度指标。有时为了提高精度评估的准确性,通常还要进行多次四折交叉验证,计算多次得到的均值作为最终的评估指标。四折交叉验证技术能够有效地计算分类模型的精度,对分类器的精度有一个良好的评估。
利用四折交叉验证方法,根据各候选分类器在分割对象中识别的精度对比,选取每个类别的最优分类器。类别最优分类器选取的是对特定类有最高的识别准确率的专家分类器,即在分割对象被分为某一类的先决条件下,该分割对象确实属于这一类的概率最大。类别最优分类器定义为
Figure BDA0002331029340000151
Figure BDA0002331029340000152
其中,Expertj表示类别j的最优分类器;
Figure BDA0002331029340000153
表示分割对象被分类器k分为类别j并且真正属于类别j的数量;
Figure BDA0002331029340000154
表示分割对象被分类器k分为类别j却不属于类别j的数量;K表示分类器个数;M表示类别总数;
Figure BDA0002331029340000155
表示对类别j的识别准确率。
将每个类别最优分类器组合成多分类器级联模型,由于类别最优分类器对各自类有最高的识别准确率,若类别j最优分类器将待测样本识别为类别j,则该分割对象属于类别j的概率非常高,因此可以将此作为多分类器级联模型的一个输出条件。
本实施例中,所述多分类器级联模型中的各个分类器均设置有相应的阈值范围,当使用多分类器级联模型对分割对象进行分类时,若所述分割对象满足相应分类器的阈值范围,则将该分割对象纳入该分类器的类别中;否则,将该分割对象转入下一分类器中;若所述多分类器级联模型中的所有分类器均拒识该分割对象,则使用并联模型对该分割对象进行分类。
本实施例中,分割对象的类别识别为某一类的判定概率不同,不同的分类器模型有不同的决策空间,除了类别最优分类器输出为该类别这一级联的输出条件以外,增加类别识别概率满足在特定置信范围这个条件。如不满足该阈值范围,自适应多分类器模型依旧将分割对象拒识并传入下一级分类器。
对于类别j的最优分类器,阈值根据其在待分类的高分辨率遥感影像数据中交叉验证得到正确分类的分割对象对应的函数值
Figure BDA0002331029340000161
来确定:
Figure BDA0002331029340000162
其中,tj是类别j最优分类器对j的识别阈值,l=1,2,...,njj,njj表示在待分类的高分辨率遥感影像数据中,类别真值为j并且类别j最优分类器也将其识别为j的分割对象,函数值
Figure BDA0002331029340000163
具有不同的物理意义,比如最小距离分类器,该函数值为分割对象点与类别中心的距离,而对于SVM支持向量机分类器,该函数值为分割对象的预测概率。因此,对于不同的分类器,都应根据实际情况求出输出类别的阈值。
本实施例中,自适应调整级联模型,设分割对象有M个类别,则级联部分包括M个类别最优分类器。根据待分类的高分辨率遥感影像数据中各分类器交叉验证精度可以选取一个整体性能最优分类器,能够对分割对象有最高的识别精度与较强的泛化能力。
分类混淆矩阵常用于图像分类评价,包含了分类器在样本集上的全部分类结果和实际测得值,其表达式为
Figure BDA0002331029340000164
其中,
Figure BDA0002331029340000165
为分类器k将类别为i的分割对象识别为j类的个数,CMk表示分类器k的混淆矩阵。
那么总分类的精度为
Figure BDA0002331029340000171
其中,nsum表示分割对象总数,整体性能最优分类器定义为,
Expert*=argmaxk{CAk|k=1,2,...,K}
其中,Expert*表示整体性能最优分类器,CAk表示分类器k的总分类精度。
根据待分类的高分辨率遥感影像数据在整体性能最优分类器的分类情况,能够有一个预测类别排序,由此排序自适应地调整分类器级联顺序,能够有效地提高样本最终分类精度。自适应级联过程,y1,y2,...yn为降序排列的预测类别。这样就获取自适应多分类器级联模型。
本实施例中,针对自适应多分类器级联模型中被拒识的分割对象,以候选分类器的用户精度和制图精度均值作为输出概率加权值,再使用贝叶斯平均进行融合决策,构建改进的贝叶斯平均融合规则,确定自动分类的最终决策条件。
贝叶斯平均方法是并联模型常用的融合规则,贝叶斯平均方法中需要基分类器输出待分类模式属于每个类别的后验概率,许多分类器在分类过程中能够输出一个样本X属于类别Ci的后验概率,对于不能输出概率的分类模型,如在各种距离分类器中,某一样本属于特定类别的判决条件是该样本特征的光谱矢量与类别平均矢量的欧氏距离或马氏距离,在这种情况下,我们希望不同分类器信息融合过程中,输出应在同一个量级上,它们之间应具有可操作性。
首先做的工作是将距离分类器的矢量距离转换为满足概率条件的量级,公式为
Figure BDA0002331029340000172
其中,M为类别总数,dk(Ci|X)表示在第k个分类器的决策空间中,分割对象X与类别Ci中心矢量距离。经过该公式转换,距离量度或其他量级都可以转化成贝叶斯平均融合法用到的输出概率。
贝叶斯平均融合法就是平均各分类器的后验概率估计,然后依据融合概率值,来决策样本所属的类别。设融合模型为E,基分类器k将待测样本划分为各类别的后验概率为Pk(X∈Ci|X),i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数。贝叶斯平均融合规则表示为
Figure BDA0002331029340000181
PE(X∈Ci)为贝叶斯平均融合规则,pk(X∈Ci)为制图精度,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数。
分类决策为,
Figure BDA0002331029340000182
其中,pk(X∈Ci|X)为后验概率,i=1,2,...,M,M为类别总数,E(X)为分类决策。
贝叶斯平均融合法没有考虑到各个基分类器的分类性能所导致最终决策中权值不同,改进的贝叶斯平均融合法基于先验知识进行组合分类,即在分类组合前,计算混淆矩阵,以基分类器的用户精度和生产者精度均值作为输出概率加权值,再使用贝叶斯平均进行融合决策。
本实施例中,步骤S4中,利用混淆矩阵,对于各候选分类器而言,类别j的用户精度和制图精度分别为,
Figure BDA0002331029340000183
Figure BDA0002331029340000184
其中,pk(X∈Cj)代表用户精度,pk(X∈Ci)代表制图精度,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数;
则改进的贝叶斯平均融合规则为,
Figure BDA0002331029340000191
其中,PE(X∈Ci)为改进的贝叶斯平均融合规则,pk(X∈Cj)为用户精度,pk(X∈Ci)为制图精度,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数,E为贝叶斯融合模型,X为分割对象,
分类决策为,
Figure BDA0002331029340000192
其中,E(X)为分类决策,PE(X∈Ci)为改进的贝叶斯平均融合规则,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数,E为贝叶斯融合模型,X为分割对象。
通过采用本发明公开的上述技术方案,得到了如下有益的效果:
本发明提供一种基于多分类器级联模型的遥感影像自动分类方法,利用多尺度遥感影像分割技术对高分辨率遥感影像进行对象分割,提取分割对象的特征信息,并对特征信息进行融合处理,采用一种自适应多分类器级联模型与改进的贝叶斯平均融合规则,按照混合方式组合成多分类器级联模型,实现高分辨率卫星遥感影像的高精度、高可靠、高效率的自动分类信息提取;解决了单个分类器特定地物分类精度整体精度低、多特征多信息交互性差及自动化程度低的瓶颈问题。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视本发明的保护范围。

Claims (5)

1.一种基于多分类器级联模型的遥感影像自动分类方法,其特征在于:包括如下步骤,
S1、获取待分类的高分辨率遥感影像数据;
S2、采用多尺度分割算法对待分类的高分辨率遥感影像数据进行分割,获取多个分割对象;计算每个分割对象的特征值,并对各所述分割对象的特征值进行特征融合;
S3、根据待分类的高分辨率遥感影像数据的地物类别,综合分析候选分类器的特征,构建自适应多分类器级联模型;
S4、利用混淆矩阵,以候选分类器的用户精度和制图精度均值作为输出概率加权值,辅以贝叶斯平均融合法进行融合决策,构建改进的贝叶斯平均融合规则,即并联模型,并获取并联模型的分类决策;
S5、采用自适应多分类器级联模型和并联模型对各分割对象进行逐一确定类别标签,并经过精度评估和质量检核后输出自动分类结果;
所述多尺度分割算法包括异质性评价和区域合并,所述多尺度分割算法包括如下具体内容,
A1、采用光谱与形状特征加权算法,计算异质性指标,
Figure FDA0002716404370000011
其中,wc代表C维度下的权重;n1、n2代表同质性区域的面积,h1c、h2c分别代表合并前相邻区域的异质性,hmc代表合并后新区域的异质性,hdiff代表异质性指标;
A2、采用全局最优的方法进行区域合并,采用最小合并代价准则确定合并顺序,合并规则为,
Figure FDA0002716404370000012
其中,Ω1和Ω2分别为R1和R2的邻接区域,p(R1,R2)为合并规则;
A3、利用最近邻接图加速区域合并,构建区域邻接图描述需要分类的高分辨率遥感影像,将初始分割的区域作为所述区域邻接图中的结点,结点之间使用相邻区域的相似度作为权重进行连接,通过对结点的合并实现区域的合并,最终获取多个分割对象;区域邻接图中需要对结点之间的相异度从小到大排序,每次合并后需要对结点和边进行更新;
对分割对象的单一特征值进行特征选择,以降低初始特征空间的维度;之后将前期融合后的各单一特征值合并成一个新的特征向量再进行综合特征选择,以获取最佳特征子集,即分割对象的最佳特征值集合;
步骤S4中,利用混淆矩阵,对于各候选分类器而言,类别j的用户精度和制图精度分别为,
Figure FDA0002716404370000021
Figure FDA0002716404370000022
其中,pk(X∈Cj)代表用户精度,pk(X∈Ci)代表制图精度,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数;
则改进的贝叶斯平均融合规则为,
Figure FDA0002716404370000023
其中,PE(X∈Ci)为改进的贝叶斯平均融合规则,pk(X∈Cj)为用户精度,pk(X∈Ci)为制图精度,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数,E为贝叶斯融合模型,X为分割对象,
分类决策为,
Figure FDA0002716404370000024
其中,E(X)为分类决策,PE(X∈Ci)为改进的贝叶斯平均融合规则,i=1,2,...,M,M为类别总数,k=1,2,...,K,K为候选分类器总个数,E为贝叶斯融合模型,X为分割对象。
2.根据权利要求1所述的基于多分类器级联模型的遥感影像自动分类方法,其特征在于:步骤S1具体为,根据需要分类的高分辨率遥感影像的类别信息,选择样本标记数据作为自动分类训练的输入条件,采用人工目视解译的方式,根据经验选择验证样本数据作为自动分类训练结果的评定标准;将需要分类的高分辨率遥感影像进行自动分类训练,以获取待分类的高分辨率遥感影像数据。
3.根据权利要求1所述的基于多分类器级联模型的遥感影像自动分类方法,其特征在于:分割对象的特征值包括所述分割对象的颜色特征、纹理特征和形状特征;计算每个分割对象的特征值具体包括如下内容,
B1、计算各分割对象的颜色特征;使用颜色矩作为分割对象的颜色特征,采用颜色矩的一阶矩、二阶矩和三阶矩表达分割对象的颜色特征分布,
Figure FDA0002716404370000031
Figure FDA0002716404370000032
Figure FDA0002716404370000033
其中,Ei、σi、si分别表示所述分割对象的第i个颜色通道一阶矩、二阶矩和三阶矩的特征值,pij表示所述分割对象的第i个颜色通道分量中第j个像元的灰度值,N表示所述分割对象的像元总数目;则分割对象的颜色特征可表示为{ERR,sR,EGG,sG,EBB,sB};
B2、计算各分割对象的纹理特征;使用灰度共生矩阵算法计算分割对象的纹理特征,具体是从分割对象中灰度值为i的像元(其坐标为(x,y))开始计算,统计与其距离为d,灰度为j的像元(其坐标为(x+Δx,y+Δy))同时出现的次数p(x,j,d,θ),
p(x,j,d,θ)={(x,y),(x+Δx,y+Δy)|f(x,y)=i,f(x+Δx,y+Δy)=j}
其中,x,y=0,1,2,...,N-1表示分割对象的单像元位置;i,j=0,1,2,...,k-1表示灰度级;Δx、Δy表示位置偏移量;d为灰度共生矩阵步长;θ为灰度共生矩阵的生成方向,取0°、45°、90°、135°四个主方向,从而得到四个方向不同的灰度共生矩阵;
B3、计算各分割对象的形状特征;使用形状指数和密度反应分割对象的形状特征,具体为
Figure FDA0002716404370000041
Figure FDA0002716404370000042
其中,e为边界长度;A为对象面积,s是指形状指数;形状指数的值越大,则表示分割对象越破碎;d为分割对象的密度,n为分割对象的像素数量;X和Y分别是分割对象所有像元的(x,y)坐标构成的矢量,Var(X)和Var(Y)分别是X和Y的方差;密度表征分割对象的紧致度,密度值越大,则表示分割对象的形状越接近方形。
4.根据权利要求1所述的基于多分类器级联模型的遥感影像自动分类方法,其特征在于:所述候选分类器包括最近邻分类器、贝叶斯分类器、支持向量机分类器和神经网络分类器;步骤S3包括如下内容,
S31、使用四折交叉验证方法验证各候选分类器的精度;将待分类的高分辨率遥感影像数据分成至少四份,轮流将其中三份作为训练数据,剩余一份作为测试数据进行实验,每次实验都会得到分类器的正确率,以四次结果的正确率平均值作为该分类器的精度验证结果;
S32、对比步骤S31的精度验证结果,选取每个类别的最优分类器;
S33、将每个类别的最优分类器进行组合,构建多分类器级联模型;
S34、根据待分类的高分辨率遥感影像数据在多分类器级联模型中的分类情况,预测类别排序,并根据所述类别排序自适应的调整多分类器级联模型中各分类器的级联顺序;得到自适应多分类器级联模型。
5.根据权利要求4所述的基于多分类器级联模型的遥感影像自动分类方法,其特征在于:所述多分类器级联模型中的各个分类器均设置有相应的阈值范围,当使用多分类器级联模型对分割对象进行分类时,若所述分割对象满足相应分类器的阈值范围,则将该分割对象纳入该分类器的类别中;否则,将该分割对象转入下一分类器中;若所述多分类器级联模型中的所有分类器均拒识该分割对象,则使用并联模型对该分割对象进行分类。
CN201911336286.XA 2019-12-23 2019-12-23 一种基于多分类器级联模型的遥感影像自动分类方法 Active CN111126482B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911336286.XA CN111126482B (zh) 2019-12-23 2019-12-23 一种基于多分类器级联模型的遥感影像自动分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911336286.XA CN111126482B (zh) 2019-12-23 2019-12-23 一种基于多分类器级联模型的遥感影像自动分类方法

Publications (2)

Publication Number Publication Date
CN111126482A CN111126482A (zh) 2020-05-08
CN111126482B true CN111126482B (zh) 2020-11-13

Family

ID=70501127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911336286.XA Active CN111126482B (zh) 2019-12-23 2019-12-23 一种基于多分类器级联模型的遥感影像自动分类方法

Country Status (1)

Country Link
CN (1) CN111126482B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036246B (zh) * 2020-07-30 2021-08-24 长安大学 遥感影像分类模型的构建方法,遥感影像分类方法及系统
CN112115829B (zh) * 2020-09-09 2023-02-28 贵州大学 一种基于分类器选择性集成的表情识别方法
CN111915608B (zh) * 2020-09-11 2023-08-15 北京百度网讯科技有限公司 建筑物提取方法、装置、设备和存储介质
CN113343808A (zh) * 2021-05-27 2021-09-03 海南省林业科学研究院(海南省红树林研究院) 一种基于卫星遥感技术的热带森林资源测量方法
CN113780062A (zh) * 2021-07-26 2021-12-10 岚图汽车科技有限公司 一种基于情感识别的车载智能交互方法、存储介质及芯片
CN113298056A (zh) * 2021-07-27 2021-08-24 自然资源部国土卫星遥感应用中心 多模态遥感影像变化检测方法、模型生成方法和终端设备
CN113780076A (zh) * 2021-08-05 2021-12-10 北京市测绘设计研究院 建筑垃圾的图像识别方法及装置
CN113505863B (zh) * 2021-09-08 2021-12-03 武大吉奥信息技术有限公司 基于级联均值向量综合评分的图片多级分类方法及系统
CN114491108B (zh) * 2021-12-30 2023-03-24 中科星通(廊坊)信息技术有限公司 一种基于多源遥感应用数据的在线分类系统及方法
CN116740578B (zh) * 2023-08-14 2023-10-27 北京数慧时空信息技术有限公司 基于用户选择的遥感影像推荐方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408941A (zh) * 2008-10-20 2009-04-15 中国科学院遥感应用研究所 遥感图像多尺度分割及分割结果的层次结构表示方法
CN104091157A (zh) * 2014-07-09 2014-10-08 河海大学 一种基于特征融合的行人检测方法
US9251420B2 (en) * 2013-01-22 2016-02-02 Vale S.A. System for mapping and identification of plants using digital image processing and route generation
CN105389550A (zh) * 2015-10-29 2016-03-09 北京航空航天大学 一种基于稀疏指引与显著驱动的遥感目标检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9015093B1 (en) * 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
CN103279951B (zh) * 2013-05-13 2016-03-09 武汉理工大学 一种面向对象的遥感影像建筑物及其阴影提取的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408941A (zh) * 2008-10-20 2009-04-15 中国科学院遥感应用研究所 遥感图像多尺度分割及分割结果的层次结构表示方法
US9251420B2 (en) * 2013-01-22 2016-02-02 Vale S.A. System for mapping and identification of plants using digital image processing and route generation
CN104091157A (zh) * 2014-07-09 2014-10-08 河海大学 一种基于特征融合的行人检测方法
CN105389550A (zh) * 2015-10-29 2016-03-09 北京航空航天大学 一种基于稀疏指引与显著驱动的遥感目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
利用多分类器自适应级联模型的高分二号影像分类;王耀等;《测绘通报》;20171125(第11期);第1节,第2节,图1,图3,摘要 *
组合分类器及其在高光谱影像分类中的应用;韩建峰等;《测绘科学技术学报》;20070615;第24卷(第3期);第1.2节,第2节,第3.1节,第4.2节 *
结合多分类器的遥感数据专题分类方法研究;柏延臣等;《遥感学报》;20050930;第9卷(第5期);第2.2节 *

Also Published As

Publication number Publication date
CN111126482A (zh) 2020-05-08

Similar Documents

Publication Publication Date Title
CN111126482B (zh) 一种基于多分类器级联模型的遥感影像自动分类方法
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
CN108268838B (zh) 人脸表情识别方法及人脸表情识别系统
CN111339990B (zh) 一种基于人脸特征动态更新的人脸识别系统和方法
US7236615B2 (en) Synergistic face detection and pose estimation with energy-based models
CN108108657A (zh) 一种基于多任务深度学习的修正局部敏感哈希车辆检索方法
CN108492298B (zh) 基于生成对抗网络的多光谱图像变化检测方法
CN110717554B (zh) 图像识别方法、电子设备及存储介质
CN112200121B (zh) 基于evm和深度学习的高光谱未知目标检测方法
CN104573669A (zh) 图像物体检测方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
US20110235901A1 (en) Method, apparatus, and program for generating classifiers
CN112633382A (zh) 一种基于互近邻的少样本图像分类方法及系统
CN110543906B (zh) 基于Mask R-CNN模型的肤质自动识别方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN111815582B (zh) 改进背景先验和前景先验的二维码区域检测方法
Li et al. A review of deep learning methods for pixel-level crack detection
CN113269647A (zh) 基于图的交易异常关联用户检测方法
CN108877947A (zh) 基于迭代均值聚类的深度样本学习方法
CN113158777A (zh) 质量评分方法、质量评分模型的训练方法及相关装置
CN115131613A (zh) 一种基于多向知识迁移的小样本图像分类方法
CN110751005B (zh) 融合深度感知特征和核极限学习机的行人检测方法
CN112613474B (zh) 一种行人重识别的方法和装置
CN113762151A (zh) 一种故障数据处理方法、系统及故障预测方法
CN117516937A (zh) 基于多模态特征融合增强的滚动轴承未知故障检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant