CN111259961A - 一种基于主动学习的面向对象分类方法 - Google Patents
一种基于主动学习的面向对象分类方法 Download PDFInfo
- Publication number
- CN111259961A CN111259961A CN202010050545.9A CN202010050545A CN111259961A CN 111259961 A CN111259961 A CN 111259961A CN 202010050545 A CN202010050545 A CN 202010050545A CN 111259961 A CN111259961 A CN 111259961A
- Authority
- CN
- China
- Prior art keywords
- objects
- active learning
- training
- classification
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 77
- 230000011218 segmentation Effects 0.000 claims abstract description 52
- 238000005070 sampling Methods 0.000 claims abstract description 38
- 238000007637 random forest analysis Methods 0.000 claims description 22
- 238000012706 support-vector machine Methods 0.000 claims description 22
- 238000013145 classification model Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 13
- 238000002372 labelling Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 238000003066 decision tree Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 10
- 230000000694 effects Effects 0.000 description 18
- 238000002474 experimental method Methods 0.000 description 11
- 238000011160 research Methods 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 6
- 238000007635 classification algorithm Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于主动学习的面向对象分类方法,所述方法提供了一种评估分割对象混合程度的新指标——明确度,能够将分割对象划分为“明确对象”和“不确定对象”。通过评估不确定对象(混合对象)对分类的影响并结合主动学习技术的优势,确定训练样本中20%的明确对象和80%的不确定对象的分配比例,是最佳比例,继而得到一个高效的主动学习采样策略,最终获得稳定优异的训练样本对象集。本发明克服了由于OBIA分割技术的限制,分割结果出现大量混合对象,而导致的分类表现不佳、不稳定的问题。
Description
技术领域
本发明涉及一种预定义训练对象的分类方法,特别是涉及一种结合主动学习的面向对象分类方法。
背景技术
近年来,面向对象的影像分析技术(Object-based Image Analysis,OBIA)在VHR(Very high resolution)影像采样分类领域已经逐渐形成一种新的范例和方法,它将VHR影像中具有相同语义信息的像素组合成为一个个有意义的地理对象,并通过选择最能代表对象类别的特征建立相应的映射,从而实现对于这些地理对象的分类。但由于OBIA分割技术的限制,使得地理对象往往不能包含只属于一个土地类型的像素,从而出现过分割和欠分割(Under-segmentation)现象。这种混合对象的产生直接导致了一系列难以解决的问题,虽然已经有很多专门针对OBIA分割的研究,并都取得一定的研究成果,特别是多尺度分割算法,已经被广泛的接受并应用,然而混合对象依然没有得到很好的解决,这是OBIA中的亟需解决难题。同时,到目前为止也始终没有一个指标能够对混合对象的混合程度进行很好的评估,这使得在对混合对象分类时,产生了许多的不确定性。
但即使如此,OBIA在高分辨率影像信息提取的精度一般更加优于基于像素的方法,并且OBIA容易与GIS技术相结合,为GIS分析提供较为完整的土地利用类型图,这也使得OBIA成为土地覆盖和土地利用分类领域比较流行的方法之一,并受到大量学者的广泛关注。在早先的研究中,大量的分类算法被用于去提高对象的分类精度,尤其监督分类的算法已经被大量的研究并记录在OBIA框架中,其中包括:Random Forest(RF)、K-NearestNeighbor(KNN)、Support Vector Machines(SVM)、Decision Tree(DT)、NaiveBayes、neural network等。尽管这些监督分类的算法在特定的研究或者应用中都展现出良好的性能,但对于任何一个监督分类的算法而言,其分类精度的大幅度波动和训练样本的质量往往难以控制。因此如果能从成千上万个样本中挑选出最能代表像元或者对象的训练样本集,就能帮助分类器找到正确的分类方式,从而提高分类的效果。然而在早先的大量研究中,训练样本采样策略的研究却没有得到很好的重视,特别在OBIA中,由于分割对象的不确定性,直接导致OBIA在采样过程中存在很大难度,因此有必要为OBIA专门设计一种采样策略,从而提高后续监督分类的分类精度和稳定性。
在机器学习中,采样的问题可以通过主动学习技术进行解决。主动学习作为构造有效训练集的方法,其目标是通过迭代抽样,寻找有利于提升分类效果的样本,进而减少分类训练集的大小,并在有限的时间和资源的前提下,提高分类算法的效率。目前,常用的主动学习算法有三种形式:(1)基于委员会的启发式方法;(2)基于边缘的启发式方法;(3)基于后验概率的启发式方法。在基于像素的遥感影像分类领域中,Mitra et al.(2004)在MS方法的基础上,提出一种类似于面向对象分类的SVM MS方法,并将其成功应用到IRS-1A遥感卫星的多光谱影像中;Rajan et al.(2008)在Roy and Mccallum.(2001)研究的基础上,提出一种使用最大似然分类器的概率方法,并在NASA Airborne Visible/Infrared成像光谱仪和Hyperion影像上表现出优异的性能;Tuia et al.(2009)为了提高主动学习算法的适应性和性能,对MS(Schohn and Cohn,2000)和query-by-bagging(Abe and Mamitsuka,1998)方法进行了改进,提出MS by closest support vector(MS-cSV)和entropy query-by-bagging(EQB)方法,并在3个区域的VHR影像上得到了良好的分类精度;Tuia et al.(2011)使用SVM和LDA作为分类模型,对多种主动学习方法进行了评估,并对主动学习模型的选择提出了系统性的建议。Samat et al.(2016)基于PPI(Pixel purity index)和主动学习,评估了混合像元对主动学习采样方法的影响。这些研究和综述,推动了基于像素的主动学习方法的发展,但是在OBIA中还没有相关的研究,特别是结合混合对象的主动学习采样策略还没有被注意到。
综上所述,针对OBIA的采样策略的研究非常匮乏,本发明的研究目的是从采样层次改进面向对象监督分类的表现。首先,利用RF和SVM分类器的初始分类结果,计算一种评估分割对象的分类不确定性的指标;其次,根据不同对象的分类不确定性程度的差异,利用主动学习,形成对混合对象和纯净对象有差别的采样策略;最后,训练最终的RF分类模型,对待分类对象进行标签。从而解决由于混合对象和纯净对象的差异造成的分类精度的降低。
发明内容
本发明要解决的技术问题是:克服现有OBIA分割技术的不足,提供一种结合预定义的训练对象和主动学习的面向对象分类方法,其结合了面向对象影像分类、预定义训练对象和主动学习算法,基于高分遥感影像,提高面向对象分类的效果。
为了解决上述技术问题,本发明提出的技术方案是:基于主动学习的面向对象分类方法,包括以下步骤:
步骤1、利用多尺度分割法对高空间分辨率影像进行分割,获得分割对象;
步骤2、基于步骤1的分割结果,观察实验区域,目视评估实验区土地覆盖情况,对每个土地类型按比例随机采样的样本,并对样本进行土地类型的标签;
步骤3、对步骤2获得的已标签样本进行有放回的重复2N次随机采样,从已标签样本中随机抽取70-90%的样本作为子训练集;
步骤4、利用步骤3获得的2N个子训练集,对N个支持向量机分类器和N个随机森林分类器进行训练,获得2N个分类器,使用这2N个分类器分别对步骤1获得的分割对象进行分类,统计每个分割对象的2N个分类结果;
步骤5、对步骤4获得的每个分割对象的分类结果,计算信息熵值,并反向标准化到[0,1]区间,得到每个分割对象的明确度,将明确度为1的分割对象划分为明确对象,不为1的划分为不确定对象;
步骤6、从明确对象中随机抽取最终所需训练样本数的20%,作为主动学习的训练样本集,将根据明确度从小到大排序的不确定对象作为主动学习的候选样本集;
步骤7、将候选样本集中明确度最大的M个样本进行标签,并添加到主动学习训练样本集中,使用主动学习算法对分类模型进行自学习,M取值范围为5-30;
步骤8、重复执行步骤7,直到主动学习的训练样本数达到所需训练样本数,得到最终训练样本,使用最终训练样本训练分类模型,然后用训练后的分类模型对步骤1得到的分割对象分类,并进行基于面积的精度评估。
本发明的步骤1中使用影像分割技术,利用高空分辨率影像,通过反复的分割尝试并观察分割对象的分布特征,以此确定不同实验区的最佳分割尺度。但由于现有分割算法的限制,多尺度分割后生成的分割对象图层仍包含大量的混合对象,因此在步骤2、3、4和5中,通过预先有目的的采样部分训练样本,以此计算一种评估分割对象不确定性的指标——明确度,从而对分割对象进行预定义的排序。
进一步地,根据明确度,将分割对象划分为明确对象和不确定对象,并评估明确对象和不确定对象的最优组合比率。经过多次实验,得出在分割结果存在大量混合对象的条件下,一定数量的混合对象作为训练样本将有利于分割对象的分类结论,最后结合主动学习技术的优势,确定使用最终训练样本数20%的明确对象学习80%不确定对象的主动学习策略。
可见,本发明以面向对象影像分类为基础,从混合对象对分类的影响的角度出发,利用分类器分类结果的不确定性实现对混合对象混合程度的评估,并引入主动学习技术,经过多个实验区的测试评估,确定最优的主动学习策略,最终得到稳定、优秀的训练样本集。
相比现有技术,本发明充分评估了面向对象影像分类中混合对象对分类的影响,并结合主动学习技术,避免由于欠分割,同一地物被分割成的多个子对象,在分类过程中,被标签为多个地物类型的问题。具体创新点及有益效果如下:
第一,本发明在分割结果存在大量混合对象的条件下,结合多个分类器的分类结果,计算信息熵,以此得到一种新的评估分割对象混合程度的指标——明确度,根据明确度,将所有分割对象划分为明确对象和不确定对象,明确对象和不确定对象能够对分割对象进行预定义的分类,从而降低后续采样的不确定性。
第二,本发明在对分割对象预定义的基础上,评估了混合对象对分类的影响,得出在分割结果存在大量混合对象的条件下,一定数量的混合对象作为训练样本将有利于分割对象分类的结论,即明确对象占最终训练样本的比率小于的50%时,分类效果优秀并稳定,评估结果揭示了优秀训练样本中混合对象的所占比率,从而进一步降低后续采样的不确定性,并提高分类的精度。
第三,本发明在上述结论的基础上,引入主动学习技术,结合主动学习选取信息量最大样本的优势,从而确定了以下主动学习策略:(1)从明确对象中随机抽取最终训练样本数20%的明确对象,作为主动学习的训练样本集(2)将根据明确度从小到大排序的不确定对象,作为主动学习的候选样本集。主动学习策略的确定提高了主动学习的效率,并在预定义对象的基础上进一步提高后续分类精度。
综上,本发明旨在针对OBIA中的采样问题,提出一种新的针对OBIA的采样策略,从而提高OBIA分类的采样效率,并且得到最具代表性的训练样本集。首先,发明评估了混合对象对采样的影响,得出在分割结果存在大量混合对象的条件下,一定数量的混合对象作为训练样本将有利于分割对象的分类结论。其次,引入主动学习技术,并结合其特点,确定了使用最终训练样本数20%的明确对象学习80%不确定对象的主动学习策略,以此,得到一个较为稳定的并且优异的最终训练样本集。
附图说明
下面结合附图对本发明作进一步的说明。
图1为本发明方法流程图。
图2a为实验区1原始影像及其分割尺度为130的分割结果。
图2b为实验区2原始影像及其分割尺度为110的分割结果。
图2c为实验区3原始影像及其分割尺度为90的分割结果。
图3为本实施例中各实验区各土地类型明确对象和不确定对象的个数
图4a为实验区1明确对象和不确定对象组合比率的评估结果。
图4b为实验区2明确对象和不确定对象组合比率的评估结果。
图4c为实验区3明确对象和不确定对象组合比率的评估结果。
图5a为实验区1最终的分类精度曲线。
图5b为实验区2最终的分类精度曲线。
图5c为实验区3最终的分类精度曲线。
图6a为实验区1目视解译图层。
图6b为实验区1随机采样分类效果图。
图6c为实验区1本发明的分类效果图。
图7a为实验区2目视解译图层。
图7b为实验区2随机采样分类效果图。
图7c为实验区2本发明的分类效果图。
图8a为实验区3目视解译图层。
图8b为实验区3随机采样分类效果图。
图8c为实验区3本发明的分类效果图。
具体实施方式
下面根据附图详细说明本发明,本发明的目的和效果将变得更加明显。
如图1所示为本发明基于主动学习的面向对象分类方法的流程图,本实施方法包括以下步骤:
步骤1、利用多尺度分割法对高空间分辨率影像进行分割。本实施例中,使用eCognition对高空间分辨率影像进行反复的分割尝试,并观察分割对象的分布特征,选择对各实验区分割较好的分割尺度进行影像分割。
图2为三个实验区的试验影像及其分割对象图层。本步骤中,利用影像分析软件eCognition进行多尺度分割,分割参数Shape为0.1,Smoothness为0.5。通过观察不同尺度的分割结果,选择分割效果较好的尺度进行后续分析,三个实验区的分割尺度依次为:130、110、90。容易发现,随着分割尺度的增加,分割对象的面积逐渐增大,生成的分割对象越多。
步骤2、进行有目的的采样,并标签。通过简单的目视解译,评估各实验区中各土地类型占整个实验区的面积比,以此对每个土地类型随机采样一定比例的样本,其中:实验区1中各土地类型的采样比例(与土地类型所占面积比例基本一致)为:耕地(40%)、林地(45%)、农村建筑(5%)、农村道路(2%)、裸地(8%);实验区2中各土地类型的采样比例为:建筑(30%)、林地(20%)、汽车(1%)、草地(49%);实验区3中各土地类型的采样比例为:建筑(40%)、林地(30%)、水体(10%)、汽车(5%)、草地(15%)。各土地类型的采样比例不需要绝对的精确,只需要大致目视评估实验区的土地覆盖情况。
步骤3中,对步骤2获得的已标签样本进行有放回的重复60次采样,每次随机抽取80%的样本作为子训练集。80%是一个变量,可以根据分类情况进行人为的调整,本发明建议其取值在70%至90%之间,采样比例过小将导致分类结果不确定性过大,从而失去评估分割对象混合程度的意义。
步骤4、对步骤3获得的60个子训练集,使用30个SVM(支持向量机)和30个RF(随机森林)分类器分别对所有分割对象进行分类,统计每个分割对象的60个分类结果。
使用SVM和RF作为分类器是参考了Li et al.,2016的研究,其研究结果表明:不同分类器随尺度变化的整体精度值及变化幅度是不一样的,支持向量机(SVM)和随机森林(RF)分类器随着分割尺度的增加,分类精度的方差增大,均值减小。该趋势符合混合对象的欠分割现象主要导致面向对象遥感影像分类错误的结论。同时RF和SVM相比于其它分类模型能够取得优异的分类效果,并且稳定性高,所以采用SVM和RF的分类结果计算明确度。此外,分类器的数量越多,则计算出的明确度将越精确,但过多的分类器将导致分类所需时间过长,因此本实施例使用30个SVM和30个RF分类器对子训练集进行分类。
SVM分类器采用径向基函数作为核函数,并使用格网搜索的方式,确定径向基函数的惩罚参数C和核参数γ;RF分类器中,设置每个决策树构建时的特征个数n为1个单一的随机分割变量,以及决策树的总个数k为479。
步骤5、对步骤4获得的每个分割对象的分类结果,计算其信息熵值,分割对象j的信息熵计算公式为其中,pj(xi)是分割对象j被分类为类别i的概率,n是分割对象j经过60次分类被分类的类别数目。在本发明中,若分割对象的熵值越大,则分割对象被判别的类别数越多,若熵值为0,则表示60个分类器都判别该对象为同一类别。对所有分割对象的熵值反向标准化(反向的最大最小值标准化)到[0,1]区间,即当熵值为0时,明确度为1。明确度是一个相对的值,是每一个实验区中所有分割对象的相对排序,明确度越高,说明分割对象的分类结果不确定性越低,明确度越低则表示分割对象不确定性越高。基于这个指标,将明确度为1的对象称为明确对象,明确度不为1的对象称为不确定对象。图3为本实施例中,三个实验区各土地类型明确对象和不确定对象的个数。
步骤6、确定主动学习的策略。图4是三个实验区明确对象和不确定对象组合比率的评估结果,其中折线图的X坐标是训练样本的个数,Y坐标是基于面积评估的分类精度,折线图每个节点的训练样本个数分别为20、40、60、80、100、150、200、300。从图上可以看出,当组合比率在0.2(蓝线)至0.4(绿线)之间时,分类效果最佳,即得出分割结果存在大量混合对象的条件下,一定数量的混合对象作为训练样本将有利于分割对象的分类结论。基于这个结论,引入主动学习技术,由于主动学习本身就是来帮助专家选择更好训练样本的技术,既然使用主动学习,我们肯定是希望用最少的主动学习初始样本学习最多的候选样本,从而提高最终训练样本的质量。如果使用过大的组合比率,那主动学习就失去意义,并且其稳定性也会大大降低。所以本实施例选择组合比率0.2进行主动学习,即用最终样本数20%的明确对象作为主动学习的初始训练样本集,以根据明确度从小到大排序的不确定对象作为主动学习的候选样本集。
步骤7、将候选样本集中明确度最大的20个样本进行标签,添加到主动学习训练样本集中,更新主动学习训练样本,并从候选样本集中剔除新增的20个样本。基于新的训练样本集,重新计算剩余候选样本集中每个样本对象的不确定性。根据(Tuia et al.,2011)的研究,主动学习算法的性能取决于最终分类模型的选择,基于边缘式的方法(MS)适合SVM分类器,基于委员会的方法能够适应大部分的分类模型且较为稳定。本实施例使用基于委员会中广泛使用的EQB算法进行主动学习,从而降低实验的偶然性。EQB算法采用(Tuia etal.,2011)实现的Matlab主动学习工具箱,其余的主动学习参数使用工具箱中EQB算法的默认参数。
步骤8、重复执行步骤7直到主动学习的训练样本数达到所需训练样本数,得到最终训练样本,使用最终训练样本训练分类模型,然后用训练后的分类模型对步骤1得到的分割对象分类,并进行基于面积的精度评估。
基于面积的评估本质上是根据特征的范围和空间分布评估分类精度,这相比于将分割对象单纯看作独立的点而言更加的科学。并且Whiteside et al.于2014年系统地将基于面积的评估方法提出,并对该方法建立了模型,所以将会使用基于面积的评估对本发明进行测试。另外,RF分类器在多尺度的面向对象遥感影像分析不确定情况下,展现出良好的可适应性,而SVM对训练样本质量比RF更加敏感,因此使用RF分类器作为最后的分类模型,以降低实验的偶然性。
图5是各实验区的分类精度折线图,折线图的X坐标表示用于最终训练RF分类器的训练样本集的个数,Y坐标则表示通过基于面积评估后得到的分类精度,折线图每个节点的训练样本个数分别为20、40、60、80、100、150、200、300,RS曲线(红色)是随机采样的分类结果,EQB则是使用本发明的分类结果。图5中,3个实验区在中样本和大样本区间都取得了很好的分类效果,而在小样本区间,本文提出的策略没有很大的优势。这是因为(1)EQB算法本就不适用于小样本的区间(Tuia et al.,2011)(2)由于主动学习的策略是优先学习明确度小的不确定对象,这使得在最开始的一两个递归中,由于明确对象和不确定对象的差异较大,因此只要是不确定对象就会学习进来,还无法发挥主动学习挑选最有信息量样本的优势。但当样本数递增时,不确定对象有了一定的规模,主动学习就能很好的基于已有的明确对象和不确定对象寻找信息量最大的不确定对象,以此解决不确定对象难以采样的劣势。
图6、图7和图8是各实验区的分类效果图。可以看出,本文提出的策略相比于随机采样,能提高实际地物面积较小对象的分类效果。比如实验区1中的房屋和裸地(图6);实验区2中的水体(图7);实验区3中房屋(图8)。这是因为本文通过明确度,对混合对象进行初步排序,之后结合主动学习选择出混合对象中不确定高的对象,使训练样本包含最能代表混合分割对象的样本。此外,策略结合比率评估的结果,保证了纯净对象分类所需的训练样本数,在这两点的支撑下选择出最具代表性的训练样本集。所以提出的方法能够避免由于欠分割,同一地物被分割成的多个子对象,在分类过程中,被标签为多个地物类型的问题。
除上述实施例外,本发明还可以有其他实施方式。凡依据多个分类器的分类结果评估混合对象的混合程度,进行预定义对象,并结合主动学习的采样策略,均落在本发明要求的保护范围。
Claims (9)
1.一种基于主动学习的面向对象分类方法,包括以下步骤:
步骤1、利用多尺度分割法对高空间分辨率影像进行分割,获得分割对象;
步骤2、基于步骤1的分割结果,观察实验区域,目视评估实验区土地覆盖情况,对每个土地类型按比例随机采样的样本,并对样本进行土地类型的标签;
步骤3、对步骤2获得的已标签样本进行有放回的重复2N次随机采样,从已标签样本中随机抽取70-90%的样本作为子训练集;
步骤4、利用步骤3获得的2N个子训练集,对N个支持向量机分类器和N个随机森林分类器进行训练,获得2N个分类器,使用这2N个分类器分别对步骤1获得的分割对象进行分类,统计每个分割对象的2N个分类结果;
步骤5、对步骤4获得的每个分割对象的分类结果,计算信息熵值,并反向标准化到[0,1]区间,得到每个分割对象的明确度,将明确度为1的分割对象划分为明确对象,不为1的划分为不确定对象;
步骤6、从明确对象中随机抽取最终所需训练样本数的20%,作为主动学习的训练样本集,将根据明确度从小到大排序的不确定对象作为主动学习的候选样本集;
步骤7、将候选样本集中明确度最大的M个样本进行标签,并添加到主动学习训练样本集中,使用主动学习算法对分类模型进行自学习,M取值范围为5-30;
步骤8、重复执行步骤7,直到主动学习的训练样本数达到所需训练样本数,得到最终训练样本,使用最终训练样本训练分类模型,然后用训练后的分类模型对步骤1得到的分割对象分类,并进行基于面积的精度评估。
2.根据权利要求1所述的结合预定义的训练对象和主动学习的面向对象分类方法,其特征在于:步骤1中,使用影像分析软件对高空间分辨率影像进行反复的分割尝试,并观察分割对象的分布特征,选择对实验区分割较好的分割尺度进行影像分割。
3.根据权利要求1所述的结合预定义的训练对象和主动学习的面向对象分类方法,其特征在于:步骤2中,目视评估实验区的土地覆盖情况,进行有目的的采样,实验区采样的个数为当前实验区分割对象个数的10%。
4.根据权利要求1所述的结合预定义的训练对象和主动学习的面向对象分类方法,其特征在于:步骤3中,进行有放回的重复随机采样,子训练集的采样比例为80%。
5.根据权利要求1所述的结合预定义的训练对象和主动学习的面向对象分类方法,其特征在于:步骤4中,使用支持向量机分类器和随机森林分类器对所有分割对象进行分类,支持向量机分类器采用径向基函数作为核函数,并使用格网搜索的方式,确定径向基函数的惩罚参数C和核参数γ;随机森林分类器中,设置每个决策树构建时的特征个数n为1个单一的随机分割变量,以及决策树的总个数k为479。
7.根据权利要求1所述的结合预定义的训练对象和主动学习的面向对象分类方法,其特征在于:步骤7中,使用的主动学习算法为EQB算法。
8.根据权利要求1所述的基于主动学习的面向对象分类方法,其特征在于:每次添加到主动学习训练样本中的不确定对象个数为20。
9.根据权利要求1所述的基于主动学习的面向对象分类方法,其特征在于:步骤8中的分类模型选用随机森林分类器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010050545.9A CN111259961A (zh) | 2020-01-17 | 2020-01-17 | 一种基于主动学习的面向对象分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010050545.9A CN111259961A (zh) | 2020-01-17 | 2020-01-17 | 一种基于主动学习的面向对象分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111259961A true CN111259961A (zh) | 2020-06-09 |
Family
ID=70945281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010050545.9A Pending CN111259961A (zh) | 2020-01-17 | 2020-01-17 | 一种基于主动学习的面向对象分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259961A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085109A (zh) * | 2020-09-14 | 2020-12-15 | 电子科技大学 | 基于主动学习的相控孔隙度预测方法 |
CN112784818A (zh) * | 2021-03-03 | 2021-05-11 | 电子科技大学 | 基于分组式主动学习在光学遥感图像上的识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617429A (zh) * | 2013-12-16 | 2014-03-05 | 苏州大学 | 一种主动学习分类方法和系统 |
US20190065908A1 (en) * | 2017-08-31 | 2019-02-28 | Mitsubishi Electric Research Laboratories, Inc. | Localization-Aware Active Learning for Object Detection |
-
2020
- 2020-01-17 CN CN202010050545.9A patent/CN111259961A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617429A (zh) * | 2013-12-16 | 2014-03-05 | 苏州大学 | 一种主动学习分类方法和系统 |
US20190065908A1 (en) * | 2017-08-31 | 2019-02-28 | Mitsubishi Electric Research Laboratories, Inc. | Localization-Aware Active Learning for Object Detection |
Non-Patent Citations (1)
Title |
---|
LEI MA 等: "Active learning for object-based image classification using predefined training objects", 《INTERNATIONAL JOURNAL OF REMOTE SENSING》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085109A (zh) * | 2020-09-14 | 2020-12-15 | 电子科技大学 | 基于主动学习的相控孔隙度预测方法 |
CN112784818A (zh) * | 2021-03-03 | 2021-05-11 | 电子科技大学 | 基于分组式主动学习在光学遥感图像上的识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112380952B (zh) | 基于人工智能的电力设备红外图像实时检测及识别方法 | |
Zhang et al. | A multilevel point-cluster-based discriminative feature for ALS point cloud classification | |
Blaschke et al. | Image segmentation methods for object-based analysis and classification | |
CN108830870B (zh) | 基于多尺度结构学习的卫星影像高精度农田边界提取方法 | |
CN106339674B (zh) | 基于边缘保持与图割模型的高光谱影像分类方法 | |
CN102592268B (zh) | 一种分割前景图像的方法 | |
CN108846832A (zh) | 一种基于多时相遥感影像与gis数据的变化检测方法及系统 | |
Zhang et al. | PSO and K-means-based semantic segmentation toward agricultural products | |
CN111126287B (zh) | 一种遥感影像密集目标深度学习检测方法 | |
CN105956612B (zh) | 基于主动学习和半监督学习的高光谱图像分类方法 | |
CN110263717A (zh) | 一种融入街景影像的土地利用类别确定方法 | |
CN105069796B (zh) | 基于小波散射网络的sar图像分割方法 | |
Chen et al. | Optimal segmentation of a high-resolution remote-sensing image guided by area and boundary | |
CN113449594A (zh) | 一种多层网络组合的遥感影像地类语义分割与面积计算方法 | |
CN109409438B (zh) | 基于ifcm聚类与变分推断的遥感影像分类方法 | |
CN112069985B (zh) | 基于深度学习的高分辨率大田图像稻穗检测与计数方法 | |
CN110598564B (zh) | 基于OpenStreetMap的高空间分辨率遥感影像迁移学习分类方法 | |
CN106780503A (zh) | 基于后验概率信息熵的遥感图像最优分割尺度确定方法 | |
CN110210431A (zh) | 一种基于点云语义标注和优化的点云分类方法 | |
Li et al. | A comparison of deep learning methods for airborne lidar point clouds classification | |
CN109740631A (zh) | 基于对象的obia-svm-cnn遥感影像分类方法 | |
CN111259961A (zh) | 一种基于主动学习的面向对象分类方法 | |
CN113223042A (zh) | 一种遥感影像深度学习样本智能采集方法及设备 | |
CN110503140A (zh) | 基于深度迁移学习与邻域降噪的分类方法 | |
CN111242223A (zh) | 一种基于街景影像多特征融合的街道空间品质评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200609 |