CN110929631A - 一种基于Lie-AdaBoost遥感影像的场景分类方法 - Google Patents
一种基于Lie-AdaBoost遥感影像的场景分类方法 Download PDFInfo
- Publication number
- CN110929631A CN110929631A CN201911132749.0A CN201911132749A CN110929631A CN 110929631 A CN110929631 A CN 110929631A CN 201911132749 A CN201911132749 A CN 201911132749A CN 110929631 A CN110929631 A CN 110929631A
- Authority
- CN
- China
- Prior art keywords
- image
- remote sensing
- lie
- sample
- adaboost
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Abstract
本发明公开了一种基于Lie‑AdaBoost遥感影像的场景分类方法和系统,首先获取待处理的遥感数据集,并按比例划分为训练数据文件和测试数据文件;将训练样本映射到李群流形空间得到李群样本;对李群样本进行区域划分;提取区域协方差李群特征;进行图形积分计算图;利用AdaBoost算法分类器;输入测试样本;按照之前的样本映射、样本区域划分、提取特征和图形积分计算;将测试样本特征送入分类器检测;最后输出检测结果。本发明具有如下优点:(1)本发明具有良好的自解释能力和理解性,特征可根据不同的应用场景、数据集等动态选择,具有鲁棒性。(2)本发明采用图形积分计算,维度低,计算速度快且不受特征维度的影响。
Description
技术领域
本发明涉及图像处理、场景分类领域,尤其是涉及一种基于Lie-AdaBoost遥感图像的场景分类方法。
背景技术
随着卫星传感器和图像处理技术的发展,现在可获得具有更短的访问时间和更高的分辨率的遥感数据。同时,产生了大量可用的高分辨率图像。高分辨率图像可以提供遥感影像的纹理、轮廓、形状和其他等大量有价值的特征,这有助于提高图像识别的准确度。同时,各种遥感图像的数据集在不断增加,数据集中的种类划分也更加清楚明确。然而,现有的遥感图像的场景分类方法在保证较高的准确率的同时却不能保证良好的计算性能。因此,结合李群机器学习方法的遥感图像场景分类是当前研究的一项重要课题。
遥感图像场景分类在城市土地覆盖分类、城市绿地检测、硬目标检测、城市规划、城市水和气体污染等领域都起着重要的作用。常用的转移学习方法:(1)基于选择不变特征的方法,该方法是仅仅考虑域之间不变的原始特征子集来实现的。(2)基于使用半监督方法对分类器进行调整的方法,采用半监督策略,该策略使用未标记的目标样本来使用标记的原样本对经过训练的分类器进行调整。(3)基于通过主动学习来适应分类器的方法,采用半监督策略,但是,代替自动标记目标样本,该方法要求用户标记目标样本。该方法的挑战是如何选择需要注释的最少信息量目标样本集。(4)基于调整数据分布的方法,调整数据以使不同域的特征部分更兼容。
上述分类方法存在以下不足:(1)源实例数与目标实例数之间的差距导致权重不匹配,当源实例数远大于目标实例数时,可能需要进行多次迭代才能使目标实例的总权重接近源实例数的实例。但是,所需的迭代次数可能远大于最大迭代次数,导致最终分类器次优。(2)源实例中权重收敛过快,源实例的权重往往会以出乎意料的收敛速度降低,不需要的快速收敛速度可能导致源实例对最终组合的提升分类器几乎没有影响,从而影响分类器的区分能力。(3)过分关注难以区分的实例,有的分类器专注于“较难”的实例,会降低组合增强分类器的辨别能力。
发明内容
本发明提供了一种基于Lie-AdaBoost遥感影像的场景分类方法,用以解决上述背景技术中存在的收敛速度过快、权重不匹配等问题。
为了实现上述目标,本发明一种基于Lie-AdaBoost遥感影像的场景分类方法的技术方法的具体步骤如下:
Step1、获取待处理的遥感图像数据集,将所需处理的遥感数据集分为训练集和测试集;
Step2、将上述训练集和测试集分别转化为训练数据文件和测试数据文件;
Step3、将所述训练数据文件中图像集投影到李群流形空间,得到李群样本集;
Step4、将李群样本集中的图像进行区域划分,得到若干个区域图像;
Step5、分别提取若干个区域图像对应的区域协方差李群特征;
Step6、将上述提取到的区域协方差群特征进行积分图计算,得到对应区域李群特征的矩阵;
积分计算的目的是加速图像特征的计算,如对于不同的数据集图像,可以提取10个特征或者20个特征,进行特征计算时所花费的时间不一样,通过积分图计算方法不论多少个特征都可以在常数间内完成特征的计算,并得到特征的矩阵。
Step7、利用AdaBoost算法构造分类器,其中设置T(本发明中T=300)个最优弱分类器,以及设置弱分类器的阈值(本发明中阈值=0.0000001),最后得到强分类器。
Step8、输入上述测试数据文件。
Step9、将上述所述测试数据文件进行预处理,如图像大小调整,保证测试图像与训练图像大小一致。
Step9、将上述测试数据文件中图像集图像进行区域划分。
Step10、将所述测试数据文件中图像集重复Step3-Step6的处理,得到测试图像对应区域李群特征的矩阵;
Step11、将Step10中得到的矩阵输入到强分类器中进行检测;
Step12、得到检测结果。
进一步的,在本发明的基于Lie-AdaBoost遥感影像的场景分类方法中,所述步骤Step3具体包括:
xij=exp(Mij),其中Mij表示预先标记好第i类别中第j个样本数据样本,xij表示李群空间上的第i类别中第j个李群样本。
进一步的,在本发明的基于Lie-AdaBoost遥感影像的场景分类方法中,所述步骤Step4具体包括:
结合图3、4,在本发明中将李群样本集中的图像样本划分为C1,C2,…,C20共计20个区域块,主要是完成样本从粗到细的划分,为后续全局特征和局部特征提取提供服务。
进一步的,在本发明的基于Lie-AdaBoost遥感影像的场景分类方法中,所述步骤Step5具体包括:
Step51、结合图5,提取上述20个区域块的区域协方差李群特征,,其中(x,y)表示位置坐标特征,(NR,NG,NB)表示颜色归一化特征,(Y,Cb,Cr)表示亮度、色差特征,表示梯度特征(即一阶导数),I(x,y)表示亮度,表示纹理特征(即二阶导数),表示一阶梯度向量比值的反切值,共计13个特征。
进一步的,在本发明的基于Lie-AdaBoost遥感影像的场景分类方法中,所述步骤Step51具体包括:
Step511、所述的位置和梯度特征是目标最基础的两种信息,相同的场景会包含相似的特征目标,虽然这些目标会存在大小、形状和视角的不同,但在场景中位置相似,自身像素变化率也大致相同,在一定程度上保证了位置和梯度信息对目标场景的不变性。
Step512、所述的颜色归一化和亮度、色差特征,具体表示为:其中R代表红色,G代表绿色,B代表蓝色,Y,Cb,Cr分别表示亮度,蓝色和红色的浓度偏移量成份,NR,NG,NB分别表示R,G,B归一化后的值,对于不同场景中的目标,颜色是一项区分性较强的描述子,例如天空场景中白色的云、海岸场景中蓝色的海和森林中绿色的树等。但是单一的RGB颜色空间,描述能力不足,单一的RGB颜色受光照变化影响较大,稳定性不足,不能解决视角差异的问题。因此,为解决光照影响和视觉差异的问题,改变颜色通道的描述形式,对RGB进行归一化处理,减少光照影响,在增加YCbCr空间中亮度色差等。本发明级联RGB、YCbCr下的R、G、亮度、色差等,增加颜色信息在协方差特征集中的比重,通过底层特征描述符保证不同条件下目标的区分性和稳定性。
Step513、将上述所述的13个特征,采用13×13维区域协方差表示,区域协方差可以使用积分图像方法,计算速度快,方便计算图像汇总任一子区域的协方差特征,分类性能好,特征维度低,且维度不受图像尺寸的影响。
进一步的,在本发明的基于Lie-AdaBoost遥感影像的场景分类方法中,所述步骤Step6具体包括:
Step61、结合图6,积分图像计算是用于快速计算区域特征。图像某个区域的特征是由图像左上角和感兴趣的区域所限定的矩形内所有特征的总和。对于给定图像I(x,y),(x,y)表示图像上的坐标,其积分图像定义为:(x',y')表示积分图像计算上的坐标,使用这种表示方法,任何矩形区域特征都可以在常数的时间内计算出来。
Step62、积分图像被扩展到更高的尺寸,能快速计算区域直方图。这里我们遵循一个类似的快速计算区域协方差的思想,我们定义协方差矩阵为:为了求给定矩形区域R的协方差,我们必须计算每个特征维数Z(i)i=1...n的和,以及任何两个特征维数Z(i)Z(j)i,j=1...n的相乘之和,k=1,2,···n表示最多有n个区域。我们为每个特征维数Z(i)构造d2+d积分图像,并将任意两个特征维数Z(i)Z(j)相乘。
Step63、P表示W×H×d维积分图像张量:Q表示W×H×d×d维二阶导积分图像积分图像只需要计算一次。在本文中,Px,y表示d维向量,Qx,y表示d×d维矩阵。Px,y=[P(x,y,1)...P(x,y,d)]Qx,y为对称矩阵,只需要(d2+d)/2+d就能够求出P和Q。构造积分图像的计算复杂度为O(d2WH)。
Step64、R(x',y';x”,y”)是矩形区域,(x’,y’)表示左上角坐标,(x”,y”)表示右下角坐标。R(x',y';x”,y”)区域协方差表示为:构造任意矩形区域协方差积分图像计算量为O(d2)。
进一步的,在本发明的基于Lie-AdaBoost遥感影像的场景分类方法中,所述步骤Step7具体包括:
结合图7,Adaboost算法基本原理就是将多个弱分类器进行合理的结合,使其成为一个强分类器。Adaboost采用迭代的思想,每次迭代只训练一个弱分类器,训练好的弱分类器将参与下一次迭代的使用。也就是说,在第N次迭代中,一共就有N个弱分类器,其中N-1个是以前训练好的,其各种参数都不再改变,本次训练第N个分类器。其中弱分类器的关系是第N个弱分类器更可能分对前N-1个弱分类器没分对的数据,最终分类输出要看这N个分类器的综合效果。本发明与现有技术相比,具有的有益效果是:
本发明提供的基于Lie-AdaBoost遥感影像的场景分类方法,通过将训练样本集投影到李群流形空间上,得到李群训练样本集,将李群样本集进行区域划分,提取每个区域协方差李群特征并用矩阵表示,采用积分图像计算,利用AdaBoost构建分类器,设置相应弱分类器的阈值,设置最优弱分类个数,最后得到强分类器,对测试数据集图像进行预处理,设定每张测试图像大小,如设定为256*256,同样采用将测试样本集进行区域划分,提取每个区域协方差李群特征并用矩阵表示,采用积分图像计算,将得到的矩阵输入到强分类器中进行检测,最后给出测试图像所属类别。本发明方法通过区域协方差李群特征表示数据集图像特征,具有很好的自解释能力,增强了理解性,解决了深度学习框架的解释性差和理解性差的问题。此外,特征的选取可根据不同的应用场景、数据集特点和实验设备环境动态组合,具有很强的鲁棒性。特征维度使用矩阵表示,该矩阵为实对称矩阵,维度低,计算简单速度快,解决了深度学习维度多、特征多以及计算效率低等问题。特征矩阵空间表示除了能表示自身特征外(通过主对角线表示),还表示了该特征与相邻特征的空间关系(非主对角线表示),解决了空间信息缺失的问题。本发明方法通过训练多个弱分类器,并将弱分类器构建出强分类器,通过强分类器对测试图像进行判断。本发明方法针对数据集进行区域划分的方法经过不断试验和统计分析,既能保持较高的分辨率又能保持很好的计算性能,可以作为类似研究的参考。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面结合附图和实施例对本发明进一步说明。
图1为传统遥感图像场景分类方法的流程图;
图2为本发明遥感图像场景分类方法流程简图;
图3为本发明样本的区域划分流程图;
图4为本发明样本的区域划分方式和数量;
图5为本发明样本的区域协方差李群特征流程图;
图6为本发明计算图像积分计算的示意图;
图7为本发明通过弱分类器构建强分类器的示意图图;
图8为本发明在SIRI-WHU数据集的混淆矩阵示意图;
图9为本发明在UC Merced Data数据集的混淆矩阵示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明的实施例的详细描述并非旨在限制要求包含的本发明的范围,而是仅仅表示本发明的选定实施例。
应注意到:相似的符号在下面附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
请参照图2,图2为本发明所提供的遥感图像场景分类方法流程简图。本实施例尤其适用于高分辨率遥感图像场景的分类,且本发明实施例在李群机器学习的开发环境中执行。
Step1,本实施案例通过在Google Earth下载UC Merced数据集,该数据集包含21个类别,每个类别包含100张图片,每张图片为256*256(单位:像素)大小的高分辨率遥感图像。通过在武汉大学国家重点实验室官网下载SIRI-WHU数据集,该数据集包含12个类别,每个类别包含200张图片,每张图片为200*200(单位:像素)大小的高分辨率遥感图像。进一步的,本发明将在这两个数据集下进行分类测试,使用matlab语言进行编程分别将两个数据集分成互斥的两个集合,其中取两个遥感数据集中任意75%的图像用于训练模型,剩下25%的图像作为测试集用来验证模型的准确率。
需要说明的是,本实施例中的图片数据具有以下优点:(1)数据量大、类别多,这对于李群机器学习而言是十分必要的。(2)样本图像的多样性,本实施例中采用的为标准数据集,涵盖多个国家和地区的不同场景,样本图像具有多样性,数据集中图像对于不同的气候、季节、角度、光照和清晰度都做了严格的筛选,从而使得每个类别图像的观测角度等有较大的差异。
此外,UC Merced数据集和SIRI-WHU数据集与现有的高分辨率遥感影像数据集的对比如下表所示,从表中可以发现,本实施例所选择的数据集综合考虑了图像的类别和类别的数量。这两个数据集对于相关模型和算法进行评估更加的客观,从而使得本发明在遥感图像场景分类领域得到更好的发展。
Step2、将上述训练集和测试集分别转化为训练数据文件和测试数据文件。
Step3、将所述训练数据文件中图像集投影到李群流形空间,得到李群样本集;
xij=exp(Mij),其中Mij表示预先标记好第i类别中第j个样本数据样本,xij表示李群空间上的第i类别中第j个李群样本。
Step4,请结合图2并参考图3、图4,图3、图4为本发明实施例将李群样本中每个图像样本划分为C1,C2,…C20共计20个区域块,并展示了本发明实施例具体的划分方式和数量,主要是完成样本从粗到细的划分,为后续全局特征和局部特征提取提供服务。本发明实施例的划分方式和划分数量是经过反复多次实验和分析总结的,没有固定模式,对不同的数据集、不同的应用场景和不相同的实验设备环境等划分方式和划分数量是不一样的,需要综合考虑上述不同的因素。本发明实施例仅作为今后类似研究的一个参考。图4有给出具体的划分方式和数量,具体为:按照图4划分20个区域,对应的大小就是区域块1为180*180,区域块2和3均为90*180(宽*高,单位:像素),区域块4和5均为180*90,区域块6~8均为60*180,区域块9~11均为180*60,区域块12~20均为60*60。
Step5,请结合图2并参考图5,图5为本发明实施例提取20个区域块的李群特征,,其中(x,y)表示位置坐标特征,(NR,NG,NB)表示颜色归一化特征,(Y,Cb,Cr)表示亮度、色差特征,表示梯度特征(即一阶导数),I(x,y)表示亮度,表示纹理特征(即二阶导数),表示一阶梯度向量比值的反切值,共计13个特征。
Step511、所述的位置和梯度特征是目标最基础的两种信息,相同的场景会包含相似的特征目标,虽然这些目标会存在大小、形状和视角的不同,但在场景中位置相似,自身像素变化率也大致相同,在一定程度上保证了位置和梯度信息对目标场景的不变性。
Step512、所述的颜色归一化和亮度、色差特征,具体表示为:其中R代表红色,G代表绿色,B代表蓝色,Y,Cb,Cr分别表示亮度,蓝色和红色的浓度偏移量成份,NR,NG,NB分别表示R,G,B归一化后的值,对于不同场景中的目标,颜色是一项区分性较强的描述子,例如天空场景中白色的云、海岸场景中蓝色的海和森林中绿色的树等。但是单一的RGB颜色空间,描述能力不足,单一的RGB颜色受光照变化影响较大,稳定性不足,不能解决视角差异的问题。因此,为解决光照影响和视觉差异的问题,改变颜色通道的描述形式,对RGB进行归一化处理,减少光照影响,在增加YCbCr空间中亮度色差等。本发明级联RGB、YCbCr下的R、G、亮度、色差等,增加颜色信息在协方差特征集中的比重,通过底层特征描述符保证不同条件下目标的区分性和稳定性。
Step513、将上述所述的13个特征,采用13×13维区域协方差表示。
Step6,请结合图2并参考图6,图6为本发明实施例计算积分图像。
Step61、结合图6,积分图像计算是用于快速计算区域特征。图像某个区域的特征是由图像左上角和感兴趣的区域所限定的矩形内所有特征的总和。对于给定图像I(x,y),(x,y)表示图像上的坐标,其积分图像定义为:(x',y')表示积分图像计算上的坐标,使用这种表示方法,任何矩形区域特征都可以在常数的时间内计算出来。
Step62、积分图像被扩展到更高的尺寸,能快速计算区域直方图。这里我们遵循一个类似的快速计算区域协方差的思想,我们定义协方差矩阵为:为了求给定矩形区域R的协方差,我们必须计算每个特征维数Z(i)i=1...n的和,以及任何两个特征维数Z(i)Z(j)i,j=1...n的相乘之和,k=1,2,···n表示最多有n个区域。我们为每个特征维数Z(i)构造d2+d积分图像,并将任意两个特征维数Z(i)Z(j)相乘。
Step63、P表示W×H×d维积分图像张量:Q表示W×H×d×d维二阶导积分图像积分图像只需要计算一次。在本文中,Px,y表示d维向量,Qx,y表示d×d维矩阵。Px,y=[P(x,y,1)...P(x,y,d)]Qx,y为对称矩阵,只需要(d2+d)/2+d就能够求出P和Q。构造积分图像的计算复杂度为O(d2WH)。
Step64、R(x',y';x”,y”)是矩形区域,(x’,y’)表示左上角坐标,(x”,y”)表示右下角坐标。R(x',y';x”,y”)区域协方差表示为:构造任意矩形区域协方差积分图像计算量为O(d2)。
Step7、利用AdaBoost算法构造分类器,设置T个最优弱分类器,以及设置弱分类器的阈值,将Step6中的矩阵输入到弱分类器中进行训练,最后得到强分类器;
结合图7,Adaboost算法基本原理就是将多个弱分类器进行合理的结合,使其成为一个强分类器。Adaboost采用迭代的思想,每次迭代只训练一个弱分类器,训练好的弱分类器将参与下一次迭代的使用。也就是说,在第N次迭代中,一共就有N个弱分类器,其中N-1个是以前训练好的,其各种参数都不再改变,本次训练第N个分类器。其中弱分类器的关系是第N个弱分类器更可能分对前N-1个弱分类器没分对的数据,最终分类输出要看这N个分类器的综合效果。
Step8、输入上述测试数据文件;
Step9、将上述所述测试数据文件进行预处理,保证测试图像与训练图像大小一致;
Step10、将所述测试数据文件中图像集重复Step3-Step6的处理,得到测试图像对应区域李群特征的矩阵;
Step11、将Step10中得到的矩阵输入到强分类器中进行检测;
Step12、得到检测结果。
请结合图8~图9,图8为本发明实施例在SIRI-WHU数据集的混淆矩阵图,图9为本发明实施例在UC Merced数据集的混淆矩阵图。混淆矩阵是分析不同类别之间所有错误和混淆的信息表,它是通过计算每种类型正确和错误的测试样本分类并将结果累积到表中而创建的。在这里,我们选择SIRI-WHU数据集和UC Merced数据集,每个类具有相同数量的图像,因此总体精度的值等于平均精度的值。横坐标为实际类别,纵坐标为预测的类别,主对角线的值(颜色深度越大)越大准确率就越大。从图8、图9可以很明显看出,每一个类别的准确率,以及被分错的类别所占比例,从图8中可以发现,有5个类别准确率为1,具有很高的准确率。从图9中也可以发现,测试的准确率可以达到0.98以上。
以上所述仅为本发明的部分实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种改变。凡在本发明的精神和原则之内,所做的任何改变、等价替换或改进等,均应包含在本发明的包含范围之内。注意,相似的标号和字母在下面的附图中表示类似项。因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进一步定义和解释。
Claims (5)
1.一种基于Lie-AdaBoost遥感影像的场景分类方法,其特征在于,包括如下步骤:
Step1、获取待处理的遥感图像数据集,将所需处理的遥感数据集分为训练集和测试集;
Step2、将上述训练集和测试集分别转化为训练数据文件和测试数据文件;
Step3、将所述训练数据文件中图像集投影到李群流形空间,得到李群样本集;
Step4、将李群样本集中的图像进行区域划分,得到若干个区域图像;
Step5、分别提取若干个区域图像对应的区域协方差李群特征;
Step6、将上述提取到的区域协方差李群特征进行积分图计算,得到对应区域李群特征的矩阵;
Step7、利用AdaBoost算法构造分类器,设置T个最优弱分类器,以及设置弱分类器的阈值,将Step6中的矩阵输入到弱分类器中进行训练,最后得到强分类器;
Step8、输入上述测试数据文件;
Step9、将上述所述测试数据文件进行预处理,保证测试图像与训练图像大小一致;
Step10、将所述测试数据文件中图像集重复Step3-Step6的处理,得到测试图像对应区域李群特征的矩阵;
Step11、将Step10中得到的矩阵输入到强分类器中进行检测;
Step12、得到检测结果。
2.根据权利要求1所述的基于Lie-AdaBoost遥感影像的场景分类方法,其特征在于:所述的将图像集投影到李群流形空间具体步骤为:
xij=exp(Mij),其中Mij表示预先标记好第i类别中第j个样本数据样本,xij表示李群空间上的第i类别中第j个李群样本。
3.根据权利要求1所述的基于Lie-AdaBoost遥感影像的场景分类方法,其特征在于:所述步骤Step4中将所述训练数据文件中图像集图像样本划分为C1,C2,…,C20共计20个区域块,完成样本从粗到细的划分,为后续全局特征和局部特征提取提供服务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911132749.0A CN110929631A (zh) | 2019-11-19 | 2019-11-19 | 一种基于Lie-AdaBoost遥感影像的场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911132749.0A CN110929631A (zh) | 2019-11-19 | 2019-11-19 | 一种基于Lie-AdaBoost遥感影像的场景分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110929631A true CN110929631A (zh) | 2020-03-27 |
Family
ID=69853440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911132749.0A Pending CN110929631A (zh) | 2019-11-19 | 2019-11-19 | 一种基于Lie-AdaBoost遥感影像的场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110929631A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117152547A (zh) * | 2023-11-01 | 2023-12-01 | 江西师范大学 | 基于李群空间特征的遥感场景分类方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102819745A (zh) * | 2012-07-04 | 2012-12-12 | 杭州电子科技大学 | 一种基于AdaBoost的高光谱遥感影像分类方法 |
CN102968643A (zh) * | 2012-11-16 | 2013-03-13 | 华中科技大学 | 一种基于李群论的多模态情感识别方法 |
KR20140046131A (ko) * | 2012-10-10 | 2014-04-18 | 우송대학교 산학협력단 | 영상 인식 하드웨어 고속화장치 및 방법 |
CN104036284A (zh) * | 2014-05-12 | 2014-09-10 | 沈阳航空航天大学 | 基于Adaboost算法的多尺度行人检测方法 |
CN108268859A (zh) * | 2018-02-08 | 2018-07-10 | 南京邮电大学 | 一种基于深度学习的人脸表情识别方法 |
CN109614899A (zh) * | 2018-11-29 | 2019-04-12 | 重庆邮电大学 | 一种基于李群特征和卷积神经网络的人体动作识别方法 |
-
2019
- 2019-11-19 CN CN201911132749.0A patent/CN110929631A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102819745A (zh) * | 2012-07-04 | 2012-12-12 | 杭州电子科技大学 | 一种基于AdaBoost的高光谱遥感影像分类方法 |
KR20140046131A (ko) * | 2012-10-10 | 2014-04-18 | 우송대학교 산학협력단 | 영상 인식 하드웨어 고속화장치 및 방법 |
CN102968643A (zh) * | 2012-11-16 | 2013-03-13 | 华中科技大学 | 一种基于李群论的多模态情感识别方法 |
CN104036284A (zh) * | 2014-05-12 | 2014-09-10 | 沈阳航空航天大学 | 基于Adaboost算法的多尺度行人检测方法 |
CN108268859A (zh) * | 2018-02-08 | 2018-07-10 | 南京邮电大学 | 一种基于深度学习的人脸表情识别方法 |
CN109614899A (zh) * | 2018-11-29 | 2019-04-12 | 重庆邮电大学 | 一种基于李群特征和卷积神经网络的人体动作识别方法 |
Non-Patent Citations (4)
Title |
---|
ONCEL TUZEL ET AL.: "Region Covariance: A Fast Descriptor for Detection and Classification", 《ECCV 2006》 * |
余建军: "复杂场景中多目标视觉跟踪技术研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
殷慧 等: "基于多维金字塔表达和AdaBoost的高分辨率SAR图像城区场景分类算法", 《自动化学报》 * |
高聪: "李群均值学习算法及应用研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117152547A (zh) * | 2023-11-01 | 2023-12-01 | 江西师范大学 | 基于李群空间特征的遥感场景分类方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102073748B (zh) | 一种基于视觉关键词的遥感影像语义检索方法 | |
US10102443B1 (en) | Hierarchical conditional random field model for labeling and segmenting images | |
Dev et al. | Color-based segmentation of sky/cloud images from ground-based cameras | |
US9805293B2 (en) | Method and apparatus for object recognition in image processing | |
EP2701098B1 (en) | Region refocusing for data-driven object localization | |
Güneş et al. | Optimizing the color-to-grayscale conversion for image classification | |
CN104599275B (zh) | 基于概率图模型的非参数化的rgb-d场景理解方法 | |
Liu et al. | Shadow detection in remotely sensed images based on self-adaptive feature selection | |
CN104850850B (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
EP2615572A1 (en) | Image segmentation based on approximation of segmentation similarity | |
US9519660B2 (en) | Information processing apparatus, clustering method, and recording medium storing clustering program | |
CN105761238B (zh) | 一种通过灰度统计数据深度信息提取显著目标的方法 | |
CN107392968B (zh) | 融合颜色对比图和颜色空间分布图的图像显著性检测方法 | |
JP2016500975A (ja) | 結合された深度キューに基づく平面視画像からの深度マップの生成 | |
CN102113014A (zh) | 图像的感知分割 | |
CN112800980B (zh) | 一种基于多层次特征的sar目标识别方法 | |
CN112287935B (zh) | 一种基于显著性先验的图像语义分割方法及系统 | |
CN110084284A (zh) | 基于区域卷积神经网络的目标检测与二级分类算法及装置 | |
Wang et al. | Combining semantic scene priors and haze removal for single image depth estimation | |
CN110334628B (zh) | 一种基于结构化随机森林的室外单目图像深度估计方法 | |
CN111680579A (zh) | 一种自适应权重多视角度量学习的遥感图像分类方法 | |
CN110929631A (zh) | 一种基于Lie-AdaBoost遥感影像的场景分类方法 | |
Wang | Image matting with transductive inference | |
Zhang et al. | Point clouds classification of large scenes based on blueprint separation convolutional neural network | |
CN111026897A (zh) | 一种基于Lie-Fisher遥感图像的场景分类方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200327 |