CN111191617B - 一种基于分层结构的遥感场景分类方法 - Google Patents
一种基于分层结构的遥感场景分类方法 Download PDFInfo
- Publication number
- CN111191617B CN111191617B CN202010002522.0A CN202010002522A CN111191617B CN 111191617 B CN111191617 B CN 111191617B CN 202010002522 A CN202010002522 A CN 202010002522A CN 111191617 B CN111191617 B CN 111191617B
- Authority
- CN
- China
- Prior art keywords
- matrix
- test sample
- training
- sample
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 56
- 238000012360 testing method Methods 0.000 claims abstract description 50
- 239000011159 matrix material Substances 0.000 claims description 73
- 238000000354 decomposition reaction Methods 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 5
- 238000000605 extraction Methods 0.000 abstract description 3
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 230000002123 temporal effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000764238 Isis Species 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于分层结构的遥感场景分类方法,首先针对训练样本和测试样本分别获取特征矩阵,并构造分层结构,然后针对分层结构进行从上而下的学习,计算每一层测试样本与训练样本对应的特征矩阵的测地线距离,并比较测地线距离与预先设定的阈值α关系,计算每一层权重值;统计权重值为正数的个数,如果正数值大于负数值,则该测试样本类别与训练样本属于同一类,反之,不属于同一类,直到完成测试样本类别的判断为止。本发明具有如下优点:(1)复杂的问题通过分层变成简单的子问题。(2)预处理特征提取能降低时间复杂度和空间复杂度。
Description
技术领域
本发明涉及图像处理、遥感场景分类领域,尤其是涉及基于分层结构的遥感场景分类方法。
背景技术
由于传感技术和卫星传感器的快速发展,现在可以很容易获取到具有高分辨率的遥感影像,并且所花费的时间更短。高分辨率的遥感影像包含更多更详细的特征,例如轮廓、纹理、结构等,这些特征能够帮助我们更好的对遥感场景进行识别分类。与此同时,高分辨率遥感影像在提供更多更详细的特征的同时也带来了存储难、计算慢和效率低等问题。
遥感影像场景分类在城市规划设计、土地利用、国土资源检测、城市绿地规划、城市目标检测、城市功能区建设、城市水和气体污染等领域都起着非常重要的作用。目前,使用的主要方法有:(1)对图像直接提取特征描述子,比如尺度不变特征变换SIFT、颜色直方图、方向梯度直方图HOG、局部二值模式LBP等;(2)在图像分块提取的一些底层特征基础上继续进行特征提取,比如词袋模型BOVW、稀疏编码等;(3)通过训练深度网络模型,对图像自动提取特征。
上述分类方法存在以下不足:第一种方法虽然步骤简单,但由于低层特征对于场景语义信息的描述具有局限性,所以这种方法对提取的特征描述子具有较高的要求;第二种方法相对于第一种方法分类精度虽有所提高,但处理过程会更复杂;而深度网络是最近几年兴起的一种方法,优点在于不用人工提取特征描述子,而且经过充分训练后的网络分类效果非常好。但深度网络模型却需要大量的数据进行训练,耗时较长,对存储要求也相对较高。
发明内容
本发明提供了一种基于分层结构的遥感场景分类方法,用以解决上述背景技术中存在的场景语义信息描述的局限性、处理过程复杂和耗时长、存储要求高等问题。
为了实现上述目标,本发明一种基于分层结构的遥感场景分类方法的技术方法的具体步骤如下:
Step1、构建训练样本集,在选取的训练样本上选定特定的区域,使用奇异值分解方法捕获训练样本特征矩阵,并构造基于训练样本图像特征值的分层结构;
Step2、在测试样本上选定特定的区域,使用奇异值分解方法捕获测试样本特征矩阵,并构造基于测试样本图像特征值的分层结构,测试样本和训练样本采用同样的分层方式和分层数量;
Step3、针对分层结构进行从上而下的学习,先学习第1层,根据测试样本与训练样本对应的特征矩阵计算测地线距离d1,比较测地线距离与预先设定的阈值α关系,如果大于阈值α,将其权重w设置为负数,本发明中使用w1=-1,如果小于阈值α,将其权重w设置为正数,本发明中使用w1=+1;
Step4、重复Step3,计算每一层测试样本与训练样本对应的特征矩阵的测地线距离dl,并比较测地线距离与预先设定的阈值α关系,计算每一层权重值wl;
Step5、统计权重值为正数的个数,如果正数值大于负数值,则该测试样本类别与训练样本属于同一类,反之,不属于同一类,并重复Step1-Step5,直到完成测试样本类别的判断为止。
进一步的,所述Step1具体包括:
使用奇异值分解方法捕获训练样本特征,并构造基于训练样本特征值的分层结构。结合图2,输入图像x为飞机场景,将其分为5层,即l=5,表示第i层的特征矩阵,即表示飞机机头特征矩阵,表示飞机机身特征矩阵,表示飞机引擎特征矩阵,表示飞机机翼特征矩阵,表示飞机尾翼特征矩阵。在此需要注意的是,分层的方式和方法不是固定不变的,在本发明中针对飞机场景,我们通过算法捕获特定区域的特征,并使用矩阵进行表示,例如我们将飞机场景分为5层,根据分层的结构,首先捕获到飞机机头所在区域的特征,并使用矩阵表示,接着捕获飞机机翼所在区域特征,同样使用矩阵表示,以此类推。针对不同场景数据集一般分层的方法不相同,需要反复尝试和不断试验,本发明主要按照场景目标组成部分进行分层,通常将场景分为奇数层。
进一步的,所述Step1和Step2具体包括:
在识别分类任务中训练样本集表示为其中,N表示一共有N个类别,K是指每个类别中样本的数量,i表示类别,j表示每个类别所包含的遥感影像的数量,m和n分别指矩阵的行和列,并且m≤n,每个样本用矩阵表示,即为一个矩阵。利用奇异值分解方法捕获训练样本和测试样本特征矩阵的实现方式如下:
(2)将矩阵Mi重新组合成序列Mi(A1,A2,···,An),得到以特征序列为行向量的矩阵,例如,其中A1=(a11,a12,···,a1n),A2=(a21,a22,···,a2n),以此类推,Am=(a1n,a2n,···,amn);
进一步的,所述Step1和Step2中将训练样本与测试样本经过奇异值分解得到的特征矩阵为正交矩阵,Baker在2009年已经证明该矩阵为李群。
进一步的,所述Step3具体包括:
本发明与现有技术相比,具有的有益效果是:
本发明提供的基于分层结构的遥感场景分类方法,从低到高的各层能够自动发现这些越来越抽象的特征,最后将复杂的问题通过分层过程变成简单的子问题。使用分层结构,把一个复杂的问题分解成n个简单问题,这n个简单问题对应n!个排列组合,也就是存在n!个规则来定义生产结构。在本发明中,选择其中一条准则,是每一层对应复杂问题所分解得到的一个简单问题不存在重合情况;然后为每一层提供一个有效的索引,最后将复杂问题通过分层过程变成简单问题。在训练数据集的过程中,首先对数据集进行预处理(选定特定的区域,如12*12像素内,保证提取的奇异值特征矩阵是一样大小的),并在预处理过程中先对数据进行特征提取,提取那些可能有利于训练的特征集合,这样做的目的是使得数据训练过程效率更高,从而减少时间复杂度和空间复杂度。
本发明方法针对数据集进行奇异值分解并构造分层结构,经过反复试验和统计分析,既能保持较高的分辨率又能减少时间复杂度和空间复杂度,保持很好的计算性能,可以给类似研究提供参考。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面结合附图和实施例对本发明进一步说明。
图1为分层结构;
图2为分层结构案例图;
图3为分层学习结构图;
图4为本发明在SIRI-WHU数据集的混淆矩阵示意图;
图5为本发明在UC Merced Data数据集的混淆矩阵示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明的实施例的详细描述并非旨在限制要求包含的本发明的范围,而是仅仅表示本发明的选定实施例。
应注意到:相似的符号在下面附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
请参照图1和图2,图1为本发明所提供的分层结构构造示意图,图2为本发明所提供的分层结构构构造具体案例示意图。本实施例尤其适用于高分辨率遥感影像场景的分类,且本发明实施例在李群机器学习的开发环境中执行。
Step1,本实施案例通过在Google Earth下载UC Merced数据集,该数据集包含21个类别,每个类别包含100张图片,每张图片为256*256(单位:像素)大小的高分辨率遥感图像。通过在武汉大学国家重点实验室官网下载SIRI-WHU数据集,该数据集包含12个类别,每个类别包含200张图片,每张图片为200*200(单位:像素)大小的高分辨率遥感图像。进一步的,本发明将在这两个数据集下进行分类测试,使用matlab语言进行编程分别将两个数据集分成互斥的两个集合,其中取两个遥感数据集中任意70%的图像用于训练模型,剩下30%的图像作为测试集用来验证模型的准确率和可行性。
需要说明的是,本实施例中的图片数据具有以下优点:(1)类别多并且数据量大,这对于李群机器学习场景分类而言是十分重要的。(2)样本图像的多样性,本实施例中采用的为标准数据集,涵盖多个国家和地区的不同场景,样本图像具有多样性,数据集中图像对于不同的气候、季节、角度、光照和清晰度都做了严格的筛选,从而使得每个类别图像的观测角度等有较大的差异。
此外,UC Merced数据集和SIRI-WHU数据集与现有的高分辨率遥感影像数据集的对比如下表所示,从表中可以发现,本实施例所选择的数据集综合考虑了图像的类别和每个类别包含的遥感影像数量。这两个数据集对于相关算法和模型进行评估更加的客观,从而使得本发明在遥感影像场景分类领域得到更好的发展,为今后类似研究提供有价值的参考,具体如表1所示。
表1数据集详细信息表
Step2、在选取的训练样本上选定特定的区域,使用奇异值分解方法捕获训练样本特征,并构造基于训练样本图像特征值的分层结构;
结合图2,输入图像x为飞机场景,将其分为5层,即l=5,表示第i层的特征矩阵,即表示飞机机头特征矩阵,表示飞机机身特征矩阵,表示飞机引擎特征矩阵,表示飞机机翼特征矩阵,表示飞机尾翼特征矩阵。在此需要注意的是,分层的方式和方法不是固定不变的,在本发明中针对飞机场景,我们通过算法捕获特定区域(如12*12像素范围内)的特征,并使用矩阵进行表示,例如我们将飞机场景分为5层,根据分层的结构,首先捕获到飞机机头所在区域的特征,并使用矩阵表示,接着捕获飞机机翼所在区域特征,同样使用矩阵表示,以此类推。针对不同场景数据集一般分层的方法不相同,需要反复尝试和不断试验,本发明主要按照场景目标组成部分进行分层,通常将场景分为奇数层。
Step3、在测试样本上选定特定的区域,采用上述同样的奇异值分解方法捕获测试样本特征矩阵,并构造基于测试样本图像特征值的分层结构,测试样本和训练样本采用同样的分层方式和分层数量;
在本发明的基于李群机器学习的分层结构的遥感场景分类方法中,将训练样本与测试样本经过奇异值分解得到的特征矩阵为正交矩阵,Baker在2009年已经证明该矩阵为李群。
在识别分类任务中训练样本集表示为其中N表示一共有N个类别,K是指每个类别中样本的数量,i表示类别,j表示每个类别所包含的遥感影像的数量,m和n分别指矩阵的行和列,并且m≤n,每个样本用矩阵表示,即为一个矩阵。利用奇异值分解方法捕获训练样本和测试样本特征矩阵的实现方式如下:
(2)将矩阵Mi重新组合成序列Mi(A1,A2,···,An),得到以特征序列为行向量的矩阵,例如,其中A1=(a11,a12,···,a1n),A2=(a21,a22,···,a2n),Am=(a1n,a2n,···,amn),以此类推;
Step4、针对分层结构进行从上而下的学习,先学习第1层,根据测试样本与训练样本对应的特征矩阵计算测地线距离d1,比较测地线距离与预先设定的阈值α关系,如果大于阈值α,将其权重w设置为负数,本发明中使用w1=-1,如果小于阈值α,将其权重w设置为正数,本发明中使用w1=+1;
Step5、重复Step4,计算每一层测试样本与训练样本对应的特征矩阵的测地线距离dl,并比较测地线距离与预先设定的阈值α关系,计算每一层权重值wl;
Step6、统计权重值为正数的个数,如果正数值大于负数值,则该测试样本类别与训练样本属于同一类,反之,不属于同一类,并重复Step1-Step5,直到完成测试样本类别的判断为止。
请结合图4~图5,图4为本发明实施例在SIRI-WHU数据集的混淆矩阵图,图5为本发明实施例在UC Merced数据集的混淆矩阵图。混淆矩阵是分析不同类别之间所有错误和混淆的信息表,它是通过计算每种类型正确和错误的测试样本分类并将结果累积到表中而创建的。在这里,我们选择SIRI-WHU数据集和UC Merced数据集,每个类具有相同数量的图像,因此总体精度的值等于平均精度的值。横坐标为实际类别,纵坐标为预测的类别,主对角线的值(颜色深度越大)越大准确率就越大。从图4、图5可以很明显看出,每一个类别的准确率,以及被分错的类别所占比例,从图4中可以发现,准确率可以达到97%以上。从图5中也可以发现,测试的准确率可以达到97%。
以上所述仅为本发明的部分实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种改变。凡在本发明的精神和原则之内,所做的任何改变、等价替换或改进等,均应包含在本发明的包含范围之内。
Claims (5)
1.一种基于分层结构的遥感场景分类方法,其特征在于,包括如下步骤:
Step1、构建训练样本集,在选取的训练样本上选定特定的区域,使用奇异值分解方法捕获训练样本特征矩阵,并构造基于训练样本图像特征值的分层结构,所述分层结构按照场景目标组成部分进行分层;
Step2、在测试样本上选定特定的区域,使用奇异值分解方法捕获测试样本特征矩阵,并构造基于测试样本图像特征值的分层结构,测试样本和训练样本采用同样的分层方式和分层数量;
Step3、针对分层结构进行从上而下的学习,先学习第1层,根据测试样本与训练样本对应的特征矩阵计算测地线距离d1,比较测地线距离与预先设定的阈值α关系,如果大于阈值α,将其权重w1设置为负数,如果小于阈值α,将其权重w1设置为正数;
Step4、重复Step3,计算每一层测试样本与训练样本对应的特征矩阵的测地线距离dl,并比较测地线距离与预先设定的阈值α关系,计算每一层权重值wl;
Step5、统计权重值为正数的个数,如果正数值大于负数值,则该测试样本类别与训练样本属于同一类,反之,不属于同一类,并重复Step1-Step5,直到完成测试样本类别的判断为止。
2.如权利要求1所述的一种基于分层结构的遥感场景分类方法,其特征在于:所述Step1中分层结构的层数为奇数层。
3.如权利要求1所述的一种基于分层结构的遥感场景分类方法,其特征在于:所述Step1中捕获训练样本特征矩阵的具体实现方式如下,
设训练样本集表示为其中,N表示一共有N个类别,K是指每个类别中训练样本的数量,i表示类别,j表示每个类别所包含的遥感影像的数量,m和n分别指矩阵的行和列,并且m≤n,每个样本用矩阵表示,即为一个矩阵,利用奇异值分解方法捕获训练样本的实现方式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010002522.0A CN111191617B (zh) | 2020-01-02 | 2020-01-02 | 一种基于分层结构的遥感场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010002522.0A CN111191617B (zh) | 2020-01-02 | 2020-01-02 | 一种基于分层结构的遥感场景分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111191617A CN111191617A (zh) | 2020-05-22 |
CN111191617B true CN111191617B (zh) | 2022-02-01 |
Family
ID=70710642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010002522.0A Expired - Fee Related CN111191617B (zh) | 2020-01-02 | 2020-01-02 | 一种基于分层结构的遥感场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111191617B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103164701A (zh) * | 2013-04-10 | 2013-06-19 | 苏州大学 | 手写体数字识别方法及装置 |
CN103258211A (zh) * | 2013-05-31 | 2013-08-21 | 苏州大学 | 一种手写体数字识别方法和系统 |
CN104517120A (zh) * | 2014-12-04 | 2015-04-15 | 西安电子科技大学 | 基于多路分层正交匹配的遥感图像场景分类方法 |
CN105740884A (zh) * | 2016-01-22 | 2016-07-06 | 厦门理工学院 | 基于奇异值分解和邻域空间信息的高光谱影像分类方法 |
CN105894030A (zh) * | 2016-04-01 | 2016-08-24 | 河海大学 | 基于分层多特征融合的高分辨率遥感图像场景分类方法 |
CN106611425A (zh) * | 2016-12-19 | 2017-05-03 | 辽宁工程技术大学 | 一种全色遥感图像分割方法 |
CN107153839A (zh) * | 2017-04-20 | 2017-09-12 | 电子科技大学 | 一种高光谱图像降维处理方法 |
CN108121949A (zh) * | 2017-12-04 | 2018-06-05 | 交通运输部规划研究院 | 一种基于遥感场景分类的港口矿石堆场识别方法 |
CN108830296A (zh) * | 2018-05-18 | 2018-11-16 | 河海大学 | 一种改进的基于深度学习的高分遥感影像分类方法 |
US10482334B1 (en) * | 2018-09-17 | 2019-11-19 | Honda Motor Co., Ltd. | Driver behavior recognition |
CN110490206A (zh) * | 2019-08-20 | 2019-11-22 | 江苏建筑职业技术学院 | 一种基于低秩矩阵二元分解的快速显著性目标检测算法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980896B (zh) * | 2017-03-16 | 2019-11-26 | 武汉理工大学 | 遥感分类卷积神经网络的关键卷积层超参数确定方法 |
-
2020
- 2020-01-02 CN CN202010002522.0A patent/CN111191617B/zh not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103164701A (zh) * | 2013-04-10 | 2013-06-19 | 苏州大学 | 手写体数字识别方法及装置 |
CN103258211A (zh) * | 2013-05-31 | 2013-08-21 | 苏州大学 | 一种手写体数字识别方法和系统 |
CN104517120A (zh) * | 2014-12-04 | 2015-04-15 | 西安电子科技大学 | 基于多路分层正交匹配的遥感图像场景分类方法 |
CN105740884A (zh) * | 2016-01-22 | 2016-07-06 | 厦门理工学院 | 基于奇异值分解和邻域空间信息的高光谱影像分类方法 |
CN105894030A (zh) * | 2016-04-01 | 2016-08-24 | 河海大学 | 基于分层多特征融合的高分辨率遥感图像场景分类方法 |
CN106611425A (zh) * | 2016-12-19 | 2017-05-03 | 辽宁工程技术大学 | 一种全色遥感图像分割方法 |
CN107153839A (zh) * | 2017-04-20 | 2017-09-12 | 电子科技大学 | 一种高光谱图像降维处理方法 |
CN108121949A (zh) * | 2017-12-04 | 2018-06-05 | 交通运输部规划研究院 | 一种基于遥感场景分类的港口矿石堆场识别方法 |
CN108830296A (zh) * | 2018-05-18 | 2018-11-16 | 河海大学 | 一种改进的基于深度学习的高分遥感影像分类方法 |
US10482334B1 (en) * | 2018-09-17 | 2019-11-19 | Honda Motor Co., Ltd. | Driver behavior recognition |
CN110490206A (zh) * | 2019-08-20 | 2019-11-22 | 江苏建筑职业技术学院 | 一种基于低秩矩阵二元分解的快速显著性目标检测算法 |
Non-Patent Citations (2)
Title |
---|
MULTIVARIATE PROBABILITY MODEL FOR 3-LAYER REMOTE SENSING;Charles E.Davidson 等;《2014 IEEE Geoscience and Remote Sensing Symposium》;20141106;第4640-4643页 * |
李群机器学习十年研究进展;杨梦铎 等;《计算机学报》;20150731;第1337-1356页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111191617A (zh) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN110334765B (zh) | 基于注意力机制多尺度深度学习的遥感影像分类方法 | |
Xie et al. | Multilevel cloud detection in remote sensing images based on deep learning | |
CN109344736B (zh) | 一种基于联合学习的静态图像人群计数方法 | |
CN110348399B (zh) | 基于原型学习机制和多维残差网络的高光谱智能分类方法 | |
CN108108751B (zh) | 一种基于卷积多特征和深度随机森林的场景识别方法 | |
CN110569738B (zh) | 基于密集连接网络的自然场景文本检测方法、设备和介质 | |
CN105989336B (zh) | 基于带权重的解卷积深度网络学习的场景识别方法 | |
CN110633708A (zh) | 一种基于全局模型和局部优化的深度网络显著性检测方法 | |
CN105654122B (zh) | 基于核函数匹配的空间金字塔物体识别方法 | |
CN111582091B (zh) | 基于多分支卷积神经网络的行人识别方法 | |
CN111680579B (zh) | 一种自适应权重多视角度量学习的遥感图像分类方法 | |
Gao et al. | Counting dense objects in remote sensing images | |
CN106096622B (zh) | 半监督的高光谱遥感图像分类标注方法 | |
CN106096658A (zh) | 基于无监督深度空间特征编码的航拍图像分类方法 | |
CN112949738A (zh) | 基于eecnn算法的多类不平衡高光谱图像分类方法 | |
CN112905828A (zh) | 一种结合显著特征的图像检索器、数据库及检索方法 | |
CN114627424A (zh) | 一种基于视角转化的步态识别方法和系统 | |
CN104331711B (zh) | 基于多尺度模糊测度与半监督学习的sar图像识别方法 | |
CN108830195A (zh) | 基于现场可编程门阵列fpga的图像分类方法 | |
CN107358625A (zh) | 基于SPP Net和感兴趣区域检测的高分辨SAR图像变化检测方法 | |
CN111191617B (zh) | 一种基于分层结构的遥感场景分类方法 | |
CN114612718B (zh) | 基于图结构特征融合的小样本图像分类方法 | |
CN114067155B (zh) | 基于元学习的图像分类方法、装置、产品及存储介质 | |
Lan et al. | Spatial-Transformer and Cross-Scale Fusion Network (STCS-Net) for Small Object Detection in Remote Sensing Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220201 |