CN103413142B - 一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法 - Google Patents
一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法 Download PDFInfo
- Publication number
- CN103413142B CN103413142B CN201310307436.0A CN201310307436A CN103413142B CN 103413142 B CN103413142 B CN 103413142B CN 201310307436 A CN201310307436 A CN 201310307436A CN 103413142 B CN103413142 B CN 103413142B
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- image
- land
- use change
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法,其步骤:建立遥感图像土地利用场景分类训练集;将训练集中的场景图像转换为灰度图像并进行二维小波分解;对转换后的灰度图像和二维小波分解后的子图像分别进行规则格网采样并提取SIFT特征,通过聚类生成各自独立的通用视觉词汇表;对训练集中每一幅图像进行视觉单词映射得到视觉词包特征;将训练集中每幅图像的视觉词包特征和它对应的场景类别编号作为训练数据,运用SVM算法生成分类模型;根据分类模型对任意一幅场景图像分类。本发明很好地解决了已有的基于视觉词包模型的场景分类方法对遥感图像纹理信息考虑不足的问题,可有效提高场景分类的精度。
Description
技术领域
本发明涉及遥感图像场景分类技术领域,具体的说是一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法。
背景技术
随着遥感技术的发展,空间、时间分辨率的提高,遥感图像,尤其是高空间分辨率遥感图像数据量急速增加,使得图像中土地利用场景包含多种类型的土地覆盖类型。在这种情况下,利用人工目视解译的方法进行遥感图像土地利用场景的分类需要大量时间和工作量,有限的专家也不能及时对海量数据进行处理。鉴于目视解译存在的不足,利用计算机技术进行自动化、智能化的土地利用场景分类成为当前遥感领域的一个研究热点。
针对遥感图像土地利用场景的分类,传统的方法通常采用颜色、纹理、形状等低层特征建立遥感图像土地利用场景模型,利用分类器对场景的高层信息进行推导。然而,采用基于低层特征描述的土地利用场景分类方法由于缺乏中间语义的图像表示,所以泛化性差,很难用于处理训练集以外的场景图像。为了克服遥感图像低层视觉特征与高层语义之间的鸿沟,基于中层特征对土地利用场景语义建模描述的方法逐渐得到广泛的关注。尤其是近年来的视觉词包(bag-of-visual-words,BOVW)模型在图像分析和图像分类的应用中取得了巨大成功,成为一种新的、有效的图像内容表达的研究思路,并在遥感图像土地利用场景分类中取得了一定成果。视觉词包模型的优点在于无需分析场景图像中的具体目标组成,而是应用图像场景的整体统计信息,将量化后的图像低层特征视为视觉单词,通过图像的视觉单词分布来表达图像场景内容,为图像场景分类提供基础数据。
传统的视觉词包模型对于图像场景中的空间信息考虑不足,不少学者提出了一系列改进的方法,其中比较有代表性的方法有:基于空间金字塔匹配(Spatial PyramidMatching,SPM)的视觉词包模型(参考文献:Svetlana Lazebnik,Cordelia Schmid andJean Ponce,“Beyond bags of features:spatial pyramid matching for recognizingnatural scene categories”,2006IEEE Computer Society Conference on ComputerVision and Pattern Recognition,2006,pp.2169-2178.[斯维特拉娜·雷斯伯尼克,科迪莉亚·施密德,杰·帮塞,“超越视觉词包:基于空间金字塔匹配的自然场景类别识别”,2006年IEEE计算机学会计算机视觉与模式识别会议,2006,2169-2178.]),基于多分辨率表达的视觉词包模型(参考文献:Li Zhou,Zongtan Zhou and Dewen Hu,“Sceneclassification using a multi-resolution bag-of-features model”,PatternRecognition,2013,vo1.46,no.1,pp.424-433.[周立,周宗谭,胡德文,“基于多分辨率视觉词包模型的场景分类”,模式识别,2013,第46卷,第1期,424-433.]),以及基于空间共生核的视觉词包模型(参考文献:Yi Yang and Shawn Newsam,“Bag-Of-Visual-Words andSpatial Extensions for Land-Use Classification”,ACM International Conferenceon Advances in Geographic Information Systems,2010,pp.270-279.[杨毅,肖恩·纽萨姆,“基于视觉词包和空间扩展的土地利用分类”,ACM地理信息系统进展国际会议,2010,270-279.])等。虽然这些方法在图像的场景分类中取得了不错的结果,但是这些方法所考虑的空间信息只是图像场景的全局的空间分布信息,对遥感图像丰富的纹理信息考虑不充分,造成了利用上述视觉词包模型方法进行遥感图像土地利用场景分类时信息利用度不足的问题。
发明内容
针对上述现有技术在进行遥感图像土地利用场景分类时存在的问题,本发明要解决的技术问题是如何利用遥感图像中丰富的纹理信息,结合土地利用场景的空间分布来进行遥感图像土地利用场景分类。本发明提供一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法,首先将土地利用遥感场景图像转换为灰度图像,并进行二维小波分解,然后对原灰度图像和分解后的子图像采用密集规则格网采样的方式提取局部特征,之后利用K均值聚类分别对原灰度图和分解后的子图像采样生成的局部特征进行独立的聚类并生成各自的视觉词汇表,同时基于各自的视觉词汇表得到场景图像的最终的视觉词包特征表示,最后采用支持向量机(Support Vector Machine,SVM)分类土地利用遥感场景图像。本发明通过利用二维小波分解方法在视觉词包模型构建中加入了土地利用场景图像的纹理信息,弥补了现有基于视觉词包的场景分类方法对遥感图像纹理信息利用度不足的问题,提高了分类正确率。
本发明的技术方案提供的一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法,其特征在于包括以下实施步骤:
(1)建立遥感图像土地利用场景分类训练集;
(2)将遥感图像土地利用场景分类训练集中的场景图像转换为灰度图像,并进行二维小波分解;
(3)对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像分别进行规则格网采样并提取尺度不变特征(Scale Invariant Feature Transform,SIFT);
(4)对遥感图像土地利用场景分类训练集中的所有图像,将转换后的灰度遥感土地利用场景图像和二维小波分解后不同图像的SIFT特征通过聚类生成各自独立的通用视觉词汇表;
(5)对遥感图像土地利用场景分类训练集中每一幅遥感土地利用场景图像进行视觉单词映射,提取场景图像视觉词包特征;
(6)将遥感图像土地利用场景分类训练集中每幅图像的视觉词包特征和场景图像对应的场景类别编号作为训练数据,运用SVM算法生成遥感图像土地利用场景分类模型;
(7)根据遥感图像土地利用场景分类模型对任意一幅遥感土地利用场景图像进行分类。
上述实施步骤的特征在于:
步骤(1)所述的遥感图像土地利用场景分类训练集的建立包括以下步骤:
(1-1)根据实际土地利用场景类型定义C个土地利用场景类别,类别编号为1~C,C为大于0的正整数;
(1-2)对每个土地利用场景图像类别,随机选择T幅图像作为该类别的图像场景分类训练样本,T为正整数,取值范围为该类别图像场景分类训练样本数的1/3~1/2;
(1-3)将所有C类的土地利用场景图像的训练样本作为土地利用场景分类训练样本集。
步骤(2)所述的遥感图像土地利用场景分类训练集中的场景图像灰度转换及二维小波分解包括以下步骤:
(2-1)对于遥感图像土地利用场景分类训练集中的场景图像转换为灰度图像,对于遥感的全色图像,直接取该波段;对于多光谱图像,选取其中一个波段;对于真彩色航空遥感图像,则按照V=0.2989×R+0.5870×G+0.1140×B进行灰度转换,其中,V为转换后的灰度场景图像的灰度值,R为真彩色图像中红波段的灰度值,G为真彩色图像中绿波段的灰度值,B为真彩色图像中蓝波段的灰度值;
(2-2)对遥感图像土地利用场景分类训练集中的每一幅转换后的灰度场景图像进行L级的二维小波分解,L为正整数,建议L取1或2。对于每一级二维小波分解均会得到四幅分解后的子图像cA,cH,cV,cD,其中cA为分解后的低分辨率图像,cH为分解后水平方向的图像,cV为分解后竖直方向的图像,cD为分解后对角线方向的图像。第1次二维小波分解对原始转换后的灰度场景图像进行,之后第K次二维小波分解均是对第K-1次分解后得到的子图像cA,即低分辨率图像进行,K为大于2的正整数。
步骤(3)所述的对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像分别进行规则格网采样并提取SIFT特征包括以下步骤:
(3-1)对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像分别进行规则格网采样得到均匀的图像块,每个图像块的大小为N×N,图像块之间的间隔为M×M(当M小于N时,采样的网格会产生重叠),N为正整数,且为2的整数次幂,建议取值为8或16,M为正整数,建议取值为N/2;
(3-2)对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像分别采样所得到的图像块,利用SIFT特征提取方法提取SIFT特征,计算图像块整个区域上的梯度方向直方图得到SIFT特征,特征维数为128维。
步骤(4)所述的对遥感图像土地利用场景分类训练集中的所有图像,将转换后的灰度遥感土地利用场景图像和二维小波分解后不同图像的SIFT特征通过聚类生成各自独立的通用视觉词汇表包括以下步骤:
(4.1)对遥感图像土地利用场景分类训练集中的所有转换后的灰度图像经采样和特征提取得到的SIFT特征进行K均值聚类,将聚类得到的每一个聚类中心作为一个视觉单词,将这K个聚类中心的取值及其对应的视觉单词编号作为转换后的灰度场景图像的通用视觉词汇表V0。对遥感图像土地利用场景分类训练集中的所有二维小波分解得到的不同子图像经采样和特征提取得到的SIFT特征按照同样的方法分别进行K均值聚类,得到各自的通用视觉词汇表Vi,i为正整数,表示二维小波分解后得到的子图像的编号,其最小值为1,最大值为二维小波分解后得到的子图像的总数。K为正整数,一般取值为50~300,建议K取值为250。
步骤(5)所述的对遥感图像土地利用场景分类训练集中每一幅遥感土地利用场景图像进行视觉单词映射,提取场景图像视觉词包特征包括以下步骤:
(5-1)对遥感图像土地利用场景分类训练集中每一幅遥感土地利用场景图像,采用视觉单词映射方法将灰度变换后的灰度图像和二维小波分解后的各子图像中包含图像块的SIFT特征映射到各自对应的视觉单词:计算灰度变换后的灰度图像中每个图像块的SIFT特征与其对应的通用视觉词汇表中的每个视觉单词所对应特征值之间的欧式距离,找出欧式距离最小的视觉单词的编号,并将其作为相应的图像块的SIFT特征映射结果;同样的方法,对于二维小波分解后的各子图像,分别计算各子图像中每个图像块的SIFT特征与其各自对应的通用视觉词汇表中的每个视觉单词所对应特征值之间的欧式距离,找出欧式距离最小的视觉单词的编号,并将其作为相应的图像块的SIFT特征映射结果;
(5-2)根据所得到的来自原始灰度遥感土地利用场景图像和二维小波分解后的子图像中包含的图像块及其所对应的视觉单词,统计各视觉词汇表中每个视觉单词在与之相对应的灰度场景图像或二维小波分解后的子图像区域中出现的次数,并以向量[fl,...fj,...,fk]表示灰度场景图像的视觉词包特征描述,向量[fl i,...,fj i,...,fk i]表示二维小波分解后的每个子图像的视觉词包特征描述,fj表示灰度场景图像所对应的视觉词汇表中第j个视觉单词在图像区域中出现的次数,fj i表示二维小波分解后的第i幅子图像所以应的视觉词汇表中第j个视觉单词在图像区域中出现的次数,其中j为正整数,l≤j≤K,K为步骤(4-1)中生成的通用视觉词汇表的大小,i为正整数,表示二维小波分解后得到的子图像的编号,最小值为1,最大值为二维小波分解后得到的子图像的总数;
(5-3)将计算所得到的灰度场景图像和二维小波分解后的各子图像所对应的视觉词包特征描述向量进行拼接,得到最终原始遥感土地利用场景图像的视觉词包特征描述。
步骤(6)所述的将遥感图像土地利用场景分类训练集中每幅图像的视觉词包特征和场景图像对应的场景类别编号作为训练数据,运用SVM算法生成遥感图像土地利用场景分类模型包括以下步骤:
(6-1)将遥感图像土地利用场景分类训练集中每幅图像的视觉词包特征和场景图像对应的场景类别编号作为训练数据,采用一对一SVM,在每两类不同的土地利用场景的训练样本之间都学习生成一个SVM分类模型,最终将所有的SVM分类模型共同作为遥感图像土地利用场景分类模型。对于步骤(1)中构建的包含C个类别的土地利用场景分类训练样本集,需要构造C(C-1)/2个SVM分类模型。
步骤(7)所述的根据遥感图像土地利用场景分类模型对任意一幅遥感土地利用场景图像进行分类包括以下步骤:
(7-1)给定任意一幅遥感土地利用场景图像,采用步骤(5)所述的方法提取该场景图像的视觉词包特征;
(7-2)采取投票机制,综合考虑步骤(6-1)中所有C(C-1)/2个SVM分类模型对场景图像的视觉词包特征所属类别进行判定:有一个SVM分类模型判定场景图像的视觉词包特征属于第s类,则意味着第s类获得了一票,最后得票数最多的类别就是该遥感土地利用场景图像所属的类别,其中,s为正整数,且l≤s≤C。
本发明具有以下有益效果及优点
1、解决了已有的基于视觉词包模型的场景分类方法在遥感图像土地利用场景分类中对遥感图像纹理信息考虑不足的问题,通过利用二维小波分解方法在视觉词包模型构建中加入了遥感土地利用场景图像的纹理信息,进而提高了遥感图像中纹理信息的利用程度和分类正确率。
2、和Lazebnik等人提出的基于空间金字塔匹配的视觉词包模型,Li Zhou等人提出的基于多分辨率表达的视觉词包模型,以及Yi Yang等人提出的基于空间共生核的视觉词包模型相比,本发明通过在步骤(2)中二维小波分解方法的引入,不仅利用了遥感土地利用场景图像中的纹理信息,而且也利用到了二维小波分解分解在多分辨率表达方面的特点,从而在视觉词包特征描述中同时考虑到了遥感土地利用场景图像的空间分布和纹理信息,因此,相比于其他三种方法能得到更高的准确率。
附图说明
图1为本发明基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法流程图;
图2为本发明实施例中所采用的国际公开的标准遥感土地利用场景图像库中的样例图像;
图3为遥感土地利用场景图像灰度转换并进行二维小波分解的流程图;
图4为对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像分别进行规则格网采样并提取SIFT特征的流程图;
图5为对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像生成各自独立的通用视觉词汇表的流程图;
图6为提取遥感土地利用场景图像视觉词包特征的流程图;
图7为在图2所示的国际公开的标准遥感土地利用场景图像库中采用本发明进行遥感图像土地利用场景分类的准确率示意图;
图8为采用本发明方法进行遥感图像土地利用场景分类与其他方法的性能比较。
具体实施方式
下面结合说明书附图通过实施例对本发明作进一步阐述。
图1为本发明基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法流程图,具体步骤包括:
(1)建立遥感图像土地利用场景分类训练集;
(2)将遥感图像土地利用场景分类训练集中的场景图像转换为灰度图像,并进行二维小波分解;
(3)对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像分别进行规则格网采样并提取尺度不变特征(Scale Invariant Feature Transform,SIFT);
(4)对遥感图像土地利用场景分类训练集中的所有图像,将转换后的灰度遥感土地利用场景图像和二维小波分解后不同图像的SIFT特征通过聚类生成各自独立的通用视觉词汇表;
(5)对遥感图像土地利用场景分类训练集中每一幅遥感土地利用场景图像进行视觉单词映射,提取场景图像视觉词包特征;
(6)将遥感图像土地利用场景分类训练集中每幅图像的视觉词包特征和场景图像对应的场景类别编号作为训练数据,运用SVM算法生成遥感图像土地利用场景分类模型;
(7)根据遥感图像土地利用场景分类模型对任意一幅遥感土地利用场景图像进行分类。
步骤(1)建立遥感图像土地利用场景分类训练集包括以下步骤:
(1-1)根据实际土地利用场景类型定义C(本实施例取C=21)个土地利用场景类别,类别编号为1~C,C为大于0的正整数;
(1-2)对每个土地利用场景图像类别,随机选择T(本实施例取T=50)幅图像作为该类别的图像场景分类训练样本,T为正整数;
(1-3)将所有C类的土地利用场景图像的训练样本作为土地利用场景分类训练样本集,本实施例中,一共1050幅场景图像作为遥感图像土地利用场景分类训练样本集,而每类场景中剩余的场景图像则全部作为待分类的场景图像。
图2为本发明实施例中所采用的国际公开的标准遥感土地利用场景图像库中的样例图像,该场景库中定义了21类土地利用场景类别,分别是农田,飞机场,棒球场,海滩,建筑物,丛林,高密度居民区,森林,高速公路,高尔夫球场,海港,十字路口,中密度居民区,房车停放场,立交桥,停车场,河流,飞机跑道,低密度居民区,储罐和网球场。每一个场景类别都包含100幅场景图像。
步骤(2)将遥感图像土地利用场景分类训练集中的场景图像转换为灰度图像,并进行二维小波分解的流程如图3所示,包括以下步骤:
(2-1)对于本实施例中采用的真彩色航空遥感图像,按照V=0.2989×R+0.5870×G+0.1140×B进行灰度转换,其中,V为转换后的灰度场景图像的灰度值,R为真彩色图像中红波段的灰度值,G为真彩色图像中绿波段的灰度值,B为真彩色图像中蓝波段的灰度值;
(2-2)对每一幅转换后的灰度场景图像进行L(本实施例取L=1)级的二维小波分解,L为正整数。经过对原始转换后的灰度场景图像进行二维小波分解会得到四幅分解后的子图像cA,cH,cV,cD,其中cA为分解后的低分辨率图像,cH为分解后水平方向的图像,cV为分解后竖直方向的图像,cD为分解后对角线方向的图像。
步骤(3)对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像分别进行规则格网采样并提取SIFT特征的流程如图4所示,包括以下步骤:
(3-1)对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像分别进行规则格网采样得到均匀的图像块,每个图像块的大小为N×N(本实施例取N=16),图像块之间的间隔为M×M(本是实施例取N=8),N为正整数,且为2的整数次幂,M为正整数,;
(3-2)对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像分别采样所得到的图像块,利用SIFT特征提取方法提取SIFT特征,计算图像块整个区域上的梯度方向直方图得到SIFT特征,特征维数为128维。
步骤(4)对转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像生成各自独立的通用视觉词汇表的流程如图5所示,包括以下步骤:
(4-1)对遥感图像土地利用场景分类训练集中的所有转换后的灰度图像经采样和特征提取得到的SIFT特征进行K均值聚类,将聚类得到的每一个聚类中心作为一个视觉单词,将这K(本实施例取K=250)个聚类中心的取值及其对应的视觉单词编号作为转换后的灰度场景图像的通用视觉词汇表V0,K为正整数。对遥感图像土地利用场景分类训练集中的所有二维小波分解得到的不同子图像经采样和特征提取得到的SIFT特征按照同样的方法分别进行K均值聚类,得到各自的通用视觉词汇表Vi,i为正整数(本实施例中取i=1,2,3,4),表示二维小波分解后得到的子图像的编号。
步骤(5)提取遥感土地利用场景图像视觉词包特征的流程如图6所示,包括以下步骤:
(5.1)对遥感图像土地利用场景分类训练集中每一幅遥感土地利用场景图像,采用视觉单词映射方法将灰度变换后的灰度图像和二维小波分解后的各子图像中包含图像块的SIFT特征映射到各自对应的视觉单词:计算灰度变换后的灰度图像中每个图像块的SIFT特征与其对应的通用视觉词汇表中的每个视觉单词所对应特征值之间的欧式距离,找出欧式距离最小的视觉单词的编号,并将其作为相应的图像块的SIFT特征映射结果;同样的方法,对于二维小波分解后的各子图像,分别计算各子图像中每个图像块的SIFT特征与其各自对应的通用视觉词汇表中的每个视觉单词所对应特征值之间的欧式距离,找出欧式距离最小的视觉单词的编号,并将其作为相应的图像块的SIFT特征映射结果;
(5-2)根据所得到的来自原始灰度遥感土地利用场景图像和二维小波分解后的子图像中包含的图像块及其所对应的视觉单词,统计各视觉词汇表中每个视觉单词在与之相对应的灰度场景图像或二维小波分解后的子图像区域中出现的次数,并以向量[fl,...fj...,fk]表示灰度场景图像的视觉词包特征描述,向量[fl i,...,fj i,...,fk i]表示二维小波分解后的每个子图像的视觉词包特征描述,fj表示灰度场景图像所对应的视觉词汇表中第j个视觉单词在图像区域中出现的次数,fj l表示二维小波分解后的第i幅子图像所以应的视觉词汇表中第j个视觉单词在图像区域中出现的次数,其中j为正整数,1≤j≤K(本实施例中取K=250),K为步骤(4-1)中生成的通用视觉词汇表的大小,i为正整数(本实施例中取i=1,2,3,4),表示二维小波分解后得到的子图像的编号;
(5-3)将计算所得到的灰度场景图像和二维小波分解后的各子图像所对应的视觉词包特征描述向量进行拼接,得到最终原始遥感土地利用场景图像的视觉词包特征描述。
步骤(6)将遥感图像土地利用场景分类训练集中每幅图像的视觉词包特征和场景图像对应的场景类别编号作为训练数据,运用SVM算法生成遥感图像土地利用场景分类模型,包括以下步骤:
(6-1)将遥感图像土地利用场景分类训练集中每幅图像的视觉词包特征和场景图像对应的场景类别编号作为训练数据,采用一对一SVM,在每两类不同的土地利用场景的训练样本之间都学习生成一个SVM分类模型,最终将所有的SVM分类模型共同作为遥感图像土地利用场景分类模型。对于步骤(1)中构建的包含C个类别的土地利用场景分类训练样本集,需要构造C(C-1)/2(本实例中为21×(21-1)/2=210)个SVM分类模型。
步骤(7)根据遥感图像土地利用场景分类模型对任意一幅遥感土地利用场景图像进行分类,包括以下步骤:
(7-1)给定任意一幅遥感土地利用场景图像,采用步骤(5)所述的方法提取该场景图像的视觉词包特征;
(7-2)采取投票机制,综合考虑步骤(6-1)中所有C(C-1)/2(本实例中为21×(21-1)/2=210)个SVM分类模型对场景图像的视觉词包特征所属类别进行判定:有一个SVM分类模型判定场景图像的视觉词包特征属于第s类,则意味着第s类获得了一票,最后得票数最多的类别就是该遥感土地利用场景图像所属的类别,其中,s为正整数,且l≤s≤C(本实施例中C=21)。
图7为在图2所示的国际公开的标准遥感土地利用场景图像库中采用本发明进行遥感图像土地利用场景分类的准确率示意图。具体实施步骤如下:对于所有待分类的遥感土地利用场景图像,比较其按照步骤(7)的方法预测得到的类别编号与其原所属类别编号(类别编号与图2中各类别名称相互对应),得到场景分类的准确率,通过重复上述步骤(1)~(7)过程5次,得到5次场景分类的准确率,通过对其取平均值得到平均场景分类准确率。
图8为采用本发明方法进行遥感图像土地利用场景分类与其他方法的性能比较。图中的平均分类精度通过对图2所示的21类土地利用场景的平均分类准确率取平均值得到。本发明方法的平均分类精度即为对图7所示的21个平均场景分类准确率取平均值,由于本发明通过引入二维小波分解方法,不仅利用了遥感土地利用场景图像中的纹理信息,而且也利用到了二维小波分解分解在多分辨率表达方面的特点,从而在视觉词包特征描述中同时考虑到了遥感土地利用场景图像的空间分布和纹理信息,因此,相比于其他三种只考虑了场景图像空间分布信息的方法,提高了土地利用场景分类的精度。
应当指出,以上所述具体实施方式可以使本领域的技术人员更全面地理解本发明,但不以任何方式限制本发明。因此,本领域技术人员应当理解,仍然可以对本发明进行修改或者等同替换;而一切不脱离本发明的精神和技术实质的技术方案及其改进,其均应涵盖在本发明专利的保护范围当中。
Claims (4)
1.一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法,其特征在于:
通过对灰度转换后的灰度遥感土地利用场景图像和二维小波分解后的子图像的尺度不变特征(Scale Invariant Feature Transform,SIFT)向量分别进行聚类,生成各自独立的通用视觉词汇表;
对遥感图像土地利用场景分类训练集中每一幅遥感土地利用场景图像所对应的灰度场景图像和二维小波分解后的各子图像分别进行视觉单词映射,分别提取各自的视觉词包特征描述向量,通过向量拼接,得到最终原始遥感土地利用场景图像的视觉词包特征描述;
根据遥感图像土地利用场景分类模型,对任意一幅遥感土地利用场景图像的分类结果以类别形式输出。
2.根据权利要求1中所述的方法,其特征在于:
分别针对灰度转换后的灰度遥感土地利用场景图像的SIFT特征和二维小波分解后的子图像的SIFT特征进行K均值聚类,得到各自的通用视觉词汇表;对遥感图像土地利用场景分类训练集中的所有转换后的灰度图像经采样和特征提取得到的SIFT特征进行K均值聚类,将聚类得到的每一个聚类中心作为一个视觉单词,将这K个聚类中心的取值及其对应的视觉单词编号作为转换后的灰度场景图像的通用视觉词汇表V0;对遥感图像土地利用场景分类训练集中的所有二维小波分解得到的不同子图像经采样和特征提取得到的SIFT特征按照同样的方法分别进行K均值聚类,得到各自的通用视觉词汇表Vi,i为正整数,表示二维小波分解后得到的子图像的编号,其最小值为1,最大值为二维小波分解后得到的子图像的总数,K为正整数,取值为50~300。
3.根据权利要求1中所述的方法,其特征在于:
对遥感图像土地利用场景分类训练集中每一幅遥感土地利用场景图像,采用视觉单词映射方法将灰度变换后的灰度图像和二维小波分解后的各子图像中包含图像块的SIFT特征映射到各自对应的视觉单词:计算灰度变换后的灰度图像中每个图像块的SIFT特征与其对应的通用视觉词汇表中的每个视觉单词所对应特征值之间的欧式距离,找出欧式距离最小的视觉单词的编号,并将其作为相应的图像块的SIFT特征映射结果;同样的方法,对于二维小波分解后的各子图像,分别计算各子图像中每个图像块的SIFT特征与其各自对应的通用视觉词汇表中的每个视觉单词所对应特征值之间的欧式距离,找出欧式距离最小的视觉单词的编号,并将其作为相应的图像块的SIFT特征映射结果;
根据所得到的来自原始灰度遥感土地利用场景图像和二维小波分解后的子图像中包含的图像块及其所对应的视觉单词,统计各视觉词汇表中每个视觉单词在与之相对应的灰度场景图像或二维小波分解后的子图像区域中出现的次数,并以向量[f1,…,fj,…,fK]表示灰度场景图像的视觉词包特征描述,向量[f1 i,…,fj i,…,fK i]表示二维小波分解后的每个子图像的视觉词包特征描述,fj表示灰度场景图像所对应的视觉词汇表中第j个视觉单词在图像区域中出现的次数,fj i表示二维小波分解后的第i幅子图像所以应的视觉词汇表中第j个视觉单词在图像区域中出现的次数,其中j为正整数,1≤j≤K,K为生成的通用视觉词汇表的大小,i为正整数,表示二维小波分解后得到的子图像的编号,最小值为1,最大值为二维小波分解后得到的子图像的总数;
将计算所得到的灰度场景图像和二维小波分解后的各子图像所对应的视觉词包特征描述向量进行拼接,得到最终原始遥感土地利用场景图像的视觉词包特征描述。
4.根据权利要求1中所述的方法,其特征在于:
对给定的任意一幅遥感土地利用场景图像进行分类时,采取投票机制,综合考虑所有已训练的一对一SVM分类模型对场景图像的视觉词包特征所属类别进行判定,直接以类别形式输出分类结果:有一个SVM分类模型判定场景图像的视觉词包特征属于第s类,则意味着第s类获得了一票,最后得票数最多的类别就是该遥感土地利用场景图像所属的类别,其中,s为正整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310307436.0A CN103413142B (zh) | 2013-07-22 | 2013-07-22 | 一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310307436.0A CN103413142B (zh) | 2013-07-22 | 2013-07-22 | 一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103413142A CN103413142A (zh) | 2013-11-27 |
CN103413142B true CN103413142B (zh) | 2017-02-08 |
Family
ID=49606149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310307436.0A Active CN103413142B (zh) | 2013-07-22 | 2013-07-22 | 一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103413142B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103942564B (zh) * | 2014-04-08 | 2017-02-15 | 武汉大学 | 基于非监督特征学习的高分辨率遥感影像场景分类方法 |
CN103984963B (zh) * | 2014-05-30 | 2017-02-01 | 中国科学院遥感与数字地球研究所 | 一种高分辨率遥感图像场景分类方法 |
CN105825221A (zh) * | 2015-01-07 | 2016-08-03 | 王伟 | 土地自动演化分类方法 |
CN104680173B (zh) * | 2015-01-26 | 2018-04-27 | 河海大学 | 一种遥感图像场景分类方法 |
CN105787501B (zh) * | 2015-12-17 | 2019-03-19 | 武汉大学 | 输电线路走廊区域自动选择特征的植被分类方法 |
CN105740880B (zh) * | 2016-01-21 | 2019-07-23 | 西安理工大学 | 图像局部特征语义分布结构和样本分布结构融合编码方法 |
CN106529583A (zh) * | 2016-11-01 | 2017-03-22 | 哈尔滨工程大学 | 一种基于视觉词袋模型的室内场景认知方法 |
CN106919680B (zh) * | 2017-02-28 | 2019-06-28 | 山东师范大学 | 一种利用poi数据进行地表覆盖分类的方法及系统 |
CN106991382A (zh) * | 2017-03-13 | 2017-07-28 | 南京信息工程大学 | 一种遥感场景分类方法 |
CN107578003B (zh) * | 2017-08-29 | 2020-04-14 | 中国科学院遥感与数字地球研究所 | 一种基于地理标记图像的遥感图像迁移学习方法 |
CN109828181A (zh) * | 2019-01-09 | 2019-05-31 | 上海电力学院 | 一种基于modwt的变压器绕组轻微故障检测方法 |
CN111310541B (zh) * | 2019-11-27 | 2023-09-29 | Oppo广东移动通信有限公司 | 一种场景预测方法及终端、存储介质 |
CN112383488B (zh) * | 2020-10-26 | 2022-06-17 | 中山大学 | 一种适用于加密与非加密数据流的内容识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102819747A (zh) * | 2012-07-18 | 2012-12-12 | 浙江农林大学 | 林业业务图像自动分类方法 |
CN103198333A (zh) * | 2013-04-15 | 2013-07-10 | 中国科学院电子学研究所 | 一种高分辨率遥感图像自动语义标记方法 |
-
2013
- 2013-07-22 CN CN201310307436.0A patent/CN103413142B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102819747A (zh) * | 2012-07-18 | 2012-12-12 | 浙江农林大学 | 林业业务图像自动分类方法 |
CN103198333A (zh) * | 2013-04-15 | 2013-07-10 | 中国科学院电子学研究所 | 一种高分辨率遥感图像自动语义标记方法 |
Non-Patent Citations (2)
Title |
---|
一种基于对象和多种特征整合的分类识别方法研究;崔林丽等;《遥感学报》;20060131;第10卷(第1期);第104-110页 * |
用于图像场景分类的空间视觉词袋模型;王宇新等;《计算机科学》;20110831;第38卷(第8期);第265-268页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103413142A (zh) | 2013-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103413142B (zh) | 一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法 | |
CN110111335B (zh) | 一种自适应对抗学习的城市交通场景语义分割方法及系统 | |
Cui et al. | Semantic segmentation of remote sensing images using transfer learning and deep convolutional neural network with dense connection | |
CN110619282B (zh) | 一种无人机正射影像建筑物自动提取方法 | |
CN113780296B (zh) | 基于多尺度信息融合的遥感图像语义分割方法及系统 | |
US11854244B2 (en) | Labeling techniques for a modified panoptic labeling neural network | |
CN102622607B (zh) | 一种基于多特征融合的遥感图像分类方法 | |
CN103578119B (zh) | 基于超像素的Codebook动态场景中目标检测方法 | |
CN112183258A (zh) | 一种基于上下文信息和注意力机制的遥感图像道路分割方法 | |
CN104680173B (zh) | 一种遥感图像场景分类方法 | |
CN109859190A (zh) | 一种基于深度学习的目标区域检测方法 | |
CN103942564B (zh) | 基于非监督特征学习的高分辨率遥感影像场景分类方法 | |
Wulamu et al. | Multiscale road extraction in remote sensing images | |
CN111639587B (zh) | 基于多尺度谱空卷积神经网络的高光谱图像分类方法 | |
CN113705580B (zh) | 基于深度迁移学习的高光谱图像分类方法 | |
CN110334578A (zh) | 图像级别标注自动提取高分遥感影像建筑物的弱监督方法 | |
CN109299673A (zh) | 城市群绿度空间提取方法及介质 | |
CN113256649B (zh) | 一种基于深度学习的遥感图像选站选线语义分割方法 | |
CN103984963B (zh) | 一种高分辨率遥感图像场景分类方法 | |
CN109993269A (zh) | 基于注意力机制的单张图像人群计数方法 | |
CN112419333B (zh) | 一种遥感影像自适应特征选择分割方法及系统 | |
Feng et al. | Embranchment cnn based local climate zone classification using sar and multispectral remote sensing data | |
CN109635726A (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN114283285A (zh) | 交叉一致性自训练遥感图像语义分割网络训练方法及装置 | |
Liu et al. | Land use and land cover mapping in China using multimodal fine-grained dual network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |