CN104036293A - 基于快速二值编码的高分辨率遥感影像场景分类方法 - Google Patents

基于快速二值编码的高分辨率遥感影像场景分类方法 Download PDF

Info

Publication number
CN104036293A
CN104036293A CN201410262170.7A CN201410262170A CN104036293A CN 104036293 A CN104036293 A CN 104036293A CN 201410262170 A CN201410262170 A CN 201410262170A CN 104036293 A CN104036293 A CN 104036293A
Authority
CN
China
Prior art keywords
scene
scene unit
remote sensing
coding
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410262170.7A
Other languages
English (en)
Other versions
CN104036293B (zh
Inventor
夏桂松
胡凡
张良培
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201410262170.7A priority Critical patent/CN104036293B/zh
Publication of CN104036293A publication Critical patent/CN104036293A/zh
Application granted granted Critical
Publication of CN104036293B publication Critical patent/CN104036293B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种基于快速二值编码的高分辨率遥感影像场景分类方法,包括步骤:步骤1,划分待分类遥感影像获得场景单元;步骤2,从场景单元中提取尺寸相同的图像块作为局部图像块训练样本;步骤3,采用非监督学习法学习局部图像块训练样本获得滤波器组;步骤4,将场景单元与滤波器组中各滤波器分别做卷积获得各场景单元的幅滤波器响应图,采用二值编码法分别融合各场景单元的幅滤波器响应图获得各场景单元的全局特征描述;步骤5,基于场景单元的全局特征描述进行场景单元分类。本发明在保证场景分类精度的前提下,大大降低了非监学习法的计算代价。

Description

基于快速二值编码的高分辨率遥感影像场景分类方法
技术领域
本发明属于遥感影像智能化分析技术领域,特别涉及高分辨率遥感影像场景分类方法,是一种基于快速二值编码的高分辨率遥感影像场景分类方法。
背景技术
遥感影像中的场景是指影像中具有特定语义含义的局部区域,例如一幅城区遥感影像中通常包括商业区、居民区、工业区等多种不同类别场景。遥感影像场景分类能够对整幅遥感影像做出最直观的理解,能大大方便其他领域工作者(比如城市建设规划人员)做出正确的决策或规划,因此遥感影像场景分类成为了智能化遥感信息处理领域的重要任务。
基于滤波器组的方法是信号处理分析领域的重要组成部分。滤波器组不仅在一般信号理论分析中有着广泛应用,而且在图像处理和图像理解上都有着十分成功的应用。其中,基于滤波器组的纹理图像识别就是一个经典的应用[1~3]。首先,将纹理图像与已设定好的一组滤波器分别做卷积运算,连接各个滤波器的响应;然后,利用量化的方法构造纹理基元(textons);最后,统计每幅纹理图像中不同纹理基元出现的次数,将纹理基元频率直方图作为纹理图像特征。尽管这种方法在纹理识别中非常有效,识别精度通常也比较高,但是计算代价太大,主要原因在于构造纹理基元时,需要大量的训练数据,导致量化方法(实际情况一般采用K-means算法)的训练过程十分缓慢。
近些年来,在图像特征表示领域出现了很多二进制局部特征描述算子[4-8],这些二进制局部特征描述算子计算简便快速,且便于存储,因此得到了越来越多研究者的关注。但是这种二进制的特征表示方法会使得特征的鲁棒性和判别行较弱,往往会影响图像分类精度。
文中涉及如下关参考文献:
[1]T.Leung and J.Malik,"Representing and recognizing the visual appearance of materialsusing three-dimensional textons,"International Journal of Computer Vision,vol.43,pp.29-44,2001.
[2]M.Varma and A.Zisserman,"A statistical approach to texture classification from singleimages,"International Journal of Computer Vision,vol.62,pp.61-81,2005.
[3]L.Liu and P.W.Fieguth,"Texture classification from random features,"Pattern Analysisand Machine Intelligence,IEEE Transactions on,vol.34,pp.574-586,2012.
[4]T.Ojala,M.Pietikainen,and T.Maenpaa,"Multiresolution gray-scale and rotationinvariant texture classification with local binary patterns,"Pattern Analysis and MachineIntelligence,IEEE Transactions on,vol.24,pp.971-987,2002.
[5]T.Ahonen,E.Rahtu,V.Ojansivu,and J.Heikkila,"Recognition of blurred faces usinglocal phase quantization,"in Pattern Recognition,2008.ICPR2008.19th International Conferenceon,2008,pp.1-4.
[6]M.Calonder,V.Lepetit,C.Strecha,and P.Fua,"Brief:Binary robust independentelementary features,"in Computer Vision–ECCV2010,ed:Springer,2010,pp.778-792.
[7]S.Leutenegger,M.Chli,and R.Y.Siegwart,"BRISK:Binary robust invariant scalablekeypoints,"in Computer Vision(ICCV),2011IEEE International Conference on,2011,pp.2548-2555.
[8]A.Alahi,R.Ortiz,and P.Vandergheynst,"Freak:Fast retina keypoint,"in Computer Visionand Pattern Recognition(CVPR),2012IEEE Conference on,2012,pp.510-517.
发明内容
针对现有技术存在的不足,本发明结合二进制特征描述算子和滤波器组的优点,提出了一种分类精度更高的、基于快速二值编码的高分辨率遥感影像场景分类方法,尤其适用于大尺寸高分辨率遥感影像场景分类。
为解决上述技术问题,本发明采用如下技术方案:
基于快速二值编码的高分辨率遥感影像场景分类方法,包括步骤:
步骤1,划分待分类遥感影像获得场景单元,并将场景单元的彩色像素转化成灰度像素;
步骤2,从场景单元中提取尺寸相同的图像块作为局部图像块训练样本;
步骤3,采用非监督学习法学习局部图像块训练样本获得滤波器组;
步骤4,将场景单元与滤波器组中各滤波器分别做卷积获得各场景单元的L幅滤波器响应图,L为滤波器组中滤波器数量,采用二值编码法分别融合各场景单元的L幅滤波器响应图获得各场景单元的全局特征描述;
所述的采用二值编码法分别融合各场景单元的L幅滤波器响应图获得各场景单元的全局特征描述,进一步包括子步骤:
4.1将滤波器响应图上各位置响应值分别与预设阈值比较,响应值大于阈值的位置编码为1,响应值小于阈值的位置编码为0,从而获得场景单元的L幅二值编码图;
4.2将场景单元的L幅二值编码图上对应位置的编码组合成L位二进制数,并将二进制数转化为十进制数,获得场景单元的十进制编码图;
4.3以十进制编码图上十进制响应值的频率直方图作为场景单元的全局特征描述;
步骤5,基于场景单元的全局特征描述进行场景单元分类。
步骤1具体为:
采用均匀网格划分遥感影像获得一系列子网格,子网格代表一个场景单元,相邻场景单元间无重叠。
步骤3进一步包括子步骤:
3.1以各局部图像块训练样本的像素值构成局部图像块向量,并对局部图像块向量中各元素进行归一化;
3.2采用非监督学习法学习归一化后的局部图像块向量,获得滤波器组。
步骤3中所述的非监督学习法为K-means聚类法、稀疏编码法、主成分分析法、独立成分分析法、局部保持映射法、非负矩阵分解法或随机映射法。
在执行步骤4之前,调整滤波器组中各滤波器尺寸,使得滤波器尺寸与局部图像块训练样本尺寸相同。
步骤4.1中所述的预设阈值优选为0。
步骤5中采用SVM分类器进行场景单元分类,进一步包括子步骤:
5.1选择各类场景单元作为场景单元训练样本,并标注各场景单元训练样本的类别标号;
5.2采用权利要求1中所述的步骤1~4获得各场景单元训练样本的全局特征描述;
5.3采用场景单元训练样本的全局特征描述和类别标号训练SVM分类器;
5.4将待分类遥感影中场景单元的全局特征描述输入训练的SVM分类器,即可获得各场景单元的类别标号。
在采用SVM分类器进行场景单元分类时,以直方图交叉核和空间共生核的联合函数作为SVM分类器的核函数进行场景单元分类;
所述的直方图交叉核和空间共生核的联合函数KHIK+SCK({Y(i),WCM(i)},{Y(j),WCM(j)})为:
KHIK+SCK({Y(i),WCM(i)},{Y(j),WCM(j)})=KHIK(Y(i),Y(j))+KSCK(WCM(i),WCM(j))
其中,直方图交叉核Y(i)(s)和Y(j)(s)分别输入的任意两幅场景单元的全局特征描述的第s维元素;n表示场景单元全局特征描述的总维数;空间共生核 K SCK ( WCM ( i ) , WCM ( j ) ) = Σ m = 0 2 L - 1 Σ m = 0 2 L - 1 min ( WCM ( i ) ( m , n ) , WCM ( j ) ( m , n ) ) , WCM(i)(m,n)和WCM(j)(m,n)分别表示输入的任意两幅场景单元的词汇共生矩阵,m、n表示场景单元的十进制编码图中不同词汇,即十进制编码图中不同点;L表示滤波器个数。
与现有技术相比,本发明具有如下优点和有益效果:
本发明通过挖掘遥感场景中局部图像块在低维本征空间中的优良性质,利用非监督学习法从大量局部图像块中自动学习得到场景单元局部特征,通过特征编码融合局部特征获得场景单元全局特征描述,采用全局特征描述对场景单元进行分类。本发明在保证场景分类精度的前提下,大大降低了非监学习法的计算代价。
附图说明
图1为本发明二值编码法示意图;
图2为词汇共生矩阵示意图。
具体实施方式
本发明利用非监督学习算法训练场景单元中的局部图像块获得滤波器组,并将滤波器组与场景单元的卷积响应做二进制编码,获得场景单元的全局特征描述,根据场景单元的全局特征描述进行遥感场景单元分类。
为了更清晰直观地表达本发明技术方案,下面将结合附图和实施例,对本发明步骤进行详细说明。
步骤1:大尺寸遥感影像的场景划分。
要对大尺寸遥感影像进行场景分类,首先要定义场景单元与场景类别数。本发明中,在一副大尺寸遥感影像中选择合适尺寸的矩形区域作为场景单元,最终目标就是给大尺寸遥感影像中所有场景单元赋予场景类别标号,并采用不同颜色区分不同类别的场景单元。
具体实施中,采用均匀网格对大尺寸遥感影像进行划分,每个子网格代表一个场景单元,相邻场景单元间无重叠;然后,将所有场景单元的彩色像素转化成灰度像素。本实施例中,对尺寸为6000*6000像素的大尺寸遥感影像进行场景划分,各场景单元尺寸为150*150像素,最终获得1600个场景单元。
步骤2:提取局部图像块训练样本。
本发明需要对步骤1获得的所有场景单元进行学习,得到数据驱动型滤波器组,滤波器组需要从场景单元中大量的无标号的局部图像块(或称作“patch”)中自动学习得到。
具体实施中,针对步骤1获得的初始化无标号场景单元,从各场景单元中随机抽取若干尺寸相同的patch构成patch训练样本,将各patch在像素级空间上展开成一个patch向量,patch向量中元素为patch的像素值,并对patch向量做均值方差归一化操作:
x(i)=(p(i)-mean(p(i)))/std(p(i)) (1)
式(1)中:
p(i)表示第i个patch向量,x(i)表示均值方差归一化后第i个patch向量,mean(p(i))和std(p(i))分别表示第i个patch向量中元素的均值和方差。
将归一化后的patch向量x(1),x(2),...,x(M)构建成patch向量矩阵X=[x(1),x(2),...,x(M)],表示n维实空间,且n=r×r,r×r为patch尺寸;M表示patch训练样本个数;i为patch训练样本序号,其取值为1,2,...,M。
步骤3:利用非监督学习法获得滤波器组。
步骤2获得了均值方差归一化后的patch向量矩阵X,选择合适的非监督学习法训练patch向量矩阵X,获得滤波器组。具体实施方式中,本发明采用了多种不同的非监督学习法来学习获得滤波器组,均取得了良好效果。下面将以K-means、PCA和稀疏编码三种非监督学习法为例,具体说明如何从patch向量矩阵X中学习得到滤波器组。
1)K-means聚类法学习滤波器组
输入patch向量矩阵X,将采用K-means聚类法学习得到的聚类中心作为滤波器组。K-means聚类法通过解如下优化问题来获得一组聚类中心W,从而完成非监督训练:
min w , c ( i ) Σ i | | wh ( i ) - x ( i ) | | 2 2 s . t . | | W ( k ) | | 2 = 1 , ∀ k and | | h ( i ) | | 0 ≤ 1 , ∀ i - - - ( 2 )
式(2)中:
W表示由K-means聚类法学习得到的一组聚类中心,W(k)表示W中第k个聚类中心,h(i)表示第i个patch训练样本的聚类中心分配向量。
完成K-means聚类训练后,将聚类中心W作为滤波器组,W(k)表示第k个滤波器。
2)稀疏编码法学习滤波器组
输入patch向量矩阵X,将采用稀疏编码法学习得到的字典作为滤波器组。传统的稀疏编码法通过解如下的优化问题来得到字典和相应的稀疏向量,从而完成非监督训练:
min W , z ( i ) Σ i | | Wz ( i ) - x ( i ) | | 2 2 + λ | | z ( i ) | | 1 s . t | | W ( k ) | | 2 2 ≤ 1 , ∀ k - - - ( 3 )
式(3)中:
W表示由稀疏编码法学习得到的字典,W(k)表示字典W中第k个码本,
z(i)表示第i个patch训练样本的稀疏向量,λ为惩罚权重因子,用来控制稀疏向量z(i)的稀疏度,即稀疏向量中零元素个数。
完成稀疏编码后,将字典W作为滤波器组,W(k)表示第k个滤波器。
3)利用PCA法(主成分分析法)学习滤波器组
输入patch向量矩阵X,将采用PCA法学习得到的线性映射矩阵作为滤波器组。传统的PCA法通过解如下的优化问题来得到最优的线性映射矩阵,从而完成非监督训练:
min w Σ i | | x ( i ) - WW T x ( i ) | | 2 2 s . t W T W = I - - - ( 4 )
式(4)中:
W表示由PCA法学习得到的线性映射矩阵,W(k)为矩阵W的第k列,本质上也是patch向量矩阵X的协方差矩阵的特征向量组合,I表示单位矩阵。
完成PCA学习后,将线性映射矩阵W作为滤波器组,W(k)表示第k个滤波器。
除了上述提到的非监督学习法,采用其他的传统非监督学习法,例如:LPP(LocalityPreserving Projections,局部保持映射法)、ICA(Independent Component Analysis,独立成分分析法)、NMF(Non-negative Matrix Factorization,非负矩阵分解法)、RP(Random Projection,随机映射法)等非监督学习法,同样可以学习获得滤波器组。
步骤4:场景单元的快速二值编码。
由步骤3通过非监督学习法从大量无标号的patch训练样本中学习得到滤波器组W,利用滤波器组中W各滤波器分别与场景单元做卷积,获得各场景单元的滤波器响应图。在做滤波器卷积前,需重新调整滤波器组W中各滤波器W(k)尺寸,使得滤波器W(k)与patch尺寸相同。具体实施中,采用函数调整滤波器尺寸,尺寸调整后滤波器为w(k)=resize(W(k)),完成滤波器尺寸调整后,滤波器组W就变为L表示滤波器个数。
利用调整尺寸的滤波器组Wre与各场景单元分别做卷积,获得N个滤波器响应图,该过程可采用如下公式表示:
f k ( i ) = S ( i ) * w ( k ) - - - ( 5 )
式(5)中:
S(i)表示第i幅场景单元,i=1,2,...,N,N为遥感影像中场景单元总数,本具体实施中,N为1600;
表示第k个滤波器w(k)与场景单元S(i)卷积获得的第k幅滤波器响应图,即特征图,k=1,2,...,L,L表示滤波器组中滤波器个数,“*”表示二维卷积操作。
场景单元与滤波器组的卷积指滤波器组与场景单元中相同大小的区域做线性加权求和的过程,且滤波器每滑动一个像素均做相同操作。
为得到各场景单元的全局特征描述,需要将各场景单元的L个特征图融合,本发明提出了一种二值编码法来实现场景单元特征图的融合,见图1,具体如下:
选取阈值,为使二值编码过程更简洁,免除由于特征图在量级上的差异所采取的尺度归一化等不必要的操作,本具体实施中将阈值设定为0。将特征图上各位置滤波器响应值与阈值作比较,大于阈值的位置编码为1,小于阈值的位置编码为0,编码过程可用如下公式表示:
F k ( i ) = H ( f k ( i ) ) H ( x ) = 1 x &GreaterEqual; 0 0 x < 0 - - - ( 6 )
式(6)中,为特征图对应的二值编码图,H(x)为单位阶跃响应函数。
获得了场景单元的L个二值编码图后,将场景单元的所有二值编码图中对应位置上的编码组合成L位的二进制数,并将该二进制数转化成十进制数,从而获得融合的十进制编码图,整个过程用下式表示:
T ( i ) ( a , b ) = &Sigma; k = 1 L 2 k - 1 &CenterDot; F k ( i ) ( a , b ) - - - ( 7 )
式(7)中:
T(i)表示第i幅场景单元的十进制编码图,(a,b)为编码图中各位置坐标。
最后获得T(i)在非负整数区间[0,2L-1]上的直方图,记为Y(i),并将Y(i)作为第i幅场景单元的全局特征描述。
滤波器组中滤波器个数决定了十进制响应值的范围,计算场景单元十进制编码图上所有十进制响应值的频率直方图,将此频率直方图作为该场景单元的全局特征描述。
步骤5:利用SVM分类器实现场景单元分类。
通过步骤1~4可获得大尺寸遥感影像中所有场景单元的全局特征描述,在此基础上,本发明采用SVM分类器来完成场景单元分类工作。场景单元分类过程包括两步:(1)训练SVM分类器和(2)场景单元分类。
首先,对于预定义的各类场景单元,分别选择若干对应的场景单元作为场景单元训练样本,并通过人工标注方式标注各场景单元训练样本的类别标号,场景单元训练样本可以从待分类遥感影像中选取,也可以从其他已分类遥感影像中选取;通过步骤1~4获取各场景单元训练样本的全局特征描述,利用场景单元训练样本的全局特征描述及类别标号训练SVM分类器,得到SVM分类器模型参数。
然后,将大尺寸遥感影像中所有场景单元的全局特征描述输入训练的SVM分类器,可获得各场景单元的类别标号,从而实现各场景单元的分类,采用不同颜色对不同类别的场景单元进行区分。
本具体实施使用的SVM分类器是以最大分类间隔为准则,通过寻找最优分类超平面来对样本进行空间划分。SVM分类器的训练过程可以最终转化成解决如下的优化问题:
min 1 2 | | w | | 2 + c &Sigma; i = 1 n &xi; i s . t . , y i ( w T &phi; ( x i ) + b ) &GreaterEqual; 1 - &xi; i , i = 1 , . . . , n &xi; i &GreaterEqual; 0 , i = 1 , . . . , n - - - ( 8 )
式(8)中:
w和b为定义分类超平面wTφ(x)+b=0的参数;
C是常量,用于控制目标函数中两项间的权重;
ξi表示松弛变量,φ(x)表示训练样本x的非线性映射,yi表示第i个训练样本的类别标号,n为训练样本个数。
采用拉格朗日乘子法,将该带约束的优化问题转化成无约束优化问题,其代价函数为:
L ( w , b , &xi; , &alpha; , r ) = 1 2 | | w | | 2 + C &Sigma; i = 1 n &xi; i - &Sigma; i = 1 n &alpha; i ( y i ( w T &phi; ( x i ) + b ) - 1 + &xi; i ) - &Sigma; i = 1 n r i &xi; i - - - ( 9 )
式(9)中,αi、ri均为待优化变量。在满足Karush-Kuhn-Tucker(KKT)条件的基础上,通过推导将上面的无约束问题转化成如下优化问题:
max &Sigma; i = 1 n &alpha; i - 1 2 &Sigma; i , j = 1 n [ &alpha; i &alpha; j y i y j K ( x i , x j ) ] s . t . , 0 &le; &alpha; i &le; C , i = 1 , . . . , n &Sigma; i = 1 n &alpha; i y i = 0 - - - ( 10 )
式(10)中,参数向量w和待优化变量α间满足K(xi,xj)为自定义核函数,用来将样本在特征空间中的内积操作转化成样本在原始空间中的核函数映射,yj表示第j个训练样本xj的类别标号。
为提高分类精度,本具体实施方式中采用直方图交叉核(HIK)和空间共生核的联合函数作为核函数。直方图交叉核KHIK(Y(i),Y(j))定义为:
K HIK ( Y ( i ) , Y ( j ) ) = &Sigma; s min ( Y ( i ) ( s ) , Y ( j ) ( s ) ) - - - ( 11 )
式(11)中:Y(i)和Y(j)分别表示第i幅场景单元和第j幅场景单元的全局特征描述,s表示场景单元全局特征描述Y的第s维元素。
定义空间共生核前需计算词汇共生矩阵(WCM),见图2所示,表示如下:
WCM ( m , n ) = # { ( c i , c j ) | ( c i = m ) ^ ( c j = n ) ^ dist ( c i , c j ) } dist ( c i , c j ) = 1 , ( p i - p j ) 2 + ( q i - q j ) 2 &le; r 0 , otherwise - - - ( 12 )
式(12)中:
#表示集合的势,即集合中元素个数;^表示逻辑与;
WCM(m,n)指场景单元的十进制编码图T中词汇m和词汇n共同出现的次数,并且受距离r约束,十进制编码图中各点即为一个词汇,因此m,n∈[0,2L-1];
ci,cj分别表示词汇m,n出现的索引,(pi,qi)和(pj,qj)分别对应于索引ci和cj的位置坐标。
由词汇共生矩阵定义空间共生核KSCK(WCM(i),WCM(j)):
K SCK ( WCM ( i ) , WCM ( j ) ) = &Sigma; m , n min ( WCM ( i ) ( m , n ) , WCM ( j ) ( m , n ) ) - - - ( 13 )
式(13)中:WCM(i)和WCM(j)分别表示第i幅场景单元和第j幅场景单元的词汇共生矩阵。
最终,将直方图交叉核和空间共生核联合构成联合核函数KHIK+SCK,定义如下:
KHIK+SCK({Y(i),WCM(i)},{Y(j),WCM(j)})=KHIK(Y(i),Y(j))+KSCK(WCM(i),WCM(j))(14)
将联合核函数KHIK+SCK带入到优化问题(10)中,通过求解得到待优化变量{αi}i=1,...,n的最优值,完成SVM分类器模型参数的训练过程。
利用已训练的SVM分类器进行场景单元分类时,只需要将场景单元的全局特征描述带入SVM分类器的分类函数中即可得到场景单元的预测类别标号,分类函数如下所示:
f ( { Y ( t ) , WCM ( t ) } ) = &Sigma; i = 1 N &alpha; i y i K HIK + SCK ( { Y ( i ) , WCM ( i ) } , { Y ( t ) , WCM ( t ) } ) + b - - - ( 15 )
式(5)中:Y(t)、WCM(t)分别表示待分类场景单元的全局特征描述和词汇共生矩阵;b为定义分类超平面wTφ(x)+b=0的参数。

Claims (9)

1.基于快速二值编码的高分辨率遥感影像场景分类方法,其特征是,包括步骤:
步骤1,划分待分类遥感影像获得场景单元,并将场景单元的彩色像素转化成灰度像素;
步骤2,从场景单元中提取尺寸相同的图像块作为局部图像块训练样本;
步骤3,采用非监督学习法学习局部图像块训练样本获得滤波器组;
步骤4,将场景单元与滤波器组中各滤波器分别做卷积获得各场景单元的L幅滤波器响应图,L为滤波器组中滤波器数量,采用二值编码法分别融合各场景单元的L幅滤波器响应图获得各场景单元的全局特征描述;
所述的采用二值编码法分别融合各场景单元的L幅滤波器响应图获得各场景单元的全局特征描述,进一步包括子步骤:
4.1将滤波器响应图上各位置响应值分别与预设阈值比较,响应值大于阈值的位置编码为1,响应值小于阈值的位置编码为0,从而获得场景单元的L幅二值编码图;
4.2将场景单元的L幅二值编码图上对应位置的编码组合成L位二进制数,并将二进制数转化为十进制数,获得场景单元的十进制编码图;
4.3以十进制编码图上十进制响应值的频率直方图作为场景单元的全局特征描述;
步骤5,基于场景单元的全局特征描述进行场景单元分类。
2.如权利要求1所述的基于快速二值编码的高分辨率遥感影像场景分类方法,其特征是:
步骤1具体为:
采用均匀网格划分遥感影像获得一系列子网格,子网格代表一个场景单元,相邻场景单元间无重叠。
3.如权利要求1所述的基于快速二值编码的高分辨率遥感影像场景分类方法,其特征是:
步骤3进一步包括子步骤:
3.1以各局部图像块训练样本的像素值构成局部图像块向量,并对局部图像块向量中各元素进行归一化;
3.2采用非监督学习法学习归一化后的局部图像块向量,获得滤波器组。
4.如权利要求1所述的基于快速二值编码的高分辨率遥感影像场景分类方法,其特征是:
所述的非监督学习法为K-means聚类法、稀疏编码法、主成分分析法、独立成分分析法、局部保持映射法、非负矩阵分解法或随机映射法。
5.如权利要求1所述的基于快速二值编码的高分辨率遥感影像场景分类方法,其特征是:
在执行步骤4之前,调整滤波器组中各滤波器尺寸,使得滤波器尺寸与局部图像块训练样本尺寸相同。
6.如权利要求1所述的基于快速二值编码的高分辨率遥感影像场景分类方法,其特征是:
步骤4.1中所述的预设阈值为0。
7.如权利要求1所述的基于快速二值编码的高分辨率遥感影像场景分类方法,其特征是:
步骤5中采用SVM分类器进行场景单元分类。
8.如权利要求7所述的基于快速二值编码的高分辨率遥感影像场景分类方法,其特征是:
所述的采用SVM分类器进行场景单元分类进一步包括子步骤:
5.1选择各类场景单元作为场景单元训练样本,并标注各场景单元训练样本的类别标号;
5.2采用权利要求1中所述的步骤1~4获得各场景单元训练样本的全局特征描述;
5.3采用场景单元训练样本的全局特征描述和类别标号训练SVM分类器;
5.4将待分类遥感影中场景单元的全局特征描述输入训练的SVM分类器,即可获得各场景单元的类别标号。
9.如权利要求7所述的基于快速二值编码的高分辨率遥感影像场景分类方法,其特征是:
步骤5中,以直方图交叉核和空间共生核的联合函数作为SVM分类器的核函数进行场景单元分类;
所述的直方图交叉核和空间共生核的联合函数KHIK+SCK({Y(i),WCM(i)},{Y(j),WCM(j)})为:
KHIK+SCK({Y(i),WCM(i)},{Y(j),WCM(j)})=KHIK(Y(i),Y(j))+KSCK(WCM(i),WCM(j))
其中,直方图交叉核Y(i)(s)和Y(j)(s)分别输入的任意两幅场景单元的全局特征描述的第s维元素;n表示场景单元全局特征描述的总维数;空间共生核 K SCK ( WCM ( i ) , WCM ( j ) ) = &Sigma; m = 0 2 L - 1 &Sigma; m = 0 2 L - 1 min ( WCM ( i ) ( m , n ) , WCM ( j ) ( m , n ) ) , WCM(i)(m,n)和WCM(j)(m,n)分别表示输入的任意两幅场景单元的词汇共生矩阵,m、n表示场景单元的十进制编码图中不同词汇,即十进制编码图中不同点;L表示滤波器个数。
CN201410262170.7A 2014-06-13 2014-06-13 基于快速二值编码的高分辨率遥感影像场景分类方法 Expired - Fee Related CN104036293B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410262170.7A CN104036293B (zh) 2014-06-13 2014-06-13 基于快速二值编码的高分辨率遥感影像场景分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410262170.7A CN104036293B (zh) 2014-06-13 2014-06-13 基于快速二值编码的高分辨率遥感影像场景分类方法

Publications (2)

Publication Number Publication Date
CN104036293A true CN104036293A (zh) 2014-09-10
CN104036293B CN104036293B (zh) 2017-02-22

Family

ID=51467058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410262170.7A Expired - Fee Related CN104036293B (zh) 2014-06-13 2014-06-13 基于快速二值编码的高分辨率遥感影像场景分类方法

Country Status (1)

Country Link
CN (1) CN104036293B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550709A (zh) * 2015-12-14 2016-05-04 武汉大学 一种遥感影像输电线路走廊森林区域提取方法
CN106503696A (zh) * 2016-12-05 2017-03-15 电子科技大学 一种针对视觉映射目标值的增强编码方法
CN106845417A (zh) * 2017-01-20 2017-06-13 上海交通大学 基于特征池化与除归一化表示的高分辨率遥感图像分类方法
CN106845528A (zh) * 2016-12-30 2017-06-13 湖北工业大学 一种基于K‑means与深度学习的图像分类算法
CN108229451A (zh) * 2018-03-19 2018-06-29 河海大学 一种基于类间识别力特征的遥感场景分类方法
CN108596154A (zh) * 2018-05-14 2018-09-28 河海大学 基于高维特征选择与多级融合的遥感图像分类方法
CN110070035A (zh) * 2019-04-19 2019-07-30 中国科学院遥感与数字地球研究所 一种多光谱遥感影像分类方法和系统
CN111325271A (zh) * 2020-02-18 2020-06-23 Oppo广东移动通信有限公司 图像分类方法及装置
US10922551B2 (en) 2017-10-06 2021-02-16 The Nielsen Company (Us), Llc Scene frame matching for automatic content recognition
CN115240081A (zh) * 2022-09-19 2022-10-25 航天宏图信息技术股份有限公司 一种遥感影像全要素变化检测方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102073882A (zh) * 2011-01-27 2011-05-25 武汉大学 高光谱遥感影像的dna计算光谱匹配分类方法
CN103327337A (zh) * 2013-06-28 2013-09-25 武汉大学 一种基于双正交重叠变换的分类量化编码方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102073882A (zh) * 2011-01-27 2011-05-25 武汉大学 高光谱遥感影像的dna计算光谱匹配分类方法
CN103327337A (zh) * 2013-06-28 2013-09-25 武汉大学 一种基于双正交重叠变换的分类量化编码方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LEFEI ZHANG 等: "《On Combining Multiple Features for Hyperspectral Remote Sensing Image Classification》", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 *
徐侃 等: "《利用特征选择的遥感图像场景分类》", 《哈尔滨工业大学学报》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550709A (zh) * 2015-12-14 2016-05-04 武汉大学 一种遥感影像输电线路走廊森林区域提取方法
CN105550709B (zh) * 2015-12-14 2019-01-29 武汉大学 一种遥感影像输电线路走廊森林区域提取方法
CN106503696B (zh) * 2016-12-05 2019-08-13 电子科技大学 一种针对视觉映射目标值的增强编码方法
CN106503696A (zh) * 2016-12-05 2017-03-15 电子科技大学 一种针对视觉映射目标值的增强编码方法
CN106845528A (zh) * 2016-12-30 2017-06-13 湖北工业大学 一种基于K‑means与深度学习的图像分类算法
CN106845417A (zh) * 2017-01-20 2017-06-13 上海交通大学 基于特征池化与除归一化表示的高分辨率遥感图像分类方法
CN106845417B (zh) * 2017-01-20 2019-11-08 上海交通大学 基于特征池化与除归一化表示的高分辨率遥感图像分类方法
US10963699B2 (en) 2017-10-06 2021-03-30 The Nielsen Company (Us), Llc Scene frame matching for automatic content recognition
US10922551B2 (en) 2017-10-06 2021-02-16 The Nielsen Company (Us), Llc Scene frame matching for automatic content recognition
US11144765B2 (en) 2017-10-06 2021-10-12 Roku, Inc. Scene frame matching for automatic content recognition
US11361549B2 (en) 2017-10-06 2022-06-14 Roku, Inc. Scene frame matching for automatic content recognition
CN108229451A (zh) * 2018-03-19 2018-06-29 河海大学 一种基于类间识别力特征的遥感场景分类方法
CN108596154A (zh) * 2018-05-14 2018-09-28 河海大学 基于高维特征选择与多级融合的遥感图像分类方法
CN108596154B (zh) * 2018-05-14 2021-09-24 河海大学 基于高维特征选择与多级融合的遥感图像分类方法
CN110070035A (zh) * 2019-04-19 2019-07-30 中国科学院遥感与数字地球研究所 一种多光谱遥感影像分类方法和系统
CN111325271A (zh) * 2020-02-18 2020-06-23 Oppo广东移动通信有限公司 图像分类方法及装置
CN111325271B (zh) * 2020-02-18 2023-09-12 Oppo广东移动通信有限公司 图像分类方法及装置
CN115240081A (zh) * 2022-09-19 2022-10-25 航天宏图信息技术股份有限公司 一种遥感影像全要素变化检测方法及装置
CN115240081B (zh) * 2022-09-19 2023-01-17 航天宏图信息技术股份有限公司 一种遥感影像全要素变化检测方法及装置

Also Published As

Publication number Publication date
CN104036293B (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
CN104036293A (zh) 基于快速二值编码的高分辨率遥感影像场景分类方法
CN103942564B (zh) 基于非监督特征学习的高分辨率遥感影像场景分类方法
Peeples et al. Histogram layers for texture analysis
Rosenfeld et al. Extracting foreground masks towards object recognition
CN106126581A (zh) 基于深度学习的手绘草图图像检索方法
CN103679192B (zh) 基于协方差特征的图像场景类型判别方法
CN103514456A (zh) 基于压缩感知多核学习的图像分类方法及其装置
CN105488809A (zh) 基于rgbd描述符的室内场景语义分割方法
CN104680127A (zh) 手势识别方法及系统
CN101807259B (zh) 一种基于视觉词汇本集体的不变性识别方法
Biasotti et al. SHREC’14 track: Retrieval and classification on textured 3D models
Iakovidou et al. Composite description based on salient contours and color information for CBIR tasks
Redondo-Cabrera et al. All together now: Simultaneous object detection and continuous pose estimation using a hough forest with probabilistic locally enhanced voting
CN106126585A (zh) 基于质量分级与感知哈希特征组合的无人机图像检索方法
Shang et al. Facilitating efficient mars terrain image classification with fuzzy-rough feature selection
CN103745201A (zh) 一种节目识别方法及装置
Salhi et al. Fast and efficient face recognition system using random forest and histograms of oriented gradients
Fleyeh Traffic and road sign recognition
Cao et al. Where to focus: Query adaptive matching for instance retrieval using convolutional feature maps
CN105359186A (zh) 用于检测场景中的感兴趣的对象的系统
Piccoli et al. Towards the automatic classification of pottery sherds: two complementary approaches
Ali et al. Content-based image retrieval based on late fusion of binary and local descriptors
Tokarczyk et al. Beyond hand-crafted features in remote sensing
Chu et al. Scene classification based on SIFT combined with GIST
Fu et al. Unsupervised feature learning for scene classification of high resolution remote sensing image

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170222

Termination date: 20180613