CN103198333A - 一种高分辨率遥感图像自动语义标记方法 - Google Patents

一种高分辨率遥感图像自动语义标记方法 Download PDF

Info

Publication number
CN103198333A
CN103198333A CN2013101289442A CN201310128944A CN103198333A CN 103198333 A CN103198333 A CN 103198333A CN 2013101289442 A CN2013101289442 A CN 2013101289442A CN 201310128944 A CN201310128944 A CN 201310128944A CN 103198333 A CN103198333 A CN 103198333A
Authority
CN
China
Prior art keywords
yardstick
image
remote sensing
semantic
many examples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101289442A
Other languages
English (en)
Other versions
CN103198333B (zh
Inventor
陈克明
鉴萍
郭建恩
周志鑫
张道兵
孙显
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jigang Defense Technology Co.,Ltd.
Original Assignee
Institute of Electronics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Electronics of CAS filed Critical Institute of Electronics of CAS
Priority to CN201310128944.2A priority Critical patent/CN103198333B/zh
Publication of CN103198333A publication Critical patent/CN103198333A/zh
Application granted granted Critical
Publication of CN103198333B publication Critical patent/CN103198333B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种高分辨率遥感图像自动语义标记方法,本发明在高分辨率遥感图像自动语义标记中,利用等级语义模型对遥感图像多尺度语义信息进行建模,并结合多示例学习方法实现对高分辨率光学遥感图像的自动标注。本发明的特点是:1)利用等级语义模型实现地物先验隶属关系的模型化表述;2)将多示例-多标记方法引入遥感图像语义标注,降低标记工作难度;3)图像标记输出结果以地物等级隶属关系形式给出,并且自动给出标注结果的概率置信度。

Description

一种高分辨率遥感图像自动语义标记方法
技术领域
本发明涉及遥感图像处理领域,尤其涉及高分辨率遥感图像的语义标注或语义分类方法。
背景技术
遥感图像语义自动标注是遥感图像组织、索引的基础,特别是随着近年来遥感数据爆炸式增加,高分辨率遥感图像数据量极大,直接查找、获取图像困难更大,高分辨率遥感图像的语义标注意义更加明显。但是现有的人工直接标注费时、费力,可行性不强,急需从图像语义层次的高效标注方法。现有技术中,对高分辨率遥感图像语义标注的方法主要有:多示例-多标记学习方法(Multi-instance multi-label learning,简称MIML)。
多示例-多标记学习方法是近年来提出的一种方便的图像分类、标注方法。与传统的图像标注方法相比,多示例-多标记学习方法在分类器训练过程中不需要对每一个图像区域进行标记,只需要对包的标记进行标记,指示包中是否包含示例标记,因此,在分类器训练中比较简单方便,实际可操作性比较强。
但是传统的多示例-多标记学习方法忽略了词袋中示例之间的语义相关性,并且在示例构造时往往采用均匀切分图像的方法,致使多示例-多标记学习方法在图像标注时均衡对待每一个示例,无法真正从图像目标角度出发实现图像的语义层标注。这种处理问题的思路明显不符合遥感图像的特点:遥感图像尺寸一般很大,反映了一个较大区域内的地物地貌,而遥感图像通常在遥感图像解译过程中,用户感兴趣的只是其中若干局部区域,因此,直接提取整幅图像的全局特征根本无法反映感兴趣的目标概念,故有必要对整幅图像进行分解或者分割。例如,从低空间尺度图像上可以更方便区分“陆地”和“海洋”,从中等空间分辨率上可以区分“陆地”上的“城市”和“乡村”,而想要区分开“城市”中的“建筑物”、“道路”、“植被”等目标语义则需要较高空间分辨率。另外,可以明显看出,这些语义标签之间存在严格的等级隶属关系。以图像区域目标为单位,结合图像空间尺度变换,利用遥感图像地物先验信息,实现遥感图像等级语义隶属关系建模,是提高遥感图像语义标注的主要途径。
发明内容
本发明提供了一种高分辨率遥感图像自动语义标记方法,将目标等级语义模型和多示例-多标记学习方法相结合,通过利用遥感图像中目标语义之间的等级隶属先验信息,构建目标等级语义模型,以克服传统多示例-多标记学习方法中对示例之间语义相关性以及语义等级约束的忽略造成的标注精度不高。
本发明的技术方案为:
步骤S102,对高分辨率遥感图像进行多尺度分解,自低分辨率尺度开始,每个尺度上的图像进行过分割,获取多个尺度上的过分割区域;
步骤S104,以每个尺度上过分割区域为单位对每一幅遥感图像提取颜色特征、纹理特征,SIFT特征以及熵特征,以过分割区域为单位构造特征向量;
步骤S106,以某个尺度上图像为词袋,以该图像中的过分割区域为多示例学习中的示例,以过分割区域的特征向量为示例的特征,在每个尺度上构造一个多示例-多标记学习框架,从而在多个尺度上形成一个等级语义多示例-多标记学习框架,利用训练样本分别在每个尺度上训练多示例-多标记学习框架中的分类器,得到最佳分类器参数设置;
步骤S108,利用已训练的多示例-多标记学习框架中的分类器,自低尺度到高尺度为序,对测试数据首先在低尺度上进行语义标注,并将标注的语义信息传递到高尺度,在低尺度语义信息辅助下对高尺度上图像进行语义标注;标注结果以概率形式输出,所有尺度上的语义标注结果构成图像地物类型等级标注置信构成图。
所述步骤S102中对高分辨率遥感图像进行多尺度分解,利用小波金字塔变换方法对每幅图像进行多个尺度分解,由每一层的小波低频系数图像及原始图像构成多尺度图像序列。
所述步骤S102中自低分辨率尺度开始,每个尺度上的图像进行过分割,利用分水岭分割方法自低分辨率尺度开始,在每个尺度上进行图像过分割。
所述等级多示例-多标记学习框架构建的步骤包括:
单尺度上多示例-多标记学习方法的构建:每个尺度上的图像的每个过分割区域作为多示例-多标记学习方法中的一个示例,该尺度上的图像作为多示例-多标记学习方法中的一个词袋,区域的特征矢量对应为该示例的特征表述,区域的标注作为示例的标记;如果一个词袋中所有的示例均标记为负样本时,该词袋被标记为副词袋;如果一个词袋中有一个示例被标记为正样本时,该词袋被标记为正词袋;通过“词袋-图像,示例-区域”的映射,完成单一尺度上遥感图像的多示例-多标记学习框架构建;
多尺度上多示例-多标记学习方法的构建:通过前一步骤单一尺度上遥感图像的多示例-多标记学习框架构建,按照图像尺度分割获取的尺度等级顺序,将每个单尺度多示例-多标记学习框架结合起来,通过“词袋-图像,示例-区域,尺度-等级”的映射,形成多尺度等级多示例-多标记学习框架;
所述的等级多示例-多标记学习框架中分类器训练,其步骤包括:
训练样本集建设过程中,首先图像等级尺度分割和特征表述,然后对图像进行多尺度语义标注;多尺度语义标注的准则是:以遥感图像地物先验信息为辅助,低尺度上的语义标签涵盖高尺度上的语义标签,各个尺度上的语义标签是隶属关系,不能存在冲突矛盾;每个语义标签按照图像中包含语义信息的多少根据人工专家经验按照置信度大小进行概率标注;
多示例-多标记学习框架中分类器选取支持向量机分类器,分类器训练过程就是利用已标注样本对支持向量机分类器参数设置的过程;在训练过程中,自低尺度图像向高尺度图像逐尺度训练,低尺度上的训练参数作为高尺度上训练参数设置的先验;
利用给定的训练样本集对应的每个尺度上的特征矢量集合和标记集合,对支持向量机分类器进行训练,得到最佳的分类器参数设置;多个尺度上分类器构成一个分类器组,每个分类器对应一组最佳参数设置。
所述分类器训练采用支持向量机分类器,该分类器使用高斯径向基核函数。
本发明的有益效果为:
(1)将遥感图像的尺度特点以多尺度形式表现出来,并将多示例-多标记学习方法和多尺度分割方法相结合,以多尺度目标区域为单位,更加切合遥感图像,特别是高分辨率遥感图像的特点,提高了多示例-多标记学习方法对遥感图像建模的准确性;
(2)利用遥感图像地物先验信息构建遥感图像等级语义模型,指导遥感图像语义标注,并将目标等级语义模型和多示例-多标记学习方法相结合,有效地解决了传统多示例-多标记学习方法忽略示例之间语义相关性的问题,提高了图像标注精度;
(3)图像标注结果中不仅给出语义标签,还给出了每个标签的概率置信度,实现了图像标注的定量表示。
附图说明
图1为本发明实施例高分辨率遥感图像的语义标注方法的流程示意图。
图2为本发明方法框架示意图;
图3为本发明实施例等级语义隶属关系示意图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,在附图或说明书描述中,相似或相同的部分都使用相同的图号。且在附图中,实施例以简化或是方便标示。再者,附图中未绘示或描述的实现方式,为所属技术领域中普通技术人员所知的形式。另外,虽然本文可提供包含特定值的参数的示范,但应了解,参数无需确切等于相应的值,而是可在可接受的误差容限或设计约束内近似于相应的值。
本发明高分辨率遥感图像自动标注方法中,将目标等级语义模型与多示例-多标记学习方法相结合,利用遥感图像地物先验信息构建遥感图像等级语义模型,指导遥感图像语义标注,有效地解决了传统多示例-多标记学习方法忽略示例之间语义相关性的问题,提高了图像标注精度。
图1为本发明实施例高分辨率遥感图像自动标注的流程示意图。如图1所示,本实施例包括以下步骤:
步骤S102,对高分辨率遥感图像进行多尺度分解,自低分辨率尺度开始,每个尺度上的图像进行过分割,获取多个尺度上的过分割区域;
其中,上述的高分辨率遥感图像优选光学遥感图像,其图像空间分辨率高于2米/像素,图像包含RGB三个波段。
该步骤又可以分为以下步骤:
步骤S102a,利用小波金字塔变换方法对每幅图像进行多个尺度分解,由每一层的小波低频系数图像及原始图像构成多尺度图像序列。之所以采用小波方法,是因为小波系数包含上下文信息,有助于提高可分性。其中,原始输入图像的空间尺度为最高。具体尺度分解的层数就标注实际应用目的而定:实际应用中小波分解的层数根据原始图像分辨率和目标-分辨率关系共同决定,所需的语义标注等级层数越多则尺度分解次数越高,反之,则分解次数越低。
步骤S102b,利用分水岭分割方法(J.Roerdink and A.Meijster,“TheWatershed Transform:Definitions,Algorithms,and Parallellization Strategies,”Fundamenta Informaticae,vol.41,pp.187-228,2000.),自低分辨率尺度开始,在每个尺度上进行图像过分割,每个过分割区域具备一定的区域同质一致性,即为同质区域。在过分割过程中,为了保证区域的最大一致性以及语义标注的实际解译性,选取区域面积作为约束条件,即当某个分割区域的总像素个数少于200时该区域停止分割;将低尺度上的过分割区域映射到高一级尺度图像上,对该区域继续利用分水岭分割方法进行过分割处理,直到最高空间分辨率图像过分割完毕;自低分辨率尺度到高分辨率尺度,低尺度上的过分割区域的细节信息可以在其对应高尺度区域中找到;
步骤S104,以每个尺度上过分割区域为单位对每一幅遥感图像提取颜色特征、纹理特征,SIFT特征以及熵特征,以过分割区域为单位构造特征向量;
其中,颜色特征主要是提取CIELab颜色特征,其步骤为:对原始输入图像进行平滑滤波,图像中的每个像素p(i,j),以坐标(i,j)为中心,取3*3大小的图像区域,计算区域中像素的光谱均值作为当前像素p(i,j)的滤波后光谱值,得到滤波处理后的两时相遥感图像;将图像RGB颜色空间投影CIELab颜色空间,得到图像中每个像素在CIELab颜色空间中的颜色特征值;以前一步获取的过分割图像为基础,每个过分割区域中所有像素的Lab颜色特征的均值作为该区域的CIELab特征,得到每个区域的3维CIELab颜色特征;其中,RGB颜色空间到CIELab颜色空间的转换计算公式为:
X = 0.412453 * R + 0.357580 * G + 0.180423 * B 0.950456
Y = 0.212671 * R + 0.715160 * G + 0.072169 * B 1
Z = 0.019334 * R + 0.119193 * G + 0.950227 * B 1.088754
XT=X>th,YT=Y>th,ZT=Z>th,th=0.008856
fX=XT.*X1/3+(~XT).*(7.787.*X+16/116)
fY=YT.*Y1/3+(~YT).*(7.787.*Y+16/116)
fZ=ZT.*Z1/3+(~ZT).*(7.787.*Z+16/116)
L=YT.*(116*Y1/3-16.0)+(~YT).*(903.3.*Y)
a=500*(fX-fY)
b=200*(fY-fZ)    .(1)
其中,X、Y、Z、fX、fY、fZ其仅为计算中间值,没有具体的物理含义。R、G和B分别为相应像素的RGB颜色体系的R/G/B分量值。L、a和b分别为转换后的相应像素的CIELab颜色体系的L、a和b各分量的值。th为判断阈值。XT、YT、ZT分别表示X、Y、Z大于判断阈值th的部分。
纹理特征主要是提取Gabor纹理特征,其步骤为:将原始输入遥感图像转化为灰度图像,转化方法为直接将图像R、G、B三个通道上每个像素的光谱值相加求均值,作为灰度图像的光谱值;构造Gabor滤波器如下:
Figure BDA00003049890700061
x'=xcosθ+ysinθ
y'=-xsinθ+ycosθ    (2)
其中,λ为波长,θ为Gabor滤波器的条带方向,为Gabor滤波器的相位参数,γ为长宽比,控制Gabor滤波器的椭球率。Gabor能量函数定义如下形式:
e λ , θ ( x , y ) = γ λ , θ , 0 2 ( x , y ) + γ λ , θ , - π 2 2 ( x , y ) - - - ( 3 )
其中,
Figure BDA00003049890700064
Figure BDA00003049890700065
分别为gλ,θ,0(x,y)和与灰度图像卷积的结果;本发明中设定Gabor滤波器的尺度参数λ分别取[12345],方向参数θ分别取[0π/4(2*π)/4(3*π)/4(4*π)/4(5*π)/4(6*π)/4(7*π)/4],可以构造40种Gabor滤波器,使用每个滤波器对灰度图像滤波,即将每个Gabor滤波器与灰度图像进行卷积;以图像过分割区域为单位,区域中所有像素的Gabor纹理特征的均值作为该区域的Gabor特征,得到每个区域的40维Gabor纹理特征;
SIFT特征(D.Lowe,“Distinctive image features from scale invariantkeypoints,”Int.J.Computer Vision,vol.60,no.2,pp.91–110,Dec.2004.)提取步骤为:首先,对图像进行归一化预处理,再将图像放大两倍并预滤波剔除噪声。定义图像的尺度空间为L(x,y,σ),它是由可变尺度高斯G(x,y,σ)和输入图像I(x,y)卷积得到:
L ( x , y , σ ) = G ( x , y , σ ) ⊗ I ( x , y ) - - - ( 4 )
式中,
Figure BDA00003049890700068
为x和y的卷积算子,σ为尺度因子;其次,在图像二维平面空间和高斯差分(DOG,Difference of Gaussian)尺度空间中同时检测局部极值以作为特征点,DOG算子如下:
D(x,y,σ)=L(x,y,kσ)-L(x,y,σ)    (5)
式中,k为常数因子;再次,得到精确特征点后,去除其中对比度低和稳定性差的边缘特征点;最后,当检测完图像的特征点后,这时每个特征点包含了三个信息:位置,所在尺度,方向。SIFT特征是在此关键点及其邻近的4×4的小块中,计算8个方向的梯度直方图,得到一个128维的向量。此时SIFT特征向量已经去除了尺度变化、旋转等几何变形因素的影响,再继续将特征向量的长度归一化,则可以进一步去除光照变化的影响。对全部用来测试的图像提取了SIFT特征。
熵特征提取步骤为:将原始输入遥感图像转化为灰度图像,转化方法为直接将图像R、G、B三个通道上每个像素的光谱值相加求均值,作为灰度图像的光谱值;以过分割图像中每个区域为单位,计算图像区域的熵,得到每个区域的1维熵特征。熵特征的计算公式如下:
entry = Σ i = 1 255 P i log P i · - - - ( 6 )
其中,pi表示图像区域中灰度值为i的像素个数占整个图像区域中像素个数的比例。
分步骤S104a,计算过分割区域内像素各特征均值作为该待处理过分割区域的特征。
分步骤S104b,分别对每个过分割区域的颜色特征、纹理特征、SIFT特征和熵特征进行归一化处理,将归一化之后的颜色特征、纹理特征、SIFT特征和熵特征合并为一个特征向量,作为该过分割区域的特征矢量。其中,归一化处理公式表示如下:
f'=(f-min(min(f)))/(max(max(f))-min(min(f))).    (7)
其中,f分别为上述的CIELab颜色特征、Gabor纹理特征、SIFT特征、熵特征。
步骤S106,以某个尺度上图像为词袋,以该图像中的过分割区域为多示例学习中的示例,以过分割区域的特征向量为示例的特征,在每个尺度上构造一个多示例-多标记学习框架,从而在多个尺度上形成一个等级语义多示例-多标记学习框架,利用训练样本分别在每个尺度上训练多示例-多标记学习框架中的分类器,得到最佳分类器参数设置;
该步骤又可以分为以下步骤:
步骤S106a,单尺度上多示例-多标记学习方法的构建:对于某一尺度上的图像,S102步骤产生的图像的过分割区域作为多示例-多标记学习的示例,该尺度上图像的所有过分割区域对应的示例构成一个词袋,每个过分割区域的特征向量作为多示例-多标记学习中示例的特征,每个区域的标注决定了示例的标记;通过“区域-示例,图像-词袋”的映射,在单尺度图像上完成多示例-多标记学习框架的构造。
步骤S106b,多尺度上多示例-多标记学习方法的构建:将S106a步骤中构造的单尺度上多示例-多标记学习方法框架按照S102a步骤中图像多尺度分解方法由低空间分辨率尺度到高空间分辨率尺度递增的顺序结合起来,形成一幅高分辨率遥感图像在多个尺度上的多示例-多标记学习方法等级框架;通过“词袋-图像,示例-区域,尺度-等级”的映射,形成多尺度等级多示例-多标记学习框架;
步骤S106c,训练样本数据集准备:其中,Xi为某一幅高分辨率光学遥感图像(图像空间分辨率高于2米/像素,图像包含RGB三个波段),表示一个词袋;
Figure BDA00003049890700082
为图像Xi通过S102步骤、S104步骤获取的多尺度示例集合,其中,图像Xi分解为s个尺度,每个尺度上有j个过分割区域,每个区域对应的特征矢量为
Figure BDA00003049890700083
,表示为图像Xi的第s尺度上第j个过分割区域的特征矢量,即为词袋Xi第s尺度上第j个示例的特征矢量;
Figure BDA00003049890700084
为训练样本Xi的对应类别概率标记,指示训练样本Xi中每个区域属于变化类或者属于不变化类的概率;如果一个词袋Xi中所有的示例
Figure BDA00003049890700085
均标记为负样本Yi=-1,则该词袋被标记为副词袋;如果一个词袋Xi中有一个示例
Figure BDA00003049890700086
被标记为正样本,则该词袋被标记为正词袋Yi=+1;所有训练样本相同尺度s上的词袋和标记
Figure BDA00003049890700087
构成尺度s上的多示例-多标记学习方法的训练样本集,根据S104步骤中提取的示例特征
Figure BDA00003049890700088
,即为对应该尺度s上训练样本集的特征矢量集合
Figure BDA00003049890700089
步骤S106d,分类器训练:本发明中采用支持向量机(Support Vector Machine,SVM)分类器,分类器使用高斯径向基核函数(Gaussian Radial Basis Function,RBF),表达式如下:
k ( F i ( s ) , F j ( s ) ) = θ 0 exp ( - | F i ( s ) - F j ( s ) | 2 2 σ 2 ) - - - ( 8 )
其中,θ0为高斯径向基核函数的幅值控制参数,σ为高斯径向基核函数的尺度控制参数;
Figure BDA00003049890700091
表示S104中获取的图像特征矢量集合,θ0和σ即为需要训练设置的两个高斯核参数;利用给定的训练样本集
Figure BDA00003049890700092
对应的每个尺度s上的特征矢量集合和标记集合Yi,对支持向量机分类器进行训练,得到最佳的分类器参数设置;多个尺度上分类器构成一个分类器组,每个分类器对应一组最佳参数设置。
步骤S108,利用已训练的多示例-多标记学习框架中的分类器,自低尺度到高尺度为序,对测试数据首先在低尺度上进行语义标注,并将标注的语义信息传递到高尺度,在低尺度语义信息辅助下对高尺度上图像进行语义标注;标注结果以概率形式输出,所有尺度上的语义标注结果构成图像地物类型等级标注置信构成图;
支持向量机分类器在标注过程中输出每个标注标签的概率值,作为该语义标签的置信度;一幅图像所有尺度上的语义标注结果构成图像地物类型等级标注置信构成图,各个语义标签之间存在隶属等级关系。
该步骤又可以分为以下步骤:
步骤S108a,利用步骤S106d训练所得的支持向量机分类器组,自低尺度开始,对待标注的图像由步骤S104所获取的在s=1尺度上的特征向量组成的测试特征集
Figure BDA00003049890700094
进行分类,得到s=1尺度上测试特征集中每个词袋的标注类别概率
Figure BDA00003049890700095
步骤S108b,将步骤S108a所得的s=1尺度上的词袋的标注类别概率
Figure BDA00003049890700096
传递给s=2尺度上,利用步骤S106d训练所得的支持向量机分类器组,在s=1尺度上的词袋的标注类别概率
Figure BDA00003049890700097
指导下,对待标注的图像由步骤S104所获取的在s=2尺度上的特征向量组成的测试特征集
Figure BDA00003049890700098
进行分类,得到s=2尺度上测试特征集中每个词袋的标注类别概率
Figure BDA00003049890700099
;指导原则为:低尺度上的语义标签涵盖高尺度上的语义标签,高尺度上语义标签隶属于低尺度上语义标签,高尺度上语义标签不能与低尺度上语义标签相矛盾;
步骤S108c,按照多尺度变换尺度数,依次进行标注类别概率传递和词袋标注类别概率预测;
步骤S108d,所有尺度上的语义标注结果构成待标记图像的等级语义标注结构图,该结构图表示了图像在多个不同空间尺度上的语义标注隶属关系。
本发明的方法框架示意图如图2所示,本实例中图像多尺度变换中尺度数为3。
以下进一步说明本发明的应用实例:实例给出了以Ikonos、QuickBird、Worldview多光谱图像组成的高分辨率遥感图像数据集的测试结果。图像数据集包含图像903幅,图像空间尺度范围为0.5米-2.5米,如图3所示给出了部分数据,根据本数据集特点,图像语义标注类型包括如下12类:海洋,港口,船只,陆地,乡村,城市,沙漠,机场,农田,建筑物,油罐,飞机。图像数据集中平均每幅图像的语义标注标签个数为3个。
另外,将本发明的方法与其他两种变化检测方法进行对比。其中,第一种方法为基于支持向量机分类器的单尺度多示例-多标记学习方法(Z.Zhou and M.Zhang,“Multi-instance multi-label learning with application to scene classification”,in Proc.Neural Information Processing Systems(NIPS),British Columbia,Canada,2006.);第二种方法是基于Boosting算法的单尺度多示例-多标记学习方法(Z.Zhou and M.Zhang,“Multi-instance multi-label learning with application to sceneclassification”,in Proc.Neural Information Processing Systems(NIPS),BritishColumbia,Canada,2006.)。标注结果从六个方面进行评价(见表一):1)Averageprecision;2)Coverage;3)Hamming loss;4)One-error;5)Ranking loss;(R.E.Schapire and Y.Singer,“BOOSTEXTER:a boosting-based system for textcategorization,”Machine Learning,vol.39,no.2/3,pp.135–168,2000.),以及6)计算时间。
表一变化检测结果量化比较结果
本发明方法 对比方法一 对比方法二
Average precision 0.83 0.78 0.46
Coverage 0.40 1.86 3.43
Hamming loss 0.23 0.15 0.18
One-error 0.26 0.26 0.30
Ranking loss 0.19 0.13 0.55
计算时间(second) 4.35 4.74 3944.34
量化比较结果说明本发明获取的图像自动标注结果较比较的两种方法的标注准确率有较大提高。
需要说明的是,上述对各元件的定义并不仅限于实施方式中提到的各种具体结构或形状,本领域的普通技术人员可对其进行简单地熟知地替换,例如:
(1)S102a步骤中小波分解方法可以用其他图像多尺度分解方法代替,例如直接降采样方法,由于降采样方法为本领域内公知的方法,此处不再详细描述;
(2)S102b步骤中分水岭分割方法图像过分割方法还可以用其他图像过分割方法,如meanshift方法、Ncut方法代替,由于meanshift方法、Ncut方法均为本领域内公知的方法,此处不再详细描述;
(3)S104步骤中特征提取方法可以使用其他类型图像特征描述方法,对图像进行特征提取;
(4)S106步骤中分类器的选取可以使用其他分类器,例如Boosting分类器、高斯过程分类器、KNN分类器等,这些分类器均为本领域内公知的方法,此处不再详细描述。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种高分辨率遥感图像自动语义标记方法,包括: 
步骤S102,对高分辨率遥感图像进行多尺度分解,自低分辨率尺度开始,每个尺度上的图像进行过分割,获取多个尺度上的过分割区域; 
步骤S104,以每个尺度上过分割区域为单位对每一幅遥感图像提取颜色特征、纹理特征,SIFT特征以及熵特征,以过分割区域为单位构造特征向量; 
步骤S106,以某个尺度上图像为词袋,以该图像中的过分割区域为多示例学习中的示例,以过分割区域的特征向量为示例的特征,在每个尺度上构造一个多示例-多标记学习框架,从而在多个尺度上形成一个等级语义多示例-多标记学习框架,利用训练样本分别在每个尺度上训练多示例-多标记学习框架中的分类器,得到最佳分类器参数设置; 
步骤S108,利用已训练的多示例-多标记学习框架中的分类器,自低尺度到高尺度为序,对测试数据首先在低尺度上进行语义标注,并将标注的语义信息传递到高尺度,在低尺度语义信息辅助下对高尺度上图像进行语义标注;标注结果以概率形式输出,所有尺度上的语义标注结果构成图像地物类型等级标注置信构成图。 
2.根据权利要求1所述的高分辨率遥感图像自动语义标记方法,其特征在于:所述步骤S102中对高分辨率遥感图像进行多尺度分解,利用小波金字塔变换方法对每幅图像进行多个尺度分解,由每一层的小波低频系数图像及原始图像构成多尺度图像序列。 
3.根据权利要求1所述的高分辨率遥感图像自动语义标记方法,其特征在于:所述步骤S102中自低分辨率尺度开始,每个尺度上的图像进行过分割,利用分水岭分割方法自低分辨率尺度开始,在每个尺度上进行图像过分割。 
4.根据权利要求1所述的高分辨率遥感图像自动语义标记方法,其特征在于:所述等级多示例-多标记学习框架构建的步骤包括: 
单尺度上多示例-多标记学习方法的构建:每个尺度上的图像的每个过分割区域作为多示例-多标记学习方法中的一个示例,该尺度上的图像作为多示例-多标记学习方法中的一个词袋,区域的特征矢量对应为该示例的特征表述,区域的标注作为示例的标记;如果一个词袋中所有的示例均标记为负样本时,该词袋被标记为副词袋;如果一个词袋中有一个示例被标记为正样本时,该词袋被标记为正词袋;通过“词袋-图像,示例-区域”的映射,完成单一尺度上遥感图像的多示例-多标记学习框架构建; 
多尺度上多示例-多标记学习方法的构建:通过前一步骤单一尺度上遥感图像的多示例-多标记学习框架构建,按照图像尺度分割获取的尺度等级顺序,将每个单尺度多示例-多标记学习框架结合起来,通过“词袋-图像,示例-区域,尺度-等级”的映射,形成多尺度等级多示例-多标记学习框架。 
5.根据权利要求1所述的高分辨率遥感图像自动语义标记方法,其特征在于:所述的等级多示例-多标记学习框架中分类器训练,其步骤包括: 
训练样本集建设过程中,首先图像等级尺度分割和特征表述,然后对图像进行多尺度语义标注;多尺度语义标注的准则是:以遥感图像地物先验信息为辅助,低尺度上的语义标签涵盖高尺度上的语义标签,各个尺度上的语义标签是隶属关系,不能存在冲突矛盾;每个语义标签按照图像中包含语义信息的多少根据人工专家经验按照置信度大小进行概率标注; 
多示例-多标记学习框架中分类器选取支持向量机分类器,分类器训练过程就是利用已标注样本对支持向量机分类器参数设置的过程;在训练过程中,自低尺度图像向高尺度图像逐尺度训练,低尺度上的训练参数作为高尺度上训练参数设置的先验; 
利用给定的训练样本集对应的每个尺度上的特征矢量集合和标记集合,对支持向量机分类器进行训练,得到最佳的分类器参数设置;多个尺度上分类器构成一个分类器组,每个分类器对应一组最佳参数设置。 
6.根据权利要求1或5所述的高分辨率遥感图像自动语义标记方法,其特征在于:所述分类器训练采用支持向量机分类器,该分类器使用高斯径向基核函数。 
CN201310128944.2A 2013-04-15 2013-04-15 一种高分辨率遥感图像自动语义标记方法 Active CN103198333B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310128944.2A CN103198333B (zh) 2013-04-15 2013-04-15 一种高分辨率遥感图像自动语义标记方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310128944.2A CN103198333B (zh) 2013-04-15 2013-04-15 一种高分辨率遥感图像自动语义标记方法

Publications (2)

Publication Number Publication Date
CN103198333A true CN103198333A (zh) 2013-07-10
CN103198333B CN103198333B (zh) 2016-01-20

Family

ID=48720864

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310128944.2A Active CN103198333B (zh) 2013-04-15 2013-04-15 一种高分辨率遥感图像自动语义标记方法

Country Status (1)

Country Link
CN (1) CN103198333B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413142A (zh) * 2013-07-22 2013-11-27 中国科学院遥感与数字地球研究所 一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法
CN103823845A (zh) * 2014-01-28 2014-05-28 浙江大学 一种基于深度学习的遥感影像自动标注方法
CN104077352A (zh) * 2014-05-27 2014-10-01 浙江大学 基于能量模型的图像语义标注方法
CN104239885A (zh) * 2014-09-05 2014-12-24 北京航天控制仪器研究所 一种基于无人机航拍的地震灾害损毁度评估方法
CN104700100A (zh) * 2015-04-01 2015-06-10 哈尔滨工业大学 面向高空间分辨率遥感大数据的特征提取方法
CN104867118A (zh) * 2015-05-15 2015-08-26 湖南大学 一种用于增强图像标记效果的多尺度级联层次模型方法
CN105138953A (zh) * 2015-07-09 2015-12-09 浙江大学 一种基于连续的多实例学习的视频中动作识别的方法
CN105427309A (zh) * 2015-11-23 2016-03-23 中国地质大学(北京) 面向对象高空间分辨率遥感信息提取的多尺度分层处理方法
CN105513079A (zh) * 2015-12-16 2016-04-20 中国科学院电子学研究所 大尺度时间序列遥感图像变化区域的检测方法
CN105701502A (zh) * 2016-01-06 2016-06-22 福州大学 一种基于蒙特卡罗数据均衡的图像自动标注方法
CN106023145A (zh) * 2016-05-06 2016-10-12 哈尔滨工程大学 基于超像素标注的遥感图像的分割与识别方法
CN106022389A (zh) * 2016-05-30 2016-10-12 南京航空航天大学 一种主动选择多示例多标记数字图像的相关反馈方法
CN107092870A (zh) * 2017-04-05 2017-08-25 武汉大学 一种高分辨率影像语意信息提取方法及系统
CN107273928A (zh) * 2017-06-14 2017-10-20 上海海洋大学 一种基于权重特征融合的遥感图像自动标注方法
CN108256420A (zh) * 2017-12-05 2018-07-06 交通运输部规划研究院 一种利用多光谱分析监测港口特定地物的方法
CN109344880A (zh) * 2018-09-11 2019-02-15 天津理工大学 基于多特征和复合核的sar图像分类方法
CN109409503A (zh) * 2018-09-27 2019-03-01 深圳市铱硙医疗科技有限公司 神经网络的训练方法、图像转换方法、装置、设备及介质
CN110197182A (zh) * 2019-06-11 2019-09-03 中国电子科技集团公司第五十四研究所 基于上下文信息和注意力机制的遥感影像语义分割方法
CN111580947A (zh) * 2020-04-29 2020-08-25 中国科学院空天信息创新研究院 一种基于人工智能的在线协同化遥感图像标注系统
CN112395993A (zh) * 2020-11-18 2021-02-23 珠海大横琴科技发展有限公司 基于监控视频数据的遮挡船只检测方法、装置及电子设备
CN112966715A (zh) * 2021-02-02 2021-06-15 哈尔滨商业大学 一种基于多尺度视觉词包模型的商品图像特征描述方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101226521A (zh) * 2008-02-18 2008-07-23 南京大学 一种用于多义性数据对象预测建模的机器学习方法
US20090310854A1 (en) * 2008-06-16 2009-12-17 Microsoft Corporation Multi-Label Multi-Instance Learning for Image Classification
CN102542590A (zh) * 2011-12-27 2012-07-04 上海交通大学 基于监督主题模型的高分辨率sar影像标注方法
CN102542302A (zh) * 2010-12-21 2012-07-04 中国科学院电子学研究所 基于分等级对象语义图的复杂目标自动识别方法
CN102945550A (zh) * 2012-10-15 2013-02-27 武汉大学 一种基于高斯尺度空间构建遥感影像语义的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101226521A (zh) * 2008-02-18 2008-07-23 南京大学 一种用于多义性数据对象预测建模的机器学习方法
US20090310854A1 (en) * 2008-06-16 2009-12-17 Microsoft Corporation Multi-Label Multi-Instance Learning for Image Classification
CN102542302A (zh) * 2010-12-21 2012-07-04 中国科学院电子学研究所 基于分等级对象语义图的复杂目标自动识别方法
CN102542590A (zh) * 2011-12-27 2012-07-04 上海交通大学 基于监督主题模型的高分辨率sar影像标注方法
CN102945550A (zh) * 2012-10-15 2013-02-27 武汉大学 一种基于高斯尺度空间构建遥感影像语义的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
徐英 等: "结合小波去噪的 THz 图像多尺度增强算法研究", 《传感技术学报》 *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413142A (zh) * 2013-07-22 2013-11-27 中国科学院遥感与数字地球研究所 一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法
CN103413142B (zh) * 2013-07-22 2017-02-08 中国科学院遥感与数字地球研究所 一种基于二维小波分解及视觉词包模型的遥感图像土地利用场景分类方法
CN103823845B (zh) * 2014-01-28 2017-01-18 浙江大学 一种基于深度学习的遥感影像自动标注方法
CN103823845A (zh) * 2014-01-28 2014-05-28 浙江大学 一种基于深度学习的遥感影像自动标注方法
CN104077352A (zh) * 2014-05-27 2014-10-01 浙江大学 基于能量模型的图像语义标注方法
CN104077352B (zh) * 2014-05-27 2017-07-21 浙江大学 基于能量模型的图像语义标注方法
CN104239885A (zh) * 2014-09-05 2014-12-24 北京航天控制仪器研究所 一种基于无人机航拍的地震灾害损毁度评估方法
CN104239885B (zh) * 2014-09-05 2017-11-28 北京航天控制仪器研究所 一种基于无人机航拍的地震灾害损毁度评估方法
CN104700100A (zh) * 2015-04-01 2015-06-10 哈尔滨工业大学 面向高空间分辨率遥感大数据的特征提取方法
CN104867118A (zh) * 2015-05-15 2015-08-26 湖南大学 一种用于增强图像标记效果的多尺度级联层次模型方法
CN104867118B (zh) * 2015-05-15 2017-06-20 湖南大学 一种用于增强图像标记效果的多尺度级联层次模型方法
CN105138953A (zh) * 2015-07-09 2015-12-09 浙江大学 一种基于连续的多实例学习的视频中动作识别的方法
CN105138953B (zh) * 2015-07-09 2018-09-21 浙江大学 一种基于连续的多实例学习的视频中动作识别的方法
CN105427309A (zh) * 2015-11-23 2016-03-23 中国地质大学(北京) 面向对象高空间分辨率遥感信息提取的多尺度分层处理方法
CN105427309B (zh) * 2015-11-23 2018-10-23 中国地质大学(北京) 面向对象高空间分辨率遥感信息提取的多尺度分层处理方法
CN105513079A (zh) * 2015-12-16 2016-04-20 中国科学院电子学研究所 大尺度时间序列遥感图像变化区域的检测方法
CN105513079B (zh) * 2015-12-16 2018-07-10 中国科学院电子学研究所 大尺度时间序列遥感图像变化区域的检测方法
CN105701502A (zh) * 2016-01-06 2016-06-22 福州大学 一种基于蒙特卡罗数据均衡的图像自动标注方法
CN105701502B (zh) * 2016-01-06 2020-11-10 福州大学 一种基于蒙特卡罗数据均衡的图像自动标注方法
CN106023145A (zh) * 2016-05-06 2016-10-12 哈尔滨工程大学 基于超像素标注的遥感图像的分割与识别方法
CN106022389A (zh) * 2016-05-30 2016-10-12 南京航空航天大学 一种主动选择多示例多标记数字图像的相关反馈方法
CN106022389B (zh) * 2016-05-30 2019-05-14 南京航空航天大学 一种主动选择多示例多标记数字图像的相关反馈方法
CN107092870A (zh) * 2017-04-05 2017-08-25 武汉大学 一种高分辨率影像语意信息提取方法及系统
CN107092870B (zh) * 2017-04-05 2019-11-26 武汉大学 一种高分辨率影像语义信息提取方法
CN107273928A (zh) * 2017-06-14 2017-10-20 上海海洋大学 一种基于权重特征融合的遥感图像自动标注方法
CN108256420B (zh) * 2017-12-05 2018-11-23 天津大学 一种利用多光谱分析监测港口特定地物的方法
CN108256420A (zh) * 2017-12-05 2018-07-06 交通运输部规划研究院 一种利用多光谱分析监测港口特定地物的方法
CN109344880A (zh) * 2018-09-11 2019-02-15 天津理工大学 基于多特征和复合核的sar图像分类方法
CN109409503A (zh) * 2018-09-27 2019-03-01 深圳市铱硙医疗科技有限公司 神经网络的训练方法、图像转换方法、装置、设备及介质
CN110197182A (zh) * 2019-06-11 2019-09-03 中国电子科技集团公司第五十四研究所 基于上下文信息和注意力机制的遥感影像语义分割方法
CN111580947A (zh) * 2020-04-29 2020-08-25 中国科学院空天信息创新研究院 一种基于人工智能的在线协同化遥感图像标注系统
CN112395993A (zh) * 2020-11-18 2021-02-23 珠海大横琴科技发展有限公司 基于监控视频数据的遮挡船只检测方法、装置及电子设备
CN112966715A (zh) * 2021-02-02 2021-06-15 哈尔滨商业大学 一种基于多尺度视觉词包模型的商品图像特征描述方法
CN112966715B (zh) * 2021-02-02 2021-09-07 哈尔滨商业大学 一种基于多尺度视觉词包模型的商品图像特征描述方法

Also Published As

Publication number Publication date
CN103198333B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
CN103198333B (zh) 一种高分辨率遥感图像自动语义标记方法
Zhang et al. Airport detection and aircraft recognition based on two-layer saliency model in high spatial resolution remote-sensing images
Cheng et al. FusionNet: Edge aware deep convolutional networks for semantic segmentation of remote sensing harbor images
Alshehhi et al. Hierarchical graph-based segmentation for extracting road networks from high-resolution satellite images
Volpi et al. Semantic segmentation of urban scenes by learning local class interactions
Wang et al. A survey of methods incorporating spatial information in image classification and spectral unmixing
CN104915636B (zh) 基于多级框架显著性特征的遥感影像道路识别方法
Cheng et al. Accurate urban road centerline extraction from VHR imagery via multiscale segmentation and tensor voting
Alidoost et al. A CNN-based approach for automatic building detection and recognition of roof types using a single aerial image
CN103049763B (zh) 一种基于上下文约束的目标识别方法
Guo et al. Superpixel-based active learning and online feature importance learning for hyperspectral image analysis
Jamil et al. Tree species extraction and land use/cover classification from high-resolution digital orthophoto maps
Cheng et al. Efficient sea–land segmentation using seeds learning and edge directed graph cut
Jiao et al. A survey of road feature extraction methods from raster maps
Khosravi et al. Performance evaluation of object-based and pixel-based building detection algorithms from very high spatial resolution imagery
Fleyeh Traffic and road sign recognition
Wang et al. Classification of high spatial resolution remote sensing images based on decision fusion
Yao et al. Object extraction based on 3d-segmentation of lidar data by combining mean shift with normalized cuts: Two examples from urban areas
CN105513079A (zh) 大尺度时间序列遥感图像变化区域的检测方法
Makuti et al. Multi-temporal classification and change detection using uav images
Zhao et al. Spectral-spatial classification integrating band selection for hyperspectral imagery with severe noise bands
Chen et al. Context-aware lane marking detection on urban roads
Gao et al. Airborne lidar point cloud classification based on multilevel point cluster features
Candare et al. Mapping of high value crops through an object-based SVM model using lidar data and orthophoto in Agusan del Norte Philippines
Ooi et al. Fuzzy clustering of color and texture features for image segmentation: a study on satellite image retrieval

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210105

Address after: 100190 No. 19 West North Fourth Ring Road, Haidian District, Beijing

Patentee after: Research Institute of aerospace information innovation, Chinese Academy of Sciences

Address before: 100080, No. 19 West Fourth Ring Road, Beijing, Haidian District

Patentee before: Institute of Electronics, Chinese Academy of Sciences

Effective date of registration: 20210105

Address after: 250101 No.9, Kuangyuan Road, Gongye North Road, Wangsheren street, Licheng District, Jinan City, Shandong Province

Patentee after: Jigang Defense Technology Co.,Ltd.

Address before: 100190 No. 19 West North Fourth Ring Road, Haidian District, Beijing

Patentee before: Research Institute of aerospace information innovation, Chinese Academy of Sciences

TR01 Transfer of patent right