发明内容
本发明提供了一种高分辨率遥感图像自动语义标记方法,将目标等级语义模型和多示例-多标记学习方法相结合,通过利用遥感图像中目标语义之间的等级隶属先验信息,构建目标等级语义模型,以克服传统多示例-多标记学习方法中对示例之间语义相关性以及语义等级约束的忽略造成的标注精度不高。
本发明的技术方案为:
步骤S102,对高分辨率遥感图像进行多尺度分解,自低分辨率尺度开始,每个尺度上的图像进行过分割,获取多个尺度上的过分割区域;
步骤S104,以每个尺度上过分割区域为单位对每一幅遥感图像提取颜色特征、纹理特征,SIFT特征以及熵特征,以过分割区域为单位构造特征向量;
步骤S106,以某个尺度上图像为词袋,以该图像中的过分割区域为多示例学习中的示例,以过分割区域的特征向量为示例的特征,在每个尺度上构造一个多示例-多标记学习框架,从而在多个尺度上形成一个等级语义多示例-多标记学习框架,利用训练样本分别在每个尺度上训练多示例-多标记学习框架中的分类器,得到最佳分类器参数设置;
步骤S108,利用已训练的多示例-多标记学习框架中的分类器,自低尺度到高尺度为序,对测试数据首先在低尺度上进行语义标注,并将标注的语义信息传递到高尺度,在低尺度语义信息辅助下对高尺度上图像进行语义标注;标注结果以概率形式输出,所有尺度上的语义标注结果构成图像地物类型等级标注置信构成图。
所述步骤S102中对高分辨率遥感图像进行多尺度分解,利用小波金字塔变换方法对每幅图像进行多个尺度分解,由每一层的小波低频系数图像及原始图像构成多尺度图像序列。
所述步骤S102中自低分辨率尺度开始,每个尺度上的图像进行过分割,利用分水岭分割方法自低分辨率尺度开始,在每个尺度上进行图像过分割。
所述等级多示例-多标记学习框架构建的步骤包括:
单尺度上多示例-多标记学习方法的构建:每个尺度上的图像的每个过分割区域作为多示例-多标记学习方法中的一个示例,该尺度上的图像作为多示例-多标记学习方法中的一个词袋,区域的特征矢量对应为该示例的特征表述,区域的标注作为示例的标记;如果一个词袋中所有的示例均标记为负样本时,该词袋被标记为副词袋;如果一个词袋中有一个示例被标记为正样本时,该词袋被标记为正词袋;通过“词袋-图像,示例-区域”的映射,完成单一尺度上遥感图像的多示例-多标记学习框架构建;
多尺度上多示例-多标记学习方法的构建:通过前一步骤单一尺度上遥感图像的多示例-多标记学习框架构建,按照图像尺度分割获取的尺度等级顺序,将每个单尺度多示例-多标记学习框架结合起来,通过“词袋-图像,示例-区域,尺度-等级”的映射,形成多尺度等级多示例-多标记学习框架;
所述的等级多示例-多标记学习框架中分类器训练,其步骤包括:
训练样本集建设过程中,首先图像等级尺度分割和特征表述,然后对图像进行多尺度语义标注;多尺度语义标注的准则是:以遥感图像地物先验信息为辅助,低尺度上的语义标签涵盖高尺度上的语义标签,各个尺度上的语义标签是隶属关系,不能存在冲突矛盾;每个语义标签按照图像中包含语义信息的多少根据人工专家经验按照置信度大小进行概率标注;
多示例-多标记学习框架中分类器选取支持向量机分类器,分类器训练过程就是利用已标注样本对支持向量机分类器参数设置的过程;在训练过程中,自低尺度图像向高尺度图像逐尺度训练,低尺度上的训练参数作为高尺度上训练参数设置的先验;
利用给定的训练样本集对应的每个尺度上的特征矢量集合和标记集合,对支持向量机分类器进行训练,得到最佳的分类器参数设置;多个尺度上分类器构成一个分类器组,每个分类器对应一组最佳参数设置。
所述分类器训练采用支持向量机分类器,该分类器使用高斯径向基核函数。
本发明的有益效果为:
(1)将遥感图像的尺度特点以多尺度形式表现出来,并将多示例-多标记学习方法和多尺度分割方法相结合,以多尺度目标区域为单位,更加切合遥感图像,特别是高分辨率遥感图像的特点,提高了多示例-多标记学习方法对遥感图像建模的准确性;
(2)利用遥感图像地物先验信息构建遥感图像等级语义模型,指导遥感图像语义标注,并将目标等级语义模型和多示例-多标记学习方法相结合,有效地解决了传统多示例-多标记学习方法忽略示例之间语义相关性的问题,提高了图像标注精度;
(3)图像标注结果中不仅给出语义标签,还给出了每个标签的概率置信度,实现了图像标注的定量表示。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,在附图或说明书描述中,相似或相同的部分都使用相同的图号。且在附图中,实施例以简化或是方便标示。再者,附图中未绘示或描述的实现方式,为所属技术领域中普通技术人员所知的形式。另外,虽然本文可提供包含特定值的参数的示范,但应了解,参数无需确切等于相应的值,而是可在可接受的误差容限或设计约束内近似于相应的值。
本发明高分辨率遥感图像自动标注方法中,将目标等级语义模型与多示例-多标记学习方法相结合,利用遥感图像地物先验信息构建遥感图像等级语义模型,指导遥感图像语义标注,有效地解决了传统多示例-多标记学习方法忽略示例之间语义相关性的问题,提高了图像标注精度。
图1为本发明实施例高分辨率遥感图像自动标注的流程示意图。如图1所示,本实施例包括以下步骤:
步骤S102,对高分辨率遥感图像进行多尺度分解,自低分辨率尺度开始,每个尺度上的图像进行过分割,获取多个尺度上的过分割区域;
其中,上述的高分辨率遥感图像优选光学遥感图像,其图像空间分辨率高于2米/像素,图像包含RGB三个波段。
该步骤又可以分为以下步骤:
步骤S102a,利用小波金字塔变换方法对每幅图像进行多个尺度分解,由每一层的小波低频系数图像及原始图像构成多尺度图像序列。之所以采用小波方法,是因为小波系数包含上下文信息,有助于提高可分性。其中,原始输入图像的空间尺度为最高。具体尺度分解的层数就标注实际应用目的而定:实际应用中小波分解的层数根据原始图像分辨率和目标-分辨率关系共同决定,所需的语义标注等级层数越多则尺度分解次数越高,反之,则分解次数越低。
步骤S102b,利用分水岭分割方法(J.Roerdink and A.Meijster,“TheWatershed Transform:Definitions,Algorithms,and Parallellization Strategies,”Fundamenta Informaticae,vol.41,pp.187-228,2000.),自低分辨率尺度开始,在每个尺度上进行图像过分割,每个过分割区域具备一定的区域同质一致性,即为同质区域。在过分割过程中,为了保证区域的最大一致性以及语义标注的实际解译性,选取区域面积作为约束条件,即当某个分割区域的总像素个数少于200时该区域停止分割;将低尺度上的过分割区域映射到高一级尺度图像上,对该区域继续利用分水岭分割方法进行过分割处理,直到最高空间分辨率图像过分割完毕;自低分辨率尺度到高分辨率尺度,低尺度上的过分割区域的细节信息可以在其对应高尺度区域中找到;
步骤S104,以每个尺度上过分割区域为单位对每一幅遥感图像提取颜色特征、纹理特征,SIFT特征以及熵特征,以过分割区域为单位构造特征向量;
其中,颜色特征主要是提取CIELab颜色特征,其步骤为:对原始输入图像进行平滑滤波,图像中的每个像素p(i,j),以坐标(i,j)为中心,取3*3大小的图像区域,计算区域中像素的光谱均值作为当前像素p(i,j)的滤波后光谱值,得到滤波处理后的两时相遥感图像;将图像RGB颜色空间投影CIELab颜色空间,得到图像中每个像素在CIELab颜色空间中的颜色特征值;以前一步获取的过分割图像为基础,每个过分割区域中所有像素的Lab颜色特征的均值作为该区域的CIELab特征,得到每个区域的3维CIELab颜色特征;其中,RGB颜色空间到CIELab颜色空间的转换计算公式为:
XT=X>th,YT=Y>th,ZT=Z>th,th=0.008856
fX=XT.*X1/3+(~XT).*(7.787.*X+16/116)
fY=YT.*Y1/3+(~YT).*(7.787.*Y+16/116)
fZ=ZT.*Z1/3+(~ZT).*(7.787.*Z+16/116)
L=YT.*(116*Y1/3-16.0)+(~YT).*(903.3.*Y)
a=500*(fX-fY)
b=200*(fY-fZ) .(1)
其中,X、Y、Z、fX、fY、fZ其仅为计算中间值,没有具体的物理含义。R、G和B分别为相应像素的RGB颜色体系的R/G/B分量值。L、a和b分别为转换后的相应像素的CIELab颜色体系的L、a和b各分量的值。th为判断阈值。XT、YT、ZT分别表示X、Y、Z大于判断阈值th的部分。
纹理特征主要是提取Gabor纹理特征,其步骤为:将原始输入遥感图像转化为灰度图像,转化方法为直接将图像R、G、B三个通道上每个像素的光谱值相加求均值,作为灰度图像的光谱值;构造Gabor滤波器如下:
x'=xcosθ+ysinθ
y'=-xsinθ+ycosθ (2)
其中,λ为波长,θ为Gabor滤波器的条带方向,为Gabor滤波器的相位参数,γ为长宽比,控制Gabor滤波器的椭球率。Gabor能量函数定义如下形式:
其中,
和
分别为g
λ,θ,0(x,y)和
与灰度图像卷积的结果;本发明中设定Gabor滤波器的尺度参数λ分别取[12345],方向参数θ分别取[0π/4(2*π)/4(3*π)/4(4*π)/4(5*π)/4(6*π)/4(7*π)/4],可以构造40种Gabor滤波器,使用每个滤波器对灰度图像滤波,即将每个Gabor滤波器与灰度图像进行卷积;以图像过分割区域为单位,区域中所有像素的Gabor纹理特征的均值作为该区域的Gabor特征,得到每个区域的40维Gabor纹理特征;
SIFT特征(D.Lowe,“Distinctive image features from scale invariantkeypoints,”Int.J.Computer Vision,vol.60,no.2,pp.91–110,Dec.2004.)提取步骤为:首先,对图像进行归一化预处理,再将图像放大两倍并预滤波剔除噪声。定义图像的尺度空间为L(x,y,σ),它是由可变尺度高斯G(x,y,σ)和输入图像I(x,y)卷积得到:
式中,
为x和y的卷积算子,σ为尺度因子;其次,在图像二维平面空间和高斯差分(DOG,Difference of Gaussian)尺度空间中同时检测局部极值以作为特征点,DOG算子如下:
D(x,y,σ)=L(x,y,kσ)-L(x,y,σ) (5)
式中,k为常数因子;再次,得到精确特征点后,去除其中对比度低和稳定性差的边缘特征点;最后,当检测完图像的特征点后,这时每个特征点包含了三个信息:位置,所在尺度,方向。SIFT特征是在此关键点及其邻近的4×4的小块中,计算8个方向的梯度直方图,得到一个128维的向量。此时SIFT特征向量已经去除了尺度变化、旋转等几何变形因素的影响,再继续将特征向量的长度归一化,则可以进一步去除光照变化的影响。对全部用来测试的图像提取了SIFT特征。
熵特征提取步骤为:将原始输入遥感图像转化为灰度图像,转化方法为直接将图像R、G、B三个通道上每个像素的光谱值相加求均值,作为灰度图像的光谱值;以过分割图像中每个区域为单位,计算图像区域的熵,得到每个区域的1维熵特征。熵特征的计算公式如下:
其中,pi表示图像区域中灰度值为i的像素个数占整个图像区域中像素个数的比例。
分步骤S104a,计算过分割区域内像素各特征均值作为该待处理过分割区域的特征。
分步骤S104b,分别对每个过分割区域的颜色特征、纹理特征、SIFT特征和熵特征进行归一化处理,将归一化之后的颜色特征、纹理特征、SIFT特征和熵特征合并为一个特征向量,作为该过分割区域的特征矢量。其中,归一化处理公式表示如下:
f'=(f-min(min(f)))/(max(max(f))-min(min(f))). (7)
其中,f分别为上述的CIELab颜色特征、Gabor纹理特征、SIFT特征、熵特征。
步骤S106,以某个尺度上图像为词袋,以该图像中的过分割区域为多示例学习中的示例,以过分割区域的特征向量为示例的特征,在每个尺度上构造一个多示例-多标记学习框架,从而在多个尺度上形成一个等级语义多示例-多标记学习框架,利用训练样本分别在每个尺度上训练多示例-多标记学习框架中的分类器,得到最佳分类器参数设置;
该步骤又可以分为以下步骤:
步骤S106a,单尺度上多示例-多标记学习方法的构建:对于某一尺度上的图像,S102步骤产生的图像的过分割区域作为多示例-多标记学习的示例,该尺度上图像的所有过分割区域对应的示例构成一个词袋,每个过分割区域的特征向量作为多示例-多标记学习中示例的特征,每个区域的标注决定了示例的标记;通过“区域-示例,图像-词袋”的映射,在单尺度图像上完成多示例-多标记学习框架的构造。
步骤S106b,多尺度上多示例-多标记学习方法的构建:将S106a步骤中构造的单尺度上多示例-多标记学习方法框架按照S102a步骤中图像多尺度分解方法由低空间分辨率尺度到高空间分辨率尺度递增的顺序结合起来,形成一幅高分辨率遥感图像在多个尺度上的多示例-多标记学习方法等级框架;通过“词袋-图像,示例-区域,尺度-等级”的映射,形成多尺度等级多示例-多标记学习框架;
步骤S106c,训练样本数据集
准备:其中,X
i为某一幅高分辨率光学遥感图像(图像空间分辨率高于2米/像素,图像包含RGB三个波段),表示一个词袋;
为图像X
i通过S102步骤、S104步骤获取的多尺度示例集合,其中,图像X
i分解为s个尺度,每个尺度上有j个过分割区域,每个区域对应的特征矢量为
,表示为图像X
i的第s尺度上第j个过分割区域的特征矢量,即为词袋X
i第s尺度上第j个示例的特征矢量;
为训练样本X
i的对应类别概率标记,指示训练样本X
i中每个区域属于变化类或者属于不变化类的概率;如果一个词袋X
i中所有的示例
均标记为负样本Y
i=-1,则该词袋被标记为副词袋;如果一个词袋X
i中有一个示例
被标记为正样本,则该词袋被标记为正词袋Y
i=+1;所有训练样本相同尺度s上的词袋和标记
构成尺度s上的多示例-多标记学习方法的训练样本集,根据S104步骤中提取的示例特征
,即为对应该尺度s上训练样本集的特征矢量集合
;
步骤S106d,分类器训练:本发明中采用支持向量机(Support Vector Machine,SVM)分类器,分类器使用高斯径向基核函数(Gaussian Radial Basis Function,RBF),表达式如下:
其中,θ
0为高斯径向基核函数的幅值控制参数,σ为高斯径向基核函数的尺度控制参数;
表示S104中获取的图像特征矢量集合,θ
0和σ即为需要训练设置的两个高斯核参数;利用给定的训练样本集
对应的每个尺度s上的特征矢量集合
和标记集合Y
i,对支持向量机分类器进行训练,得到最佳的分类器参数设置;多个尺度上分类器构成一个分类器组,每个分类器对应一组最佳参数设置。
步骤S108,利用已训练的多示例-多标记学习框架中的分类器,自低尺度到高尺度为序,对测试数据首先在低尺度上进行语义标注,并将标注的语义信息传递到高尺度,在低尺度语义信息辅助下对高尺度上图像进行语义标注;标注结果以概率形式输出,所有尺度上的语义标注结果构成图像地物类型等级标注置信构成图;
支持向量机分类器在标注过程中输出每个标注标签的概率值,作为该语义标签的置信度;一幅图像所有尺度上的语义标注结果构成图像地物类型等级标注置信构成图,各个语义标签之间存在隶属等级关系。
该步骤又可以分为以下步骤:
步骤S108a,利用步骤S106d训练所得的支持向量机分类器组,自低尺度开始,对待标注的图像由步骤S104所获取的在s=1尺度上的特征向量组成的测试特征集
进行分类,得到s=1尺度上测试特征集中每个词袋的标注类别概率
步骤S108b,将步骤S108a所得的s=1尺度上的词袋的标注类别概率
传递给s=2尺度上,利用步骤S106d训练所得的支持向量机分类器组,在s=1尺度上的词袋的标注类别概率
指导下,对待标注的图像由步骤S104所获取的在s=2尺度上的特征向量组成的测试特征集
进行分类,得到s=2尺度上测试特征集中每个词袋的标注类别概率
;指导原则为:低尺度上的语义标签涵盖高尺度上的语义标签,高尺度上语义标签隶属于低尺度上语义标签,高尺度上语义标签不能与低尺度上语义标签相矛盾;
步骤S108c,按照多尺度变换尺度数,依次进行标注类别概率传递和词袋标注类别概率预测;
步骤S108d,所有尺度上的语义标注结果构成待标记图像的等级语义标注结构图,该结构图表示了图像在多个不同空间尺度上的语义标注隶属关系。
本发明的方法框架示意图如图2所示,本实例中图像多尺度变换中尺度数为3。
以下进一步说明本发明的应用实例:实例给出了以Ikonos、QuickBird、Worldview多光谱图像组成的高分辨率遥感图像数据集的测试结果。图像数据集包含图像903幅,图像空间尺度范围为0.5米-2.5米,如图3所示给出了部分数据,根据本数据集特点,图像语义标注类型包括如下12类:海洋,港口,船只,陆地,乡村,城市,沙漠,机场,农田,建筑物,油罐,飞机。图像数据集中平均每幅图像的语义标注标签个数为3个。
另外,将本发明的方法与其他两种变化检测方法进行对比。其中,第一种方法为基于支持向量机分类器的单尺度多示例-多标记学习方法(Z.Zhou and M.Zhang,“Multi-instance multi-label learning with application to scene classification”,in Proc.Neural Information Processing Systems(NIPS),British Columbia,Canada,2006.);第二种方法是基于Boosting算法的单尺度多示例-多标记学习方法(Z.Zhou and M.Zhang,“Multi-instance multi-label learning with application to sceneclassification”,in Proc.Neural Information Processing Systems(NIPS),BritishColumbia,Canada,2006.)。标注结果从六个方面进行评价(见表一):1)Averageprecision;2)Coverage;3)Hamming loss;4)One-error;5)Ranking loss;(R.E.Schapire and Y.Singer,“BOOSTEXTER:a boosting-based system for textcategorization,”Machine Learning,vol.39,no.2/3,pp.135–168,2000.),以及6)计算时间。
表一变化检测结果量化比较结果
|
本发明方法 |
对比方法一 |
对比方法二 |
Average precision |
0.83 |
0.78 |
0.46 |
Coverage |
0.40 |
1.86 |
3.43 |
Hamming loss |
0.23 |
0.15 |
0.18 |
One-error |
0.26 |
0.26 |
0.30 |
Ranking loss |
0.19 |
0.13 |
0.55 |
计算时间(second) |
4.35 |
4.74 |
3944.34 |
量化比较结果说明本发明获取的图像自动标注结果较比较的两种方法的标注准确率有较大提高。
需要说明的是,上述对各元件的定义并不仅限于实施方式中提到的各种具体结构或形状,本领域的普通技术人员可对其进行简单地熟知地替换,例如:
(1)S102a步骤中小波分解方法可以用其他图像多尺度分解方法代替,例如直接降采样方法,由于降采样方法为本领域内公知的方法,此处不再详细描述;
(2)S102b步骤中分水岭分割方法图像过分割方法还可以用其他图像过分割方法,如meanshift方法、Ncut方法代替,由于meanshift方法、Ncut方法均为本领域内公知的方法,此处不再详细描述;
(3)S104步骤中特征提取方法可以使用其他类型图像特征描述方法,对图像进行特征提取;
(4)S106步骤中分类器的选取可以使用其他分类器,例如Boosting分类器、高斯过程分类器、KNN分类器等,这些分类器均为本领域内公知的方法,此处不再详细描述。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。