CN101221662B - 基于自组织映射神经网络的遥感图像混合像元分解方法 - Google Patents

基于自组织映射神经网络的遥感图像混合像元分解方法 Download PDF

Info

Publication number
CN101221662B
CN101221662B CN2008100333216A CN200810033321A CN101221662B CN 101221662 B CN101221662 B CN 101221662B CN 2008100333216 A CN2008100333216 A CN 2008100333216A CN 200810033321 A CN200810033321 A CN 200810033321A CN 101221662 B CN101221662 B CN 101221662B
Authority
CN
China
Prior art keywords
self
neural network
training
node
fuzzy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2008100333216A
Other languages
English (en)
Other versions
CN101221662A (zh
Inventor
刘力帆
王斌
张立明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN2008100333216A priority Critical patent/CN101221662B/zh
Publication of CN101221662A publication Critical patent/CN101221662A/zh
Application granted granted Critical
Publication of CN101221662B publication Critical patent/CN101221662B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于遥感图像处理技术领域,具体为一种基于自组织映射神经网络的遥感图像混合像元分解方法。该方法将自组织映射神经网络和模糊理论中的模糊隶属度相结合,来计算分解后的丰度值。同时,由于自组织映射神经网络的无目标函数的竞争学习特性,本方法摆脱了局部极值问题。此外,本发明自动满足混合像元分解问题所要求的两个约束:丰度值非负约束和丰度值和为1约束,有较好的混合像元分解结果,同时具有较强的抗噪声能力。新方法在基于多光谱和高光谱遥感图像的高精度的地物分类以及地面目标的检测和识别方面具有特别重要的应用价值。

Description

基于自组织映射神经网络的遥感图像混合像元分解方法
技术领域
本发明属于遥感图像处理技术领域,具体涉及一种基于自组织映射神经网络和模糊隶属度的遥感图像混合像元分解方法。
背景技术
遥感是本世纪六十年代发展起来的新兴综合技术,与空间、电子光学、计算机、地理学等科学技术紧密相关,是研究地球资源环境的最有力的技术手段之一。近年来,随着成像技术的进步,多波段遥感图像在越来越多的领域得到了广泛应用。由于成像系统空间分辨率的限制和地表的复杂多样,遥感图像中的一个像元往往对应着地面上较大面积的一块区域,此区域内可能存在多种地物类型,这就形成了混合像元。混合像元的分解对于基于多光谱和高光谱遥感图像的高精度地物分类以及地面目标的检测有着重要的意义[1,2]。
许多算法已被提出并应用于混合像元分解。线性光谱混合模型是一个广泛使用的混合像元分解模型[3],它假设混合像元是各端元光谱的线性混合,并通过引入约束条件,用带约束条件的最小二乘法求解超定线性方程组[4],以实现混合像元的分解。但是,它无法同时满足混合像元分解要求的丰度值非负约束和丰度值和为1约束,影响了解混精度。一些研究人员利用反向传播和径向基函数人工神经网络[5,6]进行混合像元丰度值的求解,他们首先通过有监督的训练确定网络神经元连接的权值,然后用训练好的网络对混合像元进行分解。但这种方法同样存在约束条件无法满足的问题。一些基于概率模型的方法也被提出[7,8],它们首先利用训练样本训练出均值、方差、先验概率等模型参数,然后通过求解后验概率得到丰度值。但是,这类方法在模型参数的迭代训练过程中可能落入局部极值点而导致得到的分解结果较差。研究者们还将模糊c均值聚类算法应用于混合像元分解[9],该方法通过非监督模糊聚类产生聚类中心和隶属度矩阵,聚类中心对应着各端元,隶属度即是所要求解的丰度值。然而,模糊c均值聚类算法的迭代过程存在着易落入局部极值点和计算量大的问题。
因此,如何对混合像元进行分解,求解组成混合像元的各种典型地物(即端元)的比例(即丰度),已成为近年来遥感领域的一个研究热点[10]。
下面介绍与本发明相关的一些概念:
1.线性光谱混合模型
近年的研究中,线性光谱混合模型被广泛的应用于遥感图像中的混合像元分解问题,该模型假设图像中的每个像元都为各个端元像元通过线性混合得到。设X为多通道遥感图像中单一像元的多光谱矢量,A为由各类纯地物信号(端元)的多光谱或高光谱矢量所组成的反射特性矩阵,S为该像元中各类地物所占的百分比(即丰度),N为模型的误差,则依此模型有如下关系式
X=AS+N
(1)
若遥感图像有n个通道,其中有m类地物类型,则式中X为n×1的向量,A为n×m的矩阵,S为m×1的向量,N为n×1的向量,对于实际的多通道遥感图像,尤其是高光谱遥感图像,一般有n>m。
同时,基于混合像元分解问题的实际物理意义,S应满足如下两个约束条件:
1)混合像元中各成分的比例si之和应该等于1,即:
Σ i = 1 m s i = 1
(2)
2)分解所得各成分的比例si应该在[0,1]的范围内,即:
0≤si≤1,(i=1,2,...,m).
2.模糊隶属度的定义式推导
作为硬c均值聚类算法的一种改进,模糊理论中的模糊c均值算法把所有数据样本xi(i=1,2,...,n)分为c个模糊类,并求解每个类的聚类中心,使得非相似性指标的目标函数达到最小。模糊c均值算法与硬c均值聚类算法的主要区别在于:模糊c均值算法用模糊划分,使得每个给定数据点用值在[0,1]间的模糊隶属度来确定其属于各个类的程度。
模糊c均值算法的目标函数如下:
J ‾ m ( U , c 1 , . . . , c c , λ 1 , . . . , λ n ) = J m ( U , c 1 , . . . c c ) + Σ j = 1 n λ j ( Σ i = 1 c u ij - 1 ) - - - ( 3 )
= Σ i = 1 c Σ j n u ij m d ij 2 + Σ j = 1 n λ j ( Σ i = 1 c u ij - 1 )
其中uij为第j个样本隶属于第i个端元的模糊隶属度,dij=‖ci-xj‖为第i个聚类中心与第j个数据样本间的欧几里德距离,m∈[1,∞)是一个加权指数,λj,j=1,2,...,n,是n个归一化约束式的拉格朗日乘子。
对所有输入参量求导,使上述目标函数达到最小的必要条件为:
c i = Σ j = 1 n u ij m x j Σ j = 1 n u ij m - - - ( 4 )
u ij - 1 Σ k = 1 c ( d ij d kj ) 2 / ( m - 1 ) . - - - ( 5 )
发明内容
本发明的目的在于提出一种基于自组织映射神经网络的新的遥感图像混合像元分解方法,以便快速有效的对多通道遥感图像的混合像元进行分解,得到精确的混合像元分解结果,并具有较好的抗噪性能。
本发明提出的遥感图像混合像元分解方法,将自组织映射神经网络和模糊理论中的模糊隶属度相结合,首先利用少量的训练样本有监督地训练自组织映射神经网络,然后通过计算混合像元对各自组织映射网络节点的模糊隶属度完成丰度值的求解。由于自组织映射网络的训练过程是属于无目标函数的竞争性学习,并且训练的迭代过程只对少量训练样本进行,所以不存在模糊c均值算法中存在的易落入局部极值点和计算量大的问题,保证了算法的鲁棒性和速度。
本发明提出的遥感图像混合像元分解方法,包括如下基本内容:
1.自组织映射神经网络(SOM网络)的有监督训练
传统的自组织映射网络[11]的学习是无监督的,即自组织映射网络的训练样本是不需要打上类型标记的。通过对训练样本做简单的处理,可以实现有监督学习的自组织映射网络,使得训练后的自组织映射网络竞争层上的各节点带有类型标记。
假设样本原来的维数是N,类型数(即端元数)为k。图2展示了如何对各类型的训练样本打上类型标记,图中k=3。即通过扩展样本维数的方式,将训练样本的类型标记以二进制编码的形式存储在样本中,样本维数由原来的N维拓展为N+k维。
将处理后的训练样本送入自组织映射网络训练,训练结束后各竞争层神经元节点的维数为N+k。设神经元节点前k维的最大值出现在第i维上,则可以判定该神经元节点属于第i个类型。得到神经元节点的类型后,将节点的前k维去除。
图3显示了自组织映射网络最终的训练结果,图中同颜色的自组织映射节点被标记为同一类型。
下面具体介绍自组织映射神经网络训练的做法:
自组织映射神经网络模拟了人类大脑皮层中具有自组织特征的神经信号传送过程,是一种无监督的竞争学习型的神经网络。该神经网络的主要特性包括拓扑有序性,容错性,自联想功能等。
自组织映射网络的基本结构如图1所示,由一层输入层和一层竞争层组成。输入层的神经元个数N等于数据样本的维数,竞争层的M个神经元排成一个2维的阵列。该阵列可以有各种类型的邻域拓扑结构,图1中的邻域拓扑结构为常见的方形,深色神经元节点表示以浅色神经元节点为中心半径为1的邻域范围内的神经元节点。因此,自组织映射网络将N维样本映射到了一个2维的拓扑特征图上。
对于输入的每一个训练样本,自组织映射网络的训练过程包括竞争和学习两个步骤。在竞争步,首先进行竞争,判断和训练样本欧几里德距离最小的的竞争层节点为竞争获胜节点,如图1中的浅色节点。在学习步,更新获胜节点及其周围一定邻域范围内的节点,如图1中的深色节点,令它们朝训练样本方向以一定的学习率做修正,修正公式如下:
wi(t+1)=wi(t)+α(t)×(xp-wi(t)),i∈ηr        (6)
其中xp表示当前训练样本,wi(t)表示当前竞争层第i个节点,α(t)表示当前学习率,ηr表示半径为r的邻域;邻域半径和学习率随着每一次竞争学习不断缩小,最后固定在一个比较小的值上,此时SOM网络收敛,训练完成。通过训练,自组织映射网络能够学会输入样本间的关系和规律,使得训练结束后竞争层的特征图能够反映数据样本的分布特性。
2.最优加权指数的确定与模糊隶属度的计算
混合像元的分解过程需要计算混合像元对自组织映射神经网络各个神经元节点的模糊隶属度。模糊隶属度中的模糊加权指数m决定了分解结果的模糊程度,当m=1时,分解结果退化为分类结果,当m趋向于∞时,分类结果过于模糊,导致丰度被平均分配到各SOM节点。因此,m值的选取影响分解结果的精度。这里,我们采用了基于模糊目标函数拐点的方法[12,13,14]来对最优m值进行预测。模糊目标定义为:
U g = exp { - a J m ( U , c ) max ∀ m ( J m ( U , c ) ) } , - - - ( 7 )
其中Jm(U,c)为(3)式中的Jm(U,c1,...,cc),a为大于1的正常数。图4显示了模糊目标函数的曲线,我们选择该曲线的拐点对应的m值作为算法中使用的m值。这种m值选取方法的有效性得到了实验部分得到充分的验证。
3.丰度计算
训练好的SOM网络的竞争层节点带有端元类型的标记,利用类型标记对同类型的模糊隶属度求和,作为该类型端元的丰度。
综上所述,本发明提出的遥感图像混合像元分解方法,具体步骤为:
(1).训练自组织映射神经网络
1)初始化自组织映射神经网络
根据待分解数据集中存在的端元数量,设置自组织映射神经网络的尺寸,按随机方式初始化自组织映射神经网络,并设置网络的训练参数,包括拓扑结构、初始邻域半径、初始学习率;
2)挑选与处理训练样本
从待分解的数据集中或光谱库中挑选少量的训练样本,并对它们做预处理,通过扩展训练样本的维数,由原来的N维拓展为N+k维,N是原数据样本的维数,k为类型数,以二进制编码的形式,对各类型的训练样本打上类型标记,以实现有监督学习的自组织映射网络,使得训练后的自组织映射网络竞争层上的各节点也带有类型标记;
3)训练自组织映射网络
利用已挑选的训练样本,根据竞争学习的原理训练网络:对于输入的每一个训练样本,首先判断和训练样本欧几里德距离最小的的竞争层节点为竞争获胜节点,然后更新获胜节点及其周围一定邻域范围内的节点,令它们按公式(6)朝训练样本方向以一定的学习率做修正,训练过程中邻域半径和学习率随着网络的收敛而逐步减小;
(2).计算模糊隶属度
1)最优加权指数m的预测
对待分解的数据集,根据模糊目标函数:
U g = exp { - a J m ( U , c ) max ∀ m ( J m ( U , c ) ) } - - - ( 7 )
的拐点预测模糊隶属度公式中的最优加权指数m;
2)计算混合像元对各个神经元节点的模糊隶属度
对于每一个混合像元,计算该像元和自组织映射神经网络竞争层每一个节点的模糊隶属度:
u ij = 1 Σ k = 1 c ( d ij d kj ) 2 / ( m - 1 ) ; - - - ( 5 )
(3).计算混合像元分解的丰度值
对带有同一类型标记的模糊隶属度求和,即得到该类型端元的丰度。
本发明的优点
本发明为一种基于自组织映射神经网络和模糊隶属度的遥感图像混合像元分解方法。其优点在与:利用训练样本有监督地训练自组织映射神经网络,摆脱了局部极值问题,并且自动满足混合像元分解问题所要求的丰度值非负约束和丰度值和为1约束。本发明在基于多光谱和高光谱遥感图像的高精度的地物分类以及地面目标的检测和识别方面具有重要意义。
附图说明:
图1为自组织映射神经网络结构图。
图2自组织映射神经网络训练样本的标记类型示意图。
图3有监督自组织映射神经网络训练结果示意图。
图4模糊目标函数曲线图。
图5混合像元分解算法的框图。
图6为3种矿物端元的光谱曲线图,(a)为黑云母,(b)为阳起石,(c)为铁铝榴石。
图7AVIRIS高光谱人造遥感数据实验中加权指数m的选取示意图。
图8Landsat7 ETM+所拍摄遥感图像的伪彩色图。
图9人造遥感图像的标准丰度值矩阵示意图,其中包括水体(a)、植被(b)、人工建筑和土壤(c)。
图10Landsat7 ETM+多光谱人造遥感数据实验中加权指数m的选取示意图。
图11AVIRIS所拍摄遥感图像的伪彩色图。
图12AVIRIS真实遥感数据实验中加权指数m的选取示意图。
图13AVIRIS高光谱遥感图像的分解结果示意图,(a)为玉米,(b)为干草饲料,(c)为大豆,(d)为麦子,(e)为天然植被,(f)为人工用地。
具体实施方式
下面,我们分别以模拟和实际遥感图像数据为例说明具体的实施方式:
1.模拟遥感图像数据
1)AVIRIS高光谱人造遥感数据
首先,从AVIRIS高光谱矿物端元光谱库中挑选出3种矿物端元,图6显示了这三种矿物端元的光谱曲线。之后,随机产生满足丰度值非负约束和丰度值和为1约束的3个标准丰度值矩阵(32×32),并将端元按随机产生的标准丰度值矩阵混合,得到的混合图像作为人造遥感图像。实验中,对人造遥感图像进行混合像元分解,并将分解得到的丰度值矩阵和随机产生的标准丰度值矩阵比较,以定量评价分解精度。均方根误差(Root MeanSquare Error,RMSE)和相关系数(Corelation Coefficient,CC)是评价混合像元分解结果好坏的两个常用的指标[9]。均方根误差越小、相关系数越大,则分解的结果越精确。
表1算法评价与比较
  分解算法   RMSE1   RMSE2   RMSE3   RMSEA   CC1   CC2   CC3   CCA
  FCM   0.1019   0.0805   0.1502   0.1109   0.9311   0.9307   0.8023   0.888
  BSOM_GMM   0.1141   0.1181   0.2053   0.1458   0.9421   0.9386   0.8018   0.8942
  SOM_FM   0.1002   0.0733   0.1311   0.1016   0.9347   0.9305   0.8973   0.9208
模糊c均值聚类(Fuzzy C-Means,FCM)混合像元分解算法[9]在数据样本总数不是很大(如:32×32)、数据样本的概率分布不确定时有较好的结果[7]。贝耶斯自组织映射与高斯混合模型算法(Bayesian Self-Organizing Map and Gaussian Mixture Model,BSOM_GMM)混合像元分解算法[8]在参数估计步骤未落入局部极值点的情况下分解结果比较精确。因此,这里将本文提出算法的分解精度和以上两种算法比较,比较结果如表1所示(表1中RMSEA和CCA分别表示平均均方根误差和平均相关系数)
在本例中,本发明所提出的分解算法(Self Organizing Map_Fuzzy Membership,SOM_FM)的m值根据模糊目标函数的拐点(即一阶导数极大点)确定(如图7所示),自组织映射神经网络竞争层尺寸为8×8,FCM和SOM_FM取相同的m值。FCM和BSOM_GMM算法有局部极值问题,这里给出的是它们在全局最优情况下的分解结果,而SOM_FM算法则没有这个问题。比较表1的分解结果可知,SOM_FM算法能得到更为精确的分解结果,且算法从理论上避免了局部极值问题。
2)Landsat7 ETM+多光谱人造遥感数据
这里通过对实际的遥感图像进行降采样的方式来产生人造遥感数据源。所使用的遥感图像是2000年7月14日Landsat7 ETM+拍摄的一幅上海复旦大学附近地区的多光谱遥感图像(截取尺寸256×256)。经实地调查,该区域大致上有3种端元,分别为水体、植被、土壤和人工建筑。取第3、4、5波段分别作为B、G、R分量并做直方图拉伸后合成伪彩色图(如图8所示),从伪彩色图中可以看出地物分布的大致情况。
为了产生人造遥感数据源,并便于比较,首先,本发明用最大似然法对256×256大小的遥感图像进行硬分类,认为分类中的每一个像元为纯像元。然后,用8×8的窗口对分类结果进行降采样,并统计窗口内属于各类端元的像元个数,除以窗口内的总像元数,得到的数值即是降采样结果(32×32的图像)中像元对应于各类端元的丰度值。最终得到的3个标准丰度值矩阵,显示成灰度图像如图9所示,其中亮的区域表示丰度值大。
同时,用8×8的窗口对256×256大小的原6个波段的遥感图像进行降采样。降采样后遥感图像大小为32×32,每一个像元对应降采样时一个8×8的窗口内的64个像元的平均值。实验中,将运用本发明提出的分解算法对这幅降采样后的大小为32×32的遥感图像进行解混,并将分解所得的丰度值矩阵与标准丰度值矩阵比较,以定量评价所提议算法的分解精度。
A.加权指数m值对分解结果的影响
记录不同m取值情况下算法的分解精度指标RMSE,并绘制成一条RMSE曲线,如图10中的实线。同时,绘制模糊目标对m的一阶导数曲线,如图10中的虚线。由图10可见,模糊目标的拐点(即模糊目标函数的一阶导数的极大点)对应着RMSE曲线的谷点,这就意味着通过模糊目标的拐点可以确定最优的加权指数m。
B.网络尺寸对分解结果的影响
在本文提出的分解算法中,自组织映射神经网络竞争层的尺寸对分解精度有一定的影响。在不同网络尺寸下的分解结果表2所示
表2SOM网络尺寸对分解结果的影响
  SOM网络尺寸   4×4   8×8   10×10   12×12   15×15   18×18   20×20
  CCA   0.8791   0.9187   0.9364   0.9422   0.9431   0.9453   0.9457
  RMSEA   0.1516   0.1319   0.1168   0.1075   0.1098   0.1073   0.1054
可见,随着自组织映射神经网络竞争层尺寸的扩大,自组织映射神经竞争层神经元节点的增多,分解精度逐渐提高。但分解精度在尺寸扩大到12×12时已基本饱和,再扩大网络尺寸,分解结果并不会有多大改善,反而增加了训练时间。
C.算法的抗噪性
由于遥感图像拍摄仪器的限制等各种物理因素,所获得的遥感数据总是带有一定噪声的,因此要求混合像元分解算法有一定的抗噪能力。这里向人造遥感数据源加入不同强度的高斯噪声,通过实验验证本文所提出的解混算法的抗噪性。加入的高斯噪声均值为0,标准差依次为0、2、5、10、15,结果如表3所示。
表3算法的抗噪声性能评价
  高斯噪声标准差   0   2   5   10   15
  CCA   0.9422   0.9396   0.9157   0.8206   0.7277
  RMSEA   0.1075   0.1107   0.1287   0.1796   0.2177
可见,标准差在10以内的高斯噪声对算法不会造成太大的影响,算法具有一定的抗噪性。
2.真实遥感数据实验
对于真实遥感数据,由于缺少标准的丰度值,无法对分解结果进行十分精确的量化评价,所以只能通过与实地调查情况的比较从整体上判断算法结果的好坏。
数据源采用由机载可见光及红外成像光谱仪(Airborne Visible/Infrared ImagingSpectrometer,AVIRIS)于1992年6月在美国印第安那派恩测试点拍摄的高光谱遥感图像(可以从http://cobweb.ecn.purdue.edu/~biehl/MultiSpec/获取),同时,Purdue大学的研究组给出了一份该地区实地勘测结果可供参考[15],这一数据已被广泛地应用于遥感图像混合像元分解算法的研究中。它含有145×145个像素,220个波段,像素地面像素分辨率为17m,实验中使用去除噪声波段后余下的200个波段的数据作为实验数据。
经过实地调查[15],覆盖该区域的主要是各种农作物(大约占三分之二,包括玉米、麦子、大豆、干草饲料)和天然植被(大约占三分之一,由树林、草地等组成)。除此之外,是一些人工用地:区域顶部有一条双向高速公路(U.S.52和U.S.231)和一条铁路、中间有一条2级公路(杰克逊高速公路),均为西北-东南走向;还有一个无线电发射塔位于区域上方以及一些零星的房屋。取第70、86、136波段分别作为R、G、B分量合成伪彩色图(如图11),从伪彩色图中可以看出各类地物的大致分布情况。
这里选取了150个左右的训练样本送入竞争层尺寸为8×8的SOM网络进行训练,分解时m值根据模糊目标函数的一阶导数的极大点(模糊目标函数的拐点)确定,如图12所示。
分解结果如图13所示,其中(a)(b)(c)(d)(e)(f)分别表示对应于玉米、干草饲料、大豆、麦子、天然植被、人工用地的解混丰度值矩阵。将图12的分解结果与实地调查的情况[15]比较,可以看出,分解结果与实地调查结果非常吻合[15]。
                                参考文献
[1]Jia Sen,Qian Yuntao.Spectral and Spatial Complexity-Based HyperspectralUnmixing[J].IEEE Transactions on Geoscience And Remote Sensing,2007,45(12):3867-3879.
[2]Chang Chein-I.Hyperspectral data exploitation[M].John Wiley & Sons,Inc,2007:107-148.
[3]C Small.Estimation of urban vegetation abundance by spectral mixtureanalysis[J].International Journal of Remote Sensing,2001,22(7):1305-1334.
[4]Yosio Edemir Shimabukuro,James A Smith.The Least-Squares Mixing Models toGenerate Fraction Images Derived From Remote Sensing Multispectral Data[J].IEEE Transactions on Geoscience And Remote Sensing,1991,29(1):16-20.
[5]王喜鹏,张养贞.应用神经网络模型分解AVHRR混合像元[J].遥感学报,1998,2(1):5l-56。
[6]张彦,邵美珍.基于径向基函数神经网络的混合像元分解[J].遥感学报,2002,6(4):285-289。
[7]Bastin L.Comparison of fuzzy-c means classification,linear mixturemodelling and MLC probabilities as tools for unmixing coarse pixels[J].International Journal of Remote Sensing,1997,18(17):3629-3648.
[8]刘力帆,王斌,张立明.基于贝叶斯自组织映射和高斯混合模型的混合像元分解[J].计算机辅助设计与图形学学报,2007,19(11):1381-1386。
[9]Giles M Foody.Estimation of sub-pixel land cover composition in the presenceof untrained classes[J].Computers Geosciences,2000,26(4):469-478.
[10]吕长春,王忠武,钱少猛.混合像元分解模型综述[J].遥感信息,2003,(3):55-58
[11]郭一平,B C Forster.用Kohonen神经网络对高光谱分辨率图像进行无监督分类的研究[J].红外与毫米波学报,1994,13(6):409-417。
[12]范九伦,吴成茂.FCM算法中隶属度的新解释及其应用[J].电子学报,2004,32(3):350-352。
[13]Yu Jian,Cheng Qiansheng,Huang Houkuan.Analysis of the Weighting Exponentin the FCM[J].IEEE Transactions on Systems,Man,And Cybernetics,2004,34(1):634-639.
[14]高新波,裴继红,谢维信.模糊c-均值聚类算法中加权指数m的研究[J].电子学报,2000,28(4):80-83。
[15]D Landgrebe.Multispectral data analysis:A signal theory perspective[R].Indiana:School of Electrical & Computer Engineering,West Lafayette:PurdueUniversity,1998.

Claims (1)

1.一种基于自组织映射神经网络的遥感图像混合像元分解方法,其特征在于具体步骤如下:
(1).训练自组织映射神经网络
1)初始化自组织映射神经网络
根据待分解数据集中存在的端元数量,设置自组织映射神经网络的尺寸,按随机方式初始化自组织映射神经网络,并设置网络的训练参数,包括拓扑结构、初始邻域半径、初始学习率;
2)挑选与处理训练样本
从待分解的数据集中或光谱库中挑选训练样本,并对它们做预处理,通过扩展训练样本的维数,由原来的N维扩展为N+k维,N是训练样本原来的维数,k为类型数即端元数量,以二进制编码的形式,对各类型的训练样本打上类型标记,以实现有监督学习的自组织映射神经网络,使得训练后的自组织映射神经网络竞争层上的各节点也带有类型标记;
3)训练自组织映射神经网络
利用预处理后的训练样本,根据竞争学习的原理训练网络:对于输入的每一个训练样本,首先判断和训练样本欧几里德距离最小的的竞争层节点为竞争获胜节点,然后更新竞争获胜节点及其周围一定邻域范围内的节点,令它们按公式①朝训练样本方向以一定的学习率做修正,训练过程中邻域半径和学习率随着网络的收敛而逐步减小;
wi(t+1)=wi(t)+α(t)×(xp-wi(t)),i∈ηr                      ①
其中xp表示当前训练样本,wi(t)表示当前竞争层第i个节点,α(t)表示当前学习率,ηr表示半径为r的邻域;
(2).计算模糊隶属度
1)加权指数m的预测
对待分解的数据集,根据模糊目标函数的拐点预测模糊隶属度公式中的最优加权指数m;所述模糊目标函数为:
Figure FSB00000392776500011
其中Jm(U,c)为③式中的Jm(U,c1,...,cc),a为大于1的正常数,
Figure FSB00000392776500021
Figure FSB00000392776500022
其中uij为第j个样本隶属于第i个端元的模糊隶属度,dij=||ci-xj||为第i个聚类中心与第j个数据样本间的欧几里德距离,m∈[1,∞)是一个加权指数,λj是n个归一化约束式的拉格朗日乘子,j=1,2,...,n;
2)计算混合像元对各个神经元节点的模糊隶属度
对于每一个混合像元,计算该像元和自组织映射神经网络竞争层每一个节点的模糊隶属度:
(3).计算混合像元分解的丰度值
对带有同一类型标记的模糊隶属度求和,即得到该类型端元的丰度。
CN2008100333216A 2008-01-31 2008-01-31 基于自组织映射神经网络的遥感图像混合像元分解方法 Expired - Fee Related CN101221662B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008100333216A CN101221662B (zh) 2008-01-31 2008-01-31 基于自组织映射神经网络的遥感图像混合像元分解方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008100333216A CN101221662B (zh) 2008-01-31 2008-01-31 基于自组织映射神经网络的遥感图像混合像元分解方法

Publications (2)

Publication Number Publication Date
CN101221662A CN101221662A (zh) 2008-07-16
CN101221662B true CN101221662B (zh) 2011-07-20

Family

ID=39631477

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008100333216A Expired - Fee Related CN101221662B (zh) 2008-01-31 2008-01-31 基于自组织映射神经网络的遥感图像混合像元分解方法

Country Status (1)

Country Link
CN (1) CN101221662B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101807215B (zh) * 2008-12-23 2011-11-30 北京理工大学 一种设计高光谱图像混合像元实时分解芯片的方法
CN101701818B (zh) * 2009-11-05 2011-03-30 上海交通大学 远距离障碍的检测方法
CN102193090B (zh) * 2010-03-19 2013-08-21 复旦大学 一种遥感图像混合像元分解方法
CN101866424B (zh) * 2010-05-20 2013-04-10 复旦大学 基于独立分量分析的高光谱遥感图像混合像元分解方法
CN103488968B (zh) 2012-06-14 2016-12-21 株式会社日立制作所 遥感图像的混合像素物质构成精细化分解装置及方法
CN102938073B (zh) * 2012-10-23 2017-02-08 中国人民解放军空军工程大学 一种遥感图像的分类方法
CN103150582B (zh) * 2013-02-04 2015-11-25 北京理工大学 基于上下文的光学遥感图像云判结果修正方法
CN103258330B (zh) * 2013-05-24 2015-08-26 大连海事大学 一种高光谱图像端元丰度的估计方法
CN103413292B (zh) * 2013-07-08 2016-03-09 复旦大学 基于约束最小二乘的高光谱图像非线性丰度估计方法
CN104766075B (zh) * 2015-05-06 2018-05-18 吉林大学 一种基于阈值提取和模糊评价的草炭土遥感识别方法
CN105976357B (zh) * 2016-04-26 2019-05-03 中国科学院遥感与数字地球研究所 一种高光谱图像端元提取方法及系统
CN105975912B (zh) * 2016-04-27 2019-10-25 天津大学 基于神经网络的高光谱图像非线性解混方法
CN106023272B (zh) * 2016-05-13 2019-03-19 桂林电子科技大学 基于新的学习函数的三维自组织映射图像编码方法
CN108267945B (zh) * 2018-01-16 2019-08-09 电子科技大学 一种基于自组织映射神经网络的消除光学扫描全息离焦噪声的方法
CN110070035B (zh) * 2019-04-19 2021-04-06 中国科学院遥感与数字地球研究所 一种多光谱遥感影像分类方法和系统
CN113420623B (zh) * 2021-06-09 2022-07-12 山东师范大学 基于自组织映射神经网络的5g基站检测方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6804400B1 (en) * 2000-11-01 2004-10-12 Bae Systems Mission Solutions Inc. Adaptive hyperspectral data compression
CN101030299A (zh) * 2007-03-29 2007-09-05 复旦大学 一种基于数据空间正交基的遥感图像混合像元分解方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6804400B1 (en) * 2000-11-01 2004-10-12 Bae Systems Mission Solutions Inc. Adaptive hyperspectral data compression
CN101030299A (zh) * 2007-03-29 2007-09-05 复旦大学 一种基于数据空间正交基的遥感图像混合像元分解方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
lifan liu et al..Decomposition of mixed pixels using Bayesian Self-Organizing Map (BSOM) neural networks.《Geoscience and Remote Sensing Symposium,2007.IGARSS 2007. IEEE International》.2007,2014-2017. *
Yu Jian et al..Analysis of the Weighting Exponent in the FCM.《IEEE Transactions on Systems,Man,And Cybernetics》.2004,第34卷(第1期),634-639. *
刘力帆等.基于贝叶斯自组织映射和高斯混合模型的混合像元分解.《计算机辅助设计与图形学学报》.2007,第19卷(第11期),1381-1386. *
高新波等.模糊c-均值聚类算法中加权指数m的研究.《电子学报》.2000,第28卷(第4期),80-83. *

Also Published As

Publication number Publication date
CN101221662A (zh) 2008-07-16

Similar Documents

Publication Publication Date Title
CN101221662B (zh) 基于自组织映射神经网络的遥感图像混合像元分解方法
US10984532B2 (en) Joint deep learning for land cover and land use classification
CN108830870B (zh) 基于多尺度结构学习的卫星影像高精度农田边界提取方法
CN105608474B (zh) 基于高分辨率影像的区域自适应耕地提取方法
CN108537102B (zh) 基于稀疏特征与条件随机场的高分辨sar图像分类方法
CN107451614B (zh) 基于空间坐标与空谱特征融合的高光谱分类方法
CN102982338B (zh) 基于谱聚类的极化sar图像分类方法
CN105069796B (zh) 基于小波散射网络的sar图像分割方法
CN105138970A (zh) 基于空间信息的极化sar图像分类方法
Tao et al. Scene context-driven vehicle detection in high-resolution aerial images
CN104182767B (zh) 主动学习和邻域信息相结合的高光谱图像分类方法
CN103426158B (zh) 两时相遥感图像变化检测的方法
CN103440505A (zh) 空间邻域信息加权的高光谱遥感图像分类方法
CN105184314B (zh) 基于像素聚类的wrapper式高光谱波段选择方法
CN111008644B (zh) 基于局部动态能量函数fcn-crf模型的生态变化监测方法
CN110276746B (zh) 一种鲁棒性遥感图像变化检测方法
CN113705641B (zh) 基于富上下文网络的高光谱图像分类方法
CN110807485B (zh) 基于高分遥感影像二分类语义分割图融合成多分类语义图的方法
CN109359525A (zh) 基于稀疏低秩的判别谱聚类的极化sar图像分类方法
CN104282008A (zh) 对图像进行纹理分割的方法和装置
CN104794730A (zh) 基于超像素的sar图像分割方法
CN102073867A (zh) 一种遥感图像分类方法及装置
Zhang et al. Transland: An adversarial transfer learning approach for migratable urban land usage classification using remote sensing
CN111626380A (zh) 一种基于超像素和卷积网络的极化sar图像分类方法
CN111325259A (zh) 一种基于深度学习和二进制编码的遥感图像分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110720

Termination date: 20140131