CN105701483A - 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 - Google Patents
一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 Download PDFInfo
- Publication number
- CN105701483A CN105701483A CN201610113115.0A CN201610113115A CN105701483A CN 105701483 A CN105701483 A CN 105701483A CN 201610113115 A CN201610113115 A CN 201610113115A CN 105701483 A CN105701483 A CN 105701483A
- Authority
- CN
- China
- Prior art keywords
- image
- remote sensing
- pixel
- urban
- impervious surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 68
- 239000000284 extract Substances 0.000 claims description 29
- 230000011218 segmentation Effects 0.000 claims description 25
- 238000001228 spectrum Methods 0.000 claims description 19
- 230000003287 optical effect Effects 0.000 claims description 17
- 108091028606 miR-1 stem-loop Proteins 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 230000003595 spectral effect Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 10
- 230000006978 adaptation Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 8
- 238000005192 partition Methods 0.000 claims description 7
- 238000012952 Resampling Methods 0.000 claims description 6
- 241000282693 Cercopithecidae Species 0.000 claims description 4
- 239000011800 void material Substances 0.000 claims description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 abstract description 3
- 238000012544 monitoring process Methods 0.000 abstract description 3
- 238000002474 experimental method Methods 0.000 abstract 1
- 230000004927 fusion Effects 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- VMXUWOKSQNHOCA-UKTHLTGXSA-N ranitidine Chemical compound [O-][N+](=O)\C=C(/NC)NCCSCC1=CC=C(CN(C)C)O1 VMXUWOKSQNHOCA-UKTHLTGXSA-N 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法,通过联合使用不透水面指数和夜间灯光遥感数据中提取的灯光指数可以更为精确地定位城区边界,降低误提取现象。同时,通过融合较夜间灯光遥感数据空间分辨率更高的多光谱遥感数据,将两者数据特征同时作为城市区域和非城市区域的区别特征,保证了提取的城区边界较单独使用夜间灯光遥感数据更为精细。大量实验结果表明,本发明城市边界正确提取率达到了90%以上,较现有技术提高了近10%,误提取率低至10%以下,解决了现有技术存在的问题,适用于土地规划、地理国情监测、城市扩张分析等城市遥感应用。
Description
技术领域
本发明属于城市规划领域,特别涉及一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法。
背景技术
城市边界自动提取是实现及时掌握城市扩展范围的关键,而城市扩展范围已成为城市规划领域内的一个重点关注问题。同时,快速自动的提取城市边界能够减少传统监测方法的人力物力。然而,当遥感影像的分辨率不够高时,自动提取的方法容易将一些地物误划入城市边界,因此,中低分辨率遥感影像城市边界提取更具有挑战性。目前较新且效果较好的城市边界提取方法以借助不透水面或夜间灯光遥感影像提取方法为主。这些方法的主要思路是:通过选取特征考虑,利用分类器(多数为支持向量机)训练城市区域检测模型并检测城市区域,从而提取出城市边界。其中从特征考虑,主要有利用多光谱遥感影像光谱特征和夜间灯光遥感影像(参考文献:XiaoP,WangX,FengX,etal.DetectingChina’sUrbanExpansionOverthePastThreeDecadesUsingNighttimeLightData[J].IEEEJournalofSelectedTopicsinAppliedEarthObservations&RemoteSensing,2014,7(10):4095-4106.)两种。由于仅利用光谱特征,很容易将非城市区域的不透水面误提取出来,从而影响城市边界提取,而仅利用夜间灯光遥感影像,由于其分辨率较低(1km),同样会将非城市区域误提取出来,导致上述两种方法自动提取城市边界的效果不理想。
发明内容
本发明提出了一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法,其目的在于,解决现有技术未能较快速准确提取城市边界这一问题,通过融合多种数据,利用多种特征,以达到快速自动提取城市边界,并提高城市边界的准确率,降低误提取率的效果。
一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法,包括以下几个步骤:
步骤1:影像预处理;
对同一场景的多光谱遥感影像和夜间灯光遥感影像进行坐标转换,统一转为UTM投影坐标系;
对坐标转换后的夜间灯光遥感影像进行重采样至与坐标转换后的多光谱遥感影像的空间分辨率相同,获得Landsat图像数据I0;
采用一致的空间分辨率30米,实现多源数据的配准;
以使得灯光遥感数据同多光谱遥感影像数据的分辨率一致,便于正负样本提取;
步骤2:自动提取正负训练样本;
首先利用Landsat图像数据I0提供的光谱信息计算不透水面指数得到初始不透水面图像I1,然后结合坐标转换后的夜间灯光遥感数据提供的初始灯光指数图像I2,自动提取正负分类训练样本;
所述正负样本的自动提取过程如下:
A1:对初始不透水面图像I1进行Otsu阈值分割,得到二值分割后的二值化不透水面图像I3;
其中,(i,j)表示图像中的像素坐标,th1为Otsu阈值分割方法自适应选取的分割阈值;
A2:对初始灯光指数图像I2进行Otsu阈值分割,得到二值分割后的二值化灯光指数图像I4;
其中,(i,j)表示图像中的像素坐标,th2为Otsu阈值分割方法自适应选取的分割阈值;
A3:计算二值化灯光图像I4中像素值为1的所有像素在初始灯光指数图像I2中对应像素的像素值的平均值th3,以及像素值为0的所有像素在初始灯光指数图像I2中对应像素的像素值的平均值th4;
A4:对二值化不透水面图像I3进行格网划分,然后计算各个格网单位所包含像素对应的不透水面指数平均值a1和灯光指数平均值a2:
如果a1≥th1且a2≥th3,则将该网格中的所有像素提取至候选正样本集合P1;
如果a2≤th4,则将该网格中的所有像素提取至候选负样本集合N1;
考虑了两种数据的各自特征的优势互补,实现自动提取正负样本;
A5:从候选正样本集合P1和候选负样本集合N1中分别随机提取50%的正负样本构造最终的正样本集合P2和负样本集合N2;
步骤3:利用步骤2获得的正负样本进行城市边界提取;
步骤3.1:首先提取用于描述正负样本的分类特征F=P2(f)+N2(f),f={f1,f2,f3,f4};
其中,f为影像特征集合,f1为从Landsat图像数据I0中提取的像素的7维光谱特征,f2为从Landsat图像数据I0中提取的像素的2维纹理特征,f3为从初始不透水面图像I1中提取的像素的1维的不透水指数特征,f4为从初始灯光指数图像I2中提取的像素的1维的灯光指数特征,P2为正样本集合中所有像素对应影像中的位置,N2为负样本集合中所有像素对应影像中的位置;
然后利用正负样本的分类特征训练SVM分类器,再用训练好的分类器对待分类的场景的影像特征集合f进行分类,得到城市区域和非城市区域;
步骤3.2:利用获得的城市区域,进行分类后处理,确定出城市边界;
所述分类后处理包括对城市区域填充内部空洞以及剔除小图斑操作,其中,剔除图斑的阈值为3×3像素。
分类是以像素为单元的影像特征集合进行处理的,故需要对分类后的像素进行处理才能得到连续的闭合边界;
所述灯光遥感数据的重采样处理是指重采样方法采用三次卷积内插法。
所述利用多光谱遥感数据提供的光谱信息计算不透水面指数得到初始不透水面图像I1的步骤如下:
步骤2.1:遥感影像辐射校正;
利用ENVI软件,对多光谱遥感影像进行辐射校正,将影像上的DN值转换为反射率;
步骤2.2:不透水面指数计算;
采用归一化差值不透水面指数NDISI来提取步骤2中初始不透水面I1,该指数计算公式为:
其中,NIR、MIR1和TIR分别为近红外、中红外1和热红外波段的反射率,MNDWI为归一化水体指数,计算公式为:
其中,Green为绿波段的反射率。
通过上述步骤计算得到多光谱遥感影像中对应的各个像素的不透水面指数,从而得到初始不透水面图像I1。
所述对二值化不透水面图像I3进行格网划分时,每个格网单元大小为8*8。
所述f2为从Landsat图像数据I0中提取的像素的2维纹理特征是指在3*3窗口内的均值和方差。
有益效果
本发明提出了一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法,相对于传统方法单独使用不透水面指数提取城区,通过联合使用不透水面指数和夜间灯光遥感数据中提取的灯光指数可以更为精确地定位城区边界,降低误提取现象。同时,通过融合较夜间灯光遥感数据(1km)空间分辨率更高的多光谱遥感数据(30m),将两者数据特征同时作为城市区域和非城市区域的区别特征,对近红外、中红外1、热红外波段和MNDWI进行归一化处理,可以保证提取的城区边界较单独使用夜间灯光遥感数据更为精细。大量实验结果表明,本发明城市边界正确提取率达到了90%以上,较现有技术提高了近10%,误提取率低至10%以下,解决了现有技术存在的问题,适用于土地规划、地理国情监测、城市扩张分析等城市遥感应用。
附图说明
图1是本发明的流程图;
图2是实施例一应用本发明所述方法进行城区边界提取的遥感影像过程图,其中,(a)为原始多光谱遥感影像,(b)为原始夜间灯光遥感影像,(c)为预处理后的夜间灯光遥感影像,(d)为不透水面指数图,(e)为正样本,(f)为负样本,(g)为本发明所述的方法所得的城区边界结果示意图,(h)为现有技术的检测结果;
图3是实施例二应用本发明所述方法进行城区边界提取的遥感影像过程图,其中,(a)为原始多光谱遥感影像,(b)为原始夜间灯光遥感影像,(c)为预处理后的夜间灯光遥感影像,(d)为不透水面指数图,(e)为正样本,(f)为负样本,(g)为本发明所述的方法所得的城区边界结果示意图,(h)为现有技术的检测结果。
具体实施方式
下面将结合附图和实施例对本发明做进一步的说明。
如图1所示,一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法,包括以下几个步骤:
步骤1:影像预处理;
对同一场景的多光谱遥感影像和夜间灯光遥感影像进行坐标转换,统一转为UTM投影坐标系;
对坐标转换后的夜间灯光遥感影像进行重采样至与坐标转换后的多光谱遥感影像的空间分辨率相同,获得Landsat图像数据I0;
采用一致的空间分辨率30米,实现多源数据的配准;
以使得灯光遥感数据同多光谱遥感影像数据的分辨率一致,便于正负样本提取;
步骤2:自动提取正负训练样本;
首先利用Landsat图像数据I0提供的光谱信息计算不透水面指数得到初始不透水面图像I1,然后结合坐标转换后的夜间灯光遥感数据提供的初始灯光指数图像I2,自动提取正负分类训练样本;
所述利用多光谱遥感数据提供的光谱信息计算不透水面指数得到初始不透水面图像I1的步骤如下:
步骤2.1:遥感影像辐射校正;
利用ENVI软件,对多光谱遥感影像进行辐射校正,将影像上的DN值转换为反射率;
步骤2.2:不透水面指数计算;
采用归一化差值不透水面指数NDISI来提取步骤2中初始不透水面I1,该指数计算公式为:
其中,NIR、MIR1和TIR分别为近红外、中红外1和热红外波段的反射率,MNDWI为归一化水体指数,计算公式为:
其中,Green为绿波段的反射率。
通过上述步骤计算得到多光谱遥感影像中对应的各个像素的不透水面指数,从而得到初始不透水面图像I1。
所述正负样本的自动提取过程如下:
A1:对初始不透水面图像I1进行Otsu阈值分割,得到二值分割后的二值化不透水面图像I3;
其中,(i,j)表示图像中的像素坐标,th1为Otsu阈值分割方法自适应选取的分割阈值;
A2:对初始灯光指数图像I2进行Otsu阈值分割,得到二值分割后的二值化灯光指数图像I4;
其中,(i,j)表示图像中的像素坐标,th2为Otsu阈值分割方法自适应选取的分割阈值;
A3:计算二值化灯光图像I4中像素值为1的所有像素在初始灯光指数图像I2中对应像素的像素值的平均值th3,以及像素值为0的所有像素在初始灯光指数图像I2中对应像素的像素值的平均值th4;
A4:对二值化不透水面图像I3进行格网划分,然后计算各个格网单位所包含像素对应的不透水面指数平均值a1和灯光指数平均值a2:
如果a1≥th1且a2≥th3,则将该网格中的所有像素提取至候选正样本集合P1;
如果a2≤th4,则将该网格中的所有像素提取至候选负样本集合N1;
考虑了两种数据的各自特征的优势互补,实现自动提取正负样本;
A5:从候选正样本集合P1和候选负样本集合N1中分别随机提取50%的正负样本构造最终的正样本集合P2和负样本集合N2;
步骤3:利用步骤2获得的正负样本进行城市边界提取;
步骤3.1:首先提取用于描述正负样本的分类特征F=P2(f)+N2(f),f={f1,f2,f3,f4};
其中,f为影像特征集合,f1为从Landsat图像数据I0中提取的像素的7维光谱特征,f2为从Landsat图像数据I0中提取的像素的2维纹理特征,f3为从初始不透水面图像I1中提取的像素的1维的不透水指数特征,f4为从初始灯光指数图像I2中提取的像素的1维的灯光指数特征,P2为正样本集合中所有像素对应影像中的位置,N2为负样本集合中所有像素对应影像中的位置;
然后利用正负样本的分类特征训练SVM分类器,再用训练好的分类器对待分类的场景的影像特征集合f进行分类,得到城市区域和非城市区域;
步骤3.2:利用获得的城市区域,进行分类后处理,确定出城市边界;
所述分类后处理包括对城市区域填充内部空洞以及剔除小图斑操作,其中,剔除图斑的阈值为3×3像素。
分类是以像素为单元的影像特征集合进行处理的,故需要对分类后的像素进行处理才能得到连续的闭合边界;
所述灯光遥感数据的重采样处理是指重采样方法采用三次卷积内插法。
所述对二值化不透水面图像I3进行格网划分时,每个格网单元大小为8*8。
所述f2为从Landsat图像数据I0中提取的像素的2维纹理特征是指在3*3窗口内的均值和方差。
实施例1:过程示意图见图2。
(1)影像预处理
对图2(a)和(b),利用ENVI软件将多光谱遥感影像和夜间灯光遥感影像进行坐标转换,统一转换为UTM投影坐标系,并将夜间灯光遥感影像重采样至30米,如图2(c)所示。
(2)不透水面提取
多光谱遥感影像经步骤1处理后,可进行不透水面提取,提取过程如下:
①利用ENVI软件,对多光谱遥感影像进行辐射校正,将影像上的DN值转换为反射率;
②计算归一化水体指数MNDWI,计算公式为:
其中,Green和MIR1为绿波段和中红外1的反射率。
③对近红外、中红外1、热红外波段和MNDWI进行归一化处理。
④采用归一化差值不透水面指数NDISI来提取不透水面,该指数计算公式为:
其中,NIR和TIR分别为近红外和热红外波段的反射率。
提取结果如图2(d)所示。
(3)正负样本自动提取
利用步骤1处理的图2(c)和步骤2处理的图2(d),进行正负样本的提取,具体提取过程如下:
①对初始不透水面图像I1(图2(d))进行Otsu阈值分割,得到二值分割后的不透水面图像I3;
其中th1为Otsu阈值分割方法自适应选取的分割阈值;
②对初始灯光指数图像I2(图2(c))进行Otsu阈值分割,得到二值分割后的灯光指数图像I4;
其中th2为Otsu阈值分割方法自适应选取的分割阈值;
③计算二值分割后的灯光图像I4中像素值为1的所有像素在灯光指数图像I2中对应像素的像素值的平均值th3,以及像素值为0的所有像素在灯光指数图像I2中对应像素的像素值的平均值th4;
④对二值化不透水面图像I3进行格网划分(每个格网单元大小为8*8),然后计算各个格网单位所包含像素对应的不透水面指数平均值a1和灯光指数平均值a2,如果a1≥th1且a2≥th3,则将该网格中的所有像素提取至正样本集合P。如果a2≤th4,则将该网格中的所有像素提取至负样本集合N。
⑤从候选正样本集合P1和候选负样本集合N1中分别随机提取50%的正负样本构造最终的正样本集合P2和负样本集合N2;
提取正样本结果如图2(e)所示,提取负样本结果如图2(f)所示。
(4)城区边界提取
①首先提取用于描述正负样本的分类特征F=P2(f)+N2(f),f={f1,f2,f3,f4};
其中,f为影像特征集合,f1为从Landsat图像数据I0中提取的像素的7维光谱特征,f2为从Landsat图像数据I0中提取的像素的2维纹理特征,f3为从初始不透水面图像I1中提取的像素的1维的不透水指数特征,f4为从初始灯光指数图像I2中提取的像素的1维的灯光指数特征,P2为正样本集合中所有像素对应影像中的位置,N2为负样本集合中所有像素对应影像中的位置;
然后利用正负样本的分类特征训练SVM分类器,再用训练好的分类器对待分类的场景的影像特征集合f进行分类,得到城市区域和非城市区域;
②利用获得的城市区域,进行分类后处理,填充内部空洞,剔除小图斑,确定出城市边界,如图2(g)所示。
实施例2:过程示意图见图3。
其处理步骤和实施例1相同,最终结果图如图3(g)所示。
实施例1和实施例2的检测结果均由实线标出在图中。
由此可见,本发明整体检测效果理想。此外,将现有技术(参考文献:XiaoP,WangX,FengX,etal.DetectingChina’sUrbanExpansionOverthePastThreeDecadesUsingNighttimeLightData[J].IEEEJournalofSelectedTopicsinAppliedEarthObservations&RemoteSensing,2014,7(10):4095-4106.)的检测结果(图2(h)、图3(h))和本发明结果(图2(g)、图3(g))作对比,通过统计正确率、错误率及kappa系数,比较分析本发明同现有技术的优势,统计结果见下表:
实施例1统计结果
正确率(%) | 错误率(%) | Kappa系数 | |
本发明方法 | 90.3 | 9.7 | 0.61 |
现有技术方法 | 82.6 | 17.4 | 0.45 |
实施例2统计结果
正确率(%) | 错误率(%) | Kappa系数 | |
本发明方法 | 93.4 | 6.6 | 0.70 |
现有技术方法 | 78.3 | 21.7 | 0.38 |
综合以上分析,本发明方法在正确率、错误率及Kappa系数上都要优于现有技术方法,说明本发明方法的可行性。
Claims (5)
1.一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法,其特征在于,包括以下几个步骤:
步骤1:影像预处理;
对同一场景的多光谱遥感影像和夜间灯光遥感影像进行坐标转换,统一转为UTM投影坐标系;
将坐标转换后的夜间灯光遥感影像重采样至与坐标转换后的多光谱遥感影像相同的空间分辨率,获得Landsat图像数据I0;
步骤2:自动提取正负训练样本;
首先利用Landsat图像数据I0提供的光谱信息计算不透水面指数得到初始不透水面图像I1,然后结合坐标转换后的夜间灯光遥感数据提供的初始灯光指数图像I2,自动提取正负分类训练样本;
所述正负样本的自动提取过程如下:
A1:对初始不透水面图像I1进行Otsu阈值分割,得到二值分割后的二值化不透水面图像I3;
其中,(i,j)表示图像中的像素坐标,th1为Otsu阈值分割方法自适应选取的分割阈值;
A2:对初始灯光指数图像I2进行Otsu阈值分割,得到二值分割后的二值化灯光指数图像I4;
其中,(i,j)表示图像中的像素坐标,th2为Otsu阈值分割方法自适应选取的分割阈值;
A3:计算二值化灯光图像I4中像素值为1的所有像素在初始灯光指数图像I2中对应像素的像素值的平均值th3,以及像素值为0的所有像素在初始灯光指数图像I2中对应像素的像素值的平均值th4;
A4:对二值化不透水面图像I3进行格网划分,然后计算各个格网单位所包含像素对应的不透水面指数平均值a1和灯光指数平均值a2:
如果a1≥th1且a2≥th3,则将该网格中的所有像素提取至候选正样本集合P1;
如果a2≤th4,则将该网格中的所有像素提取至候选负样本集合N1;
A5:从候选正样本集合P1和候选负样本集合N1中分别随机提取50%的正负样本构造最终的正样本集合P2和负样本集合N2;
步骤3:利用步骤2获得的正负样本进行城市边界提取;
步骤3.1:首先提取用于描述正负样本的分类特征F=P2(f)+N2(f),f={f1,f2,f3,f4};
其中,f为影像特征集合,f1为从Landsat图像数据I0中提取的像素的7维光谱特征,f2为从Landsat图像数据I0中提取的像素的2维纹理特征,f3为从初始不透水面图像I1中提取的像素的1维的不透水指数特征,f4为从初始灯光指数图像I2中提取的像素的1维的灯光指数特征,P2为正样本集合中所有像素对应影像中的位置,N2为负样本集合中所有像素对应影像中的位置;
然后利用正负样本的分类特征训练SVM分类器,再用训练好的分类器对待分类的场景的影像特征集合f进行分类,得到城市区域和非城市区域;
步骤3.2:利用获得的城市区域,进行分类后处理,确定出城市边界;
所述分类后处理包括对城市区域填充内部空洞以及剔除小图斑操作,其中,剔除图斑的阈值为3×3像素。
2.根据权利要求1所述的方法,其特征在于,所述灯光遥感数据的重采样处理是指重采样方法采用三次卷积内插法。
3.根据权利要求1所述的方法,其特征在于,所述利用多光谱遥感数据提供的光谱信息计算不透水面指数得到初始不透水面图像I1的步骤如下:
步骤2.1:遥感影像辐射校正;
利用ENVI软件,对Landsat图像数据I0进行辐射校正,将影像上的DN值转换为反射率;
步骤2.2:不透水面指数计算;
采用归一化差值不透水面指数NDISI来提取步骤2中初始不透水面I1,该指数计算公式为:
其中,NIR、MIR1和TIR分别为近红外、中红外1和热红外波段的反射率,MNDWI为归一化水体指数,计算公式为:
其中,Green为绿波段的反射率。
通过上述步骤计算得到多光谱遥感影像中对应的各个像素的不透水面指数,从而得到初始不透水面图像I1。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述对二值化不透水面图像I3进行格网划分时,每个格网单元大小为8*8。
5.根据权利要求1-3任一项所述的方法,其特征在于,所述f2为从Landsat图像数据I0中提取的像素的2维纹理特征是指在3*3窗口内的均值和方差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610113115.0A CN105701483B (zh) | 2016-02-29 | 2016-02-29 | 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610113115.0A CN105701483B (zh) | 2016-02-29 | 2016-02-29 | 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105701483A true CN105701483A (zh) | 2016-06-22 |
CN105701483B CN105701483B (zh) | 2018-10-26 |
Family
ID=56222680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610113115.0A Active CN105701483B (zh) | 2016-02-29 | 2016-02-29 | 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105701483B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650673A (zh) * | 2016-12-27 | 2017-05-10 | 中国科学院深圳先进技术研究院 | 城市制图方法及装置 |
CN106683059A (zh) * | 2016-12-29 | 2017-05-17 | 中国科学院深圳先进技术研究院 | 夜间灯光数据序列构建方法及装置 |
CN107067003A (zh) * | 2017-03-09 | 2017-08-18 | 百度在线网络技术(北京)有限公司 | 感兴趣区域边界的提取方法、装置、设备和计算机存储介质 |
CN107229913A (zh) * | 2017-05-23 | 2017-10-03 | 国家地理空间信息中心 | 基于高分卫星遥感数据结合建筑高度的人口密度分析系统 |
CN108629818A (zh) * | 2018-04-27 | 2018-10-09 | 福州大学 | 一种大范围不透水面百分比变化量快速制图技术 |
CN109598273A (zh) * | 2018-12-03 | 2019-04-09 | 中国矿业大学 | 一种融合地表温度和建筑指数的城市实体边界识别方法 |
CN109858450A (zh) * | 2019-02-12 | 2019-06-07 | 中国科学院遥感与数字地球研究所 | 一种十米级空间分辨率遥感影像城镇提取方法及系统 |
CN110765885A (zh) * | 2019-09-29 | 2020-02-07 | 武汉大学 | 一种基于异源夜光遥感影像的城市扩张检测方法及装置 |
CN110909099A (zh) * | 2019-11-14 | 2020-03-24 | 天津大学 | 基于灯光数据测算城市建成区重心偏移速度及角度的方法 |
CN110929739A (zh) * | 2019-11-21 | 2020-03-27 | 成都理工大学 | 一种自动化的不透水面范围遥感迭代提取方法 |
CN111597949A (zh) * | 2020-05-12 | 2020-08-28 | 中国科学院城市环境研究所 | 一种基于npp-viirs夜间灯光数据的城市建成区提取方法 |
CN111598101A (zh) * | 2020-05-25 | 2020-08-28 | 中国测绘科学研究院 | 基于遥感影像场景分割的城区智能提取方法、系统及设备 |
CN111798383A (zh) * | 2020-06-09 | 2020-10-20 | 武汉大学 | 一种高分辨率夜间灯光影像的增强方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824077A (zh) * | 2014-03-17 | 2014-05-28 | 武汉大学 | 一种基于多源遥感数据的城市不透水层率息提取方法 |
CN103824309A (zh) * | 2014-03-12 | 2014-05-28 | 武汉大学 | 一种城市建成区边界自动提取方法 |
-
2016
- 2016-02-29 CN CN201610113115.0A patent/CN105701483B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824309A (zh) * | 2014-03-12 | 2014-05-28 | 武汉大学 | 一种城市建成区边界自动提取方法 |
CN103824077A (zh) * | 2014-03-17 | 2014-05-28 | 武汉大学 | 一种基于多源遥感数据的城市不透水层率息提取方法 |
Non-Patent Citations (2)
Title |
---|
YU XINYANG ET AL.: "Muti-temporal remote sensing of land cover change and urban sprawl in the coastal city of Yantai,China", 《INTERNATIONAL JOURNAL OR DIGITAL EARTH》 * |
吴小语 等: "融合DMSP-OLS和Landsat影像的城区边界提取", 《应用科学学报》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650673A (zh) * | 2016-12-27 | 2017-05-10 | 中国科学院深圳先进技术研究院 | 城市制图方法及装置 |
CN106683059A (zh) * | 2016-12-29 | 2017-05-17 | 中国科学院深圳先进技术研究院 | 夜间灯光数据序列构建方法及装置 |
CN107067003A (zh) * | 2017-03-09 | 2017-08-18 | 百度在线网络技术(北京)有限公司 | 感兴趣区域边界的提取方法、装置、设备和计算机存储介质 |
CN107229913A (zh) * | 2017-05-23 | 2017-10-03 | 国家地理空间信息中心 | 基于高分卫星遥感数据结合建筑高度的人口密度分析系统 |
CN108629818A (zh) * | 2018-04-27 | 2018-10-09 | 福州大学 | 一种大范围不透水面百分比变化量快速制图技术 |
CN109598273A (zh) * | 2018-12-03 | 2019-04-09 | 中国矿业大学 | 一种融合地表温度和建筑指数的城市实体边界识别方法 |
CN109598273B (zh) * | 2018-12-03 | 2022-08-19 | 中国矿业大学 | 一种融合地表温度和建筑指数的城市实体边界识别方法 |
CN109858450B (zh) * | 2019-02-12 | 2020-10-23 | 中国科学院遥感与数字地球研究所 | 一种十米级空间分辨率遥感影像城镇提取方法及系统 |
CN109858450A (zh) * | 2019-02-12 | 2019-06-07 | 中国科学院遥感与数字地球研究所 | 一种十米级空间分辨率遥感影像城镇提取方法及系统 |
CN110765885A (zh) * | 2019-09-29 | 2020-02-07 | 武汉大学 | 一种基于异源夜光遥感影像的城市扩张检测方法及装置 |
CN110909099A (zh) * | 2019-11-14 | 2020-03-24 | 天津大学 | 基于灯光数据测算城市建成区重心偏移速度及角度的方法 |
CN110929739A (zh) * | 2019-11-21 | 2020-03-27 | 成都理工大学 | 一种自动化的不透水面范围遥感迭代提取方法 |
CN111597949A (zh) * | 2020-05-12 | 2020-08-28 | 中国科学院城市环境研究所 | 一种基于npp-viirs夜间灯光数据的城市建成区提取方法 |
CN111597949B (zh) * | 2020-05-12 | 2023-04-11 | 中国科学院城市环境研究所 | 一种基于npp-viirs夜间灯光数据的城市建成区提取方法 |
CN111598101A (zh) * | 2020-05-25 | 2020-08-28 | 中国测绘科学研究院 | 基于遥感影像场景分割的城区智能提取方法、系统及设备 |
CN111598101B (zh) * | 2020-05-25 | 2021-03-23 | 中国测绘科学研究院 | 基于遥感影像场景分割的城区智能提取方法、系统及设备 |
CN111798383A (zh) * | 2020-06-09 | 2020-10-20 | 武汉大学 | 一种高分辨率夜间灯光影像的增强方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105701483B (zh) | 2018-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105701483A (zh) | 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 | |
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN104392212B (zh) | 一种基于视觉的道路信息检测及前方车辆识别方法 | |
Erikson | Species classification of individually segmented tree crowns in high-resolution aerial images using radiometric and morphologic image measures | |
CN107153822A (zh) | 一种基于深度学习的半自动图像精标注方法 | |
CN102865859B (zh) | 一种基于surf特征的航空序列图像位置估计方法 | |
Matkan et al. | Road extraction from lidar data using support vector machine classification | |
CN104751465A (zh) | 一种基于lk光流约束的orb图像特征配准方法 | |
CN107610114A (zh) | 基于支持向量机的光学卫星遥感影像云雪雾检测方法 | |
CN104361589A (zh) | 一种基于尺度间映射的高分辨率遥感影像分割方法 | |
CN101901343A (zh) | 基于立体约束的遥感影像道路提取方法 | |
CN104361314A (zh) | 基于红外与可见光图像融合的变电设备定位方法及装置 | |
CN105373135A (zh) | 一种基于机器视觉的飞机入坞引导和机型识别的方法及系统 | |
CN103886589A (zh) | 面向目标的自动化高精度边缘提取方法 | |
CN102521597B (zh) | 一种基于分级策略的影像直线特征匹配方法 | |
CN105894503A (zh) | 一种对Kinect植株彩色和深度检测图像的修复方法 | |
CN102750531B (zh) | 用于票据文档定位格的手写体标记符号检测方法 | |
CN105426825B (zh) | 一种基于航拍图像识别的电网地理接线图绘制方法 | |
CN103839267A (zh) | 一种基于形态学建筑物指数的建筑物提取方法 | |
CN104809433A (zh) | 一种基于最大稳定区域和随机采样的斑马线检测方法 | |
CN101980317A (zh) | 基于改进c-v模型的遥感图路网提取的交通流量预测方法 | |
CN104658003A (zh) | 舌体图像的分割方法和装置 | |
CN108647664A (zh) | 一种基于环视图像的车道线检测方法 | |
CN104077775A (zh) | 一种结合骨架特征点和形状上下文的形状匹配方法及装置 | |
CN101226637A (zh) | 一种车轮与地面接触点的自动检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |