CN111598101B - 基于遥感影像场景分割的城区智能提取方法、系统及设备 - Google Patents
基于遥感影像场景分割的城区智能提取方法、系统及设备 Download PDFInfo
- Publication number
- CN111598101B CN111598101B CN202010452028.4A CN202010452028A CN111598101B CN 111598101 B CN111598101 B CN 111598101B CN 202010452028 A CN202010452028 A CN 202010452028A CN 111598101 B CN111598101 B CN 111598101B
- Authority
- CN
- China
- Prior art keywords
- image
- urban
- grid
- sample
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于遥感影像场景分割的城区智能提取方法、系统及设备,方法包括以下步骤:步骤1,根据路网数据对高分辨率遥感影像进行分割,生成用于深度学习场景分类的街区级场景影像;步骤2,根据城市各区政府所在地位置和影像特征进行城区和非城区样本的初始划分并标记,生成包含训练集、验证集和测试集的样本集;步骤3,选取人工特征,同卷积神经网络及其特征进行融合,并对城市街区场景进行分类;步骤4,根据场景分类结果构建金字塔格网,对城区内部街区斑块、周围斑块和格网分类结果进行判断;步骤5,对样本集进行迭代训练及场景分类,直到确定所有样本类别,得到城区范围为止,本发明保证了提取城区的效果和精度。
Description
技术领域
本发明涉及遥感影像处理技术领域,具体涉及一种基于高分辨率基于遥感影像场景分割的城区智能提取方法、系统及设备。
背景技术
随着城镇化的快速推进,在促进经济发展的同时,使得城市空间格局日益复杂,面临着资源约束趋紧、环境污染严重、生态系统退化等严峻形势。城市要实现可持续发展,首先要掌握城市发展现状,合理调整城市布局,控制城市的盲目扩张现象。城市扩张监测是科学指导城市布局,实现城市可持续发展的重要基础,城区范围提取是城市扩张监测实现的重要技术手段。相比于中低分辨率遥感影像,高分辨率影像能够提供更为精确的位置信息和更为丰富的纹理细节更有利于实现城区的高精度提取,因此利用高分辨率影像实现城区的自动提取逐渐成为城市遥感领域的一个重要课题。
然而,目前的城区提取方法多由传统的中低分辨率遥感影像的城区提取方法演化而来,主要分为基于遥感影像的光谱特性的指数法和基于影像纹理特征的面向对象分类的方法,常用方案为经典的先分割-再分类的面向对象的信息提取方法。然而,设计出一种好的人工特征十分困难,且通常有特定的应用场景,适用性较差,难以应对城市的复杂情况。利用深度学习进行城区提取方法准确有效,然而却需要大量的标记样本来进行训练才能够有好的效果,而建立一个庞大而全面的样本集需要耗费极大的人力物力。
因此,如何在保持深度学习提取精度的同时,减少其对样本量的需求,开发一种少量样本条件下的深度学习城区提取方法成为了迫切需求。
发明内容
为了解决上述问题,本发明的目的是提供一种基于高分辨率遥感影像场景分割的城区智能提取方法、系统及设备,既能在少量样本条件下进行深度学习模型的训练和城区提取,又能保证提取的效果和精度。
为实现上述目的,本发明采用以下技术方案:
一方面,本发明提供的一种基于遥感影像场景分割的城区智能提取方法,包括以下步骤:
步骤1,根据路网数据对高分辨率遥感影像场景进行分割,生成用于深度学习场景分类的影像;
步骤2,根据城市各区政府所在地位置和高分辨率遥感影像影像特征进行城区和非城区样本的初始划分并标记,生成包含训练集、验证集和测试集的样本集;
步骤3,选取人工特征,同卷积神经网络场景进行融合,并进行城市街区场景分类;
步骤4,根据场景分类结果构建金字塔格网,对城区内部街区斑块、周围斑块和格网分类结果进行判断;
步骤5,对样本集进行迭代训练及场景分类,提取城区范围,直到确定所有样本类别为止。
作为本实施例一种可能的实现方式,所述步骤1具体为:
步骤1.1:转换空间坐标系,将路网数据坐标系同影像数据坐标系进行统一;
步骤1.2:将路网数据由线状矢量数据转换为面状矢量数据;
步骤1.3:将面积小于一定值的路网矢量同周围的矢量斑块进行合并;
步骤1.4:利用处理后的路网数据对影像数据进行分割,将城市影像分割形成大量的街区场景影像。
作为本实施例一种可能的实现方式,所述步骤2具体为:
步骤2.1:根据高分辨率影像特征在城市各区政府所在地附近选取少量的初始城区样本,并在城市外部郊区选择少量非城区样本,对选取的样本进行分类和标记;
步骤2.2:将标记样本按照一定的比例随机划分为训练集和验证集,并通过旋转和镜像处理方式进行训练集增强,将未标记样本作为测试集,并根据深度学习网络要求将样本重采样至固定大小,构建样本集。
作为本实施例一种可能的实现方式,所述步骤3具体为:
步骤3.1:选取最近城区中心距离、有效像元占比、实地面积、实地周长面积比、灰度均值、灰度标准差、信息熵、能量作为人工特征,上述人工特征计算方式如下:
1)最近城区中心距离
最近城区中心距离即样本中心距离最近的城区中心的距离:
其中,D为最近城区中心距离,Xs、Ys分别为样本中心横坐标和纵坐标,XC、YC分别为样本中心距离最近的城区中心点的横坐标和纵坐标;
2)有效像元占比
有效像元占比是分割样本中有效像元数目同分割样本总像元数目的比值:
R=V/N (2)
其中,R为有效像元占比,V为有效像元个数,N为分割样本总像元个数;
3)实地面积
实地面积即样本对应的街区矢量的实地面积大小;
4)实地周长面积比
实地周长面积比即样本对应的街区矢量的周长同面积的比值:
T=L/S (3)
其中,T为实地周长面积比,L为样本对应的街区矢量的周长,S为样本对应的街区矢量的面积;
5)有效像元灰度均值
有效像元灰度均值即为图像全部有效像元灰度值的平均数;
其中,M为有效像元灰度均值,Pi,j为图像在(i,j)处的有效像元灰度值,I,J分别为样本图像的长和宽,有效像元即该像元位于街区矢量内部;
6)有效像元灰度标准差
有效像元灰度标准差就是图像全部有效像元的标准差:
其中,S为有效像元灰度标准差,Pi,j为图像在(i,j)处的有效像元灰度值,M为有效像元灰度均值,I,J分别为样本图像的长和宽,N为有效像元总个数;
7)信息熵
信息熵用于反映数据信息量及图像灰度的空间分布情况:
其中,p(k)表示图像中灰度值为k的像元数目与图像的总像元数之比;
8)能量
能量即角二阶矩,是影像纹理粗细程度的衡量指标:
步骤3.2:根据样本影像和路网数据计算上述人工特征,并按照最大最小值归一化方法进行归一化,最大最小值归一化公式如下;
其中,T是标准化后的值,I是初始值,Minz为指标z的最小值,Maxz为指标z的最大值;
步骤3.3:生成一个同影像样本同样大小的单波段影像,将生成的单波段影像进行均匀分块,每块需呈正方形,分块数量需超过人工特征数量;
步骤3.4:将计算得到的人工特征依次填入新生成单波段影像的各个块中,将含有人工特征的单波段影像加入原有的影像当中,作为新的影像进行输入;
步骤3.5:进行常规卷积神经网络训练和分类。
作为本实施例一种可能的实现方式,所述步骤4具体为:
步骤4.1:用空间金字塔的方法对城市进行分块,金字塔需覆盖城市整个行政区划范围,城市网格的大小和金字塔层数根据城市范围大小按照公式(9)-(10)进行计算:
L=max(W,H) (9)
其中,L为城市最大范围,W,H分别为城市的横向范围和纵向范围大小;
N=log2L-8 (10)
其中,N为金字塔层数,L为城市最大范围;
C=2n+8 (11)
其中,C为从底部往上数第n层金字塔的格网大小;
步骤4.2:在确定好金字塔结构后,根据路网分割后的街区影像中间点坐标,将其分配到各层的具体网格单元中,进行信息的存储;
步骤4.3:根据影像的分类结果对金字塔网格的类别从高层到底层进行标记,首先对金字塔最高层网格类别进行标记,如果金字塔网格内部存取的影像类别全部为城区,则将网格的类别标记为城区,反之亦然;如果存在混合的情况,则记录为不确定类别;然后对于已经标记好的网格,其下层全部级别网格的类别与上层保持一致;混合区域根据标记的规则进行进一步的细化;
步骤4.4:对标记结果进行修正,从高层到底层进行判断,如果某网格为非城区,而其周围八邻域网格全部为城区,则认为该网格标记错误,予以纠正;反之,若该网格为城区,则按照规则纠正为非城区;如果其周围八邻域既有非城区网格也有城区网格,则按照数量计算并记录其标签概率,周围网格标签皆不确定的为未知网格,同时根据修正结果更新下层全部接边的网格类别。
作为本实施例一种可能的实现方式,所述对标记结果进行修正,具体为:
将城区网格标记为1,非城区网格标记为0,则根据公式(12)-(16)计算修正后标记:
其中,为修正后标记,为网格分类为城区的概率,Lp为修正后网格分类为城区的概率,cp为金字塔格网修正概率,lr为待修正网格八邻域网格的分类为城区的概率,wr为lr对应网格的权重,a为变程,h为lr对应网格的中心距离待修正格网中心的距离。
作为本实施例一种可能的实现方式,所述步骤5具体为:
步骤5.1:进行置信度评价,根据网格的标记结果更新网格内部所属样本的标记,未确定标记的网格内部样本标记不变。将被同一类型网格包围的网格内部样本作为高置信度样本和最终标记结果,加入训练样本集中,其他为低置信度样本,继续保留在测试样本集;
步骤5.2:将未知网格内部影像样本城区和非城区分类概率的相近的样本筛选出来,进一步确认其标签;
步骤5.3:对样本集进行迭代训练及场景分类,直到确定所有样本类别为止。
另一方面,本发明提供的一种基于遥感影像场景分割的城区智能提取系统,包括:
场景分割模块,用于根据路网数据对高分辨率遥感影像进行分割,生成用于深度学习场景分类的街区级场景影像;
样本集构建模块,用于根据城市各区政府所在地位置和影像特征进行城区和非城区样本的初始划分并标记,生成包含训练集、验证集和测试集的样本集;
场景特征分类模块,用于选取人工特征,同卷积神经网络及其特征进行融合,并对城市街区场景进行分类;
格网约束模块,用于根据场景分类结果构建金字塔格网,对城区内部街区斑块、周围斑块和格网分类结果进行判断;
城区提取模块,用于对样本集进行迭代训练及场景分类,直到确定所有样本类别,得到城区范围为止。
再一方面,本发明提供的一种基于遥感影像场景分割的城区智能提取设备,包括存储器以及处理器,所述存储器内存储有可执行代码,所述可执行代码能够被所述处理器执行,以实现上述所述的基于遥感影像场景分割的城区智能提取方法。
本发明实施例的技术方案可以具有的有益效果如下:
本发明采用半监督学习的方式,将能够充分利用未标记样本中的数据信息,并通过加入人工特征和金字塔空间格网空间约束,大大减少了样本标记工作量,提高了对样本噪声的抵抗能力。
本发明采用路网分割、场景分类方法以街区为基元进行城区提取,将城区提取从像元级、对象级提升到场景级,通过深度学习提取场景级特征,能够更好的描述城区这种高层语义信息,提高了提取精度,避免了城区提取碎图斑的问题。
本发明提出的基于高分辨率遥感影像场景分割的城区智能提取方法在理论上正确,实际应用中可行,能够有效的从高分辨率遥感影像和路网数据中提取到城区范围,提取结果与实际城区范围有着高度一致性,能够满足城市扩展动态监测需求,具有较大的实际应用价值。
本发明将金字塔格网空间约束等先验知识与机器自动学习的优点相结合,能够避免城区提取结果破碎现象,且有效减少人工选取的样本量。
本发明既能在少量样本条件下进行深度学习模型的训练和城区提取,又能保证提取的效果和精度。
附图说明
图1是根据一示例性实施例示出的一种基于遥感影像场景分割的城区智能提取方法的流程图;
图2是根据一示例性实施例示出的一种基于遥感影像场景分割的城区智能提取系统的结构图;
图3是利用本发明进行城区提取的具体实施流程图;
图4是利用本发明提取到的城区结果与人工提取城区结果叠加整体显示结果图,其中,图4(a)是高分辨率遥感影像图,图4(b)是真值影像叠加示意图,图4(c)是本发明方法提取结果示意图,图4(d)是本发明方法提取结果与真值叠加后的示意图。
具体实施方式
下面结合附图与实施例对本发明做进一步说明:
为能清楚说明本方案的技术特点,下面通过具体实施方式,并结合其附图,对本发明进行详细阐述。下文的公开提供了许多不同的实施例或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。此外,本发明可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施例和/或设置之间的关系。应当注意,在附图中所图示的部件不一定按比例绘制。本发明省略了对公知组件和处理技术及工艺的描述以避免不必要地限制本发明。
图1是根据一示例性实施例示出的一种基于遥感影像场景分割的城区智能提取方法的流程图。如图1所述,本发明实施例提供的一种基于遥感影像场景分割的城区智能提取方法,包括以下步骤:
步骤1,根据路网数据对高分辨率遥感影像进行分割,生成用于深度学习场景分类的街区级场景影像;
步骤2,根据城市各区政府所在地位置和影像特征进行城区和非城区样本的初始划分并标记,生成包含训练集、验证集和测试集的样本集;
步骤3,选取人工特征,同卷积神经网络及其特征进行融合,并对城市街区场景进行分类;
步骤4,根据场景分类结果构建金字塔格网,对城区内部街区斑块、周围斑块和格网分类结果进行判断;
步骤5,对样本集进行迭代训练及场景分类,直到确定所有样本类别,得到城区范围为止。
作为本实施例一种可能的实现方式,所述步骤1具体为:
步骤1.1:转换空间坐标系,将路网数据坐标系同影像数据坐标系进行统一;
步骤1.2:将路网数据由线状矢量数据转换为面状矢量数据;
步骤1.3:将面积小于一定值的路网矢量同周围的矢量斑块进行合并;
步骤1.4:利用处理后的路网数据对影像数据进行分割,将城市影像分割形成大量的街区场景影像。
作为本实施例一种可能的实现方式,所述步骤2具体为:
步骤2.1:根据高分辨率影像特征在城市各区政府所在地附近选取少量的初始城区样本,并在城市外部郊区选择少量非城区样本,对选取的样本进行分类和标记;
步骤2.2:将标记样本按照一定的比例随机划分为训练集和验证集,并通过旋转和镜像处理方式进行训练集增强,将未标记样本作为测试集,并根据深度学习网络要求将样本重采样至固定大小,构建样本集。
作为本实施例一种可能的实现方式,所述步骤3具体为:
步骤3.1:选取最近城区中心距离、有效像元占比、实地面积、实地周长面积比、灰度均值、灰度标准差、信息熵、能量作为人工特征,上述人工特征计算方式如下:
1)最近城区中心距离
最近城区中心距离即样本中心距离最近的城区中心的距离,能够衡量该样本对不同城区的隶属程度:
其中,D为最近城区中心距离,Xs、Ys分别为样本中心横坐标和纵坐标,XC、YC分别为样本中心距离最近的城区中心点的横坐标和纵坐标;
2)有效像元占比
有效像元占比是分割样本中有效像元数目同分割样本总像元数目的比值,是衡量街区形状的一个指标:
R=V/N (2)
其中,R为有效像元占比,V为有效像元个数,N为分割样本总像元个数;
3)实地面积
实地面积即样本对应的街区矢量的实地面积大小,能够衡量街区的大小;
4)实地周长面积比
实地周长面积比即样本对应的街区矢量的周长同面积的比值,能够衡量街区的形状:
T=L/S (3)
其中,T为实地周长面积比,L为样本对应的街区矢量的周长,S为样本对应的街区矢量的面积;
5)有效像元灰度均值
有效像元灰度均值即为图像全部有效像元灰度值的平均数,能够衡量图像的整体亮度:
其中,M为有效像元灰度均值,Pi,j为图像在(i,j)处的有效像元灰度值,I,J分别为样本图像的长和宽,有效像元即该像元位于街区矢量内部;
6)有效像元灰度标准差
有效像元灰度标准差就是图像全部有效像元的标准差,能够反映灰度分布的离散程度:
其中,S为有效像元灰度标准差,Pi,j为图像在(i,j)处的有效像元灰度值,M为有效像元灰度均值,I,J分别为样本图像的长和宽,N为有效像元总个数;
7)信息熵
信息熵用于反映数据信息量及图像灰度的空间分布情况:
其中,p(k)表示图像中灰度值为k的像元数目与图像的总像元数之比;
8)能量
能量即角二阶矩,是影像纹理粗细程度的衡量指标:
步骤3.2:根据样本影像和路网数据计算上述人工特征,并按照最大最小值归一化方法进行归一化,最大最小值归一化公式如下;
其中,T是标准化后的值,I是初始值,Minz为指标z的最小值,Maxiz为指标z的最大值;
步骤3.3:生成一个同影像样本同样大小的单波段影像,将生成的单波段影像进行均匀分块,每块需呈正方形,分块数量需超过人工特征数量;
步骤3.4:将计算得到的人工特征依次填入新生成单波段影像的各个块中,将含有人工特征的单波段影像加入原有的影像当中,作为新的影像进行输入;
步骤3.5:进行常规卷积神经网络训练和分类。
作为本实施例一种可能的实现方式,所述步骤4具体为:
步骤4.1:用空间金字塔的方法对城市进行分块,金字塔需覆盖城市整个行政区划范围,城市网格的大小和金字塔层数根据城市范围大小按照公式(9)-(10)进行计算:
L=max(W,H) (9)
其中,L为城市最大范围,W,H分别为城市的横向范围和纵向范围大小;
N=log2L-8 (10)
其中,N为金字塔层数,L为城市最大范围;
C=2n+8 (11)
其中,C为从底部往上数第n层金字塔的格网大小;
步骤4.2:在确定好金字塔结构后,根据路网分割后的街区影像中间点坐标,将其分配到各层的具体网格单元中,进行信息的存储;
步骤4.3:根据影像的分类结果对金字塔网格的类别从高层到底层进行标记,首先对金字塔最高层网格类别进行标记,如果金字塔网格内部存取的影像类别全部为城区,则将网格的类别标记为城区,反之亦然;如果存在混合的情况,则记录为不确定类别;然后对于已经标记好的网格,其下层全部级别网格的类别与上层保持一致;混合区域根据标记的规则进行进一步的细化;
步骤4.4:对标记结果进行修正,从高层到底层进行判断,如果某网格为非城区,而其周围八邻域网格全部为城区,则认为该网格标记错误,予以纠正;反之,若该网格为城区,则按照规则纠正为非城区;如果其周围八邻域既有非城区网格也有城区网格,则按照数量计算并记录其标签概率,周围网格标签皆不确定的为未知网格,同时根据修正结果更新下层全部接边的网格类别。
作为本实施例一种可能的实现方式,所述对标记结果进行修正,具体为:
将城区网格标记为1,非城区网格标记为0,则根据公式(12)-(16)计算修正后标记:
其中,为修正后标记,为网格分类为城区的概率,Lp为修正后网格分类为城区的概率,cp为金字塔格网修正概率,lr为待修正网格八邻域网格的分类为城区的概率,wr为lr对应网格的权重,a为变程,h为lr对应网格的中心距离待修正格网中心的距离。
作为本实施例一种可能的实现方式,所述步骤5具体为:
步骤5.1:进行置信度评价,根据网格的标记结果更新网格内部所属样本的标记,未确定标记的网格内部样本标记不变。将被同一类型网格包围的网格内部样本作为高置信度样本和最终标记结果,加入训练样本集中,其他为低置信度样本,继续保留在测试样本集;
步骤5.2:将未知网格内部影像样本城区和非城区分类概率的相近的样本筛选出来,进一步确认其标签;
步骤5.3:对样本集进行迭代训练及场景分类,直到确定所有样本类别为止。
图2是根据一示例性实施例示出的一种基于遥感影像场景分割的城区智能提取系统的结构图。如图2所示,本发明提供的一种基于遥感影像场景分割的城区智能提取系统,包括:
场景分割模块,用于根据路网数据对高分辨率遥感影像进行分割,生成用于深度学习场景分类的街区级场景影像;
样本集构建模块,用于根据城市各区政府所在地位置和影像特征进行城区和非城区样本的初始划分并标记,生成包含训练集、验证集和测试集的样本集;
场景特征分类模块,用于选取人工特征,同卷积神经网络及其特征进行融合,并对城市街区场景进行分类;
格网约束模块,用于根据场景分类结果构建金字塔格网,对城区内部街区斑块、周围斑块和格网分类结果进行判断;
城区提取模块,用于对样本集进行迭代训练及场景分类,直到确定所有样本类别,得到城区范围为止。
本发明还提供了一种基于遥感影像场景分割的城区智能提取设备,包括存储器以及处理器,所述存储器内存储有可执行代码,所述可执行代码能够被所述处理器执行,以实现上述所述的基于遥感影像场景分割的城区智能提取方法。
以北京为例,利用本发明采用真实的城区高分辨率遥感影像数据和路网数据对基于高分辨率遥感影像场景分割的城区智能提取方法进行试验,
如图3所示,对北京市进行城区提取的具体步骤如下:
高分辨遥感影像的分辨率为0.5m,路网数据来源于地理国情普查数据成果。
步骤1:基于路网数据的场景分割;
利用收集到的路网数据对影像数据进行分割,生成用于深度学习场景分类的样本集,具体步骤如下:
(1)空间坐标系转换,将路网数据坐标系同影像数据坐标系进行统一,转换为2000国家大地坐标系;
(2)利用Arcgis的要素转面工具将路网数据由线状矢量数据转换为面状矢量数据;
(3)利用Arcgis的要素融合工具将面积小于100平方米的路网矢量同周围的矢量斑块进行合并;
(4)利用Arcgis的掩膜提取工具利用处理后的路网数据对影像数据进行分割,将城市影像分割形成大量的街区场景影像,为样本集构建提供数据基础。
步骤2:样本集的构建;
根据北京市16个区的政府所在地位置和高分辨率影像特征进行初始城区和非城区样本的划分并标记,并划分为训练集和验证集,剩余未标记样本作为测试集,根据本实施例选择的LeNet5网络数据要求,将样本重采样至32×32大小构建集;
(1)通过百度地图确定城市各区政府位置,再根据高分辨率影像特征在区政府所在地附近选取500张场景分割图像作为初始城区样本,并在城市外部郊区选择500张非城区样本,对选取的样本进行分类和标记;
(2)将标记样本按照8:2比例随机划分为训练集和验证集,对训练集样本进行90°、180°、270°旋转和镜像操作,扩充训练集,将未标记样本作为测试集,构建样本集;
步骤3:融合场景特征的卷积神经网络场景分类;
对每个样本计算8种人工特征值,同卷积神经网络进行融合,进行城市街区场景的分类;
(1)根据公式(1)-(8)计算最近城区中心距离、有效像元占比、实地面积、实地周长面积比、灰度均值、灰度标准差、信息熵、能量特征值,其中灰度均值、灰度标准差、信息熵、能量特征值按R、G、B三个通道分别计算,每个样本共得到16个人工特征值;
(2)生成一张32×32的单波段影像,将生成的单波段影像长宽各4等分,分为16块;
(3)将计算得到的16个人工特征值依次填入新生成单波段影像的16个块中,再将单波段影像加入原有的影像当中作为第四个波段,将生成的新影像作为网络输入;
(4)进行常规卷积神经网络训练和初步分类,记录类别和置信度,将置信度小于95%的样本作为未标记样本返回测试,将置信度大于95%的样本进行类别标记,加入训练集。
步骤4:金字塔格网空间约束;
根据场景分类结果构建金字塔格网,对城区内部街区斑块周围斑块和格网分类结果的判断来进一步验证和约束其分类结果。
(1)根据北京市行政区范围大小按照公式(9)-(10)进行计算金字塔层数和各层网格大小,构建空间金字塔;
(2)根据路网分割后的街区影像中间点坐标,其分配到各层的具体网格单元中,进行信息的存储;
(3)根据影像的分类结果对金字塔网格的类别从高层到底层进行标记,首先对金字塔最高层网格类别进行标记,若金字塔网格内部存取的影像类别全部为城区,则将网格的类别标记为城区,反之亦然;若存在混合的情况,则记录为不确定类别;然后对于已经标记好的网格,其下层全部级别网格的类别与上层保持一致;混合区域根据标记的规则进行进一步的细化;
(4)对标记结果进行修正,从高层到底层进行判断:
1)若某网格为非城区,而其周围8邻域网格全部为城区,则更改该网格标签为城区;
2)若该网格为城区,而其周围8邻域网格全部为非城区,则更改该网格标签为非城区;
3)若其周围8邻域既有非城区网格也有城区网格,当
则按照数量计算并记录其标签概率;
4)周围8邻域网格标签皆不确定的为未知网格,
5)同时根据修正结果更新下层全部接边的网格类别;
步骤5:迭代分类提取城区;
迭代训练及分类,直到确定所有样本类别,完成城区范围提取。
作为优选,步骤5的具体实现过程包括以下子步骤:
步骤5.1:进行置信度评价,根据网格的标记结果更新网格内部所属样本的标记,未确定标记的网格内部样本标记不变。将被同一类型网格包围的网格内部样本作为高置信度样本和最终标记结果,加入训练样本集中,其他为低置信度样本,继续保留在测试样本集;
步骤5.2:将未知网格内部影像样本城区和非城区分类概率的相近的样本筛选出来,提供给专家进一步确认其标签;
步骤5.3:迭代训练及分类,直到确定所有样本类别。
通过上述步骤提取得到的城区范围与人工提取范围基本一致,其效果如图4所示,可见本发明在理论上是正确有效的,并且在实际应用中也是切实可行的。本发明既能在少量样本条件下进行深度学习模型的训练和城区提取,又能保证提取的效果和精度。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制。对于所属领域的技术人员来说,在上述说明的基础上还可以做出其它不同形式的修改或变形。这里无需也无法对所有的实施方式予以穷举。在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (9)
1.一种基于遥感影像场景分割的城区智能提取方法,其特征在于,包括以下步骤:
步骤1,根据路网数据对高分辨率遥感影像进行分割,生成用于深度学习场景分类的街区级场景影像;
步骤2,根据城市各区政府所在地位置和影像特征进行城区和非城区样本的初始划分并标记,生成包含训练集、验证集和测试集的样本集;
步骤3,选取人工特征,同卷积神经网络及其特征进行融合,并对城市街区场景进行分类;人工特征同卷积神经网络及其特征进行融合的过程为:根据样本影像和路网数据计算人工特征,并按照最大最小值归一化方法进行归一化,生成一个同影像样本同样大小的单波段影像,将生成的单波段影像进行均匀分块,每块需呈正方形,分块数量需超过人工特征数量;将计算得到的人工特征依次填入新生成单波段影像的各个块中,将含有人工特征的单波段影像加入原有的影像当中,作为新的影像进行输入;
步骤4,根据场景分类结果构建金字塔格网,对城区内部街区斑块、周围斑块和格网分类结果进行判断;
步骤5,对样本集进行迭代训练及场景分类,直到确定所有样本类别,得到城区范围为止。
2.根据权利要求1所述的基于遥感影像场景分割的城区智能提取方法,其特征在于,所述步骤1具体为:
步骤1.1:转换空间坐标系,将路网数据坐标系同影像数据坐标系进行统一;
步骤1.2:将路网数据由线状矢量数据转换为面状矢量数据;
步骤1.3:将面积小于一定值的路网矢量同周围的矢量斑块进行合并;
步骤1.4:利用处理后的路网数据对影像数据进行分割,将城市影像分割形成大量的街区场景影像。
3.根据权利要求1所述的基于遥感影像场景分割的城区智能提取方法,其特征在于,所述步骤2具体为:
步骤2.1:根据高分辨率影像特征在城市各区政府所在地附近选取少量的初始城区样本,并在城市外部郊区选择少量非城区样本,对选取的样本进行分类和标记;
步骤2.2:将标记样本按照一定的比例随机划分为训练集和验证集,并通过旋转和镜像处理方式进行训练集增强,将未标记样本作为测试集,并根据深度学习网络要求将样本重采样至固定大小,构建样本集。
4.根据权利要求1所述的基于遥感影像场景分割的城区智能提取方法,其特征在于,所述步骤3具体为:
步骤3.1:选取最近城区中心距离、有效像元占比、实地面积、实地周长面积比、灰度均值、灰度标准差、信息熵、能量作为人工特征,上述人工特征计算方式如下:
1)最近城区中心距离
最近城区中心距离即样本中心距离最近的城区中心的距离:
其中,D为最近城区中心距离,Xs、Ys分别为样本中心横坐标和纵坐标,XC、YC分别为样本中心距离最近的城区中心点的横坐标和纵坐标;
2)有效像元占比
有效像元占比是分割样本中有效像元数目同分割样本总像元数目的比值:
R=V/N (2)
其中,R为有效像元占比,V为有效像元个数,N为分割样本总像元个数;
3)实地面积
实地面积即样本对应的街区矢量的实地面积大小;
4)实地周长面积比
实地周长面积比即样本对应的街区矢量的周长同面积的比值:
T=L/S (3)
其中,T为实地周长面积比,L为样本对应的街区矢量的周长,S为样本对应的街区矢量的面积;
5)有效像元灰度均值
有效像元灰度均值即为图像全部有效像元灰度值的平均数;
其中,M为有效像元灰度均值,Pi,j为图像在(i,j)处的有效像元灰度值,I,J分别为样本图像的长和宽,有效像元即该像元位于街区矢量内部;
6)有效像元灰度标准差
有效像元灰度标准差就是图像全部有效像元的标准差:
其中,S为有效像元灰度标准差,Pi,j为图像在(i,j)处的有效像元灰度值,M为有效像元灰度均值,I,J分别为样本图像的长和宽,N为有效像元总个数;
7)信息熵
信息熵用于反映数据信息量及图像灰度的空间分布情况:
其中,p(k)表示图像中灰度值为k的像元数目与图像的总像元数之比;
8)能量
能量即角二阶矩,是影像纹理粗细程度的衡量指标:
步骤3.2:根据样本影像和路网数据计算上述人工特征,并按照最大最小值归一化方法进行归一化,最大最小值归一化公式如下;
其中,T是标准化后的值,I是初始值,Minz为指标z的最小值,Maxz为指标z的最大值;
步骤3.3:生成一个同影像样本同样大小的单波段影像,将生成的单波段影像进行均匀分块,每块需呈正方形,分块数量需超过人工特征数量;
步骤3.4:将计算得到的人工特征依次填入新生成单波段影像的各个块中,将含有人工特征的单波段影像加入原有的影像当中,作为新的影像进行输入;
步骤3.5:进行常规卷积神经网络训练和分类。
5.根据权利要求1所述的基于遥感影像场景分割的城区智能提取方法,其特征在于,所述步骤4具体为:
步骤4.1:用空间金字塔的方法对城市进行分块,金字塔需覆盖城市整个行政区划范围,城市网格的大小和金字塔层数根据城市范围大小按照公式(9)-(10)进行计算:
L=max(W,H) (9)
其中,L为城市最大范围,W,H分别为城市的横向范围和纵向范围大小;
N=log2 L-8 (10)
其中,N为金字塔层数,L为城市最大范围;
C=2n+8 (11)
其中,C为从底部往上数第n层金字塔的格网大小;
步骤4.2:在确定好金字塔结构后,根据路网分割后的街区影像中间点坐标,将其分配到各层的具体网格单元中,进行信息的存储;
步骤4.3:根据影像的分类结果对金字塔网格的类别从高层到底层进行标记,首先对金字塔最高层网格类别进行标记,如果金字塔网格内部存取的影像类别全部为城区,则将网格的类别标记为城区,反之亦然;如果存在混合的情况,则记录为不确定类别;然后对于已经标记好的网格,其下层全部级别网格的类别与上层保持一致;混合区域根据标记的规则进行进一步的细化;
步骤4.4:对标记结果进行修正,从高层到底层进行判断,如果某网格为非城区,而其周围八邻域网格全部为城区,则认为该网格标记错误,予以纠正;反之,若该网格为城区,则按照规则纠正为非城区;如果其周围八邻域既有非城区网格也有城区网格,则按照数量计算并记录其标签概率,周围网格标签皆不确定的为未知网格,同时根据修正结果更新下层全部接边的网格类别。
7.根据权利要求5所述的基于遥感影像场景分割的城区智能提取方法,其特征在于,所述步骤5具体为:
步骤5.1:进行置信度评价,根据网格的标记结果更新网格内部所属样本的标记,未确定标记的网格内部样本标记不变;将被同一类型网格包围的网格内部样本作为高置信度样本和最终标记结果,加入训练样本集中,其他为低置信度样本,继续保留在测试样本集;
步骤5.2:将未知网格内部影像样本城区和非城区分类概率的相近的样本筛选出来,进一步确认其标签;
步骤5.3:对样本集进行迭代训练及场景分类,直到确定所有样本类别为止。
8.一种基于遥感影像场景分割的城区智能提取系统,其特征在于,包括:
场景分割模块,用于根据路网数据对高分辨率遥感影像进行分割,生成用于深度学习场景分类的街区级场景影像;
样本集构建模块,用于根据城市各区政府所在地位置和影像特征进行城区和非城区样本的初始划分并标记,生成包含训练集、验证集和测试集的样本集;
场景特征分类模块,用于选取人工特征,同卷积神经网络及其特征进行融合,并对城市街区场景进行分类;所述场景特征分类模块将人工特征同卷积神经网络及其特征进行融合的过程为:根据样本影像和路网数据计算人工特征,并按照最大最小值归一化方法进行归一化,生成一个同影像样本同样大小的单波段影像,将生成的单波段影像进行均匀分块,每块需呈正方形,分块数量需超过人工特征数量;将计算得到的人工特征依次填入新生成单波段影像的各个块中,将含有人工特征的单波段影像加入原有的影像当中,作为新的影像进行输入;
格网约束模块,用于根据场景分类结果构建金字塔格网,对城区内部街区斑块、周围斑块和格网分类结果进行判断;
城区提取模块,用于对样本集进行迭代训练及场景分类,直到确定所有样本类别,得到城区范围为止。
9.一种基于遥感影像场景分割的城区智能提取设备,其特征在于,包括存储器以及处理器,所述存储器内存储有可执行代码,所述可执行代码能够被所述处理器执行,以实现如权利要求1至7任意一项所述的基于遥感影像场景分割的城区智能提取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010452028.4A CN111598101B (zh) | 2020-05-25 | 2020-05-25 | 基于遥感影像场景分割的城区智能提取方法、系统及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010452028.4A CN111598101B (zh) | 2020-05-25 | 2020-05-25 | 基于遥感影像场景分割的城区智能提取方法、系统及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111598101A CN111598101A (zh) | 2020-08-28 |
CN111598101B true CN111598101B (zh) | 2021-03-23 |
Family
ID=72186242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010452028.4A Expired - Fee Related CN111598101B (zh) | 2020-05-25 | 2020-05-25 | 基于遥感影像场景分割的城区智能提取方法、系统及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111598101B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348823A (zh) * | 2020-09-22 | 2021-02-09 | 陕西土豆数据科技有限公司 | 一种面向对象的高分辨率遥感影像分割算法 |
CN112232328A (zh) * | 2020-12-16 | 2021-01-15 | 南京邮电大学 | 基于卷积神经网络的遥感影像建筑区提取方法、装置 |
CN112950780B (zh) * | 2021-03-12 | 2022-09-06 | 北京理工大学 | 一种基于遥感影像的网络地图智能生成方法及系统 |
CN113096114B (zh) * | 2021-04-28 | 2022-07-01 | 成都理工大学 | 结合形态与指数的高分辨率城市水体图斑遥感提取方法 |
CN113256839B (zh) * | 2021-05-17 | 2022-05-17 | 深圳得讯信息技术有限公司 | 一种基于ai的配电网智能巡检系统 |
CN113486135B (zh) * | 2021-07-27 | 2024-04-12 | 中南大学 | 基于深度学习网络的建筑物综合方法 |
CN113537329B (zh) * | 2021-07-30 | 2022-05-31 | 山西大学 | 一种逐位置快速估算各类地物概率分布的方法 |
CN116038076B (zh) * | 2023-03-28 | 2023-10-13 | 苏芯物联技术(南京)有限公司 | 一种基于场景匹配的焊接保护气体控制方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824309A (zh) * | 2014-03-12 | 2014-05-28 | 武汉大学 | 一种城市建成区边界自动提取方法 |
CN104331698A (zh) * | 2014-11-19 | 2015-02-04 | 中国农业科学院农业资源与农业区划研究所 | 一种遥感图像城区提取方法 |
CN105701483A (zh) * | 2016-02-29 | 2016-06-22 | 中南大学 | 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 |
CN106709463A (zh) * | 2016-12-29 | 2017-05-24 | 武汉大学 | 基于分层语义的sar图像分类方法 |
CN106991440A (zh) * | 2017-03-29 | 2017-07-28 | 湖北工业大学 | 一种基于空间金字塔的卷积神经网络的图像分类算法 |
CN107092930A (zh) * | 2017-04-21 | 2017-08-25 | 中国科学院遥感与数字地球研究所 | 一种将数字规划地图(dlg)数据用于高分辨率遥感图像地表覆盖分类的方法 |
CN109657602A (zh) * | 2018-12-17 | 2019-04-19 | 中国地质大学(武汉) | 基于街景数据和迁移学习的自动城市功能分区方法及系统 |
CN109858450A (zh) * | 2019-02-12 | 2019-06-07 | 中国科学院遥感与数字地球研究所 | 一种十米级空间分辨率遥感影像城镇提取方法及系统 |
CN110334719A (zh) * | 2019-07-11 | 2019-10-15 | 兰州交通大学 | 一种提取遥感影像中建筑物图像的方法及系统 |
CN110827286A (zh) * | 2018-08-08 | 2020-02-21 | 菜鸟智能物流控股有限公司 | 基于路网的地理区域分割方法、装置以及电子设备 |
CN110929739A (zh) * | 2019-11-21 | 2020-03-27 | 成都理工大学 | 一种自动化的不透水面范围遥感迭代提取方法 |
CN110990661A (zh) * | 2019-10-23 | 2020-04-10 | 南通大学 | 一种基于路网约束和密度聚类的兴趣区域出入口提取方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5360989B2 (ja) * | 2009-09-29 | 2013-12-04 | 株式会社日立ソリューションズ | 地理情報生成システム及び地理情報生成方法 |
CN103761526B (zh) * | 2014-01-26 | 2017-04-12 | 北京理工大学 | 一种基于特征位置优选整合的城区检测方法 |
US10311302B2 (en) * | 2015-08-31 | 2019-06-04 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
US10586104B2 (en) * | 2017-07-21 | 2020-03-10 | Tata Consultancy Services Limited | System and method for theme extraction |
CN108647738B (zh) * | 2018-05-17 | 2021-09-14 | 中国科学院遥感与数字地球研究所 | 基于多指数的全球尺度遥感影像水体智能提取方法 |
CN110598513A (zh) * | 2019-05-24 | 2019-12-20 | 南京大学 | 一种基于sleuth模型的城市开发边界预测方法 |
-
2020
- 2020-05-25 CN CN202010452028.4A patent/CN111598101B/zh not_active Expired - Fee Related
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824309A (zh) * | 2014-03-12 | 2014-05-28 | 武汉大学 | 一种城市建成区边界自动提取方法 |
CN104331698A (zh) * | 2014-11-19 | 2015-02-04 | 中国农业科学院农业资源与农业区划研究所 | 一种遥感图像城区提取方法 |
CN105701483A (zh) * | 2016-02-29 | 2016-06-22 | 中南大学 | 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 |
CN106709463A (zh) * | 2016-12-29 | 2017-05-24 | 武汉大学 | 基于分层语义的sar图像分类方法 |
CN106991440A (zh) * | 2017-03-29 | 2017-07-28 | 湖北工业大学 | 一种基于空间金字塔的卷积神经网络的图像分类算法 |
CN107092930A (zh) * | 2017-04-21 | 2017-08-25 | 中国科学院遥感与数字地球研究所 | 一种将数字规划地图(dlg)数据用于高分辨率遥感图像地表覆盖分类的方法 |
CN110827286A (zh) * | 2018-08-08 | 2020-02-21 | 菜鸟智能物流控股有限公司 | 基于路网的地理区域分割方法、装置以及电子设备 |
CN109657602A (zh) * | 2018-12-17 | 2019-04-19 | 中国地质大学(武汉) | 基于街景数据和迁移学习的自动城市功能分区方法及系统 |
CN109858450A (zh) * | 2019-02-12 | 2019-06-07 | 中国科学院遥感与数字地球研究所 | 一种十米级空间分辨率遥感影像城镇提取方法及系统 |
CN110334719A (zh) * | 2019-07-11 | 2019-10-15 | 兰州交通大学 | 一种提取遥感影像中建筑物图像的方法及系统 |
CN110990661A (zh) * | 2019-10-23 | 2020-04-10 | 南通大学 | 一种基于路网约束和密度聚类的兴趣区域出入口提取方法 |
CN110929739A (zh) * | 2019-11-21 | 2020-03-27 | 成都理工大学 | 一种自动化的不透水面范围遥感迭代提取方法 |
Non-Patent Citations (7)
Title |
---|
Object Detection in Remote Sensing Images Based on a Scene-Contextual Feature Pyramid Network;Chaoyue Chen等;《Remote Sensing》;20190228;第11卷(第3期);第1-19页 * |
Urban Area Detection in Very High Resolution Remote Sensing Images Using Deep Convolutional Neural Networks;Tian Tian等;《Sensors》;20180331;第18卷(第3期);第1-16页 * |
Urban Expansion Analysis Of China"s Prefecture Level City From 2000 TO 2016 Using High-Precision Urban Boundary;Wang Hao等;《2019 IEEE International Geoscience and Remote Sensing Symposium (IGARSS 2019)》;20190802;第7514-7517页 * |
城区边界遥感提取研究进展;王浩等;《测绘科学》;20190630;第44卷(第6期);第159-165页 * |
基于深度学习的城市建筑物提取方法研究;李志强;《中国优秀硕士学位论文全文数据库 基础科学辑》;20190715(第07期);第23、25、27页第3节,第30-37、40-42页第4节,图4-1、图4-5,表4-3 * |
基于高分辨率遥感影像的2000-2015年中国省会城市高精度扩张监测与分析;张翰超等;《地理学报》;20181231;第73卷(第12期);第2345-2363页 * |
大场景高分辨率PolSAR图象土地覆盖分类方法研究;孙佳梅;《中国优秀硕士学位论文全文数据库 信息科学辑》;20170215(第02期);第27-31页第3节 * |
Also Published As
Publication number | Publication date |
---|---|
CN111598101A (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111598101B (zh) | 基于遥感影像场景分割的城区智能提取方法、系统及设备 | |
CN113449594B (zh) | 一种多层网络组合的遥感影像地类语义分割与面积计算方法 | |
Wang et al. | Object-scale adaptive convolutional neural networks for high-spatial resolution remote sensing image classification | |
Wu et al. | Performance evaluation of the SLEUTH model in the Shenyang metropolitan area of northeastern China | |
CN110598784B (zh) | 基于机器学习的建筑垃圾分类方法及装置 | |
CN110991497B (zh) | 一种基于bsvc方法的城市土地利用变化模拟元胞自动机方法 | |
CN113223042B (zh) | 一种遥感影像深度学习样本智能采集方法及设备 | |
CN111738113A (zh) | 基于双注意力机制与语义约束的高分辨遥感图像的道路提取方法 | |
Courtial et al. | Constraint-based evaluation of map images generalized by deep learning | |
CN110992366A (zh) | 一种图像语义分割方法、装置及存储介质 | |
CN116343053B (zh) | 基于光学遥感影像和sar遥感影像融合的固废自动提取方法 | |
CN114283285A (zh) | 交叉一致性自训练遥感图像语义分割网络训练方法及装置 | |
CN111242223B (zh) | 一种基于街景影像多特征融合的街道空间品质评价方法 | |
CN115424059A (zh) | 一种基于像素级对比学习的遥感土地利用分类方法 | |
CN113628180B (zh) | 一种基于语义分割网络的遥感建筑物检测方法及系统 | |
CN111738052A (zh) | 基于深度学习的多特征融合高光谱遥感地物分类方法 | |
CN111104850A (zh) | 一种基于残差网络的遥感影像建筑物自动提取方法和系统 | |
CN113378642A (zh) | 一种对农村违法占地建筑物进行检测的方法 | |
Prathiba et al. | Building footprint extraction from very-high-resolution satellite image using object-based image analysis (OBIA) technique | |
CN111639672A (zh) | 一种基于多数投票的深度学习城市功能区分类方法 | |
CN116611725A (zh) | 一种基于绿色生态指标的土地类型识别方法及装置 | |
CN115270904B (zh) | 一种义务教育阶段适龄常住人口空间化方法和系统 | |
Jiao et al. | A Novel Data Augmentation Method to Enhance the Training Dataset for Road Extraction from Historical Maps | |
CN115713624A (zh) | 一种增强遥感影像多尺度特征的自适应融合语义分割方法 | |
CN112733782B (zh) | 基于道路网的城市功能区识别方法、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210323 |