CN117274650A - 基于遥感-众源语义深度聚类的城市功能区识别方法 - Google Patents

基于遥感-众源语义深度聚类的城市功能区识别方法 Download PDF

Info

Publication number
CN117274650A
CN117274650A CN202311409376.3A CN202311409376A CN117274650A CN 117274650 A CN117274650 A CN 117274650A CN 202311409376 A CN202311409376 A CN 202311409376A CN 117274650 A CN117274650 A CN 117274650A
Authority
CN
China
Prior art keywords
building
clustering
urban
functional area
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311409376.3A
Other languages
English (en)
Other versions
CN117274650B (zh
Inventor
林安琪
吴浩
罗文庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central China Normal University
Original Assignee
Central China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central China Normal University filed Critical Central China Normal University
Priority to CN202311409376.3A priority Critical patent/CN117274650B/zh
Publication of CN117274650A publication Critical patent/CN117274650A/zh
Application granted granted Critical
Publication of CN117274650B publication Critical patent/CN117274650B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于遥感‑众源语义深度聚类的城市功能区识别方法,即:首先,联合高分辨遥感影像与众源建筑物足迹数据,从几何、紧凑度、位置、光谱、纹理和亮度六个维度提取建筑物功能语义特征;然后,构建基于深度嵌入网络的建筑物聚类方法,利用自编码器模块生成建筑物功能语义的低维特征表达,并通过深度神经网络DNN模块来优化建筑物的聚类簇;接着,通过生成格网、类别关联、格网融合与后处理步骤,将离散的建筑物聚类簇转化为连续的面要素,划分城市功能区的识别单元;最后,利用兴趣点与Word2Vec模型,对所划分的单元进行功能识别,生成精细化的城市功能区图。本发明实现灵活、精准的城市功能区场景分割,提升了城市功能区识别的粒度和精度。

Description

基于遥感-众源语义深度聚类的城市功能区识别方法
技术领域
本发明属于地理信息时空大数据领域,特别是基于遥感-众源语义深度聚类的城市功能区识别方法。
背景技术
如何构建可持续性的城市发展模式,成为全球关注的焦点问题。准确掌握城市功能分区为资源优化利用、生态环境保护、公共设施服务等领域的研究提供了重要基础。然而,随着城市发展模式逐渐由粗狂的外部扩展转向内部用地更新,城市功能不断迭代,空间格局变得更为破碎和复杂。因此,智能化的城市功能区识别对推动城市可持续发展至关重要。
城市功能区的概念最早可以追溯到上世纪30年代,在《雅典宪章》中定义了城市功能区为满足城市居民的需求而设立的居住、工作和娱乐等各种功能区域。遥感对地观测技术被广泛应用于捕捉城市景观,利用遥感图像的光谱、纹理和其他物理特征,可以在很大程度上区分城市建设区域。特别是随着高分辨率遥感影像的出现,研究人员开始对城市地区进行基于对象的分类,大大丰富了城市土地利用信息。然而,遥感影像只能获取地物的物理特征,难以反映其社会经济属性,在城市功能区识别中受到很大限制。为此,研究开始利用众源地理信息,其中蕴含大量带有社会经济语义信息,进行城市功能的识别。相关研究通常利用能够反映土地利用属性的众源地理信息,将街区、规则格网和单栋建筑等作为基本单位,进行城市功能的识别与划分。街区是以道路网络将城市切分为不规则几何形状,但是难以对其中混合商业、工业和住宅等不同功能的情况进一步区分;规则格网可以很好的与遥感影像特征匹配,但是难以与大部分城市建设的不规则性相匹配;以单栋建筑物为单位的城市功能识别更为精细,但是由于连片建筑物通常具有相类似功能,如住宅小区、工业园等,以单栋建筑物为识别单位,不仅会导致计算成本过大,而且会造成不必要的信息冗余。由此可见,目前主流的城市功能区划分单元方法并不能准确刻画城市功能的空间格局,亟需深度结合遥感物理特征与众源语义特征,探索更为灵活、优化的城市功能区识别单元。
识别方法在城市功能区识别中同样起着重要作用。城市功能区的常见识别方法主要包括统计方法、非监督分类和监督分类。统计方法最为直接,通过计算数据密度将众源地理信息(如兴趣点)与识别单元进行空间关联,从而确定功能类型。然而,当采用单一数据源时,数量分布的空间不均衡性将导致结果的不确定性增大。对于非监督分类,主要是从遥感图像和地理空间数据中提取反映城市功能相关的时空特征,然后利用K均值、潜在狄利克雷分配等方法对功能区单元进行空间聚类。对于监督分类,通常在机器学习的辅助下,例如随机森林、支持向量机、神经网络和集成学习方法等,建立一系列特征与预定义的功能类别之间的关系。虽然监督分类可以预先定义功能类别,但在训练模型时未考虑城市功能区的空间聚集特征。为此,有必要将非监督方法的空间聚类和监督方法的语义特征挖掘优势相结合,提升城市功能区识别的智能化水平。
发明内容
本发明所要解决的技术问题是:提供一种基于遥感-众源语义深度聚类的城市功能区识别方法,以满足面向城市功能区高精度分类需求。
本发明解决其技术问题采用以下的技术方案:
本发明方法联合高分辨率遥感影像和众源地理信息,从几何、紧凑度、位置、光谱、纹理和亮度六个维度构建建筑物功能语义特征体系,引入深度嵌入网络聚类方法进行建筑物空间聚类,借助细粒度规则格网将离散的建筑物聚类簇转化为连续的面要素,划分出城市功能区的识别单元,利用Word2Vec和随机森林模型,生成城市功能区图。
本发明提供的基于遥感-众源语义深度聚类的城市功能区识别方法,具体是:首先,建立建筑物的功能语义特征体系,即利用高分辨率遥感影像、夜间灯光数据、建筑物足迹和道路路网等遥感影像和众源地理信息数据,提取几何、紧凑度、位置、光谱、纹理和亮度六个维度的特征体系。接着,构建基于深度嵌入网络的建筑物聚类方法,利用自编码器模块生成建筑物功能语义的低维特征表达,并通过深度神经网络DNN模块来优化建筑物的聚类簇;接着,通过由生成格网、类别关联、格网融合与后处理组成的四大步骤,将建筑物聚类簇转化为不规则的面要素,划分出城市功能区的识别单元;最后,利用兴趣点与Word2Vec模型,对所划分的单元进行功能识别,生成城市功能区图。
上述方法中,可以使用以下方法,从几何、紧凑度、位置、光谱、纹理和亮度六个维度提取建筑物功能语义特征:从建筑物的面积、形状等不同角度考量,计算得到7个几何特征;量化建筑物的空间分布结构,提取4个紧凑度特征;对道路路网进行近邻分析,计算各建筑物与最邻近道路的距离,得到1个位置特征;使用高分辨率遥感影像,基于其红、绿和蓝波段的灰度值,计算得到建筑物的6个光谱特征;进一步构建遥感影像第一主成分波段的灰度共生矩阵,提取各建筑物内纹理信息的平均值和标准差,得到16个纹理特征;对夜间灯光数据进行辐射校正处理,计算各建筑物的夜间灯光亮度均值和总和值,得到2个亮度特征。最终,形成36维的建筑物语义特征体系。
上述方法中,可以采用最小生成树算法,提取每个建筑物单元的紧凑度特征。其过程主要包括:
(1)使用近邻分析方法,提取出各建筑物及其最邻近的18-20个建筑物。
(2)对建筑物轮廓以5-15米为间隔进行内插加密,提取加密后建筑物节点,构建不规则三角网。
(3)基于不规则三角网判断建筑物的邻接关系,若两个建筑物被不规则三角网的边连接,则说明这两个建筑物存在邻接关系,反之,则说明不存在邻接关系。将建筑物简化为质心,对存在邻接关系的建筑物进行连接,构建得到邻接图。
(4)以建筑物邻接图为输入,邻接图连接边的欧式距离定义为权重,采用克鲁斯卡尔(Kruskal)算法,构建最小生成树。
(5)统计各最小生成树边权重的均值、总和及标准差,作为各建筑物的紧凑度特征。
上述方法中,可以使用以下步骤,对建筑物进行深度聚类:以提取的36维建筑物特征作为原始输入,构建基于深度嵌入网络的建筑物聚类方法,利用自编码器模块生成建筑物功能语义的低维特征表达,进一步引入深度神经网络DNN模块进行聚类,并通过KL散度目标函数来优化聚类簇。
上述方法中,可以联合自编码器和深度神经网络DNN模块,构建深度嵌入网络,对建筑物进行聚类。其过程主要包括:
(1)建筑物深度聚类的参数初始化。以提取的36维建筑物特征作为输入,通过训练自编码器,初始化深度嵌入网络的参数,利用非线性映射fθ:X→Z,将原始建筑物特征空间转换到低维特征空间,得到嵌入点zi,其中θ是参数,X为原始特征,Z是潜在特征空间。
(2)形成建筑物聚类的初始簇心。将自编码器输出的嵌入点zi作为输入,借助K均值聚类方法形成建筑物初始聚类,各聚类簇的中心点,即为初始簇心其中uj为建筑物聚类j的聚类中心,k表示建筑物聚类数量。
(3)计算软分配度。基于t-SNE算法思想,采用t分布来评估嵌入点zi和建筑物初始簇心uj的相似度,即得到两者的软分配度qij,具体计算如下:
其中,zi=fθ(xi)∈Z,是xi∈X嵌入到特征空间Z得到的点,uj为建筑物聚类j的聚类中心,α是t分布的自由度,在深度嵌入网络中,该自由度设置为1。qij为样本i分配给建筑物聚类j的概率,取值在0-1之间。
(4)KL散度最小化。将软分配度qij提升至二次幂,使得高置信度的建筑物样本得到更多的关注,引入辅助目标分布函数pij,用于衡量建筑物样本属于某个聚类的分布。
其中,为软分配度qij和qij′的二次幂,fj=∑iqij和fj′=∑iqij′是软聚类簇的频率。
定义KL散度损失函数,通过最小化软分配度qij和目标分布pij之间的KL散度来优化建筑物簇心。
其中,L为辅助目标分布与软标签分布之间的损失函数,KL()为度量损失值的KL散度函数,pij为辅助目标分布,qij为软标签分布。
(5)优化模型。在学习迭代过程中,使用随机梯度下降法优化DNN参数和建筑物聚类中心μj,损失函数L对于嵌入点和建筑物聚类中心的梯度计算如下:
式中:zi为嵌入点,μj为建筑物聚类中心,为损失函数L对于嵌入点zi和建筑物聚类中心μj的梯度,α是t分布的自由度,pij为辅助目标分布,qij为软标签分布。
梯度被传递到DNN,并用于计算当两个分布的差值小于0.01%时,停止迭代,确定最优聚类中心,形成最终的城市建筑物聚类结果。
上述方法中,可以使用以下方法,划分城市功能区识别单元:基于深度嵌入聚类后的建筑物,建立由生成格网、类别关联、格网融合与后处理四大步骤组成的标准化流程,将离散的建筑物聚类簇转化为连续型的面要素,形成城市功能区的识别单元。
上述方法中,构建标准化流程步骤,将离散的建筑物聚类簇转化为连续型的面要素,其过程主要包括:
(1)根据建筑物分布范围,生成覆盖全域的规则格网,格网尺寸为30米*30米。
(2)将深度聚类后的建筑物与格网进行叠置,使用空间连接方法,根据每个格网最邻近建筑物的聚类类别,与格网的聚类属性进行关联。
(3)在街区单元内,对具有相同聚类属性的格网进行融合处理,从而将空间离散的建筑物聚类簇转化为连续的面要素。
(4)利用融合、消除和平滑等方法对划分单元进行后处理,得到城市功能区的识别单元。
上述方法中,可以使用以下方法,生成城市功能区图:利用兴趣点数据,构建城市功能区语料库,再联合Word2Vec和随机森林模型,识别功能区所属类别,生成城市功能区图。
上述方法中,利用识别单元中的兴趣点数据,构建城市功能区语料库。具体过程包括:
(1)提取兴趣点数据的二级类别,定义为兴趣点的城市功能标签。
(2)将建立识别单元内的兴趣点标签序列,构建城市功能区语料库。
上述方法中,可以联合Word2Vec和随机森林模型,识别功能区所属的功能类别,生成城市功能区图。具体过程包括:
(1)参照国家城市土地利用和规划标准(GB50137-2011),将城市功能定义为5类:行政(A)、商业(B)、工业(M)、居住(R)和交通(T)。再借助在线高清影像,建立五个类型的功能区样本。
(2)使用Word2Vec模型,构建由输入层、隐藏层和输出层组成的神经网络,使用CBOW模型,根据给定的上下文,预测当前值。
(3)使用类比实验,测试模型的性能,根据测试结果,对模型进行调参。进而将兴趣点标签序列转换的one-hot编码作为输入,设置词向量的维度、窗口大小、迭代次数等模型初始参数,将兴趣点标签转化为嵌入向量。
(4)将Word2Vec模型输出的嵌入向量作为城市功能区的语义特征,各识别单元的功能类别作为标签,构建随机森林模型。
(5)设置训练集和验证集比例,调整随机森林模型参数,对模型进行训练和精度验证,评估城市功能区划分的整体精度和单一功能类型的识别精度。
本发明提供的基于遥感-众源语义深度聚类的城市功能区识别单元划分方法,用于对城市功能区智能化识别。该方法突破了基于规则格网和固定街区的传统划分尺度,显著提升了城市功能区分类精度。
本发明与现有技术相比具有以下主要的技术效果:
(1)在提取建筑物功能语义相关特征时,传统的方法主要依赖于遥感影像的物理特征和众源地理信息的属性信息,提取单一建筑物特征,缺乏对邻近建筑物语义关联性的考虑。本发明所设计的紧凑度特征,借助最小生成树算法,通过测算局部范围内建筑群的最小生成树距离,深度刻画建筑空间分布的紧凑、疏离程度。该算法克服了经典的平均最近邻指标受异常值影响大的缺点,稳定性更高,对空间邻域关系的表征更为准确、可靠。
(2)传统的城市功能区识别单元以格网、街区和建筑物为主,其中,街区单元能很好的反映城市功能布局的不规则性,但难以精细化区分街区内部混合商业、工业和住宅等不同功能;以单体建筑物为识别单元虽然分类粒度更细,但是计算成本过大,特别是对于识别成片的工业区、居住区等造成极大的信息冗余。本发明所提出的识别单元划分方法,通过利用街区内部的建筑物聚类特征,将语义特征相似的离散建筑物转化为连续、不规则的面要素。该方法突破了传统城市功能区识别单元的限制,在宏观街区和微观建筑物之间寻找最优的识别尺度,有效解决了识别单元与功能场景的匹配问题,更好地满足了城市功能区的细化分类需求,总体识别精度较于传统街区提高了5%。
(3)在识别城市功能类别时,经典的非监督分类算法如K均值,难以解决高特征维度、各类别间分布差别较大的情况,而常用的监督分类虽然能有效建立特征与预定类别之间的映射关系,但却忽略了城市功能区的空间分布信息。本发明将非监督分类与监督分类进行结合,从建筑物单元出发,采用建筑物深度嵌入聚类,与Word2Vec和随机森林模型功能识别两部走的策略,实现了城市功能区的高精度划分。第一步的建筑物深度嵌入聚类算法,利用自编码器模块生成建筑物功能语义的低维特征表达,引入深度神经网络不断迭代优化建筑物聚类,可以克服输入特征维度高、各类别间分布差异大等问题,得到更优的建筑物聚类结果。第二步将兴趣点与Word2Vec相结合,建立城市功能区语料库,将兴趣点类别标签转换为词向量表示,使用鲁棒性强的随机森林模型实现城市功能区的高精度分类。
总之,本发明从多源语义特征挖掘、建筑物深度嵌入聚类、功能区识别单元划分到功能类型的高精度判别,突破了基于规则格网、街区等传统划分尺度,实现灵活、精准的城市功能区场景分割,显著提升了城市功能区分类的精度和粒度。
附图说明
图1是本发明的方法流程图。
图2是城市功能区识别单元划分结果图。
具体实施方式
本发明提出的基于遥感-众源语义深度聚类的城市功能区识别方法,是将非监督分类与监督分类方法相结合,先利用深度嵌入聚类方法挖掘城市功能结构空间分布特征,进而优化功能区识别的空间单元,建立语义特征与预定功能类型的非线性关系模型。该方法结合众源地理信息与遥感语义对建筑物空间聚类特征进行深度挖掘,突破了传统城市功能区识别的划分方法,在街区和建筑物之间寻求平衡,从而优化功能区识别单元,有效解决了识别单元与实际功能场景的匹配问题,达到城市功能区分类精度和粒度的双重提升。此外,本发明中所采用的遥感影像与众源地理信息均为开源空间数据,具有成本低、开放程度高和更新速度快等优势,为所提出方法在不同地区、不同城市的应用与推广提供了便利。
下面结合应用实例及附图对本发明做进一步说明,但并不局限于下面所述内容。
本发明提供的基于遥感-众源语义深度聚类的城市功能区识别方法,包括以下步骤。
1.构建建筑物功能语义特征体系:
联合高分辨率遥感影像和众源地理信息,构建建筑物几何、紧凑度、位置、光谱、纹理和亮度六个维度的功能语义特征体系:从建筑物的面积、形状等不同角度考量,计算得到7个几何特征;量化建筑物的空间分布结构,提取得到4个紧凑度特征;对道路路网进行近邻分析,计算各建筑物与最邻近道路的距离,得到1个位置特征;使用高分辨率遥感影像,基于其红、绿和蓝波段的灰度值,计算得到建筑物的6个光谱特征;进一步构建遥感影像第一主成分波段的灰度共生矩阵,提取各建筑物内纹理信息的平均值和标准差,得到16个纹理特征;对夜间灯光数据进行辐射校正处理,计算各建筑物的夜间灯光亮度均值和总和值,得到2个亮度特征。最终,形成36维的建筑物功能语义特征体系。
步骤1中,采用最小生成树算法,提取每个建筑物单元的紧凑度特征。其过程主要包括:
(1)使用近邻分析方法,提取出各建筑物及其最邻近的18-20个建筑物。
(2)对建筑物轮廓以5-15米为间隔进行内插加密,提取加密后建筑物节点,构建不规则三角网。
(3)基于不规则三角网判断建筑物的邻接关系,若两个建筑物被不规则三角网的边连接,则说明这两个建筑物存在邻接关系,反之,则说明不存在邻接关系。将建筑物简化为质心,对存在邻接关系的建筑物进行连接,构建得到邻接图。
(4)以建筑物邻接图为输入,邻接图连接边的欧式距离定义为权重,采用克鲁斯卡尔(Kruskal)算法,构建最小生成树。
(5)统计各最小生成树边权重的均值、总和及标准差,作为各建筑物的紧凑度特征。
2.建筑物深度嵌入聚类:
以提取的36维语义特征作为原始输入,构建基于深度嵌入网络的建筑物聚类方法,利用自编码器模块生成建筑物功能语义的低维特征表达,进一步引入深度神经网络DNN模块进行聚类,并通过KL散度目标函数来优化聚类簇。
步骤2中,联合自编码器和深度神经网络DNN模块,构建深度嵌入网络,对建筑物进行聚类。其过程主要包括:
(1)建筑物深度聚类的参数初始化。以提取的36维建筑物特征作为输入,通过训练自编码器,初始化深度嵌入网络的参数,利用非线性映射fθ:X→Z,将原始建筑物特征空间转换到低维特征空间,得到嵌入点zi,其中θ是参数,X为原始特征,Z是潜在特征空间。
(2)形成建筑物聚类的初始簇心。将自编码器输出的嵌入点zi作为输入,借助K均值聚类方法形成建筑物初始聚类,各聚类簇的中心点,即为初始簇心其中uj为建筑物聚类j的聚类中心,k表示建筑物聚类数量。
(3)计算软分配度。基于t-SNE算法思想,采用t分布来评估嵌入点zi和建筑物初始簇心uj的相似度,即得到两者的软分配度qij,具体计算如下:
其中,zi=fθ(xi)∈Z,是xi∈X嵌入到特征空间Z得到的点,uj为建筑物聚类j的聚类中心,α是t分布的自由度,在深度嵌入网络中,该自由度设置为1。qij为样本i分配给建筑物聚类j的概率,取值在0-1之间。
(4)KL散度最小化。将软分配度qij提升至二次幂,使得高置信度的建筑物样本得到更多的关注,引入辅助目标分布函数pij,用于衡量建筑物样本属于某个聚类的分布。
其中,为软分配度qij和qij′的二次幂,fj=∑iqij和fj′=∑iqij′是软聚类簇的频率。
定义KL散度损失函数,通过最小化软分配度qij和目标分布pij之间的KL散度来优化建筑物簇心。
其中,L为辅助目标分布与软标签分布之间的损失函数,KL()为度量损失值的KL散度函数,pij为辅助目标分布,qij为软标签分布。
(5)优化模型。在学习迭代过程中,使用随机梯度下降法(SGD)优化DNN参数和建筑物聚类中心μj,损失函数L对于嵌入点和建筑物聚类中心的梯度计算如下:
式中:zi为嵌入点,μj为建筑物聚类中心,为损失函数L对于嵌入点zi和建筑物聚类中心μj的梯度,α是t分布的自由度,pij为辅助目标分布,qij为软标签分布。
梯度被传递到DNN,并用于计算当两个分布的差值小于0.01%时,停止迭代,确定最优聚类中心,形成最终的城市建筑物聚类结果。
3.划分功能区识别单元:
基于深度嵌入聚类后的建筑物,建立由生成格网、类别关联、格网融合与后处理四大步骤组成的标准化流程,将离散的建筑物聚类簇转化为连续型的面要素,形成城市功能区的识别单元。
步骤3中,联合建筑物深度聚类结果和细粒度规则格网,将离散的建筑物聚类簇转化为连续型的面要素的。具体过程主要包括:
(1)根据建筑物分布范围,生成覆盖全域的规则格网,格网尺寸为30米*30米。
(2)将深度聚类后的建筑物与格网进行叠置,使用空间连接方法,根据每个格网最邻近建筑物的聚类类别,与格网的聚类属性进行关联。
(3)在街区单元内,对具有相同聚类属性的格网进行融合处理,从而将空间离散的建筑物聚类簇转化为连续的面要素。
(4)利用融合、消除和平滑等方法对划分单元进行后处理,得到城市功能区的识别单元。
4.识别功能区的类别属性:
利用兴趣点数据,构建城市功能区语料库,再联合Word2Vec和随机森林模型,识别功能类别,生成城市功能区图。
步骤4中,利用识别单元中的兴趣点数据,构建城市功能区语料库。具体过程主要包括:
(1)提取兴趣点数据的二级类别,定义为兴趣点的城市功能标签。
(2)将建立识别单元内的兴趣点标签序列,构建城市功能区语料库。
步骤4中,联合Word2Vec和随机森林模型,识别所属的功能类别,生成城市功能区图。具体过程主要包括:
(1)参照国家城市土地利用和规划标准(GB50137-2011),将城市功能定义为5类:行政(A)、商业(B)、工业(M)、居住(R)和交通(T)。再借助在线高清影像,建立五个类型的功能区样本。
(2)使用Word2Vec模型,构建由输入层、隐藏层和输出层组成的神经网络,使用CBOW模型,根据给定的上下文,预测当前值。
(3)使用类比实验,测试模型的性能,根据测试结果,对模型进行调参。进而将兴趣点标签序列转换的one-hot编码作为输入,设置词向量的维度、窗口大小、迭代次数等模型初始参数,将兴趣点标签转化为嵌入向量。
(4)将Word2Vec模型输出的嵌入向量作为城市功能区的语义特征,各识别单元的功能类别作为标签,构建随机森林模型。
(5)设置训练集和验证集比例,调整随机森林模型参数,对模型进行训练和精度验证,评估城市功能区划分的整体精度和单一功能类型的识别精度。
经过上述步骤,用于优化功能区划分的流程,提升城市功能区分类粒度和精度。
本发明提供的基于遥感-众源语义深度聚类的城市功能区识别方法,以建筑物单元为切入点,将遥感高分辨率影像和众源地理信息有效结合,从多维角度深入挖掘建筑物语义特征。提出基于深度嵌入聚类模型的建筑物空间聚类方法,设计基于规则格网的离散聚类簇转面流程,结合兴趣点与Word2Vec模型,生成高精度城市功能区图。该方法实现灵活、精准的城市功能区场景分割,突破了基于规则格网和街区的传统城市功能区划分尺度,达到城市功能区分类精度和粒度的双重提升。
应用案例:
本案例以武汉市三环线内城市化最高的区域为研究区,使用提出的基于遥感-众源语义深度聚类的城市功能区识别方法,判断研究区城市功能类型,并结合附图对本发明作进一步的说明。
具体处理步骤(图1)如下:
步骤1,利用建筑物足迹和道路路网等众源地理信息数据,使用几何运算、最小生成树和近邻分析方法,提取每个建筑物单元的几何、紧凑度和位置特征,共计12个。具体过程主要包括:
(1)从国家青藏高原科学数据中心下载建筑物足迹数据,采用简化面、消除面部分方法对建筑物足迹数据进行预处理,去除建筑物冗余节点,将存在小面积空洞的建筑物进行填补,最终得到研究区内79130个建筑物。
(2)使用几何运算方法,计算得到每个建筑物的7个几何特征,包含:面积、周长、圆形度、规则度、方向、半径形状指数和长宽比。
(3)基于ArcPy编程语言,采用近邻分析方法,得到各建筑物与最邻近建筑物的距离,作为建筑物紧凑度特征。
(4)进一步提取出每个建筑物及其最邻近的18-20个建筑物(本案例为19个),对建筑物轮廓以5-15米(本案例为10米)为间隔进行内插加密,提取加密后建筑物节点,构建不规则三角网。
(5)基于不规则三角网判断建筑物的邻接关系,若两个建筑物被不规则三角网的边连接,则说明这两个建筑物存在邻接关系,反之,则说明不存在邻接关系。将建筑物简化为质心,对存在邻接关系的建筑物进行连接,构建得到邻接图。
(6)以建筑物邻接图为输入,邻接图连接边的欧式距离定义为权重,采用克鲁斯卡尔(Kruskal)算法,构建最小生成树。
(7)统计各最小生成树边权重的均值、总和及标准差,共计得到4个建筑物的紧凑度特征指标。
(8)引入路网数据,计算各建筑物与路网的最近距离,得到各建筑物单元的1个位置特征。
步骤2,基于高分辨率遥感影像和夜间灯光数据,使用按区域统计、灰度共生矩阵和栅格计算方法提取了各建筑物的光谱、纹理和亮度等24个特征。具体过程主要包括:
(1)先后采用影像拼接、裁剪、投影栅格和辐射校正等方法对研究区内高分辨率遥感影像和夜间灯光数据进行预处理。
(2)使用按区域统计方法,计算各建筑物在红、绿和蓝三个波段的光谱值的均值和标准差,得到各建筑单元的6个光谱特征。
(3)采用主成分分析提取高分辨率遥感影像的第一主成分波段,创建灰度共生矩阵,统计各建筑物纹理信息的均值和标准差,共计得到16个纹理特征,其中,纹理特征包含:均值、方差、同质性、对比度、相异度、熵、二阶矩和相关性。
(4)利用栅格计算方法,提取各建筑物内夜间灯光数据亮度的均值和总和值,得到2个亮度特征。
步骤3,以提取的36维建筑物功能语义特征作为原始输入,构建基于深度嵌入网络的建筑物聚类方法,利用自编码器模块生成建筑物功能语义的低维特征表达,进一步引入深度神经网络DNN模块进行聚类,并通过KL散度目标函数来优化聚类簇。具体过程主要包括:
(1)建筑物深度聚类的参数初始化。运用python编程语言,将提取的36维建筑物特征表格读取为79130*36维矩阵,作为原始输入。Python代码如下:
import numpy as np
import pandas as pd
coman=pd.read_csv('Building_Feature.csv',encoding='ANSI')
coman.replace([np.inf,-np.inf],np.nan,inplace=True)
coman=coman.fillna(0)
x_all=regularit(coman)
x_arr=np.array(x_all)
x=x_arr[:,0:36]
(2)构建自编码器,设计“36-500-500-1000-20”的多层深度编码结构,初始化网络参数,利用非线性映射fθ:X→Z,将原始建筑物36维特征空间转换到20维特征空间,得到嵌入点zi,其中θ是参数,X为原始特征,Z是潜在特征空间。同时保存深度神经网络初始化参数。Python代码如下:
(2)形成建筑物聚类的初始簇心。将自编码器输出的嵌入点zi作为输入,将聚类数量设置为3-10(本案例为5),借助K均值聚类方法,形成5个初始的建筑物聚类,各聚类簇的中心点,即为初始簇心其中uj为建筑物聚类j的聚类中心,5表示建筑物聚类数量。Python代码如下:
from sklearn.cluster import KMeans
kmeans=KMeans(n_clusters=5)
y_pred_kmeans=kmeans.fit_predict(x)
(3)计算软分配度。基于t-SNE算法思想,采用t分布来评估嵌入点zi和建筑物初始簇心uj的相似度,即得到两者的软分配度qij,具体计算如下:
其中,zi=fθ(xi)∈Z,是xi∈X嵌入到特征空间Z得到的点,α是t分布的自由度,在深度嵌入网络中,该自由度设置为1。qij为建筑物样本i分配给聚类j的概率,取值在0-1之间。Python代码如下:
(4)KL散度最小化。将软分配度qij提升至二次幂,使得高置信度的建筑物样本得到更多的关注,引入辅助目标分布函数pij,用于衡量建筑物样本属于某个聚类的分布。
其中,fj=∑iqij是软聚类簇的频率。
定义KL散度损失函数,通过最小化软分配度qij和目标分布pij之间的KL散度来优化建筑物簇心。
Python代码如下:
(5)优化模型。在学习迭代过程中,使用随机梯度下降法(SGD)优化DNN参数和建筑物聚类中心μj,损失函数L对于嵌入点和建筑物聚类中心的梯度计算如下:
梯度被传递到DNN,并用于计算当两个分布的差值小于0.01%时,停止迭代,确定最优聚类中心,形成最终的城市建筑物聚类结果。
步骤4,基于深度嵌入聚类后的建筑物,建立由生成格网、类别关联、格网融合与后处理四大步骤组成的标准化流程,将离散的建筑物聚类簇转化为连续型的面要素,形成城市功能区的识别单元。具体过程主要包括:
(1)使用ArcMap中创建渔网方法,以研究区边界作为输入,并将其设置为掩膜范围,生成覆盖全域的规则格网,30米*30米分辨率。
(2)将深度聚类后的离散建筑物与格网进行叠置,使用空间连接方法,以格网作为目标要素,聚类后带标签的建筑物作为连接要素,采用最邻近匹配方式,即根据每个格网最邻近建筑物的聚类类别,与格网的聚类属性进行关联。
(3)在街区单元内,使用融合方法,以空间连接后格网作为输入,选择聚类属性值作为融合字段,对具有相同聚类属性的格网进行融合处理,从而将空间离散的建筑物聚类簇转化为连续的面要素。
(4)利用消除和平滑等方法,对初步得到的聚类单元进行后处理,得到城市功能区的识别单元。
步骤5,利用识别单元中的兴趣点数据,构建城市功能区语料库。具体过程主要包括:
(1)根据《高德兴趣点分类代码》分类标准,提取兴趣点数据的二级类别,定义为兴趣点的城市功能标签。
(2)将兴趣点的标签视为单词,各识别单元内的兴趣点标签序列视为文档,构建研究区城市功能区语料库。
步骤6,联合Word2Vec和随机森林模型,识别功能区单元所属类别,生成城市功能区图。具体过程主要包括:
(1)参照国家城市土地利用和规划标准(GB50137-2011),将城市功能定义为5类:行政(A)、商业(B)、工业(M)、居住(R)和交通(T)。再借助在线高清影像,建立五个类型的功能区样本。
(2)借助Python编程语言,使用Word2Vec模型,导入Word2Vec包,构建由1个输入层、1个隐藏层和1个输出层组成的神经网络,使用CBOW模型,根据给定的上下文,预测当前值。
(3)将兴趣点标签序列转换的one-hot编码作为输入,设置词向量的维度为20-200(本案例为100),窗口大小为2-10(本案例为5),迭代次数为20-150(本案例为50),将兴趣点标签转化为嵌入向量。Python代码如下:
from gensim.models import word2vec
file_train=r"兴趣点Lable.txt"
sent=word2vec.Text8Corpus(file_train)
model=word2vec.Word2Vec(sent,vector_size=100,window=5,epochs=50)
model.save('corpus.model')
(4)使用类比实验,测试模型的性能,根据测试结果,对模型进行调参。当输出结果符合类比实验预期结果时,完成模型训练。Python代码如下:
model=word2vec.Word2Vec.load('corpus.model')
indexes=model.wv.most_similar(u'XX',topn=180)
for index in indexes:
print(index)
(5)将各文档,即各识别单元内形成的兴趣点标签序列,输入训练好的模型,输出得到词嵌入向量。Python代码如下:
(6)将Word2Vec模型输出的嵌入向量作为城市功能区的语义特征,各识别单元的功能类别作为标签,构建随机森林模型。Python代码如下:
(7)将训练集和验证集比例设置为7:3,调整随机森林模型参数,当模型的验证精度达到85%以上时,则认为模型达到较优效果,进而对研究区城市功能进行识别,并评估整体精度和单一功能类型的识别精度。Python代码如下:
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3)
clf=RF(n_estimators=300)
clf.fit(X_train,y_train)
print("train_acc:%s"%clf.score(X_train,y_train))
print("test_acc:%s"%clf.score(X_test,y_test))
y_pre=clf.predict(X)
acc_pre=accuracy_score(y,y_pre)
print("Pre_acc:",acc_pre)
matrix_all=confusion_matrix(y,y_pre,labels=[0,1,2,3,4])
print("matrix",matrix_all)
(8)为了验证本发明的技术优势,联合Word2Vec及随机森林模型,对比本发明城市功能识别结果和基于街区的城市功能区识别的混淆矩阵(表1和表2),发现本发明的城市功能识别精度更高。
本发明提供的基于遥感-众源语义深度聚类的城市功能区识别方法,具有以下特点:联合高分辨率遥感影像和众源地理信息,在提取单一建筑物特征信息的基础上,充分挖掘建筑物的功能语义特征;提出基于深度嵌入聚类模型的建筑物空间聚类方法,利用自编码器模块生成建筑物功能语义的低维特征表达,并使用深度神经网络迭代优化建筑物的聚类结果;建立基于规则格网的离散聚类簇转面方法,在空间上将建筑物聚类特征转化为不规则的面要素,划分出城市功能区的识别单元;结合兴趣点与Word2Vec模型,生成高精度城市功能区图。该方法结合众源地理信息与遥感语义对建筑物空间聚类特征进行深度挖掘,实现灵活、精准的城市功能区场景分割,突破了基于规则格网和街区的传统城市功能区识别的划分尺度,达到城市功能区分类精度和粒度的双重提升。
表1本发明提出识别单元的城市功能识别结果的混淆矩阵
表2基于街区单元的城市功能识别结果的混淆矩阵

Claims (10)

1.一种基于遥感-众源语义深度聚类的城市功能区识别方法,其特征在于:
(1)建立建筑物功能语义特征体系,即利用高分辨率遥感影像、夜间灯光数据、建筑物足迹和道路路网等遥感影像和众源地理信息,提取几何、紧凑度、位置、光谱、纹理和亮度六个维度的特征;
(2)构建基于深度嵌入网络的建筑物聚类方法,利用自编码器模块生成建筑物功能语义的低维特征表达,并通过深度神经网络DNN模块来优化建筑物的聚类簇;
(3)通过由生成格网、类别关联、格网融合与后处理组成的四大步骤,将建筑物聚类簇转化为连续的面要素,划分城市功能区识别单元;
(4)利用兴趣点与Word2Vec模型,对所划分的单元进行功能识别,生成精细化的城市功能区图。
2.根据权利要求1所述的基于遥感-众源语义深度聚类的城市功能区识别方法,其特征在于,步骤(1)使用以下方法,从几何、紧凑度、位置、光谱、纹理和亮度六个维度构建建筑物功能语义的特征体系:从建筑物包括其面积、周长的不同角度考量,计算得到7个几何特征;量化建筑物的空间分布结构,提取4个紧凑度特征;对道路路网进行近邻分析,计算各建筑物与最邻近道路的距离,得到1个位置特征;使用高分辨率遥感影像,基于其红、绿和蓝波段的灰度值,计算得到建筑物的6个光谱特征;进一步构建遥感影像第一主成分波段的灰度共生矩阵,提取各建筑物内纹理信息的平均值和标准差,得到16个纹理特征;对夜间灯光数据进行辐射校正处理,计算各建筑物的夜间灯光亮度均值和总和值,得到2个亮度特征;最终,形成36维的建筑物功能语义特征。
3.根据权利要求2所述的构建建筑物功能语义的特征体系,其特征在于,采用最小生成树算法,提取每个建筑物单元的紧凑度特征,其过程包括:
1)使用近邻分析方法,提取出各建筑物最邻近的18-20个建筑物;
2)对建筑物轮廓边界以5-15米为间隔进行内插加密,提取加密后建筑物节点,构建不规则三角网;
3)基于不规则三角网判断建筑物的邻接关系,若两个建筑物被不规则三角网的边连接,则说明这两个建筑物存在邻接关系,反之,则说明不存在邻接关系。将建筑物简化为质心,对存在邻接关系的建筑物进行连接,构建得到邻接图;
4)以建筑物邻接图为输入,邻接图连接边的欧式距离定义为权重,采用克鲁斯卡尔(Kruskal)算法,构建最小生成树;
5)统计各最小生成树边权重的均值、总和及标准差,作为各建筑物的紧凑度特征。
4.根据权利要求1所述的基于遥感-众源语义深度聚类的城市功能区识别方法,其特征在于,步骤(2)使用以下方法,进行建筑物深度聚类:以提取的36维建筑物功能语义特征作为原始输入,构建基于深度嵌入网络的建筑物聚类方法,借助自编码器模型,对输入特征进行降维处理,进一步引入深度神经网络DNN模块进行聚类,并通过KL散度目标函数来优化聚类簇。
5.根据权利要求4所述的建筑物深度聚类,其特征在于,联合自编码器模块和深度神经网络DNN模块,构建深度嵌入网络,对建筑物进行聚类,其过程包括:
1)建筑物深度聚类的参数初始化。以提取的36维建筑物特征作为输入,通过训练自编码器,初始化深度嵌入网络的参数,利用非线性映射fθ:X→Z,将原始建筑物特征空间转换到低维特征空间,得到嵌入点zi,其中θ是参数,X为原始特征,Z是潜在特征空间;
2)形成建筑物聚类的初始簇心。将自编码器输出的嵌入点zi作为输入,借助K均值聚类方法形成建筑物初始聚类,各聚类簇的中心点,即为初始簇心其中uj为建筑物聚类j的聚类中心,k表示建筑物聚类数量;
3)计算软分配度。基于t-SNE算法思想,采用t分布来评估嵌入点zi和建筑物初始簇心uj的相似度,即得到两者的软分配度qij,具体计算如下:
其中,zi=fθ(xi)∈Z,是xi∈X嵌入到特征空间Z得到的点,uj为建筑物聚类j的聚类中心,α是t分布的自由度,在深度嵌入网络中,该自由度设置为1;qij为样本i分配给建筑物聚类j的概率,取值在0-1之间。
4)KL散度最小化。将软分配度qij提升至二次幂,使得高置信度的建筑物样本得到更多的关注,引入辅助目标分布函数pij,用于衡量建筑物样本属于某个聚类的分布,
其中,为软分配度qij和qij′的二次幂,fj=∑iqij和fj′=∑iqij′是软聚类簇的频率;
定义KL散度损失函数,通过最小化软分配度qij和目标分布pij之间的KL散度来优化建筑物簇心,
其中,L为辅助目标分布与软标签分布之间的损失函数,KL()为度量损失值的KL散度函数,pij为辅助目标分布,qij为软标签分布;
5)优化模型。在学习迭代过程中,使用随机梯度下降法(SGD)优化DNN参数和建筑物聚类中心μj,损失函数L对于嵌入点和建筑物聚类中心的梯度计算如下:
式中:zi为嵌入点,μj为建筑物聚类中心,为损失函数L对于嵌入点zi和建筑物聚类中心μj的梯度,α是t分布的自由度,pij为辅助目标分布,qij为软标签分布
梯度被传递到DNN,并用于计算当两个分布的差值小于0.01%时,停止迭代,确定最优聚类中心,形成最终的城市建筑物聚类结果。
6.根据权利要求1所述的基于遥感-众源语义深度聚类的城市功能区识别方法,其特征在于,步骤(3)使用以下方法,划分城市功能区的识别单元:基于深度嵌入聚类后的建筑物,建立由生成格网、类别关联、格网融合与后处理四大步骤组成的标准化流程,将离散的建筑物聚类簇转化为连续型的面要素,形成城市功能区的识别单元。
7.根据权利要求6所述的划分城市功能区识别单元,其特征在于,将离散的建筑物聚类簇转化为连续型的面要素。具体过程包括:
1)根据建筑物分布范围,生成覆盖全域的规则格网,格网尺寸为30米*30米;
2)将深度聚类后的建筑物与格网进行叠置,使用空间连接方法,根据每个格网最邻近建筑物的聚类类别,与格网的聚类属性进行关联;
3)在街区单元内,对具有相同聚类属性的格网进行融合处理,从而将空间离散的建筑物聚类簇转化为连续的面要素;
4)利用融合、消除和平滑等方法对划分单元进行后处理,得到城市功能区的识别单元。
8.根据权利要求1所述的基于遥感-众源语义深度聚类的城市功能区识别方法,其特征在于,步骤(4)使用以下方法,识别城市功能区:利用兴趣点数据,构建城市功能区语料库,再联合Word2Vec和随机森林模型,识别功能区的类别属性,生成城市功能区图;
利用识别单元中的兴趣点数据,构建城市功能区语料库,具体过程包括:
1)提取兴趣点数据的二级类别,定义为兴趣点的城市功能标签;
2)将建立识别单元内的兴趣点标签序列,构建城市功能区语料库。
9.根据权利要求8所述的城市功能区识别方法,其特征在于,联合Word2Vec和随机森林模型,识别功能区的类别,生成城市功能区图,
1)参照国家城市土地利用和规划标准(GB50137-2011),将城市功能定义为5类:行政(A)、商业(B)、工业(M)、居住(R)和交通(T)。再借助在线高清影像,建立五个类型的功能区样本;
2)使用Word2Vec模型,构建由输入层、隐藏层和输出层组成的神经网络,使用CBOW模型,根据给定的上下文,预测当前值;
3)使用类比实验,测试模型的性能,根据测试结果,对模型进行调参。进而将兴趣点标签序列转换的one-hot编码作为输入,设置词向量的维度、窗口大小、迭代次数等模型初始参数,将兴趣点标签转化为嵌入向量;
4)将Word2Vec模型输出的嵌入向量作为城市功能区的语义特征,各识别单元的功能类别作为标签,构建随机森林模型;
5)设置训练集和验证集比例,调整随机森林模型参数,对模型进行训练和精度验证,评估城市功能区划分的整体精度和单一功能类型的识别精度。
10.权利要求1至9中任一所述的方法,其特征是,用于对城市功能区智能化识别。
CN202311409376.3A 2023-10-27 2023-10-27 基于遥感-众源语义深度聚类的城市功能区识别方法 Active CN117274650B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311409376.3A CN117274650B (zh) 2023-10-27 2023-10-27 基于遥感-众源语义深度聚类的城市功能区识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311409376.3A CN117274650B (zh) 2023-10-27 2023-10-27 基于遥感-众源语义深度聚类的城市功能区识别方法

Publications (2)

Publication Number Publication Date
CN117274650A true CN117274650A (zh) 2023-12-22
CN117274650B CN117274650B (zh) 2024-09-24

Family

ID=89200877

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311409376.3A Active CN117274650B (zh) 2023-10-27 2023-10-27 基于遥感-众源语义深度聚类的城市功能区识别方法

Country Status (1)

Country Link
CN (1) CN117274650B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117557820A (zh) * 2024-01-08 2024-02-13 浙江锦德光电材料有限公司 一种基于机器视觉的量子点光学膜损伤检测方法及系统
CN117787813A (zh) * 2024-02-23 2024-03-29 中国农业科学院农业资源与农业区划研究所 基于细粒度特征约束的城中村识别方法、装置及电子设备
CN117853077A (zh) * 2024-03-07 2024-04-09 中建三局集团华南有限公司 一种打桩过程管理方法、装置、设备及存储介质
CN118262248A (zh) * 2024-05-31 2024-06-28 福州大学 一种顾及遥感影像空间信息的GeosotNet深度学习模型

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442715A (zh) * 2019-07-31 2019-11-12 北京大学 一种基于多元大数据的综合城市地理语义挖掘方法
CN111582194A (zh) * 2020-05-12 2020-08-25 吉林大学 基于多特征lstm网络的多时相高分辨率遥感影像的建筑物提取方法
CA3192475A1 (en) * 2020-09-20 2022-03-24 Christine TIBALLI Systems and methods of urban rooftop agriculture with smart city data integration
CN115482355A (zh) * 2022-09-21 2022-12-16 南京国图信息产业有限公司 一种众源数据驱动的lod2级城市建筑物模型增强建模算法
CN116152494A (zh) * 2023-02-21 2023-05-23 东南大学 基于两阶段3d点云语义分割的建筑物脚点识别分割方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442715A (zh) * 2019-07-31 2019-11-12 北京大学 一种基于多元大数据的综合城市地理语义挖掘方法
CN111582194A (zh) * 2020-05-12 2020-08-25 吉林大学 基于多特征lstm网络的多时相高分辨率遥感影像的建筑物提取方法
CA3192475A1 (en) * 2020-09-20 2022-03-24 Christine TIBALLI Systems and methods of urban rooftop agriculture with smart city data integration
CN115482355A (zh) * 2022-09-21 2022-12-16 南京国图信息产业有限公司 一种众源数据驱动的lod2级城市建筑物模型增强建模算法
CN116152494A (zh) * 2023-02-21 2023-05-23 东南大学 基于两阶段3d点云语义分割的建筑物脚点识别分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NIANXUE LUO 等: "Fusing High-spatial-resolution remotely sensed imagery and openstreetMap data for land cover classification over urban Areas", 《REMOTE SENSING》, 7 January 2019 (2019-01-07) *
覃泓宁: "融合光谱特征和超像素的遥感建筑物分级提取", 《国外电子测量技术》, 31 March 2023 (2023-03-31) *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117557820A (zh) * 2024-01-08 2024-02-13 浙江锦德光电材料有限公司 一种基于机器视觉的量子点光学膜损伤检测方法及系统
CN117557820B (zh) * 2024-01-08 2024-04-16 浙江锦德光电材料有限公司 一种基于机器视觉的量子点光学膜损伤检测方法及系统
CN117787813A (zh) * 2024-02-23 2024-03-29 中国农业科学院农业资源与农业区划研究所 基于细粒度特征约束的城中村识别方法、装置及电子设备
CN117787813B (zh) * 2024-02-23 2024-05-31 中国农业科学院农业资源与农业区划研究所 基于细粒度特征约束的城中村识别方法、装置及电子设备
CN117853077A (zh) * 2024-03-07 2024-04-09 中建三局集团华南有限公司 一种打桩过程管理方法、装置、设备及存储介质
CN118262248A (zh) * 2024-05-31 2024-06-28 福州大学 一种顾及遥感影像空间信息的GeosotNet深度学习模型

Also Published As

Publication number Publication date
CN117274650B (zh) 2024-09-24

Similar Documents

Publication Publication Date Title
CN117274650B (zh) 基于遥感-众源语义深度聚类的城市功能区识别方法
CN112347222B (zh) 一种基于知识库推理的将非标准地址转换为标准地址的方法及系统
CN110135295A (zh) 一种基于迁移学习的无监督行人重识别方法
Zhu et al. Deep learning for multilabel remote sensing image annotation with dual-level semantic concepts
CN115512216A (zh) 耦合街区时空特征和集成学习的城市功能区精细化识别方法
CN108388559A (zh) 地理空间应用下的命名实体识别方法及系统、计算机程序
CN101271469A (zh) 一种基于三维模型库下二维图像的识别和物体的重建方法
Meng et al. Automatic classification of rural building characteristics using deep learning methods on oblique photography
CN103714148B (zh) 基于稀疏编码分类的sar图像检索方法
Yutian et al. An approach to urban landscape character assessment: Linking urban big data and machine learning
Zhang et al. A dual attention neural network for airborne LiDAR point cloud semantic segmentation
CN115809833B (zh) 基于画像技术的基建项目智能监督方法、装置
Zhang et al. Hierarchical aggregated deep features for ALS point cloud classification
CN118133403B (zh) 城市规划设计图的生成方法、装置、设备、介质及产品
CN109919112A (zh) 一种复杂场景中流动人群的分布与计数检测的方法
CN116662468A (zh) 基于地理对象空间模式特征的城市功能区识别方法及系统
Dehbi et al. Robust and fast reconstruction of complex roofs with active sampling from 3D point clouds
CN113569946A (zh) 开源地图与专业数据源路网自适应匹配法
CN113988198B (zh) 一种基于地标约束的多尺度城市功能分类方法
Lin et al. An MIU-based deep embedded clustering model for urban functional zoning from remote sensing images and VGI data
Ouyang et al. MDFF: A method for fine-grained UFZ mapping with multimodal geographic data and deep network
CN116246076B (zh) 一种传统民居院落肌理特征识别应用方法和系统
Liu et al. Automated image localization to support rapid building reconnaissance in a large‐scale area
CN117671517A (zh) 基于大规模预训练神经网络的遥感图像识别方法
Chen et al. Built-Up Area Extraction Combing Densely Connected Dual-Attention Network and Multiscale Context

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant