CN114494868A - 基于多特征融合深度学习的无人机遥感建筑物提取方法 - Google Patents

基于多特征融合深度学习的无人机遥感建筑物提取方法 Download PDF

Info

Publication number
CN114494868A
CN114494868A CN202210061551.3A CN202210061551A CN114494868A CN 114494868 A CN114494868 A CN 114494868A CN 202210061551 A CN202210061551 A CN 202210061551A CN 114494868 A CN114494868 A CN 114494868A
Authority
CN
China
Prior art keywords
building
aerial vehicle
unmanned aerial
remote sensing
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210061551.3A
Other languages
English (en)
Other versions
CN114494868B (zh
Inventor
杨辉
王彪
吴艳兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN202210061551.3A priority Critical patent/CN114494868B/zh
Publication of CN114494868A publication Critical patent/CN114494868A/zh
Application granted granted Critical
Publication of CN114494868B publication Critical patent/CN114494868B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了摄影测量处理技术领域的基于多特征融合深度学习模型的无人机遥感建筑物智能提取方法,以“如何利用深度学习,模拟人眼立体视觉中建筑物多特征表达形式”为核心,研究基于孪生网络的DSM(数字表面模型)与DOM(数字正射影像)的多特征融合方法,设计建筑物多特征的特征抽取、分析能力,通过密集注意力机制进一步增强建筑物的特征传递和累积整合特性,将原来使用的单网络结构变为使用对称网络结构,并且两个对称网络结构完全相同,并结合注意力机制,构建混合模型,深度挖掘无人机遥感建筑物的多层次、多维度的特征和空间关系,实现顾及建筑物多层次特征的无人机遥感建筑物自动提取新方法。

Description

基于多特征融合深度学习的无人机遥感建筑物提取方法
技术领域
本发明涉及摄影测量数据处理技术领域,具体涉及基于多特征融合的无人机遥感建筑物提取方法。
背景技术
无人机遥感技术因其自动化、智能化、专业化快速获取国土、资源、环境、事件等空间遥感信息,并具有实时处理、建模和分析的能力,目前已被广泛应用于大比例尺地形图测绘、城市空间数据基础设施建设、城市快速真三维建模等。无人机遥感信息提取的自动化程度直接影响着大规模的数据生产、广泛的行业应用、以及数据的充分利用。目前,无人机遥感数据经过“外业采集、影像预处理、内业加密、产品生产”等步骤,便可快速高效、全自动化地获得区域空间信息,并能够生成具备三维信息的DSM,以及正射纹理信息的DOM。然而,这种全自动获得三维信息和纹理信息的产品其实质是一张整体相连接的不规则三角网,这使得无人机遥感应用普遍面临着“只能看、不能算”的瓶颈问题,无人机遥感地物目标识别与分类自动化研究远远落后于无人机遥感硬件和处理系统的快速发展,难以满足人员对其应用的要求。
深度学习作为促进无人机遥感技术发展的重要驱动力,已得到该领域学者们的普遍关注,但现有研究主要聚焦于无人机影像目标识别与语义分割,将影像自动识别纳入无人机系统以实现智能控制,无人机导航控制、DTM提取、以及无人机其他传感器的目标识别等,对于无人机建筑物提取的深度学习方法研究较少,仍主要停留传统方法上,如面向对象、基于建筑物指数、支持向量机等。虽然,近年来,深度学习研究已涌现出一些优秀成果,但无人机遥感数据在成像系统、采集方式、数据源等方面具有自身特点,迫切必要研究适用于无人机遥感数据的建筑物深度学习提取方法。
在当前技术条件下,基于深度学习的建筑物提取方法,主要面临如下挑战:1)建筑物形态结构复杂,多样性较强,且易受遮挡,在无人机遥感影像中,建筑物空间结构、地物类别差异等复杂背景问题突出,难以顾及建筑物形态特征的完整性,进而无法精确计算和判定建筑物信息;2)一直以来,无人机遥感信息提取大都围绕“人工立体测图”模式展开,其生产和应用流程大多缺乏建筑物智能提取这一环节,造成深度学习训练样本难以获取,缺乏公开数据集等问题;3)虽然当前研究呈现出人工特征先验知识与深度学习模型相结合的技术发展方向,但在无人机遥感数据多特征利用方面仍缺乏研究。因此,研究能到到立体测图下的人工识别效果的无人机遥感建筑物深度学习方法是一项极具挑战性的任务,要求方法在鲁棒性、小样本、精度、普适性等方面要有很大提升。基于此,本发明涉及了基于多特征融合的无人机遥感建筑物提取方法,以解决上述问题。
发明内容
(一)解决的技术问题
本发明的目的在于解决背景技术的问题,而提出一种基于多特征融合深度学习的无人机遥感建筑物提取方法。
(二)技术方案
基于多特征融合深度学习的无人机遥感建筑物提取方法,包括以下步骤:
步骤一、顾及视觉注意力机制的建筑物提取优化流程;
步骤二、识别目标注意力强弱评估与排序;
步骤三、基于浅层网络的特征提取;
步骤四、基于密集连接的特征融合;
步骤五、设计编码-解码结构,编码特征,最终解码并网络输出建筑物语义分析结果。
进一步的,步骤一中,在人眼识别经验、注意的特征整合理论认识基础上,利用深度学习和无人机遥感建筑物样本,进一步实现包括,
11)建筑物的立体视觉注意特征分析;
12)建筑物场景的注意力分析方法;
13)研究无人机遥感不同建筑物目标的语义差异和视觉注意力评估方法,以及不同目标注意力评估方法的对比研究;
14)从视觉注意力机制角度,建立建筑物提取深度学习的计算策略及优化流程。
进一步的,步骤二中,根据无人机遥感建筑物提取所需要识别的各类目标,以及对应所建立的建筑物样本库,通过开展步骤一,实现基于深度学习的建筑物视觉注意特征分析方法、以及基于深度学习的视觉注意力评估方法,并利用这些方法对所需要识别的建筑物进行视觉注意力强弱评估与排序,以此作为执行建筑物识别的顺序。
进一步的,步骤三中,采用孪生神经网络作为基本框架,即利用两个或两个以上相同子网络的神经网络架构,在训练中权重信息共享,需要更少的参数、不容易出现过拟合。
进一步的,步骤三中,采用一个浅层孪生网络结构,将无人机遥感数据产品的数字正射影像、数字表面模型作为网络输入,其中一支网络提取建筑物的纹理和光谱信息,另一支网络充分挖掘建筑物的空间结构信息;两支网络具有相同的卷积层,经过两次卷积操作后,将两类特征的输出结果合并,最后选用5×5的卷积核进行特征融合。
进一步的,步骤四中,在密集连接结构中,先前所有卷积层的特征映射都与后面层特征有关联,即第L个卷积层能够获取先前所有卷积层(X0,X1,X2,K XL-1)的特征映射作为输入:
XL=FL([X0,X1,X2,K,XL-1]);
其中,[X0,X1,X2,K,XL-1]表示先前所有特征映射的融合,而非线性转换函数FL包括批归一化层、激活函数和卷积层。
进一步的,步骤四中,密集连接结构构建了一个增长率降低密集连接结构中特征层的冗余,提高网络结构的效率。
进一步的,步骤五中,编码结构中包括密集连接块和转换层,前者利用密集连接结构增强特征,后者通过下采样扩大特征感受野进一步提取建筑物的抽象特征;
解码结构中,反卷积的高级特征通过跳跃连接层融合编码结构中低级特征,并利用注意力机制指导低级特征获取不同类型的空间细节信息;
最终,网络输出建筑物语义分析结果。
(三)有益效果
本发明公开了基于多特征融合深度学习的无人机遥感建筑物提取方法,以“如何利用深度学习,模拟人眼立体视觉中建筑物多特征表达形式”为核心,研究基于孪生网络的DSM(数字表面模型)与DOM(数字正射影像)的多特征融合方法,设计建筑物多特征的特征抽取、分析能力,通过密集注意力机制进一步增强建筑物的特征传递和累积整合特性,将原来使用的单网络结构变为使用对称网络结构,并且两个对称网络结构完全相同,并结合注意力机制,构建混合模型,深度挖掘无人机遥感建筑物的多层次、多维度的特征和空间关系,实现顾及建筑物多层次特征的无人机遥感建筑物自动提取新方法。本发明在应用上,取得具有实用价值的无人机遥感建筑物自动提取技术,以期切实地推进摄影测量应用由“可视化”向“可计算”方向发展。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的模型结构。
图2为本发明中浅层孪生结构示意图。
图3为本发明中注意力机制结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1-3,本发明提供一种技术方案:基于多特征融合深度学习模型的无人机遥感建筑物提取方法,包括以下步骤:
步骤一、顾及视觉注意力机制的建筑物提取优化流程;
在“人眼识别经验”和“注意的特征整合理论”认识基础上,主要利用深度学习和无人机遥感建筑物样本,进一步实现包括,
11)建筑物的立体视觉注意特征分析;
12)建筑物场景的注意力分析方法;
13)研究无人机遥感不同建筑物目标的语义差异和视觉注意力评估方法,以及不同目标注意力评估方法的对比研究;
14)从视觉注意力机制角度,建立建筑物提取深度学习的计算策略及优化流程等;
步骤二、识别目标注意力强弱评估与排序;
根据无人机遥感建筑物提取所需要识别的各类目标,以及对应所建立的建筑物样本库,通过开展步骤一,实现基于深度学习的建筑物视觉注意特征分析方法、以及基于深度学习的视觉注意力评估方法,并利用这些方法对所需要识别的建筑物进行视觉注意力强弱评估与排序,以此作为执行建筑物识别的顺序;
步骤三、基于浅层网络的特征提取;
为提高方法效率和可靠性,本发明采用孪生神经网络作为基本框架,即利用两个或两个以上相同子网络的神经网络架构,在训练中权重信息共享,需要更少的参数、不容易出现过拟合;
相较于单支网络将不同特征信息共同输入网络,造成忽略不同特征对分割目标的贡献大小,无法有效利用特征信息,孪生网络中的每个子网络能够对不同特征单独抽取,充分利用不同特征信息,更有利于影像分割。
具体的,本发明涉及一个浅层孪生网络结构,将无人机遥感数据产品的数字正射影像(DOM,Digital Orthophoto Map)与数字表面模型(DSM,Digital Surface Model)作为网络输入,其中一支网络提取建筑物的纹理和光谱信息,另一支网络充分挖掘建筑物的空间结构信息,两支网络具有相同的卷积层,经过两次卷积操作后,将两类特征的输出结果合并,最后选用5×5的卷积核进行特征融合。
步骤四、基于密集连接的特征融合;
现有常用的卷积神经网络(CNN,Convolutional Neural Networks)主要由一系列卷积层组成,每个卷积层之间都存在非线性转换函数FL。一般非线性函数包括卷积操作、激活单元和池化操作。假设第L个卷积层的输入和输出分别为XL-1和XL,则相邻卷积层之间的信息转换可表示为:
XL=FL(XL-1) (1)
这种信息的简单转换会造成特征信息的丢失并降低了相邻卷积层间的信息反馈,而在无人机遥感数据语义分析中,密集连接结构(Densenet)被广泛应用与解决此类问题。
密集连接结构能够复用先前所有卷积层的特征信息,有效减少训练过程中的网络参数,使网络结构更易训练。在密集连接结构中,先前所有卷积层的特征映射都与后面层特征有关联,即第L个卷积层能够获取先前所有卷积层(X0,X1,X2,K XL-1)的特征映射作为输入:
XL=FL([X0,X1,X2,K,XL-1]) (2)
其中,[X0,X1,X2,K,XL-1]表示先前所有特征映射的融合,而非线性转换函数FL包括批归一化层、激活函数和卷积层。
此外,密集连接结构中构建了一个增长率(Growth Rate)降低密集连接结构中特征层的冗余,提高网络结构的效率。
步骤五,设计编码-解码结构,编码特征,最终解码并网络输出建筑物语义分析结果;
由于密集连接结构的高效性,本文基于全卷积密集连接网络(FC-DenseNet)设计一个新的编码-解码结构。
结合步骤1-4,为了充分利用建筑物的多特征信息,在网络的顶端文本设计一个孪生网络结构,采用两支浅网络分别抽取DSM和DOM特征,并在进入编码结构之前融合抽取的空间特征和光谱特征。
编码结构中主要包括密集连接块和转换层,前者利用密集连接结构增强特征,后者通过下采样扩大特征感受野进一步提取建筑物的抽象特征。在解码结构中,反卷积的高级特征通过跳跃连接层融合编码结构中低级特征,并利用注意力机制指导低级特征获取不同类型的空间细节信息;最终,网络输出建筑物语义分析结果。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。。

Claims (8)

1.基于多特征融合深度学习的无人机遥感建筑物提取方法,其特征在于,包括以下步骤:
步骤一、顾及视觉注意力机制的建筑物提取优化流程;
步骤二、识别目标注意力强弱评估与排序;
步骤三、基于浅层网络的特征提取;
步骤四、基于密集连接的特征融合;
步骤五、设计编码-解码结构,编码特征,最终解码并网络输出建筑物语义分析结果。
2.根据权利要求1所述的基于多特征融合深度学习的无人机遥感建筑物提取方法,其特征在于,步骤一中,包括,
11)建筑物的立体视觉注意特征分析;
12)建筑物场景的注意力分析方法;
13)研究无人机遥感不同建筑物目标的语义差异和视觉注意力评估方法,以及不同目标注意力评估方法的对比研究;
14)从视觉注意力机制角度,建立建筑物提取深度学习的计算策略及优化流程。
3.根据权利要求1所述的基于多特征融合深度学习的无人机遥感建筑物提取方法,其特征在于,步骤二中,根据无人机遥感建筑物提取所需要识别的各类目标,以及对应所建立的建筑物样本库,通过开展步骤一,实现基于深度学习的建筑物视觉注意特征分析方法、以及基于深度学习的视觉注意力评估方法,并利用这些方法对所需要识别的建筑物进行视觉注意力强弱评估与排序,以此作为执行建筑物识别的顺序。
4.根据权利要求1所述的基于多特征融合深度学习的无人机遥感建筑物提取方法,其特征在于,步骤三中,采用孪生神经网络作为基本框架,即利用两个或两个以上相同子网络的神经网络架构,在训练中权重信息共享,需要更少的参数、不容易出现过拟合。
5.根据权利要求4所述的基于多特征融合深度学习的无人机遥感建筑物提取方法,其特征在于,步骤三中,采用一个浅层孪生网络结构,将无人机遥感数据产品的数字正射影像、数字表面模型作为网络输入,其中一支网络提取建筑物的纹理和光谱信息,另一支网络充分挖掘建筑物的空间结构信息;两支网络具有相同的卷积层,经过两次卷积操作后,将两类特征的输出结果合并,最后选用5×5的卷积核进行特征融合。
6.根据权利要求1所述的基于多特征融合深度学习的无人机遥感建筑物提取方法,其特征在于,步骤四中,在密集连接结构中,先前所有卷积层的特征映射都与后面层特征有关联,即第L个卷积层能够获取先前所有卷积层(X0,X1,X2,K XL-1)的特征映射作为输入:
XL=FL([X0,X1,X2,K,XL-1]);
其中,[X0,X1,X2,K,XL-1]表示先前所有特征映射的融合,而非线性转换函数FL包括批归一化层、激活函数和卷积层。
7.根据权利要求6所述的基于多特征融合深度学习的无人机遥感建筑物提取方法,其特征在于,步骤四中,密集连接结构构建了一个增长率降低密集连接结构中特征层的冗余,提高网络结构的效率。
8.根据权利要求1所述的基于多特征融合深度学习的无人机遥感建筑物提取方法,其特征在于,步骤五中,编码结构中包括密集连接块和转换层,前者利用密集连接结构增强特征,后者通过下采样扩大特征感受野进一步提取建筑物的抽象特征;
解码结构中,反卷积的高级特征通过跳跃连接层融合编码结构中低级特征,并利用注意力机制指导低级特征获取不同类型的空间细节信息;
最终,网络输出建筑物语义分析结果。
CN202210061551.3A 2022-01-19 2022-01-19 基于多特征融合深度学习的无人机遥感建筑物提取方法 Active CN114494868B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210061551.3A CN114494868B (zh) 2022-01-19 2022-01-19 基于多特征融合深度学习的无人机遥感建筑物提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210061551.3A CN114494868B (zh) 2022-01-19 2022-01-19 基于多特征融合深度学习的无人机遥感建筑物提取方法

Publications (2)

Publication Number Publication Date
CN114494868A true CN114494868A (zh) 2022-05-13
CN114494868B CN114494868B (zh) 2022-11-22

Family

ID=81472569

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210061551.3A Active CN114494868B (zh) 2022-01-19 2022-01-19 基于多特征融合深度学习的无人机遥感建筑物提取方法

Country Status (1)

Country Link
CN (1) CN114494868B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110621A (zh) * 2019-04-23 2019-08-09 安徽大学 基于多特征整合深度学习模型的倾斜摄影点云分类方法
CN112634292A (zh) * 2021-01-06 2021-04-09 烟台大学 一种基于深度卷积神经网络的沥青路面裂缝图像分割方法
US20210174149A1 (en) * 2018-11-20 2021-06-10 Xidian University Feature fusion and dense connection-based method for infrared plane object detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210174149A1 (en) * 2018-11-20 2021-06-10 Xidian University Feature fusion and dense connection-based method for infrared plane object detection
CN110110621A (zh) * 2019-04-23 2019-08-09 安徽大学 基于多特征整合深度学习模型的倾斜摄影点云分类方法
CN112634292A (zh) * 2021-01-06 2021-04-09 烟台大学 一种基于深度卷积神经网络的沥青路面裂缝图像分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梁泽毓等: "基于密集连接全卷积神经网络的遥感影像水体全自动提取方法", 《遥感信息》 *

Also Published As

Publication number Publication date
CN114494868B (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
CN111968217B (zh) 基于图片的smpl参数预测以及人体模型生成方法
CN110110621B (zh) 基于多特征整合深度学习模型的倾斜摄影点云分类方法
WO2023207437A1 (zh) 一种基于动态轨迹流的场景流数字孪生方法及系统
CN108230337A (zh) 一种基于移动端的语义slam系统实现的方法
CN111127538B (zh) 一种基于卷积循环编码-解码结构的多视影像三维重建方法
CN111291639B (zh) 基于分层变分自编码的跨源舰船特征融合学习与识别方法
CN111832655A (zh) 一种基于特征金字塔网络的多尺度三维目标检测方法
CN106846392A (zh) 三维建模的方法和装置
CN113705636A (zh) 一种自动驾驶车辆轨迹预测方法、装置及电子设备
CN112991487B (zh) 一种多线程实时构建正射影像语义地图的系统
CN112232328A (zh) 基于卷积神经网络的遥感影像建筑区提取方法、装置
CN114092697A (zh) 注意力融合全局和局部深度特征的建筑立面语义分割方法
CN114187520B (zh) 一种建筑物提取模型的构建及应用方法
CN110188816A (zh) 基于多流多尺度交叉双线性特征的图像细粒度识别方法
CN111914615A (zh) 基于立体视觉的消防区域可通过性分析系统
CN115115859A (zh) 基于无人机航拍的长线性工程施工进度智能识别与分析方法
CN115861619A (zh) 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与系统
Gao et al. Large-scale synthetic urban dataset for aerial scene understanding
CN111860651A (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
CN113870160A (zh) 一种基于变换器神经网络的点云数据处理方法
CN113284144A (zh) 一种基于无人机的隧道检测方法及装置
CN110909656A (zh) 一种雷达与摄像机融合的行人检测方法和系统
CN112488117B (zh) 一种基于方向诱导卷积的点云分析方法
CN113553949A (zh) 一种基于摄影测量数据的尾矿库语义分割方法
CN114494868B (zh) 基于多特征融合深度学习的无人机遥感建筑物提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant