CN111950658B - 一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法 - Google Patents
一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法 Download PDFInfo
- Publication number
- CN111950658B CN111950658B CN202010886292.9A CN202010886292A CN111950658B CN 111950658 B CN111950658 B CN 111950658B CN 202010886292 A CN202010886292 A CN 202010886292A CN 111950658 B CN111950658 B CN 111950658B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- classification
- layer
- point cloud
- lidar point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000008878 coupling Effects 0.000 title claims abstract description 25
- 238000010168 coupling process Methods 0.000 title claims abstract description 25
- 238000005859 coupling reaction Methods 0.000 title claims abstract description 25
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 14
- 239000013598 vector Substances 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 claims description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 2
- 238000002372 labelling Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 3
- 238000004422 calculation algorithm Methods 0.000 abstract description 2
- 230000003044 adaptive effect Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000512668 Eunectes Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Abstract
本发明公开了一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,属于遥感科学技术领域。本发明步骤为:首先通过二维深度卷积网络分类多波段光学影像;再将地表覆盖二维分类的结果(即类别概率)利用最近邻算法赋予机载LiDAR点云,作为三维点云的先验概率特征;而后采用三维神经网络分类已嵌入二维类别概率的LiDAR点云,得到最终的城市三维土地覆盖分类结果。本发明利用先验级耦合策略将光学影像提供的波段信息赋予LIDAR点云,弥补了现有三维LiDAR点云数据中存在较少的标注数据的问题,先验级耦合策略分类策略可以降低训练过程的损失,以获得更好的分类效果,并阐释了城市地表覆盖二维分类与三维分类之间的联系。
Description
技术领域
本发明涉及遥感科学技术领域,更具体地说,涉及一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法。
背景技术
激光雷达探测技术(Light Detection And Ranging,简称LiDAR)对地球表面进行三维密集采样,以三维点云这种模态刻画复杂现实世界,可作为地表覆盖三维分类的几何载体。但是,LiDAR点云的数据量大、冗余度高、非结构化、采样粒度不均等典型特征,给复杂城市环境下地表覆盖三维分类带来了巨大挑战。近年来,深度学习在摄影测量与遥感领域得到广泛应用。与此同时,结合结构性强、波段信息丰富的遥感光学影像,有助于推动实景三维走向实体三维,满足城市地理大数据挖掘所需要的语义化、结构化的地表覆盖三维分类产品。
从数据分析角度出发,城市地表覆盖三维分类可以理解为对表达城市三维地物的点云进行分类,目前主要是对LiDAR点云的分类。2012年Singh等在期刊《ISPRS Journal ofPhotogrammetry and Remote Sensing》74卷中发表“LiDAR-Landsat data fusion forlarge-area assessment of urban land cover:Balancing spatial resolution,datavolume and mapping accuracy”一文,将影像与LiDAR生成的DSM数据联结起来,采用极大似然方法与决策树进行分类,表明使用融合的特征比单一的影像或LiDAR特征可获得更高的精度;2015年Paisitkriangkrai等在会议论文集《Proceedings of the IEEEConference on Computer Vision and Pattern Recognition Workshops》中发表“Effective semantic pixel labelling with convolutional networks andconditional random fields”一文,研究中利用深度卷积网络处理光学影像处理得到光学分类结果,再采用随机森林处理人为构造的LiDAR特征得到另一个分类结果,最后按照启发式的规则将二者分类结果融合;近年来,神经网络的快速发展,提升了计算机视觉与遥感领域分类任务的精度,特别是,2017年Qi在会议论文集《Proceedings of the IEEEConference on Computer Vision and Pattern Recognition Workshops》中发表“Pointnet:Deep learning on point sets for 3d classification and segmentation”一文,研究表明三维深度学习Pointnet网络突破了点云稀疏、无序为多尺度特征学习造成的困难,为“端到端”地学习特征提供了可能,使得深度学习在点云分类中取得了快速的发展。
然而,目前对于光学影像和LiDAR的融合在三维分类中较少体现。二维光学影像与LiDAR数据异质性强,二维光学影像映射到三维空间存在着信息升维的难点,且对三维LiDAR点云数据而言存在较少的标注数据,特别是包括多波段信息的标注数据。综上所述,如何克服上述缺点融合光学影像和LiDAR得到城市地表覆被三维分类结果,是现有技术亟需解决的问题。
发明内容
本发明要解决的技术问题是:对三维LiDAR点云数据而言,目前存在较少的标注数据,特别是包括多波段信息的标注数据;被动光学影像可为LiDAR点云提供波段信息,但二维光学影像映射到三维空间存在着信息升维的难点,提供一种先验级耦合分类方法。
为了解决以上技术问题,本发明提供的一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,包括以下步骤:
步骤1、对多波段光学影像进行地表覆盖分类,得到各像元的分类类别概率向量p=(p1,p2,…,pk),k表示地表覆盖二维类别的总数;
步骤2、将各像元的分类类别概率向量作为LiDAR点的先验概率特征,赋给最近邻的LiDAR点;
步骤3、采用三维神经网络对已嵌入分类类别概率向量的LiDAR点云进行地表覆盖分类,得到最终的城市三维土地覆盖分类结果。
相比于现有技术,本发明的有益效果为:
(1)本发明的一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,利用二维深度卷积网络分类多波段光学影像得到地表覆盖二维分类,将其作为先验结果加入三维深度学习分类网络,搭建了二维分类与三维分类间的桥梁;
(2)本发明的一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,先验级的耦合策略可以解决三维训练数据缺乏的问题并利用充足的二维神经网络预训练模型;
(3)本发明的一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,先验级的三维LiDAR点云与二维光学影像耦合分类策略可以降低训练过程的损失,获得更好的F1。
附图说明
图1为本发明先验级耦合分类策略的实施流程示意图。
图2为国际摄影测量与遥感学会提供的光学影像与LiDAR点云数据图。
图3为实施例中点云高程信息,真值与先验级策略的融合分类结果图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的统计表与附图,对本发明实施例中的技术方案进行清楚、完整地描述。以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为进一步了解本发明的内容,结合附图和实施例对本发明作详细描述。
结合图1所示,本发明的一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,首先通过二维深度卷积网络分类多波段光学影像;再将地表覆盖二维分类的结果(即类别概率)利用最近邻算法赋予机载LiDAR点云,作为三维点云的先验概率特征;而后采用三维神经网络分类已嵌入二维类别概率的LiDAR点云,实现城市三维土地覆盖分类,并潜在表征地表覆盖二维分类与三维分类之间的关系。本发明利用先验级耦合策略将光学影像提供的波段信息赋予LIDAR点云,弥补了现有三维LiDAR点云数据中存在较少的标注数据的问题,先验级耦合策略分类策略可以降低训练过程的损失,获得更好的分类效果,并阐释了城市地表覆盖二维分类与三维分类之间的联系。
如图2所示,本实施例中LiDAR点云数据由国际摄影测量与遥感协会提供(http://www2.isprs.org/commissions/comm3/wg4/tests.html),是由徕卡ALS50系统于2008年8月所拍摄。具体的,该数据是由Leica Geosystems使用具有45°视场的Leica ALS50系统在Vaihingen采集而得,其地理坐标系是WGS84,投影坐标系是UTM-32N。其中,图2-1为训练数据,图2-2为测试数据,图2-3为训练数据所在区域图,图2-4为测试数据所在区域。此外国际摄影测量与遥感协会还提供了包括近红外波段,红波段、绿波段三个波段的正射光学影像。本实例具体实施采用Python编程语言,在Anaconda平台下实现,主要使用Python的Pytorch、Tensorflow、Numpy库。
本发明的一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,具体步骤如下:
步骤1:二维深度卷积网络分类多波段光学影像
本实施例使用计算机视觉邻域的SegNet分类多波段光学影像。SegNet包括编码网络与解码网络。编码网络包含5组编码器,其参数使用VGG-16初始化,每组编码器使用卷积层、批归一化层、ReLU激活层、最大池化层提取特征并降低其扩大感受野。
解码网络通过上采样层、卷积层、批归一化层、ReLU激活层进行低分辨率特征的上采样,得到与原图像大小一致的特征图像。利用最大池化层的索引,上采样得到分辨率变大的稀疏特征,这些稀疏特征经过卷积层、批归一化层、ReLU激活层生成密集特征。
实施例中的SegNet采用国际摄影测量与遥感协会公布的Vaihingen的光学影像训练,随机选择12个数据块作为训练数据,4个数据块作为验证数据。SegNet的输入影像是随机裁取的256×256的影像单元,batchsize是16,参数优化器选用随机梯度下降(Stochastic Gradient Descent,简称SGD)。损失函数是加权交叉信息熵损失:
上式中,loss表示损失函数,x表示预测结果,class表示真实分类,weight权重向量,log为对数函数,exp为指数函数。
权重weight使用所有类频率中位数除以当前类频率,其在训练过程中根据随机选择的数据块进行估计。
将SegNet处理后的光学影像的地表覆盖二维分类结果利用行(r)和列(c)确定的每个像素的位置(r,c)。每个位置包含属于各类别的概率向量:
p=(p1,p2,…,pk)
其中,k表示地表覆盖二维类别的总数,本实施例中共6类。
步骤二:赋予LiDAR点云地表覆盖二维分类先验概率
LiDAR点云使用坐标值(x,y,z)确定位置,利用x,y可计算出其对应的栅格数据中的行和列(r',c'):
其中(X,Y)表示光学影像左上角的坐标,gsd表示光学影像的空间分辨率。
通过将对应位置的类别向量p嵌入LiDAR点云中的每个点,即点的表示从(x,y,z)变成(x,y,z,p1,p2,…,p6)。接着使用三维深度神经网络处理纳入了二维类别概率的点云信息。
步骤三:三维神经网络分类嵌入二维类别概率的LiDAR点云
本实施例使用三维深度神经网络PointNet++对已嵌入分类类别概率向量的LIDAR点云进行地表覆盖分类。
光学图像的网格规则便于在端到端框架中卷积和自动提取特征,而激光雷达点云的无序和不规则性是需要克服的问题。PointNet在球状邻域(以点为圆心,距离为r的球内的所有点,即r-邻域)中定义MLP-Max提取点特征。在MLP-max操作中,在(x,y,z,p1,p2,…,pk)上执行多层感知机(MLP)对每个点进行特征提取,然后使用最大池化法将球面邻域内所有点提取的特征汇总到单个向量中。
PointNet++对PointNet进行了扩展,提取层次点特征,形成了用于点云语义分割的编解码器结构。在PointNet++中,采用最远点采样法(FPS)获取抽象点及其r邻域,该模块称为采样分组层。特征提取层使用Conv-Max操作提取邻域特征。在PointNet++中,将采样分组层和特征提取层重复组成编码器网络。对于点云语义分割,解码器网络需要将抽象点向上采样到原始点云大小。上采样层是通过基于距离的插值和跨级别跳跃链接完成的。单点特征层使用多层感知机进行内插特征的再计算。最后使用Softmax分类器得到三维分类结果。
PointNet++使用国际摄影测量与遥感协会公布三维标注训练集训练,PointNet++的输入点云是从30m×30m输入范围中随机采样的8192个点,batchsize也为16,参数使用TensorFlow提供的初始化方式;机器学习训练过程中,常见的优化器有批量梯度下降法(Batch Gradient Descent,简称BGD)随机梯度下降法(Stochastic Gradient Descent,简称SGD)、自适应矩估计(Adaptive moment estimation,简称Adam)等。本实施例优化器选择自适应矩估计(Adaptive moment estimation,简称Adam);损失函数也采用加权交叉信息熵损失,各类别的权重为:{低矮植被:0.51,灌丛:1.92,树木:0.68,不透水面:0.47,车辆:19.81,屋顶:0.60,建筑物立面:3.35,其他:0}。学习率使用指数衰减来改变。
PointNet++起初设计的语义分割是针对密集的室内点云的,直接将其使用的室外点云不妥。特此,针对城市LiDAR点云,就邻域大小以及采样尺度,本发明重新设计了PointNet++的参数(见表1)。
表1中,N为抽象点数,r为球面邻域半径,K为局部区域最大使用点数,[·]中的数为PointNet中的MLP(multi-layer perceptron,多层感知机)。
表1针对城市激光雷达点云设计的pointnet++超参数
本实施例采用查准率、查全率与F1得分作为分类结果评价参数。附图3是基线与先验级耦合分类结果,小插图是三维可视化结果。这些可视化结果表明先验级的耦合分类取得了较好的效果,特别是,树木、不透水面、屋顶的精度较高。总体精度上先验级的提高了7.85%(见表2),此外先验级将F1提高到了80%以上。
表2分类结果统计
在上文中结合具体的示例性实施例详细描述了本发明。但是,应当理解,可在不脱离由所附权利要求限定的本发明的范围的情况下进行各种修改和变型。详细的描述和附图应仅被认为是说明性的,而不是限制性的,如果存在任何这样的修改和变型,那么它们都将落入在此描述的本发明的范围内。此外,背景技术旨在为了说明本技术的研发现状和意义,并不旨在限制本发明或本申请和本发明的应用领域。
Claims (5)
1.一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,包括以下步骤:
步骤1、对多波段光学影像进行地表覆盖分类,得到各像元的分类类别概率向量p=(p1,p2,...,pk),k表示地表覆盖二维类别的总数;
步骤2、将各像元的分类类别概率向量作为LiDAR点的先验概率特征,赋给最近邻的LiDAR点;
步骤3、采用三维神经网络对已嵌入分类类别概率向量的LiDAR点云进行地表覆盖分类,得到最终的城市三维土地覆盖分类结果;
步骤1中,使用二维深度卷积网络对多波段光学影像进行地表覆盖分类,具体方法如下:
使用计算机视觉领域的SegNet分类多波段光学影像,SegNet包括编码网络与解码网络,编码网络包含5组编码器,其参数使用VGG-16初始化,每组编码器使用卷积层、批归一化层、ReLU激活层、最大池化层提取特征并降低其扩大感受野;
解码网络通过上采样层、卷积层、批归一化层、ReLU激活层进行低分辨率特征的上采样,得到与原图像大小一致的特征图像;利用最大池化层的索引,上采样得到分辨率变大的稀疏特征,这些稀疏特征经过卷积层、批归一化层、ReLU激活层生成密集特征;
SegNet处理光学影像得到的地表覆盖二维分类结果利用行r和列c确定的每个像素的位置(r,c),每个位置包含属于各类别的概率向量:
p=(p1,p2,...,pk)
其中,k表示地表覆盖二维类别总共有k类;
所述LiDAR点使用坐标值(x,y,z)表示其位置,利用横坐标x,纵坐标y计算出其对应的栅格数据中的行和列(r′,c′),
其中(X,Y)表示光学影像左上角的坐标,gsd表示光学影像的空间分辨率;
在步骤2中,将像元的分类类别概率向量p=(p1,p2,...,pk)嵌入至对应LiDAR点中,得到重构的含有二维类别概率的LiDAR点数据(x,y,z,p1,p2,...,pk)。
2.根据权利要求1所述的基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,其特征在于:步骤3中,使用三维深度神经网络PointNet++对已嵌入分类类别概率向量的LiDAR点云进行分类。
3.根据权利要求2所述的基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,其特征在于:所述三维深度神经网络PointNet++中,batchsize取值为16,机器学习训练的优化器选择自适应矩估计,损失函数选择加权交叉信息熵损失,学习率使用指数衰减来改变。
4.根据权利要求3所述的基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,其特征在于:所述三维深度神经网络PointNet++中,各类别的权重如下:
低矮植被:0.51,灌丛:1.92,树木:0.68,不透水面:0.47,车辆:19.81,屋顶:0.60,建筑物立面:3.35,其他:0。
5.根据权利要求4所述的基于深度学习的LiDAR点云与光学影像先验级耦合分类方法,其特征在于:所述三维深度神经网络PointNet++中,超参数设置如下:
其中,N为抽象点数,r为球面邻域半径,K为局部区域最大使用点数,[]中的数为三维深度神经网络PointNet++对应层的多层感知机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010886292.9A CN111950658B (zh) | 2020-08-28 | 2020-08-28 | 一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010886292.9A CN111950658B (zh) | 2020-08-28 | 2020-08-28 | 一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111950658A CN111950658A (zh) | 2020-11-17 |
CN111950658B true CN111950658B (zh) | 2024-02-09 |
Family
ID=73367839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010886292.9A Active CN111950658B (zh) | 2020-08-28 | 2020-08-28 | 一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111950658B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818925B (zh) * | 2021-02-26 | 2023-04-07 | 清华大学 | 一种城市建筑和树冠识别方法 |
CN115546544B (zh) * | 2022-09-30 | 2023-11-17 | 深圳市规划和自然资源数据管理中心 | 基于图神经网络的LiDAR点云与OSM标注信息流耦合分类方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2826534A1 (en) * | 2012-11-09 | 2014-05-09 | The Boeing Company | Backfilling points in a point cloud |
EP2977976A2 (en) * | 2014-07-22 | 2016-01-27 | Sikorsky Aircraft Corporation | Context-aware landing zone classification |
CN105930772A (zh) * | 2016-04-13 | 2016-09-07 | 武汉大学 | 基于sar影像与光学遥感影像融合的城市不透水面提取方法 |
CN108230329A (zh) * | 2017-12-18 | 2018-06-29 | 孙颖 | 基于多尺度卷积神经网络的语义分割方法 |
CN110009054A (zh) * | 2019-04-12 | 2019-07-12 | 南京大学 | 一种利用几何与强度特征的分层次机载LiDAR点云分类方法 |
CN110363178A (zh) * | 2019-07-23 | 2019-10-22 | 上海黑塞智能科技有限公司 | 基于局部和全局深度特征嵌入的机载激光点云分类方法 |
CN111047596A (zh) * | 2019-12-12 | 2020-04-21 | 中国科学院深圳先进技术研究院 | 一种三维点云实例分割方法、系统及电子设备 |
CN111489358A (zh) * | 2020-03-18 | 2020-08-04 | 华中科技大学 | 一种基于深度学习的三维点云语义分割方法 |
-
2020
- 2020-08-28 CN CN202010886292.9A patent/CN111950658B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2826534A1 (en) * | 2012-11-09 | 2014-05-09 | The Boeing Company | Backfilling points in a point cloud |
EP2977976A2 (en) * | 2014-07-22 | 2016-01-27 | Sikorsky Aircraft Corporation | Context-aware landing zone classification |
CN105930772A (zh) * | 2016-04-13 | 2016-09-07 | 武汉大学 | 基于sar影像与光学遥感影像融合的城市不透水面提取方法 |
CN108230329A (zh) * | 2017-12-18 | 2018-06-29 | 孙颖 | 基于多尺度卷积神经网络的语义分割方法 |
CN110009054A (zh) * | 2019-04-12 | 2019-07-12 | 南京大学 | 一种利用几何与强度特征的分层次机载LiDAR点云分类方法 |
CN110363178A (zh) * | 2019-07-23 | 2019-10-22 | 上海黑塞智能科技有限公司 | 基于局部和全局深度特征嵌入的机载激光点云分类方法 |
CN111047596A (zh) * | 2019-12-12 | 2020-04-21 | 中国科学院深圳先进技术研究院 | 一种三维点云实例分割方法、系统及电子设备 |
CN111489358A (zh) * | 2020-03-18 | 2020-08-04 | 华中科技大学 | 一种基于深度学习的三维点云语义分割方法 |
Non-Patent Citations (5)
Title |
---|
2D-3D fusion for layer decomposition of urban facades;Yangyan Li等;《2011 International Conference on Computer Vision》;882-889 * |
A review of remote sensing image fusion methods;Hassan Ghassemian;《Information Fusion》;第32卷;75-89 * |
Hierarchical Classification of Urban ALS Data by Using Geometry and Intensity Information;Xiaoqiang Liu等;《Sensors》;第19卷(第20期);4583 * |
Three-Dimensional Urban Land Cover Classification by Prior-Level Fusion of LiDAR Point Cloud and Optical Imagery;Yanming Chen等;《Remote Sens》;第13卷(第23期);4928 * |
机载激光点云和高光谱影像融合的城市地物分类研究;李波;《中国优秀硕士学位论文全文数据库 基础科学辑》(第06期);A008-117 * |
Also Published As
Publication number | Publication date |
---|---|
CN111950658A (zh) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423610B2 (en) | Large-scale environment-modeling with geometric optimization | |
Chen et al. | Distribution line pole detection and counting based on YOLO using UAV inspection line video | |
CN110111345B (zh) | 一种基于注意力网络的3d点云分割方法 | |
CN113780296B (zh) | 基于多尺度信息融合的遥感图像语义分割方法及系统 | |
EP2849117B1 (en) | Methods, apparatuses and computer program products for automatic, non-parametric, non-iterative three dimensional geographic modeling | |
CN113902897B (zh) | 目标检测模型的训练、目标检测方法、装置、设备和介质 | |
CN111626128A (zh) | 一种基于改进YOLOv3的果园环境下行人检测方法 | |
CN111950658B (zh) | 一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法 | |
CN112489054A (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
CN115423972A (zh) | 一种基于车载多激光雷达融合的封闭场景三维重建方法 | |
CN110222767A (zh) | 基于嵌套神经网络和栅格地图的三维点云分类方法 | |
CN115512216A (zh) | 耦合街区时空特征和集成学习的城市功能区精细化识别方法 | |
CN115564926B (zh) | 基于影像建筑物结构学习的三维面片模型构建方法 | |
CN116222577B (zh) | 闭环检测方法、训练方法、系统、电子设备及存储介质 | |
CN113343858A (zh) | 路网地理位置识别方法、装置、电子设备及存储介质 | |
CN115527027A (zh) | 一种基于多特征融合机制的遥感影像地物分割方法 | |
CN112926556A (zh) | 一种基于语义分割的航拍输电线路散断股识别方法及系统 | |
CN114758337A (zh) | 一种语义实例重建方法、装置、设备及介质 | |
CN115019163A (zh) | 基于多源大数据的城市要素识别方法 | |
Sun et al. | GAN-based LUCC prediction via the combination of prior city planning information and land-use probability | |
Wu et al. | A Non-rigid hierarchical discrete grid structure and its application to UAVs conflict detection and path planning | |
Su et al. | Local fusion attention network for semantic segmentation of building facade point clouds | |
CN117132964A (zh) | 模型训练方法、点云编码方法、对象处理方法及装置 | |
CN116543117B (zh) | 一种无人机影像的高精度大场景三维建模方法 | |
CN113920273B (zh) | 图像处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |