CN110097556A - 基于PointNet的大规模点云语义分割算法 - Google Patents

基于PointNet的大规模点云语义分割算法 Download PDF

Info

Publication number
CN110097556A
CN110097556A CN201910357473.XA CN201910357473A CN110097556A CN 110097556 A CN110097556 A CN 110097556A CN 201910357473 A CN201910357473 A CN 201910357473A CN 110097556 A CN110097556 A CN 110097556A
Authority
CN
China
Prior art keywords
point
pointnet
point cloud
overtrick
cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910357473.XA
Other languages
English (en)
Inventor
李春国
宋涣
郑亚茹
杨绿溪
徐琴珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910357473.XA priority Critical patent/CN110097556A/zh
Publication of CN110097556A publication Critical patent/CN110097556A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于PointNet网络结构大规模点云语义分割算法。1几何均匀分区:2超点嵌入;3上下文分段:4 将超点输入PointNet进行训练。本发明使用SPG算法对PointNet输入的点云做了预处理(几何分区,超点计算),可以将百万级的点云提取为超点图,大大降低了PointNet一次需要处理的点云数量,在实现了接近PointNet网络原有精度的情况下具备了一次处理百万点云的能力并且有效利用上下文信息。采用我们设计的改进PointNet网络可以在简单机器上实现高效的百万级规模点云语义分割,是一种体素化和深度学习有效结合的方法。

Description

基于PointNet的大规模点云语义分割算法
技术领域
本发明涉及属于多媒体信号处理领域,特别是涉及基于PointNet的大规模点云语义分割算法。
背景技术
所谓点云,就是由一组离散的点表示的地图。最基本的点包含x,y,z三维坐标,也可以带有r,g,b的彩色信息。由于RGB-D相机提供了彩色图和深度图,很容易根据相机内参来计算RGB-D点云。当得到了相机位姿之后,直接把点云加和,就可以全局点云。
几年来,学术界对二维图像已经有了大量深入的研究,深度学习的推广使视觉领域研究有着长足的发展。在3D点云分类,视觉分割任务上也取得了极好的进展,这主要得益于以下两个关键因素:
1.卷积神经网络
卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习(deeplearning)的代表算法之一。
2.数据-大量图像数据可用。
对于3D点云,数据正在迅速增长。大有从2D向3D发展的趋势,在数据方面点云的获取也是有多种渠道,无论是源于CAD模型还是来自LiDAR传感器或RGBD相机的扫描点云,无处不在。另外,大多数系统直接获取3D点云而不是拍摄图像并进行处理。
点云有诸多行业应用:
(1)自动驾驶
LiDAR及点云数据已经在逐渐应用于高等级自动驾驶。跟人类驾驶员的驾驶过程一样,自动驾驶也需要经过感知、高精定位、决策、控制四个步骤。人类的感知通过眼睛、耳朵,自动驾驶则通过激光雷达、毫米波雷达、摄像头、惯导系统等传感器。
接着是高精定位,人通过将看到听到的环境信息与记忆中的信息对比,判断出自己的位置和方向,自动驾驶则需要将传感器搜集的信息跟储存的高精地图对比,判断位置和方向。
最后人类驾驶员思考判断后操控汽车开向目的地。自动驾驶通过人工智能算法决策做出车道及路径规划,给制动、转向、加速等控制器下达指令,控制车辆开往目的地。在自动驾驶过程中,高精地图起到了高精度定位、辅助环境感知、规划与决策等功能。
这对高精地图提出了很高的要求,而点云则是很好地一个载体。
(2)在农业上,点云数据的分类,对农业有着很好的参考价值;在规划设计上,大规模的点云数据,是规划设计的利器,高精度实时快速的三维场景,更能直观的展示设计;在考古与文物保护上,高精度的点云数据早已应用在文物保护行业;在医疗上,则可以为医生提供有效的信息辅助;在测绘上,LiDAR的出现成为了一种新型获取测量数据的方式,据有着高精度,快速等特点。
发明内容
为了解决以上问题,本发明提供基于PointNet的大规模点云语义分割算法,使用SPG算法对PointNet输入的点云做了预处理(几何分区,超点计算),可以将百万级的点云提取为超点图,大大降低了PointNet一次需要处理的点云数量,在实现了接近PointNet网络原有精度的情况下具备了一次处理百万点云的能力并且有效利用上下文信息。采用我们设计的改进PointNet网络可以在简单机器上实现高效的百万级规模点云语义分割,是一种体素化和深度学习有效结合的方法,为达此目的,本发明提供基于PointNet的大规模点云语义分割算法,所述的检测方法具体步骤如下:
(1)几何均匀分区:
算法的第一步是将点云划分为几何简单而有意义的形状,这个无监督的步骤将整个点云作为输入,因此必须在计算上非常有效,可以从此分区轻松计算SPG;
(2)超点嵌入:
SPG的每个节点对应于几何简单基元对应的点云的一小部分,认为它们在语义上是同质的,通过将小点云下采样到最多数百个点,可以可靠地表示这种原始数据,这个小尺寸允许使用最近的点云嵌入方法;
(3)上下文分段:
超点的图形比原始点云上构建的任何图形小几个数量级,然后,可以使用基于图形卷积的深度学习算法,使用丰富的边缘特征对其节点进行分类,从而促进远程交互,SPG表示允许使用者对可训练的最后两个步骤进行端到端学习;
(4)将超点输入PointNet进行训练;
PointNet在点云分类和语义分割中都有着出色的表现,将经过与处理的超点作为输入,经过深度学习网络输出带有有标签的语义分割的点云。
作为本发明进一步改进,所述步骤一中global energy的几何分区;
在步骤(1)中,通过几何均匀分区,将点云进行有效的切割,此步的目标在与将物体分解成简单的部分;
将输入点云C视为一组n个3D点,每个点i∈C由其3D位置pi定义,并且如果可用,则定义其他观察结果oi,对于每个点,计算一组dg几何特征表征其局部邻域的形状,在本方法中,使用三维值:线性,平面性和散射,以及垂直度特征,还计算每个点的高度,定义为在整个输入云上标准化的pi的z坐标。
作为本发明进一步改进,所述步骤一中超点图构造。
SPG是点云的结构化表示,定义为定向属性图其节点是超点的集合,边ε表示接近度在超级点之间,superedges由一组df特征注释:表征超点之间的邻接关系。
将Gvor=(C,Evor)定义为完整输入点云的对称Voronoi邻接图,,如果Evor中至少有一个边在S中有一端而在T中有一端,则两个超点S和T是相邻的:
与superedge(S,T)相关联的重要空间特征是从连接两个超点的Evor中的边缘的偏移集合δ(S,T)获得的:
δ(S,T)={(pi-pj)|(i,j)|(i,j)∈Evor∩(S×T)}。
作为本发明进一步改进,所述步骤二中超级点嵌入,该阶段的目标是通过将每个超点Si嵌入到固定大小维度dz的向量zi中来计算每个超点Si的描述符,请注意,每个超级点都是独立嵌入的;其可靠分类所需的上下文信息仅在下一阶段通过图形卷积提供。
作为本发明进一步改进,所述步骤二中网络部分卷积,PointNet是一个深度学习框架,直接利用无序点集作为输入,点云表示为一组3D点{Pi|i=1,…,n},其中每个点Pi是其(x,y,z)坐标加上诸如颜色法线等的额外特征通道的向量,在经过上文的嵌入后,直接用作网络的输入,输出点和每个点的标签。
本申请基于PointNet的大规模点云语义分割算法,其SPG的表达方式有以下几个显著的优点。
(1)SPG将整个目标的部分作为一个整体,这更加容易辨别,而不是对单个点或者体素进行分类;
(2)SPG可以详细描述相邻目标之间的关系,这对于上下文分类至关重要;
(3)SPG的大小由场景中的简单结构的数量决定,而不是场景中所有的点,这通常会要小几个量级。这使得我们可以有效的降低PointNet一次处理的点云数量,使PointNet具备了处理全局百万点云的能力。
附图说明
图1为本发明基于PointNet网络的结构图;
图2为本发明SPG算法改进后的PointNet网络结构图;
图3为使用S3DIS数据集fold5的准确率与IoU结果表格;
图4为S3DIS数据集-fold5计算时间(秒);
图5为鲁棒性测试——缺失数据比率;
图6为鲁棒性测试——异常值比率。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明通过对点云的超点特征提取是实现了PointNet网络一次处理百万点云的能力。
提供基于PointNet的大规模点云语义分割算法,使用SPG算法对PointNet输入的点云做了预处理(几何分区,超点计算),可以将百万级的点云提取为超点图,大大提升了了PointNet一次处理的点云数量,在实现了接近PointNet网络原有精度的情况下具备了一次处理百万点云的能力并且有效利用上下文信息。采用我们设计的改进PointNet网络可以在简单机器上实现高效的百万级规模点云语义分割,是一种体素化和深度学习有效结合的方法。
步骤一:具有global energy的几何分区
在步骤(1)中,通过几何均匀分区,将点云进行有效的切割。此步的目标在与将物体分解成简单的部分,这些聚类在几何上很简单,人们可以期望它们在语义上是同质的(即不要覆盖不同类别的对象)。
我们将输入点云C视为一组n个3D点。每个点i∈C由其3D位置pi定义,并且如果可用,则定义其他观察结果oi,例如颜色或强度。对于每个点,我们计算一组dg几何特征表征其局部邻域的形状。在本文中,我们使用三维值:线性,平面性和散射,以及垂直度特征。我们还计算每个点的高度,定义为在整个输入云上标准化的pi的z坐标。
global energy是根据点云的10个最近相邻的邻接图Gm=(C,Em)来定义的(注意这不是SPG)。几何同构分区被定义为以下优化问题解决方案的常量连通组件:
其中[·]是艾弗森支架。边权重
选择相对于边缘长度线性减小。系数μ是正则化强度,并确定所得分区的粗糙度。
公式(1)中定义的问题称为广义最小分区问题,可以看作是Potts能量模型的连续空间版本,或者是图形总变差的变体。最小化的函数是非凸的和非连续的意味着对于大点云不能实际解决问题。然而,由追踪算法能够通过一些图形切割迭代快速找到近似解。与其他优化方法相比,该切割追踪算法不需要预先选择分区的大小。等式(1)的解的常数连通分量定义了我们几何上简单的元素,并且在本文的其余部分中称为超点(即点集)。
步骤二:超点图构造
在步骤中,我们将介绍如何计算SPG及其主要功能。SPG是点云的结构化表示,定义为定向属性图其节点是超点的集合,边ε(称为超级)表示接近度在超级点之间。superedges由一组df特征注释:表征超点之间的邻接关系。
我们将Gvor=(C,Evor)定义为完整输入点云的对称Voronoi邻接图,如[20]所定义。如果Evor中至少有一个边在S中有一端而在T中有一端,则两个超点S和T是相邻的:
与superedge(S,T)相关联的重要空间特征是从连接两个超点的Evor中的边缘的偏移集合δ(S,T)获得的:
δ(S,T)={(pi-pj)|(i,j)∈Evor∩(S×T)}
还可以通过比较相邻超点的形状和大小来导出超级特征。为此,我们计算|S|作为超点S中包含的点数,以及形状特征长度(S)=λ1,表面(S)=λ1λ2,体积(S)=λ1λ2λ3来自于协方差的特征值λ1,λ2,λ3每个超点中包含的点的位置,按降序值排序。
步骤三:超级点嵌入
该步骤的目标是通过将每个超点Si嵌入到固定大小维度dz的向量zi中来计算每个超点Si的描述符。请注意,每个超级点都是独立嵌入的;其可靠分类所需的上下文信息仅在下一阶段通过图形卷积提供。
最近为此目的提出了几种基于深度学习的方法。我们选择PointNet因其非凡的简洁性,效率和稳健性。在PointNet中,输入点首先由空间变换器网络对齐,由多层感知器(MLP)独立处理,最后进行最大池化以对形状进行求和。
在我们的例子中,输入形状是几何上简单的对象,可以用少量的点可靠地表示,并由相当紧凑的PointNet嵌入。
为了让PointNet学习不同形状的空间分布,每个超级点在嵌入之前重新调整为单位球体。点由它们的标准化位置p′i,观察值oi和几何特征fi表示(因为这些已经可以从分区步骤预先计算得到)。此外,在PointNet最大池化之后,超点的原始度量直径被连接为附加特征,以便与形状大小保持协变。
步骤四:网络部分卷积
PointNet设计了一个深度学习框架,直接利用无序点集作为输入。点云表示为一组3D点{Pi|i=1,…,n},其中每个点Pi是其(x,y,z)坐标加上诸如颜色,法线等的额外特征通道的向量。在经过上文的嵌入后,直接用作网络的输入,输出点和每个点的标签。
本发明基于PointNet网络的结构图如图1所示,本发明SPG算法改进后的PointNet网络结构图如图2所示,本发明使用S3DIS数据集fold5的准确率与IoU结果表格如图3所示;本发明S3DIS数据集-fold5计算时间(秒)如图4所示,本发明鲁棒性测试——缺失数据比如图5所示,本发明鲁棒性测试——异常值比率如图6所示。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (5)

1.基于PointNet的大规模点云语义分割算法,其特征在于:所述的检测方法具体步骤如下:
(1)几何均匀分区:
算法的第一步是将点云划分为几何简单而有意义的形状,这个无监督的步骤将整个点云作为输入,因此必须在计算上非常有效,可以从此分区轻松计算SPG;
(2)超点嵌入:
SPG的每个节点对应于几何简单基元对应的点云的一小部分,认为它们在语义上是同质的,通过将小点云下采样到最多数百个点,可以可靠地表示这种原始数据,这个小尺寸允许使用最近的点云嵌入方法;
(3)上下文分段:
超点的图形比原始点云上构建的任何图形小几个数量级,然后,可以使用基于图形卷积的深度学习算法,使用丰富的边缘特征对其节点进行分类,从而促进远程交互,SPG表示允许使用者对可训练的最后两个步骤进行端到端学习;
(4)将超点输入PointNet进行训练;
PointNet在点云分类和语义分割中都有着出色的表现,将经过与处理的超点作为输入,经过深度学习网络输出带有有标签的语义分割的点云。
2.根据权利要求1所述的基于PointNet的大规模点云语义分割算法,其特征在于:所述步骤一中全局能量的几何分区;
在步骤(1)中,通过几何均匀分区,将点云进行有效的切割,此步的目标在与将物体分解成简单的部分;
将输入点云C视为一组n个3D点,每个点i∈C由其3D位置pi定义,并且如果可用,则定义其他观察结果oi,对于每个点,计算一组dg几何特征表征其局部邻域的形状,在本方法中,使用三维值:线性,平面性和散射,以及垂直度特征,还计算每个点的高度,定义为在整个输入云上标准化的pi的z坐标。
3.根据权利要求1所述的基于PointNet的大规模点云语义分割算法,其特征在于:所述步骤一中超点图构造;
SPG是点云的结构化表示,定义为定向属性图其节点是超点的集合,边ε表示接近度在超级点之间,超级边由一组df特征注释:表征超点之间的邻接关系;将Gvor=(C,Evor)定义为完整输入点云的对称Voronoi邻接图,,如果Evor中至少有一个边在S中有一端而在T中有一端,则两个超点S和T是相邻的:
与超级边(S,T)相关联的重要空间特征是从连接两个超点的Evor中的边缘的偏移集合δ(S,T)获得的:
δ(S,T)={(pi-pj)|(i,j)∈Evor∩(S×T)}。
S,T是两个超点。
4.根据权利要求1所述的基于PointNet的大规模点云语义分割算法,其特征在于:所述步骤二中超级点嵌入,该阶段的目标是通过将每个超点Si嵌入到固定大小维度dz的向量zi中来计算每个超点Si的描述符,请注意,每个超级点都是独立嵌入的;其可靠分类所需的上下文信息仅在下一阶段通过图形卷积提供。
5.根据权利要求1所述的基于PointNet的大规模点云语义分割算法,其特征在于:所述步骤二中网络部分卷积,PointNet是一个深度学习框架,直接利用无序点集作为输入,点云表示为一组3D点{Pi|i=1,…,n},其中每个点Pi是其(x,y,z)坐标加上诸如颜色法线等的额外特征通道的向量,在经过上文的嵌入后,直接用作网络的输入,输出点和每个点的标签。
CN201910357473.XA 2019-04-29 2019-04-29 基于PointNet的大规模点云语义分割算法 Pending CN110097556A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910357473.XA CN110097556A (zh) 2019-04-29 2019-04-29 基于PointNet的大规模点云语义分割算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910357473.XA CN110097556A (zh) 2019-04-29 2019-04-29 基于PointNet的大规模点云语义分割算法

Publications (1)

Publication Number Publication Date
CN110097556A true CN110097556A (zh) 2019-08-06

Family

ID=67446557

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910357473.XA Pending CN110097556A (zh) 2019-04-29 2019-04-29 基于PointNet的大规模点云语义分割算法

Country Status (1)

Country Link
CN (1) CN110097556A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807774A (zh) * 2019-09-30 2020-02-18 广东工业大学 一种点云分类与语义分割方法
CN110827302A (zh) * 2019-11-14 2020-02-21 中南大学 基于深度图卷积网络的点云目标提取方法及装置
CN112241676A (zh) * 2020-07-07 2021-01-19 西北农林科技大学 一种地形杂物自动识别的方法
CN113392841A (zh) * 2021-06-03 2021-09-14 电子科技大学 一种基于多特征信息增强编码的三维点云语义分割方法
CN114118286A (zh) * 2021-12-01 2022-03-01 苏州思卡信息系统有限公司 一种汽车雷达点云数据的处理方法
CN114120110A (zh) * 2021-11-22 2022-03-01 中国科学院紫金山天文台 一种混杂场景机载激光点云分类的多粒度计算方法
US11295170B1 (en) 2021-08-17 2022-04-05 FPT USA Corp. Group-equivariant convolutional neural networks for 3D point clouds
CN115731137A (zh) * 2022-11-29 2023-03-03 湖北大学 一种基于A-EdgeConv的室外大场景点云分割方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354591A (zh) * 2015-10-20 2016-02-24 南京大学 基于高阶类别相关先验知识的三维室外场景语义分割系统
CN108319957A (zh) * 2018-02-09 2018-07-24 深圳市唯特视科技有限公司 一种基于超点图的大规模点云语义分割方法
CN109410307A (zh) * 2018-10-16 2019-03-01 大连理工大学 一种场景点云语义分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354591A (zh) * 2015-10-20 2016-02-24 南京大学 基于高阶类别相关先验知识的三维室外场景语义分割系统
CN108319957A (zh) * 2018-02-09 2018-07-24 深圳市唯特视科技有限公司 一种基于超点图的大规模点云语义分割方法
CN109410307A (zh) * 2018-10-16 2019-03-01 大连理工大学 一种场景点云语义分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHARLES R.QI等: "PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
LOIC LANDRIEU, MARTIN SIMONOVSKY: "Large-scale Point Cloud Semantic Segmentation with Superpoint Graphs", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807774A (zh) * 2019-09-30 2020-02-18 广东工业大学 一种点云分类与语义分割方法
CN110807774B (zh) * 2019-09-30 2022-07-12 九天创新(广东)智能科技有限公司 一种点云分类与语义分割方法
CN110827302A (zh) * 2019-11-14 2020-02-21 中南大学 基于深度图卷积网络的点云目标提取方法及装置
CN112241676A (zh) * 2020-07-07 2021-01-19 西北农林科技大学 一种地形杂物自动识别的方法
CN113392841A (zh) * 2021-06-03 2021-09-14 电子科技大学 一种基于多特征信息增强编码的三维点云语义分割方法
US11295170B1 (en) 2021-08-17 2022-04-05 FPT USA Corp. Group-equivariant convolutional neural networks for 3D point clouds
CN114120110A (zh) * 2021-11-22 2022-03-01 中国科学院紫金山天文台 一种混杂场景机载激光点云分类的多粒度计算方法
CN114118286A (zh) * 2021-12-01 2022-03-01 苏州思卡信息系统有限公司 一种汽车雷达点云数据的处理方法
CN115731137A (zh) * 2022-11-29 2023-03-03 湖北大学 一种基于A-EdgeConv的室外大场景点云分割方法

Similar Documents

Publication Publication Date Title
CN110097556A (zh) 基于PointNet的大规模点云语义分割算法
CN108182441B (zh) 平行多通道卷积神经网络、构建方法及图像特征提取方法
CN108491880B (zh) 基于神经网络的物体分类和位姿估计方法
Afif et al. Indoor objects detection and recognition for an ICT mobility assistance of visually impaired people
CN105866790B (zh) 一种考虑激光发射强度的激光雷达障碍物识别方法及系统
CN111798475A (zh) 一种基于点云深度学习的室内环境3d语义地图构建方法
CN107292234B (zh) 一种基于信息边缘和多模态特征的室内场景布局估计方法
CN109635843B (zh) 一种基于多视角图像的三维物体模型分类方法
CN111339903A (zh) 一种多人人体姿态估计方法
CN108230337A (zh) 一种基于移动端的语义slam系统实现的方法
CN108319957A (zh) 一种基于超点图的大规模点云语义分割方法
CN111832655A (zh) 一种基于特征金字塔网络的多尺度三维目标检测方法
CN110781790A (zh) 基于卷积神经网络与vlad的视觉slam闭环检测方法
Wang et al. GKFC-CNN: Modified Gaussian kernel fuzzy C-means and convolutional neural network for apple segmentation and recognition
Kostavelis et al. Semantic maps from multiple visual cues
CN111814874A (zh) 一种用于点云深度学习的多尺度特征提取增强方法及模块
CN106991411B (zh) 基于深度形状先验的遥感图像目标精细化提取方法
Alidoost et al. Knowledge based 3D building model recognition using convolutional neural networks from LiDAR and aerial imageries
Farid et al. Plane-based object categorisation using relational learning
Liu et al. BEACon: a boundary embedded attentional convolution network for point cloud instance segmentation
CN114241226A (zh) 一种基于混合模型多邻域特征的三维点云语义分割方法
CN115147599A (zh) 一种面向遮挡和截断场景的多几何特征学习的物体六自由度位姿估计方法
Qu et al. Visual cross-image fusion using deep neural networks for image edge detection
CN117975436A (zh) 基于多模态融合和可变形注意力的三维目标检测方法
CN115147798A (zh) 可行驶区域预测方法、模型、装置及车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190806