CN114549537A - 基于跨模态语义增强的非结构化环境点云语义分割方法 - Google Patents

基于跨模态语义增强的非结构化环境点云语义分割方法 Download PDF

Info

Publication number
CN114549537A
CN114549537A CN202210150326.7A CN202210150326A CN114549537A CN 114549537 A CN114549537 A CN 114549537A CN 202210150326 A CN202210150326 A CN 202210150326A CN 114549537 A CN114549537 A CN 114549537A
Authority
CN
China
Prior art keywords
expansion rate
convolution
feature map
point cloud
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210150326.7A
Other languages
English (en)
Inventor
李旭
倪培洲
徐启敏
祝雪芬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202210150326.7A priority Critical patent/CN114549537A/zh
Publication of CN114549537A publication Critical patent/CN114549537A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出基于跨模态语义增强的非结构化环境点云语义分割方法,该方法针对当前大部分点云分割算法缺乏图像纹理色彩等语义信息且在非结构化环境下难以同时满足准确性和实时性要求的问题,构建了图像、激光雷达深度融合的非结构化环境语义分割网络,步骤如下:首先设计一种基于球面投影的点云分割模块,其次设计一种基于残差跨层连接的图像分割模块,接着设计一种基于GAN的二维伪语义增强模块以弥补点云缺失的色彩纹理等语义信息,最后利用样本集对网络进行训练,获得网络参数,从而实现非结构化环境三维点云语义的高效与可靠分割。

Description

基于跨模态语义增强的非结构化环境点云语义分割方法
技术领域
本发明涉及智能车辆环境感知技术领域,具体为基于跨模态语义增强的非结构化环境点云语义分割方法。
背景技术
三维场景理解是地面无人系统领域的关键技术,是实现结构化及非结构化环境下安全可靠通过的前提条件。目前较为成熟的技术主要针对城市结构化环境进行设计,针对非结构化环境(例如应急救援场景)的研究较少,技术尚不成熟。在非结构化环境中,没有车道、路面、护栏等结构特征,可行驶区域边界模糊、纹理多样;同时,受到地形、灌木等植被影响,障碍物特征复杂多变且存在遮挡、缺失情况。因此,现有的针对结构化环境设计的算法难以直接应用于非结构环境。
目前,基于深度学习的语义分割任务多采用相机和激光雷达作为其主要的传感数据输入来源。基于相机的非结构化环境语义分割方法,使用的颜色或纹理特征易受光照和天气的干扰,同时三维结构信息的缺失也限制了此类算法在不同场景的适应性。基于激光雷达的语义分割算法,由于点云数据的稀疏性、无序性、分布不均匀性,以及所依赖的的深度和几何信息过于单一,难以区分低分辨率或是具有相似几何特征的物体。而基于图像、雷达融合的方法(输入级、特征级、决策级融合)高度依赖于各输入信号的质量或已有的先验知识,无法适用于复杂多变的非结构化场景。因此,需要提出一种鲁棒的方法来融合不同传感器模态数据以实现非结构化环境的高精度有效三维语义分割。
发明内容
为解决上述存在的问题,本发明提供基于跨模态语义增强的非结构化环境点云语义分割方法。该方法首先设计一种基于球面投影的点云分割模块,其次设计一种基于残差跨层连接的图像分割模块,接着设计一种基于GAN的二维伪语义增强模块,最后利用样本集对网络进行训练,获得网络参数,从而实现非结构化环境三维点云语义的高效与可靠分割。本发明提出的方法使用球面投影,在降低索引和计算时间的同时,相比其他投影方法(例如鸟瞰图投影)可以生成更为紧凑密集的数据,有利于深度神经网络对于点云特征的提取;残差结构及扩张卷积的使用,不仅降低了网络结构的复杂度,还可以从网络不同深度的融合特征中挖掘出更多有效信息,从而保证该网络同时兼顾点云分割的准确性和实时性;使用GAN风格迁移算法,使得图像和点云间的特征信息相互学习,将点云分割网络的语义特征转换为图像语义特征并作为点云分割网络的语义增强信息,可以弥补其缺失的色彩纹理等关键语义信息,实现点云和图像特征的深度融合;在测试阶段仅采用激光雷达传感器进行场景的语义分割,在不受光照和天气干扰的同时,兼顾图像包含的语义特征信息,提高了分割算法的鲁棒性。总体设计方案和网络示意图如图1、图2所示,包含如下步骤:
(1)基于球面投影的点云分割模块设计;
子步骤1:雷达点云预处理
激光雷达的数据点坐标系OXYZ是以雷达中心为原点,载体前进方向为OX轴,按右手定则建立;方位角
Figure BDA0003510084130000021
和顶角θ的计算公式如下:
Figure BDA0003510084130000022
其中,(x,y,z)为雷达点云中每一个点在欧式坐标系下的坐标;对于点云中的每一个点都可以通过其(x,y,z)计算其
Figure BDA0003510084130000023
即将欧式坐标系中的点投影到球面坐标系中;此球面坐标系实则是一个二维坐标系,对其角度进行微分化从而得到一个二维的直角坐标系:
Figure BDA0003510084130000024
其中,xi、xj为二维直角坐标系的横、纵坐标,
Figure BDA0003510084130000025
Δθ分别对应
Figure BDA0003510084130000026
θ的分辨率;
通过此球面投影变换,将欧式空间中得任意一点(x,y,z)投影到二维坐标系下的点(xi,xj);提取点云中每一个点的3个特征:欧式坐标(x,y,z),从而得到一个尺寸为(H,W,C)的张量,其中,H为球面投影变换后所得渲染图像的宽,W为该图的长,C=3;以KITTI数据集为例,该数据集使用的是64线激光雷达,因此H=64;水平方向上,受数据集标注范围的限制,使用正前方90°的雷达点云数据,并将其划分为512个网格,即水平采样512个点,因此W=512;
子步骤2:基于残差扩张卷积的编码-解码网络设计
针对非结构化环境语义分割任务,设计了一种基于残差扩张卷积的编码-解码网络;
首先,确定卷积层类型、卷积核大小和卷积步长;
设计扩张卷积层卷积核大小为1×1和3×3,步长均设为1;反卷积层的卷积核大小为3×3,步长为2,使得经过上采样后的特征图与输入分辨率相同;
其次,确定池化层类型、采样尺寸和步长;
采用最大池化操作来对特征图进行下采样,并将采样尺寸设为2×2,步长设为2;
接着,确定dropout层分布;
仅在编码器和解码器的中心层插入dropout;
最后,将上述涉及的不同类型的网络层组合,利用交叉验证法进行模型选择,确定各层的层数、卷积核数量以及扩张卷积的扩张率,得到如下最优网络架构,其中每一个卷积操作都经过ReLU函数激活:
Block1:用32个1×1、扩张率为1的卷积核与512×64×3的输入样本做卷积,得到子特征图1,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做批标准化处理,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图1做逐像素相加,得到维度为512×64×32的特征图;
池化层1:Block2输出的特征图用2×2的最大池化层做下采样,步长为2,得到维度为256×32×32的特征图;
Block2:参照Block1,用64个1×1、扩张率为1的卷积核与池化层1输出的特征图做卷积,得到子特征图2,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图2做逐像素相加,得到维度为256×32×64的特征图;
池化层2:Block2输出的特征图经过dropout后,用2×2的最大池化层做下采样,步长为2,得到维度为128×16×64的特征图;
Block3:参照Block1,用128个1×1、扩张率为1的卷积核与池化层2输出的特征图做卷积,得到子特征图3,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图3做逐像素相加,得到维度为128×16×128的特征图;
池化层3:Block3输出的特征图经过dropout后,用2×2的最大池化层做下采样,步长为2,得到维度为64×8×128的特征图;
Block4:参照Block1,用256个1×1、扩张率为1的卷积核与池化层3输出的特征图做卷积,得到子特征图4,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图4做逐像素相加,得到维度为64×8×256的特征图;
反卷积层1:用128个3×3的卷积核与Block4输出的特征图做卷积并做BN,步长为2,经dropout后与Block3输出的特征图逐像素相加,再经过dropout后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,最后经过dropout得到维度为128×16×128的特征图;
反卷积层2:参照反卷积层1,用64个3×3的卷积核与Block4输出的特征图做卷积并做BN,步长为2,经dropout后与Block3输出的特征图逐像素相加,再经过dropout后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,最后经过dropout得到维度为256×32×64的特征图;
反卷积层3:参照反卷积层1,用32个3×3的卷积核与Block4输出的特征图做卷积并做BN,步长为2,与Block3输出的特征图逐像素相加,再分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,最后得到维度为512×64×32的特征图;
标准卷积层:用3个1×1的卷积核与反卷积层3输出的特征图做卷积,得到维度为512×64×3的特征图,3个通道对应语义类的总数;
Soft-max层:对标准卷积层输出的特征图做像素级分类,得到各类的概率,实现场景的三维语义分割;
子步骤3:损失函数设计
将传统的交叉熵损失用类频次的平方根对其加权,并与Lovasz-Softmax组合作为最终的损失函数,使各类的IoU得分最大化,具体如下式:
Lseg3D=-i1viP3DilogP3Di+1CkJeck3
其中,vi是各类的点数,P3Di和P3Di分别为真值和对应的预测概率,J表示IoU的Lovasz扩展,e(ck)是类ck的误差向量;
(2)基于残差跨层连接的图像分割模块设计;
子步骤1:编码-解码网络设计
为了方便步骤(3)中二维伪语义增强模块中GAN算法的使用,采用与点云分支相同的编码、解码结构以提取图像语义特征和得到各分类概率;
子步骤2:损失函数设计
采用标准交叉熵函数作为监督训练模型的损失函数:
Lseg2D=-1NjP2DjlogP2Dj4
其中P2D(j)和P2Dj分别表示真值和对应的预测值;
(3)基于GAN的二维伪语义增强模块设计;
选择CycleGAN作为二维伪语义增强模块的生成器,它是一种具有循环一致性的跨域图像生成GAN模型,即有两个互为逆矩阵的生成器G:2D→3D,F:3D→2D,和两个判别器D2D、D3D,其中D2D用于区分原始二维语义特征{feature2Dm},即步骤(2)中编码器的输出,与由三维语义特征转换所得的二维伪语义特征{F(feature3Dm)},即步骤(1)中编码器的输出,D3D用于区分原始三维语义特征{feature3Dm}与由二维语义特征转换所得的三维伪语义特征{G(feature2Dm)},使得Cyclic2D=FGfeature2D≈feature2D,Cyclic3D=G(Ffeature3D)≈feature3D;
各映射的对抗损失如下:
Figure BDA0003510084130000051
Figure BDA0003510084130000052
为进一步减小映射函数空间,引入循环一致性损失,使学习到的映射函数具有循环一致性:
LcycleG,F=E2DF(G(feature2Dm))-feature2Dm+E3DG(F(feature3Dm))-feature3Dm6
将其与二维、三维域的对抗损失相结合,得到二维伪语义增强模块的总损失函数如下:
LG,F,D2D,D3D=LGANG,D3D,2D,3D+LGANF,D2D,2D,3D+αLcycleG,F7
其中,α为控制两目标相对重要性的超参数;
(4)网络模型训练与点云语义分割
子步骤1:点云分支训练
采用Adam优化器对网络参数进行迭代训练。优化器初始学习率设为0.01,衰减率设为0.1/20K次迭代,dropout率设为0.5,batchsize设为32,训练epoch设为500;
先利用结构化环境数据集做预训练,所述结构化环境数据集包括KITTI,得到预训练权重,再利用采集的少量非结构化环境数据做进一步训练,得到网络权重;为了增加训练数据的数量,本发明对原始点云做水平翻转、加入随机噪声以及绕z轴随机旋转-5°,5°处理;
子步骤2:图像分支训练
类似点云分支,先利用结构化环境数据集做预训练,所述结构化环境数据集包括KITTI,得到预训练权重,再利用采集的少量非结构化环境数据做进一步训练,得到网络权重;
子步骤3:CycleGAN训练
利用子步骤1、2所得网络权重,生成点云、图像分支编码器的成对输出feature2Dm,feature3Dmm=1M,并利用其对CycleGAN进行监督训练,实现二维、三维语义特征的相互转换;
子步骤4:点云网络再训练
冻结点云分支编码器的参数,利用数据集对添加二维伪语义增强模块后的点云分支解码器进行再次训练,得到最终的网络权重;
子步骤5:点云语义分割
利用子步骤4所得网络权重,对采集到的雷达点云进行在线测试,得到非结构化环境三维点云语义分割结果。
有益效果
1、本发明使用的球面投影方法,在降低索引和计算时间的同时,更有利于点云特征的提取。
2、本发明使用扩张卷积与残差结构,不仅降低了网络结构的复杂度,还可以从网络不同深度的融合特征中挖掘出更多有效信息,从而保证该网络同时兼顾准确性和实时性。
3、本发明使用GAN风格迁移算法,使得图像和点云间的特征信息相互学习,从而弥补了点云数据缺失的色彩、纹理等关键语义信息,实现了点云和图像特征的深度融合。
4、本发明在测试阶段仅使用激光雷达传感器,不受光照和天气的干扰,同时兼顾点云的三维结构信息和图像包含的语义特征信息,提高了算法对不同场景的适应能力。
附图说明
图1是总体方案流程图;
图2是基于跨模态语义增强的点云分割网络示意图;
图3是球面投影示意图;
图4是Block示意图;
图5是反卷积层示意图;
图6是CycleGAN示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
三维场景理解是地面无人系统领域的关键技术,是实现结构化及非结构化环境下安全可靠通过的前提条件。目前较为成熟的技术主要针对城市结构化环境进行设计,针对非结构化环境(例如应急救援场景)的研究较少,技术尚不成熟。在非结构化环境中,没有车道、路面、护栏等结构特征,可行驶区域边界模糊、纹理多样;同时,受到地形、灌木等植被影响,障碍物特征复杂多变且存在遮挡、缺失情况。因此,现有的针对结构化环境设计的算法难以直接应用于非结构环境。
目前,基于深度学习的语义分割任务多采用相机和激光雷达作为其主要的传感数据输入来源。基于相机的非结构化环境语义分割方法,使用的颜色或纹理特征易受光照和天气的干扰,同时三维结构信息的缺失也限制了此类算法在不同场景的适应性。基于激光雷达的语义分割算法,由于点云数据的稀疏性、无序性、分布不均匀性,以及所依赖的的深度和几何信息过于单一,难以区分低分辨率或是具有相似几何特征的物体。而基于图像、雷达融合的方法(输入级、特征级、决策级融合)高度依赖于各输入信号的质量或已有的先验知识,无法适用于复杂多变的非结构化场景。因此,需要提出一种鲁棒的方法来融合不同传感器模态数据以实现非结构化环境的高精度有效三维语义分割。
为解决上述存在的问题,本发明提供基于跨模态语义增强的非结构化环境点云语义分割方法。该方法首先设计一种基于球面投影的点云分割模块,其次设计一种基于残差跨层连接的图像分割模块,接着设计一种基于GAN的二维伪语义增强模块,最后利用样本集对网络进行训练,获得网络参数,从而实现非结构化环境三维点云语义的高效与可靠分割。本发明提出的方法使用球面投影,在降低索引和计算时间的同时,相比其他投影方法(例如鸟瞰图投影)可以生成更为紧凑密集的数据,有利于深度神经网络对于点云特征的提取;残差结构及扩张卷积的使用,不仅降低了网络结构的复杂度,还可以从网络不同深度的融合特征中挖掘出更多有效信息,从而保证该网络同时兼顾点云分割的准确性和实时性;使用GAN风格迁移算法,使得图像和点云间的特征信息相互学习,将点云分割网络的语义特征转换为图像语义特征并作为点云分割网络的语义增强信息,可以弥补其缺失的色彩纹理等关键语义信息,实现点云和图像特征的深度融合;在测试阶段仅采用激光雷达传感器进行场景的语义分割,在不受光照和天气干扰的同时,兼顾图像包含的语义特征信息,提高了分割算法的鲁棒性。总体设计方案和网络示意图如图1、图2所示,具体步骤包括:
(1)基于球面投影的点云分割模块设计
子步骤1:雷达点云预处理
激光雷达点云数据量庞大,且由于环境采样的不均匀,点云的密度变化很大,使得密集的点搜索和索引操作相对耗时。常见的解决方法是将点云投影到二维图像空间中,或是采用栅格化方法将每一帧激光雷达数据转换成一幅伪图像,以生成标准卷积操作所需的结构化矩阵形式。此类方法提高了数据处理的效率,但是损失了大量原始点云及其几何特征,不利于后续网络的特征提取。为保证非结构化环境语义分割的实时性和有效性,本发明采用球面投影对雷达点云做预处理,以生成更为紧凑密集的渲染图像。
本发明中激光雷达的数据点坐标系OXYZ是以雷达中心为原点,载体前进方向为OX轴,按右手定则建立。方位角
Figure BDA0003510084130000071
和顶角θ的计算公式如下:
Figure BDA0003510084130000072
其中,(x,y,z)为雷达点云中每一个点在欧式坐标系下的坐标。对于点云中的每一个点都可以通过其(x,y,z)计算其
Figure BDA0003510084130000073
即将欧式坐标系中的点投影到球面坐标系中。此球面坐标系实则是一个二维坐标系,为了便于理解,对其角度进行微分化从而得到一个二维的直角坐标系:
Figure BDA0003510084130000081
其中,xi、xj为二维直角坐标系的横、纵坐标,
Figure BDA0003510084130000082
Δθ分别对应
Figure BDA0003510084130000083
θ的分辨率。
通过此球面投影变换,可将欧式空间中得任意一点(x,y,z)投影到二维坐标系下的点(xi,xj)。本发明提取点云中每一个点的3个特征:欧式坐标(x,y,z),如图3所示。从而得到一个尺寸为(H,W,C)的张量,其中,H为球面投影变换后所得渲染图像的宽,W为该图的长,C=3。以KITTI数据集为例,该数据集使用的是64线激光雷达,因此H=64;水平方向上,受数据集标注范围的限制,使用正前方90°的雷达点云数据,并将其划分为512个网格(即水平采样512个点),因此W=512。
子步骤2:基于残差扩张卷积的编码-解码网络设计
现有的快速分割网络(例如Enet等)为实现结构化场景的高精度多重语义分割而设计了较深层的复杂结构,且未针对非结构化环境设计,在算法结构和原理上存在缺陷,难以直接应用于非结构环境。为此,本发明针对非结构化环境语义分割任务,设计了一种基于残差扩张卷积的编码-解码网络,具体如图2中点云分支所示。
首先,确定卷积层类型、卷积核大小和卷积步长。
一般而言,网络的特征表达能力随着标准卷积层数量的增加而增强,但堆叠较多的卷积层加大了计算量,实时性降低,网络出现过拟合的风险更大,而卷积层数量少则难以提取到表达能力强的特征。因此,在设计网络的过程中,引入了扩张卷积层。扩张卷积能够极大的扩大网络的感受野而不引入额外的参数,合理设计扩张卷积的扩张率并组合使用,能够使网络学习到完整的道路与障碍物信息。为了使特征图恢复到原始图片大小,同时避免引入大量噪声,设计参数可学习的反卷积层对特征图中深度压缩的特征进行逐层分级解耦。
为了避免因卷积核过大而引入大量的参数,设计扩张卷积层卷积核大小为1×1和3×3,步长均设为1。反卷积层的卷积核大小为3×3,步长为2,使得经过上采样后的特征图与输入分辨率相同。
其次,确定池化层类型、采样尺寸和步长。
为了减少网络的计算量并进一步增加网络的感受野,使其能够感受到更大的目标(例如可行驶区域),本发明引入池化层。最大池化能够保留采样窗口范围内最显著的特征(例如边缘特征),因此采用最大池化操作来对特征图进行下采样,并将采样尺寸设为2×2,步长设为2。
接着,确定dropout层分布。
较低的网络层提取的基本特征为数据分布上一致的边缘和角等特征,而相对于结构化场景,非结构化场景下区分可行驶区域、障碍物与背景的特征较为稀疏,因此仅在编码器和解码器的中心层插入dropout,有利于网络在较深层中形成较好的高级特征。
最后,将上述涉及的不同类型的网络层组合,确定各层的层数、卷积核数量以及扩张卷积的扩张率。
一直以来,神经网络的结构设计都是研究者根据自己的应用场景和需求,参考当前公认性能出色的模型,设计出符合特定需求的网络架构。考虑到非结构化环境语义分割的任务是将可行驶区域、障碍物与背景分割(即三分类),相较于当前大多数面向自动驾驶的多分类语义分割网络而言,其架构应该更加简洁,从而无需堆叠大量的卷积层,以满足准确性和实时性要求。本发明初步确定卷积层层数的取值范围为6~12。
池化层在降低网络计算量的同时也损失了部分空间位置信息,因此其数量需要控制在一定的范围内,使得网络能够在尽可能减少计算量和尽可能保留更多空间位置信息的两者间保持平衡,初步确定池化层层数的取值范围为2~4。因为反卷积层的目的是将缩小了的特征图(由池化层下采样引起)恢复到输入图像大小,所以反卷积层的数量等于池化层的数量。
参考现有的优秀语义分割模型,卷积核的数量大多设为2的整数次幂。卷积核数量越少,网络能够提取到的特征越少,而较大的卷积核数量会引入较多参数,增加了优化难度。为了保持两者平衡,初步确定卷积核数量的范围为24~210。
扩张卷积核的扩张率一般取值为2的整数次幂,扩张率越大,感受野越大,但引入的噪声亦越大,甚至会产生“网格效应”(造成分割不连续甚至漏分割)。因此,本发明初步确定扩张率的取值范围为20~24。
确定扩张率的取值范围后,利用交叉验证法进行模型选择,得到网络性能最佳时所对应的模型架构。在网络设计过程中,不仅综合考虑了卷积层、池化层的类型以及各自层数对边界特征提取的影响,还引入了扩张卷积并对扩张率进行了设计,使其在获得较大感受野的同时,避免了“网格效应”。此外,参考ResNet(He,Kaiming,et al."Deep residuallearning for image recognition."Proceedings of the IEEE conference oncomputer vision and pattern recognition.2016.)、UNet(Ronneberger,Olaf,PhilippFischer,and Thomas Brox."U-net:Convolutional networks for biomedical imagesegmentation."International Conference on Medical image computing andcomputer-assisted intervention.Springer,Cham,2015.)设计了残差结构进行跨层连接,以便让网络从不同深度的融合特征中挖掘出更多有效信息,从而使得网络能够在保证实时性的前提下学习到有意义的、完整的语义特征。由模型选择得到的最优网络架构如下(其中每一个卷积操作都经过ReLU函数激活):
Block1:用32个1×1、扩张率为1的卷积核与512×64×3的输入样本做卷积,得到子特征图1,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做批标准化处理(BN,Batch Normalization),将特征图拼接(concatenation)后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图1做逐像素相加(element-wise addition),得到维度为512×64×32的特征图,具体如图4所示;
池化层1:Block2输出的特征图用2×2的最大池化层做下采样,步长为2,得到维度为256×32×32的特征图;
Block2:参照Block1,用64个1×1、扩张率为1的卷积核与池化层1输出的特征图做卷积,得到子特征图2,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图2做逐像素相加,得到维度为256×32×64的特征图;
池化层2:Block2输出的特征图经过dropout后,用2×2的最大池化层做下采样,步长为2,得到维度为128×16×64的特征图;
Block3:参照Block1,用128个1×1、扩张率为1的卷积核与池化层2输出的特征图做卷积,得到子特征图3,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图3做逐像素相加,得到维度为128×16×128的特征图;
池化层3:Block3输出的特征图经过dropout后,用2×2的最大池化层做下采样,步长为2,得到维度为64×8×128的特征图;
Block4:参照Block1,用256个1×1、扩张率为1的卷积核与池化层3输出的特征图做卷积,得到子特征图4,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图4做逐像素相加,得到维度为64×8×256的特征图;
反卷积层1:用128个3×3的卷积核与Block4输出的特征图做卷积并做BN,步长为2,经dropout后与Block3输出的特征图逐像素相加,再经过dropout后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,最后经过dropout得到维度为128×16×128的特征图,具体如图5所示;
反卷积层2:参照反卷积层1,用64个3×3的卷积核与Block4输出的特征图做卷积并做BN,步长为2,经dropout后与Block3输出的特征图逐像素相加,再经过dropout后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,最后经过dropout得到维度为256×32×64的特征图;
反卷积层3:参照反卷积层1,用32个3×3的卷积核与Block4输出的特征图做卷积并做BN,步长为2,与Block3输出的特征图逐像素相加,再分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,最后得到维度为512×64×32的特征图;
标准卷积层:用3个1×1的卷积核与反卷积层3输出的特征图做卷积,得到维度为512×64×3的特征图,3个通道对应语义类的总数;
Soft-max层:对标准卷积层输出的特征图做像素级分类,得到各类的概率,实现场景的三维语义分割。
子步骤3:损失函数设计
本发明将传统的交叉熵损失用类频次的平方根对其加权,并与Lovasz-Softmax组合作为最终的损失函数,使各类的IoU得分最大化,具体如下式:
Lseg3D=-i1viP3DilogP3Di+1CkJeck3
其中,vi是各类的点数,P3Di和P3Di分别为真值和对应的预测概率,J表示IoU的Lovasz扩展,e(ck)是类ck的误差向量;
(2)基于残差跨层连接的图像分割模块设计
子步骤1:编码-解码网络设计
为了方便步骤(3)中二维伪语义增强模块中GAN算法的使用,采用与点云分支相同的编码、解码结构以提取图像语义特征和得到各分类概率;
子步骤2:损失函数设计
本发明采用标准交叉熵函数作为监督训练模型的损失函数:
Lseg2D=-1NjP2DjlogP2Dj4
其中P2D(j)和P2Dj分别表示真值和对应的预测值;
(3)基于GAN的二维伪语义增强模块设计
本发明选择CycleGAN作为二维伪语义增强模块的生成器,它是一种具有循环一致性的跨域图像生成GAN模型,如图6所示,即有两个互为逆矩阵的生成器G:2D→3D,F:3D→2D,和两个判别器D2D、D3D,其中D2D用于区分原始二维语义特征{feature2Dm}(即步骤(2)中编码器的输出)与由三维语义特征转换所得的二维伪语义特征{F(feature3Dm)}(即步骤(1)中编码器的输出),D3D用于区分原始三维语义特征{feature3Dm}与由二维语义特征转换所得的三维伪语义特征{G(feature2Dm)},使得Cyclic2D=FGfeature2D≈feature2D,Cyclic3D=G(Ffeature3D)≈feature3D;
各映射的对抗损失如下:
Figure BDA0003510084130000121
Figure BDA0003510084130000122
为进一步减小可能的映射函数空间,引入循环一致性损失,使学习到的映射函数具有循环一致性:
LcycleG,F=E2DF(G(feature2Dm))-feature2Dm+E3DG(F(feature3Dm))-feature3Dm6
将其与二维、三维域的对抗损失相结合,得到二维伪语义增强模块的总损失函数如下:
LG,F,D2D,D3D=LGANG,D3D,2D,3D+LGANF,D2D,2D,3D+αLcycleG,F7
其中,α为控制两目标相对重要性的超参数;
(4)网络模型训练与点云语义分割
子步骤1:点云分支训练
本发明采用Adam优化器对网络参数进行迭代训练。优化器初始学习率设为0.01,衰减率设为0.1/20K次迭代,dropout率设为0.5,batchsize设为32,训练epoch设为500;
利用结构化环境数据集(例如KITTI)做预训练,得到预训练权重,再利用采集的少量非结构化环境数据做进一步训练,得到网络权重;为了增加训练数据的数量,本发明对原始点云做水平翻转、加入随机噪声以及绕z轴随机旋转-5°,5°处理;
子步骤2:图像分支训练
类似点云分支,先利用结构化环境数据集(例如KITTI)做预训练,得到预训练权重,再利用采集的少量非结构化环境数据做进一步训练,得到网络权重;
子步骤3:CycleGAN训练
利用子步骤1、2所得网络权重,生成点云、图像分支编码器的成对输出feature2Dm,feature3Dmm=1M,并利用其对CycleGAN进行监督训练,实现二维、三维语义特征的相互转换;
子步骤4:点云网络再训练
冻结点云分支编码器的参数,利用数据集对添加二维伪语义增强模块后的点云分支解码器进行再次训练,得到最终的网络权重;
子步骤5:点云语义分割
利用子步骤4所得网络权重,对采集到的雷达点云进行在线测试,得到非结构化环境三维点云语义分割结果。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (1)

1.基于跨模态语义增强的非结构化环境点云语义分割方法,其特征在于:包含如下步骤:
(1)基于球面投影的点云分割模块设计;
子步骤1:雷达点云预处理
激光雷达的数据点坐标系OXYZ是以雷达中心为原点,载体前进方向为OX轴,按右手定则建立;方位角
Figure FDA0003510084120000011
和顶角θ的计算公式如下:
Figure FDA0003510084120000012
其中,(x,y,z)为雷达点云中每一个点在欧式坐标系下的坐标;对于点云中的每一个点都可以通过其(x,y,z)计算其
Figure FDA0003510084120000013
即将欧式坐标系中的点投影到球面坐标系中;此球面坐标系实则是一个二维坐标系,对其角度进行微分化从而得到一个二维的直角坐标系:
Figure FDA0003510084120000014
其中,xi、xj为二维直角坐标系的横、纵坐标,
Figure FDA0003510084120000015
Δθ分别对应
Figure FDA0003510084120000016
θ的分辨率;
通过此球面投影变换,将欧式空间中得任意一点(x,y,z)投影到二维坐标系下的点(xi,xj);提取点云中每一个点的3个特征:欧式坐标(x,y,z),从而得到一个尺寸为(H,W,C)的张量,其中,H为球面投影变换后所得渲染图像的宽,W为该图的长,C=3;以KITTI数据集为例,该数据集使用的是64线激光雷达,因此H=64;水平方向上,受数据集标注范围的限制,使用正前方90°的雷达点云数据,并将其划分为512个网格,即水平采样512个点,因此W=512;
子步骤2:基于残差扩张卷积的编码-解码网络设计
针对非结构化环境语义分割任务,设计了一种基于残差扩张卷积的编码-解码网络;
首先,确定卷积层类型、卷积核大小和卷积步长;
设计扩张卷积层卷积核大小为1×1和3×3,步长均设为1;反卷积层的卷积核大小为3×3,步长为2,使得经过上采样后的特征图与输入分辨率相同;
其次,确定池化层类型、采样尺寸和步长;
采用最大池化操作来对特征图进行下采样,并将采样尺寸设为2×2,步长设为2;
接着,确定dropout层分布;
仅在编码器和解码器的中心层插入dropout;
最后,将上述涉及的不同类型的网络层组合,利用交叉验证法进行模型选择,确定各层的层数、卷积核数量以及扩张卷积的扩张率,得到如下最优网络架构,其中每一个卷积操作都经过ReLU函数激活:
Block1:用32个1×1、扩张率为1的卷积核与512×64×3的输入样本做卷积,得到子特征图1,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做批标准化处理,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图1做逐像素相加,得到维度为512×64×32的特征图;
池化层1:Block2输出的特征图用2×2的最大池化层做下采样,步长为2,得到维度为256×32×32的特征图;
Block2:参照Block1,用64个1×1、扩张率为1的卷积核与池化层1输出的特征图做卷积,得到子特征图2,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图2做逐像素相加,得到维度为256×32×64的特征图;
池化层2:Block2输出的特征图经过dropout后,用2×2的最大池化层做下采样,步长为2,得到维度为128×16×64的特征图;
Block3:参照Block1,用128个1×1、扩张率为1的卷积核与池化层2输出的特征图做卷积,得到子特征图3,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图3做逐像素相加,得到维度为128×16×128的特征图;
池化层3:Block3输出的特征图经过dropout后,用2×2的最大池化层做下采样,步长为2,得到维度为64×8×128的特征图;
Block4:参照Block1,用256个1×1、扩张率为1的卷积核与池化层3输出的特征图做卷积,得到子特征图4,之后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,再与子特征图4做逐像素相加,得到维度为64×8×256的特征图;
反卷积层1:用128个3×3的卷积核与Block4输出的特征图做卷积并做BN,步长为2,经dropout后与Block3输出的特征图逐像素相加,再经过dropout后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,最后经过dropout得到维度为128×16×128的特征图;
反卷积层2:参照反卷积层1,用64个3×3的卷积核与Block4输出的特征图做卷积并做BN,步长为2,经dropout后与Block3输出的特征图逐像素相加,再经过dropout后分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,最后经过dropout得到维度为256×32×64的特征图;
反卷积层3:参照反卷积层1,用32个3×3的卷积核与Block4输出的特征图做卷积并做BN,步长为2,与Block3输出的特征图逐像素相加,再分别与3×3、扩张率为1以及3×3、扩张率为2的卷积核做卷积并做BN,将特征图拼接后与1×1、扩张率为1的卷积核做卷积并做BN,最后得到维度为512×64×32的特征图;
标准卷积层:用3个1×1的卷积核与反卷积层3输出的特征图做卷积,得到维度为512×64×3的特征图,3个通道对应语义类的总数;
Soft-max层:对标准卷积层输出的特征图做像素级分类,得到各类的概率,实现场景的三维语义分割;
子步骤3:损失函数设计
将传统的交叉熵损失用类频次的平方根对其加权,并与Lovasz-Softmax组合作为最终的损失函数,使各类的IoU得分最大化,具体如下式:
Lseg3D=-i1viP3DilogP3Di+1CkJeck3
其中,vi是各类的点数,P3Di和P3Di分别为真值和对应的预测概率,J表示IoU的Lovasz扩展,e(ck)是类ck的误差向量;
(2)基于残差跨层连接的图像分割模块设计;
子步骤1:编码-解码网络设计
为了方便步骤(3)中二维伪语义增强模块中GAN算法的使用,采用与点云分支相同的编码、解码结构以提取图像语义特征和得到各分类概率;
子步骤2:损失函数设计
采用标准交叉熵函数作为监督训练模型的损失函数:
Lseg2D=-1NjP2DjlogP2Dj4
其中P2D(j)和P2Dj分别表示真值和对应的预测值;
(3)基于GAN的二维伪语义增强模块设计;
选择CycleGAN作为二维伪语义增强模块的生成器,它是一种具有循环一致性的跨域图像生成GAN模型,即有两个互为逆矩阵的生成器G:2D→3D,F:3D→2D,和两个判别器D2D、D3D,其中D2D用于区分原始二维语义特征{feature2Dm},即步骤(2)中编码器的输出,与由三维语义特征转换所得的二维伪语义特征{F(feature3Dm)},即步骤(1)中编码器的输出,D3D用于区分原始三维语义特征{feature3Dm}与由二维语义特征转换所得的三维伪语义特征{G(feature2Dm)},使得Cyclic2D=FGfeature2D≈feature2D,Cyclic3D=G(Ffeature3D)≈feature3D;
各映射的对抗损失如下:
Figure FDA0003510084120000051
为进一步减小映射函数空间,引入循环一致性损失,使学习到的映射函数具有循环一致性:
LcycleG,F=E2DF(G(feature2Dm))-feature2Dm+E3DG(F(feature3Dm))-feature3Dm6
将其与二维、三维域的对抗损失相结合,得到二维伪语义增强模块的总损失函数如下:
LG,F,D2D,D3D=LGANG,D3D,2D,3D+LGANF,D2D,2D,3D+αLcycleG,F7
其中,α为控制两目标相对重要性的超参数;
(4)网络模型训练与点云语义分割
子步骤1:点云分支训练
采用Adam优化器对网络参数进行迭代训练。优化器初始学习率设为0.01,衰减率设为0.1/20K次迭代,dropout率设为0.5,batchsize设为32,训练epoch设为500;
先利用结构化环境数据集做预训练,所述结构化环境数据集包括KITTI,得到预训练权重,再利用采集的少量非结构化环境数据做进一步训练,得到网络权重;为了增加训练数据的数量,本发明对原始点云做水平翻转、加入随机噪声以及绕z轴随机旋转-5°,5°处理;
子步骤2:图像分支训练
类似点云分支,先利用结构化环境数据集做预训练,所述结构化环境数据集包括KITTI,得到预训练权重,再利用采集的少量非结构化环境数据做进一步训练,得到网络权重;
子步骤3:CycleGAN训练
利用子步骤1、2所得网络权重,生成点云、图像分支编码器的成对输出feature2Dm,feature3Dmm=1M,并利用其对CycleGAN进行监督训练,实现二维、三维语义特征的相互转换;
子步骤4:点云网络再训练
冻结点云分支编码器的参数,利用数据集对添加二维伪语义增强模块后的点云分支解码器进行再次训练,得到最终的网络权重;
子步骤5:点云语义分割
利用子步骤4所得网络权重,对采集到的雷达点云进行在线测试,得到非结构化环境三维点云语义分割结果。
CN202210150326.7A 2022-02-18 2022-02-18 基于跨模态语义增强的非结构化环境点云语义分割方法 Pending CN114549537A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210150326.7A CN114549537A (zh) 2022-02-18 2022-02-18 基于跨模态语义增强的非结构化环境点云语义分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210150326.7A CN114549537A (zh) 2022-02-18 2022-02-18 基于跨模态语义增强的非结构化环境点云语义分割方法

Publications (1)

Publication Number Publication Date
CN114549537A true CN114549537A (zh) 2022-05-27

Family

ID=81675017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210150326.7A Pending CN114549537A (zh) 2022-02-18 2022-02-18 基于跨模态语义增强的非结构化环境点云语义分割方法

Country Status (1)

Country Link
CN (1) CN114549537A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972763A (zh) * 2022-07-28 2022-08-30 香港中文大学(深圳)未来智联网络研究院 激光雷达点云分割方法、装置、设备及存储介质
CN116229057A (zh) * 2022-12-22 2023-06-06 之江实验室 一种基于深度学习的三维激光雷达点云语义分割的方法和装置
CN116403058A (zh) * 2023-06-09 2023-07-07 昆明理工大学 一种遥感跨场景多光谱激光雷达点云分类方法
CN117523547A (zh) * 2024-01-04 2024-02-06 山东省凯麟环保设备股份有限公司 一种三维场景语义感知方法、系统、设备与介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972763A (zh) * 2022-07-28 2022-08-30 香港中文大学(深圳)未来智联网络研究院 激光雷达点云分割方法、装置、设备及存储介质
CN116229057A (zh) * 2022-12-22 2023-06-06 之江实验室 一种基于深度学习的三维激光雷达点云语义分割的方法和装置
CN116229057B (zh) * 2022-12-22 2023-10-27 之江实验室 一种基于深度学习的三维激光雷达点云语义分割的方法和装置
CN116403058A (zh) * 2023-06-09 2023-07-07 昆明理工大学 一种遥感跨场景多光谱激光雷达点云分类方法
CN116403058B (zh) * 2023-06-09 2023-09-12 昆明理工大学 一种遥感跨场景多光谱激光雷达点云分类方法
CN117523547A (zh) * 2024-01-04 2024-02-06 山东省凯麟环保设备股份有限公司 一种三维场景语义感知方法、系统、设备与介质
CN117523547B (zh) * 2024-01-04 2024-03-29 山东省凯麟环保设备股份有限公司 一种三维场景语义感知方法、系统、设备与介质

Similar Documents

Publication Publication Date Title
CN111832655B (zh) 一种基于特征金字塔网络的多尺度三维目标检测方法
CN114549537A (zh) 基于跨模态语义增强的非结构化环境点云语义分割方法
CN113850270B (zh) 基于点云-体素聚合网络模型的语义场景补全方法及系统
CN111899172A (zh) 一种面向遥感应用场景的车辆目标检测方法
EP3690744B1 (en) Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same
Wang et al. An overview of 3d object detection
Chen et al. NIGAN: A framework for mountain road extraction integrating remote sensing road-scene neighborhood probability enhancements and improved conditional generative adversarial network
Li et al. ADR-MVSNet: A cascade network for 3D point cloud reconstruction with pixel occlusion
Ouyang et al. A cgans-based scene reconstruction model using lidar point cloud
Deng et al. Fusing geometrical and visual information via superpoints for the semantic segmentation of 3D road scenes
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
CN115511759A (zh) 一种基于级联特征交互的点云图像深度补全方法
Xu et al. Classification of 3-D point clouds by a new augmentation convolutional neural network
Tian et al. A 3d object recognition method from lidar point cloud based on usae-bls
CN114494395A (zh) 基于平面先验的深度图生成方法、装置、设备及存储介质
Wang et al. PVF-DectNet: Multi-modal 3D detection network based on Perspective-Voxel fusion
CN112950786A (zh) 一种基于神经网络的车辆三维重建方法
CN116503602A (zh) 基于多层级边缘增强的非结构化环境三维点云语义分割方法
CN112749662B (zh) 一种基于激光雷达的非结构化环境可行驶区域提取方法
Lei et al. Automatic identification of street trees with improved RandLA-Net and accurate calculation of shading area with density-based iterative α-shape
Li et al. Monocular 3-D Object Detection Based on Depth-Guided Local Convolution for Smart Payment in D2D Systems
Lu et al. Monocular semantic occupancy grid mapping with convolutional variational auto-encoders
Endo et al. High definition map aided object detection for autonomous driving in urban areas
CN116468950A (zh) 一种类别引导中心点邻域搜索半径的三维目标检测方法
Jung et al. Fast point clouds upsampling with uncertainty quantification for autonomous vehicles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination