CN113762195A - 一种基于路侧rsu的点云语义分割与理解方法 - Google Patents

一种基于路侧rsu的点云语义分割与理解方法 Download PDF

Info

Publication number
CN113762195A
CN113762195A CN202111084371.9A CN202111084371A CN113762195A CN 113762195 A CN113762195 A CN 113762195A CN 202111084371 A CN202111084371 A CN 202111084371A CN 113762195 A CN113762195 A CN 113762195A
Authority
CN
China
Prior art keywords
point cloud
semantic segmentation
image
mapping
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111084371.9A
Other languages
English (en)
Inventor
曾新华
应雨希
宋梁
商慧亮
张冠华
蒋林华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202111084371.9A priority Critical patent/CN113762195A/zh
Publication of CN113762195A publication Critical patent/CN113762195A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于路侧RSU的点云语义分割与理解方法;该方法包括以下步骤:步骤一、获取道路场景点云数据,基于球映射的方法,将3D点云转换为2D距离图像;步骤二、对2D距离图像进行2D全卷积语义分割,获得2D图片语义分割的结果;步骤三、将2D图片语义分割的结果用距离信息、像素坐标和传感器参数映射到3D空间中,2D距离图像与对应于每个点的图像坐标进行配对和索引;步骤四、基于3D后处理清除一些错误的离散化点,获取最终3D点云的语义分割结果。本发明方法能够准确、快速的、实时的实现移动小目标的点云语义分割,使自主机器能够及时做出决策。

Description

一种基于路侧RSU的点云语义分割与理解方法
技术领域
本发明涉及自动驾驶技术领域,具体的说,涉及一种基于路侧RSU的点云语义分割与理解方法。
背景技术
语义分割与理解是自动驾驶系统领域中一个核心的技术,通过对3D点云的语义理解将道路环境点云数据进行分割,识别出汽车、行人、路牌、电线杆等物体以及道路施工、路面坑洼、交通事故等路面情况,帮助车辆更好的理解所处的驾驶道路环境。通过对汽车周围环境的准确理解,保证行驶的安全性。
自动驾驶场景中基于3D点云的语义理解系统一般分为五个步骤:点云采集、点云预处理、点云分割、点云重建、点云后处理。传统的点云分割方法一般可分为基于边缘、区域增长、属性聚类、模型拟合以及基于图的算法。但这些算法分割精度低且受点云分布密度影响大,现有的技术通常采用各种深度学习网络模型,将拍摄到的路面图像输入到神经网络中,通过计算机对图像中的物体进行像素级别的分割归类,以实现避让行人和车辆等障碍。
近年来,语义分割领域典型的Deeplabv3和PSPNet架构计算成本太高,无法在自主系统上实时运行。多数深度学习网络如PointNet及PointNet++多用于静态点云,在动态连续的自动驾驶场景中较少使用,实时性不高。随后的VGG、ReNet和ResNet等经典模型对于图像分割效果较好,但对于无序的3D点云数据效果不佳。同时,多数深度学习方法对于大类点云分割效果好,但由于数据城市景观数据集上具有多尺度变化的挑战,在城市道路场景中需要分割算法具有很高的准确度,尤其是在物体的边界处,比如在城市道路中有很多尺度大小不一的目标,不同尺度的目标尤其是小尺度目标会给精细化分割带来很多困难,道路场景中会出现小目标(如行人等),这些小目标占比少,且易与背景混淆,对这些小目标不能进行很准确的语义分割。
综上所述,现有技术存在以下缺点:①使用复杂的网络架构,计算复杂度高,实时性较差;②对于移动小目标(行人等)、以及多目标重叠现象难以得到准确分割;③点云存储量大,不适用于大场景语义分割。
发明内容
针对现有技术的不足,本发明的目的在于提供一种新的基于路侧RSU的点云语义分割与理解方法;本发明利用投影方法,基于图形处理器GPU的最近邻KNN快速搜索,以传感器帧率(约10Hz)或更快的速度准确分割整个雷达扫描点云,使用每个激光扫描的距离图像和2D CNN处理,对离散化错误数据消除,将结果重新投影到3D点云,实现对无人驾驶环境中的语义分割,其具有准确、快速和实时等优点,能解决自动驾驶道路场景中小目标语义分割效果不佳且实时性不好的问题,使自主机器能够及时做出决策。本发明的技术方案具体介绍如下。
一种基于路侧RSU的点云语义分割与理解方法,具体步骤如下:
步骤一、获取道路场景点云数据,基于球映射的方法,将3D点云转换为2D距离图像;
步骤二、对2D距离图像进行2D全卷积语义分割,获得2D图片语义分割的结果;
步骤三、将2D图片语义分割的结果用距离信息、像素坐标和传感器参数映射到3D空间中,2D距离图像与对应于每个点的图像坐标进行配对和索引;
步骤四、基于3D后处理清除一些错误的离散化点,获取最终3D点云的语义分割结果。
本发明中,步骤一中,采用RSU整合高清摄像头和微波雷达装置,将信息实时上传给云端,获取道路场景点云数据,得到道路、车辆、行人和障碍物的准确位置信息;其中,雷达以类似距离图像的方式表示原始输入数据,每一列代表一组激光测距仪在某一点上测量的距离,每一行代表每个激光测距仪不同的角度位置,这些激光测距仪以恒定的速率发射。
本发明中,步骤一中,基于球映射的方法将3D点云转换为2D距离图像时,将每一个点云通过映射转换为球坐标,然后转换为2D图像坐标;
将(x,y,z)映射为(u,v)的球映射公式如下:
Figure BDA0003265026780000021
其中:
w,h是2D距离图像的宽和高;
fup是雷达垂直方向上的上视角;
r=||Pi||2表示一个点到雷达的3D距离,i代表第i个点云,Pi代表偏斜点云的坐标;
将以上得到的所有(u,v)坐标组成一个队列保存起来,得到这一范围内的图像表示的点云。
本发明中,步骤二中,对二维语义分割CNN网络进行修改,采用编码器-解码器的沙漏型架构,以Darknet21作为骨干网络,来提取输入图像的多层次特征;将转换后的数据输入带有显著下采样编码器的2D语义分割CNN网络,获得较好的特征提取能力;利用不同规模的池化操作提取丰富的语义信息,在最后一个卷积层和全连接层中间,在卷积层和全连接层加一个空间金字塔池化层,改进不同尺度目标边缘分割的精确性,在距离图像上进行2D全卷积语义分割。
本发明中,步骤二中,经过水平方向的下采样,距离图像中每个像素的概率分布为:
Figure BDA0003265026780000031
MLogit表示Logit模型;
FL损失函数优化训练,重点学习和提取困难样本特征,具体公式为:
FL(Pi)=-αt(1-Pi)γ1b(Pi)
其中γ表示注意力参数,p是类别预测概率,αt为类别权重,Pi代表偏斜点云的坐标。
本发明中,步骤四中,3D后处理时采用KNN搜索算法,将语义点云中的每一个点进行与它最接近的k个点进行一致投票,对2D转换到3D过程中出现的一些物体边缘部分的错误结果进行修正。
和现有技术相比,本发明的有益效果在于:
①本发明通过对点云的球形投影,将输入点云转换为距离图像,使输入语义分割网络架构的点数大大减少,例如将130000个点投影到[64*512]范围图像后将只代表32768个点,这可以在GPU中以极快的速度进行,可以实现对整个点云的快速搜索,适用于大场景的点云分割;
②针对点云小目标分割效果不佳问题进行改进,采用空间金字塔池化算法,实现多尺度的目标检测,对移动小目标的语义分割达到了更高的准确率。
③利用距离图像和2D卷积以及GPU加速的后处理方法,只需要较小的内存和少量的参数,在准确度和速度之间取得良好的平衡,能够很好的保证系统的实时性。同时后处理方法可以恢复激光扫描中丢失的重要边界信息,改善离散化结果。
综上,本发明具有参数较少、运算速度快、内存消耗少且对于行人这类多尺度障碍物分割效果佳等特点,更符合车载场景需求,可广泛应用于在道路行人检测语义理解系统中,实现对道路场景中行人等重要移动小目标实时准确分割。
附图说明
下面结合附图对本技术方案作进一步说明:
图1:系统流程图。
图2:金字塔变换层原理图。
图3:全卷积语义分割结构,对距离图像进行语义分割。由于激光雷达扫描垂直方向采集的点不多,而在水平方向可以任意旋转360度采集数据,因此,为了防止垂直方向的信息丢失,采用沙漏形状网络,系统在上采样和下采样的过程中,只在宽度上进行操作,保持高度不变。
图4:系统处理流程,采用Darknet21对深度图进行特征提取和语义分割,将转化后的数据输入带有显著下采样编码器的2D语义分割CNN。
图5采用Darknet21骨架和Darknet53骨架对重要小目标语义分割效果对比图。
具体实施方式
下面结合附图和实施例对本发明的技术方案进行详细介绍。
本发明通过RSU参与到车辆定位中作为差分基站,和GPS、卫星等联合,因为RSU的加入,对GPS定位数据进行核对矫正,实现更精确的定位。对于车联网系统来说,对车辆位置信息的高质量、高精确的数据非常有价值。同时RSU也承担了一些数据处理功能,对自动驾驶来说,每辆车每秒会产生近1GB的数据量,RSU的边缘计算可以提高运算的效率和实时性。采集到点云数据后,对点云数据进行球面投影后得到深度图,输入到卷积神经网络CNN中进行特征提取,而CNN的输入需要固定的图像尺寸,不能适用于尺度不一致的障碍物检测,因此加入空间金字塔池化算法,利用多个具有不同速率的并行分支来捕获多尺度的上下文,实现多尺度目标检测、实时高精度的城市道路场景语义分割方法,本文提出的框架在大型点云场景下可以更有效地实现语义分割。
本发明的语义分割系统主要由四个部分组成:RSU协同点云数据采集装置、基于球投影的距离图像表示、带金字塔池化算法的语义分割网络、点云后处理算法。本发明的方法分为四个步骤(如图1所示):
1.球映射:将输入点云基于球映射的方法,将3D点云数据转换为2D距离图像;
2.语义分割:在距离图像上进行2D全卷积语义分割2;
3.点云重建:将2D语义信息转换到3D点云上;
4.基于距离图像的3D后处理,来清除一些错误的离散化点。
本发明通过以下具体技术路线来实现:
采用RSU整合高清摄像头和微波雷达装置,将信息实时上传给云端,获取道路场景点云数据,得到道路、车辆、行人和障碍物等的准确位置信息。雷达以类似距离图像的方式表示原始输入数据,每一列代表一组激光测距仪在某一点上测量的距离,每一行代表每个测距仪不同的角度位置,这些测距仪以恒定的速率发射,在高速行驶的车辆中,必须考虑车辆的运动,因此点云不再只包含像素的距离测量值,而是包含其他像素的多个测量值,为了获得完整的雷达点云准确语义分割,首先将每一个点云通过映射转换为球坐标,最后转换为2D图像坐标。
将(x,y,z)映射为(u,v)的球映射公式如下:
Figure BDA0003265026780000051
其中:
w,h是2D距离图像的宽和高;
fup是雷达垂直方向上的上视角;
r=||Pi||2表示一个点到雷达的3D距离,其中i代表第i个点云,Pi代表偏斜点云的坐标。
将以上得到的所有(u,v)坐标组成一个队列保存起来。
得到这一范围内的图像表示的点云后,本发明对二维语义分割CNN网络进行修改。2D全卷积语义分割网络架构(图3),输入为球坐标映射得到的深度图。由于激光雷达扫描垂直方向采集的点不多,而在水平方向可以任意旋转360度采集数据,因此,为了防止垂直方向的信息丢失,采用编码器-解码器的沙漏型架构,系统在上采样和下采样的过程中,只在宽度上进行操作,保持高度不变。全卷积网络将每一个偏斜点云Pi=(x,y,z)转换为距离表示,通过球映射转换到图像坐标系的深度图,对深度图进行特征提取和语义分割。
以Darknet21作为骨干网络,用来提取输入图像的多层次特征,将转换后的数据输入带有显著下采样编码器的2D语义分割CNN网络,获得较好的特征提取能力(图4)。经过水平方向的下采样,距离图像中每个像素的概率分布为:
Figure BDA0003265026780000052
其中,MLogit表示Logit模型。
FL损失函数优化训练,重点学习和提取困难样本特征,具体公式为:
FL(Pi)=-αt(1-Pi)γ1b(Pi)
其中γ表示注意力参数,p是类别预测概率,αt为类别权重。
利用不同规模的池化操作提取丰富的语义信息,在最后一个卷积层和全连接层中间,在卷积层和全连接层加一个空间金字塔池化层,改进不同尺度目标边缘分割的精确性,在距离图像上进行2D全卷积语义分割(图2)。
经过点云重建,用距离信息、像素坐标和传感器参数来实现将2D图片语义分割的结果,映射到3D空间中,将距离图像与对应于每个点的图像坐标进行配对和索引,用KNN算法获取最终3D点云的语义分割结果。
在点云存储过程中,在同一范围图像像素中会存在两个或两个以上的点将获得相同的语义标签,推断出的点云标签在背景物体中会呈现出阴影,为了解决这个模糊和离散化问题,本发明通过点云后处理,采用一种快速的、gpu支持、KNN搜索算法,将语义点云中的每一个点进行与它最接近的k个点进行一致投票,对2D转换到3D过程中出现的一些物体边缘部分的错误结果进行修正。
对SemanticKITTI测试数据集进行了测试,完成了对车辆行驶过程中动态场景的实时精准语义分割。为了进一步说明本发明方法对重要小目标语义分割的性能,对比了使用方法一(Darknet21骨架)和方法二(Darknet53骨架)。
方法一在点云稀疏且类别杂乱的情况下能够将行人等移动小目标分割出来,而方法二出现了人和栅栏误分类的情况(图5)。结合实际出行情况,本发明方法对驾驶场景下行人类别分割效果良好且清晰完整,中间的人物头部和四肢清晰可见。
将采用均交并比值(mIoU)作为评价指标展示语义分割效果,公式如下:
Figure BDA0003265026780000061
其中TP代表预测为正且预测正确的数量,TN代表预测为负且预测正确的数量,FP代表预测为负且预测错误的数量。mIoU表示了测试结果的集合和真实结果集合的交集与并集的比值,即检测的准确率;结果如表1所示。
表1
Figure BDA0003265026780000062
Figure BDA0003265026780000071
本发明使用卷积层数更少的Darknet21骨架,相比于结构复杂、对GPU要求更高的Darknet53来说,提高了分割效率,节约了计算资源。在对道路场景点云全语义分割的基础上,提高了重要但体量较小且不规则的小目标识别和分割效果。

Claims (6)

1.一种基于路侧RSU的点云语义分割与理解方法,其特征在于,具体步骤如下:
步骤一、获取道路场景点云数据,基于球映射的方法,将3D点云转换为2D距离图像;
步骤二、对2D距离图像进行2D全卷积语义分割,获得2D图片语义分割的结果;
步骤三、将2D图片语义分割的结果用距离信息、像素坐标和传感器参数映射到3D空间中,2D距离图像与对应于每个点的图像坐标进行配对和索引;
步骤四、基于3D后处理清除一些错误的离散化点,获取最终3D点云的语义分割结果。
2.根据权利要求1所述的点云语义分割与理解方法,其特征在于,步骤一中,采用RSU整合高清摄像头和微波雷达装置,将信息实时上传给云端,获取道路场景点云数据,得到道路、车辆、行人和障碍物的准确位置信息;其中,雷达以类似距离图像的方式表示原始输入数据,每一列代表一组激光测距仪在某一点上测量的距离,每一行代表每个激光测距仪不同的角度位置,这些激光测距仪以恒定的速率发射。
3.根据权利要求1所述的点云语义分割与理解方法,其特征在于,步骤一中,基于球映射的方法将3D点云转换为2D距离图像时,将每一个点云通过映射转换为球坐标,然后转换为2D图像坐标;
将(x,y,z)映射为(u,v)的球映射公式如下:
Figure FDA0003265026770000011
其中:
w,h是2D距离图像的宽和高;
fup是雷达垂直方向上的上视角;
r=||Pi||2表示一个点到雷达的3D距离,其中i代表第i个点云,Pi代表偏斜点云的坐标;
将以上得到的所有(u,v)坐标组成一个队列保存起来,得到这一范围内的图像表示的点云。
4.根据权利要求1所述的点云语义分割与理解方法,其特征在于,步骤二中,对2D语义分割CNN网络进行修改,采用编码器-解码器的沙漏型架构,以Darknet21作为骨干网络,来提取输入图像的多层次特征;将转换后的数据输入带有显著下采样编码器的2D语义分割CNN网络,获得较好的特征提取能力;利用不同规模的池化操作提取丰富的语义信息,在最后一个卷积层和全连接层中间,在卷积层和全连接层加一个空间金字塔池化层,改进不同尺度目标边缘分割的精确性,在距离图像上进行2D全卷积语义分割。
5.根据权利要求4所述的点云语义分割与理解方法,其特征在于,经过水平方向的下采样,距离图像中每个像素的概率分布为:
Figure FDA0003265026770000021
MLogit表示Logit模型;
FL损失函数优化训练,重点学习和提取困难样本特征,具体公式为:
FL(Pi)=-αt(1-Pi)γ1b(Pi)
其中γ表示注意力参数,p是类别预测概率,αt为类别权重,Pi代表偏斜点云的坐标。
6.根据权利要求1所述的点云语义分割与理解方法,其特征在于,步骤四中,3D后处理时采用KNN搜索算法,将语义点云中的每一个点进行与它最接近的k个点进行一致投票,对2D转换到3D过程中出现的一些物体边缘部分的错误结果进行修正。
CN202111084371.9A 2021-09-16 2021-09-16 一种基于路侧rsu的点云语义分割与理解方法 Pending CN113762195A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111084371.9A CN113762195A (zh) 2021-09-16 2021-09-16 一种基于路侧rsu的点云语义分割与理解方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111084371.9A CN113762195A (zh) 2021-09-16 2021-09-16 一种基于路侧rsu的点云语义分割与理解方法

Publications (1)

Publication Number Publication Date
CN113762195A true CN113762195A (zh) 2021-12-07

Family

ID=78795970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111084371.9A Pending CN113762195A (zh) 2021-09-16 2021-09-16 一种基于路侧rsu的点云语义分割与理解方法

Country Status (1)

Country Link
CN (1) CN113762195A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024001093A1 (zh) * 2022-07-01 2024-01-04 北京京东乾石科技有限公司 语义分割、环境感知方法、装置和无人车

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410307A (zh) * 2018-10-16 2019-03-01 大连理工大学 一种场景点云语义分割方法
CN110083163A (zh) * 2019-05-20 2019-08-02 三亚学院 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及系统
CN110310298A (zh) * 2019-06-21 2019-10-08 西安电子科技大学 一种基于循环条件随机场的道路目标实时三维点云分割方法
CN110874926A (zh) * 2018-08-31 2020-03-10 百度在线网络技术(北京)有限公司 智能路侧单元
CN112001272A (zh) * 2020-08-06 2020-11-27 苏州富洁智能科技有限公司 一种基于深度学习的激光雷达环境感知方法及系统
CN112767475A (zh) * 2020-12-30 2021-05-07 重庆邮电大学 一种基于c-v2x、雷达与视觉的智能路侧感知系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874926A (zh) * 2018-08-31 2020-03-10 百度在线网络技术(北京)有限公司 智能路侧单元
CN109410307A (zh) * 2018-10-16 2019-03-01 大连理工大学 一种场景点云语义分割方法
CN110083163A (zh) * 2019-05-20 2019-08-02 三亚学院 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及系统
CN110310298A (zh) * 2019-06-21 2019-10-08 西安电子科技大学 一种基于循环条件随机场的道路目标实时三维点云分割方法
CN112001272A (zh) * 2020-08-06 2020-11-27 苏州富洁智能科技有限公司 一种基于深度学习的激光雷达环境感知方法及系统
CN112767475A (zh) * 2020-12-30 2021-05-07 重庆邮电大学 一种基于c-v2x、雷达与视觉的智能路侧感知系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张硕 等: ""改进RangeNet++损失函数的车载点云小目标语义分割方法"", 《计算机辅助设计与图形学学报》, vol. 33, pages 1 - 2 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024001093A1 (zh) * 2022-07-01 2024-01-04 北京京东乾石科技有限公司 语义分割、环境感知方法、装置和无人车

Similar Documents

Publication Publication Date Title
CN110956651B (zh) 一种基于视觉和振动触觉融合的地形语义感知方法
CN111429514A (zh) 一种融合多帧时序点云的激光雷达3d实时目标检测方法
CN101975951B (zh) 一种融合距离和图像信息的野外环境障碍检测方法
CN111242041A (zh) 基于伪图像技术的激光雷达三维目标快速检测方法
CN104766058A (zh) 一种获取车道线的方法和装置
CN115032651A (zh) 一种基于激光雷达与机器视觉融合的目标检测方法
CN112346463B (zh) 一种基于速度采样的无人车路径规划方法
CN112347987A (zh) 一种多模数据融合的三维目标检测方法
CN115187964A (zh) 基于多传感器数据融合的自动驾驶决策方法及SoC芯片
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN112257668A (zh) 主辅路判断方法、装置、电子设备及存储介质
CN113221648A (zh) 一种基于移动测量系统的融合点云序列影像路牌检测方法
CN117475428A (zh) 一种三维目标检测方法、系统及设备
CN117284320A (zh) 一种点云数据的车辆特征识别方法及系统
CN113865581B (zh) 基于多层级地图的封闭场景定位方法
CN117853955A (zh) 一种基于改进YOLOv5的无人机小目标检测方法
CN118015055A (zh) 基于深度融合算法的多源勘测数据融合处理方法及系统
CN105160324B (zh) 一种基于部件空间关系的车辆检测方法
CN113762195A (zh) 一种基于路侧rsu的点云语义分割与理解方法
CN114118247A (zh) 一种基于多传感器融合的无锚框3d目标检测方法
CN112233079A (zh) 多传感器图像融合的方法及系统
CN116630904A (zh) 融合非临近跳连与多尺度残差结构的小目标车辆检测方法
WO2022021209A1 (zh) 电子地图生成方法、装置、计算机设备和存储介质
Ma et al. LiCROcc: Teach Radar for Accurate Semantic Occupancy Prediction using LiDAR and Camera
Yang et al. Analysis of Model Optimization Strategies for a Low-Resolution Camera-Lidar Fusion Based Road Detection Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination