CN113378647A - 基于三维点云的实时轨道障碍物检测方法 - Google Patents
基于三维点云的实时轨道障碍物检测方法 Download PDFInfo
- Publication number
- CN113378647A CN113378647A CN202110540196.3A CN202110540196A CN113378647A CN 113378647 A CN113378647 A CN 113378647A CN 202110540196 A CN202110540196 A CN 202110540196A CN 113378647 A CN113378647 A CN 113378647A
- Authority
- CN
- China
- Prior art keywords
- point
- point cloud
- points
- dimensional
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000005070 sampling Methods 0.000 claims abstract description 12
- 230000009466 transformation Effects 0.000 claims abstract description 7
- 230000004931 aggregating effect Effects 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000011176 pooling Methods 0.000 claims abstract description 5
- 238000002310 reflectometry Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- PMGQWSIVQFOFOQ-YKVZVUFRSA-N clemastine fumarate Chemical compound OC(=O)\C=C\C(O)=O.CN1CCC[C@@H]1CCO[C@@](C)(C=1C=CC(Cl)=CC=1)C1=CC=CC=C1 PMGQWSIVQFOFOQ-YKVZVUFRSA-N 0.000 claims 1
- 108090000623 proteins and genes Proteins 0.000 claims 1
- 239000011159 matrix material Substances 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种基于三维点云的实时轨道障碍物检测方法,以激光雷达采集的三维点云序列数据进行处理,首先对点云进行坐标变换,将欧式坐标系下的坐标转变为球坐标系下的坐标,并且将点云使用锥形体素化下采样方法将点云中的每一个点放入锥形的某一体素中以减小后续步骤的计算量;再将降采样后的点输入局部特征编码模块,利用K近邻(KNN)搜索局部点云,聚合局部点云几何特征,将局部点云的质心、近邻点坐标、相对坐标、高斯密度特征连接为一个向量。并且通过遍历将所有局部点云信息连接为一个矩阵经过MLP和最大池化获取每个局部点云的高维局部特征信息;最后利用多尺度三维稀疏卷积通过多个降采样和上采样模块,实现了单帧图像的轨道实时识别。
Description
技术领域
本发明涉及基于三维点云视觉的语义分割技术,具体涉及一种轨道交通上判定障碍物是否存在的方法。
背景技术
铁路运输是人员流动的重要载体,被公认为是一种舒适、快捷、安全的运输方式。安全监测一直是铁路运输自动化的重要组成部分。但是铁路铺设地区环境的复杂,给列车安全带来了巨大的挑战。不过,目前大部分线路仍依靠司机的判断来保证行车安全,例如通过识别信号灯来判断前方是否安全。随着智能技术的应用,基于车载传感器的车辆辅助系统已经发展多年。在这种情况下,开发基于车载传感器的列车辅助驾驶系统是一条有效的途径。该系统的基本功能之一是检测并确定列车前方的轨道位置。基于该功能,可以开发其他安全检测功能,例如信号灯识别、障碍物识别和防撞以及无障碍范围检测。
采集轨道数据信息的方法大致可分为以下两种:基于摄像机的方法、基于激光雷达的方法。
基于摄像机的方法具有图像信息丰富、司机视觉反馈直观等优点。在以往的研究如:NASSU B T,UKAI M.Avision-based approach for rail extraction and itsapplication in a camera pan–tilt control system[J].IEEE Transactions onIntelligent Transportation Systems,2012,13(4):1763-71,有车载摄像头拍摄的2D图像用于轨道提取。然而,该方法需要良好的光照条件,在雨、雾、夜等环境中鲁棒性较差。基于激光雷达的方法具有测量精度高、响应速度快、不受光线影响的优势。它被广泛用于自动驾驶车辆,以生成周围环境的精确地图。近年来,激光雷达已被引入铁路应用,如铁路测量、缺口测量、基础设施重建和隧道测绘。与传统的视觉方法相比,基于激光雷达的方法大大提高了空间细节和效率。
发明内容
发明要克服现有技术中相机易受环境因素影响和缺乏空间信息的缺点,提出一种基于三维点云的实时轨道障碍物检测方法。
本发明采用固态激光雷达作为传感器,采集三维点云信息,从而有效地捕获环境物体的几何信息,它能够自适识别不同的铁路场景如:直线轨道、弯道轨道、交叉轨道等复杂场景。
本发明以激光雷达采集的三维点云序列数据进行处理,首先对点云进行坐标变换,将欧式坐标系下的坐标转变为球坐标系下的坐标,并且将点云使用锥形体素化下采样方法将点云中的每一个点放入锥形的某一体素中以减小后续步骤的计算量;再将降采样后的点输入局部特征编码模块,利用K近邻(KNN)搜索局部点云,聚合局部点云几何特征,将局部点云的质心、近邻点坐标、相对坐标、高斯密度特征连接为一个向量。并且通过遍历将所有局部点云信息连接为一个矩阵经过MLP和最大池化获取每个局部点云的高维局部特征信息,局部特征编码结构见附图1。最后利用多尺度三维稀疏卷积通过多个降采样和上采样模块,实现了单帧图像的轨道障碍物实时识别。网络结构模型图见附图2。本发明在下采样过程中,使用了一种锥形体素划分方法,该方法根据固态激光雷达的扫描特性而设计,因而能够适应固态激光雷达返回得到的点云数据,解决了点云密度变化带来的困难。在特征聚合中,使用了一种局部特征编码模型,通过引入点的相对位置和高斯密度信息来丰富点体素对的特征。在轨道识别过程中使用了一种有效的轨道障碍物识别网络架构,能够在多种场景下对轨道障碍物进行实时识别,具有良好的性能。
本发明的基于三维点云的实时轨道障碍物检测方法,包括如下步骤:
步骤1:对实时三维激光雷达点云数据进行坐标变换,将欧式坐标系下的点云坐标转换为球坐标系下的坐标。转换前后的坐标关系如公式(1)所示,其中α表示仰角,β表示水平方向角,γ表示原点到该点的距离。
步骤2:经过步骤1处理后,可以得到点云中每一点所对应的球坐标系下的坐标表示,因此可以激光雷达的扫描范围的可以表示为αminαmaxβminβmax和rminrmax它们表示仰角、水平角和距离的最小和最大值。那么假设这三个轴的最小分辨率为ΔαΔβΔr,雷达扫描范围划分的部分数可以写成公式(2)的表示形式。因此,点云可以被离散化锥形体素
因此可以将点与体素的关系表示为公式(3)其中l,w,h分别为L,W,H轴上的索引,i表示激光雷达返回的反射率。[·]表示四舍五入运算。
在将每个点云划分为多个体素之后,这些体素内会包含不同数量的点,因为点云是稀疏的,并且在整个3D空间中的密度不同。为了减少点云信息的冗余度和计算量,体素内的多个点的仅由右下角的一个点表示。最后体素可以表示为公式(4)
步骤3:对经过步骤2体素化降采样处理后的点使用K近邻算法(KNN),即计算邻近点与局部中心点pn的欧氏距离,寻找K个距离局部中心点最近的点根据邻近点的三维坐标信息和邻近点的XYZ坐标对相对位置坐标进行编码,使每个点都能学习到各自的相对空间位置和几何特征。该编码方式如公式(5)所示,代表K近邻点的反射率,表示连接操作。
由于室外场景中激光雷达采集的点云密度差异较大,点的密度信息是一种关键的重要信息,因此引入高斯密度函数,计算每个点的密度特征。根据K近邻算法得到的K个邻近点的欧几里得距离,计算中心点与最近的第K个点之间的密度如公式(6)所示,代表局部中心点pn与临近点之间的密度,r代表欧氏距离σ代表高斯核感受野的超参。
步骤4:经过步骤2和步骤3,得到锥面体素信息其中d代表通道数。利用稀疏三维卷积核在L、W和H维上用来构造下采样模块和上采样模块,对体素信息进行下采样和上采样。利用跳过链接(skip connection)的方式聚合不同尺度的体素信息,最后得到每一个点所对应的类别概率,概率最大的类别是当前体素的类别。找出轨道边界框,从而实现了轨道障碍物的识别。
本发明的优点是:
1.本发明与基于二维图像的轨道识别方法相比,基于点云的轨道识别方法的优点在于能够有效地识别列车前方的空间信息,从而确定列车的安全行驶空间区域。同时,激光雷达相较于传统相机可以在复杂的环境中工作。
2.本发明可以快速、有效地完成对直线轨道、弯道轨道、交叉轨道等复杂场景的检测工作。满足实际列车运行过程中,对激光雷达返回的点云数据进行实时处理的需求。
3.本发明可以有效地减少点云的稀疏性对轨道检测的影响,能够更好的捕获更远处的轨道特征。因此可以检测到较远的障碍物,给列车驾驶员留下更充足的反应时间。
附图说明
图1是本发明的局部特征编码模块结构图。
图2是本发明的网络模型结构图。
图3是本发明的流程图。
图4a~图4c是本发明运用的坐标系示意图,其中图4a是透视图,图4b是左视图,图4c是俯视图。
图5是本发明运用的锥形体素化降采样示意图。
图6是本发明的输出结果示意图。
具体实施方式
下面结合附图进一步说明本发明的技术方案,本发明的流程图如图3所示。
本发明是一种基于三维点云的实时轨道障碍物检测方法,具体步骤如下:
步骤1:对实时三维激光雷达点云数据进行坐标变换,将欧式坐标系下的点云坐标转换为球坐标系下的坐标,坐标表示见附图4,并且对点云使用锥形划分方法下采样。转换前后的坐标关系如公式(1)所示,其中从左视图可以看到α表示XOY平面上关于Z轴的仰角,从俯视图可以看出β表示XOY平面的水平方向角,γ表示原点到该点的距离。
步骤2:根据步骤1可以得到点云中每一点所对应的球坐标系下的坐标表示,因此可以激光雷达的扫描范围可以表示为αminαmaxβminβmax和rminrmax它们表示仰角、水平角和距离的最小和最大值。那么假设这三个轴的最小分辨率为ΔαΔβΔr,雷达扫描范围划分的部分数可以写成公式(2)的表示形式。因此,如图5所示点云可以被离散化锥形体素将点云中的每一个点都放入锥形体素中。
因此可以将点与体素的关系表示为公式(3)其中l,w,h分别为L,W,H轴上的索引。[·]表示四舍五入运算。
在将每个点云划分为多个体素之后,这些体素内会包含不同数量的点,因为点云是稀疏的,并且在整个3D空间中的密度不同。为了减少点云信息的冗余度和计算量,因此对体素内的点云进行下采样操作,即体素内的多个点的仅由左下角一个点表示。最后体素可以表示为公式(4)
步骤3:如图1所示,对经过步骤2体素化降采样处理后的点进行局部特征编码处理。首先使用K近邻算法(KNN),即计算邻近点与局部中心点pn的欧氏距离,寻找K个距离局部中心点最近的点根据邻近点的三维坐标信息和邻近点的XYZ坐标对相对位置坐标进行编码得到一个维度为c编码矩阵,使每个点都能学习到各自的相对空间位置和几何特征。该编码方式如公式(5)所示,代表K近邻点的反射率,表示连接操作。
由于室外场景中激光雷达采集的点云密度差异较大,点的密度信息是一种关键的重要信息,因此引入高斯密度函数,计算每个点的密度特征。根据K近邻算法得到的K个邻近点的欧几里得距离,计算中心点与最近的第K个点之间的密度如公式(6)所示最终得到一个1维向量,其中代表局部中心点pn与某一个临近点之间的密度,r代表两点之间的欧氏距离,σ代表高斯核感受野的超参。
步骤4:轨道识别网络结构模型如图2所示,经过步骤2的锥形体素降采样操作和步骤3的局部特征编码操作,得到锥面体素信息其中d代表通道数。利用稀疏三维卷积核在L、W和H维上用来构造下采样模块和上采样模块,对体素信息进行下采样和上采样。利用跳过链接(skip connection)的方式聚合通过降采样得到的不同尺度的体素信息,最后得到每一个点所对应的类别概率,概率最大的类别是当前体素的类别,找出轨道边界框,从而实现了轨道障碍物的识别。输出结果可通过可视化软件呈现,最终结果如图6所示。
本说明书实施例所述的内容仅仅是对发明构思实现形式的例举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (3)
2.如权利要求1所述的基于三维点云的实时轨道障碍物检测方法,其特征在于:步骤1中所述的对实时三维激光雷达点云数据进行坐标变换,具体步骤如下:
步骤1-1:对实时三维激光雷达点云数据进行坐标变换,将欧式坐标系下的点云坐标转换为球坐标系下的坐标;转换前后的坐标关系如公式(1)所示,其中α表示仰角,β表示水平方向角,γ表示原点到该点的距离;
步骤1-2:经过步骤1-1后,可以得到点云中每一点所对应的球坐标系下的坐标表示,因此可以激光雷达的扫描范围的可以表示为αmin αmax βmin βmax和rmin rmax它们表示仰角、水平角和距离的最小和最大值;那么假设这三个轴的最小分辨率为ΔαΔβΔr,雷达扫描范围划分的部分数可以写成公式(2)的表示形式;因此,点云可以被离散化锥形体素
步骤1-3:将点与体素的关系表示为公式(3)其中l,w,h分别为L,W,H轴上的索引,i表示激光雷达返回的反射率;[·]表示四舍五入运算;
在将每个点云划分为多个体素之后,这些体素内会包含不同数量的点,因为点云是稀疏的,并且在整个3D空间中的密度不同;为了减少点云信息的冗余度和计算量,体素内的多个点的仅由右下角的一个点表示;最后体素可以表示为公式(4):
3.如权利要求1所述的基于三维点云的实时轨道障碍物检测方法,其特征在于:步骤2中所述的使用K近邻算法(KNN),对领域内的点进行编码,使每个点都能学习到各自的相对空间位置和几何特征,具体步骤如下:
步骤2-3:由于室外场景中激光雷达采集的点云密度差异较大,点的密度信息是一种关键的重要信息,因此引入高斯密度函数,计算每个点的密度特征;根据K近邻算法得到的K个邻近点的欧几里得距离,计算中心点与最近的第K个点之间的密度如公式(6)所示,代表局部中心点pn与临近点之间的密度,r代表欧氏距离σ代表高斯核感受野的超参;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110540196.3A CN113378647B (zh) | 2021-05-18 | 2021-05-18 | 基于三维点云的实时轨道障碍物检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110540196.3A CN113378647B (zh) | 2021-05-18 | 2021-05-18 | 基于三维点云的实时轨道障碍物检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113378647A true CN113378647A (zh) | 2021-09-10 |
CN113378647B CN113378647B (zh) | 2024-03-29 |
Family
ID=77571113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110540196.3A Active CN113378647B (zh) | 2021-05-18 | 2021-05-18 | 基于三维点云的实时轨道障碍物检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378647B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114446092A (zh) * | 2022-01-19 | 2022-05-06 | 无锡学院 | 一种基于三维相机组网的s型公路模拟障碍物预警方法 |
CN114648579A (zh) * | 2022-02-15 | 2022-06-21 | 浙江零跑科技股份有限公司 | 一种多分支输入的激光雷达目标检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018166747A1 (en) * | 2017-03-15 | 2018-09-20 | Jaguar Land Rover Limited | Improvements in vehicle control |
CN111260702A (zh) * | 2020-02-13 | 2020-06-09 | 北京航空航天大学 | 激光三维点云与ct三维点云配准方法 |
CN112731339A (zh) * | 2021-01-04 | 2021-04-30 | 东风汽车股份有限公司 | 一种基于激光点云的三维目标检测系统及其检测方法 |
-
2021
- 2021-05-18 CN CN202110540196.3A patent/CN113378647B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018166747A1 (en) * | 2017-03-15 | 2018-09-20 | Jaguar Land Rover Limited | Improvements in vehicle control |
CN111260702A (zh) * | 2020-02-13 | 2020-06-09 | 北京航空航天大学 | 激光三维点云与ct三维点云配准方法 |
CN112731339A (zh) * | 2021-01-04 | 2021-04-30 | 东风汽车股份有限公司 | 一种基于激光点云的三维目标检测系统及其检测方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114446092A (zh) * | 2022-01-19 | 2022-05-06 | 无锡学院 | 一种基于三维相机组网的s型公路模拟障碍物预警方法 |
CN114446092B (zh) * | 2022-01-19 | 2022-12-27 | 无锡学院 | 一种基于三维相机组网的s型公路模拟障碍物预警方法 |
CN114648579A (zh) * | 2022-02-15 | 2022-06-21 | 浙江零跑科技股份有限公司 | 一种多分支输入的激光雷达目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113378647B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242041B (zh) | 基于伪图像技术的激光雷达三维目标快速检测方法 | |
CN113111887B (zh) | 一种基于相机和激光雷达信息融合的语义分割方法及系统 | |
CN117441113A (zh) | 一种面向车路协同的感知信息融合表征及目标检测方法 | |
CN113095152B (zh) | 一种基于回归的车道线检测方法及系统 | |
Kim et al. | Vision-based real-time obstacle segmentation algorithm for autonomous surface vehicle | |
Huang et al. | Tightly-coupled LIDAR and computer vision integration for vehicle detection | |
CN115187964A (zh) | 基于多传感器数据融合的自动驾驶决策方法及SoC芯片 | |
CN113378647B (zh) | 基于三维点云的实时轨道障碍物检测方法 | |
Shi et al. | Grid-centric traffic scenario perception for autonomous driving: A comprehensive review | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
CN114283394A (zh) | 一种车载传感器融合的交通目标检测系统 | |
Kanchana et al. | Computer vision for autonomous driving | |
CN116310673A (zh) | 一种基于点云与图像特征融合的三维目标检测方法 | |
Xiong et al. | Road-Model-Based road boundary extraction for high definition map via LIDAR | |
CN112001272A (zh) | 一种基于深度学习的激光雷达环境感知方法及系统 | |
Liu et al. | Research on security of key algorithms in intelligent driving system | |
Dai et al. | Enhanced Object Detection in Autonomous Vehicles through LiDAR—Camera Sensor Fusion. | |
CN117372991A (zh) | 基于多视角多模态融合的自动驾驶方法及系统 | |
CN116386003A (zh) | 基于知识蒸馏的三维目标检测方法 | |
Madake et al. | Visualization of 3D Point Clouds for Vehicle Detection Based on LiDAR and Camera Fusion | |
CN114550160A (zh) | 一种基于三维点云数据和交通场景的汽车识别方法 | |
Yang et al. | Analysis of Model Optimization Strategies for a Low-Resolution Camera-Lidar Fusion Based Road Detection Network | |
Xu et al. | Surround-view Water Surface BEV Segmentation for Autonomous Surface Vehicles: Dataset, Baseline and Hybrid-BEV Network | |
CN118397616B (zh) | 一种基于密度感知的补全和稀疏融合的3d目标检测方法 | |
Lv et al. | Research on intelligent vehicle detection and tracking method based on multivision information fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |