CN116310673A - 一种基于点云与图像特征融合的三维目标检测方法 - Google Patents

一种基于点云与图像特征融合的三维目标检测方法 Download PDF

Info

Publication number
CN116310673A
CN116310673A CN202310058772.XA CN202310058772A CN116310673A CN 116310673 A CN116310673 A CN 116310673A CN 202310058772 A CN202310058772 A CN 202310058772A CN 116310673 A CN116310673 A CN 116310673A
Authority
CN
China
Prior art keywords
point cloud
image
dimensional
fusion
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310058772.XA
Other languages
English (en)
Inventor
马建红
王稀瑶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou University
Original Assignee
Zhengzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University filed Critical Zhengzhou University
Priority to CN202310058772.XA priority Critical patent/CN116310673A/zh
Publication of CN116310673A publication Critical patent/CN116310673A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于点云与图像特征融合的三维目标检测方法,采用的基于点云与图像特征融合的三维目标检测包括:RGB投影模块,在RGB图像上提取目标的二维检测框;然后利用相机的内参做投影变换,将得到的二维检测框,投影到3维空间,形成一个平头视椎体;再利用相机和激光雷达联合标定的结果变换矩阵,裁剪出原始点云图像中所有落在此视椎体内的点云;特征提取融合模块,提取裁剪后的点云图像中的点云特征和RGB图像中的图像特征,再使用融合层将图像特征和点云特征融合;检测模块,将全局融合特征送入多层感知机MLP,回归三维包围框的8个角点,将三维包围框的8个角点在点云坐标系中的坐标以及分类预测作为两个输出。

Description

一种基于点云与图像特征融合的三维目标检测方法
技术领域
本发明属于计算机视觉领域,具体的说,涉及了一种基于点云与图像特征融合的三维目标检测方法。
背景技术
在计算机视觉领域,越来越多的研究专注于三维物体检测,并且影响了大多数机器人系统,包括自动驾驶汽车和无人机等。三维物体检测的目标是恢复场景中所有感兴趣的物体的6自由度姿态和三维边界框尺寸。虽然最新研究进展可以在复杂环境中进行精确二维检测,但三维目标检测问题仍然是目前的一个挑战。
目前,从单个图像进行三维盒子回归的方法,具有相对较低的精度,特别是在远距离的深度估计中准确率较低。因此,目前许多三维目标检测的系统要么使用双目相机,要么用激光雷达和雷达来增强其传感器。激光雷达——相机传感器组合在自动驾驶汽车中特别流行。其中,普通摄像头可以提供高清影像信息,但由于摄像头主要是在车辆前方较低位置捕获的二维影像信息,缺少车辆周边环境准确的三维信息,其在复杂场景或者极端天气下不能很好地感知周围环境;激光雷达可以通过激光扫描获取车辆周围目标物体的三维信息,且不存在遮挡的问题,但由于行程的点云数据较为稀疏,其分辨率和刷新率以及语义信息均不如图像。基于上述情况,一些研究将摄像头和激光雷达两种传感器组合使用,融合图像与点云数据并表现出了显著的性能优势。
目前融合图像与点云的三维目标检测方法,大多采用直接利用提取后的点云特征与图像特征进行融合,此类方法可以有效保留图像与点云的重要特征,但对于远距离或小目标,容易造成信息的丢失进而影响检测准确度,并且点云范围过大,存在大量无用点,对模型的检测速度造成影响;另一类方法则是先将图像进行二维目标检测或图像分割,并利用相机与激光雷达的位置关系进行投影,在缩小范围后的点云中直接进行目标检测,该类方法的准确度受制于二维目标检测算法,若存在遮挡,则无法准确检测目标位置。
发明内容
本发明的目的是针对现有技术的不足,本发明提供一种基于点云与图像特征融合的三维目标检测方法。
为了实现上述目的,本发明所采用的技术方案是:
本发明第一方面提供一种基于点云与图像特征融合的三维目标检测模型,包括依次通信连接的RGB投影模块、特征提取融合模块和检测模块;
所述RGB投影模块,利用Faster RCNN在与原始点云图像对应的RGB图像上提取目标的二维检测框;然后利用相机的内参做投影变换,将得到的二维检测框,投影到3维空间,形成一个平头视椎体;再利用相机和激光雷达联合标定的结果变换矩阵,裁剪出原始点云图像中所有落在此视椎体内的点云,完成多余点云的裁剪;
所述特征提取融合模块,利用PointNet网络提取裁剪后的点云图像中的点云特征,再利用ResNet提取RGB图像中的图像特征;在得到点云特征与图像特征后,直接使用融合层将图像特征和点云特征融合,获得全局融合特征;其中,融合层由3个隐藏层组成,分别有512个、128个和128个通道;
所述检测模块,将全局融合特征送入多层感知机MLP中,回归三维包围框的8个角点,将三维包围框的8个角点在点云坐标系中的坐标以及分类预测作为两个输出,即获得目标位置、尺寸及分类。
基于上述,所述检测模块的多层感知机MLP中的损失函数为:
Figure SMS_1
其中,
Figure SMS_2
是真实包围框角位置,/>
Figure SMS_3
是预测的角位置,/>
Figure SMS_4
是引入的空间变换正则化损失,以加强学习空间变换矩阵的正交性。
本发明第二方面提供一种非瞬时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现所述的基于点云与图像特征融合的三维目标检测模型。
本发明第三方面提供一种三维目标检测方法,包括:
采集待检测目标的点云图像,以及与点云图像对应的待检测目标的RGB图像;
将采集到的点云图像和RGB图像,输入到所述的基于点云与图像特征融合的三维目标检测模型中,进行目标检测。
本发明第四方面提供一种三维目标检测装置,包括:
激光雷达,采集待检测目标的点云图像,并上传至检测服务器;
相机,用于采集与点云图像对应的待检测目标的RGB图像,并上传至检测服务器;
检测服务器,内置所述的基于点云与图像特征融合的三维目标检测模型,或者设置所述的非瞬时性计算机可读存储介质;用以实现对接收到的点云图像和RGB图像进行目标检测。
本发明第五方面提供一种无人驾驶车辆,在对车身周围障碍物进行目标检测时,采用所述的三维目标检测方法;或者
设置所述的三维目标检测装置,以对车身周围障碍物进行目标检测。
本发明相对现有技术具有突出的实质性特点和显著进步,具体的说:
1)本发明通过将原始点云数据与RGB图像融合,避免单模态数据的缺点,既利用了RGB图像分辨率高、包含RGB特征等信息,又利用了点云三维空间信息,准确度更高;
2)本发明利用投影缩小点云范围,避免大量无关点云干扰,在特征提取阶段和特征融合阶段,可以减少大量时间,提升模型检测性能;
3)本发明可以利用未经预处理的原始点云与图像特征进行融合,避免了有损的输入预处理造成的信息缺失;
4)本发明检测模块中设置的多层感知机MLP为全局融合网络,结合了图像和点云表示,能够通过直接对角点位置进行回归预测三维包围框。
附图说明
图1为本发明模型的整体架构图。
图2为本发明模型中RGB投影模块的架构图。
图3为本发明模型中特征提取融合模块的架构图。
图4为本发明模型中检测模块的架构图。
具体实施方式
下面通过具体实施方式,对本发明的技术方案做进一步的详细描述。
实施例1
如图1所示,本实施例提供了一种基于点云与图像特征融合的三维目标检测模型,包括依次通信连接的RGB投影模块、特征提取融合模块和检测模块。
投影模块
如图2所示,利用Faster RCNN在与原始点云图像对应的RGB图像上提取目标的二维检测框;然后利用相机的内参做投影变换,将得到的二维检测框,投影到3维空间,形成一个平头视椎体;再利用相机和激光雷达联合标定的结果变换矩阵,裁剪出原始点云图像中所有落在此视椎体内的点云,完成多余点云的裁剪。
特征提取融合模块
如图3所示,利用PointNet网络提取裁剪后的点云图像中的点云特征,再利用ResNet提取RGB图像中的图像特征;在得到点云特征与图像特征后,直接使用融合层将图像特征和点云特征融合,获得全局融合特征;
具体的,图像特征提取部分以图像作为输入,并通过一组卷积操作提取语义图像信息,由四个轻量的卷积块组成,每个卷积块由两个3×3的卷积层组成,然后是一个批处理归一化层和一个ReLU激活函数。点云特征提取部分以点云图像(激光雷达数据)作为输入,生成3个三维特征,该部分由三个SA层组成,每个SA都是由三个基本操作组成:从输入点中选出一系列的点组成局部区域的质心;确定尺度,找到质心的相邻点,构建局部区域;对每个局部区域提取特征。在每一层特征提取后,利用Fusion模块,将点特征与语义图像特征相结合,完成融合。
PointNet是一个统一的架构,直接将点云作为输入,选择点云中有用的信息点,并对其进行编码。通过PointNet可以提取所需点的特征;
ResNet使用ImageNet上预训练过的ResNet-50,可以直接导入。使用这个训练过的模型可以提取图像有用的RGB特征。在对维度空间进行预处理后,最后的平均池化层输出图像特征。
检测模块
如图4所示,将全局融合特征送入多层感知机MLP中,回归三维包围框的8个角点,将三维包围框的8个角点在点云坐标系中的坐标以及分类预测作为两个输出,即获得目标位置、尺寸及分类。
损失函数
检测模块的多层感知机MLP对图像和点云特征进行处理,并直接回归目标边界框8个角的三维位置,将两个特征向量进行串联,然后应用一些全连接层。因此,损失函数设计为:
Figure SMS_5
其中,
Figure SMS_6
是真实包围框角位置,/>
Figure SMS_7
是预测的角位置,/>
Figure SMS_8
是引入的空间变换正则化损失,以加强学习空间变换矩阵的正交性。
按照KITTI数据集中提出的准则,验证本实施例提出的算法在IOU阈值为0.7的标准下的准确度,列举了在“car”类别的平均精度。同时列举了在验证数据集和测试数据集上的结果。表1为本实施例提出的基于图像投影与点云特征融合算法与其他先进算法在KITTI数据集上评价效果的对比。由表中结果可见,本实施例提出的方法在单模态目标检测以及部分图像与点云融合的方法中取得了较好效果。通过对图像与点云特征的充分利用,本实施例方法在简单难度以及平均精度均值达到了86.12%、76.25%。本实施例方法在精度上的优势一方面归功于本实施例方法基于图像投影,可以缩小点云范围,避免了原始点云中噪声的干扰。另一方面,本实施例方法在原始点云特征的基础上,加入了图像的RGB特征,减少了由于纯点云稀疏性造成的物体识别准确度不高的情况,并且增加了权值融合层,对点云特征与图像特征进行进行估计,进一步充分利用特征信息。本实施例方法的优越的性能证明了在三维目标检测中,尽管三维目标检测对三维信息敏感,但是处理数据量大的原始点云会影响最终的模型性能,而点云提供的三维信息与图像提供的RGB信息可以更好地对目标物体进行定位,减少无关信息干扰。
Figure SMS_9
实施例2
本实施例提供一种非瞬时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现实施例1所述的基于点云与图像特征融合的三维目标检测模型。
实施例3
本实施例提供一种三维目标检测方法,包括:
采集待检测目标的点云图像,以及与点云图像对应的待检测目标的RGB图像;
将采集到的点云图像和RGB图像,输入到实施例1所述的基于点云与图像特征融合的三维目标检测模型中,进行目标检测。
实施例4
本实施例提供一种三维目标检测装置,包括:
激光雷达,采集待检测目标的点云图像,并上传至检测服务器;
相机,用于采集与点云图像对应的待检测目标的RGB图像,并上传至检测服务器;
检测服务器,内置实施例1所述的基于点云与图像特征融合的三维目标检测模型,或者设置实施例2所述的非瞬时性计算机可读存储介质;用以实现对接收到的点云图像和RGB图像进行目标检测。
实施例5
本实施例提供一种无人驾驶车辆,在对车身周围障碍物进行目标检测时,采用实施例3所述的三维目标检测方法;或者
设置实施例4所述的三维目标检测装置,以对车身周围障碍物进行目标检测。
本领域内的技术人员应当明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机程序代码的计算机非瞬时性可读存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制;尽管参照较佳实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者对部分技术特征进行等同替换;而不脱离本发明技术方案的精神,其均应涵盖在本发明请求保护的技术方案范围当中。

Claims (6)

1.一种基于点云与图像特征融合的三维目标检测模型,其特征在于:包括依次通信连接的RGB投影模块、特征提取融合模块和检测模块;
所述RGB投影模块,利用Faster RCNN在与原始点云图像对应的RGB图像上提取目标的二维检测框;然后利用相机的内参做投影变换,将得到的二维检测框,投影到3维空间,形成一个平头视椎体;再利用相机和激光雷达联合标定的结果变换矩阵,裁剪出原始点云图像中所有落在此视椎体内的点云,完成多余点云的裁剪;
所述特征提取融合模块,利用PointNet网络提取裁剪后的点云图像中的点云特征,再利用ResNet提取RGB图像中的图像特征;在得到点云特征与图像特征后,直接使用融合层将图像特征和点云特征融合,获得全局融合特征;
所述检测模块,将全局融合特征送入多层感知机MLP中,回归三维包围框的8个角点,将三维包围框的8个角点在点云坐标系中的坐标以及分类预测作为两个输出,即获得目标位置、尺寸及分类。
2.根据权利要求1所述的基于点云与图像特征融合的三维目标检测模型,其特征在于:所述检测模块的多层感知机MLP中的损失函数为:
Figure QLYQS_1
其中,
Figure QLYQS_2
是真实包围框角位置,/>
Figure QLYQS_3
是预测的角位置,/>
Figure QLYQS_4
是引入的空间变换正则化损失,以加强学习空间变换矩阵的正交性。
3.一种非瞬时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现权利要求1-2中任一项所述的基于点云与图像特征融合的三维目标检测模型。
4.一种三维目标检测方法,其特征在于,包括:
采集待检测目标的点云图像,以及与点云图像对应的待检测目标的RGB图像;
将采集到的点云图像和RGB图像,输入到权利要求1-2中任一项所述的基于点云与图像特征融合的三维目标检测模型中,进行目标检测。
5.一种三维目标检测装置,包括:
激光雷达,采集待检测目标的点云图像,并上传至检测服务器;
相机,用于采集与点云图像对应的待检测目标的RGB图像,并上传至检测服务器;
检测服务器,内置权利要求1-2中任一项所述的基于点云与图像特征融合的三维目标检测模型,或者设置权利要求3所述的非瞬时性计算机可读存储介质;用以实现对接收到的点云图像和RGB图像进行目标检测。
6.一种无人驾驶车辆,其特征在于:
在对车身周围障碍物进行目标检测时,采用权利要求4所述的三维目标检测方法;或者
设置权利要求5所述的三维目标检测装置,以对车身周围障碍物进行目标检测。
CN202310058772.XA 2023-01-18 2023-01-18 一种基于点云与图像特征融合的三维目标检测方法 Pending CN116310673A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310058772.XA CN116310673A (zh) 2023-01-18 2023-01-18 一种基于点云与图像特征融合的三维目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310058772.XA CN116310673A (zh) 2023-01-18 2023-01-18 一种基于点云与图像特征融合的三维目标检测方法

Publications (1)

Publication Number Publication Date
CN116310673A true CN116310673A (zh) 2023-06-23

Family

ID=86787794

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310058772.XA Pending CN116310673A (zh) 2023-01-18 2023-01-18 一种基于点云与图像特征融合的三维目标检测方法

Country Status (1)

Country Link
CN (1) CN116310673A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117690079A (zh) * 2023-12-05 2024-03-12 合肥雷芯智能科技有限公司 一种基于图像融合的安防警戒系统及目标检测方法
CN117944059A (zh) * 2024-03-27 2024-04-30 南京师范大学 基于视觉及雷达特征融合的轨迹规划方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117690079A (zh) * 2023-12-05 2024-03-12 合肥雷芯智能科技有限公司 一种基于图像融合的安防警戒系统及目标检测方法
CN117944059A (zh) * 2024-03-27 2024-04-30 南京师范大学 基于视觉及雷达特征融合的轨迹规划方法
CN117944059B (zh) * 2024-03-27 2024-05-31 南京师范大学 基于视觉及雷达特征融合的轨迹规划方法

Similar Documents

Publication Publication Date Title
CN110988912B (zh) 自动驾驶车辆的道路目标与距离检测方法、系统、装置
US11113959B2 (en) Crowdsourced detection, identification and sharing of hazardous road objects in HD maps
US11120280B2 (en) Geometry-aware instance segmentation in stereo image capture processes
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
CN116310673A (zh) 一种基于点云与图像特征融合的三维目标检测方法
US20200202542A1 (en) Systems and methods for determining depth information in two-dimensional images
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
CN112446227A (zh) 物体检测方法、装置及设备
EP3293700A1 (en) 3d reconstruction for vehicle
US11842440B2 (en) Landmark location reconstruction in autonomous machine applications
US20210064872A1 (en) Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof
CN113537047A (zh) 障碍物检测方法、装置、交通工具及存储介质
CN112950786A (zh) 一种基于神经网络的车辆三维重建方法
CN114648639B (zh) 一种目标车辆的检测方法、系统及装置
CN116466320A (zh) 目标检测方法及装置
US20230105331A1 (en) Methods and systems for semantic scene completion for sparse 3d data
Madake et al. Visualization of 3D Point Clouds for Vehicle Detection Based on LiDAR and Camera Fusion
Ma et al. Disparity estimation based on fusion of vision and LiDAR
CN114384486A (zh) 一种数据处理方法及装置
John et al. Sensor fusion and registration of lidar and stereo camera without calibration objects
CN111815667B (zh) 一种相机移动条件下高精度检测运动目标的方法
CN117576665B (zh) 一种面向自动驾驶的单摄像头三维目标检测方法及系统
Foster Object detection and sensor data processing for off-road autonomous vehicles
Guoliang et al. Disparity estimation for multi-scale multi-sensor fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination