CN115019270B - 一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法 - Google Patents
一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法 Download PDFInfo
- Publication number
- CN115019270B CN115019270B CN202210610731.2A CN202210610731A CN115019270B CN 115019270 B CN115019270 B CN 115019270B CN 202210610731 A CN202210610731 A CN 202210610731A CN 115019270 B CN115019270 B CN 115019270B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- target detection
- automatic driving
- anchors
- detection method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000004927 fusion Effects 0.000 claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 230000000007 visual effect Effects 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims abstract description 6
- 238000010586 diagram Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 abstract description 6
- 230000008859 change Effects 0.000 abstract description 3
- 230000007547 defect Effects 0.000 abstract description 3
- 238000012217 deletion Methods 0.000 abstract 1
- 230000037430 deletion Effects 0.000 abstract 1
- 238000002474 experimental method Methods 0.000 description 10
- 238000005286 illumination Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 102100031315 AP-2 complex subunit mu Human genes 0.000 description 3
- 101000796047 Homo sapiens AP-2 complex subunit mu Proteins 0.000 description 3
- 238000002679 ablation Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法,属于自动驾驶环境感知技术领域。本发明的目标检测方法先通过多模态特征融合,构造出RGB‑D四通道数据用于提取高维融合特征,以此实现多模态特征融合;再以投影点映射到特征图的特征点为中心或右侧中心,按照三种比例三种尺寸各自生成9种lidar anchors;将RGB anchors与lidaranchors作为建议区域,对建议区域进行回归与分类从而完成目标检测任务。通过特征提取时融合点云与图像的多模态特征弥补视觉特征缺失的不足。本发明所提出的方法在光线变化条件下具有较好的鲁棒性,很好地满足了自动驾驶多场景感知的需求。
Description
技术领域
本发明涉及自动驾驶环境感知技术领域,具体涉及一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法。
背景技术
环境感知作为自动驾驶第一环节,处于智能车与外界环境信息交互的关键位置,是自动驾驶在复杂多变的交通场景中能够进行路径规划、决策控制与安全行驶的前提条件。一种精度高、实时性好、鲁棒性强的环境感知方法对于自动驾驶安全性需求至关重要。
基于单目图像的目标检测方法在低照度场景下存在视觉特征缺失的情况,使得精度降低,难以满足自动驾驶多场景感知的需求。基于点云的目标检测方法精度高但存在算法复杂、计算量大、成本高的问题。
发明内容
本发明的目的在于:提供一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法,以弥补单一传感器的不足,克服低照度场景下视觉特征缺失的问题,且计算算量小、成本低,适合作为自动驾驶多场景感知任务的方法。
为是实现上述目的,本发明采用如下技术方案:
一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法,包括以下步骤:
步骤1、对采集到的稀疏点云数据和图像数据进行时间和空间同步处理;
步骤2、多模态特征融合:
2.1、基于步骤1的处理结果,采用联合标定方法建立稀疏点云数据和图像数据之间的对应关系,并根据该对应关系将稀疏点云数据逐一映射为图像尺寸大小相等的单通道点图,以激光雷达点的相对距离信息作为对应投影点的通道数值;
2.2、将图像数据和步骤2.1得到的单通道点图输入到VGG16网络中进行特征提取,并在第二层卷积之后将距离特征和RGB特征叠加,以此完成多模态特征融合得到融合后特征图输出;
步骤3、生成高置信度建议区域,并对其进行分类和回归:
3.1、基于步骤1处理结果,将稀疏点云数据通过视觉投影矩阵投影到图像,并按步骤2.2得到的融合后特征图尺寸做相同比例放缩,得到融合后特征图上的对应投影特征点。
3.2、将步骤3.1得到的投影点作为中心或右侧中心,按照三种长宽比例三种尺寸各自生成9种lidar anchors;采用RPN网络中anchors生成方式生成RGB anchors;
3.3、将步骤3.2生成的RGB anchors与lidar anchors作为高置信度建议区域,对其进行分类与位置回归与完成目标检测任务。
进一步的,所述步骤3还包括基于步骤3.2得到的高置信度建议区域后,引入注意力机制;通过注意力机制的引入分配给高置信度建议区域,得到更高的权重,以提升分类和回归位置的计算速度。
进一步的,所述3.2采用的投影点为通过聚类算法得到的中心点及6个方向距离中心最近的6个点,以此减少计算量及非目标点云的干扰。
进一步的,所述步骤3.2是按照三种长宽比{1:2/2:1/1:1}三种尺寸{8/16/32}各自生成9种lidar anchors。
本发明提供的一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法,通过在特征提取时融合点云与图像的多模态特征弥补视觉特征缺失的不足。由于融合过程中,选取了点云的距离信息作为融合特征,使其在光线变化条件下具有较好的鲁棒性,很好地满足了自动驾驶多场景感知的需求。由于点云线束低、数量级小,在融合点云数据和图片数据后,具有了计算量小、成本低等优点。该方法应用于两阶段目标检测网络Faster RCNN,光照良好场景下检测精度提高2.3%,低照度场景下提高4.1%。
附图说明
图1是本发明的目标检测网络框图;
图2是多模态特征融合示意图;
图3是基于点云先验信息的anchors生成方式;
图4是实施例基于点云先验的检测网络与Faster RCNN检测效果对比;其中(a)为Faster RCNN夜间城市道路检测效果,(b)为本实施例方法夜间检测效果。
具体实施方式
下面结合附图和实施例对本发明进行详细说明。
如图1所示,本实施例提供的一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法,包括以下步骤:
步骤1、点云与图像数据为异源传感器数据,因此需要对采集到的稀疏点云数据和图像数据进行时间和空间同步处理。进行时间同步处理是为了能够得到同一时刻的数据,本实施例的时间同步采用的是基于时间戳对齐的方法实现的;空间同步是为了使激光雷达和相机具有相同的感受野,建立点云和图像数据对应关系,这里采用基于联合标定方法获得视觉投影矩阵。
步骤2、多模态特征融合:
进行特征融合之前需要找出一种有利于区分不同目标的特征,这种特征能够在同一目标上表现出共性,在不同目标间表现出差异性。激光点云具有的目标位置信息精度高,在很大程度上能够反映目标的空间三维位置,这种高置信度的信息有利于目标的特征提取,因此本发明选取点云数据中的距离信息作为融合特征,具体的:
先将点云信息(xw,yw,zw,rw)按照式(1)转化为(xw,yw,zw,dw),其中dw表示点云到激光雷达坐标原点的直线距离。通过视觉投影将所有激光雷达点投影到图像坐标系下,将点云转化成与图像尺寸大小相等的单通道点图。点图中存在映射点的位置通道数值设置为dw,没有映射点的位置数值为0,以此点图作为特征提取网络的输入。
然后,基于上述步骤得到的单通道点图和图像数据输入到VGG16网络中进行特征提取。在VGG16网络提取特征时,在第二层卷积之后将距离特征和RGB特征叠加。参阅图2,在第二卷积层之后的特征提取时不再是RGB三通道数据,与高置信度的距离特征作为补充,构造出RGB-D四通道数据用于提取高维融合特征,并以此实现多模态特征融合得到融合后特征图输出。
步骤3、生成高置信度建议区域,并对其进行分类和回归:
目前主流检测方法中RGB anchors是以特征图中的每个特征点为中心生成,其中大部分anchors经过位置回归后得到的检测框与真值存在一定差距,从而影响到检测精度。激光点可以在光线变化的环境中提供比较精确的目标位置信息,当点云通过视觉投影映射到图像时,尽管并不能指向所有的目标,但是映射点仍会覆盖绝大多数目标。如图2所示,包括步骤如下:
3.1、基于步骤1处理结果,将稀疏点云数据通过视觉投影矩阵投影到图像,并按照步骤2.2得到的融合后特征图尺寸做相同比例放缩,得到融合后特征图上的对应投影特征点。
3.2、基于步骤3.1产生的投影点生成高置信度建议区域,在本实施例中,并不是将所有的雷达点映射到图像,而是如图3所示通过快速聚类的方法将点云簇的中心及6个方向距离中心最近的6个点投影到图像上以此减少大量的计算以及非目标点云的干扰。该方法以投影点为中心按照三种比例{1:1,1:2,2:1}以及三种尺寸{8,16,32}生成9种anchors。采用RPN网络中anchors生成方式生成RGB anchors。
3.3、将RGB anchors与lidar anchors作为高置信度建议区域。
本实施例建议区的生成过程中,考虑了投影结果受到联合标定的影响出现稳定的偏右误差,因此得到的建议区数据更加精确。
在实际使用中,结合人类驾驶习惯的引入一种注意力机制,注意力机制类似于人在驾驶时更多关注道路上的目标与交通标志而非道路外的广告牌这种驾驶习惯。通过注意力机制的引入分配给高置信度建议区域得到更高的权重,使网络更加关注有用的目标特征,有利于将硬件资源集中在重要特征的计算上。
由此可见,本实施例提供的一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法,在特征提取时更易于获得目标全特征进而有利于分类任务;同时生成的LIDARanchors经过回归之后得到的目标位置精度更高有助于检测任务。现有的两阶段目标检测方法虽然检测精度高于单阶段检测方法,但因其基于固有的“区域提案+检测”检测框架在推理速度上远不如单价段检测方法。而本实施例的目标检测方法,充分考虑到自动驾驶实时性的要求,只基于LIDAR anchors进行检测,LIDAR anchors只覆盖目标区域,因此只需要对有限少的anchors中进行分类与回归,以此减少计算量提高检测速度。
为了进一步验证两种方式对于检测网络性能的影响,本发明将该方法应用于Faster RCNN网络,在此基础上设计并进行消融实验,实验结果如表1所示。
表1目标检测方法消融实验
根据表1展示的消融实验表明:无论是多模态融合还是高质量建议区域,均有利于提高检测网络性能。其中多模态特征融合对于网络提升效果较为明显一些,特别是在低照度场景下。实验结果表明了所提出的目标检测方法在光照变化的场景依然能够表现出较好的鲁棒性。
为了评估所提出的多模态特征融合目标检测网络性能,这里进行设置对比实验。实验中将该方法与Faster RCNN在两种光照环境下的性能展开对比,就AP、AP50、AP75多尺度标准进行评估。对比实验结果如表2和3所示。
表2白天场景对比实验结果
从白天对比实验结果可以看出,相较与Faster RCNN网络,所提出的多模态特征融合检测方法在AP、AP50、AP70三种衡量指标上均有提升。尤其是在AP指标上提升2.3%,提升较为明显。该对比实验证明了该方法在光照良好场景具有较好的检测性能。
表3夜间场景对比实验结果
从夜间对比实验结果可以看出,相较与Faster RCNN网络,所提出的多模态特征融合检测方法在AP、AP50、AP70三种衡量指标上均有提升。尤其是在AP指标上提升4.1%,提升较为明显。该对比实验证明了该方法在低照度场景具有较好的检测性能。
在尺寸为960*540的图像上分别采用本实施例的目标检测网络与Faster RCNN进行检测,得到结果如图4所示,,在GEFORCE RTX 2080Ti上推理速度为10FPS,推理速度相较Faster RCNN无明显下降。因此该方法在保证推理速度的同时,提高了目标检测的精度,满足自动驾驶感知场景的需求。
需要说明的是,上面的实施例只是用于进一步阐述本发明,以便于本领域的普通技术人员更好地理解本发明。本发明已通过文字揭露了其首选实施方案,但通过阅读这些技术文字说明可以领会其中的可优化性和可修改性,并在不偏离本发明的范围和精神上进行改进,但这样的改进应仍属于本发明权利要求的保护范围。
Claims (3)
1.一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法,其特征在于:包括以下步骤:
步骤1、对采集到的稀疏点云数据和图像数据进行时间和空间同步处理;
步骤2、多模态特征融合:
2.1、基于步骤1的处理结果,采用联合标定方法建立稀疏点云数据和图像数据之间的对应关系,并根据该对应关系将稀疏点云数据逐一映射为图像尺寸大小相等的单通道点图,以激光雷达点的相对距离信息作为对应投影点的通道数值;
2.2、将图像数据和步骤2.1得到的单通道点图输入到VGG16网络中进行特征提取,并在第二层卷积之后将距离特征和RGB特征叠加,以此完成多模态特征融合得到融合后特征图输出;
步骤3、生成高置信度建议区域,并对其进行分类和回归:
3.1、基于步骤1处理结果,将稀疏点云数据通过视觉投影矩阵投影到图像,并按步骤2.2得到的融合后特征图尺寸做相同比例放缩,得到融合后特征图上的对应投影特征点;
3.2、将步骤3.1得到的投影点作为中心或右侧中心,按照三种长宽比例三种尺寸各自生成9种lidar anchors;采用RPN网络中anchors生成方式生成RGB anchors;所采用的投影点为通过聚类算法得到的中心点及6个方向距离中心最近的6个点,以此减少计算量及非目标点云的干扰;
3.3、将步骤3.2生成的RGB anchors与lidar anchors作为高置信度建议区域,对其进行分类与位置回归与完成目标检测任务。
2.根据权利要求1所述的一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法,其特征在于:所述步骤3还包括基于步骤3.2得到的高置信度建议区域后,引入注意力机制;通过注意力机制的引入分配给高置信度建议区域,得到更高的权重,以提升分类和回归位置的计算速度。
3.根据权利要求1所述的一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法,其特征在于:所述步骤3.2是按照三种长宽比{1:2/2:1/1:1}三种尺寸{8/16/32}各自生成9种lidaranchors。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210610731.2A CN115019270B (zh) | 2022-05-31 | 2022-05-31 | 一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210610731.2A CN115019270B (zh) | 2022-05-31 | 2022-05-31 | 一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115019270A CN115019270A (zh) | 2022-09-06 |
CN115019270B true CN115019270B (zh) | 2024-04-19 |
Family
ID=83070446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210610731.2A Active CN115019270B (zh) | 2022-05-31 | 2022-05-31 | 一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115019270B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543601A (zh) * | 2018-11-21 | 2019-03-29 | 电子科技大学 | 一种基于多模态深度学习的无人车目标检测方法 |
WO2019156731A1 (en) * | 2018-02-09 | 2019-08-15 | Bayerische Motoren Werke Aktiengesellschaft | Methods for object detection in a scene represented by depth data and image data |
CN110175576A (zh) * | 2019-05-29 | 2019-08-27 | 电子科技大学 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
CN112258618A (zh) * | 2020-11-04 | 2021-01-22 | 中国科学院空天信息创新研究院 | 基于先验激光点云与深度图融合的语义建图与定位方法 |
CN113985445A (zh) * | 2021-08-24 | 2022-01-28 | 中国北方车辆研究所 | 一种基于相机与激光雷达数据融合的3d目标检测算法 |
CN114140672A (zh) * | 2021-11-19 | 2022-03-04 | 江苏大学 | 一种应用于雨雪天气场景下多传感器数据融合的目标检测网络系统及方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3156942A1 (en) * | 2015-10-16 | 2017-04-19 | Thomson Licensing | Scene labeling of rgb-d data with interactive option |
-
2022
- 2022-05-31 CN CN202210610731.2A patent/CN115019270B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019156731A1 (en) * | 2018-02-09 | 2019-08-15 | Bayerische Motoren Werke Aktiengesellschaft | Methods for object detection in a scene represented by depth data and image data |
CN109543601A (zh) * | 2018-11-21 | 2019-03-29 | 电子科技大学 | 一种基于多模态深度学习的无人车目标检测方法 |
CN110175576A (zh) * | 2019-05-29 | 2019-08-27 | 电子科技大学 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
CN112258618A (zh) * | 2020-11-04 | 2021-01-22 | 中国科学院空天信息创新研究院 | 基于先验激光点云与深度图融合的语义建图与定位方法 |
CN113985445A (zh) * | 2021-08-24 | 2022-01-28 | 中国北方车辆研究所 | 一种基于相机与激光雷达数据融合的3d目标检测算法 |
CN114140672A (zh) * | 2021-11-19 | 2022-03-04 | 江苏大学 | 一种应用于雨雪天气场景下多传感器数据融合的目标检测网络系统及方法 |
Non-Patent Citations (3)
Title |
---|
End-to-end multi-view fusion for 3d object detection in lidar point clouds;Yin Zhou等;《Proceedings of Machine Learning Research》;20191015;全文 * |
基于激光点云与图像信息融合的交通环境车辆检测;郑少武;李巍华;胡坚耀;;仪器仪表学报;20191215(12);全文 * |
基于视觉图像与稀疏点云融合的自动驾驶夜间感知系统研究;刘备;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20230115;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115019270A (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11398097B2 (en) | Target detection method based on fusion of prior positioning of millimeter-wave radar and visual feature | |
JP6548690B2 (ja) | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 | |
US8908924B2 (en) | Exterior environment recognition device and exterior environment recognition method | |
CN108229366A (zh) | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 | |
CN111507210B (zh) | 交通信号灯的识别方法、系统、计算设备和智能车 | |
WO2018066351A1 (ja) | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 | |
CN117441113A (zh) | 一种面向车路协同的感知信息融合表征及目标检测方法 | |
CN112825192B (zh) | 基于机器学习的对象辨识系统及其方法 | |
CN112215306A (zh) | 一种基于单目视觉与毫米波雷达融合的目标检测方法 | |
Jiang et al. | Target detection algorithm based on MMW radar and camera fusion | |
JP2015011619A (ja) | 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム | |
Khalifa et al. | A novel multi-view pedestrian detection database for collaborative intelligent transportation systems | |
CN114821507A (zh) | 一种用于自动驾驶的多传感器融合车路协同感知方法 | |
CN113643345A (zh) | 一种基于双光融合的多目道路智能识别方法 | |
CN109583312A (zh) | 车道线识别方法、装置、设备及存储介质 | |
US20220414917A1 (en) | Method and apparatus for obtaining 3d information of vehicle | |
CN117274749B (zh) | 一种基于4d毫米波雷达和图像的融合3d目标检测方法 | |
CN115876198A (zh) | 基于数据融合的目标检测及预警方法、设备、系统和介质 | |
CN113920101A (zh) | 目标检测方法、装置、设备及存储介质 | |
Real-Moreno et al. | Obtaining object information from stereo vision system for autonomous vehicles | |
CN113436239A (zh) | 一种基于深度信息估计的单目图像三维目标检测方法 | |
CN115019270B (zh) | 一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法 | |
JP2023184572A (ja) | 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体 | |
CN110727269B (zh) | 车辆控制方法及相关产品 | |
Khalil et al. | Licanext: Incorporating sequential range residuals for additional advancement in joint perception and motion prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |