CN112989997A - 一种基于多信息融合的3d目标检测方法及系统 - Google Patents
一种基于多信息融合的3d目标检测方法及系统 Download PDFInfo
- Publication number
- CN112989997A CN112989997A CN202110263162.4A CN202110263162A CN112989997A CN 112989997 A CN112989997 A CN 112989997A CN 202110263162 A CN202110263162 A CN 202110263162A CN 112989997 A CN112989997 A CN 112989997A
- Authority
- CN
- China
- Prior art keywords
- target
- target frame
- point cloud
- candidate
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于多信息融合的3D目标检测方法及系统,其方法包括:步骤S1:分别采集行车图像和点云信息,并进行预处理;步骤S2:基于行车图像,利用2D目标检测器,得到2D目标框及其得分;步骤S3:基于点云信息,利用3D目标检测器,得到候选3D目标框;步骤S4:利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框。通过引入视觉信息,弥补了稀疏点云的不足。通过2D检测结果对3D目标框进行约束,提高了3D目标框的召回率,减小了误检、漏检的概率。通过将图像和点云进行后融合,当其中一种数据受干扰时,可通过另一种数据检测出目标,提高了目标检测的鲁棒性。
Description
技术领域
本发明涉及智能驾驶领域,具体涉及一种基于多信息融合的3D目标检测方法及系统。
背景技术
随着科技的发展,智能化车辆在人们生活中的应用越来越广泛。环境感知作为智能车技术中至关重要的分支,是车辆导航与控制的基础。为保证车辆驾驶过程中的安全,避免与周围车辆、行人发生碰撞,车辆感知系统必须能够精确感知周围环境及交通参与者。同时,该系统需要具备对较远距离物体的检测能力,以保证车辆在较高速度下的行驶安全。3D目标检测作为智能车环境感知中的关键技术之一,能够提供目标的3D位置、大小、方向和类别等信息,从而进行3D建模、路径规划等。近年来,基于激光的3D目标检测技术取得了一定的成效,然而,由于单一的激光点云数据缺乏视觉语义信息,导致3D目标检测结果存在瓶颈。同时,目前已有的方法大多专注于基于单帧观测信息的目标检测,往往忽略历史信息对当前感知结果的启发作用。由于点云和图像信息的模态不同,目前的3D目标检测方法存在的问题如下:
(1)由于环境中存在遮挡、动态等情况,导致激光感知信息具有不完备、不确定特性。目前的方法在对点云进行处理时未能充分利用点云包含的信息,而以原始点云为输入的模型在底层特征学习时,由于搜索半径过大,背景点会干扰特征,导致检测出的目标存在误检、漏检问题,不够鲁棒;
(2)现有方法预测的3D边框和真实框的IoU值与其分类得分不一致,即IoU值较大框的分类得分较低。
发明内容
为了解决上述技术问题,本发明提供一种基于多信息融合的3D目标检测方法及系统。
本发明技术解决方案为:一种基于多信息融合的3D目标检测方法,包括:
步骤S1:分别采集行车图像和点云信息,并进行预处理;
步骤S2:基于所述行车图像,利用2D目标检测器,得到2D目标框及其得分;
步骤S3:基于所述点云信息,利用3D目标检测器,得到候选3D目标框;
步骤S4:利用所述2D目标框和所述候选3D目标框的对应关系,以及所述2D目标框得分,对所述候选3D目标框进行筛选,得到3D目标框。
本发明与现有技术相比,具有以下优点:
1、通过引入视觉信息,弥补了稀疏点云的不足。通过2D检测结果对3D目标框进行约束,提高了3D目标框的召回率,减小了误检、漏检的概率。
2、通过将图像和点云进行后融合,当其中一种数据受干扰时,可通过另一种数据检测出目标,提高了目标检测的鲁棒性。
3、方案中2D检测器和3D检测器可换为更准确高效的检测器,整个方案适用范围广、可移植性强。
附图说明
图1为本发明实施例中一种基于多信息融合的3D目标检测方法的流程图;
图2为本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S1:分别采集行车图像和点云信息,并进行预处理的流程图;
图3A为行车图像和点云信息示意图;
图3B为点云投影变换示意图;
图4本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S2:基于行车图像,利用2D目标检测器,得到2D目标框及其得分的流程图;
图5本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S3:基于点云信息,利用3D目标检测器,得到候选3D目标框的流程图;
图6本发明实施例中3D目标检测模型中点的不同邻域搜索半径对比;
图7本发明实施例中3D目标检测模型的结构示意图;
图8本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S4:利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框的流程图;
图9本发明实施例中另一种基于多信息融合的3D目标检测方法的流程图;
图10本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S5:将所述3D目标框进行优化,得到优化后的3D目标框的流程图;
图11本发明实施例中一种智能排序候选框的目标跟踪系统的结构框图;
图12本发明实施例中另一种智能排序候选框的目标跟踪系统的结构框图。
具体实施方式
本发明提供了一种基于多信息融合的3D目标检测方法,解决了现有3D检测器的目标存在误检、漏检问题,不够鲁棒,以及3D边框和真实框的IoU值与其分类得分不一致的问题。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
实施例一
如图1所示,本发明实施例提供的一种基于多信息融合的3D目标检测方法,包括下述步骤:
步骤S1:分别采集行车图像和点云信息,并进行预处理;
步骤S2:基于行车图像,利用2D目标检测器,得到2D目标框及其得分;
步骤S3:基于点云信息,利用3D目标检测器,得到候选3D目标框;
步骤S4:利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框。
如图2所示,在一个实施例中,上述步骤S1:分别采集行车图像和点云信息,并进行预处理,具体包括:
S11:分别利用相机和激光扫描仪,采集行车图像和点云信息;
如图3A和图3B所示,利用安装在车顶端的相机和激光扫描仪分别采集行车图像和点云信息,并根据相机和激光扫描仪的安装位置,通过旋转矩阵R和平移向量T,获取二者的变换关系。此外,通过对相机的标定,获取相机内部参数。
S12:将采集到的行车图像和点云信息,根据其时间戳信息,进行同步关联,得到同步后的行车图像和点云信息。
由于相机和激光扫描仪是异源传感器,时间频率不同,采集到的行车图像和点云信息时间不同步。因此使用激光扫描仪的时间戳作为参考,并对时间戳通过插值方式进行同步关联,以获得同步后的行车图像和点云信息。
如图4所示,上述步骤S2:基于行车图像,利用2D目标检测器,得到2D目标框及其得分,具体包括:
步骤S21:利用2D目标检测器,检测出所述行车图像中的目标框,得到2D目标框及其得分,表示如下述公式(1);
本发明实施例对2D目标检测器不做限制,可选择传统的2D目标检测模型,也可选择基于深度网络模型的2D目标检测网络,比如M2Det,利用该2D目标检测器,可以识别出行车图像中的目标框,并对其分类和评分。
其中,K为变换系数,dx,dy,γ,u0,v0,f为相机的参数,相机和激光扫描仪的位置关系为R和T;
其中,δ为常数。
如图5所示,在一个实施例中,上述步骤S3:基于点云信息,利用3D目标检测器,得到候选3D目标框,具体包括:
步骤S31:利用3D目标检测器,对点云信息进行特征提取;
本发明实施例使用3D目标检测模型为改进的PointNet++模型,即CylinderPointNet++模型进行点云目标特征提取,如图6所示,即利用圆柱域代替球域进行邻域搜索,该模型不需要对点云进行投影变换或体素化,直接以点的3D位置和强度作为输入。并可减少在底层特征提取时的背景点干扰。
如图8所示,在一个实施例中,上述步骤S4:利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框,具体包括:
其中,IN为预测的IoU值,ρ为常数;
为了增加3D目标框的准确率,本发明实施例结合2D目标框和3D目标框的检测结果,只有当3D目标框全部或部分落在2D目标框中时,将该3D目标框作为候选目标框,并计算其对应的权值。
步骤S42:通过下述公式(5),计算加权后的候选3D目标框的得分;
步骤S43:根据候选3D目标框的得分S′,对其进行非极大值抑制操作,得到最终的3D目标框P。
本发明提供的一种基于多信息融合的3D目标检测方法,通过引入行车图像的视觉信息,弥补了稀疏点云的不足。通过2D目标检测结果对3D目标检测框进行约束,提高了3D目标检测框的召回率,减小了误检、漏检的概率。通过将行车图像和点云进行后融合,当其中一种数据受干扰时,可通过另一种数据检测出目标,提高了目标检测的鲁棒性。而且,本发明实施例中2D目标检测器和3D目标检测器不做限制,因此,整个方案适用范围广、可移植性强。
如图9所示,在一个实施例中,在上述步骤S4之后,还包括:步骤S5:将所述3D目标框进行优化,得到优化后的3D目标框。
步骤S5:将3D目标框进行优化,得到优化后的3D目标框,具体包括:
步骤S51:根据上一时刻检测出的3D目标框位置Pold和其类别Cold,计算其与当前时刻检测出的相同类别的3D目标框的距离;
根据时间的连续性,利用上一时刻检测出的3D目标框,对预测的3D框进行优化。根据上一时刻检测出的3D目标框位置Pold和其类别Cold,计算其与当前时刻检测出的相同类别的3D目标框的距离。
步骤S52:若距离的最小值和其均值之间的差,小于预设的阈值,则忽略该3D目标框,若大于阈值,作为优化后最终的3D目标框。
对于超出阈值的3D目标框,其对应的目标可能是由于遮挡等导致的漏检,因此将其保留。经过本步骤的优化处理,进一步对3D目标框进行筛选,得到准确率更高的3D目标框。
实施例二
如图11所示,本发明实施例提供了一种基于多信息融合的3D目标检测系统,包括下述模块:
数据采集模块61,用于分别采集行车图像和点云信息,并进行预处理;
2D目标检测模块62,用于基于行车图像,利用2D目标检测器,得到2D目标框及其得分;
3D目标检测模块63,用于基于点云信息,利用3D目标检测器,得到候选3D目标框;
3D目标框筛选模块64,用于利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框。
如图12所示,在一个实施例中,上述基于多信息融合的3D目标检测系统,还包括下述模块:
3D目标框优化模块65,用于将3D目标框筛选模块筛选后的3D目标框进行优化,得到优化后的3D目标框。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (9)
1.一种基于多信息融合的3D目标检测方法,其特征在于,包括:
步骤S1:分别采集行车图像和点云信息,并进行预处理;
步骤S2:基于所述行车图像,利用2D目标检测器,得到2D目标框及其得分;
步骤S3:基于所述点云信息,利用3D目标检测器,得到候选3D目标框;
步骤S4:利用所述2D目标框和所述候选3D目标框的对应关系,以及所述2D目标框得分,对所述候选3D目标框进行筛选,得到3D目标框。
2.根据权利要求1所述的基于多信息融合的3D目标检测方法,其特征在于,所述步骤S1:分别采集行车图像和点云信息,并进行预处理,具体包括:
S11:分别利用相机和激光扫描仪,采集所述行车图像和所述点云信息;
S12:将采集到的所述行车图像和所述点云信息,根据其时间戳信息,进行同步关联,得到同步后的行车图像和点云信息。
3.根据权利要求1所述的基于多信息融合的3D目标检测方法,其特征在于,所述步骤S2:基于所述行车图像,利用2D目标检测器,得到2D目标框及其得分,具体包括:
步骤S21:利用2D目标检测器,检测出所述行车图像中的目标框,得到2D目标框及其得分,表示如下述公式(1);
其中,K为变换系数,dx,dy,γ,u0,v0,f为所述相机的参数,所述相机和激光扫描仪的位置关系为R和T;
其中,δ为常数。
6.根据权利要求1所述的基于多信息融合的3D目标检测方法,其特征在于,在步骤S4之后,还包括:
步骤S5:将所述3D目标框进行优化,得到优化后的3D目标框。
7.根据权利要求6所述的基于多信息融合的3D目标检测方法,其特征在于,所述步骤S5:将所述3D目标框进行优化,得到优化后的3D目标框,具体包括:
步骤S51:根据上一时刻检测出的3D目标框位置Pold和其类别Cold,计算其与当前时刻检测出的相同类别的3D目标框的距离;
步骤S52:若所述距离的最小值和其均值之间的差,小于预设的阈值,则忽略该3D目标框,若大于所述阈值,作为优化后最终的3D目标框。
8.一种基于多信息融合的3D目标检测系统,其特征在于,包括下述模块:
数据采集模块,用于分别采集行车图像和点云信息,并进行预处理;
2D目标检测模块,用于基于所述行车图像,利用2D目标检测器,得到2D目标框及其得分;
3D目标检测模块,用于基于所述点云信息,利用3D目标检测器,得到候选3D目标框;
3D目标框筛选模块,用于利用所述2D目标框和所述候选3D目标框的对应关系,以及所述2D目标框得分,对所述候选3D目标框进行筛选,得到3D目标框。
9.根据权利要求8所述基于多信息融合的3D目标检测系统,其特征在于,还包括下述模块:
3D目标框优化模块,用于将3D目标框筛选模块筛选后的所述3D目标框进行优化,得到优化后的3D目标框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110263162.4A CN112989997A (zh) | 2021-03-11 | 2021-03-11 | 一种基于多信息融合的3d目标检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110263162.4A CN112989997A (zh) | 2021-03-11 | 2021-03-11 | 一种基于多信息融合的3d目标检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112989997A true CN112989997A (zh) | 2021-06-18 |
Family
ID=76334886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110263162.4A Pending CN112989997A (zh) | 2021-03-11 | 2021-03-11 | 一种基于多信息融合的3d目标检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112989997A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705669A (zh) * | 2021-08-27 | 2021-11-26 | 上海商汤临港智能科技有限公司 | 一种数据匹配方法、装置、电子设备以及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101783015A (zh) * | 2009-01-19 | 2010-07-21 | 北京中星微电子有限公司 | 一种视频跟踪设备及方法 |
CN103914854A (zh) * | 2014-03-24 | 2014-07-09 | 河海大学 | 一种图像序列目标关联及轨迹生成方法 |
US10133951B1 (en) * | 2016-10-27 | 2018-11-20 | A9.Com, Inc. | Fusion of bounding regions |
CN109325404A (zh) * | 2018-08-07 | 2019-02-12 | 长安大学 | 一种公交场景下的人数统计方法 |
CN110246159A (zh) * | 2019-06-14 | 2019-09-17 | 湖南大学 | 基于视觉和雷达信息融合的3d目标运动分析方法 |
CN111428765A (zh) * | 2020-03-17 | 2020-07-17 | 武汉大学 | 一种基于全局卷积、局部深度卷积融合的目标检测方法 |
CN112001226A (zh) * | 2020-07-07 | 2020-11-27 | 中科曙光(南京)计算技术有限公司 | 一种无人驾驶3d目标检测方法、装置及存储介质 |
CN112258631A (zh) * | 2020-10-20 | 2021-01-22 | 河海大学常州校区 | 一种基于深度神经网络的三维目标检测方法及系统 |
-
2021
- 2021-03-11 CN CN202110263162.4A patent/CN112989997A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101783015A (zh) * | 2009-01-19 | 2010-07-21 | 北京中星微电子有限公司 | 一种视频跟踪设备及方法 |
CN103914854A (zh) * | 2014-03-24 | 2014-07-09 | 河海大学 | 一种图像序列目标关联及轨迹生成方法 |
US10133951B1 (en) * | 2016-10-27 | 2018-11-20 | A9.Com, Inc. | Fusion of bounding regions |
CN109325404A (zh) * | 2018-08-07 | 2019-02-12 | 长安大学 | 一种公交场景下的人数统计方法 |
CN110246159A (zh) * | 2019-06-14 | 2019-09-17 | 湖南大学 | 基于视觉和雷达信息融合的3d目标运动分析方法 |
CN111428765A (zh) * | 2020-03-17 | 2020-07-17 | 武汉大学 | 一种基于全局卷积、局部深度卷积融合的目标检测方法 |
CN112001226A (zh) * | 2020-07-07 | 2020-11-27 | 中科曙光(南京)计算技术有限公司 | 一种无人驾驶3d目标检测方法、装置及存储介质 |
CN112258631A (zh) * | 2020-10-20 | 2021-01-22 | 河海大学常州校区 | 一种基于深度神经网络的三维目标检测方法及系统 |
Non-Patent Citations (2)
Title |
---|
DEYUN DAI等: "Image guidance based 3D vehicle detection in traffic scene", 《NEUROCOMPUTING》 * |
刘李漫等: "融合目标形状信息及图割窄带优化的目标跟踪算法", 《计算机应用研究》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705669A (zh) * | 2021-08-27 | 2021-11-26 | 上海商汤临港智能科技有限公司 | 一种数据匹配方法、装置、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163904B (zh) | 对象标注方法、移动控制方法、装置、设备及存储介质 | |
CN110032949B (zh) | 一种基于轻量化卷积神经网络的目标检测与定位方法 | |
KR102129893B1 (ko) | 딥러닝 네트워크 및 평균 이동을 기반으로 하는 선박 자동추적 방법 및 시스템 | |
CN109685066B (zh) | 一种基于深度卷积神经网络的矿井目标检测与识别方法 | |
CN112149550B (zh) | 一种基于多传感器融合的自动驾驶车辆3d目标检测方法 | |
CN110084165B (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN114565900A (zh) | 基于改进YOLOv5和双目立体视觉的目标检测方法 | |
CN112560774A (zh) | 一种障碍物位置检测方法、装置、设备和存储介质 | |
CN114359181B (zh) | 一种基于图像和点云的智慧交通目标融合检测方法及系统 | |
CN111914634B (zh) | 一种抗复杂场景干扰的井盖类别自动检测方法和系统 | |
JP7091686B2 (ja) | 立体物認識装置、撮像装置および車両 | |
CN114445803A (zh) | 驾驶数据的处理方法、装置及电子设备 | |
CN111832410B (zh) | 一种基于视觉与激光雷达融合的前向列车检测方法 | |
CN110136186B (zh) | 一种用于移动机器人目标测距的检测目标匹配方法 | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
CN112906777A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
KR20200123537A (ko) | 딥러닝 및 데이터 결합을 이용한 싱크홀 탐지방법 및 이를 이용한 싱크홀 탐지시스템 | |
CN116844147A (zh) | 一种基于深度学习的指针式仪表识别和异常警报方法 | |
CN117475355A (zh) | 基于监控视频的安全预警方法及装置、设备、存储介质 | |
CN117523420B (zh) | 一种基于雷达产品数据的闪电落区识别方法及系统 | |
CN112989997A (zh) | 一种基于多信息融合的3d目标检测方法及系统 | |
CN115497073A (zh) | 一种基于车载摄像头和激光雷达融合的障碍物相机实时检测方法 | |
CN114152955A (zh) | 一种基于slam技术的障碍物高精度识别系统 | |
KY et al. | Road pothole detection using yolov2 model | |
CN114283280A (zh) | 一种基于改进卷积神经网络的水面漂浮垃圾识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210618 |