CN112989997A - 一种基于多信息融合的3d目标检测方法及系统 - Google Patents

一种基于多信息融合的3d目标检测方法及系统 Download PDF

Info

Publication number
CN112989997A
CN112989997A CN202110263162.4A CN202110263162A CN112989997A CN 112989997 A CN112989997 A CN 112989997A CN 202110263162 A CN202110263162 A CN 202110263162A CN 112989997 A CN112989997 A CN 112989997A
Authority
CN
China
Prior art keywords
target
target frame
point cloud
candidate
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110263162.4A
Other languages
English (en)
Inventor
陈宗海
戴德云
王纪凯
包鹏
赵皓
林士琪
徐萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202110263162.4A priority Critical patent/CN112989997A/zh
Publication of CN112989997A publication Critical patent/CN112989997A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于多信息融合的3D目标检测方法及系统,其方法包括:步骤S1:分别采集行车图像和点云信息,并进行预处理;步骤S2:基于行车图像,利用2D目标检测器,得到2D目标框及其得分;步骤S3:基于点云信息,利用3D目标检测器,得到候选3D目标框;步骤S4:利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框。通过引入视觉信息,弥补了稀疏点云的不足。通过2D检测结果对3D目标框进行约束,提高了3D目标框的召回率,减小了误检、漏检的概率。通过将图像和点云进行后融合,当其中一种数据受干扰时,可通过另一种数据检测出目标,提高了目标检测的鲁棒性。

Description

一种基于多信息融合的3D目标检测方法及系统
技术领域
本发明涉及智能驾驶领域,具体涉及一种基于多信息融合的3D目标检测方法及系统。
背景技术
随着科技的发展,智能化车辆在人们生活中的应用越来越广泛。环境感知作为智能车技术中至关重要的分支,是车辆导航与控制的基础。为保证车辆驾驶过程中的安全,避免与周围车辆、行人发生碰撞,车辆感知系统必须能够精确感知周围环境及交通参与者。同时,该系统需要具备对较远距离物体的检测能力,以保证车辆在较高速度下的行驶安全。3D目标检测作为智能车环境感知中的关键技术之一,能够提供目标的3D位置、大小、方向和类别等信息,从而进行3D建模、路径规划等。近年来,基于激光的3D目标检测技术取得了一定的成效,然而,由于单一的激光点云数据缺乏视觉语义信息,导致3D目标检测结果存在瓶颈。同时,目前已有的方法大多专注于基于单帧观测信息的目标检测,往往忽略历史信息对当前感知结果的启发作用。由于点云和图像信息的模态不同,目前的3D目标检测方法存在的问题如下:
(1)由于环境中存在遮挡、动态等情况,导致激光感知信息具有不完备、不确定特性。目前的方法在对点云进行处理时未能充分利用点云包含的信息,而以原始点云为输入的模型在底层特征学习时,由于搜索半径过大,背景点会干扰特征,导致检测出的目标存在误检、漏检问题,不够鲁棒;
(2)现有方法预测的3D边框和真实框的IoU值与其分类得分不一致,即IoU值较大框的分类得分较低。
发明内容
为了解决上述技术问题,本发明提供一种基于多信息融合的3D目标检测方法及系统。
本发明技术解决方案为:一种基于多信息融合的3D目标检测方法,包括:
步骤S1:分别采集行车图像和点云信息,并进行预处理;
步骤S2:基于所述行车图像,利用2D目标检测器,得到2D目标框及其得分;
步骤S3:基于所述点云信息,利用3D目标检测器,得到候选3D目标框;
步骤S4:利用所述2D目标框和所述候选3D目标框的对应关系,以及所述2D目标框得分,对所述候选3D目标框进行筛选,得到3D目标框。
本发明与现有技术相比,具有以下优点:
1、通过引入视觉信息,弥补了稀疏点云的不足。通过2D检测结果对3D目标框进行约束,提高了3D目标框的召回率,减小了误检、漏检的概率。
2、通过将图像和点云进行后融合,当其中一种数据受干扰时,可通过另一种数据检测出目标,提高了目标检测的鲁棒性。
3、方案中2D检测器和3D检测器可换为更准确高效的检测器,整个方案适用范围广、可移植性强。
附图说明
图1为本发明实施例中一种基于多信息融合的3D目标检测方法的流程图;
图2为本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S1:分别采集行车图像和点云信息,并进行预处理的流程图;
图3A为行车图像和点云信息示意图;
图3B为点云投影变换示意图;
图4本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S2:基于行车图像,利用2D目标检测器,得到2D目标框及其得分的流程图;
图5本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S3:基于点云信息,利用3D目标检测器,得到候选3D目标框的流程图;
图6本发明实施例中3D目标检测模型中点的不同邻域搜索半径对比;
图7本发明实施例中3D目标检测模型的结构示意图;
图8本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S4:利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框的流程图;
图9本发明实施例中另一种基于多信息融合的3D目标检测方法的流程图;
图10本发明实施例中一种基于多信息融合的3D目标检测方法中步骤S5:将所述3D目标框进行优化,得到优化后的3D目标框的流程图;
图11本发明实施例中一种智能排序候选框的目标跟踪系统的结构框图;
图12本发明实施例中另一种智能排序候选框的目标跟踪系统的结构框图。
具体实施方式
本发明提供了一种基于多信息融合的3D目标检测方法,解决了现有3D检测器的目标存在误检、漏检问题,不够鲁棒,以及3D边框和真实框的IoU值与其分类得分不一致的问题。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
实施例一
如图1所示,本发明实施例提供的一种基于多信息融合的3D目标检测方法,包括下述步骤:
步骤S1:分别采集行车图像和点云信息,并进行预处理;
步骤S2:基于行车图像,利用2D目标检测器,得到2D目标框及其得分;
步骤S3:基于点云信息,利用3D目标检测器,得到候选3D目标框;
步骤S4:利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框。
如图2所示,在一个实施例中,上述步骤S1:分别采集行车图像和点云信息,并进行预处理,具体包括:
S11:分别利用相机和激光扫描仪,采集行车图像和点云信息;
如图3A和图3B所示,利用安装在车顶端的相机和激光扫描仪分别采集行车图像和点云信息,并根据相机和激光扫描仪的安装位置,通过旋转矩阵R和平移向量T,获取二者的变换关系。此外,通过对相机的标定,获取相机内部参数。
S12:将采集到的行车图像和点云信息,根据其时间戳信息,进行同步关联,得到同步后的行车图像和点云信息。
由于相机和激光扫描仪是异源传感器,时间频率不同,采集到的行车图像和点云信息时间不同步。因此使用激光扫描仪的时间戳作为参考,并对时间戳通过插值方式进行同步关联,以获得同步后的行车图像和点云信息。
如图4所示,上述步骤S2:基于行车图像,利用2D目标检测器,得到2D目标框及其得分,具体包括:
步骤S21:利用2D目标检测器,检测出所述行车图像中的目标框,得到2D目标框及其得分,表示如下述公式(1);
Figure BDA0002970939180000041
其中,n为2D目标框个数,2D目标框由其左下顶点和右上顶点组成,表示为
Figure BDA0002970939180000042
Figure BDA0002970939180000043
为第i个2D目标框的得分;
本发明实施例对2D目标检测器不做限制,可选择传统的2D目标检测模型,也可选择基于深度网络模型的2D目标检测网络,比如M2Det,利用该2D目标检测器,可以识别出行车图像中的目标框,并对其分类和评分。
步骤S22:根据相机和激光扫描仪的位置关系以及相机的参数,将点云信息中的点p=(xw,yw,zw)T根据下述公式(2)变换到行车图像坐标系下,得到变换后的点
Figure BDA0002970939180000044
Figure BDA0002970939180000045
其中,K为变换系数,dx,dy,γ,u0,v0,f为相机的参数,相机和激光扫描仪的位置关系为R和T;
步骤S23:计算变换后的点
Figure BDA0002970939180000046
所对应的2D目标框的得分,记为
Figure BDA0002970939180000047
其中N为所述点
Figure BDA0002970939180000048
的个数,得分
Figure BDA0002970939180000049
表示如下述公式(3):
Figure BDA00029709391800000410
其中,δ为常数。
如图5所示,在一个实施例中,上述步骤S3:基于点云信息,利用3D目标检测器,得到候选3D目标框,具体包括:
步骤S31:利用3D目标检测器,对点云信息进行特征提取;
本发明实施例使用3D目标检测模型为改进的PointNet++模型,即CylinderPointNet++模型进行点云目标特征提取,如图6所示,即利用圆柱域代替球域进行邻域搜索,该模型不需要对点云进行投影变换或体素化,直接以点的3D位置和强度作为输入。并可减少在底层特征提取时的背景点干扰。
步骤S32:对3D目标框的位置、类别以及IoU值进行预测,预测得到候选3D目标框的集合记为
Figure BDA0002970939180000051
得分集合记为
Figure BDA0002970939180000052
IoU值集合记为
Figure BDA0002970939180000053
如图7所示,本发明实施例在3D目标框的位置和类别的预测之外,增加IoU预测分支,利用预测的IoU值,可以增加3D目标框的预测置信度。将预测所得到的3D框位置集合记为
Figure BDA0002970939180000054
得分集合记为
Figure BDA0002970939180000055
IoU值集合记为
Figure BDA0002970939180000056
如图8所示,在一个实施例中,上述步骤S4:利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框,具体包括:
步骤S41:选择落在2D目标框中的点
Figure BDA0002970939180000057
所对应的候选3D目标框,并根据其所述预测的IoU值,计算权值W,计算公式如下述公式(4):
Figure BDA0002970939180000058
其中,IN为预测的IoU值,ρ为常数;
为了增加3D目标框的准确率,本发明实施例结合2D目标框和3D目标框的检测结果,只有当3D目标框全部或部分落在2D目标框中时,将该3D目标框作为候选目标框,并计算其对应的权值。
步骤S42:通过下述公式(5),计算加权后的候选3D目标框的得分;
Figure BDA0002970939180000059
利用上述步骤得到的2D目标框的得分
Figure BDA00029709391800000510
和3D目标框的得分
Figure BDA00029709391800000511
以及权值,计算得到候选3D目标框的得分S′。
步骤S43:根据候选3D目标框的得分S′,对其进行非极大值抑制操作,得到最终的3D目标框P。
本发明提供的一种基于多信息融合的3D目标检测方法,通过引入行车图像的视觉信息,弥补了稀疏点云的不足。通过2D目标检测结果对3D目标检测框进行约束,提高了3D目标检测框的召回率,减小了误检、漏检的概率。通过将行车图像和点云进行后融合,当其中一种数据受干扰时,可通过另一种数据检测出目标,提高了目标检测的鲁棒性。而且,本发明实施例中2D目标检测器和3D目标检测器不做限制,因此,整个方案适用范围广、可移植性强。
如图9所示,在一个实施例中,在上述步骤S4之后,还包括:步骤S5:将所述3D目标框进行优化,得到优化后的3D目标框。
步骤S5:将3D目标框进行优化,得到优化后的3D目标框,具体包括:
步骤S51:根据上一时刻检测出的3D目标框位置Pold和其类别Cold,计算其与当前时刻检测出的相同类别的3D目标框的距离;
根据时间的连续性,利用上一时刻检测出的3D目标框,对预测的3D框进行优化。根据上一时刻检测出的3D目标框位置Pold和其类别Cold,计算其与当前时刻检测出的相同类别的3D目标框的距离。
步骤S52:若距离的最小值和其均值之间的差,小于预设的阈值,则忽略该3D目标框,若大于阈值,作为优化后最终的3D目标框。
对于超出阈值的3D目标框,其对应的目标可能是由于遮挡等导致的漏检,因此将其保留。经过本步骤的优化处理,进一步对3D目标框进行筛选,得到准确率更高的3D目标框。
实施例二
如图11所示,本发明实施例提供了一种基于多信息融合的3D目标检测系统,包括下述模块:
数据采集模块61,用于分别采集行车图像和点云信息,并进行预处理;
2D目标检测模块62,用于基于行车图像,利用2D目标检测器,得到2D目标框及其得分;
3D目标检测模块63,用于基于点云信息,利用3D目标检测器,得到候选3D目标框;
3D目标框筛选模块64,用于利用2D目标框和候选3D目标框的对应关系,以及2D目标框得分,对候选3D目标框进行筛选,得到3D目标框。
如图12所示,在一个实施例中,上述基于多信息融合的3D目标检测系统,还包括下述模块:
3D目标框优化模块65,用于将3D目标框筛选模块筛选后的3D目标框进行优化,得到优化后的3D目标框。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。

Claims (9)

1.一种基于多信息融合的3D目标检测方法,其特征在于,包括:
步骤S1:分别采集行车图像和点云信息,并进行预处理;
步骤S2:基于所述行车图像,利用2D目标检测器,得到2D目标框及其得分;
步骤S3:基于所述点云信息,利用3D目标检测器,得到候选3D目标框;
步骤S4:利用所述2D目标框和所述候选3D目标框的对应关系,以及所述2D目标框得分,对所述候选3D目标框进行筛选,得到3D目标框。
2.根据权利要求1所述的基于多信息融合的3D目标检测方法,其特征在于,所述步骤S1:分别采集行车图像和点云信息,并进行预处理,具体包括:
S11:分别利用相机和激光扫描仪,采集所述行车图像和所述点云信息;
S12:将采集到的所述行车图像和所述点云信息,根据其时间戳信息,进行同步关联,得到同步后的行车图像和点云信息。
3.根据权利要求1所述的基于多信息融合的3D目标检测方法,其特征在于,所述步骤S2:基于所述行车图像,利用2D目标检测器,得到2D目标框及其得分,具体包括:
步骤S21:利用2D目标检测器,检测出所述行车图像中的目标框,得到2D目标框及其得分,表示如下述公式(1);
Figure FDA0002970939170000011
其中,n为2D目标框个数,2D目标框由其左下顶点和右上顶点组成,表示为
Figure FDA0002970939170000012
步骤S22:根据所述相机和所述激光扫描仪的位置关系以及所述相机的参数,将所述点云信息中的点p=(xw,yw,zw)T根据下述公式(2)变换到所述行车图像坐标系下,得到变换后的点
Figure FDA0002970939170000013
Figure FDA0002970939170000014
其中,K为变换系数,dx,dy,γ,u0,v0,f为所述相机的参数,所述相机和激光扫描仪的位置关系为R和T;
步骤S23:计算所述变换后的点
Figure FDA0002970939170000021
所对应的所述2D目标框的得分,记为
Figure FDA0002970939170000022
其中N为所述点
Figure FDA0002970939170000023
的个数,得分
Figure FDA0002970939170000024
表示如下述公式(3):
Figure FDA0002970939170000025
其中,δ为常数。
4.根据权利要求1所述的基于多信息融合的3D目标检测方法,其特征在于,所述步骤S3:基于所述点云信息,利用3D目标检测器,得到候选3D目标框,具体包括:
步骤S31:利用所述3D目标检测器,对所述点云信息进行特征提取;
步骤S32:对所述3D目标框的位置、类别以及IoU值进行预测,预测得到所述候选3D目标框的集合记为
Figure FDA0002970939170000026
得分集合记为
Figure FDA0002970939170000027
IoU值集合记为
Figure FDA0002970939170000028
5.根据权利要求1所述的基于多信息融合的3D目标检测方法,其特征在于,所述步骤S4:利用所述2D目标框和所述候选3D目标框的对应关系,以及所述2D目标框得分,对所述候选3D目标框进行筛选,得到3D目标框,具体包括:
步骤S41:选择落在所述2D目标框中的点
Figure FDA0002970939170000029
所对应的所述候选3D目标框,并根据其所述预测的IoU值,计算权值,计算公式如下述公式(4):
Figure FDA00029709391700000210
其中,IN为预测的IoU值,ρ为常数;
步骤S42:通过下述公式(5),计算加权后的所述候选3D目标框的得分;
Figure FDA00029709391700000211
步骤S43:根据所述候选3D目标框的得分S′,对其进行非极大值抑制操作,得到最终的3D目标框P。
6.根据权利要求1所述的基于多信息融合的3D目标检测方法,其特征在于,在步骤S4之后,还包括:
步骤S5:将所述3D目标框进行优化,得到优化后的3D目标框。
7.根据权利要求6所述的基于多信息融合的3D目标检测方法,其特征在于,所述步骤S5:将所述3D目标框进行优化,得到优化后的3D目标框,具体包括:
步骤S51:根据上一时刻检测出的3D目标框位置Pold和其类别Cold,计算其与当前时刻检测出的相同类别的3D目标框的距离;
步骤S52:若所述距离的最小值和其均值之间的差,小于预设的阈值,则忽略该3D目标框,若大于所述阈值,作为优化后最终的3D目标框。
8.一种基于多信息融合的3D目标检测系统,其特征在于,包括下述模块:
数据采集模块,用于分别采集行车图像和点云信息,并进行预处理;
2D目标检测模块,用于基于所述行车图像,利用2D目标检测器,得到2D目标框及其得分;
3D目标检测模块,用于基于所述点云信息,利用3D目标检测器,得到候选3D目标框;
3D目标框筛选模块,用于利用所述2D目标框和所述候选3D目标框的对应关系,以及所述2D目标框得分,对所述候选3D目标框进行筛选,得到3D目标框。
9.根据权利要求8所述基于多信息融合的3D目标检测系统,其特征在于,还包括下述模块:
3D目标框优化模块,用于将3D目标框筛选模块筛选后的所述3D目标框进行优化,得到优化后的3D目标框。
CN202110263162.4A 2021-03-11 2021-03-11 一种基于多信息融合的3d目标检测方法及系统 Pending CN112989997A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110263162.4A CN112989997A (zh) 2021-03-11 2021-03-11 一种基于多信息融合的3d目标检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110263162.4A CN112989997A (zh) 2021-03-11 2021-03-11 一种基于多信息融合的3d目标检测方法及系统

Publications (1)

Publication Number Publication Date
CN112989997A true CN112989997A (zh) 2021-06-18

Family

ID=76334886

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110263162.4A Pending CN112989997A (zh) 2021-03-11 2021-03-11 一种基于多信息融合的3d目标检测方法及系统

Country Status (1)

Country Link
CN (1) CN112989997A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705669A (zh) * 2021-08-27 2021-11-26 上海商汤临港智能科技有限公司 一种数据匹配方法、装置、电子设备以及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101783015A (zh) * 2009-01-19 2010-07-21 北京中星微电子有限公司 一种视频跟踪设备及方法
CN103914854A (zh) * 2014-03-24 2014-07-09 河海大学 一种图像序列目标关联及轨迹生成方法
US10133951B1 (en) * 2016-10-27 2018-11-20 A9.Com, Inc. Fusion of bounding regions
CN109325404A (zh) * 2018-08-07 2019-02-12 长安大学 一种公交场景下的人数统计方法
CN110246159A (zh) * 2019-06-14 2019-09-17 湖南大学 基于视觉和雷达信息融合的3d目标运动分析方法
CN111428765A (zh) * 2020-03-17 2020-07-17 武汉大学 一种基于全局卷积、局部深度卷积融合的目标检测方法
CN112001226A (zh) * 2020-07-07 2020-11-27 中科曙光(南京)计算技术有限公司 一种无人驾驶3d目标检测方法、装置及存储介质
CN112258631A (zh) * 2020-10-20 2021-01-22 河海大学常州校区 一种基于深度神经网络的三维目标检测方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101783015A (zh) * 2009-01-19 2010-07-21 北京中星微电子有限公司 一种视频跟踪设备及方法
CN103914854A (zh) * 2014-03-24 2014-07-09 河海大学 一种图像序列目标关联及轨迹生成方法
US10133951B1 (en) * 2016-10-27 2018-11-20 A9.Com, Inc. Fusion of bounding regions
CN109325404A (zh) * 2018-08-07 2019-02-12 长安大学 一种公交场景下的人数统计方法
CN110246159A (zh) * 2019-06-14 2019-09-17 湖南大学 基于视觉和雷达信息融合的3d目标运动分析方法
CN111428765A (zh) * 2020-03-17 2020-07-17 武汉大学 一种基于全局卷积、局部深度卷积融合的目标检测方法
CN112001226A (zh) * 2020-07-07 2020-11-27 中科曙光(南京)计算技术有限公司 一种无人驾驶3d目标检测方法、装置及存储介质
CN112258631A (zh) * 2020-10-20 2021-01-22 河海大学常州校区 一种基于深度神经网络的三维目标检测方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DEYUN DAI等: "Image guidance based 3D vehicle detection in traffic scene", 《NEUROCOMPUTING》 *
刘李漫等: "融合目标形状信息及图割窄带优化的目标跟踪算法", 《计算机应用研究》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705669A (zh) * 2021-08-27 2021-11-26 上海商汤临港智能科技有限公司 一种数据匹配方法、装置、电子设备以及存储介质

Similar Documents

Publication Publication Date Title
CN110163904B (zh) 对象标注方法、移动控制方法、装置、设备及存储介质
CN110032949B (zh) 一种基于轻量化卷积神经网络的目标检测与定位方法
KR102129893B1 (ko) 딥러닝 네트워크 및 평균 이동을 기반으로 하는 선박 자동추적 방법 및 시스템
CN109685066B (zh) 一种基于深度卷积神经网络的矿井目标检测与识别方法
CN112149550B (zh) 一种基于多传感器融合的自动驾驶车辆3d目标检测方法
CN110084165B (zh) 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法
CN114565900A (zh) 基于改进YOLOv5和双目立体视觉的目标检测方法
CN112560774A (zh) 一种障碍物位置检测方法、装置、设备和存储介质
CN114359181B (zh) 一种基于图像和点云的智慧交通目标融合检测方法及系统
CN111914634B (zh) 一种抗复杂场景干扰的井盖类别自动检测方法和系统
JP7091686B2 (ja) 立体物認識装置、撮像装置および車両
CN114445803A (zh) 驾驶数据的处理方法、装置及电子设备
CN111832410B (zh) 一种基于视觉与激光雷达融合的前向列车检测方法
CN110136186B (zh) 一种用于移动机器人目标测距的检测目标匹配方法
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
CN112906777A (zh) 目标检测方法、装置、电子设备及存储介质
KR20200123537A (ko) 딥러닝 및 데이터 결합을 이용한 싱크홀 탐지방법 및 이를 이용한 싱크홀 탐지시스템
CN116844147A (zh) 一种基于深度学习的指针式仪表识别和异常警报方法
CN117475355A (zh) 基于监控视频的安全预警方法及装置、设备、存储介质
CN117523420B (zh) 一种基于雷达产品数据的闪电落区识别方法及系统
CN112989997A (zh) 一种基于多信息融合的3d目标检测方法及系统
CN115497073A (zh) 一种基于车载摄像头和激光雷达融合的障碍物相机实时检测方法
CN114152955A (zh) 一种基于slam技术的障碍物高精度识别系统
KY et al. Road pothole detection using yolov2 model
CN114283280A (zh) 一种基于改进卷积神经网络的水面漂浮垃圾识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210618