CN112001226B - 一种无人驾驶3d目标检测方法、装置及存储介质 - Google Patents

一种无人驾驶3d目标检测方法、装置及存储介质 Download PDF

Info

Publication number
CN112001226B
CN112001226B CN202010645311.9A CN202010645311A CN112001226B CN 112001226 B CN112001226 B CN 112001226B CN 202010645311 A CN202010645311 A CN 202010645311A CN 112001226 B CN112001226 B CN 112001226B
Authority
CN
China
Prior art keywords
target
unmanned
layer
frame
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010645311.9A
Other languages
English (en)
Other versions
CN112001226A (zh
Inventor
左洪年
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongke Shuguang Nanjing Computing Technology Co ltd
Original Assignee
Zhongke Shuguang Nanjing Computing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongke Shuguang Nanjing Computing Technology Co ltd filed Critical Zhongke Shuguang Nanjing Computing Technology Co ltd
Priority to CN202010645311.9A priority Critical patent/CN112001226B/zh
Publication of CN112001226A publication Critical patent/CN112001226A/zh
Application granted granted Critical
Publication of CN112001226B publication Critical patent/CN112001226B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种无人驾驶3D目标检测方法、装置及存储介质,该方法包括步骤:首先根据传感器数据生成点云鸟瞰图;再构建目标检测网络,将卷积层分为高分辨率与低分辨率,分别生成高分辨率纹理层与低分辨率语义层,进而得到融合目标特征,生成目标特征图;使用所述点云数据生成3D目标框,将所述3D目标框映射在所述融合目标特征上;最后通过损失函数对标注好的3D目标数据集进行模型训练,通过构建好的目标检测网络进行目标框的回归,得到当前所有目标的3D目标框。所述无人驾驶3D目标检测装置及存储介质基于上述无人驾驶3D目标检测方法。本发明提升了对3D目标的检测精度,避免漏检所导致的目标碰撞问题,保证无人驾驶系统的安全性。

Description

一种无人驾驶3D目标检测方法、装置及存储介质
技术领域
本发明涉及一种目标检测方法,尤其涉及一种无人驾驶3D目标检测方法、装置及计算机存储介质。
背景技术
随着基于卷积网络的识别算法出现,传统2D目标检测在精度与速率上均达到较高的水平,但其已无法满足无人驾驶场景下对目标物体三维大小与旋转角的需求,因此3D目标检测算法的研究在无人驾驶领域具有重要意义。
根据数据来源的不同,无人驾驶中3D目标检测算法可分为:(1)纯视觉算法,利用Faster-RCNN、SSD、Yolo等成熟算法从RGB图像中模拟出3D目标框的位置与方向。(2)纯激光雷达算法,主要从点云信息中获取目标特征,利用点云信息二维化、3D卷积与点云体素处理等方案对点云信息进行特征提取,并实现3D目标框位置与方向的回归。(3)传感器融合方案,利用点云数据提供目标方位、距离等目标空间信息,RGB图像提供目标轮廓、纹理等目标详细信息,进而通过异构数据特征融合获取3D目标框。由于,不同类型的传感器均存在优势与缺陷,单传感器无法完成对无人驾驶功能性与安全性的全面覆盖。如:激光雷达与摄像头相比,激光雷达分辨率较差,但其测距能力与环境适应性更强,摄像头受恶劣天气影响较大,但在目标识别方面优于激光雷达。
发明内容
发明目的:本发明提出一种无人驾驶场景下兼顾分辨率、测距能力和环境适应性的3D目标检测方法。本发明的另一目的在于提供基于该方法的无人驾驶3D目标检测系统及计算机存储介质。
技术方案:本发明所述的无人驾驶3D目标检测方法,包括步骤:
(1)通过激光雷达获取点云数据,通过摄像头传感器获取对检测目标拍摄的RGB图像数据,生成点云鸟瞰图;
(2)构建目标检测网络,将卷积层分为高分辨率与低分辨率,分别生成高分辨率纹理层与低分辨率语义层,进而得到融合目标特征,生成目标特征图;
(3)使用所述点云数据生成3D目标框,将所述3D目标框映射在所述融合目标特征上;
(4)通过损失函数对标注好的3D目标数据集进行模型训练,通过步骤(2)中构建好的目标检测网络进行目标框的回归,得到当前所有目标的3D目标框。
进一步地,所述步骤(1)包括:
(11)以车辆为中心建立空间直角坐标系,选取点云范围;
(12)对范围内的点云信息进行二维化处理;
(13)对点云的密度信息进行可视化处理;
(14)对步骤(12)和(13)的结果进行鸟瞰处理,得到点云鸟瞰图。
进一步地,所述步骤(2)包括:
(21)构建目标检测网络,将卷积层分为高分辨率与低分辨率,所述高分辨率卷积层用于生成纹理特征,所述低分辨率卷积层用于生成语义特征,控制高低分辨率卷积层层数的比例以平衡目标检测的精度与速度;利用语义纹理特征可较好地解决现有技术中忽略小目标存在的问题。
(22)将所述RGB图像数据与激光点云数据设定关联,并将点云鸟瞰图与RGB图像输入目标检测网络;
(23)通过骨干网络生成不同分辨率的特征图,组合多尺度特征,生成目标特征图。
进一步地,所述步骤(23)包括:
(231)将点云鸟瞰图分为厚度为16的高分辨率卷积层与厚度为16的低分辨率卷积层/>接着分别在/>与/>上使用3x 3卷积核进行三次卷积插值操作;对/>执行池化操作,同时对/>执行上采样操作;
(232)将池化后的与三次卷积操作后的/>进行连接操作,得到目标的特征融合结果高分辨率卷积层/>将上采样后的/>与三次卷积操作后的/>进行连接操作,得到目标的特征融合结果低分辨率卷积层/>重复上述操作,直到得到厚度为128的高分辨率卷积层/>和厚度为128的低分辨率卷积层/>
(233)建立特征金字塔层,包括高分辨率层Pi H、低分辨率层Pi L,对Pi H进行连接操作,对Pi L与/>进行连接操作,分别得到对应的高低分别率融合特征层,其中,i表示对应的卷积层序号;
(234)在特征提取网络末端,对低分辨率卷积层进行上采样操作,进而与高分辨率卷积层进行连接操作,得到融合目标特征图。
进一步地,所述步骤(2)还包括:对生成的目标特征图进行降维处理。
进一步地,所述步骤(4)包括:
(41)将3D目标框的坐标定义为(),其中/>分别表示目标框相对于地面的预测坐标,/>分别表示目标框上下面与地面的预测距离;
(42)按照如下公式计算3D目标框的实际体积/>
其中,分别表示目标框的实际坐标,其中/>分别代表目标框相对于地面的真实坐标,/>分别代表目标框上下面与地面的真实距离;
按照如下公式计算3D预测目标框的体积预测值/>
其中,分别表示预测目标框/>的预测坐标;其中,/>分别表示目标框相对于地面的预测坐标,/>分别表示目标框上下面与地面的预测距离;
(43)计算的重叠体积:
其中,与/>分别代表预测目标框坐标,/>与/>代表重叠框坐标,I代表计算出/>的重叠体积;
(44)计算包含的最小目标框/>的体积/>
其中,代表预测目标框与实际目标框重合部分的坐标;
(45)计算基于传感器融合的3D目标框检测算法的损失,损失函数为:
将所述损失函数引入目标检测网络,并根据网络预测的目标框坐标与实际目标框坐标更新检测框架权重,最终得到最优目标检测框架;
(46)通过步骤(2)中构建好的目标检测网络对最优目标检测框架进行目标框的回归,得到当前所有目标的3D目标框。
进一步地,步骤(41)中的3D目标框为采用非极大抑制算法筛选后的目标框。
本发明所述的无人驾驶3D目标检测装置包括:存储器、处理器及在所述存储器上存储并可运行的无人驾驶3D目标检测的程序,所述无人驾驶3D目标检测的程序被处理器执行时实现所述无人驾驶3D目标检测方法的部分或全部步骤。
本发明还公开了一种计算机可读存储介质,其上存储有无人驾驶3D目标检测的程序,所述无人驾驶3D目标检测的程序被处理器执行时实现所述无人驾驶3D目标检测方法的部分或全部步骤。
有益效果:本发明提升了对3D目标的检测精度,避免漏检所导致的目标碰撞问题,保证无人驾驶系统的安全性。
附图说明
图1是本发明流程示意图;
图2是本发明所述目标检测网络结构示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步的说明。
如图1所示,本发明所述的无人驾驶3d目标检测方法,包括步骤:
(1)通过激光雷达获取点云数据,通过摄像头传感器获取对检测目标拍摄的RGB图像数据,生成点云鸟瞰图。
在(x,y,z)的坐标系内将点云的范围控制在[-40,40]×[0,70]×[0,2.5]米之内,并将范围内的点云信息进行鸟瞰处理,在点云竖直方向上将0至2.5m高度范围内的点云信息平分为五段,得到分辨率为700x800x5的黑白图像,同时将点云的密度信息可视化为700x800分辨率图像,构成尺寸为700x800x6的点云鸟瞰图信息。
(2)构建目标检测网络,将卷积层分为高分辨率与低分辨率,分别生成高分辨率纹理层与低分辨率语义层,进而得到融合目标特征,生成目标特征图;
在无人驾驶车辆行驶在道路过程中,实时检测车辆周围的目标位置。将激光雷达与摄像头传感器采集到的激光点云进行鸟瞰化处理,将RGB图像数据与激光点云数据设定关联,并将点云鸟瞰图与RGB图像输入两个架构相同的特征提取模块框架。在网络特征提取的过程中,将卷积层分为高分辨率与低分辨率,其中高分辨率卷积层主要用于生成纹理特征,而低分辨率用于生成语义特征,并通过参数控制高低分辨率卷积层层数的比例,平衡目标检测的精度与速度。骨干网络包含4个卷积模块,可相应生成厚度为32、64、128、256的特征图,利用上采样方案的同时组合多尺度特征。
如图2所示,首先采用3x 3x 16的卷积核与Maxpooling操作,将LIDAR点云生成鸟瞰图BEV分为704x800x16的与352x400x16的/>接着分别在/>与/>上使用3x 3卷积核进行三次卷积操作,并且在此过程中,分别对/>与/>执行池化(Pooling)与上采样(Upsample)操作,将操作结果与已卷积结果进行连接(contact)操作,最终得到目标的特征融合结果/>与/>重复上述操作,直到/>变为88x100x128,/>变为44x50x128。此时借鉴FPN思想建立特征金字塔层,包括高分辨率层Pi H、低分辨率层Pi L,对Pi H与/>进行连接操作,对Pi L与/>进行连接操作,分别得到对应的高低分别率融合特征层,其中,i表示对应的卷积层序号。此时需将P3 H与P3 L融合,得到融合目标特征。最终,对/>P3 H、CP1 H、/>P3 L、CP1 L进行contact与1x1卷积操作(即进行降维处理),从而得到目标特征图。
(3)使用所述点云数据生成3D目标框,将所述3D目标框映射在所述融合目标特征上;
(4)通过损失函数对标注好的3D目标数据集进行模型训练,通过步骤(2)中构建好的目标检测网络进行目标框的回归,得到当前所有目标的3D目标框,可以弥补3D目标漏检。
根据基于语义纹理特征的多传感器融合感知算法的特性,损失可由分类损失、回归损失、IOU损失构成:
Ltotal=Lcls+Lreg+Liou
其中IOU损失Liou可作为针对3D目标检测的主要提升点。
(41)将3D目标框的坐标定义为(),其中/>分别表示目标框相对于地面的预测坐标,/>分别表示目标框上下面与地面的预测距离;
(42)按照如下公式计算3D目标框的实际体积/>
其中,分别表示目标框的实际坐标,其中/>分别代表目标框相对于地面的真实坐标,/>分别代表目标框上下面与地面的真实距离;
按照如下公式计算3D预测目标框的体积预测值/>
其中,分别表示预测目标框/>的预测坐标;其中,/>分别表示目标框相对于地面的预测坐标,/>分别表示目标框上下面与地面的预测距离;
(43)计算的重叠体积:
其中,与/>分别代表预测目标框坐标,/>与/>代表重叠框坐标,I代表计算出/>的重叠体积;
(44)计算包含的最小目标框/>的体积/>
其中,代表预测目标框与实际目标框重合部分的坐标;
(45)计算基于传感器融合的3D目标框检测算法的损失,损失函数为:
将所述损失函数引入目标检测网络,并根据网络预测的目标框坐标与实际目标框坐标更新检测框架权重,最终得到最优目标检测框架;
(46)利用非极大抑制算法(non maximum suppression,NMS)进行目标框的筛选。通过局部的两个可变参数,搜寻到局部最优解。类比目标检测中目标框筛选,滑动的窗口提取特征,并对经分类识别后的窗口赋值,由于多数的窗口存在交叉的情况,这时便可通过非极大抑制筛选分数较高的窗口,抑制分数较低的窗口,其流程如下所示:
其中,B表示最初的识别框集合,S表示识别框对应置信度,Nt表示NMS阀值。具体而言,假设存在6个目标框,根据分类概率可以从小到大排列成A、B、C、D、E、F。首先从最大检测概率的目标框F开始,依次筛选目标框,判断其重叠度IOU是否超过设定的阀值;再次,假设目标框C、D与F的重叠度超过设定阀值,则在标记并保留目标框F的同时,删除目标框C、D;再次,从剩下的目标框A、B、E中选取最大检测概率E,判断目标框E与A、B的重叠度,当其大于设定的阀值,则在标记并保留E的同时,删除目标框A、B;类似的流程一直循环往复,直到检测出得所有的目标框。
本发明公开了一种无人驾驶3D目标检测装置,该装置包括:存储器、处理器及在所述存储器上存储并可运行的无人驾驶3D目标检测的程序,所述无人驾驶3D目标检测的程序被处理器执行时实现上述无人驾驶3D目标检测方法的部分或全部步骤。
本发明还公开了一种计算机可读存储介质,其上存储有无人驾驶3D目标检测的程序,所述无人驾驶3D目标检测的程序被处理器执行时实现上述无人驾驶3D目标检测方法的部分或全部步骤。

Claims (8)

1.一种无人驾驶3D目标检测方法,其特征在于,包括步骤:
(1)通过激光雷达获取点云数据,通过摄像头传感器获取对检测目标拍摄的RGB图像数据,生成点云鸟瞰图;
(2)构建目标检测网络,将卷积层分为高分辨率与低分辨率,分别生成高分辨率纹理层与低分辨率语义层,进而得到融合目标特征,生成目标特征图;
(3)使用所述点云数据生成3D目标框,将所述3D目标框映射在所述融合目标特征上;
(4)通过损失函数对标注好的3D目标数据集进行模型训练,通过步骤(2)中构建好的目标检测网络进行目标框的回归,得到当前所有目标的3D目标框,具体包括如下步骤:
(41)将3D目标框的坐标定义为其中/>分别表示目标框相对于地面的预测坐标,/>分别表示目标框上下面与地面的预测距离;
(42)按照如下公式计算3D目标框的实际体积/>
其中,分别表示目标框/>的实际坐标,其中/>分别代表目标框相对于地面的真实坐标,/>分别代表目标框上下面与地面的真实距离;
按照如下公式计算3D预测目标框的体积预测值/>
其中,分别表示预测目标框的预测坐标;其中,/>分别表示目标框相对于地面的预测坐标,/>分别表示目标框上下面与地面的预测距离;
(43)计算的重叠体积:
其中,与/>分别代表预测目标框坐标,/>与/>代表重叠框坐标,I代表计算出/>的重叠体积;
(44)计算包含的最小目标框/>的体积/>
其中,代表预测目标框与实际目标框重合部分的坐标;
(45)计算基于传感器融合的3D目标框检测算法的损失,损失函数为:
将所述损失函数引入目标检测网络,并根据网络预测的目标框坐标与实际目标框坐标更新检测框架权重,最终得到最优目标检测框架;
(46)通过步骤(2)中构建好的目标检测网络对最优目标检测框架进行目标框的回归,得到当前所有目标的3D目标框。
2.根据权利要求1所述的无人驾驶3D目标检测方法,其特征在于,所述步骤(1)包括:
(11)以车辆为中心建立空间直角坐标系,选取点云范围;
(12)对范围内的点云信息进行二维化处理;
(13)对点云的密度信息进行可视化处理;
(14)对步骤(12)和(13)的结果进行鸟瞰处理,得到点云鸟瞰图。
3.根据权利要求1所述的无人驾驶3D目标检测方法,其特征在于,所述步骤(2)包括:
(21)构建目标检测网络,将卷积层分为高分辨率与低分辨率,高分辨率卷积层用于生成纹理特征,低分辨率卷积层用于生成语义特征,控制高低分辨率卷积层层数的比例以平衡目标检测的精度与速度;
(22)将所述RGB图像数据与激光点云数据设定关联,并将点云鸟瞰图与RGB图像输入目标检测网络;
(23)通过骨干网络生成不同分辨率的特征图,组合多尺度特征,生成目标特征图。
4.根据权利要求3所述的无人驾驶3D目标检测方法,其特征在于,所述步骤(23)包括:
(231)将点云鸟瞰图分为厚度为16的高分辨率卷积层与厚度为16的低分辨率卷积层接着分别在/>与/>上使用3x 3卷积核进行三次卷积插值操作;对/>执行池化操作,同时对/>执行上采样操作;
(232)将池化后的与三次卷积操作后的/>进行连接操作,得到目标的特征融合结果高分辨率卷积层/>将上采样后的/>与三次卷积操作后的/>进行连接操作,得到目标的特征融合结果低分辨率卷积层/>重复上述操作,直到得到厚度为128的高分辨率卷积层和厚度为128的低分辨率卷积层/>
(233)建立特征金字塔层,包括高分辨率层Pi H、低分辨率层Pi L,对Pi H进行连接操作,对/>与/>进行连接操作,分别得到对应的高低分别率融合特征层,其中,i表示对应的卷积层序号;
(234)在特征提取网络末端,对低分辨率卷积层进行上采样操作,进而与高分辨率卷积层进行连接操作,得到融合目标特征图。
5.根据权利要求1所述的无人驾驶3D目标检测方法,其特征在于,所述步骤(2)还包括:对生成的目标特征图进行降维处理。
6.根据权利要求1所述的无人驾驶3D目标检测方法,其特征在于,步骤(41)中的3D目标框为采用非极大抑制算法筛选后的目标框。
7.一种无人驾驶3D目标检测装置,其特征在于,该装置包括:存储器、处理器及在所述存储器上存储并可运行的无人驾驶3D目标检测的程序,所述无人驾驶3D目标检测的程序被处理器执行时实现如权利要求1至6中任一项所述无人驾驶3D目标检测方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有无人驾驶3D目标检测的程序,所述无人驾驶3D目标检测的程序被处理器执行时实现如权利要求1至6中任一项所述无人驾驶3D目标检测方法的步骤。
CN202010645311.9A 2020-07-07 2020-07-07 一种无人驾驶3d目标检测方法、装置及存储介质 Active CN112001226B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010645311.9A CN112001226B (zh) 2020-07-07 2020-07-07 一种无人驾驶3d目标检测方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010645311.9A CN112001226B (zh) 2020-07-07 2020-07-07 一种无人驾驶3d目标检测方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN112001226A CN112001226A (zh) 2020-11-27
CN112001226B true CN112001226B (zh) 2024-05-28

Family

ID=73466738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010645311.9A Active CN112001226B (zh) 2020-07-07 2020-07-07 一种无人驾驶3d目标检测方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN112001226B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112989997A (zh) * 2021-03-11 2021-06-18 中国科学技术大学 一种基于多信息融合的3d目标检测方法及系统
CN113011317B (zh) * 2021-03-16 2022-06-14 青岛科技大学 三维目标检测方法及检测装置
WO2023036228A1 (en) * 2021-09-08 2023-03-16 Huawei Technologies Co., Ltd. System and method for proposal-free and cluster-free panoptic segmentation system of point clouds
CN114445310B (zh) * 2021-12-23 2024-01-26 苏州浪潮智能科技有限公司 一种3d目标检测方法、装置、电子设备和介质
CN114708156A (zh) * 2022-03-15 2022-07-05 平安科技(深圳)有限公司 超声图像的基准图像的生成方法、装置、设备及存储介质
CN114863375B (zh) * 2022-06-10 2023-06-30 无锡雪浪数制科技有限公司 一种基于3d视觉识别的加油站车辆多视角定位方法
WO2024015019A1 (en) * 2022-07-12 2024-01-18 Nanyang Technological University Driver attention modelling system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948661A (zh) * 2019-02-27 2019-06-28 江苏大学 一种基于多传感器融合的3d车辆检测方法
CN110689562A (zh) * 2019-09-26 2020-01-14 深圳市唯特视科技有限公司 一种基于生成对抗网络的轨迹回环检测优化方法
CN110929692A (zh) * 2019-12-11 2020-03-27 中国科学院长春光学精密机械与物理研究所 一种基于多传感器信息融合的三维目标检测方法及装置
CN111027581A (zh) * 2019-08-23 2020-04-17 中国地质大学(武汉) 一种基于可学习编码的3d目标检测方法及系统
CN111079685A (zh) * 2019-12-25 2020-04-28 电子科技大学 一种3d目标检测方法
CN111209825A (zh) * 2019-12-31 2020-05-29 武汉中海庭数据技术有限公司 一种用于动态目标3d检测的方法和装置
WO2020119661A1 (zh) * 2018-12-14 2020-06-18 中国科学院深圳先进技术研究院 一种目标检测方法、装置以及行人检测方法、系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11500099B2 (en) * 2018-03-14 2022-11-15 Uatc, Llc Three-dimensional object detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020119661A1 (zh) * 2018-12-14 2020-06-18 中国科学院深圳先进技术研究院 一种目标检测方法、装置以及行人检测方法、系统
CN109948661A (zh) * 2019-02-27 2019-06-28 江苏大学 一种基于多传感器融合的3d车辆检测方法
CN111027581A (zh) * 2019-08-23 2020-04-17 中国地质大学(武汉) 一种基于可学习编码的3d目标检测方法及系统
CN110689562A (zh) * 2019-09-26 2020-01-14 深圳市唯特视科技有限公司 一种基于生成对抗网络的轨迹回环检测优化方法
CN110929692A (zh) * 2019-12-11 2020-03-27 中国科学院长春光学精密机械与物理研究所 一种基于多传感器信息融合的三维目标检测方法及装置
CN111079685A (zh) * 2019-12-25 2020-04-28 电子科技大学 一种3d目标检测方法
CN111209825A (zh) * 2019-12-31 2020-05-29 武汉中海庭数据技术有限公司 一种用于动态目标3d检测的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于激光点云与图像信息融合的交通环境车辆检测;郑少武;李巍华;胡坚耀;;仪器仪表学报;20191215(第12期);全文 *

Also Published As

Publication number Publication date
CN112001226A (zh) 2020-11-27

Similar Documents

Publication Publication Date Title
CN112001226B (zh) 一种无人驾驶3d目标检测方法、装置及存储介质
CN110059608B (zh) 一种物体检测方法、装置、电子设备和存储介质
US20210390329A1 (en) Image processing method, device, movable platform, unmanned aerial vehicle, and storage medium
US20220028163A1 (en) Computer Vision Systems and Methods for Detecting and Modeling Features of Structures in Images
CN111027401B (zh) 一种摄像头和激光雷达融合的端到端目标检测方法
CN110163930A (zh) 车道线生成方法、装置、设备、系统及可读存储介质
CN114842438B (zh) 用于自动驾驶汽车的地形检测方法、系统及可读存储介质
CN109683699B (zh) 基于深度学习实现增强现实的方法、装置及移动终端
WO2022188663A1 (zh) 一种目标检测方法及装置
CN113359782B (zh) 一种融合lidar点云与图像数据的无人机自主选址降落方法
CN113192091B (zh) 一种基于激光雷达与相机融合的远距离目标感知方法
CN111476242A (zh) 一种激光点云语义分割方法及装置
CN112154448A (zh) 目标检测方法、设备及可移动平台
CN116740669B (zh) 多目图像检测方法、装置、计算机设备和存储介质
CN112288667A (zh) 一种基于激光雷达与摄像头融合的三维目标检测方法
CN116740668B (zh) 三维目标检测方法、装置、计算机设备和存储介质
CN111257882A (zh) 数据融合方法、装置、无人驾驶设备和可读存储介质
CN117475428A (zh) 一种三维目标检测方法、系统及设备
CN117214904A (zh) 一种基于多传感器数据的鱼类智能识别监测方法和系统
CN116310673A (zh) 一种基于点云与图像特征融合的三维目标检测方法
CN116168384A (zh) 点云目标检测方法、装置、电子设备及存储介质
CN116778262B (zh) 一种基于虚拟点云的三维目标检测方法和系统
CN117470246A (zh) 路径规划方法、装置、存储介质及电子设备
CN115147564A (zh) 一种三维模型构建方法、神经网络训练方法以及装置
CN116310832A (zh) 遥感图像处理方法、装置、设备、介质及产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant