CN114627183A - 一种激光点云3d目标检测方法 - Google Patents

一种激光点云3d目标检测方法 Download PDF

Info

Publication number
CN114627183A
CN114627183A CN202210178373.2A CN202210178373A CN114627183A CN 114627183 A CN114627183 A CN 114627183A CN 202210178373 A CN202210178373 A CN 202210178373A CN 114627183 A CN114627183 A CN 114627183A
Authority
CN
China
Prior art keywords
point cloud
semantic
detection
graph
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210178373.2A
Other languages
English (en)
Inventor
黄刚
许翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Zero Run Technology Co Ltd
Original Assignee
Zhejiang Zero Run Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Zero Run Technology Co Ltd filed Critical Zhejiang Zero Run Technology Co Ltd
Priority to CN202210178373.2A priority Critical patent/CN114627183A/zh
Publication of CN114627183A publication Critical patent/CN114627183A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种激光点云3D目标检测方法,包括以下步骤:步骤S1)激光雷达传感器采集点云数据并标注障碍物真值;步骤S2)基于神经网络构建3D多任务算法模型;步骤S3)对标注好的点云数据进行在线预处理、体素化、语义真值获取,以及数据增强;步骤S4)用步骤S3处理后的标注好的点云数据及其对应的语义真值训练3D多任务算法模型;步骤S5)利用训练好的3D多任务算法模型对点云数据进行检测任务的前向推理。本发明在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,利用体素化后生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作,提高检测精度。

Description

一种激光点云3D目标检测方法
技术领域
本发明涉及3D目标检测技术领域,具体涉及一种激光点云3D目标检测方法。
背景技术
3D目标检测任务是指对3D成像传感器获得的点云数据进行目标定位与分类,是3D场景分析中的一个基本任务,随着激光雷达传感器的发展以及智能驾驶技术的进步,基于点云数据的3D目标检测任务越来越受到关注。3D目标检测方法目前主要有两种,一种是通过聚类的方式将点云中的点云簇聚类为多个目标对象,例如K-means、DBSCAN等经典算法;另一种是以近几年迅速发展的神经网络为基础的深度学习方法,该方法可以分为三类,分别是基于点的3D检测方法、基于体素的3D检测方法,以及基于投影的3D检测方法。传统的基于点云处理的检测方法不够稳定,性能对场景变化十分敏感,而且目标分类不够准确,同时误检严重;在深度学习分支领域,基于点的检测方法能够充分利用点云结构信息进行检测,但是无法通过卷积操作获得高层语义信息,只能通过多层感知机(MLP)获得全局信息进行检测;基于体素的检测方法可以通过3D卷积操作充分获得点云的语义信息进行定位和分类,但是速度慢,而且3D卷积操作不易部署在车载GPU硬件平台,此类方法还有另外一种方式,在体素化时将某一维度体素化为单位1,生成伪图像,然后基于伪图像进行2D卷积,提取特征,检测目标,此方式速度快,但是精度较低;基于投影的检测方法可以像2D检测一样对点云投影出的图像进行特征提取,进而回归出目标,此类方法丢失了一个维度信息,速度虽然提升明显,但是回归精度往往不够。
发明内容
本发明主要是为了解决现有的3D目标检测技术不能同时兼顾速度和精度的问题,提出了一种激光点云3D目标检测方法,在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,利用体素化后生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征约束检测分支的检测工作,提高检测精度。
为了实现上述目的,本发明采用以下技术方案:
一种激光点云3D目标检测方法,包括以下步骤:步骤S1)激光雷达传感器采集点云数据并标注障碍物真值;步骤S2)基于神经网络构建3D多任务算法模型;步骤S3)对标注好的点云数据进行在线预处理、体素化、语义真值获取,以及数据增强;步骤S4)用步骤S3处理后的标注好的点云数据及其对应的语义真值训练3D多任务算法模型;步骤S5)利用训练好的3D多任务算法模型对点云数据进行检测任务的前向推理。本发明提出了一种激光点云3D目标检测方法,具体过程为:1)使用激光雷达传感器采集点云数据,并用障碍物真值标注点云数据,障碍物真值包括目标尺寸、位置和方向等信息,具体的,障碍物真值对应的属性为点云外接矩形体的长、宽、高,中心点在激光雷达坐标系下的坐标(x、y、z)、航向角、类别;2)对标注好障碍物信息的点云数据(即点云数据及其对应的障碍物真值)进行在线预处理、体素化、语义真值获取,以及数据增强,预处理包括但不限于点云数据的乱序处理、兴趣域的裁剪,体素化是指将裁剪后的点云数据在x、y、z方向上按一定的步长进行量化,其中z轴的步长为本身,x、y轴的步长为Sx、Sy,量化后:W=Y/Sy;L=X/Sx;Z=1;数据增强包括但不限于真值重采样、随机翻转、随机仿射变换、随机缩放等数据增强常规操作;3)点云数据体素化后,根据每个体素内是否存在点云生成一张W*L大小的值为0或1的图S;然后初始化一张同样大小的值全为0的图S0,将障碍物真值投影到图S0,即图S0中障碍物矩形框内对应的值全置为1至n的常数,不同数字表示不同类别,得到图S1;将图S与图S1进行与操作获得图S2;将图S中的数值1变换为数值n+1,0表示没有点云,n+1表示有点云,n为障碍物的类别数,然后与图S2进行异或操作获得语义真值,最终语义图的数值0表示可忽略的像素,1至n表示不同类别的障碍物像素,n+1表示背景像素;4)基于神经网络构建3D多任务算法模型,包括主干网络、语义分割分支和检测分支,语义分割分支包括语义分割头,检测分支包括检测头,主干网络的输出端分别与语义分割头和检测头连接,用标注好障碍物信息的点云数据及其对应的语义真值训练3D多任务算法模型,点云数据及其对应的障碍物真值输入到主干网络,语义真值输入到语义分割头,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作;5)利用训练好的3D多任务算法模型对新的点云数据进行检测任务的前向推理。本发明在体素化时将z维度体素化为单位1,生成伪图像,然后基于伪图像进行2D卷积,提取特征,检测目标,加快检测速度;利用体素化过程生成语义真值,不需要额外标注语义真值,节省研发成本;在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,利用生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作,提高检测精度。
作为优选,步骤S3中获取语义真值的具体过程,包括以下步骤:步骤A1)点云数据体素化后,根据每个体素内是否存在点云生成W*L大小的值为0或1的图S;步骤A2)初始化W*L大小的值均为0的图S0,将障碍物真值投影到图S0获得图S1;步骤A3)将图S与图S1进行与操作获得图S2;步骤A4)将图S中的数值1变换为数值n+1;步骤A5)将变换数值后的图S与图S2进行异或操作获得语义真值。本发明利用体素化过程生成语义真值,用于训练语义分割分支,不需要额外标注语义真值,节省研发成本,具体过程为:点云数据体素化后,根据每个体素内是否存在点云生成一张W*L大小的值为0或1的图S;然后初始化一张同样大小的值全为0的图S0,将障碍物真值投影到图S0,即图S0中障碍物矩形框内对应的值全置为1至n的常数,不同数字表示不同类别,得到图S1;将图S与图S1进行与操作获得图S2;将图S中的数值1变换为数值n+1,0表示没有点云,n+1表示有点云,n为障碍物的类别数,然后与图S2进行异或操作获得语义真值,最终语义图的数值0表示可忽略的像素,1至n表示不同类别的障碍物像素,n+1表示背景像素。
作为优选,所述3D多任务算法模型包括主干网络、语义分割分支和检测分支,所述语义分割分支包括语义分割头,所述检测分支包括检测头,所述主干网络的输出端分别与语义分割头和检测头连接。本发明在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,用体素化后生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作。
作为优选,所述语义分割分支的中间特征输出给所述检测分支以约束检测分支的检测工作。本发明将语义分割分支的中间特征提炼出来约束检测分支的检测工作,提高检测精度。
作为优选,所述约束的具体过程为:语义分割头的中间特征Fseg经过Sigmoid激活后,与主干网络的输出Frpn进行点乘获得Fdet,将Fdet输入到检测头进行3D目标框的分类与回归。Frpn为3D多任务算法模型主干网络的输出,假设输出为主干网络输入的1/2,Frpn的尺寸为W/2*L/2,Fseg为语义分割头的中间特征,尺寸与Frpn一致,经过Sigmoid激活后与Frpn进行点乘,点乘是为了在Frpn中加入分割注意力,激发检测分支对潜在对象的位置进行关注,将点乘后的特征Fdet输入到检测头进行3D目标框的分类和回归。
作为优选,所述主干网络的输入为经过步骤S3处理后的点云数据及点云数据对应的障碍物真值。
作为优选,所述语义分割头的监督信号为步骤S3获取的语义真值。训练语义分割头时,用语义真值作为监督信号,采用SGD优化器和交叉熵分类损失函数进行训练,语义分割头最终上采样到W*L上进行预测。
因此,本发明的优点是:
(1)基于伪图像进行2D卷积操作提取特征,提高检测速度;
(2)利用体素化过程生成语义真值,不需要额外标注语义真值,节省研发成本;
(3)在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作,提高检测精度。
附图说明
图1是本发明实施例中一种激光点云3D目标检测方法的流程图。
图2是本发明实施例中3D多任务算法模型的结构示意图。
图3是本发明实施例中约束过程的示意图。
1、主干网络 2、语义分割头 3、检测头。
具体实施方式
下面结合附图与具体实施方式对本发明做进一步的描述。
如图1所示,一种激光点云3D目标检测方法,包括以下步骤:步骤S1)激光雷达传感器采集点云数据并标注障碍物真值;步骤S2)基于神经网络构建3D多任务算法模型;步骤S3)对标注好的点云数据进行在线预处理、体素化、语义真值获取,以及数据增强;步骤S4)用步骤S3处理后的标注好的点云数据及其对应的语义真值训练3D多任务算法模型;步骤S5)利用训练好的3D多任务算法模型对点云数据进行检测任务的前向推理。本实施例提出了一种激光点云3D目标检测方法,具体过程为:1)使用激光雷达传感器采集点云数据,并用障碍物真值标注点云数据,障碍物真值包括目标尺寸、位置和方向等信息,具体的,障碍物真值对应的属性为点云外接矩形体的长、宽、高,中心点在激光雷达坐标系下的坐标(x、y、z)、航向角、类别;2)对标注好障碍物信息的点云数据(即点云数据及其对应的障碍物真值)进行在线预处理、体素化、语义真值获取,以及数据增强,预处理包括但不限于点云数据的乱序处理、兴趣域的裁剪,体素化是指将裁剪后的点云数据在x、y、z方向上按一定的步长进行量化,其中z轴的步长为本身,x、y轴的步长为Sx、Sy,量化后:W=Y/Sy;L=X/Sx;Z=1;数据增强包括但不限于真值重采样、随机翻转、随机仿射变换、随机缩放等数据增强常规操作;3)点云数据体素化后,根据每个体素内是否存在点云生成一张W*L大小的值为0或1的图S;然后初始化一张同样大小的值全为0的图S0,将障碍物真值投影到图S0,即图S0中障碍物矩形框内对应的值全置为1至n的常数,不同数字表示不同类别,得到图S1;将图S与图S1进行与操作获得图S2;将图S中的数值1变换为数值n+1,0表示没有点云,n+1表示有点云,n为障碍物的类别数,然后与图S2进行异或操作获得语义真值,最终语义图的数值0表示可忽略的像素,1至n表示不同类别的障碍物像素,n+1表示背景像素;4)基于神经网络构建3D多任务算法模型,包括主干网络1、语义分割分支和检测分支,语义分割分支包括语义分割头2,检测分支包括检测头3,主干网络1的输出端分别与语义分割头2和检测头3连接,用标注好障碍物信息的点云数据及其对应的语义真值训练3D多任务算法模型,点云数据及其对应的障碍物真值输入到主干网络1,语义真值输入到语义分割头2,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作;5)利用训练好的3D多任务算法模型对新的点云数据进行检测任务的前向推理。
步骤S3中获取语义真值的具体过程,包括以下步骤:步骤A1)点云数据体素化后,根据每个体素内是否存在点云生成W*L大小的值为0或1的图S;步骤A2)初始化W*L大小的值均为0的图S0,将障碍物真值投影到图S0获得图S1;步骤A3)将图S与图S1进行与操作获得图S2;步骤A4)将图S中的数值1变换为数值n+1;步骤A5)将变换数值后的图S与图S2进行异或操作获得语义真值。本发明利用体素化过程生成语义真值,用于训练语义分割分支,不需要额外标注语义真值,具体过程为:点云数据体素化后,根据每个体素内是否存在点云生成一张W*L大小的值为0或1的图S;然后初始化一张同样大小的值全为0的图S0,将障碍物真值投影到图S0,即图S0中障碍物矩形框内对应的值全置为1至n的常数,不同数字表示不同类别,得到图S1;将图S与图S1进行与操作获得图S2;将图S中的数值1变换为数值n+1,0表示没有点云,n+1表示有点云,n为障碍物的类别数,然后与图S2进行异或操作获得语义真值,最终语义图的数值0表示可忽略的像素,1至n表示不同类别的障碍物像素,n+1表示背景像素。
如图2所示,3D多任务算法模型包括主干网络1、语义分割分支和检测分支,语义分割分支包括语义分割头2,检测分支包括检测头3,主干网络1的输入为标注好障碍物信息的点云数据,即经过步骤S3处理后的点云数据及标注点云数据的障碍物真值;主干网络1的输出端分别与语义分割头2和检测头3连接,语义分割头2的监督信号为步骤S3获取的语义真值,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作。本发明在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,用体素化后生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作,约束过程如图3所示,Frpn为3D多任务算法模型主干网络1的输出,假设输出为主干网络1输入的1/2,Frpn的尺寸为W/2*L/2,Fseg为语义分割头2的中间特征,尺寸与Frpn一致,经过Sigmoid激活后与Frpn进行点乘,点乘是为了在Frpn中加入分割注意力,激发检测分支对潜在对象的位置进行关注,将点乘后的特征Fdet输入到检测头3进行3D目标框的分类和回归,Fpre为语义分割头2的预测图。
主干网络1包括全连接层、Scatter层和上采样层,全连接层用于提取全局信息;Scatter层用于将全局信息重排列为伪鸟瞰图像。主干网络1首先用全连接层提取全局信息(也可以用1*1的卷积层替代),然后用Scatter层重排列为伪鸟瞰图像,最后卷积层、归一化层、激活层、反卷积层或者其它上采样层提取伪鸟瞰图的特征作为主干网络1的输出,主干网络1的输出最终可为输入尺寸的1/8、1/4、1/2、1,也可以输出多尺寸,尺寸越大对应的计算量越大。
语义分割头2包含少数卷积层、归一化层、激活层和dropout层,语义分割头2的类别输出N与检测头3的保持一致,监督信号为语义真值,采用SGD优化器和交叉熵分类损失函数进行训练,语义分割头2最终上采样到W*L上做预测。
检测头3包含两个分支,分类分支和回归分支,分类分支对3D目标框进行分类,输出通道为M*N,回归分支的输出通道为M*7,M为特征点生成的候选框数量,7为(x、y、z、w、l、h、heading)七个维度。检测头3的分类损失函数为Focal Loss,回归损失函数为SmoothL1Loss。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (7)

1.一种激光点云3D目标检测方法,其特征在于,包括以下步骤:
步骤S1:激光雷达传感器采集点云数据并标注障碍物真值;
步骤S2:基于神经网络构建3D多任务算法模型;
步骤S3:对标注好的点云数据进行在线预处理、体素化、语义真值获取,以及数据增强;
步骤S4:用步骤S3处理后的标注好的点云数据及其对应的语义真值训练3D多任务算法模型;
步骤S5:利用训练好的3D多任务算法模型对点云数据进行检测任务的前向推理。
2.根据权利要求1所述的一种激光点云3D目标检测方法,其特征在于,步骤S3中获取语义真值的具体过程,包括以下步骤:
步骤A1:点云数据体素化后,根据每个体素内是否存在点云生成W*L大小的值为0或1的图S;
步骤A2:初始化W*L大小的值均为0的图S0,将障碍物真值投影到图S0获得图S1
步骤A3:将图S与图S1进行与操作获得图S2
步骤A4:将图S中的数值1变换为数值n+1;
步骤A5:将变换数值后的图S与图S2进行异或操作获得语义真值。
3.根据权利要求1所述的一种激光点云3D目标检测方法,其特征在于,所述3D多任务算法模型包括主干网络、语义分割分支和检测分支,所述语义分割分支包括语义分割头,所述检测分支包括检测头,所述主干网络的输出端分别与语义分割头和检测头连接。
4.根据权利要求3所述的一种激光点云3D目标检测方法,其特征在于,所述语义分割分支的中间特征输出给所述检测分支以约束检测分支的检测工作。
5.根据权利要求4所述的一种激光点云3D目标检测方法,其特征在于,所述约束的具体过程为:语义分割头的中间特征Fseg经过Sigmoid激活后,与主干网络的输出Frpn进行点乘获得Fdet,将Fdet输入到检测头进行3D目标框的分类与回归。
6.根据权利要求3所述的一种激光点云3D目标检测方法,其特征在于,所述主干网络的输入为经过步骤S3处理后的点云数据及点云数据对应的障碍物真值。
7.根据权利要求3所述的一种激光点云3D目标检测方法,其特征在于,所述语义分割头的监督信号为步骤S3获取的语义真值。
CN202210178373.2A 2022-02-25 2022-02-25 一种激光点云3d目标检测方法 Pending CN114627183A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210178373.2A CN114627183A (zh) 2022-02-25 2022-02-25 一种激光点云3d目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210178373.2A CN114627183A (zh) 2022-02-25 2022-02-25 一种激光点云3d目标检测方法

Publications (1)

Publication Number Publication Date
CN114627183A true CN114627183A (zh) 2022-06-14

Family

ID=81900664

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210178373.2A Pending CN114627183A (zh) 2022-02-25 2022-02-25 一种激光点云3d目标检测方法

Country Status (1)

Country Link
CN (1) CN114627183A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116416586A (zh) * 2022-12-19 2023-07-11 香港中文大学(深圳) 基于rgb点云的地图元素感知方法、终端及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635685A (zh) * 2018-11-29 2019-04-16 北京市商汤科技开发有限公司 目标对象3d检测方法、装置、介质及设备
DE102018128531A1 (de) * 2018-11-14 2020-05-14 Valeo Schalter Und Sensoren Gmbh System und Verfahren zum Analysieren einer durch eine Punktwolke dargestellten dreidimensionalen Umgebung durch tiefes Lernen
CN112444784A (zh) * 2019-08-29 2021-03-05 北京市商汤科技开发有限公司 三维目标检测及神经网络的训练方法、装置及设备
CN113095172A (zh) * 2021-03-29 2021-07-09 天津大学 一种基于深度学习的点云三维物体检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018128531A1 (de) * 2018-11-14 2020-05-14 Valeo Schalter Und Sensoren Gmbh System und Verfahren zum Analysieren einer durch eine Punktwolke dargestellten dreidimensionalen Umgebung durch tiefes Lernen
CN109635685A (zh) * 2018-11-29 2019-04-16 北京市商汤科技开发有限公司 目标对象3d检测方法、装置、介质及设备
CN112444784A (zh) * 2019-08-29 2021-03-05 北京市商汤科技开发有限公司 三维目标检测及神经网络的训练方法、装置及设备
CN113095172A (zh) * 2021-03-29 2021-07-09 天津大学 一种基于深度学习的点云三维物体检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵亮等: "基于语义分割的深度学习激光点云三维目标检测", 中国激光, vol. 48, no. 17, 1 June 2021 (2021-06-01), pages 177 - 189 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116416586A (zh) * 2022-12-19 2023-07-11 香港中文大学(深圳) 基于rgb点云的地图元素感知方法、终端及存储介质
CN116416586B (zh) * 2022-12-19 2024-04-02 香港中文大学(深圳) 基于rgb点云的地图元素感知方法、终端及存储介质

Similar Documents

Publication Publication Date Title
EP3916628A1 (en) Object identification method and device
Sirohi et al. Efficientlps: Efficient lidar panoptic segmentation
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
CN112488210A (zh) 一种基于图卷积神经网络的三维点云自动分类方法
WO2021218786A1 (zh) 一种数据处理系统、物体检测方法及其装置
Bhagya et al. An overview of deep learning based object detection techniques
Zhou et al. An end-to-end multi-task object detection using embedded gpu in autonomous driving
CN111723660A (zh) 一种用于长形地面目标检测网络的检测方法
Hu et al. A video streaming vehicle detection algorithm based on YOLOv4
Hammam et al. DeepPet: A pet animal tracking system in internet of things using deep neural networks
Li et al. An aerial image segmentation approach based on enhanced multi-scale convolutional neural network
Wu et al. Depth dynamic center difference convolutions for monocular 3D object detection
Zhang et al. CE-RetinaNet: A channel enhancement method for infrared wildlife detection in UAV images
CN113255779B (zh) 多源感知数据融合识别方法、系统及计算机可读存储介质
CN114627183A (zh) 一种激光点云3d目标检测方法
Yang et al. Improved YOLOv4 based on dilated coordinate attention for object detection
Nayan et al. Real time multi-class object detection and recognition using vision augmentation algorithm
CN113420660B (zh) 一种红外图像目标检测模型构建方法、预测方法及系统
Gunawan et al. Semantic segmentation of aerial imagery for road and building extraction with deep learning
Sun et al. Object Detection in Urban Aerial Image Based on Advanced YOLO v3 Algorithm
Yayla et al. A new classification approach with deep mask r-cnn for synthetic aperture radar image segmentation
Pu et al. Sdf-gan: Semi-supervised depth fusion with multi-scale adversarial networks
Zhang et al. Multiple Objects Detection based on Improved Faster R-CNN
Kong et al. MAF-Net: A multi-attention fusion network for power transmission line extraction from aerial images
CN112488116A (zh) 基于多模态嵌入的场景理解语义生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination