CN114627183A - 一种激光点云3d目标检测方法 - Google Patents
一种激光点云3d目标检测方法 Download PDFInfo
- Publication number
- CN114627183A CN114627183A CN202210178373.2A CN202210178373A CN114627183A CN 114627183 A CN114627183 A CN 114627183A CN 202210178373 A CN202210178373 A CN 202210178373A CN 114627183 A CN114627183 A CN 114627183A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- semantic
- detection
- graph
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 99
- 238000000034 method Methods 0.000 claims abstract description 35
- 230000011218 segmentation Effects 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims 1
- 230000004888 barrier function Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000012827 research and development Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 244000061520 Angelica archangelica Species 0.000 description 1
- 235000001287 Guettarda speciosa Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种激光点云3D目标检测方法,包括以下步骤:步骤S1)激光雷达传感器采集点云数据并标注障碍物真值;步骤S2)基于神经网络构建3D多任务算法模型;步骤S3)对标注好的点云数据进行在线预处理、体素化、语义真值获取,以及数据增强;步骤S4)用步骤S3处理后的标注好的点云数据及其对应的语义真值训练3D多任务算法模型;步骤S5)利用训练好的3D多任务算法模型对点云数据进行检测任务的前向推理。本发明在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,利用体素化后生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作,提高检测精度。
Description
技术领域
本发明涉及3D目标检测技术领域,具体涉及一种激光点云3D目标检测方法。
背景技术
3D目标检测任务是指对3D成像传感器获得的点云数据进行目标定位与分类,是3D场景分析中的一个基本任务,随着激光雷达传感器的发展以及智能驾驶技术的进步,基于点云数据的3D目标检测任务越来越受到关注。3D目标检测方法目前主要有两种,一种是通过聚类的方式将点云中的点云簇聚类为多个目标对象,例如K-means、DBSCAN等经典算法;另一种是以近几年迅速发展的神经网络为基础的深度学习方法,该方法可以分为三类,分别是基于点的3D检测方法、基于体素的3D检测方法,以及基于投影的3D检测方法。传统的基于点云处理的检测方法不够稳定,性能对场景变化十分敏感,而且目标分类不够准确,同时误检严重;在深度学习分支领域,基于点的检测方法能够充分利用点云结构信息进行检测,但是无法通过卷积操作获得高层语义信息,只能通过多层感知机(MLP)获得全局信息进行检测;基于体素的检测方法可以通过3D卷积操作充分获得点云的语义信息进行定位和分类,但是速度慢,而且3D卷积操作不易部署在车载GPU硬件平台,此类方法还有另外一种方式,在体素化时将某一维度体素化为单位1,生成伪图像,然后基于伪图像进行2D卷积,提取特征,检测目标,此方式速度快,但是精度较低;基于投影的检测方法可以像2D检测一样对点云投影出的图像进行特征提取,进而回归出目标,此类方法丢失了一个维度信息,速度虽然提升明显,但是回归精度往往不够。
发明内容
本发明主要是为了解决现有的3D目标检测技术不能同时兼顾速度和精度的问题,提出了一种激光点云3D目标检测方法,在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,利用体素化后生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征约束检测分支的检测工作,提高检测精度。
为了实现上述目的,本发明采用以下技术方案:
一种激光点云3D目标检测方法,包括以下步骤:步骤S1)激光雷达传感器采集点云数据并标注障碍物真值;步骤S2)基于神经网络构建3D多任务算法模型;步骤S3)对标注好的点云数据进行在线预处理、体素化、语义真值获取,以及数据增强;步骤S4)用步骤S3处理后的标注好的点云数据及其对应的语义真值训练3D多任务算法模型;步骤S5)利用训练好的3D多任务算法模型对点云数据进行检测任务的前向推理。本发明提出了一种激光点云3D目标检测方法,具体过程为:1)使用激光雷达传感器采集点云数据,并用障碍物真值标注点云数据,障碍物真值包括目标尺寸、位置和方向等信息,具体的,障碍物真值对应的属性为点云外接矩形体的长、宽、高,中心点在激光雷达坐标系下的坐标(x、y、z)、航向角、类别;2)对标注好障碍物信息的点云数据(即点云数据及其对应的障碍物真值)进行在线预处理、体素化、语义真值获取,以及数据增强,预处理包括但不限于点云数据的乱序处理、兴趣域的裁剪,体素化是指将裁剪后的点云数据在x、y、z方向上按一定的步长进行量化,其中z轴的步长为本身,x、y轴的步长为Sx、Sy,量化后:W=Y/Sy;L=X/Sx;Z=1;数据增强包括但不限于真值重采样、随机翻转、随机仿射变换、随机缩放等数据增强常规操作;3)点云数据体素化后,根据每个体素内是否存在点云生成一张W*L大小的值为0或1的图S;然后初始化一张同样大小的值全为0的图S0,将障碍物真值投影到图S0,即图S0中障碍物矩形框内对应的值全置为1至n的常数,不同数字表示不同类别,得到图S1;将图S与图S1进行与操作获得图S2;将图S中的数值1变换为数值n+1,0表示没有点云,n+1表示有点云,n为障碍物的类别数,然后与图S2进行异或操作获得语义真值,最终语义图的数值0表示可忽略的像素,1至n表示不同类别的障碍物像素,n+1表示背景像素;4)基于神经网络构建3D多任务算法模型,包括主干网络、语义分割分支和检测分支,语义分割分支包括语义分割头,检测分支包括检测头,主干网络的输出端分别与语义分割头和检测头连接,用标注好障碍物信息的点云数据及其对应的语义真值训练3D多任务算法模型,点云数据及其对应的障碍物真值输入到主干网络,语义真值输入到语义分割头,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作;5)利用训练好的3D多任务算法模型对新的点云数据进行检测任务的前向推理。本发明在体素化时将z维度体素化为单位1,生成伪图像,然后基于伪图像进行2D卷积,提取特征,检测目标,加快检测速度;利用体素化过程生成语义真值,不需要额外标注语义真值,节省研发成本;在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,利用生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作,提高检测精度。
作为优选,步骤S3中获取语义真值的具体过程,包括以下步骤:步骤A1)点云数据体素化后,根据每个体素内是否存在点云生成W*L大小的值为0或1的图S;步骤A2)初始化W*L大小的值均为0的图S0,将障碍物真值投影到图S0获得图S1;步骤A3)将图S与图S1进行与操作获得图S2;步骤A4)将图S中的数值1变换为数值n+1;步骤A5)将变换数值后的图S与图S2进行异或操作获得语义真值。本发明利用体素化过程生成语义真值,用于训练语义分割分支,不需要额外标注语义真值,节省研发成本,具体过程为:点云数据体素化后,根据每个体素内是否存在点云生成一张W*L大小的值为0或1的图S;然后初始化一张同样大小的值全为0的图S0,将障碍物真值投影到图S0,即图S0中障碍物矩形框内对应的值全置为1至n的常数,不同数字表示不同类别,得到图S1;将图S与图S1进行与操作获得图S2;将图S中的数值1变换为数值n+1,0表示没有点云,n+1表示有点云,n为障碍物的类别数,然后与图S2进行异或操作获得语义真值,最终语义图的数值0表示可忽略的像素,1至n表示不同类别的障碍物像素,n+1表示背景像素。
作为优选,所述3D多任务算法模型包括主干网络、语义分割分支和检测分支,所述语义分割分支包括语义分割头,所述检测分支包括检测头,所述主干网络的输出端分别与语义分割头和检测头连接。本发明在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,用体素化后生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作。
作为优选,所述语义分割分支的中间特征输出给所述检测分支以约束检测分支的检测工作。本发明将语义分割分支的中间特征提炼出来约束检测分支的检测工作,提高检测精度。
作为优选,所述约束的具体过程为:语义分割头的中间特征Fseg经过Sigmoid激活后,与主干网络的输出Frpn进行点乘获得Fdet,将Fdet输入到检测头进行3D目标框的分类与回归。Frpn为3D多任务算法模型主干网络的输出,假设输出为主干网络输入的1/2,Frpn的尺寸为W/2*L/2,Fseg为语义分割头的中间特征,尺寸与Frpn一致,经过Sigmoid激活后与Frpn进行点乘,点乘是为了在Frpn中加入分割注意力,激发检测分支对潜在对象的位置进行关注,将点乘后的特征Fdet输入到检测头进行3D目标框的分类和回归。
作为优选,所述主干网络的输入为经过步骤S3处理后的点云数据及点云数据对应的障碍物真值。
作为优选,所述语义分割头的监督信号为步骤S3获取的语义真值。训练语义分割头时,用语义真值作为监督信号,采用SGD优化器和交叉熵分类损失函数进行训练,语义分割头最终上采样到W*L上进行预测。
因此,本发明的优点是:
(1)基于伪图像进行2D卷积操作提取特征,提高检测速度;
(2)利用体素化过程生成语义真值,不需要额外标注语义真值,节省研发成本;
(3)在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作,提高检测精度。
附图说明
图1是本发明实施例中一种激光点云3D目标检测方法的流程图。
图2是本发明实施例中3D多任务算法模型的结构示意图。
图3是本发明实施例中约束过程的示意图。
1、主干网络 2、语义分割头 3、检测头。
具体实施方式
下面结合附图与具体实施方式对本发明做进一步的描述。
如图1所示,一种激光点云3D目标检测方法,包括以下步骤:步骤S1)激光雷达传感器采集点云数据并标注障碍物真值;步骤S2)基于神经网络构建3D多任务算法模型;步骤S3)对标注好的点云数据进行在线预处理、体素化、语义真值获取,以及数据增强;步骤S4)用步骤S3处理后的标注好的点云数据及其对应的语义真值训练3D多任务算法模型;步骤S5)利用训练好的3D多任务算法模型对点云数据进行检测任务的前向推理。本实施例提出了一种激光点云3D目标检测方法,具体过程为:1)使用激光雷达传感器采集点云数据,并用障碍物真值标注点云数据,障碍物真值包括目标尺寸、位置和方向等信息,具体的,障碍物真值对应的属性为点云外接矩形体的长、宽、高,中心点在激光雷达坐标系下的坐标(x、y、z)、航向角、类别;2)对标注好障碍物信息的点云数据(即点云数据及其对应的障碍物真值)进行在线预处理、体素化、语义真值获取,以及数据增强,预处理包括但不限于点云数据的乱序处理、兴趣域的裁剪,体素化是指将裁剪后的点云数据在x、y、z方向上按一定的步长进行量化,其中z轴的步长为本身,x、y轴的步长为Sx、Sy,量化后:W=Y/Sy;L=X/Sx;Z=1;数据增强包括但不限于真值重采样、随机翻转、随机仿射变换、随机缩放等数据增强常规操作;3)点云数据体素化后,根据每个体素内是否存在点云生成一张W*L大小的值为0或1的图S;然后初始化一张同样大小的值全为0的图S0,将障碍物真值投影到图S0,即图S0中障碍物矩形框内对应的值全置为1至n的常数,不同数字表示不同类别,得到图S1;将图S与图S1进行与操作获得图S2;将图S中的数值1变换为数值n+1,0表示没有点云,n+1表示有点云,n为障碍物的类别数,然后与图S2进行异或操作获得语义真值,最终语义图的数值0表示可忽略的像素,1至n表示不同类别的障碍物像素,n+1表示背景像素;4)基于神经网络构建3D多任务算法模型,包括主干网络1、语义分割分支和检测分支,语义分割分支包括语义分割头2,检测分支包括检测头3,主干网络1的输出端分别与语义分割头2和检测头3连接,用标注好障碍物信息的点云数据及其对应的语义真值训练3D多任务算法模型,点云数据及其对应的障碍物真值输入到主干网络1,语义真值输入到语义分割头2,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作;5)利用训练好的3D多任务算法模型对新的点云数据进行检测任务的前向推理。
步骤S3中获取语义真值的具体过程,包括以下步骤:步骤A1)点云数据体素化后,根据每个体素内是否存在点云生成W*L大小的值为0或1的图S;步骤A2)初始化W*L大小的值均为0的图S0,将障碍物真值投影到图S0获得图S1;步骤A3)将图S与图S1进行与操作获得图S2;步骤A4)将图S中的数值1变换为数值n+1;步骤A5)将变换数值后的图S与图S2进行异或操作获得语义真值。本发明利用体素化过程生成语义真值,用于训练语义分割分支,不需要额外标注语义真值,具体过程为:点云数据体素化后,根据每个体素内是否存在点云生成一张W*L大小的值为0或1的图S;然后初始化一张同样大小的值全为0的图S0,将障碍物真值投影到图S0,即图S0中障碍物矩形框内对应的值全置为1至n的常数,不同数字表示不同类别,得到图S1;将图S与图S1进行与操作获得图S2;将图S中的数值1变换为数值n+1,0表示没有点云,n+1表示有点云,n为障碍物的类别数,然后与图S2进行异或操作获得语义真值,最终语义图的数值0表示可忽略的像素,1至n表示不同类别的障碍物像素,n+1表示背景像素。
如图2所示,3D多任务算法模型包括主干网络1、语义分割分支和检测分支,语义分割分支包括语义分割头2,检测分支包括检测头3,主干网络1的输入为标注好障碍物信息的点云数据,即经过步骤S3处理后的点云数据及标注点云数据的障碍物真值;主干网络1的输出端分别与语义分割头2和检测头3连接,语义分割头2的监督信号为步骤S3获取的语义真值,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作。本发明在3D目标检测算法模型中加入语义分割分支得到3D多任务算法模型,用体素化后生成的语义真值训练语义分割分支,提炼语义分割分支的中间特征输出给检测分支以约束检测分支的检测工作,约束过程如图3所示,Frpn为3D多任务算法模型主干网络1的输出,假设输出为主干网络1输入的1/2,Frpn的尺寸为W/2*L/2,Fseg为语义分割头2的中间特征,尺寸与Frpn一致,经过Sigmoid激活后与Frpn进行点乘,点乘是为了在Frpn中加入分割注意力,激发检测分支对潜在对象的位置进行关注,将点乘后的特征Fdet输入到检测头3进行3D目标框的分类和回归,Fpre为语义分割头2的预测图。
主干网络1包括全连接层、Scatter层和上采样层,全连接层用于提取全局信息;Scatter层用于将全局信息重排列为伪鸟瞰图像。主干网络1首先用全连接层提取全局信息(也可以用1*1的卷积层替代),然后用Scatter层重排列为伪鸟瞰图像,最后卷积层、归一化层、激活层、反卷积层或者其它上采样层提取伪鸟瞰图的特征作为主干网络1的输出,主干网络1的输出最终可为输入尺寸的1/8、1/4、1/2、1,也可以输出多尺寸,尺寸越大对应的计算量越大。
语义分割头2包含少数卷积层、归一化层、激活层和dropout层,语义分割头2的类别输出N与检测头3的保持一致,监督信号为语义真值,采用SGD优化器和交叉熵分类损失函数进行训练,语义分割头2最终上采样到W*L上做预测。
检测头3包含两个分支,分类分支和回归分支,分类分支对3D目标框进行分类,输出通道为M*N,回归分支的输出通道为M*7,M为特征点生成的候选框数量,7为(x、y、z、w、l、h、heading)七个维度。检测头3的分类损失函数为Focal Loss,回归损失函数为SmoothL1Loss。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (7)
1.一种激光点云3D目标检测方法,其特征在于,包括以下步骤:
步骤S1:激光雷达传感器采集点云数据并标注障碍物真值;
步骤S2:基于神经网络构建3D多任务算法模型;
步骤S3:对标注好的点云数据进行在线预处理、体素化、语义真值获取,以及数据增强;
步骤S4:用步骤S3处理后的标注好的点云数据及其对应的语义真值训练3D多任务算法模型;
步骤S5:利用训练好的3D多任务算法模型对点云数据进行检测任务的前向推理。
2.根据权利要求1所述的一种激光点云3D目标检测方法,其特征在于,步骤S3中获取语义真值的具体过程,包括以下步骤:
步骤A1:点云数据体素化后,根据每个体素内是否存在点云生成W*L大小的值为0或1的图S;
步骤A2:初始化W*L大小的值均为0的图S0,将障碍物真值投影到图S0获得图S1;
步骤A3:将图S与图S1进行与操作获得图S2;
步骤A4:将图S中的数值1变换为数值n+1;
步骤A5:将变换数值后的图S与图S2进行异或操作获得语义真值。
3.根据权利要求1所述的一种激光点云3D目标检测方法,其特征在于,所述3D多任务算法模型包括主干网络、语义分割分支和检测分支,所述语义分割分支包括语义分割头,所述检测分支包括检测头,所述主干网络的输出端分别与语义分割头和检测头连接。
4.根据权利要求3所述的一种激光点云3D目标检测方法,其特征在于,所述语义分割分支的中间特征输出给所述检测分支以约束检测分支的检测工作。
5.根据权利要求4所述的一种激光点云3D目标检测方法,其特征在于,所述约束的具体过程为:语义分割头的中间特征Fseg经过Sigmoid激活后,与主干网络的输出Frpn进行点乘获得Fdet,将Fdet输入到检测头进行3D目标框的分类与回归。
6.根据权利要求3所述的一种激光点云3D目标检测方法,其特征在于,所述主干网络的输入为经过步骤S3处理后的点云数据及点云数据对应的障碍物真值。
7.根据权利要求3所述的一种激光点云3D目标检测方法,其特征在于,所述语义分割头的监督信号为步骤S3获取的语义真值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210178373.2A CN114627183A (zh) | 2022-02-25 | 2022-02-25 | 一种激光点云3d目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210178373.2A CN114627183A (zh) | 2022-02-25 | 2022-02-25 | 一种激光点云3d目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114627183A true CN114627183A (zh) | 2022-06-14 |
Family
ID=81900664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210178373.2A Pending CN114627183A (zh) | 2022-02-25 | 2022-02-25 | 一种激光点云3d目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114627183A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116416586A (zh) * | 2022-12-19 | 2023-07-11 | 香港中文大学(深圳) | 基于rgb点云的地图元素感知方法、终端及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635685A (zh) * | 2018-11-29 | 2019-04-16 | 北京市商汤科技开发有限公司 | 目标对象3d检测方法、装置、介质及设备 |
DE102018128531A1 (de) * | 2018-11-14 | 2020-05-14 | Valeo Schalter Und Sensoren Gmbh | System und Verfahren zum Analysieren einer durch eine Punktwolke dargestellten dreidimensionalen Umgebung durch tiefes Lernen |
CN112444784A (zh) * | 2019-08-29 | 2021-03-05 | 北京市商汤科技开发有限公司 | 三维目标检测及神经网络的训练方法、装置及设备 |
CN113095172A (zh) * | 2021-03-29 | 2021-07-09 | 天津大学 | 一种基于深度学习的点云三维物体检测方法 |
-
2022
- 2022-02-25 CN CN202210178373.2A patent/CN114627183A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018128531A1 (de) * | 2018-11-14 | 2020-05-14 | Valeo Schalter Und Sensoren Gmbh | System und Verfahren zum Analysieren einer durch eine Punktwolke dargestellten dreidimensionalen Umgebung durch tiefes Lernen |
CN109635685A (zh) * | 2018-11-29 | 2019-04-16 | 北京市商汤科技开发有限公司 | 目标对象3d检测方法、装置、介质及设备 |
CN112444784A (zh) * | 2019-08-29 | 2021-03-05 | 北京市商汤科技开发有限公司 | 三维目标检测及神经网络的训练方法、装置及设备 |
CN113095172A (zh) * | 2021-03-29 | 2021-07-09 | 天津大学 | 一种基于深度学习的点云三维物体检测方法 |
Non-Patent Citations (1)
Title |
---|
赵亮等: "基于语义分割的深度学习激光点云三维目标检测", 中国激光, vol. 48, no. 17, 1 June 2021 (2021-06-01), pages 177 - 189 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116416586A (zh) * | 2022-12-19 | 2023-07-11 | 香港中文大学(深圳) | 基于rgb点云的地图元素感知方法、终端及存储介质 |
CN116416586B (zh) * | 2022-12-19 | 2024-04-02 | 香港中文大学(深圳) | 基于rgb点云的地图元素感知方法、终端及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3916628A1 (en) | Object identification method and device | |
Sirohi et al. | Efficientlps: Efficient lidar panoptic segmentation | |
CN107563372B (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
CN112488210A (zh) | 一种基于图卷积神经网络的三维点云自动分类方法 | |
WO2021218786A1 (zh) | 一种数据处理系统、物体检测方法及其装置 | |
Bhagya et al. | An overview of deep learning based object detection techniques | |
Zhou et al. | An end-to-end multi-task object detection using embedded gpu in autonomous driving | |
CN111723660A (zh) | 一种用于长形地面目标检测网络的检测方法 | |
Hu et al. | A video streaming vehicle detection algorithm based on YOLOv4 | |
Hammam et al. | DeepPet: A pet animal tracking system in internet of things using deep neural networks | |
Li et al. | An aerial image segmentation approach based on enhanced multi-scale convolutional neural network | |
Wu et al. | Depth dynamic center difference convolutions for monocular 3D object detection | |
Zhang et al. | CE-RetinaNet: A channel enhancement method for infrared wildlife detection in UAV images | |
CN113255779B (zh) | 多源感知数据融合识别方法、系统及计算机可读存储介质 | |
CN114627183A (zh) | 一种激光点云3d目标检测方法 | |
Yang et al. | Improved YOLOv4 based on dilated coordinate attention for object detection | |
Nayan et al. | Real time multi-class object detection and recognition using vision augmentation algorithm | |
CN113420660B (zh) | 一种红外图像目标检测模型构建方法、预测方法及系统 | |
Gunawan et al. | Semantic segmentation of aerial imagery for road and building extraction with deep learning | |
Sun et al. | Object Detection in Urban Aerial Image Based on Advanced YOLO v3 Algorithm | |
Yayla et al. | A new classification approach with deep mask r-cnn for synthetic aperture radar image segmentation | |
Pu et al. | Sdf-gan: Semi-supervised depth fusion with multi-scale adversarial networks | |
Zhang et al. | Multiple Objects Detection based on Improved Faster R-CNN | |
Kong et al. | MAF-Net: A multi-attention fusion network for power transmission line extraction from aerial images | |
CN112488116A (zh) | 基于多模态嵌入的场景理解语义生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |