CN116413740B - 一种激光雷达点云地面检测方法及装置 - Google Patents
一种激光雷达点云地面检测方法及装置 Download PDFInfo
- Publication number
- CN116413740B CN116413740B CN202310680458.5A CN202310680458A CN116413740B CN 116413740 B CN116413740 B CN 116413740B CN 202310680458 A CN202310680458 A CN 202310680458A CN 116413740 B CN116413740 B CN 116413740B
- Authority
- CN
- China
- Prior art keywords
- ground
- point cloud
- laser
- data set
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 128
- 238000011156 evaluation Methods 0.000 claims abstract description 79
- 238000000605 extraction Methods 0.000 claims abstract description 72
- 238000012360 testing method Methods 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 43
- 238000007781 pre-processing Methods 0.000 claims abstract description 30
- 238000012805 post-processing Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 18
- 238000002372 labelling Methods 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 15
- 238000009434 installation Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 46
- 238000010586 diagram Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本申请提供一种激光雷达点云地面检测方法及装置,该方法包括:获取激光点云训练数据集和激光点云测试数据集;对激光点云训练数据集进行前处理,得到目标数据样本;搭建语义特征提取网络模型;将目标数据样本输入至语义特征提取网络模型,得到图像特征信息;对图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合;根据激光点云测试数据集、地面坐标点集合和非地面坐标点集合对语义特征提取网络模型进行检测结果评估,得到评估结果。可见,该方法及装置能够快速实现激光雷达点云地面检测,且检测精度好,实时性好,简单有效还易于部署。
Description
技术领域
本申请涉及数据处理技术领域,具体而言,涉及一种激光雷达点云地面检测方法及装置。
背景技术
激光雷达是高级别驾驶辅助系统中关键的传感器之一,通常采用激光雷达做物体检测和语义分割得到检测结果后与其他传感器结果进行融合以提高检测内容丰富度及准确度从而提高车辆控制精度。现有的激光雷达点云地面检测方法,主要基于激光雷达点云的三维坐标及反射强度将特性相近的点划归为一类,通过拟合算法达到检测的目的。在实践中发现,现有的地面拟合算法由于点云数据量巨大,没有很好的计算加速手段,特别是在车端芯片上做算法部署时,实时性无法满足要求。可见,现有的激光雷达点云地面检测方法,检测精度差,无法满足实时性要求,且部署难度大。
发明内容
本申请的目的在于提供一种激光雷达点云地面检测方法及装置,能够快速实现激光雷达点云地面检测,且检测精度好,实时性好,简单有效还易于部署。
本申请第一方面提供了一种激光雷达点云地面检测方法,包括:
获取激光点云训练数据集和激光点云测试数据集;
对所述激光点云训练数据集进行前处理,得到目标数据样本;
搭建语义特征提取网络模型;
将所述目标数据样本输入至所述语义特征提取网络模型,得到图像特征信息;
对所述图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合;
根据所述激光点云测试数据集、所述地面坐标点集合和所述非地面坐标点集合对所述语义特征提取网络模型进行检测结果评估,得到评估结果。
在上述实现过程中,该方法可以优先获取激光点云训练数据集和激光点云测试数据集;然后,对激光点云训练数据集进行前处理,得到目标数据样本;同时,搭建语义特征提取网络模型;然后,再将目标数据样本输入至语义特征提取网络模型,得到图像特征信息;在得到图像特征之后,对图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合;最后,再根据激光点云测试数据集、地面坐标点集合和非地面坐标点集合对语义特征提取网络模型进行检测结果评估,得到评估结果。可见,该方法能够快速实现激光雷达点云地面检测,且检测精度好,实时性好,简单有效还易于部署。
进一步地,所述获取激光点云训练数据集和激光点云测试数据集,包括:
采集包含道路场景的激光点云数据;
对所述激光点云数据中每个点进行标注,得到标注数据集;
根据所述标注数据集确定激光点云训练数据集和激光点云测试数据集。
进一步地,所述对所述激光点云训练数据集进行前处理,得到目标数据样本,包括:
获取激光雷达的安装位置;
以所述安装位置为原点,构建空间坐标系;
基于所述空间坐标系,按照各方向的预设单位长度将检测范围划分为多个立方体;
根据所述立方体对所述激光点云训练数据集进行数据形式变换,得到目标数据样本。
进一步地,所述语义特征提取网络模型的特征提取部分采用多层Conv2d+BN+Relu作为网络结构的主干网络;所述语义特征提取网络模型的特征融合部分采用UNet网络;所述语义特征提取网络模型的检测头的大小与所述目标数据样本中每个数据的数据大小相同;
其中,训练所述语义特征提取网络模型的损失函数为Focal-Loss损失函数。
进一步地,所述对所述图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合,包括:
根据预设阈值对所述图像特征信息进行二分类处理,得到地面点信息和非地面点信息;
根据所述地面点信息和所述图像特征信息进行坐标映射处理,得到地面坐标点集合;以及根据所述非地面点信息和所述图像特征信息进行坐标映射处理,得到非地面坐标点集合。
进一步地,所述根据所述激光点云测试数据集、所述地面坐标点集合和所述非地面坐标点集合对所述语义特征提取网络模型进行检测结果评估,得到评估结果,包括:
根据所述激光点云测试数据集和所述空间坐标系,统计每帧点云数据中地面点标注的立方体数量以及所述地面点标注的平均坐标值;
根据所述地面坐标点集合、所述非地面坐标点集合和所述空间坐标系,统计每帧点云数据中地面点预测的立方体数量以及所述地面点预测的平均坐标值;
计算所述地面点标注的平均坐标值与所述地面点预测的平均坐标值的目标距离;
根据所述目标距离和预设距离阈值进行预测有效性评估,得到第一评估结果;
根据所述地面点标注的立方体数量和所述地面点预测的立方体数量,进行被有效预测评估,得到第二评估结果;
根据所述激光点云测试数据集、所述地面坐标点集合、所述非地面坐标点集合、所述第一评估结果以及所述第二评估结果,统计预测正确的数量、漏检的数量以及误检的数量;
根据所述预测正确的数量计算精确率;以及根据所述漏检的数量计算召回率;以及根据所述误检的数量计算F1分数;
汇总所述精确率、召回率以及所述F1分数得到评估结果。
本申请第二方面提供了一种激光雷达点云地面检测装置,所述激光雷达点云地面检测装置包括:
获取单元,用于获取激光点云训练数据集和激光点云测试数据集;
前处理单元,用于对所述激光点云训练数据集进行前处理,得到目标数据样本;
模型搭建单元,用于搭建语义特征提取网络模型;
输出单元,用于将所述目标数据样本输入至所述语义特征提取网络模型,得到图像特征信息;
后处理单元,用于对所述图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合;
评估单元,用于根据所述激光点云测试数据集、所述地面坐标点集合和所述非地面坐标点集合对所述语义特征提取网络模型进行检测结果评估,得到评估结果。
在上述实现过程中,该装置可以通过获取单元获取激光点云训练数据集和激光点云测试数据集;通过前处理单元对激光点云训练数据集进行前处理,得到目标数据样本;通过模型搭建单元搭建语义特征提取网络模型;通过输出单元将目标数据样本输入至语义特征提取网络模型,得到图像特征信息;通过后处理单元对图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合;通过评估单元来根据激光点云测试数据集、地面坐标点集合和非地面坐标点集合对语义特征提取网络模型进行检测结果评估,得到评估结果。可见,该装置能够快速实现激光雷达点云地面检测,且检测精度好,实时性好,简单有效还易于部署。
进一步地,所述获取单元包括:
采集子单元,用于采集包含道路场景的激光点云数据;
标注子单元,用于对所述激光点云数据中每个点进行标注,得到标注数据集;
确定子单元,用于根据所述标注数据集确定激光点云训练数据集和激光点云测试数据集。
进一步地,所述前处理单元包括:
获取子单元,用于激光雷达的安装位置;
构建子单元,用于以所述安装位置为原点,构建空间坐标系;
划分子单元,用于基于所述空间坐标系,按照各方向的预设单位长度将检测范围划分为多个立方体;
变换子单元,用于根据所述立方体对所述激光点云训练数据集进行数据形式变换,得到目标数据样本。
进一步地,所述语义特征提取网络模型的特征提取部分采用多层Conv2d+BN+Relu作为网络结构的主干网络;所述语义特征提取网络模型的特征融合部分采用UNet网络;所述语义特征提取网络模型的检测头的大小与所述目标数据样本中每个数据的数据大小相同;
其中,训练所述语义特征提取网络模型的损失函数为Focal-Loss损失函数。
进一步地,所述后处理单元包括:
处理子单元,用于根据预设阈值对所述图像特征信息进行二分类处理,得到地面点信息和非地面点信息;
映射子单元,用于根据所述地面点信息和所述图像特征信息进行坐标映射处理,得到地面坐标点集合;以及根据所述非地面点信息和所述图像特征信息进行坐标映射处理,得到非地面坐标点集合。
进一步地,所述评估单元包括:
统计子单元,用于根据所述激光点云测试数据集和所述空间坐标系,统计每帧点云数据中地面点标注的立方体数量以及所述地面点标注的平均坐标值;
所述统计子单元,还用于根据所述地面坐标点集合、所述非地面坐标点集合和所述空间坐标系,统计每帧点云数据中地面点预测的立方体数量以及所述地面点预测的平均坐标值;
计算子单元,用于计算所述地面点标注的平均坐标值与所述地面点预测的平均坐标值的目标距离;
评估子单元,用于根据所述目标距离和预设距离阈值进行预测有效性评估,得到第一评估结果;
所述评估子单元,还用于根据所述地面点标注的立方体数量和所述地面点预测的立方体数量,进行被有效预测评估,得到第二评估结果;
所述统计子单元,还用于根据所述激光点云测试数据集、所述地面坐标点集合、所述非地面坐标点集合、所述第一评估结果以及所述第二评估结果,统计预测正确的数量、漏检的数量以及误检的数量;
所述计算子单元,还用于根据所述预测正确的数量计算精确率;以及根据所述漏检的数量计算召回率;以及根据所述误检的数量计算F1分数;
汇总子单元,用于汇总所述精确率、召回率以及所述F1分数得到评估结果。
本申请第三方面提供了一种电子设备,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行本申请第一方面中任一项所述的激光雷达点云地面检测方法。
本申请第四方面提供了一种计算机可读存储介质,其存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行本申请第一方面中任一项所述的激光雷达点云地面检测方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种激光雷达点云地面检测方法的流程示意图;
图2为本申请实施例提供的另一种激光雷达点云地面检测方法的流程示意图;
图3为本申请实施例提供的一种激光雷达点云地面检测装置的结构示意图;
图4为本申请实施例提供的另一种激光雷达点云地面检测装置的结构示意图;
图5为本申请实施例提供的一种激光雷达点云地面检测方法的举例流程示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例1
请参看图1,图1为本实施例提供的一种激光雷达点云地面检测方法的流程示意图。其中,该激光雷达点云地面检测方法包括:
S101、获取激光点云训练数据集和激光点云测试数据集。
S102、对激光点云训练数据集进行前处理,得到目标数据样本。
S103、搭建语义特征提取网络模型。
本实施例中,语义特征提取网络模型的特征提取部分采用多层Conv2d+BN+Relu作为网络结构的主干网络。
在本实施例中,语义特征提取网络模型的特征融合部分采用UNet网络。
在本实施例中,语义特征提取网络模型的检测头的大小与目标数据样本中每个数据的数据大小相同;
在本实施例中,训练语义特征提取网络模型的损失函数为Focal-Loss损失函数。
S104、将目标数据样本输入至语义特征提取网络模型,得到图像特征信息。
S105、对图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合。
S106、根据激光点云测试数据集、地面坐标点集合和非地面坐标点集合对语义特征提取网络模型进行检测结果评估,得到评估结果。
本实施例中,该方法描述了一种基于深度学习的激光点云前处理、语义特征学习、后处理、检测结果评估的全流程实现方案。
本实施例中,该方法的执行主体可以为计算机、服务器等计算装置,对此本实施例中不作任何限定。
在本实施例中,该方法的执行主体还可以为智能手机、平板电脑等智能设备,对此本实施例中不作任何限定。
可见,实施本实施例所描述的激光雷达点云地面检测方法,能够基于深度学习的激光点云前处理、特征学习、后处理和地面检测结果评估实现全流程检测,从而实现对点云数据的有效识别,且能够对识别结果进行有效评估。同时,该方法能够简洁高效地实现激光点云前处理,从而在保留了XYZ各维度特征信息的情况下,还在一定程度上限制了数据量的膨胀,进而能够将输入数据尺寸固定以便后续网络做特征提取。另外,该方法中的检测网络模型采用多层Conv2d+BN+Relu作为网络结构的主干网络进行特征提取,并采用UNet网络进行特征融合,针对检测任务单独设计检测头,从而能够使得该方法便于扩展及部署。其次,该方法还可以采用二分类方式实现后处理,进一步地实现简单、有效、易于部署的效果。最后,该方法任务损失采用Focal-Loss,更适用于解决难易样本数量不平衡问题。
实施例2
请参看图2,图2为本实施例提供的另一种激光雷达点云地面检测方法的流程示意图。其中,该激光雷达点云地面检测方法包括:
S201、采集包含道路场景的激光点云数据。
S202、对激光点云数据中每个点进行标注,得到标注数据集。
本实施例中,该方法可以采集包含道路场景的激光点云数据并对每个点进行标注,以此获取训练集测试点云数据。
S203、根据标注数据集确定激光点云训练数据集和激光点云测试数据集。
S204、获取激光雷达的安装位置。
S205、以安装位置为原点,构建空间坐标系。
S206、基于空间坐标系,按照各方向的预设单位长度将检测范围划分为多个立方体。
S207、根据立方体对激光点云训练数据集进行数据形式变换,得到目标数据样本。
本实施例中,该方法可以进行激光点云前处理的操作。具体的,该方法可以以激光雷达安装位置为原点,取XYZ三个方向单位长度为m米,X方向范围取-a米到+a米(即X方向voxel数目Xvoxel=(a-(-a))/m),Y方向取-b米到+b米(即Y方向voxel数目Yvoxel=(b-(-b))/m),Z方向取-c米到+c米(即Z方向voxel数目Zvoxel=(c-(-c))/m),按照各方向的单位长度将检测范围划分为一个个小立方体(称为voxel),将所有点云数据按照XYZ坐标值将点放入每个voxel中并限制每个voxel中最大点数为Point个。将点云数据变换为类似图片的CHW形式,将Z方向voxel数据与点云个数合并,即变换为C=Zvoxel*Point,H=Yvoxel,W=Xvoxel的形式,所以输入给下级网络的数据大小固定为C*H*W。
S208、搭建语义特征提取网络模型。
本实施例中,语义特征提取网络模型的特征提取部分采用多层Conv2d+BN+Relu作为网络结构的主干网络。
在本实施例中,语义特征提取网络模型的特征融合部分采用UNet网络。
在本实施例中,语义特征提取网络模型的检测头的大小与目标数据样本中每个数据的数据大小相同。其中,该方法增加的检测头大小为C*H*W,该检测头用于学习每个voxel的语义。
在本实施例中,训练语义特征提取网络模型的损失函数为Focal-Loss损失函数。
S209、将目标数据样本输入至语义特征提取网络模型,得到图像特征信息。
本实施例中,该方法可以将上述步骤中得到的点云数据输入到构建好的网络模型中,并提取出图像特征信息。具体的,该方法可以采用Focal-Loss损失函数来训练学习点是属于哪个类别(地面或者非地面),该损失函数更适用于解决难易样本数量不平衡问题;同时,采用使同一个类别向量距离尽可能小的方差损失Lvar来训练学习得到地面数据的特征向量。
S210、根据预设阈值对图像特征信息进行二分类处理,得到地面点信息和非地面点信息。
本实施例中,该方法可以对获取到的所有数值进行二分类处理,并将高于阈值的作为地面点,将低于阈值的作为非地面点。
S211、根据地面点信息和图像特征信息进行坐标映射处理,得到地面坐标点集合;以及根据非地面点信息和图像特征信息进行坐标映射处理,得到非地面坐标点集合。
本实施例中,该方法可以将ID依次映射到上述每个数值(后处理流程获取到的数值)的坐标上,随后可对应得到隶属于地面的坐标点集合。
S212、根据激光点云测试数据集和空间坐标系,统计每帧点云数据中地面点标注的立方体数量以及地面点标注的平均坐标值。
S213、根据地面坐标点集合、非地面坐标点集合和空间坐标系,统计每帧点云数据中地面点预测的立方体数量以及地面点预测的平均坐标值。
本实施例中,该方法可以统计每帧点云数据中地面与非地面标注的voxel数量p_gt及平均坐标值c_gt。
在本实施例中,该方法还可以同时统计每帧点云数据中地面与非地面预测的voxel数量p_pred及平均坐标值c_pred。
S214、计算地面点标注的平均坐标值与地面点预测的平均坐标值的目标距离。
S215、根据目标距离和预设距离阈值进行预测有效性评估,得到第一评估结果。
S216、根据地面点标注的立方体数量和地面点预测的立方体数量,进行被有效预测评估,得到第二评估结果。
本实施例中,该方法可以根据标注坐标c_gt与对应预测坐标c_pred的距离是否小于距离阈值d_thresh_w,对每个类别预测判定预测有效性。
在本实施例中,针对地面区域与非地面区域,若p_pred/p_gt的比值大于N_thresh%(N_thresh%为一个常数阈值),则判定当前标注类别被有效预测。
S217、根据激光点云测试数据集、地面坐标点集合、非地面坐标点集合、第一评估结果以及第二评估结果,统计预测正确的数量、漏检的数量以及误检的数量。
S218、根据预测正确的数量计算精确率;以及根据漏检的数量计算召回率;以及根据误检的数量计算F1分数。
S219、汇总精确率、召回率以及F1分数得到评估结果。
本实施例中,F1分数(F1 Score),是统计学中用来衡量二分类模型精确度的一种指标。它同时兼顾了分类模型的精确率和召回率。F1分数可以看作是模型精确率和召回率的一种调和平均,它的最大值是1,最小值是0。
本实施例中,该方法最后可以统计预测正确的数量、漏检的数量、误检的数量等,依次计算精确率、召回率、F1分数。
请参看图5,图5示出了一种激光雷达点云地面检测方法的举例流程示意图。
本实施例中,该方法的执行主体可以为计算机、服务器等计算装置,对此本实施例中不作任何限定。
在本实施例中,该方法的执行主体还可以为智能手机、平板电脑等智能设备,对此本实施例中不作任何限定。
可见,实施本实施例所描述的激光雷达点云地面检测方法,能够基于深度学习的激光点云前处理、特征学习、后处理和地面检测结果评估实现全流程检测,从而实现对点云数据的有效识别,且能够对识别结果进行有效评估。同时,该方法能够简洁高效地实现激光点云前处理,从而在保留了XYZ各维度特征信息的情况下,还在一定程度上限制了数据量的膨胀,进而能够将输入数据尺寸固定以便后续网络做特征提取。另外,该方法中的检测网络模型采用多层Conv2d+BN+Relu作为网络结构的主干网络进行特征提取,并采用UNet网络进行特征融合,针对检测任务单独设计检测头,从而能够使得该方法便于扩展及部署。其次,该方法还可以采用二分类方式实现后处理,进一步地实现简单、有效、易于部署的效果。最后,该方法任务损失采用Focal-Loss,更适用于解决难易样本数量不平衡问题。
实施例3
请参看图3,图3为本实施例提供的一种激光雷达点云地面检测装置的结构示意图。如图3所示,该激光雷达点云地面检测装置包括:
获取单元310,用于获取激光点云训练数据集和激光点云测试数据集;
前处理单元320,用于对激光点云训练数据集进行前处理,得到目标数据样本;
模型搭建单元330,用于搭建语义特征提取网络模型;
输出单元340,用于将目标数据样本输入至语义特征提取网络模型,得到图像特征信息;
后处理单元350,用于对图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合;
评估单元360,用于根据激光点云测试数据集、地面坐标点集合和非地面坐标点集合对语义特征提取网络模型进行检测结果评估,得到评估结果。
本实施例中,对于激光雷达点云地面检测装置的解释说明可以参照实施例1或实施例2中的描述,对此本实施例中不再多加赘述。
可见,实施本实施例所描述的激光雷达点云地面检测装置,能够基于深度学习的激光点云前处理、特征学习、后处理和地面检测结果评估实现全流程检测,从而实现对点云数据的有效识别,且能够对识别结果进行有效评估。同时,该装置能够简洁高效地实现激光点云前处理,从而在保留了XYZ各维度特征信息的情况下,还在一定程度上限制了数据量的膨胀,进而能够将输入数据尺寸固定以便后续网络做特征提取。另外,该装置中的检测网络模型采用多层Conv2d+BN+Relu作为网络结构的主干网络进行特征提取,并采用UNet网络进行特征融合,针对检测任务单独设计检测头,从而能够使得该装置便于扩展及部署。其次,该装置还可以采用二分类方式实现后处理,进一步地实现简单、有效、易于部署的效果。最后,该装置任务损失采用Focal-Loss,更适用于解决难易样本数量不平衡问题。
实施例4
请参看图4,图4为本实施例提供的另一种激光雷达点云地面检测装置的结构示意图。如图4所示,该激光雷达点云地面检测装置包括:
获取单元310,用于获取激光点云训练数据集和激光点云测试数据集;
前处理单元320,用于对激光点云训练数据集进行前处理,得到目标数据样本;
模型搭建单元330,用于搭建语义特征提取网络模型;
输出单元340,用于将目标数据样本输入至语义特征提取网络模型,得到图像特征信息;
后处理单元350,用于对图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合;
评估单元360,用于根据激光点云测试数据集、地面坐标点集合和非地面坐标点集合对语义特征提取网络模型进行检测结果评估,得到评估结果。
作为一种可选的实施方式,获取单元310包括:
采集子单元311,用于采集包含道路场景的激光点云数据;
标注子单元312,用于对激光点云数据中每个点进行标注,得到标注数据集;
确定子单元313,用于根据标注数据集确定激光点云训练数据集和激光点云测试数据集。
作为一种可选的实施方式,前处理单元320包括:
获取子单元321,用于激光雷达的安装位置;
构建子单元322,用于以安装位置为原点,构建空间坐标系;
划分子单元323,用于基于空间坐标系,按照各方向的预设单位长度将检测范围划分为多个立方体;
变换子单元324,用于根据立方体对激光点云训练数据集进行数据形式变换,得到目标数据样本。
本实施例中,语义特征提取网络模型的特征提取部分采用多层Conv2d+BN+Relu作为网络结构的主干网络;语义特征提取网络模型的特征融合部分采用UNet网络;语义特征提取网络模型的检测头的大小与目标数据样本中每个数据的数据大小相同;
其中,训练语义特征提取网络模型的损失函数为Focal-Loss损失函数。
作为一种可选的实施方式,后处理单元350包括:
处理子单元351,用于根据预设阈值对图像特征信息进行二分类处理,得到地面点信息和非地面点信息;
映射子单元352,用于根据地面点信息和图像特征信息进行坐标映射处理,得到地面坐标点集合;以及根据非地面点信息和图像特征信息进行坐标映射处理,得到非地面坐标点集合。
作为一种可选的实施方式,评估单元360包括:
统计子单元361,用于根据激光点云测试数据集和空间坐标系,统计每帧点云数据中地面点标注的立方体数量以及地面点标注的平均坐标值;
统计子单元361,还用于根据地面坐标点集合、非地面坐标点集合和空间坐标系,统计每帧点云数据中地面点预测的立方体数量以及地面点预测的平均坐标值;
计算子单元362,用于计算地面点标注的平均坐标值与地面点预测的平均坐标值的目标距离;
评估子单元363,用于根据目标距离和预设距离阈值进行预测有效性评估,得到第一评估结果;
评估子单元363,还用于根据地面点标注的立方体数量和地面点预测的立方体数量,进行被有效预测评估,得到第二评估结果;
统计子单元361,还用于根据激光点云测试数据集、地面坐标点集合、非地面坐标点集合、第一评估结果以及第二评估结果,统计预测正确的数量、漏检的数量以及误检的数量;
计算子单元362,还用于根据预测正确的数量计算精确率;以及根据漏检的数量计算召回率;以及根据误检的数量计算F1分数;
汇总子单元364,用于汇总精确率、召回率以及F1分数得到评估结果。
本实施例中,对于激光雷达点云地面检测装置的解释说明可以参照实施例1或实施例2中的描述,对此本实施例中不再多加赘述。
可见,实施本实施例所描述的激光雷达点云地面检测装置,能够基于深度学习的激光点云前处理、特征学习、后处理和地面检测结果评估实现全流程检测,从而实现对点云数据的有效识别,且能够对识别结果进行有效评估。同时,该装置能够简洁高效地实现激光点云前处理,从而在保留了XYZ各维度特征信息的情况下,还在一定程度上限制了数据量的膨胀,进而能够将输入数据尺寸固定以便后续网络做特征提取。另外,该装置中的检测网络模型采用多层Conv2d+BN+Relu作为网络结构的主干网络进行特征提取,并采用UNet网络进行特征融合,针对检测任务单独设计检测头,从而能够使得该装置便于扩展及部署。其次,该装置还可以采用二分类方式实现后处理,进一步地实现简单、有效、易于部署的效果。最后,该装置任务损失采用Focal-Loss,更适用于解决难易样本数量不平衡问题。
本申请实施例提供了一种电子设备,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行本申请实施例1或实施例2中的激光雷达点云地面检测方法。
本申请实施例提供了一种计算机可读存储介质,其存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行本申请实施例1或实施例2中的激光雷达点云地面检测方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (7)
1.一种激光雷达点云地面检测方法,其特征在于,包括:
获取激光点云训练数据集和激光点云测试数据集;
对所述激光点云训练数据集进行前处理,得到目标数据样本;
搭建语义特征提取网络模型;
将所述目标数据样本输入至所述语义特征提取网络模型,得到图像特征信息;
对所述图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合;
根据所述激光点云测试数据集、所述地面坐标点集合和所述非地面坐标点集合对所述语义特征提取网络模型进行检测结果评估,得到评估结果;
其中,所述对所述激光点云训练数据集进行前处理,得到目标数据样本,包括:
获取激光雷达的安装位置;
以所述安装位置为原点,构建空间坐标系;
基于所述空间坐标系,按照各方向的预设单位长度将检测范围划分为多个立方体;
根据所述立方体对所述激光点云训练数据集进行数据形式变换,得到目标数据样本;
其中,所述对所述图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合,包括:
根据预设阈值对所述图像特征信息进行二分类处理,得到地面点信息和非地面点信息;
根据所述地面点信息和所述图像特征信息进行坐标映射处理,得到地面坐标点集合;以及根据所述非地面点信息和所述图像特征信息进行坐标映射处理,得到非地面坐标点集合;
其中,所述根据所述激光点云测试数据集、所述地面坐标点集合和所述非地面坐标点集合对所述语义特征提取网络模型进行检测结果评估,得到评估结果,包括:
根据所述激光点云测试数据集和所述空间坐标系,统计每帧点云数据中地面点标注的立方体数量以及所述地面点标注的平均坐标值;
根据所述地面坐标点集合、所述非地面坐标点集合和所述空间坐标系,统计每帧点云数据中地面点预测的立方体数量以及所述地面点预测的平均坐标值;
计算所述地面点标注的平均坐标值与所述地面点预测的平均坐标值的目标距离;
根据所述目标距离和预设距离阈值进行预测有效性评估,得到第一评估结果;
根据所述地面点标注的立方体数量和所述地面点预测的立方体数量,进行被有效预测评估,得到第二评估结果;
根据所述激光点云测试数据集、所述地面坐标点集合、所述非地面坐标点集合、所述第一评估结果以及所述第二评估结果,统计预测正确的数量、漏检的数量以及误检的数量;
根据所述预测正确的数量计算精确率;以及根据所述漏检的数量计算召回率;以及根据所述误检的数量计算F1分数;
汇总所述精确率、召回率以及所述F1分数得到评估结果。
2.根据权利要求1所述的激光雷达点云地面检测方法,其特征在于,所述获取激光点云训练数据集和激光点云测试数据集,包括:
采集包含道路场景的激光点云数据;
对所述激光点云数据中每个点进行标注,得到标注数据集;
根据所述标注数据集确定激光点云训练数据集和激光点云测试数据集。
3.根据权利要求1所述的激光雷达点云地面检测方法,其特征在于,所述语义特征提取网络模型的特征提取部分采用多层Conv2d+BN+Relu作为网络结构的主干网络;所述语义特征提取网络模型的特征融合部分采用UNet网络;所述语义特征提取网络模型的检测头的大小与所述目标数据样本中每个数据的数据大小相同;
其中,训练所述语义特征提取网络模型的损失函数为Focal-Loss损失函数。
4.一种激光雷达点云地面检测装置,其特征在于,所述激光雷达点云地面检测装置包括:
获取单元,用于获取激光点云训练数据集和激光点云测试数据集;
前处理单元,用于对所述激光点云训练数据集进行前处理,得到目标数据样本;
模型搭建单元,用于搭建语义特征提取网络模型;
输出单元,用于将所述目标数据样本输入至所述语义特征提取网络模型,得到图像特征信息;
后处理单元,用于对所述图像特征信息进行后处理,得到地面坐标点集合和非地面坐标点集合;
评估单元,用于根据所述激光点云测试数据集、所述地面坐标点集合和所述非地面坐标点集合对所述语义特征提取网络模型进行检测结果评估,得到评估结果;
其中,所述前处理单元包括:
获取子单元,用于获取激光雷达的安装位置;
构建子单元,用于以所述安装位置为原点,构建空间坐标系;
划分子单元,用于基于所述空间坐标系,按照各方向的预设单位长度将检测范围划分为多个立方体;
变换子单元,用于根据所述立方体对所述激光点云训练数据集进行数据形式变换,得到目标数据样本;
其中,所述后处理单元包括:
处理子单元,用于根据预设阈值对所述图像特征信息进行二分类处理,得到地面点信息和非地面点信息;
映射子单元,用于根据所述地面点信息和所述图像特征信息进行坐标映射处理,得到地面坐标点集合;以及根据所述非地面点信息和所述图像特征信息进行坐标映射处理,得到非地面坐标点集合;
其中,所述评估单元包括:
统计子单元,用于根据所述激光点云测试数据集和所述空间坐标系,统计每帧点云数据中地面点标注的立方体数量以及所述地面点标注的平均坐标值;
所述统计子单元,还用于根据所述地面坐标点集合、所述非地面坐标点集合和所述空间坐标系,统计每帧点云数据中地面点预测的立方体数量以及所述地面点预测的平均坐标值;
计算子单元,用于计算所述地面点标注的平均坐标值与所述地面点预测的平均坐标值的目标距离;
评估子单元,用于根据所述目标距离和预设距离阈值进行预测有效性评估,得到第一评估结果;
所述评估子单元,还用于根据所述地面点标注的立方体数量和所述地面点预测的立方体数量,进行被有效预测评估,得到第二评估结果;
所述统计子单元,还用于根据所述激光点云测试数据集、所述地面坐标点集合、所述非地面坐标点集合、所述第一评估结果以及所述第二评估结果,统计预测正确的数量、漏检的数量以及误检的数量;
所述计算子单元,还用于根据所述预测正确的数量计算精确率;以及根据所述漏检的数量计算召回率;以及根据所述误检的数量计算F1分数;
汇总子单元,用于汇总所述精确率、召回率以及所述F1分数得到评估结果。
5.根据权利要求4所述的激光雷达点云地面检测装置,其特征在于,所述获取单元包括:
采集子单元,用于采集包含道路场景的激光点云数据;
标注子单元,用于对所述激光点云数据中每个点进行标注,得到标注数据集;
确定子单元,用于根据所述标注数据集确定激光点云训练数据集和激光点云测试数据集。
6.一种电子设备,其特征在于,所述电子设备包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行权利要求1至3中任一项所述的激光雷达点云地面检测方法。
7.一种可读存储介质,其特征在于,所述可读存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行权利要求1至3任一项所述的激光雷达点云地面检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310680458.5A CN116413740B (zh) | 2023-06-09 | 2023-06-09 | 一种激光雷达点云地面检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310680458.5A CN116413740B (zh) | 2023-06-09 | 2023-06-09 | 一种激光雷达点云地面检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116413740A CN116413740A (zh) | 2023-07-11 |
CN116413740B true CN116413740B (zh) | 2023-09-05 |
Family
ID=87054664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310680458.5A Active CN116413740B (zh) | 2023-06-09 | 2023-06-09 | 一种激光雷达点云地面检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116413740B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116863432B (zh) * | 2023-09-04 | 2023-12-22 | 之江实验室 | 基于深度学习的弱监督激光可行驶区域预测方法和系统 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948684A (zh) * | 2019-03-12 | 2019-06-28 | 百度在线网络技术(北京)有限公司 | 点云数据标注质量的质检方法、装置及其相关设备 |
CN110263652A (zh) * | 2019-05-23 | 2019-09-20 | 杭州飞步科技有限公司 | 激光点云数据识别方法及装置 |
CN110765894A (zh) * | 2019-09-30 | 2020-02-07 | 杭州飞步科技有限公司 | 目标检测方法、装置、设备及计算机可读存储介质 |
CN112287939A (zh) * | 2020-10-29 | 2021-01-29 | 平安科技(深圳)有限公司 | 三维点云语义分割方法、装置、设备及介质 |
CN112799091A (zh) * | 2021-01-28 | 2021-05-14 | 知行汽车科技(苏州)有限公司 | 算法评估方法、装置及存储介质 |
WO2021134441A1 (zh) * | 2019-12-31 | 2021-07-08 | 深圳元戎启行科技有限公司 | 基于自动驾驶的车辆速度控制方法、装置和计算机设备 |
WO2021134339A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳元戎启行科技有限公司 | 基于点云的分割处理方法、装置、计算机设备和存储介质 |
CN113569979A (zh) * | 2021-08-06 | 2021-10-29 | 中国科学院宁波材料技术与工程研究所 | 一种基于注意力机制的三维物体点云分类方法 |
CN113902920A (zh) * | 2021-09-27 | 2022-01-07 | 中国地质大学(武汉) | 基于图卷积神经网络的点云特征提取方法及装置 |
CN114488190A (zh) * | 2021-12-30 | 2022-05-13 | 浙江零跑科技股份有限公司 | 一种激光雷达3d点云地面检测方法 |
WO2022142890A1 (zh) * | 2020-12-29 | 2022-07-07 | 华为技术有限公司 | 数据处理方法及相关装置 |
CN114821498A (zh) * | 2022-03-30 | 2022-07-29 | 重庆长安汽车股份有限公司 | 一种基于深度学习的激光点云目标检测识别装置及方法 |
WO2022166400A1 (zh) * | 2021-02-05 | 2022-08-11 | 中国科学院深圳先进技术研究院 | 一种处理三维点云的方法、装置、设备以及存储介质 |
CN115223123A (zh) * | 2022-07-08 | 2022-10-21 | 浙江孔辉汽车科技有限公司 | 基于计算机视觉识别的路面目标检测方法 |
CN115457492A (zh) * | 2022-09-30 | 2022-12-09 | 苏州万集车联网技术有限公司 | 目标检测方法、装置、计算机设备及存储介质 |
CN115588047A (zh) * | 2022-10-17 | 2023-01-10 | 浙江海康智联科技有限公司 | 一种基于场景编码的三维目标检测方法 |
CN115861619A (zh) * | 2022-12-20 | 2023-03-28 | 重庆大学 | 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与系统 |
-
2023
- 2023-06-09 CN CN202310680458.5A patent/CN116413740B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948684A (zh) * | 2019-03-12 | 2019-06-28 | 百度在线网络技术(北京)有限公司 | 点云数据标注质量的质检方法、装置及其相关设备 |
CN110263652A (zh) * | 2019-05-23 | 2019-09-20 | 杭州飞步科技有限公司 | 激光点云数据识别方法及装置 |
CN110765894A (zh) * | 2019-09-30 | 2020-02-07 | 杭州飞步科技有限公司 | 目标检测方法、装置、设备及计算机可读存储介质 |
WO2021134339A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳元戎启行科技有限公司 | 基于点云的分割处理方法、装置、计算机设备和存储介质 |
WO2021134441A1 (zh) * | 2019-12-31 | 2021-07-08 | 深圳元戎启行科技有限公司 | 基于自动驾驶的车辆速度控制方法、装置和计算机设备 |
CN112287939A (zh) * | 2020-10-29 | 2021-01-29 | 平安科技(深圳)有限公司 | 三维点云语义分割方法、装置、设备及介质 |
WO2022142890A1 (zh) * | 2020-12-29 | 2022-07-07 | 华为技术有限公司 | 数据处理方法及相关装置 |
CN112799091A (zh) * | 2021-01-28 | 2021-05-14 | 知行汽车科技(苏州)有限公司 | 算法评估方法、装置及存储介质 |
WO2022166400A1 (zh) * | 2021-02-05 | 2022-08-11 | 中国科学院深圳先进技术研究院 | 一种处理三维点云的方法、装置、设备以及存储介质 |
CN113569979A (zh) * | 2021-08-06 | 2021-10-29 | 中国科学院宁波材料技术与工程研究所 | 一种基于注意力机制的三维物体点云分类方法 |
CN113902920A (zh) * | 2021-09-27 | 2022-01-07 | 中国地质大学(武汉) | 基于图卷积神经网络的点云特征提取方法及装置 |
CN114488190A (zh) * | 2021-12-30 | 2022-05-13 | 浙江零跑科技股份有限公司 | 一种激光雷达3d点云地面检测方法 |
CN114821498A (zh) * | 2022-03-30 | 2022-07-29 | 重庆长安汽车股份有限公司 | 一种基于深度学习的激光点云目标检测识别装置及方法 |
CN115223123A (zh) * | 2022-07-08 | 2022-10-21 | 浙江孔辉汽车科技有限公司 | 基于计算机视觉识别的路面目标检测方法 |
CN115457492A (zh) * | 2022-09-30 | 2022-12-09 | 苏州万集车联网技术有限公司 | 目标检测方法、装置、计算机设备及存储介质 |
CN115588047A (zh) * | 2022-10-17 | 2023-01-10 | 浙江海康智联科技有限公司 | 一种基于场景编码的三维目标检测方法 |
CN115861619A (zh) * | 2022-12-20 | 2023-03-28 | 重庆大学 | 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116413740A (zh) | 2023-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110364008B (zh) | 路况确定方法、装置、计算机设备和存储介质 | |
CN109145680B (zh) | 一种获取障碍物信息的方法、装置、设备和计算机存储介质 | |
CN109087510B (zh) | 交通监测方法及装置 | |
Sánchez-Rodríguez et al. | Automated detection and decomposition of railway tunnels from Mobile Laser Scanning Datasets | |
CN113033604A (zh) | 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质 | |
CN109961057A (zh) | 一种车辆位置获得方法及装置 | |
CN116413740B (zh) | 一种激光雷达点云地面检测方法及装置 | |
CN111782741A (zh) | 兴趣点挖掘方法、装置、电子设备及存储介质 | |
Gupta et al. | Computer vision based animal collision avoidance framework for autonomous vehicles | |
CN112634329B (zh) | 一种基于时空与或图的场景目标活动预测方法及装置 | |
CN114241448A (zh) | 障碍物航向角的获取方法、装置、电子设备及车辆 | |
JP2020160840A (ja) | 路面標示不具合検出装置、路面標示不具合検出方法及び路面標示不具合検出プログラム | |
CN117455237A (zh) | 一种基于多源数据的道路交通事故风险预测方法 | |
CN110765900A (zh) | 一种基于dssd的自动检测违章建筑方法及系统 | |
CN115563652A (zh) | 轨迹嵌入预防泄露方法及系统 | |
CN112015937B (zh) | 一种图片地理定位方法及系统 | |
JP2019174910A (ja) | 情報取得装置及び情報集計システム並びに情報集計装置 | |
CN111427977A (zh) | 电子眼数据的处理方法及装置 | |
Namazi et al. | Identifying and counting vehicles in multiple lanes by using a low-cost vehicle-mounted sensor for intelligent traffic management systems | |
Ohashi et al. | Automatic trip-separation method using sensor data continuously collected by smartphone | |
CN114684197A (zh) | 避障场景的检测方法、装置、设备及存储介质 | |
Jiang et al. | Fast Traffic Accident Identification Method Based on SSD Model | |
CN112614156A (zh) | 一种多目标跟踪网络模型的训练方法、装置及相关设备 | |
CN111881792A (zh) | 一种移动微卡口系统及其工作方法 | |
Zou et al. | Inertia mutation energy model to extract roads by crowdsourcing trajectories |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |