CN117274651B - 基于点云的物体检测方法、装置及计算机可读存储介质 - Google Patents

基于点云的物体检测方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN117274651B
CN117274651B CN202311540856.3A CN202311540856A CN117274651B CN 117274651 B CN117274651 B CN 117274651B CN 202311540856 A CN202311540856 A CN 202311540856A CN 117274651 B CN117274651 B CN 117274651B
Authority
CN
China
Prior art keywords
grid
point cloud
point
target
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311540856.3A
Other languages
English (en)
Other versions
CN117274651A (zh
Inventor
陈飞雁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Liangdao Intelligent Vehicle Technology Co ltd
Original Assignee
Beijing Liangdao Intelligent Vehicle Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Liangdao Intelligent Vehicle Technology Co ltd filed Critical Beijing Liangdao Intelligent Vehicle Technology Co ltd
Priority to CN202311540856.3A priority Critical patent/CN117274651B/zh
Publication of CN117274651A publication Critical patent/CN117274651A/zh
Application granted granted Critical
Publication of CN117274651B publication Critical patent/CN117274651B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种基于点云的物体检测方法、装置及计算机可读存储介质。其中,该基于点云的物体检测方法包括:根据点云图像中的空间点的深度和强度对点云图像中的空间点进行聚类,得到聚类结果,其中,聚类结果表征点云图像中属于同一个物体的空间点聚类为同一个聚类簇;根据聚类结果确定点云图像中的物体信息。本申请解决了现有技术中依赖于点云密度进行聚类导致同一算法参数无法同时用于检测离雷达距离远近不同范围的点云(近处点云稠密,点云离雷达越远越稀疏),从而造成的物体检测准确度低甚至无法被检测到的技术问题。

Description

基于点云的物体检测方法、装置及计算机可读存储介质
技术领域
本申请涉及激光雷达领域以及物体检测领域,具体而言,涉及一种基于点云的物体检测方法、装置及计算机可读存储介质。
背景技术
利用激光雷达探测周边环境里的物体(例如,障碍物)是自动驾驶、智慧交通等领域的核心技术问题,目前,常用的点云聚类算法,例如DBSCAN、KMeans、欧氏聚类(EuclideanClustering)等,本质都是基于点云的密度进行聚类的,因为这些算法主要是依据两个条件来进行聚类,即点云和它周边其他点之间的距离以及它周边一定距离范围内的点的个数,而这恰恰是这些算法的一个共同的缺陷,因为激光雷达的光线是呈扇形放射状发射的光线,因此越靠近雷达的范围里的点云越密集,离雷达越远的地方的点云越稀疏,这样造成上述的这些聚类算法在点间距离和点数等阈值参数设定后只适合检测距离雷达一定范围内的物体,更远处就难以检测出物体了。
由此可见,传统点云聚类算法依赖于点云密度进行聚类导致同一算法参数无法同时用于检测离雷达距离远近不同范围的点云(近处点云稠密,点云离雷达越远越稀疏),从而造成了物体检测准确度低甚至无法被检测到的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请提供了一种基于点云的物体检测方法、装置及计算机可读存储介质,以至少解决现有技术中依赖于点云密度进行聚类导致同一算法参数无法同时用于检测离雷达距离远近不同范围的点云(近处点云稠密,点云离雷达越远越稀疏),从而造成的物体检测准确度低甚至无法被检测到的技术问题。
根据本申请的一个方面,提供了一种基于点云的物体检测方法,包括:根据点云图像中的空间点的深度和强度对点云图像中的空间点进行聚类,得到聚类结果,其中,聚类结果表征点云图像中属于同一个物体的空间点聚类为同一个聚类簇;根据聚类结果确定点云图像中的物体信息。
进一步地,基于点云的物体检测方法还包括:确定所述点云图像中的空间点投影至目标平面后的边界范围,其中,所述目标平面为目标角度对应的平面,所述目标角度为俯视角度和/或前视角度;根据所述边界范围构建矩形平面,并根据所述点云图像中的所有空间点的坐标将所述矩形平面划分为Q个网格,其中,Q为大于或等于1的整数;根据每个网格内的空间点的坐标确定所述每个网格的第一代表点;根据所述每个网格的第一代表点对所述点云图像中的空间点进行聚类,得到所述聚类结果。
进一步地,基于点云的物体检测方法还包括:将所述每个网格内包括的所有空间点中距离雷达坐标系的原点最近的空间点作为该网格的第一代表点。
进一步地,基于点云的物体检测方法还包括:根据所述每个网格的第一代表点、该网格的相邻网格的第一代表点以及雷达坐标系的原点,构建该网格及所述相邻网格对应的三角形;将所述每个网格对应的三角形中,以第一代表点为顶点的、角度值最小的夹角作为该网格对应的目标夹角;确定所述每个网格与该网格的相邻网格之间的目标强度差异值;根据所述目标夹角和所述目标强度差异值对所述每个网格及所述每个网格的相邻网格进行聚类,得到所述聚类结果。
进一步地,基于点云的物体检测方法还包括:将所述每个网格的第一代表点和该网格的相邻网格的第一代表点之间的强度差异值作为该网格和相邻网格之间的目标强度差异值;或者,将所述每个网格的第二代表点和该网格的相邻网格的第二代表点之间的强度差异值作为该网格和相邻网格之间的目标强度差异值,其中,所述每个网格的第二代表点为该网格所包括的所有空间点中强度值最大的空间点。
进一步地,基于点云的物体检测方法还包括:在所述任意一个网格对应的目标夹角大于第一预设角度值,并且该网格和相邻网格之间的目标强度差异值小于第一预设强度值的情况下,确定该网格和该网格的相邻网格属于同一点云簇。
进一步地,基于点云的物体检测方法还包括:在所述任意一个网格对应的目标夹角小于或等于第一预设角度值,并且该网格对应的目标夹角大于第二预设角度值,同时该网格和相邻网格之间的目标强度差异值小于第二预设强度值的情况下,确定该网格与该网格的相邻网格属于同一点云簇,其中,所述第一预设角度值大于所述第二预设角度值,所述第一预设强度值大于所述第二预设强度值。
进一步地,基于点云的物体检测方法还包括:根据聚类结果生成一个键值对集合,其中,键值对集合包含多个键值对,其中,每个键值对的键信息为一个聚类簇的标签值,不同标签值的聚类簇对应不同的物体,每个键值对的值信息为该键值对的键信息所表征的聚类簇中的所有空间点对应的索引值的集合;将键值对集合中的目标键值对进行过滤性删除,得到目标键值对集合,其中,目标键值对的数据量小于预设数据量,预设数据量为区分噪声信息和非噪声信息的临界数据量;根据目标键值对集合确定点云图像中的物体信息。
根据本申请的另一方面,还提供了一种基于点云的物体检测装置,其中,包括:聚类单元,用于根据点云图像中的空间点的深度和强度对点云图像中的空间点进行聚类,得到聚类结果,其中,聚类结果表征点云图像中属于同一个物体的空间点聚类为同一个聚类簇;确定单元,用于根据聚类结果确定点云图像中的物体信息。
根据本申请的另一方面,还提供了一种计算机可读存储介质,其中,计算机可读存储介质中存储有计算机程序,其中,在计算机程序运行时控制计算机可读存储介质所在设备执行上述任意一项的基于点云的物体检测方法。
在本申请中,通过结合点云图像中的空间点的深度和强度检测点云中的物体的方式,首先根据点云图像中的空间点的深度和强度对点云图像中的空间点进行聚类,得到聚类结果,其中,聚类结果表征点云中属于同一个物体的空间点聚类为同一个聚类簇。然后,根据聚类结果确定点云图像中的物体信息。
由上述内容可知,由于本申请的检测方法通过点云图像中的空间点的深度和强度相结合来判断点云中的不同点是否属于某同一物体,因此具有更强的去环境噪声和分离背景干扰防误识别的能力,尤其是可以不受离雷达距离远近不同范围的点云的干扰影响,从而实现了提高物体检测准确度的技术效果,进而解决了现有技术中依赖于点云密度进行聚类导致同一算法参数无法同时用于检测离雷达距离远近不同范围的点云(近处点云稠密,点云离雷达越远越稀疏),从而造成的物体检测准确度低甚至无法被检测到的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种可选的基于点云的物体检测方法的流程图;
图2是根据本申请实施例的一种可选的对空间点进行聚类的流程图;
图3是根据本申请实施例的一种可选的第一代表点的示意图;
图4是根据本申请实施例的一种可选的基于点云的物体检测装置的示意图;
图5是根据本申请实施例的一种电子设备的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本申请实施例,提供了一种基于点云的物体检测方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本申请实施例的一种可选的基于点云的物体检测方法的流程图,如图1所示,该方法包括如下步骤:
步骤S101,根据点云图像中的空间点的深度和强度对点云图像中的空间点进行聚类,得到聚类结果。
在步骤S101中,所述聚类结果表征所述点云图像中属于同一个物体的空间点聚类为同一个聚类簇,点云图像中的空间点的深度可以通过点云深度图表示,即点云深度图用于表征点云中的空间点的深度分布信息;点云图像中的空间点的强度可以通过点云强度图表示,即点云强度图用于表征点云中的空间点的强度分布信息。
可选地,一种基于点云的物体检测系统(以下简称为物体检测系统)可以作为本申请实施例中的基于点云的物体检测方法的执行主体。其中,物体检测系统可以是一种软件系统,也可以是一种软硬件结合的嵌入式系统。
可选地,上述的点云图像可以是激光雷达所拍摄的点云图像,其中,本申请中的激光雷达可以是机械扫描式的激光雷达,也可以是半固态的或固态的激光雷达。本申请对激光雷达的类型不作特别限定。
可选地,对于激光雷达拍摄的每帧点云图像中的点云数据(即上述的点云),其中,点云包括多个空间点,其中,每个空间点的数据的格式是(x,y,z,intensity),其中(x,y,z)是该空间点在雷达三维坐标系下x轴、y轴和z轴的坐标值,intensity是该空间点的强度。
可选地,与传统的聚类算法依赖于点云密度进行聚类不同,本申请依据点云图像中的空间点的深度和强度对点云中的空间点进行聚类,将属于同一物体的空间点聚类为同一个聚类簇。
需要说明的是,本申请实际上是依据点云中的空间点的深度分布信息以及点云中的空间点的强度分布信息来对点云中的空间点进行聚类,因此可以同时检测离雷达距离远近不同范围的空间点,在此基础上,即便存在距离雷达近的点云稠密,距离雷达远的点云稀疏的现实状况,由于空间点的深度分布信息以及点云中的空间点的强度分布信息不受该因素的干扰,因此依据本申请的技术方案,仍然能够准确地检测到点云图像中的各个物体。
步骤S102,根据聚类结果确定点云图像中的物体信息。
可选地,点云图像中的物体信息包括但不限于点云图像中的各个物体的空间位置信息、与雷达的相对位置信息、各个物体的形状信息等等。
基于上述步骤S101至步骤S102的内容可知,在本申请中,通过结合点云图像中的空间点的深度和强度检测点云中的物体的方式,首先根据点云图像中的空间点的深度和强度对点云图像中的空间点进行聚类,得到聚类结果,其中,聚类结果表征点云中属于同一个物体的空间点聚类为同一个聚类簇。然后,根据聚类结果确定点云图像中的物体信息。
由上述内容可知,由于本申请的检测方法通过点云图像中的空间点的深度和强度相结合的方式判断点云中的不同点是否属于某同一物体,因此具有更强的去环境噪声和分离背景干扰防误识别的能力,尤其是可以不受离雷达距离远近不同范围的点云的干扰影响,从而实现了提高物体检测准确度的技术效果,进而解决了现有技术中依赖于点云密度进行聚类导致同一算法参数无法同时用于检测离雷达距离远近不同范围的点云(近处点云稠密,点云离雷达越远越稀疏),从而造成的物体检测准确度低甚至无法被检测到的技术问题。
在一种可选的实施例中,图2是根据本申请实施例的一种可选的对空间点进行聚类的流程图。如图2所示,包括如下步骤:
步骤S201,确定点云图像中的点云投影至目标平面后的边界范围,其中,目标平面为目标角度对应的平面,目标角度为俯视角度和/或前视角度。
可选地,结合激光雷达经常应用到的自动驾驶场景,自动驾驶在计算可行驶区域或轨道交通应用激光雷达检测车障碍物时,实际上只关注车辆周边离车辆较近的障碍物,并不关注障碍物后面的其他物体,因此,出于减少计算量的考虑,可以无需对点云空间进行体素化并详细记录每个3D网格里的点的深度和强度,而只需构造基于俯视角度的点云深度图和点云强度图。
但是,如果需要区分高度方向的多个物体,则还需构造前视角度的点云深度图和点云强度图,因此,基于实际的需求,本方案的实施者可以自行确定目标角度是俯视角度和/或前视角度。
步骤S202,根据边界范围构建矩形平面,并根据点云图像中的所有空间点的坐标将矩形平面划分为Q个网格。
可选地,物体检测系统可以首先确定边界范围对应的最大横坐标值、最小横坐标值、最大纵坐标值以及最小纵坐标值,然后基于最大横坐标值、最小横坐标值、最大纵坐标值以及最小纵坐标值构建一个矩形平面。
可选地,以构建俯视角度的点云深度图和点云强度图为例。首先,物体检测系统需要确定点云图像中的点云投影到平面后的边界范围,然后根据所有点的最大x坐标值、最小x坐标值/>最大y坐标值/>、最小y坐标值/>构造一个矩形平面。其中,最大x坐标值/>对应上述的最大横坐标值,最小x坐标值/>对应上述的最小横坐标值,最大y坐标值/>对应上述的最大纵坐标值,最小y坐标值/>对应上述的最小纵坐标值。
可选地,为了将矩形平面划分为Q个网格,物体检测系统可以将矩阵平面均匀地划分为Q个相同尺寸大小(例如)的正方形网格,网格的边长大小/> (例如0.1m)由可配置参数指定。假定矩形平面网格化划分后有r行c列,总共有r/>c个网格,则可以用(r,c)描述其维度,其中,r和c可由公式(1)和公式(2)计算得到:
其中ceil()是向上取整函数。
步骤S203,根据每个网格内的空间点的坐标确定每个网格的第一代表点。
可选地,物体检测系统可以将每个网格内包括的所有空间点中距离雷达坐标系的原点最近的空间点作为该网格的第一代表点。除此之外,也可以将每个网格中坐标的其他统计值(例如某一坐标的中位数)作为第一代表点。
可选地,物体检测系统可以依据Q个网格构建动态矩阵,其中,动态矩阵用于记录归入Q个网格中的每个网格的空间点在点云中对应的索引值,其中,点云中的每个空间点对应的索引值用于从点云中确定该空间点的空间信息。然后,物体检测系统根据点云中每个空间点所对应的坐标值确定每个空间点在动态矩阵中对应的索引值,并将点云中的每个空间点在点云中对应的索引值更新至动态矩阵中该空间点所归属的点索引集合中,其中,每个网格对应一个点索引集合,每个网格对应的点索引集合中包含该网格对应的所有空间点所对应的索引值。最后,物体检测系统根据每个网格对应的点索引集合构建点云深度图和点云强度图。
可选地,物体检测系统可以创建一个维度为(r,c,n)的动态矩阵Pbev,其中,动态矩阵Pbev的每个元素是一个集合(集合的维度是n,即n是集合里的空间点的数量),动态矩阵矩阵用来记录归入对应网格的空间点在点云图像的点云中的索引值,其中,通过一个空间点所对应的索引值,物体检测系统可随时从点云中读取到该空间点的空间信息(x,y,z,intensity)。
可选地,物体检测系统还可以根据每个空间点的坐标值计算出其在动态矩阵Pbev中所对应的索引值,其中。点云中的每个空间点的坐标值/>和其在动态矩阵Pbev中对应的索引值/>之间的转换计算公式如公式(3)和公式(4):
依据上述与/>的对应关系,物体检测系统可以将点云中的每个空间点对应的索引值加入到动态矩阵Pbev对应索引位置的点索引集合里,即将点云中的每个空间点在点云中对应的索引值更新至动态矩阵中该空间点所归属的点索引集合中,其中,每个网格对应一个点索引集合,每个网格对应的点索引集合中包含该网格对应的所有空间点所对应的索引值。
可选地,物体检测系统依据每个网格对应的点索引集合中的所有索引值确定该网格对应的所有空间点,并将每个网格对应的所有空间点中距离雷达原点最近的空间点作为该网格的第一代表点,其中,雷达原点表征拍摄点云图像的雷达所在的位置。
在一种可选的实施例中,如果需要构建前视方向的点云深度图和点云强度图,则采用的构建方式与构建上述俯视方向的点云深度图和点云强度图的方式大致相同,差别只是把点云投影到平面,然后使用所有空间点的最大y坐标值、最小y坐标值、最大z坐标值、最小z坐标值构造一个矩形平面,并将该矩形平面均匀地划为多个相同尺寸大小(例如)的网格,然后将点云的每个空间点按其坐标值与其对应网格位置的对应关系将每个空间点在点云中的索引值加入到Pfov矩阵中此网格的点索引集合,其中,Pfov矩阵也是一个动态矩阵。
至于后续选取代表点以及根据代表点生成点云深度图和点云强度图的过程,则与上述构建俯视方向的点云深度图和点云强度图时所对应的过程一致,在此不作多余赘述。
需要说明的是,如果只需检测是否有障碍物存在,并且无需关注有障碍存在的区域的高度方向(即激光雷达坐标系的z轴方向)是一个还是多个物体,则无需构建前视方向的点云深度图和点云强度图。
步骤S204,根据所述每个网格的第一代表点对所述点云图像中的空间点进行聚类,得到所述聚类结果。
在一种可选的实施例中,物体检测系统首先根据每个网格的第一代表点、该网格的相邻网格的第一代表点以及雷达坐标系的原点,构建该网格及相邻网格对应的三角形,然后,物体检测系统将每个网格对应的三角形中,以第一代表点为顶点的、角度值最小的夹角作为该网格对应的目标夹角,随后确定所述每个网格与该网格的相邻网格之间的目标强度差异值;根据所述目标夹角和所述目标强度差异值对所述每个网格及所述每个网格的相邻网格进行聚类,得到所述聚类结果。
另外,在根据所述目标夹角和所述目标强度差异值对所述每个网格及所述每个网格的相邻网格进行聚类,得到所述聚类结果的过程中,在所述任意一个网格对应的目标夹角大于第一预设角度值,并且该网格和相邻网格之间的目标强度差异值小于第一预设强度值的情况下,确定该网格和该网格的相邻网格属于同一点云簇。
需要说明的是,物体检测系统可以将所述每个网格的第一代表点和该网格的相邻网格的第一代表点之间的强度差异值作为该网格和相邻网格之间的目标强度差异值;或者,将所述每个网格的第二代表点和该网格的相邻网格的第二代表点之间的强度差异值作为该网格和相邻网格之间的目标强度差异值,其中,所述每个网格的第二代表点为该网格所包括的所有空间点中强度值最大的空间点。
可选地,由于聚类的实质是将对应同一个物体的空间点聚类为一个聚类簇,因此,本申请中聚类的核心是对于任意一个网格位置,计算和判断此网格的代表点与和它相邻的网格的代表点是否属于同一物体上的点,具体办法是:
(1)获取每个网格对应的点云深度图里位置的深度值和此网格对应的点云强度图里/>位置的强度值,并获取其上下左右相邻的网格(假如存在的话,其坐标值分别是/>、/>、/>、/>在点云深度图里对应位置的深度值以及在点云强度图里对应位置的强度值。
(2)对每一个相邻网格,通过进行如下分析可以判断当前网格的代表点和相邻网格的代表点是否属于同一物体上的点:
如图3所示,当前网格的第一代表点空间点A的深度值为a,假设相邻网格的第一代表点空间点B的深度值是b,其中,空间点A和空间点B之间的距离AB的值为c,如果雷达原点命名为点O,则点O和点A及点B之间组成的三角形OAB的三条边的长度分别是、/>、/>,其中c用A点坐标/>和B点的坐标/>可以通过以下公式(5)计算得到:
需要说明的是,当点A和点B在同一物体上时,一般A和B两点之间的距离c远小于A点和B点分别到雷达原点的距离a和b,从而三角形ABC内的的值远小于另外两个角之和(这个角度值最小时就是激光雷达的角分辨率,目前市场上主流高端激光雷达的角分辨率最小可达0.1度),也即当激光雷达的角分辨率为/>时(以下公式(6)中的/>表示逼近):
由上述分析内容,可得到以下结论:
当点A和点B都落在同一物体的同一表面上的相邻位置时,和/>的值一般比较接近,从而三角形ABC近似为等腰三角形,从而可推测到公式(7):
按照这个规律,可以这样推断:只要和/>(也即是三角形中,以第一代表点为顶点的两个角)中较小的那个角大于一定的阈值,即可认为点A和点B可能是同一物体上的点。
在一种可选的实施例中,关于三角形的任意一个夹角的角度值,可以通过以下方式计算得到:
已知三角形ABC的三条边、/>、/>,可用余弦定理计算出三角形ABC内的任一个角,假设/>大于/>,则/>小于/>,于是/>是需要用来判断点A和点B属于同一物体上的点的角,/>的度数deg的计算公式为公式(8):
如果度数deg大于第一预设角度值(可以用不同点云数据多次实验获得到的),则认为点A和点B很有可能是同一物体上的点。
当然,在此基础上,为了更加精确确定A、B是否为同一物体上的点,还需要加入各个网格中关于第一代表点或第二代表点的强度判断条件,详细的聚类过程如下:
可选的,假设有两个相邻的网格,分别为网格1和网格2,其中,网格1的第一代表点为点A,网格2的第一代表点为点B。假设根据网格1的第一代表点A、网格2的第一代表点B以及雷达坐标系的原点O,构建了一个三角形,并且这个三角形的目标夹角为,在此基础上,可以通过以下两种方式确定网格1和网格2是否归属于同一聚类簇。
第一种方式,将点A和点B之间的强度差异值作为网格1和网格2之间的目标强度差异值(可记为G1),如果目标夹角大于第一预设角度值R1,并且目标强度差异值G1小于第一预设强度值W1,则确定网格1和网格2属于同一点云簇。由于同一物体表面一致性较高,反射强度差异不大,因此反射强度作为目标夹角的一种补充的判据,从而防止两个物体之间存在的部分遮挡关系对聚类结果的影响(因为不同的物体虽然空间距离很近,但由于不同的材质会呈现出不同的反射强度),得到的结果更为精确。
然而,有些情况可能会使得上述判断方式失效,比如应用上述判断方式到同一车辆的不同两个面(例如正面和侧面)上的点的聚类时,由于两个面之间存在夹角,目标夹角可能无法满足大于R1的条件,为了解决该问题,本申请增加了根据目标强度差异值是否小于设置的一个更严苛的阈值(即第二预设强度值)来判断在两个网格上的点是否有可能属于同一物体。在任意一个网格和相邻网格对应的目标夹角小于或等于第一预设角度值,并且目标夹角大于第二预设角度值,同时该网格和相邻网格之间的强度差异值小于第二预设强度值的情况下,确定该网格与该网格的相邻网格属于同一点云簇,其中,第一预设角度值大于第二预设角度值,第一预设强度值大于第二预设强度值。
也即,假设目标夹角小于或等于第一预设角度值R1,但是大于第二预设角度值R2,同时目标强度差异值G1小于第二预设强度值W2,则确定该网格与该网格的相邻网格属于同一点云簇,其中,R1大于R2,W1大于W2。也即是,在此种条件下,适当放宽了对目标夹角的要求,但是对强度差异值设置了更为严苛的标准。
第二种方式,假设网格1的第二代表点为点C,网格2的第二代表点为点D(第二代表点选择每个网格中,强度值最大的点)。将点C和点D之间的强度差异值作为网格1和网格2之间的目标强度差异值(可记为G2),如果目标夹角大于第一预设角度值R1,并且目标强度差异值G2小于第一预设强度值W1,则确定网格1和网格2属于同一点云簇。同理。如果目标夹角/>小于或等于第一预设角度值R1,但是大于第二预设角度值R2,同时目标强度差异值G2小于第二预设强度值W2,则确定该网格与该网格的相邻网格属于同一点云簇。
方式一和方式二的差异在于,目标强度差异值选择的基准点不同。在方案实施的过程中,由于每个网格划分的较为细致,每个网格内包括的空间点数量有限,因此,在选择目标强度差异值的选择上,既可以选择第一代表点之间的强度差,也可以选择第二代表点之间的强度差,本实施例不做限定。
在一种可选的实施例中,在根据聚类结果确定点云图像中的物体信息之前,物体检测系统构建一个与点云深度图相同维度大小的初始聚类标记矩阵,其中,初始聚类标记矩阵中的所有元素值为0,初始聚类标记矩阵中的每个元素值对应Q个网格中的一个网格。然后,物体检测系统对聚类得到的每个聚类簇设置标签值,其中,不同标签值的聚类簇对应不同的物体,并将初始聚类标记矩阵中对应有聚类簇的网格所对应的元素值更新为该聚类簇的标签值,得到目标聚类标记矩阵,最后,物体检测系统通过目标聚类标记矩阵表示聚类结果。
可选地,仍以创建的俯视角度的点云深度图和点云强度图为例,物体检测系统会创建一个和俯视角度的点云深度图维度大小一样的初始聚类标记矩阵Lbev(r行c列)并初始化其全部元素值为0,用于标记每个网格的空间点属于哪个聚类簇(Cluster);初始化物体ID值为1。
可选地,在完成聚类之后,物体检测系统会对聚类得到的每个聚类簇设置标签值,其中,不同标签值的聚类簇对应不同的物体,例如,聚类簇1的标签值为10,对应物体1;聚类簇2的标签值为20,对应物体2。
可选地,如果网格C1和其相邻网格D1属于对应同一物体的网格,则网格C1的空间点和网格D1的空间点会被聚类为一个聚类簇,例如聚类簇1。在此基础上,物体检测系统会将初始聚类标记矩阵中对应网格C1和网格D1的元素值更新为聚类簇1的标签值10。依此逻辑将初始聚类标记矩阵中对应有聚类簇的网格所对应的元素值更新为该聚类簇的标签值,便可以得到目标聚类标记矩阵,其中,目标聚类标记矩阵表征聚类结果。
在一种可选的实施例中,当有前视方向的点云深度图和点云强度图时,类似地,创建一个和前视角度的深度图维度大小一样的聚类标记矩阵Lfov(r行c列)并初始化其全部元素值为0,用于标记每个网格的点属于哪个聚类簇,并初始化聚类簇ID值为1,然后类似上一步那样在代表网格的Pfov矩阵上循环访问每个网格位置结合前视角度下的点云深度图和点强度图对每个网格里的点进行聚类并记录到标记矩阵Lfov里。
在一种可选的实施例中,为了根据聚类结果确定点云图像中的物体信息,物体检测系统首先根据目标聚类标记矩阵(即根据聚类结果)生成一个键值对集合,其中,键值对集合包含多个键值对,其中,每个键值对的键信息为一个聚类簇的标签值,不同标签值的聚类簇对应不同的物体,每个键值对的值信息为该键值对的键信息所表征的聚类簇中的所有空间点对应的索引值的集合。然后物体检测系统将键值对集合中的目标键值对进行过滤性删除,得到目标键值对集合,其中,目标键值对的数据大小小于预设数据量,预设数据量为区分噪声信息和非噪声信息的临界数据量。最后,物体检测系统根据目标键值对集合确定点云图像中的物体信息。
可选地,物体检测系统创建一个key为聚类簇ID(对应聚类簇的标签值)、value为聚类簇中的空间点的索引值的集合的字典M。然后,物体检测系统在标记矩阵Lbev上循环访问每元素的值,如果位置的元素的值为0则跳过,如果只需要从俯视角度检测物体的存在并且/>位置的元素的值是某个聚类簇的ID,则用这个值去字典M中查找key值为该聚类簇ID的键值对,并将Pbev矩阵中/>位置记录的全部空点对应的索引值加入到该键值对的value集合中去;如果找不到key值为该聚类簇ID的键值对,则在字典M中新增一条键值对记录,key值为该聚类簇ID,value为Pbev矩阵中/>位置记录的全部空间点所对应的索引值组成的集合。
至此,字典M里记录了从俯视角度检测出来的全部物体对应的聚类簇,循环检查字典M中的每个键值对记录中的value集合,将集合大小少于设定的预设数据量的过滤掉以防止有噪声信息被误检到,剩下的即点云中检测出的物体对应的聚类簇的空间点的索引值所组成的集合,即目标键值对集合。
可选地,如果需要针对高度方向进行多个物体的细分,并且当前位置的元素的值不为0,则这时需要去检查标记矩阵Lfov里/>列的所有元素的值,对于其中任何值不为0的元素,假设元素的值为Kx,位置为/>,将Pfov矩阵中位置/>记录的全部空间点所对应的索引值加入到字典M中键值为Kx的键值对记录的value集合中去,如果此键值对记录不存在,则新增一条键值对记录,key值为当前的Kx,value为Pfov矩阵中/>位置记录的全部空间点所对应的索引值组成的集合。
在一种可选的实施例中,物体检测系统可以将目标键值对集合中的每个键值对作为待处理键值对,并根据待处理键值对的值信息所表征的索引值确定待处理键值对所对应的聚类簇中的空间点的空间信息。然后,物体检测系统根据待处理键值对所对应的聚类簇中的空间点的空间信息生成待处理键值对所对应的聚类簇的最小外接3D包围盒,并获取目标键值对集合中的每个键值对对应的最小外接3D包围盒的空间位置信息和形状信息,其中,最小外接3D包围盒表征将待处理键值对所对应的聚类簇中的每个空间点恰好完全包围的3D物体。最后,物体检测系统通过生成的每个最小外接3D包围盒的空间位置信息和形状信息表示点云图像中的每个物体的物体信息。
可选地,假设目标键值对集合中存在key10-value1,其中,key10表征聚类簇10,value1表征聚类簇10中的所有空间点的索引值集合,物体检测系统可以根据value1中的索引值确定聚类簇10中的每个空间点的空间信息,例如,每个空间点的空间坐标信息,然后,物体检测系统根据聚类簇10中的所有空间点的空间信息生成聚类簇10的最小外接3D包围盒,即生成一个将聚类簇10中的所有空间点都恰好完全包围的3D物体。
最后,物体检测系统可以通过聚类簇10的最小外接3D包围盒来表征点云图像中的一个物体,例如,聚类簇10的最小外接3D包围盒的形状为一棵树木,其所处位置位于雷达的侧前方10米处,则物体检测系统可以确定在雷达的侧前方10米处存在一棵树木。
还需要说明的是,每个最小外接3D包围盒的中心坐标和长宽高即是对应物体的中心坐标和长宽高,这样就得到了点云图像中检测出的每个物体的大小和中心坐标。
以上述改进方案以及传统点云聚类方法不同,本申请的物体检测方法,通过构建点云的深度图和点云的强度图将两者相结合用来判断点云中的不同点是否属于某同一物体,解决了传统点云聚类算法依赖于点云密度进行聚类导致同一种算法参数不能用于同时检测离雷达距离远近不同范围的点云(近处点云稠密,点云离雷达越远越稀疏)的缺点,且该方法实现简单计算量不大。
其中,经过测试表明,假如使用传统点云聚类算法,例如欧氏聚类算法,如果距离阈值参数设置为0.1m,人站在超过60米之外的距离,就检测不出来了。但是改用本申请的物体检测方法后,人站在200米远处都能稳定检测到,而且,任何物体是否能检测出来,完全只依赖于激光雷达对该物体成像的点数(雷达打在物体上能返回的光点数)。此外,测试表明,由于本申请的物体检测方法综合了点云深度信息和点云强度信息,因此具有更强的去环境噪声和分离背景干扰防误识别的能力,例如,准确地过滤掉道路旁的树木伸出的树枝对雷达识别道路上物体所造成的干扰信息。
实施例2
本实施例提供了一种可选的基于点云的物体检测装置,该基于点云的物体检测装置中的各个实施单元对应于实施例1中各个实施步骤。
图4是根据本申请实施例的一种可选的基于点云的物体检测装置的示意图,如图4所示,包括:聚类单元401和确定单元402。
其中,聚类单元401,用于根据点云图像中的空间点的深度和强度对点云图像中的空间点进行聚类,得到聚类结果,其中,聚类结果表征点云图像中属于同一个物体的空间点聚类为同一个聚类簇;确定单元402,用于根据聚类结果确定点云图像中的物体信息。
可选地,聚类单元401,包括:第一确定子单元、第一处理子单元、第二确定子单元以及聚类子单元,其中,第一确定子单元,用于确定点云图像中的空间点投影至目标平面后的边界范围,其中,目标平面为目标角度对应的平面,目标角度为俯视角度和/或前视角度;第一处理子单元,用于根据边界范围构建矩形平面,并根据点云图像中的所有空间点的坐标将矩形平面划分为Q个网格,其中,Q为大于或等于1的整数;第二确定子单元,用于根据每个网格内的空间点的坐标确定每个网格的第一代表点;聚类子单元,用于根据点云深度图和点云强度图对点云图像中的空间点进行聚类,得到聚类结果。
可选地,基于点云的物体检测装置还包括:处理单元,用于将每个网格内包括的所有空间点中距离雷达坐标系的原点最近的空间点作为该网格的第一代表点。
可选地,聚类子单元,包括:第一处理模块、第二处理模块、确定模块以及聚类模块。其中,第一处理模块,用于根据每个网格的第一代表点、该网格的相邻网格的第一代表点以及雷达坐标系的原点,构建该网格及相邻网格对应的三角形;第二处理模块,用于将每个网格对应的三角形中,以第一代表点为顶点的、角度值最小的夹角作为该网格对应的目标夹角;确定模块,用于确定所述每个网格与该网格的相邻网格之间的目标强度差异值;聚类模块,用于根据所述目标夹角和所述目标强度差异值对所述每个网格及所述每个网格的相邻网格进行聚类,得到所述聚类结果。
可选的,确定模块还用于将所述每个网格的第一代表点和该网格的相邻网格的第一代表点之间的强度差异值作为该网格和相邻网格之间的目标强度差异值;或者,将所述每个网格的第二代表点和该网格的相邻网格的第二代表点之间的强度差异值作为该网格和相邻网格之间的目标强度差异值,其中,所述每个网格的第二代表点为该网格所包括的所有空间点中强度值最大的空间点。
可选地,聚类模块,包括:第一确定子模块,用于在所述任意一个网格对应的目标夹角大于第一预设角度值,并且该网格和相邻网格之间的目标强度差异值小于第一预设强度值的情况下,确定该网格和该网格的相邻网格属于同一点云簇。
可选地,聚类模块,包括:第二确定子模块,用于在所述任意一个网格对应的目标夹角小于或等于第一预设角度值,并且该网格对应的目标夹角大于第二预设角度值,同时该网格和相邻网格之间的目标强度差异值小于第二预设强度值的情况下,确定该网格与该网格的相邻网格属于同一点云簇,其中,所述第一预设角度值大于所述第二预设角度值,所述第一预设强度值大于所述第二预设强度值。
可选地,确定单元,包括:生成子单元、删除子单元以及物体信息确定单元。其中,生成子单元,用于根据聚类结果生成一个键值对集合,其中,键值对集合包含多个键值对,其中,每个键值对的键信息为一个聚类簇的标签值,不同标签值的聚类簇对应不同的物体,每个键值对的值信息为该键值对的键信息所表征的聚类簇中的所有空间点对应的索引值的集合;删除子单元,用于将键值对集合中的目标键值对进行过滤性删除,得到目标键值对集合,其中,目标键值对的数据量小于预设数据量,预设数据量为区分噪声信息和非噪声信息的临界数据量;物体信息确定单元,用于根据目标键值对集合确定点云图像中的物体信息。
实施例3
根据本申请实施例的另一方面,还提供了一种计算机可读存储介质,计算机可读存储介质包括存储的计算机程序,其中,在计算机程序运行时控制计算机可读存储介质所在设备执行上述实施例1中的基于点云的物体检测方法。
实施例4
根据本申请实施例的另一方面,还提供了一种电子设备,包括:处理器;以及存储器,用于存储处理器的可执行指令;其中,处理器配置为经由执行可执行指令来执行上述实施例1中的基于点云的物体检测方法。
图5是根据本申请实施例的一种电子设备的示意图,如图5所示,本申请实施例提供了一种电子设备,电子设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现上述实施例1中的基于点云的物体检测方法。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (8)

1.一种基于点云的物体检测方法,其特征在于,包括:
根据点云图像中的空间点的深度和强度对所述点云图像中的空间点进行聚类,得到聚类结果,其中,所述聚类结果表征所述点云图像中属于同一个物体的空间点聚类为同一个聚类簇;
根据所述聚类结果确定所述点云图像中的物体信息;
其中,根据点云图像中的空间点的深度和强度对所述点云图像中的空间点进行聚类,得到聚类结果,包括:
确定所述点云图像中的空间点投影至目标平面后的边界范围,其中,所述目标平面为目标角度对应的平面,所述目标角度为俯视角度和/或前视角度;
根据所述边界范围构建矩形平面,并根据所述点云图像中的所有空间点的坐标将所述矩形平面划分为Q个网格,其中,Q为大于或等于1的整数;
根据每个网格内的空间点的坐标确定所述每个网格的第一代表点;
根据所述每个网格的第一代表点、该网格的相邻网格的第一代表点以及雷达坐标系的原点,构建该网格及所述相邻网格对应的三角形;
将所述每个网格对应的三角形中,以所述第一代表点为顶点的、角度值最小的夹角作为该网格对应的目标夹角;
确定所述每个网格与该网格的相邻网格之间的目标强度差异值;
根据所述目标夹角和所述目标强度差异值对所述每个网格及所述每个网格的相邻网格进行聚类,得到所述聚类结果。
2.根据权利要求1所述的基于点云的物体检测方法,其特征在于,根据每个网格内的空间点的坐标确定所述每个网格的第一代表点,包括:
将所述每个网格内包括的所有空间点中距离雷达坐标系的原点最近的空间点作为该网格的第一代表点。
3.根据权利要求1所述的基于点云的物体检测方法,其特征在于,确定所述每个网格与该网格的相邻网格之间的目标强度差异值,包括:
将所述每个网格的第一代表点和该网格的相邻网格的第一代表点之间的强度差异值作为该网格和相邻网格之间的目标强度差异值;
或者,
将所述每个网格的第二代表点和该网格的相邻网格的第二代表点之间的强度差异值作为该网格和相邻网格之间的目标强度差异值,其中,所述每个网格的第二代表点为该网格所包括的所有空间点中强度值最大的空间点。
4.根据权利要求1所述的基于点云的物体检测方法,其特征在于,在根据所述目标夹角和所述目标强度差异值对所述每个网格及所述每个网格的相邻网格进行聚类,得到所述聚类结果的过程中,所述基于点云的物体检测方法还包括:
在任意一个网格对应的目标夹角大于第一预设角度值,并且该网格和所述相邻网格之间的目标强度差异值小于第一预设强度值的情况下,确定该网格和该网格的相邻网格属于同一点云簇。
5.根据权利要求4所述的基于点云的物体检测方法,其特征在于,在根据所述目标夹角和所述目标强度差异值对所述每个网格及所述每个网格的相邻网格进行聚类,得到所述聚类结果的过程中,所述基于点云的物体检测方法还包括:
在任意一个网格对应的目标夹角小于或等于第一预设角度值,并且该网格对应的目标夹角大于第二预设角度值,同时该网格和所述相邻网格之间的目标强度差异值小于第二预设强度值的情况下,确定该网格与该网格的相邻网格属于同一点云簇,其中,所述第一预设角度值大于所述第二预设角度值,所述第一预设强度值大于所述第二预设强度值。
6.根据权利要求1所述的基于点云的物体检测方法,其特征在于,根据所述聚类结果确定所述点云图像中的物体信息,包括:
根据所述聚类结果生成一个键值对集合,其中,所述键值对集合包含多个键值对,其中,每个键值对的键信息为一个聚类簇的标签值,不同标签值的聚类簇对应不同的物体,所述每个键值对的值信息为该键值对的键信息所表征的聚类簇中的所有空间点对应的索引值的集合;
将所述键值对集合中的目标键值对进行过滤性删除,得到目标键值对集合,其中,所述目标键值对的数据量小于预设数据量,所述预设数据量为区分噪声信息和非噪声信息的临界数据量;
根据所述目标键值对集合确定所述点云图像中的物体信息。
7.一种基于点云的物体检测装置,其特征在于,包括:
聚类单元,用于根据点云图像中的空间点的深度和强度对所述点云图像中的空间点进行聚类,得到聚类结果,其中,所述聚类结果表征所述点云图像中属于同一个物体的空间点聚类为同一个聚类簇;
确定单元,用于根据所述聚类结果确定所述点云图像中的物体信息;
其中,所述确定单元,包括:第一确定子单元,用于确定所述点云图像中的空间点投影至目标平面后的边界范围,其中,所述目标平面为目标角度对应的平面,所述目标角度为俯视角度和/或前视角度;第一处理子单元,用于根据所述边界范围构建矩形平面,并根据所述点云图像中的所有空间点的坐标将所述矩形平面划分为Q个网格,其中,Q为大于或等于1的整数;第二确定子单元,用于根据每个网格内的空间点的坐标确定所述每个网格的第一代表点;聚类子单元,用于根据所述每个网格的第一代表点对所述点云图像中的空间点进行聚类,得到所述聚类结果;
其中,所述聚类子单元,包括:第一处理模块,用于根据所述每个网格的第一代表点、该网格的相邻网格的第一代表点以及雷达坐标系的原点,构建该网格及所述相邻网格对应的三角形;第二处理模块,用于将所述每个网格对应的三角形中,以所述第一代表点为顶点的、角度值最小的夹角作为该网格对应的目标夹角;确定模块,用于确定所述每个网格与该网格的相邻网格之间的目标强度差异值;聚类模块,用于根据所述目标夹角和所述目标强度差异值对所述每个网格及所述每个网格的相邻网格进行聚类,得到所述聚类结果。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行权利要求1至6中任意一项所述的基于点云的物体检测方法。
CN202311540856.3A 2023-11-17 2023-11-17 基于点云的物体检测方法、装置及计算机可读存储介质 Active CN117274651B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311540856.3A CN117274651B (zh) 2023-11-17 2023-11-17 基于点云的物体检测方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311540856.3A CN117274651B (zh) 2023-11-17 2023-11-17 基于点云的物体检测方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN117274651A CN117274651A (zh) 2023-12-22
CN117274651B true CN117274651B (zh) 2024-02-09

Family

ID=89202943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311540856.3A Active CN117274651B (zh) 2023-11-17 2023-11-17 基于点云的物体检测方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN117274651B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019173078A1 (en) * 2018-03-06 2019-09-12 Zoox, Inc. Mesh decimation techniques
CN110866449A (zh) * 2019-10-21 2020-03-06 北京京东尚科信息技术有限公司 识别道路中目标对象的方法和装置
CN112287913A (zh) * 2020-12-25 2021-01-29 浙江渔生泰科技有限公司 一种鱼类视频识别的智能监管系统
US10929711B1 (en) * 2019-03-06 2021-02-23 Zoox, Inc. Time of flight data segmentation
CN114882118A (zh) * 2022-05-07 2022-08-09 北京理工大学 一种激光雷达和相机外参的标定方法、装置及电子设备
CN115965842A (zh) * 2022-12-27 2023-04-14 苏州轻棹科技有限公司 一种基于图像和点云融合的目标检测方法和系统
CN116030445A (zh) * 2022-12-13 2023-04-28 大连理工大学 一种结合点云形状特征的自动驾驶实时三维目标检测方法
CN116432060A (zh) * 2023-03-30 2023-07-14 南京慧尔视智能科技有限公司 基于雷达的目标自适应聚类方法、装置、设备及存储介质
CN116863325A (zh) * 2022-03-25 2023-10-10 北京万集科技股份有限公司 一种用于多个目标检测的方法和相关产品

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10824862B2 (en) * 2017-11-14 2020-11-03 Nuro, Inc. Three-dimensional object detection for autonomous robotic systems using image proposals
KR20220169727A (ko) * 2021-06-21 2022-12-28 현대자동차주식회사 라이다 센서를 이용한 객체 추적 장치 및 방법과, 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
KR20230111037A (ko) * 2022-01-17 2023-07-25 현대자동차주식회사 라이다 기반 객체 감지 방법 및 장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019173078A1 (en) * 2018-03-06 2019-09-12 Zoox, Inc. Mesh decimation techniques
US10929711B1 (en) * 2019-03-06 2021-02-23 Zoox, Inc. Time of flight data segmentation
CN110866449A (zh) * 2019-10-21 2020-03-06 北京京东尚科信息技术有限公司 识别道路中目标对象的方法和装置
CN112287913A (zh) * 2020-12-25 2021-01-29 浙江渔生泰科技有限公司 一种鱼类视频识别的智能监管系统
CN116863325A (zh) * 2022-03-25 2023-10-10 北京万集科技股份有限公司 一种用于多个目标检测的方法和相关产品
CN114882118A (zh) * 2022-05-07 2022-08-09 北京理工大学 一种激光雷达和相机外参的标定方法、装置及电子设备
CN116030445A (zh) * 2022-12-13 2023-04-28 大连理工大学 一种结合点云形状特征的自动驾驶实时三维目标检测方法
CN115965842A (zh) * 2022-12-27 2023-04-14 苏州轻棹科技有限公司 一种基于图像和点云融合的目标检测方法和系统
CN116432060A (zh) * 2023-03-30 2023-07-14 南京慧尔视智能科技有限公司 基于雷达的目标自适应聚类方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于激光雷达传感器的三维多目标检测与跟踪技术研究;吴开阳;中国优秀硕士学位论文全文数据库 (基础科学辑);I136-366 *

Also Published As

Publication number Publication date
CN117274651A (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
Gruszczyński et al. Comparison of low-altitude UAV photogrammetry with terrestrial laser scanning as data-source methods for terrain covered in low vegetation
WO2020134082A1 (zh) 一种路径规划方法、装置和移动设备
Rottensteiner et al. The ISPRS benchmark on urban object classification and 3D building reconstruction
Pirotti et al. Ground filtering and vegetation mapping using multi-return terrestrial laser scanning
JP5161936B2 (ja) データ解析装置、データ解析方法、及びプログラム
KR101392804B1 (ko) 지상 라이다에서 취득된 포인트 클라우드 기반의 실내공간 3차원 모델 추출 방법 및 이를 구현하기 위한 프로그램이 기록된 기록매체
CN108109139B (zh) 基于灰度体元模型的机载lidar三维建筑物检测方法
KR20190070514A (ko) 격자지도 생성 장치 및 방법
CN108074232B (zh) 一种基于体元分割的机载lidar建筑物检测方法
CN114332134B (zh) 一种基于密集点云的建筑物立面提取方法和装置
CN112154448A (zh) 目标检测方法、设备及可移动平台
Zhu et al. 3D reconstruction of plant leaves for high-throughput phenotyping
CN114581464A (zh) 边界检测方法、装置、电子设备及计算机可读存储介质
Jiangui et al. A method for main road extraction from airborne LiDAR data in urban area
CN113345072A (zh) 一种多视角遥感地形影像点云重建方法及系统
CN117274651B (zh) 基于点云的物体检测方法、装置及计算机可读存储介质
Lin et al. A multilevel slicing based coding method for tree detection
CN117197339A (zh) 一种基于dem的模型展示方法、装置、设备及存储介质
CN111783648A (zh) 道路点云中护栏的提取方法及装置
CN109118565B (zh) 一种顾及杆塔电力线遮挡的电力走廊三维模型纹理映射方法
CN111742242A (zh) 点云处理方法、系统、设备及存储介质
CN112950708B (zh) 一种定位方法、定位装置及机器人
CN112084854B (zh) 一种障碍物检测方法、障碍物检测装置及机器人
KR20170016060A (ko) 데이터 마이닝 기법을 이용한 지상 라이다 데이터의 필터링 및 현황선 추출 방법과 그 장치
CN115546437A (zh) 用于机械设备的斜坡检测方法、处理器和斜坡检测装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant