CN116109668A - 一种点云目标跟踪识别方法及激光雷达 - Google Patents
一种点云目标跟踪识别方法及激光雷达 Download PDFInfo
- Publication number
- CN116109668A CN116109668A CN202111334498.1A CN202111334498A CN116109668A CN 116109668 A CN116109668 A CN 116109668A CN 202111334498 A CN202111334498 A CN 202111334498A CN 116109668 A CN116109668 A CN 116109668A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- frame point
- next frame
- current frame
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Computational Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Operations Research (AREA)
Abstract
本发明公开了一种点云目标跟踪识别方法及激光雷达,属于数据跟踪识别技术领域,减小点云目标跟踪识别的数据处理量,提高了点云目标跟踪识别效率。方法包括:根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,并根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围;根据当前帧点云处理范围和所述下一帧点云处理增量范围,更新待跟踪识别点云处理范围;对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果。
Description
技术领域
本发明涉及数据跟踪识别技术领域,尤其涉及一种点云目标跟踪识别方法及激光雷达。
背景技术
现有技术中针对物体检测的主要使用设备有摄像头,激光雷达,毫米波雷达等,但普遍存在不能全天时工作,冗余信息获取过多、数据量大且自动化程度不够高的问题,使得对重点区域物体的检测存在一定的漏检和误报。为了解决当前检测手段所存在的问题,本专利设计了一套改进的物体检测系统以加强对异物的识别检测,以全天时工作的激光雷达作为主传感器,提高传感器监控探测的稳定性,实现全天时的物体检测。
与以往的使用激光雷达进行物体识别所不同,针对连续运动的物体,使用激光雷达得到的点云具有如下的特点:①数据量大,激光雷达处理单帧点云的运算量很大。②相邻点云帧点云的差别较小,存在大量位置没有发生变换的背景点云。③待检测物体点云通常只在某个方向上移动,相邻点云帧之间的部分点云位置坐标值不发生改变。④点云数据完全离散,部分点云的存在与否不会影响其他点云。⑤点云数据呈现近密远疏的特点,远处得到的点云稀疏,近处较为密集。针对当前数据量大的点云处理耗时的问题和连续运动物体点云的特点,改进了物体检测方法,以减少激光雷达的计算负担。
现有的激光雷达物体检测方法,主要分为两大类一种是基于聚类的检测方法,一种是基于训练的检测方法。基于聚类的方法的主要流程是地面点去除,点云聚类,点云分割,点云尺寸匹配进行物体检测等步骤。基于训练的物体识别过程把每一帧看作一个独立的输入点云,依靠深度神经网络的特征提取能力,实现目标检测。在点云目标检测的深度神经网络的构建中,一般有两种构建思想。第一种是以PointRCNN为代表的two-stage方法,即将整个深度神经网络看成是物体定位和物体分类2个阶段组成的网络,训练阶段也是分2个阶段进行训练,先是对物体定位的训练,再对一阶段训练得到的定位位置点云进行物体目标的分类。第二种是以3DSSD为代表的single-stage训练过程,将点位与分类直接用一个神经网络进行标识,直接实现物体定位分类的训练。在实际运动物体的实时定位跟踪中,一般会对输入点云进行一次预处理,主要包括点云离群点去除,点云的表面平滑滤波和适当的裁剪。再在已经训练好的点云物体定位检测网络上实现物体识别。
但是无论是点云数据的预处理还是物体的跟踪检测,由于探测的点云物体通常仅占据全部输入点云数据的很小一部分,无关数据量巨大,使得激光雷达处理很多无特征数据。例如,将多线激光雷达应用于铁路场景的异物物体入侵检测时,以场景中可能出现的异物人为例。在使用多线激光雷达扫描得到的铁路监测范围,激光雷达视场扫描所覆盖的范围约为长100米,宽20米,高10米的点云空间,但是行人点云尺寸仅为体积约为0.5立方米,所占空间比例不足1%,环境无关点云数据量是目标物点云数的近百倍。但是所有的输入点云均被同等处理,无关特征点被处理多次,增加了运算量,增加了激光雷达数据处理模块的计算负担,会使得激光雷达的检测速度减慢。对于其他异物的检测,尺寸小的无关物体其点云冗余度则会更大,这些数据冗余将会大大增加激光雷达的运算负担。
发明内容
鉴于上述的分析,本发明实施例旨在提供一种点云目标跟踪识别方法及激光雷达,减小点云目标跟踪识别的数据处理量,提高了点云目标跟踪识别效率。
本发明公开了一种点云目标跟踪识别方法,包括:
根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,并根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围;
根据当前帧点云处理范围和所述下一帧点云处理增量范围,更新待跟踪识别点云处理范围;
对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果。
进一步地,所述根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,包括:
确定当前帧点云目标与激光雷达之间的距离,并将所述距离,以及所述当前帧点云目标在各坐标分量的最大最小值作为所述下一帧点云目标跟踪识别参数;
和/或,确定与当前帧点云目标对应的当前帧点云数据量,将所述当前帧点云数据量与背景点云数据量之间的占比作为所述下一帧点云目标跟踪识别参数。
进一步地,所述根据当前帧点云处理范围和所述下一帧点云处理增量范围,更新待跟踪识别点云处理范围,包括:
根据如下公式更新所述待跟踪识别点云处理范围:
P=Pa+Pδ
其中,P为所述待跟踪识别点云处理范围、Pa为所述当前帧点云处理范围、Pδ为所述下一帧点云处理增量范围。
进一步地,所述根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围,包括:
根据所述距离,以及所述当前帧点云目标在各坐标分量的最大最小值确定所述下一帧点云处理增量范围,具体包括:
根据如下公式确定所述下一帧点云处理增量范围Pδ:
其中,δx、δy和δz分别为Pδ在x、y和z方向上的增量变化;μx,μy,μz∈(-1,1)表示Pδ在x、y和z方向上的伸缩变换系数,μx,μy,μz根据所述距离进行正相关变化;xPaxmax和xPaxmin为所述当前帧点云目标在x方向上的最大坐标值和最小坐标值、xPaymax和xPaymin为所述当前帧点云目标在y方向上的最大坐标值和最小坐标值、xPazmax和xPazmin为所述当前帧点云目标在z方向上的最大坐标值和最小坐标值。
进一步地,所述μx,μy,μz根据如下公式计算得到:
其中,g1,g2,g3为与所述距离相关的正比例函数;L(po)为所述距离。
进一步地,所述根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围,包括:
根据所述占比确定所述下一帧点云处理增量范围,具体包括;
根据如下公式确定所述下一帧点云处理增量范围Pδ:
其中,δx、δy和δz分别为Pδ在x、y和z方向上的增量变化;λ表示Pδ的大小控制因子;N(Pa)为所述当前帧点云数据量、N(P)为所述背景点云数据量;和为与x、y和z方向分别对应的以为自变量的变化函数。
进一步地,所述λ取值根据如下公式计算:
其中,a1为第一预设百分比阈值、a2为第二预设百分比阈值。
进一步地,所述根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围,包括:
根据所述距离、所述当前帧点云目标在各坐标分量的最大最小值以及所述占比,确定所述下一帧点云处理增量范围;具体包括:
根据如下公式确定所述下一帧点云处理增量范围Pδ:
其中,δx、δy和δz分别为Pδ在x、y和z方向上的增量变化;λ表示Pδ的大小控制因子;N(Pa)为所述当前帧点云数据量、N(P)为所述背景点云数据量;和为与x、y和z方向分别对应的以为自变量的变化函数;μx,μy,μz∈(-1,1)表示Pδ在x、y和z方向上的伸缩变换系数,μx,μy,μz根据所述距离进行正相关变化;xPaxmax和xPaxmin为所述当前帧点云目标在x方向上的最大坐标值和最小坐标值、xPaymax和xPaymin为所述当前帧点云目标在y方向上的最大坐标值和最小坐标值、xPazmax和xPazmin为所述当前帧点云目标在z方向上的最大坐标值和最小坐标值。
进一步地,所述对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果,包括:
基于目标检测算法对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果。
本发明公开了一种激光雷达,执行上述点云目标跟踪识别方法。
与现有技术相比,本发明至少可实现如下有益效果之一:
本发明提供的点云目标跟踪识别方法,根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,根据下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围;根据当前帧点云处理范围和下一帧点云处理增量范围,更新待跟踪识别点云处理范围;对待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云跟踪识别结果。减小点云目标跟踪识别的数据处理量,提高了点云目标跟踪识别效率。
本发明提供的激光雷达,执行点云目标跟踪识别方法,根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,根据下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围;根据当前帧点云处理范围和下一帧点云处理增量范围,更新待跟踪识别点云处理范围;对待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云跟踪识别结果。减小激光雷达的数据处理量,提高了激光雷达点云跟踪识别效率。
本发明中,上述各技术方案之间还可以相互组合,以实现更多的优选组合方案。本发明的其他特征和优点将在随后的说明书中阐述,并且,部分优点可从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过说明书以及附图中所特别指出的内容中来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为本发明实施例中的点云目标跟踪识别方法流程图;
图2为本发明另一实施例中的点云目标跟踪识别方法流程图;
图3为本发明实施例激光雷达点云和包围盒的空间位置关系示意图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
本发明的一个具体实施例,公开了一种点云目标跟踪识别方法,流程图如图1所示,包括以下步骤:
步骤S1:根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,并根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围。
步骤S2:根据当前帧点云处理范围和所述下一帧点云处理增量范围,更新待跟踪识别点云处理范围。
步骤S3:对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果。
在上述步骤S1中,需要说明的是,下一帧点云处理增量范围和下一帧点云目标跟踪识别参数是相同帧,而不是在下一帧点云目标跟踪识别参数之后的下一帧。如图2所示,可以确定用于对当前帧点云目标进行跟踪识别的目标检测算法,目标检测算法可以包括基于均值漂移的跟踪算法、基于卡尔曼滤波的跟踪算法和基于深度学习的跟踪算法等。根据点云监控跟踪数据确定目标检测算法为成熟技术,不再赘述。
通过在激光雷达中执行目标检测算法,进而对当前帧点云目标进行跟踪识别,识别结果包括当前帧点云目标的检测结果,还可以进一步包括上述点云目标与激光雷达之间的距离、当前帧点云目标在各坐标分量的最大最小值,即当前帧点云目标在x方向上的最大坐标值和最小坐标值、在y方向上的最大坐标值和最小坐标值和在z方向上的最大坐标值和最小坐标值,即上述六个坐标值。
识别结果还可以进一步包括:当前帧点云数据量与背景点云数据量之间的占比,当前帧点云数据量即是与上述点云目标所对应的当前帧点云数据量,通常点云目标在帧图像中只占有一部分,其他部分作为背景,相应的点云数据量为背景点云数据量。
进一步地,所述根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,包括:
确定当前帧点云目标与所述激光雷达之间的距离,并将所述距离,以及所述当前帧点云目标在各坐标分量的最大最小值作为所述下一帧点云目标跟踪识别参数;
和/或,确定与当前帧点云目标对应的当前帧点云数据量,将所述当前帧点云数据量与背景点云数据量之间的占比作为所述下一帧点云目标跟踪识别参数。即可以将上述距离以及当前帧点云在各坐标的最大最小值;和/或上述占比作为下一帧点云目标跟踪识别参数。
进一步地,所述根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围,包括:
根据所述距离,以及所述当前帧点云目标在各坐标分量的最大最小值确定所述下一帧点云处理增量范围,具体包括:
根据如下公式确定所述下一帧点云处理增量范围Pδ:
其中,δx、δy和δz分别为Pδ在x、y和z方向上的增量变化;μx,μy,μz∈(-1,1)表示Pδ在x、y和z方向上的伸缩变换系数,μx,μy,μz根据所述距离进行正相关变化;xPaxmax和xPaxmin为所述当前帧点云目标在x方向上的最大坐标值和最小坐标值、xPaymax和xPaymin为所述当前帧点云目标在y方向上的最大坐标值和最小坐标值、xPazmax和xPazmin为所述当前帧点云目标在z方向上的最大坐标值和最小坐标值。如图3所示,下一帧点云处理增量范围Pδ可以用包围盒进行表示。
Pδ的数值可正可负,因为点云目标是移动的,如果使用当前帧点云处理范围作为下一帧的点云处理范围,将会检测不到点云目标,因此需要不断更新当前帧点云处理范围,更新主要依据就是点云目标所包含特征的数量多少,当检测点云目标距离激光雷达较远时,其点云会变得稀疏,点云目标所包含的特征数量就会变少。
如果继续保持包围盒的大小不变,检测准确度将会下降,所以包围盒的大小和上一帧检测的点云目标与激光雷达的距离有关,除此之外,在包围盒大小更新时,点云目标的长宽高的尺寸是不同的,所以在长宽高各自方向上的变化幅度也会不同。
该公式中的δx、δy和δz分别可以在各自的方向上独立进行变化。
μx,μy,μz的值会随着点云目标的移动而不断发生改变,距离越大,它们的取值也就越大;距离越小,它们的取值也就越小。
进一步地,所述μx,μy,μz根据如下公式计算得到:
其中,g1,g2,g3为与所述距离相关的正比例函数;L(po)为所述距离。
正比例函数是公知函数,如y=kx,k可以根据实际情况自主设置,可选为1.2,x数值越大,y数值就越大;x数值越小,y数值就越小。
po可以为物体点云集Pa的中心,其计算可以使用所有点云坐标极值的欧氏距离平均来求得,例如物体点云集Pa中共有m个点云,它们的坐标分别记为(x1,y1,z1)…(xm,ym,zm),并通过如下公式计算获得物体点云集Pa的中心坐标:
((x1,y1,z1)+…+(xm,ym,zm))/m。
即待检测点云目标越远,其点云会变得稀疏,其关于待测点云目标的特征就会变得更少,所以包围盒需要适当增大以防止漏检。当待检测点云目标比较近的时候,特征点的细节以及特征会有很好的表示,所以可以适当减小包围盒大小,减少运算量。
进一步地,所述根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围,包括:
根据所述占比确定所述下一帧点云处理增量范围,具体包括;
根据如下公式确定所述下一帧点云处理增量范围Pδ:
其中,δx、δy和δz分别为Pδ在x、y和z方向上的增量变化;λ表示Pδ的大小控制因子;N(Pa)为所述当前帧点云数据量、N(P)为所述背景点云数据量;和为与x、y和z方向分别对应的以为自变量的变化函数,进一步地,该变化函数可以为线性函数,线性函数例如为当时,当时,
进一步地,所述λ取值根据如下公式计算:
其中,a1为第一预设百分比阈值、a2为第二预设百分比阈值。a1可选为30%;a2可选为70%。
通过将包围盒扩大或者缩小,一直控制当前帧的点云数据量占比,在减少数据量的同时,还保证了点云目标检测的精度。
进一步地,所述根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围,包括:
根据所述距离、所述当前帧点云目标在各坐标分量的最大最小值以及所述占比,确定所述下一帧点云处理增量范围;具体包括:
根据如下公式确定所述下一帧点云处理增量范围Pδ:
其中,δx、δy和δz分别为Pδ在x、y和z方向上的增量变化;λ表示Pδ的大小控制因子;N(Pa)为所述当前帧点云数据量、N(P)为所述背景点云数据量;和为与x、y和z方向分别对应的以为自变量的变化函数;μx,μy,μz∈(-1,1)表示Pδ在x、y和z方向上的伸缩变换系数,μx,μy,μz根据所述距离进行正相关变化;xPaxmax和xPaxmin为所述当前帧点云目标在x方向上的最大坐标值和最小坐标值、xPaymax和xPaymin为所述当前帧点云目标在y方向上的最大坐标值和最小坐标值、xPazmax和xPazmin为所述当前帧点云目标在z方向上的最大坐标值和最小坐标值。即可以通过将当前帧点云目标与激光雷达之间的距离对下一帧点云处理增量范围的影响,以及将当前帧点云数据量与背景点云数据量之间的占比对下一帧点云处理增量范围的影响相结合,使得下一帧点云处理增量范围数值更加合理。
其中,所述λ取值计算可参照上述说明。
在上述步骤2中,进一步地,所述根据当前帧点云处理范围和所述下一帧点云处理增量范围,更新待跟踪识别点云处理范围,包括:
根据如下公式更新所述待跟踪识别点云处理范围:
P=Pa+Pδ
其中,P为所述待跟踪识别点云处理范围、Pa为所述当前帧点云处理范围、Pδ为所述下一帧点云处理增量范围。参照图2,每计算一次下一帧点云处理增量范围Pδ(点云包围盒增量),P的数值就改变一次,P表示的是每次送入目标检测算法或者网络F中的范围是可以实时动态变化的,而不同于现有方法中每次输入的点云总是视场中的所有点云。
待跟踪识别点云处理范围的构建可以包括如下步骤:
初始的P是在当前帧所采集所有点云,由此,可以得到在当前帧中所检测出的物体点云集Pa,即Pa=F(P),对于接下来输入的下一帧点云fn+1,在激光雷达检测的有限数据范围内,在很小的时间间隔内,点云目标的位置不会发生位置的突变,可以认为点云下一帧中目标点云集的位置和当前帧中的点云目标位置距离变化不大,即将包含第N帧点云检测到的点云集Pa的周围范围的点云,作为下一帧检测的输入点云集P。
在上述步骤S3中,进一步地,所述对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果,包括:
基于目标检测算法对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果。即每一次进行对待跟踪识别点云处理范围中的点云进行跟踪识别时,都可以基于目标检测算法进行。
在执行完成该步骤后,可以继续返回执行上述步骤S1中,即周期性地执行根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,以及后续步骤,且每次执行过程中,待跟踪识别点云处理范围都是根据当前帧点云处理范围和下一帧点云处理增量范围进行更新过的。
进一步地,在上述步骤S1执行之前,还可以包括如下步骤:
对由激光雷达采集的数据进行预处理,得到可以实现点云目标检测的检测方法F。
对待检测的第N帧输入点云fn,首先对其进行一定的预处理,以利于后续的点云目标检测。
预处理主要包括点云的平滑、离群点去除和下采样等。点云的平滑是将点云数据中因误差而偏移的点拉回至原位置,使得扫描得到的点云目标表面尽可能接近真实物体表面,而离群点去除是直接将偏移过大的点云移除,使得减少其对点云后处理的影响,下采样是为了保持点云特征的同时,减少点云数据量,从而在保证检测精度的同时减少数据运算量。
与现有技术相比,本发明提供的点云目标跟踪识别方法,根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,根据下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围;根据当前帧点云处理范围和下一帧点云处理增量范围,更新待跟踪识别点云处理范围;对待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云跟踪识别结果。减小点云目标跟踪识别的数据处理量,提高了点云目标跟踪识别效率。
本发明的一个具体实施例,公开了一种激光雷达,该激光雷达可执行上述点云目标跟踪识别方法,可参照上述点云目标跟踪识别方法的实施例说明,不再赘述。
本发明提供的激光雷达,执行点云目标跟踪识别方法,根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,根据下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围;根据当前帧点云处理范围和下一帧点云处理增量范围,更新待跟踪识别点云处理范围;对待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云跟踪识别结果。减小点云目标跟踪识别的数据处理量,提高了点云目标跟踪识别效率。
本领域技术人员可以理解,实现上述实施例方法的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读存储介质中。其中,所述计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种点云目标跟踪识别方法,其特征在于,包括:
根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,并根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围;
根据当前帧点云处理范围和所述下一帧点云处理增量范围,更新待跟踪识别点云处理范围;
对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果。
2.根据权利要求1所述的点云目标跟踪识别方法,其特征在于,所述根据当前帧点云目标跟踪识别结果确定下一帧点云目标跟踪识别参数,包括:
确定当前帧点云目标与激光雷达之间的距离,并将所述距离,以及所述当前帧点云目标在各坐标分量的最大最小值作为所述下一帧点云目标跟踪识别参数;
和/或,确定与当前帧点云目标对应的当前帧点云数据量,将所述当前帧点云数据量与背景点云数据量之间的占比作为所述下一帧点云目标跟踪识别参数。
3.根据权利要求1所述的点云目标跟踪识别方法,其特征在于,所述根据当前帧点云处理范围和所述下一帧点云处理增量范围,更新待跟踪识别点云处理范围,包括:
根据如下公式更新所述待跟踪识别点云处理范围:
P=Pa+Pδ
其中,P为所述待跟踪识别点云处理范围、Pa为所述当前帧点云处理范围、Pδ为所述下一帧点云处理增量范围。
4.根据权利要求2所述的点云目标跟踪识别方法,其特征在于,所述根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围,包括:
根据所述距离,以及所述当前帧点云目标在各坐标分量的最大最小值确定所述下一帧点云处理增量范围,具体包括:
根据如下公式确定所述下一帧点云处理增量范围Pδ:
其中,δx、δy和δz分别为Pδ在x、y和z方向上的增量变化;μx,μy,μz∈(-1,1)表示Pδ在x、y和z方向上的伸缩变换系数,μx,μy,μz根据所述距离进行正相关变化;xPaxmax和xPaxmin为所述当前帧点云目标在x方向上的最大坐标值和最小坐标值、xPaymax和xPaymin为所述当前帧点云目标在y方向上的最大坐标值和最小坐标值、xPazmax和xPazmin为所述当前帧点云目标在z方向上的最大坐标值和最小坐标值。
8.根据权利要求2所述的点云目标跟踪识别方法,其特征在于,所述根据所述下一帧点云目标跟踪识别参数确定下一帧点云处理增量范围,包括:
根据所述距离、所述当前帧点云目标在各坐标分量的最大最小值以及所述占比,确定所述下一帧点云处理增量范围;具体包括:
根据如下公式确定所述下一帧点云处理增量范围Pδ:
9.根据权利要求1所述的点云目标跟踪识别方法,其特征在于,所述对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果,包括:
基于目标检测算法对所述待跟踪识别点云处理范围中的点云目标进行跟踪识别,得到点云目标跟踪识别结果。
10.一种激光雷达,其特征在于,包括:执行如权利要求1至权利要求9任一所述的点云目标跟踪识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111334498.1A CN116109668A (zh) | 2021-11-11 | 2021-11-11 | 一种点云目标跟踪识别方法及激光雷达 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111334498.1A CN116109668A (zh) | 2021-11-11 | 2021-11-11 | 一种点云目标跟踪识别方法及激光雷达 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116109668A true CN116109668A (zh) | 2023-05-12 |
Family
ID=86258499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111334498.1A Pending CN116109668A (zh) | 2021-11-11 | 2021-11-11 | 一种点云目标跟踪识别方法及激光雷达 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116109668A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116721134A (zh) * | 2023-08-10 | 2023-09-08 | 武汉能钠智能装备技术股份有限公司四川省成都市分公司 | 一种无特征目标的跟踪系统及其方法 |
-
2021
- 2021-11-11 CN CN202111334498.1A patent/CN116109668A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116721134A (zh) * | 2023-08-10 | 2023-09-08 | 武汉能钠智能装备技术股份有限公司四川省成都市分公司 | 一种无特征目标的跟踪系统及其方法 |
CN116721134B (zh) * | 2023-08-10 | 2023-10-10 | 武汉能钠智能装备技术股份有限公司四川省成都市分公司 | 一种无特征目标的跟踪系统及其方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991272B (zh) | 一种基于视频跟踪的多目标车辆轨迹识别方法 | |
CN110232350B (zh) | 一种基于在线学习的实时水面多运动目标检测跟踪方法 | |
CN110738690A (zh) | 一种基于多目标追踪框架的无人机视频中车速校正方法 | |
CN111753682B (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN114627052A (zh) | 一种基于深度学习的红外图像漏气漏液检测方法及系统 | |
CN116402850A (zh) | 一种面向智能驾驶的多目标跟踪方法 | |
CN111929653B (zh) | 一种基于无人船航海雷达的目标检测、跟踪方法及系统 | |
CN110310305A (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
Zeng et al. | Robust multivehicle tracking with wasserstein association metric in surveillance videos | |
CN114998276A (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
CN116503803A (zh) | 障碍物检测方法、装置、电子设备以及存储介质 | |
CN116109668A (zh) | 一种点云目标跟踪识别方法及激光雷达 | |
CN116503760A (zh) | 基于自适应边缘特征语义分割的无人机巡航检测方法 | |
Mathias et al. | Occlusion aware underwater object tracking using hybrid adaptive deep SORT-YOLOv3 approach | |
CN108320301B (zh) | 一种基于跟踪学习检测的目标跟踪优化方法 | |
CN110111358B (zh) | 一种基于多层时序滤波的目标跟踪方法 | |
CN113129336A (zh) | 一种端到端多车辆跟踪方法、系统及计算机可读介质 | |
CN113011597B (zh) | 一种回归任务的深度学习方法和装置 | |
CN113569954A (zh) | 一种野生动物智能分类识别方法 | |
Mei et al. | Target recognition and grabbing positioning method based on convolutional neural network | |
Yamashige et al. | FPSSD7: Real-time Object Detection using 7 Layers of Convolution based on SSD | |
Zuo et al. | Dynamic target tracking based on corner enhancement with Markov decision process | |
Zhang et al. | Multi-scale vehicle detection and tracking method in highway scene | |
Lee et al. | Tracking multiple moving vehicles in low frame rate videos based on trajectory information | |
Wang et al. | Attention-based siamese region proposals network for visual tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |