CN114998276B - 一种基于三维点云的机器人动态障碍物实时检测方法 - Google Patents

一种基于三维点云的机器人动态障碍物实时检测方法 Download PDF

Info

Publication number
CN114998276B
CN114998276B CN202210667977.3A CN202210667977A CN114998276B CN 114998276 B CN114998276 B CN 114998276B CN 202210667977 A CN202210667977 A CN 202210667977A CN 114998276 B CN114998276 B CN 114998276B
Authority
CN
China
Prior art keywords
point
scanning period
static
dynamic
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210667977.3A
Other languages
English (en)
Other versions
CN114998276A (zh
Inventor
吴保磊
赵子豪
郭义鑫
张文琪
王军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN202210667977.3A priority Critical patent/CN114998276B/zh
Publication of CN114998276A publication Critical patent/CN114998276A/zh
Application granted granted Critical
Publication of CN114998276B publication Critical patent/CN114998276B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T3/06
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

本发明公开了一种基于三维点云的动态障碍物实时检测方法,属于人工智能领域,首先根据三维点云数据的曲率大小提取三维点云数据中特征点,构建机器人运动状态代价函数并进行非线性优化;然后,对三维点云数据进行降采样、地面分割和非地面三维点云聚类,获得多个扫描周期非地面三维点云数据中的障碍物位置信息,并结合机器人的位姿将障碍物位置信息投影至当前扫描周期中非地面三维点云所对应的坐标系;其次,使用基于非地面三维点云数据的IoU‑Tracker实现数据关联,进行多个障碍物跟踪并获取每个障碍物的轨迹信息;最后,根据获取每个障碍物轨迹信息检测出动态障碍物。本发明使用激光雷达实现动态障碍物的检测,实时性强,准确率高。

Description

一种基于三维点云的机器人动态障碍物实时检测方法
技术领域
本发明涉及到人工智能领域,具体涉及一种基于三维点云的机器人动态障碍物实时检测方法。
背景技术
随着智能感知和智能控制技术的快速发展,机器人自主能力也随之得到提高,并在日常生产、智慧物流和军事作战等领域得到广泛的应用。而智能移动机器人的自主导航能力是其智能化的关键技术之一。
目前国内外关于移动机器人已经有了许多成熟的研究成果,然而大多数研究成果是在静态环境或已知环境中进行的。在静态环境或已知环境中,通过离线的全局地图可以快速的规划出一条到终点的可行驶路径,实现移动机器人的自主导航。相比而言,在存在动态障碍物且没有已知地图的未知动态环境下,实现移动机器人自主导航研究比较困难。未知动态环境即没有已知地图且环境中存在动态障碍物的环境,未知动态环境中存在动态障碍物,例如行人、车辆等,会对移动机器人的定位建图、路径规划产生负面影响。在机器人构建环境地图时,动态障碍物的位置会随时发生变化,使最终建立的地图无法正确反映所处环境,阻碍移动机器人的自主导航。在机器人进行路径规划时,动态障碍物的前进轨迹可能会与规划得到的路径交叉重合,容易导致碰撞。因此在机器人的运行过程中,不仅要检测出环境中的障碍物,也要对检测到的障碍物进行区分,面对动态障碍物执行不同的策略。
相机和激光雷达是机器人检测障碍物最常用的传感器。相机可以感知颜色信息,并且不会发出任何测量信号,这意味着不会影响其它的感知系统,随着图像处理与计算机视觉技术的发展,可以通过深度学习等人工智能算法实现目标检测,并识别目标的种类,以此检测动态障碍物,但深度学习依赖数据库的训练,硬件成本高。激光雷达不受光照条件的影响,通过发射激光可以有效地测量200米范围内的深度信息,即到物体的距离,从而获取三维信息。
发明内容
本发明的目的是针对机器人在自主导航过程中出现动态障碍物的问题,提出了一种基于三维点云的机器人动态障碍物实时检测方法。
实现本发明目的的技术解决方案为:一种基于三维点云的动态障碍物实时检测方法,具体步骤如下:
步骤S1,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε12,...,εkk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ12,...,ρkk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1,进入步骤S2。
步骤S2,对三维点云数据集P进行降采样、地面分割和非地面点云聚类,得到多个扫描周期的包含静态和动态障碍物三维包围框:D={D1,D2,...Dk...DK}={{d1,d2,...,dn},{d1,d2,...,dn},...},D为多个扫描周期检测到的静态和动态障碍物集合,Dk指的是第k次扫描周期检测到的静态和动态障碍物集合,dn为其中一个扫描周期中检测到的第n个静态和动态障碍物,进入步骤S3。
步骤S3,结合机器人的位姿变换矩阵Tk-3、Tk-2、Tk-1,将第k-3、k-2、k-1个扫描周期的静态和动态障碍物三维包围框分别投影到第k次扫描周期的静态和动态障碍物三维包围框所在坐标系中,对应得到第k-3、k-2、k-1个扫描周期融合后静态和动态障碍物三维包围框Dk={Dk-3,Dk-2,Dk-1}={{d1,d2,...,dn},{d1,d2,...,dn},{d1,d2,...,dn}},进入步骤S4。
步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹,进入步骤S5。
步骤S5,根据静态和动态障碍物的历史轨迹,检测出动态障碍物。
本发明与现有技术相比,其显著优点在于:
(1)在没有IMU与相机的辅助下,仅使用激光雷达实现动态障碍物的实时检测,减少系统的复杂度;通过激光雷达实现机器人的位姿估计,运用到移动中的机器人时仍能实现稳定的检测。
(2)采用基于非地面三维点云数据的IoU-Tracker实现数据关联,进行多个障碍物跟踪并获取每个障碍物的轨迹信息,根据障碍物轨迹信息检测出动态障碍物。相对于先识别障碍物种类再判断是否为动态障碍物的方法,本发明对机器人计算平台的要求更低,更能适应多种环境。
附图说明
图1为本发明的一种基于三维点云的动态障碍物实时检测方法框图。
图2为动态障碍物检测流程图。
图3为三维点云融合效果图,其中图(a)是整体点云投影,图(b)是行人点云投影,图(c)是行李箱点云投影。
图4为动态障碍物检测结果图。
具体实施方式
下面结合具体实施方式对本发明做进一步详细的说明。
结合图1和图2,本发明所述的基于三维点云的机器人动态障碍物实时检测方法,步骤如下:
步骤S1,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε12,...,εkk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ12,...,ρkk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1
步骤S1.1,计算原始激光雷达三维点云数据集P中每个点的曲率c:
Figure BDA0003693641600000031
其中,S为点i最近邻点集,
Figure BDA0003693641600000032
为激光雷达坐标系L下的第k次扫描周期中点i的坐标,/>
Figure BDA0003693641600000033
表示在激光雷达坐标系L下的第k次扫描周期中点j的坐标,j∈S,进入步骤S1.2。
步骤S1.2,将曲率c按照大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε12,...,εkk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ12,...,ρkk+1,...},ρk为第k次扫描周期的平面特征点集,进入步骤S1.3。
步骤S1.3,假设机器人的初始位姿变换矩阵为T0=0,利用
Figure BDA0003693641600000041
Figure BDA0003693641600000042
计算得到第1次扫描周期位姿变换矩阵T1;根据位姿变换矩阵T1,利用/>
Figure BDA0003693641600000043
计算得到第2次扫描周期的位姿变换矩阵T2,不断迭代收敛,得到第k、k+1次扫描周期位姿变换矩阵为Tk、Tk+1,利用位姿变换矩阵Tk把第k次扫描周期的三维点云Pk投影至第k+1周期初始时刻tk+1,得到第k次扫描周期的三维投影点云/>
Figure BDA0003693641600000044
第k次扫描周期的边缘特征点集/>
Figure BDA0003693641600000045
第k次扫描周期的平面特征点集/>
Figure BDA0003693641600000046
利用位姿变换矩阵Tk+1把第k+1次扫描周期的三维点云Pk+1投影第k+1周期初始时刻tk+1,得到第k+1次扫描周期的三维投影点云/>
Figure BDA0003693641600000047
第k+1次扫描周期的边缘特征点集/>
Figure BDA0003693641600000048
第k+1次扫描周期的平面特征点集/>
Figure BDA0003693641600000049
进入步骤S1.4。
步骤S1.4,根据边缘特征点集
Figure BDA00036936416000000410
平面特征点集/>
Figure BDA00036936416000000411
构建机器人位姿代价函数dε和dp
Figure BDA00036936416000000412
其中,点i1
Figure BDA00036936416000000413
中一个点,点j1为点i1最近邻点,点l1为连续两次扫描周期中点j1的最近邻点,j1≠l1,/>
Figure BDA00036936416000000414
dε为点i1到直线j1l1的距离,/>
Figure BDA00036936416000000415
为点i1在激光雷达坐标系L下的坐标,/>
Figure BDA00036936416000000416
为点j1在激光雷达坐标系L下的坐标,/>
Figure BDA00036936416000000417
为点l1在激光雷达坐标系L下的坐标。
Figure BDA00036936416000000418
其中,点i2
Figure BDA00036936416000000419
中一个点,点j2、点l2为点i2的两个不同的最近邻点,j2≠l2,点m为点i2的最近邻点,点m在点j2的连续两次扫描周期中,/>
Figure BDA00036936416000000420
dρ为点i2到平面j2l2m的距离,/>
Figure BDA00036936416000000421
为点i2在激光雷达坐标系L下的坐标,/>
Figure BDA00036936416000000422
为点j2在激光雷达坐标系L下的坐标,/>
Figure BDA00036936416000000423
为点l2在激光雷达坐标系L下的坐标,/>
Figure BDA00036936416000000424
为点m在激光雷达坐标系L下的坐标,进入步骤S1.5。
步骤S1.5,利用代价函数dε和dp构建距离模型d,d是关于位姿变换Tk+1的非线性函数f(Tk+1)=d,使用最小二乘法优化直到|d|的值接近0,求解机器人的位姿变换Tk+1
Figure BDA0003693641600000051
其中,Tk+1为机器人的位姿变换,λ为拉格朗日乘子,
Figure BDA0003693641600000052
为雅可比矩阵。
进入步骤S2。
步骤S2,对三维点云数据集P进行降采样、地面分割和非地面点云聚类,得到多个扫描周期的包含静态和动态障碍物三维包围框:D={D1,D2,...Dk...DK}={{d1,d2,...,dn},{d1,d2,...,dn},...},D为多个扫描周期检测到的静态和动态障碍物集合,Dk指的是第k次扫描周期检测到的静态和动态障碍物集合,dn为其中一个扫描周期中检测到的第n个静态和动态障碍物,进入步骤S3。
步骤S3,如图3所示,结合机器人的位姿变换矩阵Tk-3、Tk-2、Tk-1,将第k-3、k-2、k-1个扫描周期的静态和动态障碍物三维包围框分别投影到第k次扫描周期的静态和动态障碍物三维包围框所在坐标系中,对应得到第k-3、k-2、k-1个扫描周期融合后静态和动态障碍物三维包围框Dk={Dk-3,Dk-2,Dk-1}={{d1,d2,...,dn},{d1,d2,...,dn},{d1,d2,...,dn}},进入步骤S4。
步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹。
作为对本发明的优选,具体步骤如下:
步骤S4.1,初始化集合Ta和Tf,Ta用于存储检测到的静态和动态障碍物所有轨迹,
Figure BDA0003693641600000053
Tf为保存Ta中有效的轨迹并作为静态和动态障碍物跟踪的结果,Tf={lli|lli>lth,lli∈Ta},进入步骤S4.2。
步骤S4.2,将包含静态和动态障碍物的三维包围框坐标集合中定义检测到的第p个静态或动态障碍物dp,p∈[0,n],计算dp三维包围框
Figure BDA0003693641600000054
Figure BDA0003693641600000055
与Ta中第q个轨迹lq末端所对应三维包围框/>
Figure BDA0003693641600000056
Figure BDA0003693641600000065
的交并比IoU(dp,lq):
Figure BDA0003693641600000061
其中,
Figure BDA0003693641600000066
为组成dp三维包围框坐标点,/>
Figure BDA0003693641600000067
Figure BDA0003693641600000068
组成lp三维包围框坐标点,若交并比IoU(dp,lq)大于阈值σIoU,则加入集合DIoU={dp|IoU(dp,lq)≥σIoU,dp∈Dk},进入步骤S4.3。
步骤S4.3,判断集合DIoU的数量是否为零:
若集合DIoU的数量不为零,计算集合DIoU中每个静态或动态障碍物中心坐标与轨迹lq末端中心坐标的距离,将计算得到的距离最小的静态或动态障碍物dmin_l加入到轨迹lq,并把该静态或动态障碍物从Dk中删除,进入步骤S4.4。
Figure BDA0003693641600000062
其中,
Figure BDA0003693641600000063
为集合DIoU中第O个静态或动态障碍物中心坐标,
Figure BDA0003693641600000064
为轨迹lq末端中心坐标;
若集合DIoU的数量为零,比较当前时间与该轨迹的更新时间,若时间差大于阈值tmin,将该轨迹从集合Ta中删除,进入步骤S4.4。
步骤S4.4,重复步骤S4.3,遍历Dk中的所有静态和动态障碍物,对集合Dk中满足步骤S4.3的静态和动态障碍物,创建新的轨迹,并将其加入集合Ta中,进入步骤S4.5。
步骤S4.5,遍历集合Ta中的每个轨迹,将轨迹长度大于阈值lth的轨迹加集合Tf,输出静态和动态障碍物的历史轨迹集合Tf,如图4所示。进入步骤S5。
步骤S5,根据静态和动态障碍物的历史轨迹,检测出动态障碍物。
上述实施例为本发明最佳的实施例及运用技术原理,但本发明的实施例方式并不受上述实施例的限制,其他不违背本发明的原理下所做的改变、修饰、替代、组合、简化,均应为等效的置换方式,都在本发明的保护范围之内。

Claims (2)

1.一种基于三维点云的动态障碍物实时检测方法,其特征在于,步骤如下:
步骤S1,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,…,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1,具体如下:
步骤S1中,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1,具体如下:
步骤S1.1,计算原始激光雷达三维点云数据集P中每个点的曲率c:
Figure QLYQS_1
其中,S为点i最近邻点集,
Figure QLYQS_2
为激光雷达坐标系L下的第k次扫描周期中点i的坐标,
Figure QLYQS_3
表示在激光雷达坐标系L下的第k次扫描周期中点j的坐标,j∈S,进入步骤S1.2;
步骤S1.2,将曲率c按照大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于emin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集,进入步骤S1.3;
步骤S1.3,假设机器人的初始位姿变换矩阵为T0=0,利用
Figure QLYQS_5
Figure QLYQS_8
计算得到第1次扫描周期位姿变换矩阵T1;根据位姿变换矩阵T1,利用/>
Figure QLYQS_11
计算得到第2次扫描周期的位姿变换矩阵T2,不断迭代收敛,得到第k、k+1次扫描周期位姿变换矩阵为Tk、Tk+1,利用位姿变换矩阵Tk把第k次扫描周期的三维点云Pk投影至第k+1周期初始时刻tk+1,得到第k次扫描周期的三维投影点云/>
Figure QLYQS_6
第k次扫描周期的边缘特征点集/>
Figure QLYQS_7
第k次扫描周期的平面特征点集/>
Figure QLYQS_10
利用位姿变换矩阵Tk+1把第k+1次扫描周期的三维点云Pk+1投影第k+1周期初始时刻tk+1,得到第k+1次扫描周期的三维投影点云/>
Figure QLYQS_12
第k+1次扫描周期的边缘特征点集/>
Figure QLYQS_4
第k+1次扫描周期的平面特征点集/>
Figure QLYQS_9
进入步骤S1.4;
步骤S1.4,根据边缘特征点集
Figure QLYQS_13
平面特征点集/>
Figure QLYQS_14
构建机器人位姿代价函数dε和dp
Figure QLYQS_15
/>
其中,点i1
Figure QLYQS_16
中一个点,点j1为点i1最近邻点,点l1为连续两次扫描周期中点j1的最近邻点,/>
Figure QLYQS_17
dε为点i1到直线j1l1的距离,/>
Figure QLYQS_18
为点i1在激光雷达坐标系L下的坐标,/>
Figure QLYQS_19
为点j1在激光雷达坐标系L下的坐标,/>
Figure QLYQS_20
为点l1在激光雷达坐标系L下的坐标;
Figure QLYQS_21
其中,点i2
Figure QLYQS_22
中一个点,点j2、点l2为点i2的两个不同的最近邻点,j2≠l2,点m为点i2的最近邻点,点m在点j2的连续两次扫描周期中,/>
Figure QLYQS_23
dρ为点i2到平面j2l2m的距离,
Figure QLYQS_24
为点i2在激光雷达坐标系L下的坐标,/>
Figure QLYQS_25
为点j2在激光雷达坐标系L下的坐标,
Figure QLYQS_26
为点l2在激光雷达坐标系L下的坐标,/>
Figure QLYQS_27
为点m在激光雷达坐标系L下的坐标,进入步骤S1.5;
步骤S1.5,利用代价函数dε和dp构建距离模型d,d是关于位姿变换Tk+1的非线性函数f(Tk+1)=d,使用最小二乘法优化直到|d|的值接近0,求解机器人的位姿变换Tk+1
Figure QLYQS_28
其中,Tk+1为机器人的位姿变换,λ为拉格朗日乘子,
Figure QLYQS_29
为雅可比矩阵;
进入步骤S2;
步骤S2,对三维点云数据集P进行降采样、地面分割和非地面点云聚类,得到多个扫描周期的包含静态和动态障碍物三维包围框:D={D1,D2,...Dk...DK}={{d1,d2,...,dn},{d1,d2,...,dn},...},D为多个扫描周期检测到的静态和动态障碍物集合,Dk指的是第k次扫描周期检测到的静态和动态障碍物集合,dn为其中一个扫描周期中检测到的第n个静态和动态障碍物,进入步骤S3;
步骤S3,结合机器人的位姿变换矩阵Tk-3、Tk-2、Tk-1,将第k-3、k-2、k-1个扫描周期的静态和动态障碍物三维包围框分别投影到第k次扫描周期的静态和动态障碍物三维包围框所在坐标系中,对应得到第k-3、k-2、k-1个扫描周期融合后静态和动态障碍物三维包围框Dk={Dk-3,Dk-2,Dk-1}={{d1,d2,...,dn},{d1,d2,...,dn},{d1,d2,...,dn}},进入步骤S4;
步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹,进入步骤S5;
步骤S5,根据静态和动态障碍物的历史轨迹,检测出动态障碍物。
2.根据权利要求1所述的一种基于三维点云的动态障碍物实时检测方法,其特征在于,步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹,具体如下:
步骤S4.1,初始化集合Ta和Tf,Ta用于存储检测到的静态和动态障碍物所有轨迹,
Figure QLYQS_30
Tf为保存Ta中有效的轨迹并作为静态和动态障碍物跟踪的结果,Tf={lli|lli>lth,lli∈Ta},进入步骤S4.2;/>
步骤S4.2,将包含静态和动态障碍物的三维包围框坐标集合中定义检测到的第p个静态或动态障碍物dp,p∈[0,n],计算dp三维包围框
Figure QLYQS_31
Figure QLYQS_32
与Ta中第q个轨迹lq末端所对应三维包围框/>
Figure QLYQS_33
Figure QLYQS_34
的交并比IoU(dp,lq):
Figure QLYQS_35
其中,
Figure QLYQS_36
为组成dp三维包围框坐标点,/>
Figure QLYQS_37
Figure QLYQS_38
组成lp三维包围框坐标点,若交并比IoU(dp,lq)大于阈值σIoU,则加入集合DIoU={dp|IoU(dp,lq)≥σIoU,dp∈Dk},进入步骤S4.3;
步骤S4.3,判断集合DIoU的数量是否为零:
若集合DIoU的数量不为零,计算集合DIoU中每个静态或动态障碍物中心坐标与轨迹lq末端中心坐标的距离,将计算得到的距离最小的静态或动态障碍物dmin_l加入到轨迹lq,并把该静态或动态障碍物从Dk中删除,进入步骤S4.4;
Figure QLYQS_39
其中,
Figure QLYQS_40
为集合DIoU中第O个静态或动态障碍物中心坐标,/>
Figure QLYQS_41
为轨迹lq末端中心坐标;
若集合DIoU的数量为零,比较当前时间与该轨迹的更新时间,若时间差大于阈值tmin,将该轨迹从集合Ta中删除,进入步骤S4.4;
步骤S4.4,重复步骤S4.3,遍历Dk中的所有静态和动态障碍物,对集合Dk中满足步骤S4.3的静态和动态障碍物,创建新的轨迹,并将其加入集合Ta中,进入步骤S4.5;
步骤S4.5,遍历集合Ta中的每个轨迹,将轨迹长度大于阈值lth的轨迹加集合Tf,输出静态和动态障碍物的历史轨迹集合Tf
CN202210667977.3A 2022-06-14 2022-06-14 一种基于三维点云的机器人动态障碍物实时检测方法 Active CN114998276B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210667977.3A CN114998276B (zh) 2022-06-14 2022-06-14 一种基于三维点云的机器人动态障碍物实时检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210667977.3A CN114998276B (zh) 2022-06-14 2022-06-14 一种基于三维点云的机器人动态障碍物实时检测方法

Publications (2)

Publication Number Publication Date
CN114998276A CN114998276A (zh) 2022-09-02
CN114998276B true CN114998276B (zh) 2023-06-09

Family

ID=83034286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210667977.3A Active CN114998276B (zh) 2022-06-14 2022-06-14 一种基于三维点云的机器人动态障碍物实时检测方法

Country Status (1)

Country Link
CN (1) CN114998276B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115464650B (zh) * 2022-09-19 2023-05-05 哈尔滨工业大学 一种针对动态障碍物的冗余度机械臂避障模型的构建方法
CN116147567B (zh) * 2023-04-20 2023-07-21 高唐县空间勘察规划有限公司 基于多元数据融合的国土测绘方法
CN117152719B (zh) * 2023-11-01 2024-03-26 锐驰激光(深圳)有限公司 除草障碍物检测方法、设备、存储介质及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114387585A (zh) * 2022-03-22 2022-04-22 新石器慧通(北京)科技有限公司 障碍物检测方法、检测装置及行驶装置
CN114384920A (zh) * 2022-03-23 2022-04-22 安徽大学 一种基于局部栅格地图实时构建的动态避障方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108152831B (zh) * 2017-12-06 2020-02-07 中国农业大学 一种激光雷达障碍物识别方法及系统
CN114445565A (zh) * 2020-11-06 2022-05-06 北京嘀嘀无限科技发展有限公司 数据处理方法、装置、电子设备和计算机可读介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114387585A (zh) * 2022-03-22 2022-04-22 新石器慧通(北京)科技有限公司 障碍物检测方法、检测装置及行驶装置
CN114384920A (zh) * 2022-03-23 2022-04-22 安徽大学 一种基于局部栅格地图实时构建的动态避障方法

Also Published As

Publication number Publication date
CN114998276A (zh) 2022-09-02

Similar Documents

Publication Publication Date Title
Dewan et al. Motion-based detection and tracking in 3d lidar scans
CN114998276B (zh) 一种基于三维点云的机器人动态障碍物实时检测方法
Vu et al. Online localization and mapping with moving object tracking in dynamic outdoor environments
Chen et al. Gaussian-process-based real-time ground segmentation for autonomous land vehicles
Vu et al. Grid-based localization and local mapping with moving object detection and tracking
US10696300B2 (en) Vehicle tracking
Ye et al. Object detection and tracking using multi-layer laser for autonomous urban driving
JP2019527832A (ja) 正確な位置特定およびマッピングのためのシステムおよび方法
CN114384920A (zh) 一种基于局部栅格地图实时构建的动态避障方法
CN110488811B (zh) 一种基于社交网络模型的机器人对行人轨迹预测的方法
Kim et al. SLAM in indoor environments using omni-directional vertical and horizontal line features
Zhang et al. Multiple vehicle-like target tracking based on the velodyne lidar
Mueller et al. GIS-based topological robot localization through LIDAR crossroad detection
Chen et al. Real-time identification and avoidance of simultaneous static and dynamic obstacles on point cloud for UAVs navigation
CN116576857A (zh) 一种基于单线激光雷达的多障碍物预测导航避障方法
Muresan et al. Multimodal sparse LIDAR object tracking in clutter
Xiong et al. Road-Model-Based road boundary extraction for high definition map via LIDAR
Cui et al. Online multi-target tracking for pedestrian by fusion of millimeter wave radar and vision
Burger et al. Unstructured road slam using map predictive road tracking
WO2022021661A1 (zh) 一种基于高斯过程的视觉定位方法、系统及存储介质
Catalano et al. Uav tracking with solid-state lidars: dynamic multi-frequency scan integration
Ju et al. Scene-aware error modeling of lidar/visual odometry for fusion-based vehicle localization
Deusch et al. Improving localization in digital maps with grid maps
Gebregziabher Multi Object Tracking for Predictive Collision Avoidance
CN111239761B (zh) 一种用于室内实时建立二维地图的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant