CN114815821A - 基于多线激光雷达的室内自适应全景避障方法及系统 - Google Patents
基于多线激光雷达的室内自适应全景避障方法及系统 Download PDFInfo
- Publication number
- CN114815821A CN114815821A CN202210410520.4A CN202210410520A CN114815821A CN 114815821 A CN114815821 A CN 114815821A CN 202210410520 A CN202210410520 A CN 202210410520A CN 114815821 A CN114815821 A CN 114815821A
- Authority
- CN
- China
- Prior art keywords
- obstacle avoidance
- robot
- point cloud
- area
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000033001 locomotion Effects 0.000 claims abstract description 15
- 230000003044 adaptive effect Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 7
- 230000001174 ascending effect Effects 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000009434 installation Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 230000004888 barrier function Effects 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 101100039010 Caenorhabditis elegans dis-3 gene Proteins 0.000 description 1
- 101100030351 Schizosaccharomyces pombe (strain 972 / ATCC 24843) dis2 gene Proteins 0.000 description 1
- 101100129590 Schizosaccharomyces pombe (strain 972 / ATCC 24843) mcp5 gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005251 gamma ray Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种基于多线激光雷达的室内自适应全景避障方法及系统,利用多线激光雷达装置获取原始激光点云数据,对齐定位时间戳,对点云进行预处理及地面分割,提取避障区域非得地面点云;获取栅格地图、机器人当前位姿及运动速度,并对机器人当前位姿周围环境进行网格划分,确定周围环境状态;选择避障策略及避障等级,设置相适应的避障区域,利用避障区域点云数量确定机器人的避障结果;本发明能够更高效地识别周围环境障碍物,并反馈自适应避障策略,实现了平稳避障。
Description
技术领域
本发明涉及机器人避障控制技术领域,特别涉及一种基于多线激光雷达的室内自适应全景避障方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术,并不必然构成现有技术。
随着计算机技术及室内2D SLAM(Simultaneous Localization And Mapping)技术的快速发展,障碍物检测逐渐成为室内机器人导航领域的研究热点。智能避障技术成为室内机器人路径规划及导航的重要技术手段,也是我国机器人可持续发展的重要战略保障。室内机器人自动导航的关键在于如何识别周围环境的障碍物,确保机器人能够精确识别障碍物,并进行规划路径,实现智能自适应精准臂避障。
发明人发现,传统机器人主要通过人工控制实现行驶过程中的避障,经济效益差,代价大,精度控制鲁棒性低;单点激光避障方式只能感知该激光线前方障碍物信息,感知区域较小,精度较差,抗干扰能力差;单线激光避障方式虽然能够感知周围环境障碍物信息,但在避障过程中机器人容易出现急停,摆尾等症状,且不能感知激光线上方或者下方悬空的障碍物,感知环境停留在平面,避障策略单一,鲁棒性较差;上述避障技术都无法满足室内复杂环境移动机器人高精度、自适应智能化自主避障需求。
发明内容
为了解决现有技术的不足,本发明提供了一种基于多线激光雷达的室内自适应全景避障方法及系统,能够更高效地识别周围环境障碍物,并反馈自适应避障策略,实现平稳避障。
为了实现上述目的,本发明采用如下技术方案:
本发明第一方面提供了一种基于多线激光雷达的室内自适应全景避障方法。
一种基于多线激光雷达的室内自适应全景避障方法,包括以下过程:
获取基于多线激光雷达得到的避障区域非地面点云;
根据栅格地图、机器人当前位姿及运动速度,确定机器人的周围环境状态;
如果为前后自适应避障策略,判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为前后二级避障和左右一级避障,否则,为全景一级避障;如果为正常避障策略,则避障策略为全景一级避障;如果选择全景自适应避障策略,则判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为全景二级避障,否则为全景一级避障;
设定机器人避障区域,根据激光雷达相对于机器人各边缘的距离阈值、避障等级及速度补偿因子确定各非地面点云所属的避障区域;
比较第一避障区域的点云数量总数是否大于第一设定阈值,如果大于,则避障指令为紧急制动;如果小于,比较第二避障区域的点云数量总数是否大于第二设定阈值,如果大于,则机器人避障指令为减速;如果小于,比较第三避障区域的点云数量总数是否大于第三设定阈值,如果大于,则机器人避障指令为避障警告,否则,避障指令为正常运行。
作为可选的一种实现方式,根据激光雷达相对于机器人各边缘的距离阈值、避障等级及速度补偿因子确定各非地面点云所属的避障区域,包括:
如果当点云X轴坐标值大于激光雷达相对于机器人前后边缘的距离阈值与第一前后避障区域补偿值的加和,且点云Y轴坐标值大于激光雷达相对于机器人左右边缘的距离阈值与第一左右避障区域补偿值的加和时,则点云属于第一避障区域;否则,执行下一步;
如果点云X轴坐标值大于激光雷达相对于机器人前后边缘的距离阈值与第二前后避障区域补偿值的加和,且点云Y轴坐标值大于激光雷达相对于机器人左右边缘的距离阈值与第二左右避障区域补偿值的加和时,点云属于第二避障区域;否则,执行下一步;
如果点云X轴坐标值大于激光雷达相对于机器人前后边缘的距离阈值与第三前后避障区域补偿值的加和,且点云Y轴坐标值大于激光雷达相对于机器人左右边缘的距离阈值与第三左右避障区域补偿值的加和时,点云属于第二避障区域;否则,为无效点;
其中,第一前后避障区域补偿值为前后第一避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和,第一左右避障区域补偿值为左右第一避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和;
第二前后避障区域补偿值为前后第二避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和,第二左右避障区域补偿值为左右第二避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和;
第三前后避障区域补偿值为前后第三避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和,第三左右避障区域补偿值为左右第三避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和。
作为可选的一种实现方式,一级避障为在避障方向按照原始的相应的避障区域进行避障,二级避障为在避障方向上按照原始避障区域的一半进行避障。
作为可选的一种实现方式,获取基于多线激光雷达得到的避障区域非地面点云,包括:
获取机器人在作业过程中的原始点云数据;
雷达与运动里程计时间戳对齐;
判断当前帧点云数量是否大于预设阈值,如果否,则进行下帧点云数据处理,否则对点云数据进行体素滤波、统计滤波及去除NaN点处理;
通过点云三维坐标阈值确定避障范围内的点云数据,并将点云按照雷达分辨率进行径向分区,并对每一区域内的点云按照水平距离进行升序排列,获得有序点云数据;
通过基于坡度阈值的地面分割方式将地面点云和非地面点云进行分割,得到避障区域非地面点云数据。
作为可选的一种实现方式,根据栅格地图、机器人当前位姿及运动速度,确定机器人的周围环境状态,包括:
判断当前机器人的状态,如果处在建图状态,则不进行避障,如果处在导航或空闲状态,则进行后续避障;
获取当前所在的栅格地图、机器人在地图中的位姿以及机器人的运动速度,判断速度是否大于相应阈值,如果大于,则进行速度补偿,否则,不进行速度补偿;
对非地面点云进行网格划分,通过遍历机器人周围栅格地图占用情况,确定周围环境状态。
作为可选的一种实现方式,设定机器人周围环境网格,每一网格代表遍历步长,每一网格对应多个地图栅格,遍历方向为前后左右四个方向;
机器人按照网格步长逐步遍历,在每一步长上再通过向左和向右按照栅格地图进行遍历,如果每一栅格在地图中是被占用的,则相应方向的计数器加1,遍历所有范围,计算每个方向的计数是否大于预设数量阈值,如果大于,则判断该方向上存在障碍物;否则,不存在障碍物。
作为可选的一种实现方式,设定机器人避障区域,包括:
获取机器人尺寸及雷达安装位置参数,确定机器人外部点云相对于机器人的位置;
利用机器人左右距离阈值设置左右避障有效区域;
利用机器人前后三级距离阈值设定三级避障区域。
本发明第二方面提供了一种基于多线激光雷达的室内自适应全景避障系统。
一种基于多线激光雷达的室内自适应全景避障系统,包括:
数据获取模块,被配置为:获取基于多线激光雷达得到的避障区域非地面点云;
环境状态确定模块,被配置为:根据栅格地图、机器人当前位姿及运动速度,确定机器人的周围环境状态;
避障策略确定模块,被配置为:如果为前后自适应避障策略,判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为前后二级避障和左右一级避障,否则,为全景一级避障;如果为正常避障策略,则避障策略为全景一级避障;如果选择全景自适应避障策略,则判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为全景二级避障,否则为全景一级避障;
避障区域分割模块,被配置为:设定机器人避障区域,根据激光雷达相对于机器人各边缘的距离阈值、避障等级及速度补偿因子确定各非地面点云所属的避障区域;
避障指令生成模块,被配置为:比较第一避障区域的点云数量总数是否大于第一设定阈值,如果大于,则避障指令为紧急制动;如果小于,比较第二避障区域的点云数量总数是否大于第二设定阈值,如果大于,则机器人避障指令为减速;如果小于,比较第三避障区域的点云数量总数是否大于第三设定阈值,如果大于,则机器人避障指令为避障警告,否则,避障指令为正常运行。
本发明第三方面提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本发明第一方面所述的基于多线激光雷达的室内自适应全景避障方法中的步骤。
本发明第四方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本发明第一方面所述的基于多线激光雷达的室内自适应全景避障方法中的步骤。
与现有技术相比,本发明的有益效果是:
1、本发明所述的基于多线激光雷达的室内自适应全景避障方法及系统,通过对多线激光雷达原始点云数据进行降采样、噪点滤除及确定周围避障环境区域降低点云数量,提高点云后续处理效率。
2、本发明所述的基于多线激光雷达的室内自适应全景避障方法及系统,通过基于坡度的地面分割方法,提取非地面点云,保障了避障过程中障碍物点云的孤立存在。
3、本发明所述的基于多线激光雷达的室内自适应全景避障方法及系统,利用已经创建好的栅格地图、机器人当前位姿及行进速度对非地面点云进行网格划分,对周围环境状态进行了准确确定。
4、本发明所述的基于多线激光雷达的室内自适应全景避障方法及系统,通过选择机器人的避障策略,并利用周围环境状态确定该避障策略的避障等级,满足了机器人的自适应避障。
5、本发明所述的基于多线激光雷达的室内自适应全景避障方法及系统,机器人周围环境设定三级避障区域,通过水平面距离、避障等级及速度补偿等因子联合划分当前帧点云归属范围,根据每个区域点云数量,判断机器人运动的避障结果指令,实现了机器人的自适应精准避障。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例1提供的基于多线激光雷达的室内自适应全景避障方法的流程示意图。
图2为本发明实施例1提供的点云预处理及非地面点云提取流程图。
图3为本发明实施例1提供的避障环境网格划分示意图。
图4为本发明实施例1提供的周围环境状态确定流程示意图。
图5为本发明实施例1提供的避障区域分割流程示意图。
图6为本发明实施例1提供的点云区域分割流程示意图。
图7为本发明实施例1提供的获取自适应避障结果流程示意图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例1:
如图1所示,本发明实施例1提供了一种基于多线激光雷达的室内自适应全景避障方法,包括以下过程:
S1:利用多线激光雷达装置获取原始激光点云数据,对齐定位时间戳,对点云进行预处理及地面分割,提取避障区域非得地面点云;
S2:获取栅格地图、机器人当前位姿及运动速度,并对机器人当前位姿周围环境进行网格划分,确定周围环境状态;
S3:选择避障策略及避障等级,设置相适应的避障区域,利用避障区域点云数量确定机器人的避障结果。
S1中,包括:
S1.1:对多线激光雷达进行解析获取移动机器人在作业过程中原始点云数据;
S1.2:为了实现实时避障,必须将雷达与运动里程计时间戳对齐,保证两者时间同步;
S1.3:通过判断当前帧点云数量是否大于相应阈值,如果否,则进行下帧点云数据处理,否则对点云数据进行体素滤波、统计滤波及去除NaN点处理,降低点云数量,提高数据处理效率;
S1.4:通过点云三维坐标阈值确定避障范围内的点云数据,并将点云按照雷达分辨率进行径向分区,并对每一区域内的点云按照水平距离进行升序排列,获得有序点云数据;
S1.5:通过基于坡度阈值的地面分割方法将地面点云和非地面点云进行分割,获取非地面点云数据,供后续流程处理,相应流程如图2所示。
S2中,包括:
移动机器人的自主避障系统是建立在2DSLAM技术基础上,首先,判断当前机器人的状态,如果处在建图状态,则不进行避障,如果处在导航或空闲状态,则进行后续避障;接着,获取当前所在的栅格地图、机器人在地图中的位姿以及其运动速度,判断速度是否大于相应阈值,如果大于,则进行速度补偿(就是机器人速度过大时,制动范围就会变大,检测到障碍物时,就要提前判断,扩大避障范围,然后减速),否则,不进行速度补偿;然后,对非地面点云进行网格划分,如图3所示,通过遍历机器人周围栅格地图占用情况,确定周围环境状态,相应流程如图4所示,其中,speed为当前机器人速度,cur_thrd为速度阈值。
其中,左图为机器人周围环境网格,每一网格代表遍历步长;右图为每一网格对应的地图栅格(数目自定义),遍历方向总共四个,例如,对于机器人前方(即图中上方),首先,按照左图网格步长逐步遍历;接着,在每一步长上再通过向左、向右按照右图栅格地图步长进行遍历,如果每一栅格在地图中是被占用的,则相应方向的计数器加1,按照此逻辑遍历所有范围;然后,计算每个区域内的计数是否大于相应的阈值数量,确定周围环境标志位,如果大于,则该方向环境状态记为1,否则记为0(其中1代表该方向有障碍物,0代表该方向无障碍物)。
S3中,包括:
S3.1:获取周围环境状态对避障策略进行选择,如果选择前后自适应避障策略,则判断周围环境状态标志位之和是否大于预设阈值(一般设为2),如果大于,则避障策略为前后二级避障,左右一级避障,否则,为全景一级避障;如果选择正常避障策略,即全景一级避障;如果选择全景自适应避障策略,则判断周围环境状态标志位之和是否大于预设阈值(一般设为2),如果大于,则避障策略为全景二级避障,否则为全景一级避障;接着,对机器人周围避障环境设置避障区域,如图5所示,其中,dis1为最近前后区域距离阈值,dis2为第二前后区域距离阈值,dis3为第三前后区域距离阈值。
前后两级避障:指的是前后两个方向进行二级避障;二级避障就是检测到机器人周围四个方向有超过两个方向检测到障碍物时,就会启动二级避障策略,就是在二级避障方向上相应的避障区域缩小一半;
前后一级避障:指的是前后两个方向进行一级避障;一级避障:就是检测到机器人周围四个方向有少于两个方向检测到障碍物时,就会启动一级避障策略,就是在避障方向按照原始的相应的避障区域进行避障;
全景一级避障:指的是前后左右四个方向进行一级避障;
全景二级避障:指的是前后左右四个方向进行二级避障。
假定机器人前方与激光雷达的X轴同向,首先,获取机器人尺寸及雷达安装位置参数,确定机器人外部点云相对于机器人的位置;然后,利用机器人左右距离阈值设置左右避障有效区域(因为机器人避障主要是前后方向,所以左右只设置一个避障区域);最后,利用机器人前后三级距离阈值设定三级避障区域,完成避障区域的分割。
S2:通过距离阈值、避障等级及速度补偿因子联合确定点云所属区域,如图6所示,Rob_dx为激光雷达相对于机器人前后边缘的距离阈值;Rob_dy为激光雷达相对于机器人左右边缘的距离阈值;γi(其中i为1,2,3)为前后每一区域的距离阈值与避障等级之间的比值和速度补偿因子之间的和,避障等级越高,该避障区域就会缩小;βi(此处i只设为1,根据需求自设)为左右避障区域与避障等级之间的比值和速度补偿因子之间的和;X、Y为点云坐标值。
如果当点云X轴坐标值Rob_dx大于激光雷达相对于机器人前后边缘的距离阈值与第一前后避障区域补偿值γ1的加和,且点云Y轴坐标值Rob_dy大于激光雷达相对于机器人左右边缘的距离阈值与第一左右避障区域补偿值β1的加和时,则点云属于第一避障区域;否则,执行下一步;
如果点云X轴坐标值Rob_dx大于激光雷达相对于机器人前后边缘的距离阈值与第二前后避障区域补偿值γ2的加和,且点云Y轴坐标值Rob_dy大于激光雷达相对于机器人左右边缘的距离阈值与第二左右避障区域补偿值β2的加和时,点云属于第二避障区域;否则,执行下一步;
如果点云X轴坐标值Rob_dx大于激光雷达相对于机器人前后边缘的距离阈值与第三前后避障区域补偿值γ3的加和,且点云Y轴坐标值Rob_dy大于激光雷达相对于机器人左右边缘的距离阈值与第三左右避障区域补偿值β3的加和时,点云属于第二避障区域;否则,为无效点;
其中,第一前后避障区域补偿值为前后第一避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和,第一左右避障区域补偿值为左右第一避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和;
第二前后避障区域补偿值为前后第二避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和,第二左右避障区域补偿值为左右第二避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和;
第三前后避障区域补偿值为前后第三避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和,第三左右避障区域补偿值为左右第三避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和。
S3:先通过比较最近区域的点云数量总数是否大于设定阈值(num_th1),如果大于,则机器人避障指令为紧急制动;如果小于,比较第二区域的点云数量总数是否大于设定阈值(num_th2),如果大于,则机器人避障指令为减速;如果小于,比较第三区域的点云数量总数是否大于设定阈值(num_th3),如果大于,则机器人避障指令为避障警告,否则,机器人避障指令为正常运行;机器人通过避障指令传送到驱动装置,实现机器人的精准避障。
具体流程如图7所示,包括以下过程:获取避障环境非地面点云数据,遍历所有点云数据,因为机器人前方设为X轴正方向,所以根据点云X坐标是否在相应有效避障区域范围内,如果在,则将该区域对应的点云数量标志位加1,否则,继续判断是否属于下一有效避障区域,如果是,相应数量标志位加1,直至三个有效避障区域及点云遍历完,获取三个所有有效避障区域内的有效点云数量。
其中,times为前后左右机器人周围环境状态(即周围是否存在障碍物,如果是,则相应方向标志位为1,否则为0)之和;t_thed为相应阈值(该处设为2);num1、num2、num3分别为第一、第二、第三有效避障区域内的点云数量;num_th1、num_th2、num_th3分别为相应有效避障区域的点云数量阈值。
实施例2:
本发明实施例2提供了一种基于多线激光雷达的室内自适应全景避障系统,包括:
数据获取模块,被配置为:获取基于多线激光雷达得到的避障区域非地面点云;
环境状态确定模块,被配置为:根据栅格地图、机器人当前位姿及运动速度,确定机器人的周围环境状态;
避障策略确定模块,被配置为:如果为前后自适应避障策略,判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为前后二级避障和左右一级避障,否则,为全景一级避障;如果为正常避障策略,则避障策略为全景一级避障;如果选择全景自适应避障策略,则判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为全景二级避障,否则为全景一级避障;
避障区域分割模块,被配置为:设定机器人避障区域,根据激光雷达相对于机器人各边缘的距离阈值、避障等级及速度补偿因子确定各非地面点云所属的避障区域;
避障指令生成模块,被配置为:比较第一避障区域的点云数量总数是否大于第一设定阈值,如果大于,则避障指令为紧急制动;如果小于,比较第二避障区域的点云数量总数是否大于第二设定阈值,如果大于,则机器人避障指令为减速;如果小于,比较第三避障区域的点云数量总数是否大于第三设定阈值,如果大于,则机器人避障指令为避障警告,否则,避障指令为正常运行。
所述系统的工作方法与实施例1提供的基于多线激光雷达的室内自适应全景避障方法相同,这里不再赘述。
实施例3:
本发明实施例3提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本发明实施例1所述的基于多线激光雷达的室内自适应全景避障方法中的步骤。
实施例4:
本发明实施例4提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本发明实施例1所述的基于多线激光雷达的室内自适应全景避障方法中的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于多线激光雷达的室内自适应全景避障方法,其特征在于:
获取基于多线激光雷达得到的避障区域非地面点云;
根据栅格地图、机器人当前位姿及运动速度,确定机器人的周围环境状态;
如果为前后自适应避障策略,判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为前后二级避障和左右一级避障,否则,为全景一级避障;如果为正常避障策略,则避障策略为全景一级避障;如果选择全景自适应避障策略,则判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为全景二级避障,否则为全景一级避障;
设定机器人避障区域,根据激光雷达相对于机器人各边缘的距离阈值、避障等级及速度补偿因子确定各非地面点云所属的避障区域;
比较第一避障区域的点云数量总数是否大于第一设定阈值,如果大于,则避障指令为紧急制动;如果小于,比较第二避障区域的点云数量总数是否大于第二设定阈值,如果大于,则机器人避障指令为减速;如果小于,比较第三避障区域的点云数量总数是否大于第三设定阈值,如果大于,则机器人避障指令为避障警告,否则,避障指令为正常运行。
2.如权利要求1所述的基于多线激光雷达的室内自适应全景避障方法,其特征在于:
根据激光雷达相对于机器人各边缘的距离阈值、避障等级及速度补偿因子确定各非地面点云所属的避障区域,包括:
如果当点云X轴坐标值大于激光雷达相对于机器人前后边缘的距离阈值与第一前后避障区域补偿值的加和,且点云Y轴坐标值大于激光雷达相对于机器人左右边缘的距离阈值与第一左右避障区域补偿值的加和时,则点云属于第一避障区域;否则,执行下一步;
如果点云X轴坐标值大于激光雷达相对于机器人前后边缘的距离阈值与第二前后避障区域补偿值的加和,且点云Y轴坐标值大于激光雷达相对于机器人左右边缘的距离阈值与第二左右避障区域补偿值的加和时,点云属于第二避障区域;否则,执行下一步;
如果点云X轴坐标值大于激光雷达相对于机器人前后边缘的距离阈值与第三前后避障区域补偿值的加和,且点云Y轴坐标值大于激光雷达相对于机器人左右边缘的距离阈值与第三左右避障区域补偿值的加和时,点云属于第二避障区域;否则,为无效点;
其中,第一前后避障区域补偿值为前后第一避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和,第一左右避障区域补偿值为左右第一避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和;
第二前后避障区域补偿值为前后第二避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和,第二左右避障区域补偿值为左右第二避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和;
第三前后避障区域补偿值为前后第三避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和,第三左右避障区域补偿值为左右第三避障区域的距离阈值与避障等级之间的比值再与速度补偿因子加和。
3.如权利要求1所述的基于多线激光雷达的室内自适应全景避障方法,其特征在于:
一级避障为在避障方向按照原始的相应的避障区域进行避障,二级避障为在避障方向上按照原始避障区域的一半进行避障。
4.如权利要求1所述的基于多线激光雷达的室内自适应全景避障方法,其特征在于:
获取基于多线激光雷达得到的避障区域非地面点云,包括:
获取机器人在作业过程中的原始点云数据;
雷达与运动里程计时间戳对齐;
判断当前帧点云数量是否大于预设阈值,如果否,则进行下帧点云数据处理,否则对点云数据进行体素滤波、统计滤波及去除NaN点处理;
通过点云三维坐标阈值确定避障范围内的点云数据,并将点云按照雷达分辨率进行径向分区,并对每一区域内的点云按照水平距离进行升序排列,获得有序点云数据;
通过基于坡度阈值的地面分割方式将地面点云和非地面点云进行分割,得到避障区域非地面点云数据。
5.如权利要求1所述的基于多线激光雷达的室内自适应全景避障方法,其特征在于:
根据栅格地图、机器人当前位姿及运动速度,确定机器人的周围环境状态,包括:
判断当前机器人的状态,如果处在建图状态,则不进行避障,如果处在导航或空闲状态,则进行后续避障;
获取当前所在的栅格地图、机器人在地图中的位姿以及机器人的运动速度,判断速度是否大于相应阈值,如果大于,则进行速度补偿,否则,不进行速度补偿;
对非地面点云进行网格划分,通过遍历机器人周围栅格地图占用情况,确定周围环境状态。
6.如权利要求1所述的基于多线激光雷达的室内自适应全景避障方法,其特征在于:
设定机器人周围环境网格,每一网格代表遍历步长,每一网格对应多个地图栅格,遍历方向为前后左右四个方向;
机器人按照网格步长逐步遍历,在每一步长上再通过向左和向右按照栅格地图进行遍历,如果每一栅格在地图中是被占用的,则相应方向的计数器加1,遍历所有范围,计算每个方向的计数是否大于预设数量阈值,如果大于,则判断该方向上存在障碍物;否则,不存在障碍物。
7.如权利要求1所述的基于多线激光雷达的室内自适应全景避障方法,其特征在于:
设定机器人避障区域,包括:
获取机器人尺寸及雷达安装位置参数,确定机器人外部点云相对于机器人的位置;
利用机器人左右距离阈值设置左右避障有效区域;
利用机器人前后三级距离阈值设定三级避障区域。
8.一种基于多线激光雷达的室内自适应全景避障系统,其特征在于:
数据获取模块,被配置为:获取基于多线激光雷达得到的避障区域非地面点云;
环境状态确定模块,被配置为:根据栅格地图、机器人当前位姿及运动速度,确定机器人的周围环境状态;
避障策略确定模块,被配置为:如果为前后自适应避障策略,判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为前后二级避障和左右一级避障,否则,为全景一级避障;如果为正常避障策略,则避障策略为全景一级避障;如果选择全景自适应避障策略,则判断周围环境状态标志位之和是否大于预设阈值,如果大于,则避障策略为全景二级避障,否则为全景一级避障;
避障区域分割模块,被配置为:设定机器人避障区域,根据激光雷达相对于机器人各边缘的距离阈值、避障等级及速度补偿因子确定各非地面点云所属的避障区域;
避障指令生成模块,被配置为:比较第一避障区域的点云数量总数是否大于第一设定阈值,如果大于,则避障指令为紧急制动;如果小于,比较第二避障区域的点云数量总数是否大于第二设定阈值,如果大于,则机器人避障指令为减速;如果小于,比较第三避障区域的点云数量总数是否大于第三设定阈值,如果大于,则机器人避障指令为避障警告,否则,避障指令为正常运行。
9.一种计算机可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时实现如权利要求1-7任一项所述的基于多线激光雷达的室内自适应全景避障方法中的步骤。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7任一项所述的基于多线激光雷达的室内自适应全景避障方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210410520.4A CN114815821B (zh) | 2022-04-19 | 2022-04-19 | 基于多线激光雷达的室内自适应全景避障方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210410520.4A CN114815821B (zh) | 2022-04-19 | 2022-04-19 | 基于多线激光雷达的室内自适应全景避障方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114815821A true CN114815821A (zh) | 2022-07-29 |
CN114815821B CN114815821B (zh) | 2022-12-09 |
Family
ID=82506440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210410520.4A Active CN114815821B (zh) | 2022-04-19 | 2022-04-19 | 基于多线激光雷达的室内自适应全景避障方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114815821B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116859953A (zh) * | 2023-08-14 | 2023-10-10 | 北京小米机器人技术有限公司 | 机器人的控制方法、装置、介质及机器人 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204705A (zh) * | 2016-07-05 | 2016-12-07 | 长安大学 | 一种基于多线激光雷达的3d点云分割方法 |
CN106650640A (zh) * | 2016-12-05 | 2017-05-10 | 浙江大学 | 一种基于激光雷达点云局部结构特征的负障碍物检测方法 |
CN110244321A (zh) * | 2019-04-22 | 2019-09-17 | 武汉理工大学 | 一种基于三维激光雷达的道路可通行区域检测方法 |
CN111754550A (zh) * | 2020-06-12 | 2020-10-09 | 中国农业大学 | 一种农机运动状态下动态障碍物检测方法及装置 |
CN112346080A (zh) * | 2020-11-02 | 2021-02-09 | 成都云科新能汽车技术有限公司 | 一种基于单线激光雷达的自适应避障方法 |
CN112859873A (zh) * | 2021-01-25 | 2021-05-28 | 山东亚历山大智能科技有限公司 | 一种基于语义激光的移动机器人多级避障系统及方法 |
WO2021212986A1 (zh) * | 2020-04-22 | 2021-10-28 | 追觅创新科技(苏州)有限公司 | 障碍物识别方法、装置、自移动设备及存储介质 |
CN113569915A (zh) * | 2021-06-30 | 2021-10-29 | 广西大学 | 一种基于激光雷达的多策略轨道交通障碍物识别方法 |
CN113640826A (zh) * | 2021-08-11 | 2021-11-12 | 山东大学 | 一种基于3d激光点云的障碍物识别方法及系统 |
CN113935428A (zh) * | 2021-10-25 | 2022-01-14 | 山东大学 | 基于图像识别的三维点云聚类识别方法及系统 |
WO2022022694A1 (zh) * | 2020-07-31 | 2022-02-03 | 北京智行者科技有限公司 | 自动驾驶环境感知方法及系统 |
CN114092551A (zh) * | 2021-10-10 | 2022-02-25 | 复旦大学 | 一种基于全景视觉与激光雷达融合slam系统的智能车 |
CN114325760A (zh) * | 2021-12-31 | 2022-04-12 | 山东大学 | 基于多线激光雷达的公路隧道质检避障方法及系统 |
-
2022
- 2022-04-19 CN CN202210410520.4A patent/CN114815821B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204705A (zh) * | 2016-07-05 | 2016-12-07 | 长安大学 | 一种基于多线激光雷达的3d点云分割方法 |
CN106650640A (zh) * | 2016-12-05 | 2017-05-10 | 浙江大学 | 一种基于激光雷达点云局部结构特征的负障碍物检测方法 |
CN110244321A (zh) * | 2019-04-22 | 2019-09-17 | 武汉理工大学 | 一种基于三维激光雷达的道路可通行区域检测方法 |
WO2021212986A1 (zh) * | 2020-04-22 | 2021-10-28 | 追觅创新科技(苏州)有限公司 | 障碍物识别方法、装置、自移动设备及存储介质 |
CN111754550A (zh) * | 2020-06-12 | 2020-10-09 | 中国农业大学 | 一种农机运动状态下动态障碍物检测方法及装置 |
WO2022022694A1 (zh) * | 2020-07-31 | 2022-02-03 | 北京智行者科技有限公司 | 自动驾驶环境感知方法及系统 |
CN112346080A (zh) * | 2020-11-02 | 2021-02-09 | 成都云科新能汽车技术有限公司 | 一种基于单线激光雷达的自适应避障方法 |
CN112859873A (zh) * | 2021-01-25 | 2021-05-28 | 山东亚历山大智能科技有限公司 | 一种基于语义激光的移动机器人多级避障系统及方法 |
CN113569915A (zh) * | 2021-06-30 | 2021-10-29 | 广西大学 | 一种基于激光雷达的多策略轨道交通障碍物识别方法 |
CN113640826A (zh) * | 2021-08-11 | 2021-11-12 | 山东大学 | 一种基于3d激光点云的障碍物识别方法及系统 |
CN114092551A (zh) * | 2021-10-10 | 2022-02-25 | 复旦大学 | 一种基于全景视觉与激光雷达融合slam系统的智能车 |
CN113935428A (zh) * | 2021-10-25 | 2022-01-14 | 山东大学 | 基于图像识别的三维点云聚类识别方法及系统 |
CN114325760A (zh) * | 2021-12-31 | 2022-04-12 | 山东大学 | 基于多线激光雷达的公路隧道质检避障方法及系统 |
Non-Patent Citations (1)
Title |
---|
孔德明等: "基于车载16线激光雷达的障碍物检测方法", 《计量学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116859953A (zh) * | 2023-08-14 | 2023-10-10 | 北京小米机器人技术有限公司 | 机器人的控制方法、装置、介质及机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN114815821B (zh) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021134441A1 (zh) | 基于自动驾驶的车辆速度控制方法、装置和计算机设备 | |
CN111830979B (zh) | 一种轨迹优化方法和装置 | |
CN111693050B (zh) | 基于建筑信息模型的室内中大型机器人导航方法 | |
CN106647776B (zh) | 车辆变道趋势的判断方法、判断装置和计算机存储介质 | |
KR20190119237A (ko) | 로봇 주행용 위상 지도 생성 장치 및 방법 | |
CN110019609A (zh) | 地图更新方法、装置以及计算机可读存储介质 | |
CN111469127B (zh) | 代价地图更新方法、装置、机器人及存储介质 | |
CN114815821B (zh) | 基于多线激光雷达的室内自适应全景避障方法及系统 | |
CN109739230A (zh) | 驾驶轨迹生成方法、装置及存储介质 | |
CN109001757A (zh) | 一种基于2d激光雷达的车位智能检测方法 | |
CN113252027B (zh) | 井下无人驾驶车辆局部路径规划方法、装置、设备及存储介质 | |
CN110320531A (zh) | 基于激光雷达的障碍物识别方法、地图创建方法及装置 | |
CN105205805A (zh) | 基于视觉的智能车辆横向控制方法 | |
CN113822285A (zh) | 一种用于复杂应用场景的车辆违停识别方法 | |
CN112171675B (zh) | 一种移动机器人的避障方法、装置、机器人及存储介质 | |
WO2023092870A1 (zh) | 一种适用于自动驾驶车辆的挡土墙检测方法及系统 | |
CN110956161A (zh) | 一种自主建图方法、装置及智能机器人 | |
CN114842450A (zh) | 一种可行驶区域检测方法、装置及设备 | |
CN104168444A (zh) | 一种跟踪球机的目标跟踪方法及跟踪球机 | |
AU2021266206B1 (en) | Obstacle recognition method and system based on 3D laser point clouds | |
CN115147790A (zh) | 一种基于图神经网络的车辆未来轨迹预测方法 | |
CN115903805A (zh) | 面向交通场景人行横道区域的轮式机器人监测方法及系统 | |
CN111340834A (zh) | 基于激光雷达和双目相机数据融合的衬板装配系统及方法 | |
Yang et al. | Vision-based intelligent vehicle road recognition and obstacle detection method | |
CN114325760A (zh) | 基于多线激光雷达的公路隧道质检避障方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: Indoor adaptive panoramic obstacle avoidance method and system based on multi line LiDAR Granted publication date: 20221209 Pledgee: Dongying Bank Co.,Ltd. Jinan Branch Pledgor: SHANDONG ALESMART INTELLIGENT TECHNOLOGY CO.,LTD. Registration number: Y2024980009865 |