CN114488185A - 基于多线激光雷达的机器人导航系统方法及系统 - Google Patents
基于多线激光雷达的机器人导航系统方法及系统 Download PDFInfo
- Publication number
- CN114488185A CN114488185A CN202210196854.6A CN202210196854A CN114488185A CN 114488185 A CN114488185 A CN 114488185A CN 202210196854 A CN202210196854 A CN 202210196854A CN 114488185 A CN114488185 A CN 114488185A
- Authority
- CN
- China
- Prior art keywords
- robot
- data
- point cloud
- obstacle avoidance
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000011218 segmentation Effects 0.000 claims abstract description 12
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 9
- 230000008447 perception Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于多线激光雷达的机器人导航系统方法及系统,包括:获取机器人周围设定区域内的点云数据,并将点云数据由笛卡尔坐标系转换为极坐标的形式;分别计算每个点云数据的高维特征和可见度特征,得到融合提取出的总特征;使用U‑Net作为基本的框架对所述总特征进行分割任务,得到当前机器人周围设定区域内的可行区域;基于机器人正前方的安全系数确定是否进入避障状态;并在避障状态下,确定偏移的航路点,确定机器人速度和转角;在非避障状态下,计算前方障碍物与机器人之间的相对速度,动态调节机器人自身的速度。本发明能够使得机器人能够在真实世界中顺利、安全地自主导航,大大提高了机器人的路径规划与避障能力。
Description
技术领域
本发明涉及机器人导航技术领域,尤其涉及一种基于多线激光雷达的机器人导航系统方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
随着科学技术的不断发展,机器人导航应用在了各行各业中,如工业、国防、服务业等。在非结构化场景下,机器人的自动导航仍然面临着巨大的挑战,机器人自动导航系统要求机器人能够根据周围环境进行感知,并按照路线到达最终的目标点,并且在行驶过程中能够应对各种静态、动态障碍物。
在自动驾驶领域中,用于感知的主流的传感器包括rgb相机和激光雷达等,其中rgb相机的主要特点使成本低,信息丰富,但其容易受到各种光照等外部条件的限制,而激光雷达对光照等外部条件不敏感,并且具有深度信息。相比于单线的激光雷达,多线激光雷达能够得到多个不同高度的平面的点云数据,获得更为精确的环境信息。
现有的基于激光雷达的导航方法主要可以分为端到端的行为映射方法和中间感知方法,端到端的行为映射方法主要是通过深度学习的方式去拟合人类专家的驾驶数据,这种方法可以在经过大量的数据训练后获得不错的效果,但是由于神经网络的参数众多,解释性比较差,是一个“黑匣子”模型。而中间感知方法主要是依赖于预先生成的高精地图,将点云数据处理为一系列的中间表示,如分割、目标检测、聚类等,再将这些中间感知的结果与高精地图相结合,得到最后的决策动作。这种方法由于主要依赖高精地图,因此通常仅适用于结构化场景,如高速公路或有各种道路标记的城市道路场景。此外,高精地图的制作难度大、费时费力且需要人工标注和定期维护,这些也都是基于中间感知方法存在的问题。
由于激光雷达信息具有不规则、无序、数据量大的特点,在处理点云数据时主要的方法可以分为基于原始点云的深度学习方法和基于特定表示的深度学习方法,在基于原始点云的深度学习方法中,是直接用神经网络对每个点进行建模提取特征,计算代价比较高;而基于特定表示的深度学习方法是将点云数据转换为一些特定的有序结构,如体素、网格等,但这些表示形式需要用到3D卷积网络,会带来计算费时的问题,最先进的3D网络在推理时也要比2D图像需要多14倍的时间。因此,后续的一些方法提出使用柱状网络来代替体素等方法,将点云特征以伪图像的形式表示,从而使用2D卷积来代替3D卷积。但是这些方法仍然是在笛卡尔坐标系下对点云数据的鸟瞰图进行处理,这会导致靠近雷达的点密集,而远处点稀疏,分布不均匀。此外,现有的大多数处理点云数据方法忽略了可见度这一信息,即只是考虑到点云的位置(x,y,z),但是忽略了从传感器到该点之间的通路信息。
发明内容
为了解决上述问题,本发明提出了一种基于多线激光雷达的机器人导航系统方法及系统,采用深度学习的方法,将基于极坐标形式下的点云数据转换为高维的特征,然后设计了逻辑控制策略,能够提高机器人的导航与避障能力。
在一些实施方式中,采用如下技术方案:
一种基于多线激光雷达的机器人导航系统方法,包括:
获取机器人周围设定区域内的点云数据,并将所述点云数据由笛卡尔坐标系转换为极坐标的形式;
分别计算每个点云数据的高维特征和可见度特征,将所述可见度特征与高维特征数据相叠加,得到融合提取出的总特征;
使用U-Net作为基本的框架对所述总特征进行分割任务,得到当前机器人周围设定区域内的可行区域,并进行归一化处理;
基于归一化后的可行区域,分别获取机器人正前方数据和左右两侧的数据,基于机器人正前方的安全系数确定是否进入避障状态;并在避障状态下,确定偏移的航路点,确定机器人速度和转角;在非避障状态下,计算前方障碍物与机器人之间的相对速度,动态调节机器人自身的速度。
定义机器人正前方数据为机器人视野的正中间设定度数a内的数据;
机器人左、右两侧数据分别为机器人视野的左侧和右侧设定度数b内的数据;其中,设定度数b为从机器人左侧水平方向开始向左前方延伸度数b;或者,从机器人右侧水平方向开始向右前方延伸度数b。
当机器人正前方的安全系数小于设定的阈值时,机器人进入避障状态;所述机器人正前方的安全系数根据机器人正前方设定区域内的数据、形状参数和位置参数确定。
在避障状态,根据左右两侧的可行区域情况,计算出偏移量,进而得到相对应偏移的航路点,将相对应偏移的航路点作为当前的目标点,得到机器人的速度和转角;
根据可行区域的侧边安全系数判断是否可以回到原来的航路点;所述侧边安全系数根据从左到右设定区域的数据、形状参数和位置参数确定。
在非避障状态下,基于第n+k帧视野正中间设定区域的数据与第n帧视野正中间设定区域的数据之间的数据变化量,计算前方动态障碍物与机器人之间的相对速度,进而调整机器人的速度;其中,k>10。
在另一些实施方式中,采用如下技术方案:
一种基于多线激光雷达的机器人导航系统,包括:
数据获取模块,用于获取机器人周围设定区域内的点云数据,并将所述点云数据由笛卡尔坐标系转换为极坐标的形式;
感知模块,用于分别计算每个点云数据的高维特征和可见度特征,将所述可见度特征与高维特征数据相叠加,得到融合提取出的总特征;使用U-Net作为基本的框架对所述总特征进行分割任务,得到当前机器人周围设定区域内的可行区域,并进行归一化处理;
规划控制模块,用于基于归一化后的可行区域,分别获取机器人正前方数据和左右两侧的数据,基于机器人正前方的安全系数确定是否进入避障状态;并在避障状态下,确定偏移的航路点,确定机器人速度和转角;在非避障状态下,计算前方障碍物与机器人之间的相对速度,动态调节机器人自身的速度。
在另一些实施方式中,采用如下技术方案:
一种终端设备,其包括处理器和存储器,处理器用于实现各指令;存储器用于存储多条指令,所述指令适于由处理器加载并执行上述的基于多线激光雷达的机器人导航方法。
在另一些实施方式中,采用如下技术方案:
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行上述的基于多线激光雷达的机器人导航方法。
与现有技术相比,本发明的有益效果是:
(1)本发明能够在不需要高精地图的情况下,实现机器人的导航与避障功能。在感知模块中,构建了基于极坐标形式下原始点云数据和可见度信息的鸟瞰可行区域图;本发明考虑了可见度信息,相当于扩展了特征,增加了一条通路信息;提高了导航结果的准确性。在规划控制模块中,没有使用端到端的方法,而是使用了逻辑控制器,具有良好的泛化能力和鲁棒性。
(2)本发明将获取的机器人周围设定区域内的球状点云数据,经过特征提取与分割图构建,得到机器人的鸟瞰可行区域图,然后再生成纵向与横向指标,生成最优的控制策略,使得机器人能够在真实世界中顺利、安全地自主导航,大大提高了机器人的路径规划与避障能力。
本发明的其他特征和附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本方面的实践了解到。
附图说明
图1为本发明实施例中特征提取过程示意图;
图2为本发明实施例中区域分割过程示意图;
图3为本发明实施例中机器人正前方和侧方示意图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
在一个或多个实施方式中,公开了一种基于多线激光雷达的机器人导航方法,主要包括如下过程:
(1)获取机器人周围设定区域内的点云数据,并将点云数据由笛卡尔坐标系转换为极坐标的形式;
(2)分别计算每个点云数据的高维特征和可见度特征,将所述可见度特征与高维特征数据相叠加,得到融合提取出的总特征;
具体地,通过预处理操作,将每个点云数据由三个维度扩展成为 八个维度,其中,分别表示这个点到它所属的扇柱中心的相对半径、转角、高度;r表示半径、表示角度,z表示高度,x表示x轴的长度,y表示y轴的长度。
然后,再将处理好的点云数据送入到简化版的pointnet模块中,该模块用来提取点云数据的特征,通过神经网络来扩展成高维特征。同时,将极坐标系下的点云数据通过光线追踪方法,计算出可见度特征。
本实施例中,可见度特征的计算是通过光线追踪的方法,首先是在高度上对得到的圆柱特征进行划分,划分为8个层,然后对每个圆柱纵截面进行光线追踪,极坐标网格的原点为光线的起点,点本身为光线的终点,使用体素遍历的方法,将光线经过的体素标记为可见,而点所在的体素标记为被占领的,其他的体素设置为未知,最终能得到一个大小为8*128*384的可见度特征。
最后,将可见度特征与高维的点云特征相叠加,即得到融合提取出的总特征。
(3)使用U-Net作为基本的框架进行分割任务,得到当前机器人周围设定区域内的可行区域,并进行归一化处理;
本实施例中,结合图2,使用U-Net作为基本的框架对得到的总特征进行分割任务,与一般的分割任务不同的是,我们的分割任务主要是要得出当前机器人周围的可行区域,即鸟瞰可行区域图。这个鸟瞰可行区域图用于后续的机器人运行规划控制。
为了方便后续处理,将输出的可行区域归一化到[0,1]。
(4)基于归一化后的可行区域,分别获取机器人正前方数据和左右两侧的数据,基于机器人正前方的安全系数确定是否进入避障状态;并在避障状态下,确定偏移的航路点,确定机器人速度和转角;在非避障状态下,计算前方障碍物与机器人之间的相对速度,动态调节机器人自身的速度。
本实施例中,提出的逻辑指标可分为纵向逻辑指标与横向逻辑指标,首先是定义机器人的正前方C为其视野的正中间24°得到的数据,如图3所示,左侧60°视野的L和右侧60°视野的R分别表示两个侧方的数据。其中,结合图3,60°为从机器人左侧水平方向开始向左前方延伸60°;或者,从机器人右侧水平方向开始向右前方延伸60°。当然,具体的度数是本领域技术人员可以根据需要自行设定的。
(1)纵向指标包括:
正前方的安全系数security,这个安全系数代表了机器人正前方离障碍物的远近,其次是刚开始避障时;
距离正前方的障碍物的距离distance,这个距离代表刚开始要避障时离机器人最近的那个航路点W0需要往后偏移的量,最后得到新的航路点W1;
定义第10帧C1与第1帧C0之间的正前方的数据变化量change,当前方是动态障碍物时,这个change指标表征了前方车辆与机器人之间的相对位移,从而可以计算得到相对速度,当前方的动态障碍物距离机器人的安全系数未小于阈值时,机器人可以根据这个相对速度,调节自身的速度,实现跟车巡航的功能。
上述纵向指标的计算公式如下:
distance=min(C1)*10
W1=W0+distance
其中,γ是函数的位置参数,W1表示往后偏移的航路点,W0表示刚开始要避障时离机器人最近的那个航路点,α是函数的形状参数,β是函数的位置参数。
分别表示最新帧的中间24度的数据的平均值和初始帧中间24度数据的平均值。C1和C0之间需要至少相差10帧,以免相差帧数过少导致区别不大,C1表示当前视野正中间24度的最新数据,C0表示距离当前帧的至少10帧之前视野正中间24度的数据。
经过试验比较得出α=20,β=0.6。
(2)横向指标:
横向指标主要是用于在避障状态时,考虑左右两侧的环境状态,用以指导机器人的决策。
当遇到障碍物时,机器人需要先判断出下一个航路点应该是往左偏还是往右偏,然后再去确定航路点应该具体偏离多少米,即偏移量offset。
得到的偏移量offset会直接添加到原始规划好的航路点W0上,即得到避障航路点W2,如下式所示,再送入到PID控制器中,得到新的速度v和转角s。
W2=W0+offset
首先需要通过比较左右两侧的可行区域的平均大小,即与来确定应该往左还是往右偏移,可行区域的平均大小代表了该侧是否适合绕开障碍物;其次是通过滑动大小为30度的窗口,分别得到左侧L和右侧R窗口平均值最大,并且记录下最靠近正中间位置的窗口索引indexl与indexr,左右两侧都从正中间出发往两端滑动取索引值是为了得到在偏离最小的情况下安全地去避开障碍物,最终的偏移量offset的计算公式如下式所示。
除此之外,本实施例还考虑到一个问题,即当机器人开始往一侧进行横向避障时,此时机器人的正中间视野的安全系数会大幅提高,按照之前的逻辑,机器人会误认为已经完成避障任务,又会恢复到巡航任务中,会出现在巡航与避障任务之间的反复切换,更严重的是,可能会出现撞上障碍物的情况。
因此定义了侧边安全系数side_security,具体是首先计算出往后推移的航路点W1,然后计算出机器人当前的朝向与W1之间的夹角θ,根据这个夹角θ得到机器人与W1之间的连线所在圆形可行区域中的位置,并由此各向左和向右扩展30度,作为判断机器人到W1之间的通行区域。该通行区域的安全系数即为side_security,计算公式如下式所示,参数γ为0.4。通过这个侧边安全系数可以判断出机器人是否完成了避障,若安全系数低于阈值时,说明仍需要处于避障状态,否则可以切换到巡航状态中。
其中,α是函数的形状参数,γ是函数的位置参数,Fleft~right表示从left到right处的数据,首先需要计算出机器人当前的朝向与往后推移的航路点W1之间的夹角θ,然后由这个θ得到机器人与W1之间的连线所在环形可行区域中的位置,并由此各向左和向右扩展30度得到left与right,left与right之间的夹角为60度。
本实施例在规划控制过程中,主要考虑到三种场景来设计,一是无障碍物时,以原始规划好的航路点作为每一时刻的目标点,为巡航模式;二是在遇到静态障碍物或低速的障碍物时,需要重新规划航路点以绕开障碍物,为避障模式;三是遇到速度与自身差不多的动态障碍物时,应以相适应的速度去跟随前车,而不是冒险超车,为跟车模式。
在现实环境中,线速度v∈[0,1],单位为m/s,角速度s∈[-1,1],单位为rad/s。仿真环境中,速度v∈[0,3.6],单位为m/s,角速度与现实一致。
具体地,本实施例规划控制算法具体如下:
首先是判断是否需要避障,当正前方的安全系数低于阈值或前方的可行区域发生迅速缩小时,进入到避障状态。在避障状态时,我们没有直接先输出速度和转角,而是先根据左右两侧的可行区域情况,计算出偏移量offset,得到相对应偏移的航路点,然后将偏移之后的航路点作为当前的目标点,送入到PID控制器中,最终输出相对应的速度v和转角s,除此之外,避障状态的结束需要根据机器人自身和原始航路点之间的区域是否有障碍物来判断,即计算side_security来判断是否可以回到原来的航路点,
在非避障模式时,首先根据原始的航路点得到速度和转角,但考虑到在巡航状态时,应根据前车的速度来动态地调整自身的速度,使自身速度接近于前车的速度,实现一个跟车的功能,因此,需要对速度进行调整,即把变化量change加入到速度中:当变化量change>0时,说明前方障碍物的速度小于机器人的速度,需要适当地减速,当变化量change<0时,说明前方障碍物在远离,可以增加速度。其中用到的PID控制器,会根据机器人自身的位置和目标航路点的位置产生横向的角速度s,根据当前机器人的速度和目标速度产生纵向的线速度v。其中的P、I、D三个参数分别为1、0.01、0.01,时间增量dt为0.03,目标速度为3.6m/s。
本实施例整个算法中主要体现了对静态障碍物和动态障碍物的不同处理,对于静态障碍物,开始避障的指标就是正前方的安全概率小于阈值,对于动态障碍物来说,开始避障的指标主要是前后变化量,这反应了障碍物与机器人之间的相对速度,当障碍物的速度很小时可以直接绕过该障碍物;当障碍物的速度与机器人自身相接近时,应该选择跟车即可。
实施例二
在一个或多个实施方式中,公开了一种基于多线激光雷达的机器人导航系统,包括:
数据获取模块,用于获取机器人周围设定区域内的点云数据,并将所述点云数据由笛卡尔坐标系转换为极坐标的形式;
感知模块,用于分别计算每个点云数据的高维特征和可见度特征,将所述可见度特征与高维特征数据相叠加,得到融合提取出的总特征;使用U-Net作为基本的框架进行分割任务,得到当前机器人周围设定区域内的可行区域,并进行归一化处理;
规划控制模块,用于基于归一化后的可行区域,分别获取机器人正前方数据和左右两侧的数据,基于机器人正前方的安全系数确定是否进入避障状态;并在避障状态下,确定偏移的航路点,确定机器人速度和转角;在非避障状态下,计算前方障碍物与机器人之间的相对速度,动态调节机器人自身的速度。
需要说明的是,上述模块的具体实现方式已经在实施例一中进行了说明,不再详述。
实施例三
在一个或多个实施方式中,公开了一种终端设备,包括服务器,所述服务器包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现实施例一中的基于多线激光雷达的机器人导航方法。为了简洁,在此不再赘述。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种基于多线激光雷达的机器人导航系统方法,其特征在于,包括:
获取机器人周围设定区域内的点云数据,并将所述点云数据由笛卡尔坐标系转换为极坐标的形式;
分别计算每个点云数据的高维特征和可见度特征,将所述可见度特征与高维特征数据相叠加,得到融合提取出的总特征;
使用U-Net作为基本的框架对所述总特征进行分割任务,得到当前机器人周围设定区域内的可行区域,并进行归一化处理;
基于归一化后的可行区域,分别获取机器人正前方数据和左右两侧的数据,基于机器人正前方的安全系数确定是否进入避障状态;并在避障状态下,确定偏移的航路点,确定机器人速度和转角;在非避障状态下,计算前方障碍物与机器人之间的相对速度,动态调节机器人自身的速度。
2.如权利要求1所述的一种基于多线激光雷达的机器人导航系统方法,其特征在于,计算每个点云数据的高维特征,具体包括:
将极坐标系下的三个维度的点云数据扩展成八个维度,提取扩展维度后的点云数据,并通过神经网络扩展成高维特征。
3.如权利要求1所述的一种基于多线激光雷达的机器人导航系统方法,其特征在于,计算每个点云数据的可见度特征,具体包括:
将极坐标系下的点云数据通过光线追踪的方法,计算出可见度特征。
4.如权利要求1所述的一种基于多线激光雷达的机器人导航系统方法,其特征在于,分别获取机器人正前方数据和左右两侧的数据,具体包括:
定义机器人正前方数据为机器人视野的正中间设定度数a内的数据;
机器人左、右两侧数据分别为机器人视野的左侧和右侧设定度数b内的数据;其中,设定度数b为从机器人左侧水平方向开始向左前方延伸度数b;或者,从机器人右侧水平方向开始向右前方延伸度数b。
5.如权利要求1所述的一种基于多线激光雷达的机器人导航系统方法,其特征在于,基于机器人正前方的安全系数确定是否进入避障状态,具体包括:
当机器人正前方的安全系数小于设定的阈值时,机器人进入避障状态;所述机器人正前方的安全系数根据机器人正前方设定区域内的数据、形状参数和位置参数确定。
6.如权利要求1所述的一种基于多线激光雷达的机器人导航系统方法,其特征在于,在避障状态,根据左右两侧的可行区域情况,计算出偏移量,进而得到相对应偏移的航路点,将相对应偏移的航路点作为当前的目标点,得到机器人的速度和转角;
根据可行区域的侧边安全系数判断是否可以回到原来的航路点;所述侧边安全系数根据从左到右设定区域的数据、形状参数和位置参数确定。
7.如权利要求1所述的一种基于多线激光雷达的机器人导航系统方法,其特征在于,在非避障状态下,基于第n+k帧视野正中间设定区域的数据与第n帧视野正中间设定区域的数据之间的数据变化量,计算前方动态障碍物与机器人之间的相对速度,进而调整机器人的速度;其中,k>10。
8.一种基于多线激光雷达的机器人导航系统,其特征在于,包括:
数据获取模块,用于获取机器人周围设定区域内的点云数据,并将所述点云数据由笛卡尔坐标系转换为极坐标的形式;
感知模块,用于分别计算每个点云数据的高维特征和可见度特征,将所述可见度特征与高维特征数据相叠加,得到融合提取出的总特征;使用U-Net作为基本的框架对所述总特征进行分割任务,得到当前机器人周围设定区域内的可行区域,并进行归一化处理;
规划控制模块,用于基于归一化后的可行区域,分别获取机器人正前方数据和左右两侧的数据,基于机器人正前方的安全系数确定是否进入避障状态;并在避障状态下,确定偏移的航路点,确定机器人速度和转角;在非避障状态下,计算前方障碍物与机器人之间的相对速度,动态调节机器人自身的速度。
9.一种终端设备,其包括处理器和存储器,处理器用于实现各指令;存储器用于存储多条指令,其特征在于,所述指令适于由处理器加载并执行权利要求1-7任一项所述的基于多线激光雷达的机器人导航方法。
10.一种计算机可读存储介质,其中存储有多条指令,其特征在于,所述指令适于由终端设备的处理器加载并执行权利要求1-7任一项所述的基于多线激光雷达的机器人导航方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210196854.6A CN114488185B (zh) | 2022-03-01 | 2022-03-01 | 基于多线激光雷达的机器人导航系统方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210196854.6A CN114488185B (zh) | 2022-03-01 | 2022-03-01 | 基于多线激光雷达的机器人导航系统方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114488185A true CN114488185A (zh) | 2022-05-13 |
CN114488185B CN114488185B (zh) | 2024-08-16 |
Family
ID=81484036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210196854.6A Active CN114488185B (zh) | 2022-03-01 | 2022-03-01 | 基于多线激光雷达的机器人导航系统方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114488185B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471513A (zh) * | 2022-11-01 | 2022-12-13 | 小米汽车科技有限公司 | 点云分割方法及装置 |
CN116071571A (zh) * | 2023-03-03 | 2023-05-05 | 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院) | 一种鲁棒快速的车用单线激光雷达点云聚类方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN112859859A (zh) * | 2021-01-13 | 2021-05-28 | 中南大学 | 一种基于三维障碍物体素对象映射的动态栅格地图更新方法 |
CN112904370A (zh) * | 2019-11-15 | 2021-06-04 | 辉达公司 | 用于激光雷达感知的多视图深度神经网络 |
-
2022
- 2022-03-01 CN CN202210196854.6A patent/CN114488185B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN112904370A (zh) * | 2019-11-15 | 2021-06-04 | 辉达公司 | 用于激光雷达感知的多视图深度神经网络 |
CN112859859A (zh) * | 2021-01-13 | 2021-05-28 | 中南大学 | 一种基于三维障碍物体素对象映射的动态栅格地图更新方法 |
Non-Patent Citations (2)
Title |
---|
RONNEBERGER O ET AL.: "U-net:Convolutional networks for biomedical image segmentation", INTERNATIONAL CONFERENCE ON MEDICAL IMAGE COMPUTING AND COMPUTER- ASSISTED INTERVENTION, 31 December 2015 (2015-12-31) * |
张恒;徐万红;张禹;: "激光雷达与深度相机融合的SLAM技术研究", 机械工程师, no. 07, 10 July 2020 (2020-07-10) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471513A (zh) * | 2022-11-01 | 2022-12-13 | 小米汽车科技有限公司 | 点云分割方法及装置 |
CN116071571A (zh) * | 2023-03-03 | 2023-05-05 | 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院) | 一种鲁棒快速的车用单线激光雷达点云聚类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114488185B (zh) | 2024-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200049511A1 (en) | Sensor fusion | |
CN109002039B (zh) | 避障提醒方法、相关装置及计算机可读存储介质 | |
CN112212872B (zh) | 基于激光雷达和导航地图的端到端自动驾驶方法及系统 | |
CN111209790A (zh) | 使用相邻车辆的姿态观察进行路面表征 | |
KR20200101855A (ko) | 차량의 주행 궤적 예측 방법 및 장치 | |
CN114488185B (zh) | 基于多线激光雷达的机器人导航系统方法及系统 | |
WO2021034819A1 (en) | Polyline contour representations for autonomous vehicles | |
CN110726399A (zh) | 姿态估计 | |
CN109074490A (zh) | 通路检测方法、相关装置及计算机可读存储介质 | |
US11527028B2 (en) | Systems and methods for monocular based object detection | |
US20230053459A1 (en) | Vehicle-based data processing method and apparatus, computer, and storage medium | |
US20240310176A1 (en) | Method and apparatus for predicting travelable lane | |
CN110705385B (zh) | 一种障碍物角度的检测方法、装置、设备及介质 | |
CN116993817B (zh) | 目标车辆的位姿确定方法、装置、计算机设备及存储介质 | |
CN114372375A (zh) | 一种越野车安全行驶区域求解方法及系统 | |
CN115223039A (zh) | 一种面向复杂环境的机器人半自主控制方法及系统 | |
CN114815853B (zh) | 一种考虑路面障碍特征的路径规划方法和系统 | |
US20230056589A1 (en) | Systems and methods for generating multilevel occupancy and occlusion grids for controlling navigation of vehicles | |
CN112912894A (zh) | 道路边界识别方法和装置 | |
CN113793534B (zh) | 一种确定车路协同环境下行车风险场的方法和装置 | |
Chipka et al. | Estimation and navigation methods with limited information for autonomous urban driving | |
CN115454085A (zh) | 基于导航地图的自动驾驶控制方法及自动驾驶控制装置 | |
CN114661051A (zh) | 一种基于rgb-d的前置避障系统 | |
CN118149797B (zh) | 栅格地图构建方法、装置、计算机设备及存储介质 | |
EP3229173B1 (en) | Method and apparatus for determining a traversable path |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |