CN116610129A - 一种腿足机器人的局部路径规划方法及系统 - Google Patents
一种腿足机器人的局部路径规划方法及系统 Download PDFInfo
- Publication number
- CN116610129A CN116610129A CN202310867997.XA CN202310867997A CN116610129A CN 116610129 A CN116610129 A CN 116610129A CN 202310867997 A CN202310867997 A CN 202310867997A CN 116610129 A CN116610129 A CN 116610129A
- Authority
- CN
- China
- Prior art keywords
- robot
- position information
- planning
- path
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000006870 function Effects 0.000 claims abstract description 53
- 238000010845 search algorithm Methods 0.000 claims abstract description 30
- 230000008569 process Effects 0.000 claims abstract description 17
- 238000012216 screening Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 9
- 230000007613 environmental effect Effects 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 7
- 230000010354 integration Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 description 11
- 238000009825 accumulation Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Abstract
本发明公开的一种腿足机器人的局部路径规划方法及系统,属于路径规划技术领域,包括:获取机器人的起始点位置信息、运动过程中的当前位置信息和终点位置信息;根据起始点位置信息、当前位置信息和终点位置信息,通过迭代式搜索算法对机器人进行路径规划,获得机器人路径;其中,为迭代式搜索算法中启发式函数的预估函数增加权重系数,该权重系数为当前位置与终点位置之间距离与起始点位置与终点位置之间距离比值的设定倍数。对迭代式搜索算法中的启发式函数及搜索方向进行改进,提高了路径规划的速度。
Description
技术领域
本发明涉及路径规划技术领域,尤其涉及一种腿足机器人的局部路径规划方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
当前,移动机器人的导航方式多数基于雷达等传感器实现,该类方法传感器成本高、结构复杂。基于相机的视觉导航方法成本低,结构简单,应对各种复杂地形、地况等环境能够提供更丰富的信息。
腿足机器人运动时因足地交互冲击力对载体造成不规则震动影响,并且在光照不足、走廊等弱纹理区域,提取的图像特征在鲁棒性上受到影响,导致帧间匹配的位姿估计不准确,导致视觉里程计不断积累误差影响定位的精度,这使得以往适用于理想环境下轮式机器人的视觉定位导航方法在腿足平台上面临失效的问题。
此外,在经典的全局路径规划算法中,基于迭代式搜索的方法具有规划求解速度快、路径长度短的优点。但是传统的迭代式搜索算法规划路径不平滑,对于一些室外场景计算速度不足。由于在机器人导航过程中相机的观测距离有限,并且障碍物的位置是未知的,导致迭代式搜索算法不能够快速规划出一条可靠、安全的避障路径。
发明内容
本发明为了解决上述问题,提出了一种腿足机器人的局部路径规划方法及系统,对迭代式搜索算法中的启发式函数及搜索方向进行改进,提高了路径规划的速度。
为实现上述目的,本发明采用如下技术方案:
第一方面,提出了一种腿足机器人的局部路径规划方法,包括:
获取机器人的起始点位置信息、运动过程中的当前位置信息和终点位置信息;
根据起始点位置信息、当前位置信息和终点位置信息,通过迭代式搜索算法对机器人进行路径规划,获得机器人路径;
其中,为迭代式搜索算法中启发式函数的预估函数增加权重系数,该权重系数为当前位置与终点位置之间距离与起始点位置与终点位置之间距离比值的设定倍数。
第二方面,提出了一种腿足机器人的局部路径规划系统,包括:
信息获取模块,用于获取机器人的起始点位置信息、运动过程中的当前位置信息和终点位置信息;
轨迹规划模块,用于根据起始点位置信息、当前位置信息和终点位置信息,通过迭代式搜索算法进行路径规划,获得机器人路径;
其中,为迭代式搜索算法中启发式函数的预估函数增加权重系数,该权重系数为当前位置与终点位置之间距离与起始点位置与终点位置之间距离比值的设定倍数。
第三方面,提出了一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成一种腿足机器人的局部路径规划方法所述的步骤。
第四方面,提出了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成一种腿足机器人的局部路径规划方法所述的步骤。
与现有技术相比,本发明的有益效果为:
1、本发明对迭代式搜索算法中的启发式函数及搜索方向进行改进,为启发式函数中的预估函数增加权重系数,将搜索方向限定为前、左、右、左前和右前五个方向,减少遍历的节点数量,降低计算量,提高了路径规划的速度。
2、本发明通过对机器人前进过程中的环境图像提取点特征和线特征,根据点特征、线特征和IMU预积分的值,确定机器人的位置信息;在提取点特征的基础上增加线特征的提取,通过直线检测算法进行线段的检测和提取,利用线段描述子进行线段描述匹配,能够克服无纹理或纹理不可靠带来的干扰,然后利用图像特征四叉树分割算法对图像进行分块提取,划分点线节点的阈值实现点特征和线特征的均匀提取,提高提取特征的质量,有效解决特征堆积问题并减少了计算量,能够有效提高特征匹配的精度。通过光流法匹配跟踪点特征与线特征,并使用渐进一致采样法过滤点特征匹配异常值和线特征匹配异常值,有效减少误匹配,减少点特征、线特征匹配的计算量,提高了特征匹配的精度,并保证机器人位置信息获取的准确性。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为实施例1公开方法流程图;
图2为实施例1公开的路径规划流程图;
图3为实施例1公开的机器人位置信息获取流程图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
实施例1
在该实施例中,公开了一种腿足机器人的局部路径规划方法,如图1、图2和图3所示,包括:
S1:获取机器人的起始点位置信息、运动过程中的当前位置信息和终点位置信息。
获取机器人的起始点位置信息和运动过程中的当前位置信息的过程为:
S11:获取机器人前进过程中的环境图像序列和IMU(惯性测量单元)数据。
通过相机获取机器人前进过程中的环境图像序列,该环境图像序列包括多帧环境图像。
S12:从每一帧环境图像中提取点特征和线特征。
为了在相机抖动及弱纹理环境下,依然能够根据提取的点特征和线特征对机器人进行准确定位,从环境图像中提取点特征和线特征后,还利用树分割算法、光流法和PROSAC算法对提取的点特征和线特征进行筛选,获得最终的点特征和线特征,具体过程为:
S121:从环境图像中提取点特征和线特征。
在具体实施时,为了提高点特征提取的准确性,在对环境图像进行点特征提取前,首先对环境图像进行直方图均衡化,增加图像的全局对比度,之后,从直方图均衡化后的图像中提取点特征,保证了点特征提取的准确性。
采用直线检测算法从环境图像中提取线特征,其中,采用普吕克坐标法来表示线特征,通过在直线上截取两个端点p 1 =(x 1 ,y 1 ,z 1 ,ω 1 ) T和p 2 =(x 2 ,y 2 ,z 2 ,ω 2 ) T ,则用两个端点p 1、p 2表示直线L的线特征为:
(1-1)
式中,n为线段p 1 p 2与原点所在平面的法向量,d为线段p 1 p 2的方向向量,R 8为8维空间。
直线检测算法优选为EDLine(edge drawing lines,Edline)算法,采用直线检测算法从环境图像中提取线特征的过程为:
首先,利用高斯滤波处理环境图像,获得滤波后图像;其次,用滤波核遍历一遍滤波后图像,来抑制图像噪声,获得降噪后图像;再次,计算降噪后图像的像素梯度,并从中筛选出梯度较大的锚,这些锚可能是线段的部分点;之后,将所有的锚连接形成一个初始的线段,产生的初始的线段存在不光滑的问题,利用最小二乘法将外点进行去除,从而让线段更加平滑,获得平滑线段;最后,使用梯度与梯度角的概念计算每条平滑线段上NFA(误检线段数量)的值,认定NFA的值小于或等于1的线段有效,NFA的值大于1的线段无效,保留有效线段,删除无效线段,获得环境图像的线特征。利用该方法能够提取出高质量的线特征,且该方法提取线特征的速度相比较LSD(Line Segment Detector)直线提取算法提高了10倍。
S122:利用树分割算法对提取的点特征和线特征进行初步筛选,获得初步筛选后的点特征和线特征。
采用线段描述子(Line Band Discriptor,LBD描述子)对S121提取的线特征进行描述之后,通过树分割算法对提取的点特征和线特征进行初步筛选,获得初步筛选后的点特征和线特征。
优选的,树分割算法采用四叉树分割算法,利用四叉树分割算法对图像进行分块提取,划分点线节点以实现特征均匀提取,根据目标特征点数找到相同数量的节点,每个节点中仅保留质量最好的1个点特征和线特征,减少算法计算量并提高特征匹配精度。
S123:通过光流法对初步筛选后的点特征和线特征进行匹配跟踪,并筛除点特征匹配异常值和线特征匹配异常值,获得最终的点特征和线特征。
在具体实施时,采用LK光流法(Lucas-Kanade光流法)对前后帧的点特征和线特征进行匹配跟踪,LK光流法可以进行反向追踪,在反向追踪时,计算每个特征点在当前帧环境图像中位置与在上一帧环境图像中位置间的距离,当距离超过第一设定阈值时则去除该特征点。
优选的,第一设定阈值为0.3。
为了防止误匹配问题的发生,在通过光流法对初次筛选后的点特征和线特征进行匹配跟踪后,采用渐进一致采样法(PROSAC算法)剔除误匹配。
PROSAC算法是基于RANSCA的改进,通过引入评估函数来评价匹配点的质量,该质量是计算匹配点对描述子的欧式距离。根据质量将匹配点进行排序,并从质量大于第二设定阈值的匹配点对中选取设定数量的匹配点对来计算单应性矩阵;计算每个匹配点距离单应性矩阵的距离,将该距离小于第三设定阈值的匹配点对作为内点进行保存,保存的点对数为内点个数,从而将误匹配剔除,提高了匹配的精度。
优选的,第二设定阈值为0.3。
S13:根据点特征、线特征和IMU数据,确定机器人的位置信息。
为了保证机器人的定位精度,本实施例采用筛选后的最终的点特征、线特征和IMU数据,确定机器人的位置信息。
对连续两帧图像之间的IMU数据进行预积分,获得IMU预积分值。
将当前帧的点特征和线特征加入滑动窗口,使用基于SFM(StructurefromMotion)的三维重建方法求解滑动窗口内所有帧的位姿和3D路标点位置,将SFM的求解结果与IMU预积分值进行对齐,实现对陀螺仪的校正,并求解获得每一帧的速度、重力向量方向,恢复单目相机的尺度因子,获得机器人的位置信息,机器人的位置信息包括机器人的位姿和速度。
本实施例将获取到终点位置信息时机器人的位置,作为机器人的起始点位置,将根据机器人在起始点位置时的环境图像,确定的位置信息,作为机器人的起始点位置信息;将根据机器人在起始点位置后的某一环境图像确定的位置信息,作为运动过程中的当前位置信息。
本实施例使用直线检测算法提高了线特征的提取速度,降低弱纹理以及抖动带来的影响,使用四叉树分割算法实现点特征和线特征的均匀提取,去除由于特征提取产生的冗余与堆积问题,提高提取的特征质量,使用PROSAC算法剔除误匹配的特征,根据去除错误匹配的结果提高特征匹配的准确率,提高了匹配的精度。根据准确度高的特征匹配结果进行帧间特征匹配估计相机的位姿,通过构建点特征与线特征的重投影误差进行帧间特征匹配,提高了机器人定位精度。实现了在相机抖动或弱纹理环境下的腿足机器人的高精度定位。
S2:根据起始点位置信息、当前位置信息和终点位置信息,通过迭代式搜索算法对机器人进行路径规划,获得机器人路径。
其中,为迭代式搜索算法中启发式函数的预估函数增加权重系数,该权重系数为当前位置与终点位置之间距离与起始点位置与终点位置之间距离比值的设定倍数。
具体的,本实施例公开的迭代式搜索算法中的启发式函数为对代价函数与预估函数进行加权求和获得,代价函数为当前位置与起始点位置之间的距离;预估函数为当前位置与终点位置之间的距离;代价函数与预估函数加权求和时,预估函数的权重系数为当前位置与终点位置之间距离与起始点位置与终点位置之间距离比值的设定倍数。
优选的,设定倍数为3。
现有的迭代式搜索算法中的启发式函数为:
(1-2)
式中,为启发式函数值,是从初始状态经由状态n到目标状态的最小代价估计,/>为代价函数,是在状态空间中从初始状态到状态n的最小代价,/>为预估函数,是从状态n到目标状态的路径的最小估计代价。本实施例根据腿足机器人的自身位置,为与/>设置权重系数,如式(1-3)和式(1-4)所示:
(1-3)
(1-4)
式(1-3)和式(1-4)中,、/>为当前位置的横纵坐标,/>、/>为起始点位置的横纵坐标,/>、/>为终点位置的横纵坐标。
本实施例为预估函数添加权重系数后,获得的启发式函数如式(1-5)所示:
(1-5)
式中,d代表当前位置与终点位置之间的距离,D代表起始点位置与终点位置之间的距离。本实施例的启发式函数是代价函数与预估函数/>的加权和,通过权重系数3d/D可以使迭代式搜索算法更偏向实际代价还是预估代价,当/>>/>时,/>会更加贴近Dijkstra算法,迭代式搜索算法保证能找到一条最短路径;反之,当/></>时,会更加贴近BFS算法,加快搜索与计算速度。经过实验测试,发现当/>的权重系数为3时,计算速度最快,性能最好。
此外,迭代式搜索算法在根据启发式函数值进行搜索时,限定搜索范围为前、左、右、左前和右前五个方向。将搜索范围从8个方向修改为5个方向,将后面、左后、右后方向舍去,可以减少遍历不必要的节点,提高计算的速度。然后,当d=D时,路径搜索的速度会很快,能够迅速找到路径避开障碍物,当快达到终点时,找到最短路径到达目标点。
本实施例还利用B样条曲线对迭代搜索算法获得的无碰撞的机器人路径进行优化,通过增加控制点使得得到的路径轨迹更加平滑,获得机器人的局部避障轨迹。
B样条曲线对折线有着良好的优化效果,最终输出一条平滑无误的安全轨迹,与之前利用迭代式搜索算法相比,改进后的迭代式搜索算法实现了快速规划出避开障碍物的安全轨迹。
本实例通过改进启发式函数,同时修改搜索的方向,从8个方向修改到5个,减少遍历的节点,提高了路径搜索的速度,实现了腿足机器人的局部路径轨迹的规划。
本实施例公开方法在进行机器人路径规划时,全局的引导路径采用迭代式搜索算法,修改迭代式搜索算法的搜索方向,将8个方向改为5个方向去进行搜索,减少遍历的节点数量,降低计算量。修改其启发式函数,为启发式函数中的预估函数增加权重系数,根据腿足机器人当前位置与终点位置之间的距离,当预估函数值大于代价函数值时,迭代式搜索算法生成最短路径树提高路径的求解计算速度,当预估函数值小于代价函数值时,迭代式搜索算法通过遍历所有可能的节点,使其找到一条最优路径达到目标点,最后采用B样条曲线对机器人路径做优化,实现腿足机器人的局部路径规划。
本实施例通过对环境图像进行点特征与线特征提取,剔除由于提取的点线特征密集,造成特征大量冗余的堆积问题,减少误匹配的结果,实现在由于腿足机器人运动时产生的抖动以及弱纹理且光照不足的环境中的实时定位。当根据高精度定位信息进行路径规划,获得机器人的局部避障轨迹时,该轨迹带有速度等有效信息,通过运动控制指令发送至底层控制,确保腿足机器人在作业环境中使用相机进行稳定的视觉导航。
实施例2
在该实施例中,公开了一种腿足机器人的局部路径规划系统,包括:
信息获取模块,用于获取机器人的起始点位置信息、运动过程中的当前位置信息和终点位置信息;
轨迹规划模块,用于根据起始点位置信息、当前位置信息和终点位置信息,通过迭代式搜索算法对机器人进行路径规划,获得机器人路径;
其中,为迭代式搜索算法中启发式函数的预估函数增加权重系数,该权重系数为当前位置与终点位置之间距离与起始点位置与终点位置之间距离比值的设定倍数。
实施例3
在该实施例中,公开了一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成实施例1公开的一种腿足机器人的局部路径规划方法所述的步骤。
实施例4
在该实施例中,公开了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例1公开的一种腿足机器人的局部路径规划方法所述的步骤。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
Claims (10)
1.一种腿足机器人的局部路径规划方法,其特征在于,包括:
获取机器人的起始点位置信息、运动过程中的当前位置信息和终点位置信息;
根据起始点位置信息、当前位置信息和终点位置信息,通过迭代式搜索算法对机器人进行路径规划,获得机器人路径;
其中,为迭代式搜索算法中启发式函数的预估函数增加权重系数,该权重系数为当前位置与终点位置之间距离与起始点位置与终点位置之间距离比值的设定倍数。
2.如权利要求1所述的一种腿足机器人的局部路径规划方法,其特征在于,迭代式搜索算法中的启发式函数为对代价函数与预估函数进行加权求和获得,代价函数为当前位置与起始点位置之间的距离;预估函数为当前位置与终点位置之间的距离;代价函数与预估函数加权求和时,预估函数的权重系数为当前位置与终点位置之间距离与起始点位置与终点位置之间距离比值的设定倍数。
3.如权利要求1所述的一种腿足机器人的局部路径规划方法,其特征在于,迭代式搜索算法在根据启发式函数值进行搜索时,限定搜索范围为前、左、右、左前和右前五个方向。
4.如权利要求1所述的一种腿足机器人的局部路径规划方法,其特征在于,利用B样条曲线对机器人路径进行优化,获得机器人的局部避障轨迹。
5.如权利要求1所述的一种腿足机器人的局部路径规划方法,其特征在于,获取机器人前进过程中的环境图像序列和IMU数据;
对连续两帧图像之间的IMU数据进行预积分,获得IMU预积分值;
从每一帧环境图像中提取点特征和线特征;
根据点特征、线特征和IMU预积分值,确定机器人的位置信息;
将获取到终点位置信息时机器人的位置,作为机器人的起始点位置,将根据机器人在起始点位置时的环境图像,确定的位置信息,作为机器人的起始点位置信息;将根据机器人在起始点位置后的某一环境图像确定的位置信息,作为运动过程中的当前位置信息。
6.如权利要求5所述的一种腿足机器人的局部路径规划方法,其特征在于,从环境图像中提取点特征和线特征;
利用树分割算法对提取的点特征和线特征进行初步筛选,获得初步筛选后的点特征和线特征;
通过光流法对初步筛选后的点特征和线特征进行匹配跟踪,并筛除点特征匹配异常值和线特征匹配异常值,获得最终的点特征和线特征;
根据最终的点特征、线特征和IMU预积分值,确定机器人的位置信息。
7.如权利要求6所述的一种腿足机器人的局部路径规划方法,其特征在于,采用直线检测算法从环境图像中提取线特征;采用线段描述子对提取的线特征进行描述。
8.一种腿足机器人的局部路径规划系统,其特征在于,包括:
信息获取模块,用于获取机器人的起始点位置信息、运动过程中的当前位置信息和终点位置信息;
轨迹规划模块,用于根据起始点位置信息、当前位置信息和终点位置信息,通过迭代式搜索算法对机器人进行路径规划,获得机器人路径;
其中,为迭代式搜索算法中启发式函数的预估函数增加权重系数,该权重系数为当前位置与终点位置之间距离与起始点位置与终点位置之间距离比值的设定倍数。
9.一种电子设备,其特征在于,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-7任一项所述的一种腿足机器人的局部路径规划方法的步骤。
10.一种计算机可读存储介质,其特征在于,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-7任一项所述的一种腿足机器人的局部路径规划方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310867997.XA CN116610129B (zh) | 2023-07-17 | 2023-07-17 | 一种腿足机器人的局部路径规划方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310867997.XA CN116610129B (zh) | 2023-07-17 | 2023-07-17 | 一种腿足机器人的局部路径规划方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116610129A true CN116610129A (zh) | 2023-08-18 |
CN116610129B CN116610129B (zh) | 2023-09-29 |
Family
ID=87682121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310867997.XA Active CN116610129B (zh) | 2023-07-17 | 2023-07-17 | 一种腿足机器人的局部路径规划方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116610129B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130253827A1 (en) * | 2012-03-26 | 2013-09-26 | Electronics And Telecommunications Research Institute | Apparatus for fast path search by learning heuristic function and method thereof |
CN103994768A (zh) * | 2014-05-23 | 2014-08-20 | 北京交通大学 | 动态时变环境下寻求全局时间最优路径的方法 |
CN112115980A (zh) * | 2020-08-25 | 2020-12-22 | 西北工业大学 | 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法 |
CN113156886A (zh) * | 2021-04-30 | 2021-07-23 | 南京理工大学 | 一种智能物流路径规划方法及系统 |
CN113341998A (zh) * | 2021-06-29 | 2021-09-03 | 厦门大学 | 一种改进蚁群算法的三维水下欠驱动auv路径规划方法 |
CN113359757A (zh) * | 2021-06-30 | 2021-09-07 | 湖北汽车工业学院 | 一种改进型混合a*算法的无人驾驶车辆路径规划与轨迹跟踪方法 |
CN113485360A (zh) * | 2021-07-29 | 2021-10-08 | 福州大学 | 基于改进搜索算法的agv机器人路径规划方法及系统 |
CN114527788A (zh) * | 2022-01-12 | 2022-05-24 | 华南理工大学 | 基于动态权重的a星算法改进方法、系统、装置及介质 |
CN114675649A (zh) * | 2022-03-28 | 2022-06-28 | 南京工业大学 | 一种融合改进的a*与dwa算法的室内移动机器人路径规划方法 |
CN114705196A (zh) * | 2022-06-07 | 2022-07-05 | 湖南大学 | 一种用于机器人的自适应启发式全局路径规划方法与系统 |
KR20220102684A (ko) * | 2021-01-13 | 2022-07-21 | 건국대학교 산학협력단 | 무인이동체를 위한 인공지능 기반의 경로 재계획 방법 및 장치 |
CN114779785A (zh) * | 2022-05-06 | 2022-07-22 | 浙江工业大学 | 一种基于pso参数整定的移动机器人平滑轨迹规划方法 |
CN115218889A (zh) * | 2022-07-02 | 2022-10-21 | 哈尔滨理工大学 | 一种基于点线特征融合的多传感器室内定位方法 |
-
2023
- 2023-07-17 CN CN202310867997.XA patent/CN116610129B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130253827A1 (en) * | 2012-03-26 | 2013-09-26 | Electronics And Telecommunications Research Institute | Apparatus for fast path search by learning heuristic function and method thereof |
CN103994768A (zh) * | 2014-05-23 | 2014-08-20 | 北京交通大学 | 动态时变环境下寻求全局时间最优路径的方法 |
CN112115980A (zh) * | 2020-08-25 | 2020-12-22 | 西北工业大学 | 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法 |
KR20220102684A (ko) * | 2021-01-13 | 2022-07-21 | 건국대학교 산학협력단 | 무인이동체를 위한 인공지능 기반의 경로 재계획 방법 및 장치 |
CN113156886A (zh) * | 2021-04-30 | 2021-07-23 | 南京理工大学 | 一种智能物流路径规划方法及系统 |
CN113341998A (zh) * | 2021-06-29 | 2021-09-03 | 厦门大学 | 一种改进蚁群算法的三维水下欠驱动auv路径规划方法 |
CN113359757A (zh) * | 2021-06-30 | 2021-09-07 | 湖北汽车工业学院 | 一种改进型混合a*算法的无人驾驶车辆路径规划与轨迹跟踪方法 |
CN113485360A (zh) * | 2021-07-29 | 2021-10-08 | 福州大学 | 基于改进搜索算法的agv机器人路径规划方法及系统 |
CN114527788A (zh) * | 2022-01-12 | 2022-05-24 | 华南理工大学 | 基于动态权重的a星算法改进方法、系统、装置及介质 |
CN114675649A (zh) * | 2022-03-28 | 2022-06-28 | 南京工业大学 | 一种融合改进的a*与dwa算法的室内移动机器人路径规划方法 |
CN114779785A (zh) * | 2022-05-06 | 2022-07-22 | 浙江工业大学 | 一种基于pso参数整定的移动机器人平滑轨迹规划方法 |
CN114705196A (zh) * | 2022-06-07 | 2022-07-05 | 湖南大学 | 一种用于机器人的自适应启发式全局路径规划方法与系统 |
CN115218889A (zh) * | 2022-07-02 | 2022-10-21 | 哈尔滨理工大学 | 一种基于点线特征融合的多传感器室内定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116610129B (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110223348B (zh) | 基于rgb-d相机的机器人场景自适应位姿估计方法 | |
CN108986037B (zh) | 基于半直接法的单目视觉里程计定位方法及定位系统 | |
CN111210477B (zh) | 一种运动目标的定位方法及系统 | |
CN112304307A (zh) | 一种基于多传感器融合的定位方法、装置和存储介质 | |
CN110782494A (zh) | 一种基于点线融合的视觉slam方法 | |
CN111024066A (zh) | 一种无人机视觉-惯性融合室内定位方法 | |
CN111322993B (zh) | 一种视觉定位方法和装置 | |
CN111882602B (zh) | 基于orb特征点和gms匹配过滤器的视觉里程计实现方法 | |
CN110570453A (zh) | 一种基于双目视觉的闭环式跟踪特征的视觉里程计方法 | |
CN115131420A (zh) | 基于关键帧优化的视觉slam方法及装置 | |
CN113012197A (zh) | 一种适用于动态交通场景的双目视觉里程计定位方法 | |
CN116468786B (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN116449384A (zh) | 基于固态激光雷达的雷达惯性紧耦合定位建图方法 | |
CN114485640A (zh) | 基于点线特征的单目视觉惯性同步定位与建图方法及系统 | |
CN114623817A (zh) | 基于关键帧滑窗滤波的含自标定的视觉惯性里程计方法 | |
CN112907633B (zh) | 动态特征点识别方法及其应用 | |
CN114549549A (zh) | 一种动态环境下基于实例分割的动态目标建模跟踪方法 | |
CN112731503B (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
WO2023130842A1 (zh) | 一种相机位姿确定方法和装置 | |
CN113362358A (zh) | 一种动态场景下基于实例分割的鲁棒性位姿估计方法 | |
CN116610129B (zh) | 一种腿足机器人的局部路径规划方法及系统 | |
Li et al. | RD-VIO: Robust visual-inertial odometry for mobile augmented reality in dynamic environments | |
Zeng et al. | Robust mono visual-inertial odometry using sparse optical flow with edge detection | |
CN114690226A (zh) | 基于载波相位差分技术辅助的单目视觉测距方法及系统 | |
CN114283199A (zh) | 一种面向动态场景的点线融合语义slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |