CN114637295A - 一种基于人工势场法与实例分割的机器人智能避障方法 - Google Patents
一种基于人工势场法与实例分割的机器人智能避障方法 Download PDFInfo
- Publication number
- CN114637295A CN114637295A CN202210259535.5A CN202210259535A CN114637295A CN 114637295 A CN114637295 A CN 114637295A CN 202210259535 A CN202210259535 A CN 202210259535A CN 114637295 A CN114637295 A CN 114637295A
- Authority
- CN
- China
- Prior art keywords
- obstacle
- trolley
- expect
- potential field
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000011218 segmentation Effects 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 48
- 238000006243 chemical reaction Methods 0.000 claims description 21
- 238000013519 translation Methods 0.000 claims description 11
- 230000004888 barrier function Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 4
- 238000002474 experimental method Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000009471 action Effects 0.000 claims description 2
- 230000007774 longterm Effects 0.000 claims description 2
- 230000004927 fusion Effects 0.000 abstract description 2
- 230000003111 delayed effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种基于人工势场法与实例分割算法融合的智能避障方法,包括:通过采集现实场景障碍物图片数据,使用Python脚本制作实例分割数据集;将数据集导入至Yolact算法进行训练,并制作ROS包;利用ZED2相机提取障碍物的深度信息,将实例分割的结果融合深度信息便可得到障碍物的世界坐标、类别CLASS以及MASK(遮罩),将上述三个结果融合至改进的人工势场法中,定义目标点世界坐标,便可以实现在抢险救灾场景中有选择性的避障。本发明解决在抢险救灾场景中遇到障碍物耽误最佳抢险时间的问题,使之最快到达救援点。
Description
技术领域
本发明涉及一种机器人智能避障方法,属于计算机视觉避障技术领域。
背景技术
利用机器人抢险救灾涉及多方面的技术,而如何快速准确的避开所有障碍物,找到通往救援点的最佳路径,是亟待解决的问题,现在主流的基于视觉的避障算法只会机械性的避开所有障碍物,比如人工势场法、A*算法等,这都极大的浪费了救援时间。现在,随着深度学习在图像识别、语音识别上的广泛应用,许多技术人员将深度学习模型广泛应用在机器人领域,在许多场景取得了不错的效果,但是就目前而言,还很少有人将深度学习方法运用到避障救援场景上来。
人工势场法是一种机器人路径规划算法。该算法将目标和障碍物分别看做对机器人有引力和斥力的物体,机器人沿引力与斥力的合力来进行运动,该算法结构简单,便于低层的实时控制,在实时避障和平滑的轨迹控制方面,得到了广泛应用。
实例分割是计算机视觉中的一个领域,相比于传统的目标检测,它是像素级分割,可以得到图像中所有物体的类别以及他们的像素级遮罩,基于这一特点,他在学术界与工业界得到了广泛的应用。
人工势场法应用于普通的避障场景中有着不错的效果,但是对于较为紧急的抢险救灾场景,人工势场法的滞后性较大,无法快速、准确的找到救援点。
发明内容
本发明要克服现有技术的上述缺点,提出一种基于人工势场法与实例分割的机器人智能避障方法。
本发明对Yolact模型的重训练,得到场景中的所有障碍物类别以及遮罩,通过双目视觉的方法得到障碍物的深度信息,在利用像素坐标系与世界坐标系的转换关系得到障碍物的世界坐标,最后利用人工势场法有选择性的避开危险障碍物,最实现最快速的到达救援点,节省救援时间。
技术方案:为了实现上述目的,本发明采用的技术方案为:
一种基于人工势场法与实例分割的机器人智能避障方法,通过ZED2相机采集障碍物图片数据,并将采集的数据集转换为COCO数据集,利用Yolact模型实时的对场景中的物体进行分割,得到其类别Class与遮罩MASK,利用双目相机ZED2实时获取各个障碍物的深度信息,深度信息矩阵与遮罩矩阵属于同纬矩阵,融合着两个矩阵,并利用像素坐标系与世界坐标系的转换关系便可以得到障碍物的世界坐标,此外,将人工势场法的势场方程与Class信息融合,便可以得到融合后势场,利用势场求出引力与斥力,并结合小车质量求出加速度,最后,求出速度,得到单位采样时间内小车需走的距离,最后,利用位置-速度转换方法得到下一采样时刻小车应行驶到的位置,至此,整个控制策略完成,具体包含以下步骤:
步骤1:采集实验所需的障碍物各个视角的RGB信息,并通过剪裁、旋转进行数据增强,对数据集进行预处理:
步骤1-1:采集室内障碍物样本图像数据并进行标注;
步骤1-2:对标注后的样本数据集进行特征增强,获得COCO数据集;
步骤1-3:构建Yolact模型;
步骤1-4:利用COCO数据集对所述的Yolact模型进行训练,得到障碍物样本的目标参数与目标权重,并将所述的目标参数和目标权重作为训练好的Yolact模型的参数和权重;
步骤1-5:使用训练好的Yolact模型对经标准化处理的障碍物样本图像进行检测,输出对应障碍物样本的类别Class与MASK矩阵Mw×h,(w,h)代表RGB图片的输入维度,定义Classsafe为安全类别,Classdanger为危险类别;
步骤2:通过ZED2相机获取障碍物的深度信息矩阵Dw×h,并通过相机的旋转矩阵R3×3与平移矩阵T3×1获取障碍物相对于相机的3D位姿信息,并建立小车世界坐标系base_link与相机的世界坐标系zed2_link之间的转换关系矩阵H3×1:
步骤2-1:根据等距采样算法,获取障碍物样本各个区域像素位置的深度值z以及对应的像素坐标(x,y);
步骤2-3:通过相机标定获取其内参矩阵Q,其Q可以由如下公式表示:
其中,fx、fy分别代表相机坐标系中x,y坐标轴方向上的焦距,u0、v0分别代表像素坐标系中u轴、v轴的像素中心;
步骤2-4:通过障碍物的像素坐标(u,v)以及其对应的深度值z将其转换为相机的世界坐标(Xω,Yω,Zω),其转换公式如下:
其中R,T分别为旋转矩阵与平移矩阵;
步骤2-5:基于步骤2给出的小车世界坐标系base_link与相机世界坐标系zed2_link的转换关系矩阵H3×1可以得到,障碍物在小车世界坐标系的坐标由如下公式给出:
步骤3:确定目标点的坐标,基于人工势场法建立模型,基于步骤1与步骤2,我们可以得到障碍物相对于小车之间的世界坐标以及其对应的类别(Xω,Yω,Zω,Class),在本文中,我们不考虑Zω坐标,我们根据救援点方向确定一个目标点坐标(Xg,Yg),以此来建立势场模型:
步骤3-1:建立人工势场,将小车周围环境中的运动抽象成在引力场中的运动,目标对小车产生引力,障碍物对小车产生斥力,根据叠加原理计算出合力方向,即为小车运动方向;
步骤3-2:定义目标点处的引力公式:
其中,α是引力增益,d(q,qgoal)是小车当前位置与目标点qgoal:(Xg,Yg)之间的距离;
步骤3-3:实例分割算法Yolact将会实时计算障碍物类别Class,当障碍物类别属于步骤1-5中的Classdanger时,该类别障碍物处存在斥力,当障碍物类别属于Classsafe时,忽略斥力,因此斥力公式分配如下:
其中,d(q,qobs)是小车当前点与障碍物之间的距离,β是斥力增益,Q是障碍物作用的距离阈值,当前点与障碍物距离大于此阈值时,障碍物对小车不会产生斥力;
步骤3-4:根据步骤3-2、3-3便可计算出无人机在任意位置处的引力与斥力,其中引力由如下公式给出:
斥力由如下公式给出:
则小车当前的合力大小为:
F(q)=Fatt(q)+Frep(q) (8)
步骤3-5:根据里程计确定小车的实时转向角θtime;
步骤3-6:根据3-4给出的Fatt(q)、Frep(q)便可以得到合力Fcom以及相对于世界坐标系的夹角θexpect,根据小车质量M以及加速度公式得到其期望速度vcontrol,根据采样时间t得到期望坐标(xexpect,yexpect),其中vexpect、xexpect、yexpect由如下公式给出:
xexpect=x0+vexpect·t·cos θexpect (10)
yexpect=y0+vexpect·t·sinθexpect (11)
其中,(x0,y0)代表小车的初始坐标;
步骤4:建立相对位姿转换为速度模型:
步骤4-1:给定线速度v与角速度ω的控制系数(kv,kω)以及速度初值(v0,ω0),根据步骤3所给出的θexpect、xexpect、yexpect以及小车当前的位姿信息θtime、xtime、ytime建立速度转换模型,则其误差矩阵Erobot、平移矩阵Trobot可由如下公式给出:
则速度控制矩阵Crobot=Trobot·Erobot;
步骤4-2:计算小车实时的速度,我们定义步骤4-1中的速度控制矩阵为:
则小车目标线速度vgoal、目标角速度ωgoal可由如下公式给出:
vgoal=kv·c1+v0·cos c3 (15)
ωgoal=kω·sin c3+v0·c2+ω0 (16)
优选的:步骤1所采集的各个视角的RGB图像信息是有限的,因此在现实场景中依旧会存在类别无法识别的问题。
优选的:步骤1-5所述的Classsafe与Classdanger在算法层面上是人为定义的,具有一定的随机性,考虑现实场景,Classsafe应尽可能安全。
优选的:步骤2所建立的小车世界坐标系base_link与相机的世界坐标系zed2-link之间的转换关系矩阵H3×1的数值随相机与小车之间相对位姿的改变而改变。
优选的:步骤3-5中根据里程计确定实时转向角θtime在长时间工作下会出现累计误差。
优选的:步骤3-6中小车的初始坐标(x0,y0)会随着小车的重启而归零。
优选的:步骤4-1中给定的线速度v与角速度ω的控制系数(kv,kω)应按照小车速度上限来确定。
优选的:为保证速度控制的连续性与稳定性,步骤4-1中给定的线速度初值v0应尽可能的小,角速度初值ω0应设置为0。
本发明相比现有技术,具有以下有益效果:
1、实例分割技术应用于避障算法可能是在本发明中首次提出;
2、相比简单的避障算法,本文提出了基于人工势场法与实例分割的机器人智能避障方法,提高了在救援场景中的工作效率;
3、本发明提出了当小车遇到不同障碍物时的不同路径规划方法。
附图说明
图1为基于人工势场法与实例分割的机器人智能避障方法的流程图
图2为像素坐标系与世界坐标系的转换关系图;
图3为人工势场算法示意图;
图4为智能避障方法框架图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面结合附图和具体实施例,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于人工势场法与实例分割的机器人智能避障方法,如图1所示,包括RGB信息与深度信息的输入、数据集制作与预处理、深度信息与实例分割结果的融合、障碍物世界坐标的获取、融合改人工势场法开始实验,最终到达目标点。
具体步骤如下:
步骤1:采集实验所需的障碍物各个视角的RGB信息,并通过剪裁、旋转进行数据增强,对数据集进行预处理:
步骤1-1:采集室内障碍物样本图像数据并进行标注;
步骤1-2:对标注后的样本数据集进行特征增强,获得COCO数据集;
步骤1-3:构建Yolact模型;
步骤1-4:利用COCO数据集对所述的Yolact模型进行训练,得到障碍物样本的目标参数与目标权重,并将所述的目标参数和目标权重作为训练好的Yolact模型的参数和权重;
步骤1-5:使用训练好的Yolact模型对经标准化处理的障碍物样本图像进行检测,输出对应障碍物样本的类别Class与MASK矩阵Mw×h,(w,h)代表RGB图片的输入维度,定义Classsafe为安全类别,Classdanger为危险类别;
步骤2:通过ZED2相机获取障碍物的深度信息矩阵Dw×h,建立像素坐标系与世界坐标系的转换关系,如图2所示,通过相机的旋转矩阵R3×3与平移矩阵T3×1获取障碍物相对于相机的3D位姿信息,并建立小车世界坐标系base_link与相机的世界坐标系zed2_link之间的转换关系矩阵H3×1:
步骤2-1:根据等距采样算法,获取障碍物样本各个区域像素位置的深度值z以及对应的像素坐标(x,y);
步骤2-3:通过相机标定获取其内参矩阵Q,其Q可以由如下公式表示:
其中,fx、fy分别代表相机坐标系中x,y坐标轴方向上的焦距,u0、v0分别代表像素坐标系中u轴、v轴的像素中心;
步骤2-4:通过障碍物的像素坐标(u,v)以及其对应的深度值z将其转换为相机的世界坐标(Xω,Yω,Zω),其转换公式如下:
其中R,T分别为旋转矩阵与平移矩阵;
步骤2-5:基于步骤2给出的小车世界坐标系base_link与相机世界坐标系zed2_link的转换关系矩阵H3×1可以得到,障碍物在小车世界坐标系的坐标由如下公式给出:
步骤3:确定目标点的坐标,基于人工势场法建立模型,如图3所示,基于步骤1与步骤2,我们可以得到障碍物相对于小车之间的世界坐标以及其对应的类别(Xω,Yω,Zω,Class),在本文中,我们不考虑Zω坐标,我们根据救援点方向确定一个目标点坐标(Xg,Yg),以此来建立势场模型:
步骤3-1:建立人工势场,将小车周围环境中的运动抽象成在引力场中的运动,目标对小车产生引力,障碍物对小车产生斥力,根据叠加原理计算出合力方向,即为小车运动方向;
步骤3-2:定义目标点处的引力公式:
其中,α是引力增益,d(q,qgoal)是小车当前位置与目标点qgoal:(Xg,Yg)之间的距离;
步骤3-3:实例分割算法Yolact将会实时计算障碍物类别Class,当障碍物类别属于步骤1-5中的Classdanger时,该类别障碍物处存在斥力,当障碍物类别属于Classsafe时,忽略斥力,基于此,建立智能避障模型,如图4所示,在此模型下,其斥力公式分配如下:
其中,d(q,qobs)是小车当前点与障碍物之间的距离,β是斥力增益,Q是障碍物作用的距离阈值,当前点与障碍物距离大于此阈值时,障碍物对小车不会产生斥力;
步骤3-4:根据步骤3-2、3-3便可计算出无人机在任意位置处的引力与斥力,其中引力由如下公式给出:
斥力由如下公式给出:
则小车当前的合力大小为:
F(q)=Fatt(q)+Frep(q) (8)
步骤3-5:根据里程计确定小车的实时转向角θtime;
步骤3-6:根据步骤3-4给出的Fatt(q)、Frep(q)便可以得到合力Fcom以及相对于世界坐标系的夹角θexpect,根据小车质量M以及加速度公式得到其期望速度vcontrol,根据采样时间t得到期望坐标(xexpect,yexpect),其中vexpect、xexpect、yexpect由如下公式给出:
xexpect=x0+vexpect·t·cosθexpect (10)
yexpect=y0+vexpect·t·sinθexpect (11)
其中,(x0,y0)代表小车的初始坐标;
步骤4:建立相对位姿转换为速度模型:
步骤4-1:给定线速度v与角速度ω的控制系数(kv,kω)以及速度初值(v0,ω0),根据步骤3所给出的θexpect、xexpect、yexpect以及小车当前的位姿信息θtime、xtime、ytime建立速度转换模型,则其误差矩阵Erobot、平移矩阵Trobot可由如下公式给出:
则速度控制矩阵Crobot=Trobot·Erobot;
步骤4-2:计算小车实时的速度,我们定义步骤4-1中的速度控制矩阵为:
则小车目标线速度vgoal、目标角速度ωgoal可由如下公式给出:
vgoal=kv·c1+v0·cos c3(15)
ωgoal=kω·sin c3+v0·c2+ω0 (16)
本发明比传统的视觉避障方法更为复杂,但是避障的速度与精度更好,对救援等场景具有较大的实用性。
以上所述是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种基于人工势场法与实例分割的机器人智能避障方法,其特征在于,包括以下步骤:
步骤1:采集实验所需的障碍物各个视角的RGB信息,并通过剪裁、旋转进行数据增强,对数据集进行预处理:
步骤1-1:采集室内障碍物样本图像数据并进行标注;
步骤1-2:对标注后的样本数据集进行特征增强,获得COCO数据集;
步骤1-3:构建Yolact模型;
步骤1-4:利用COCO数据集对所述的Yolact模型进行训练,得到障碍物样本的目标参数与目标权重,并将所述的目标参数和目标权重作为训练好的Yolact模型的参数和权重;
步骤1-5:使用训练好的Yolact模型对经标准化处理的障碍物样本图像进行检测,输出对应障碍物样本的类别Class与MASK矩阵Mw×h,(w,h)代表RGB图片的输入维度,定义Classsafe为安全类别,Classdanger为危险类别;
步骤2:通过ZED2相机获取障碍物的深度信息矩阵Dw×h,并通过相机的旋转矩阵R3×3与平移矩阵T3×1获取障碍物相对于相机的3D位姿信息,并建立小车世界坐标系base_link与相机的世界坐标系zed2_link之间的转换关系矩阵H3×1:
步骤2-1:根据等距采样算法,获取障碍物样本各个区域像素位置的深度值z以及对应的像素坐标(x,y);
步骤2-3:通过相机标定获取其内参矩阵Q,其Q可以由如下公式表示:
其中,fx、fy分别代表相机坐标系中x,y坐标轴方向上的焦距,u0、v0分别代表像素坐标系中u轴、v轴的像素中心;
步骤2-4:通过障碍物的像素坐标(u,v)以及其对应的深度值z将其转换为相机的世界坐标(Xω,Yω,Zω),其转换公式如下:
其中R,T分别为旋转矩阵与平移矩阵;
步骤2-5:基于步骤2给出的小车世界坐标系base_link与相机世界坐标系zed2_link的转换关系矩阵H3×1可以得到,障碍物在小车世界坐标系的坐标由如下公式给出:
步骤3:确定目标点的坐标,基于人工势场法建立模型,基于步骤1与步骤2,得到障碍物相对于小车之间的世界坐标以及其对应的类别(Xω,Yω,Zω,Class),不考虑Zω坐标,根据救援点方向确定一个目标点坐标(Xg,Yg),以此来建立势场模型:
步骤3-1:建立人工势场,将小车周围环境中的运动抽象成在引力场中的运动,目标对小车产生引力,障碍物对小车产生斥力,根据叠加原理计算出合力方向,即为小车运动方向;
步骤3-2:定义目标点处的引力公式:
其中,α是引力增益,d(q,qgoal)是小车当前位置与目标点qgoal:(Xg,Yg)之间的距离;
步骤3-3:实例分割算法Yolact将会实时计算障碍物类别Class,当障碍物类别属于步骤1-5中的Classdanger时,该类别障碍物处存在斥力,当障碍物类别属于Classsafe时,忽略斥力,因此斥力公式分配如下:
其中,d(q,qobs)是小车当前点与障碍物之间的距离,β是斥力增益,Q是障碍物作用的距离阈值,当前点与障碍物距离大于此阈值时,障碍物对小车不会产生斥力;
步骤3-4:根据步骤3-2、3-3便可计算出无人机在任意位置处的引力与斥力,其中引力由如下公式给出:
斥力由如下公式给出:
则小车当前的合力大小为:
F(q)=Fatt(q)+Frep(q) (8)
步骤3-5:根据里程计确定小车的实时转向角θtime;
步骤3-6:根据3-4给出的Fatt(q)、Frep(q)便可以得到合力Fcom以及相对于世界坐标系的夹角θexpect,根据小车质量M以及加速度公式得到其期望速度vcontrol,根据采样时间t得到期望坐标(xexpect,yexpect),其中vexpect、xexpect、yexpect由如下公式给出:
xexpect=x0+vexpect·t·cosθexpect (10)
yexpect=y0+vexpect·t·sinθexpect (11)
其中,(x0,y0)代表小车的初始坐标;
步骤4:建立相对位姿转换为速度模型:
步骤4-1:给定线速度v与角速度ω的控制系数(kv,kω)以及速度初值(v0,ω0),根据步骤3所给出的θexpect、xexpect、yexpect以及小车当前的位姿信息θtime、xtime、ytime建立速度转换模型,则其误差矩阵Erobot、平移矩阵Trobot可由如下公式给出:
则速度控制矩阵Crobot=Trobot·Erobot;
步骤4-2:计算小车实时的速度,我们定义步骤4-1中的速度控制矩阵为:
则小车目标线速度vgoal、目标角速度ωgoal可由如下公式给出:
vgoal=kv·c1+v0·cos c3 (15)
ωgoal=kω·sin c3+v0·c2+ω0 (16)
根据上述步骤来设计算法便可以实现权利要求1所述功能。
2.根据权利要求1所述的基于人工势场法与实例分割的机器人智能避障方法,其特征在于:步骤1所采集的各个视角的RGB图像信息是有限的,因此在现实场景中依旧会存在类别无法识别的问题。
3.根据权利要求1所述的基于人工势场法与实例分割的机器人智能避障方法,其特征在于:步骤1-5所述的Classsafe与Classdanger在算法层面上是人为定义的,具有一定的随机性,考虑现实场景,Classsafe应尽可能安全。
4.根据权利要求1所述的基于人工势场法与实例分割的机器人智能避障方法,其特征在于:步骤2所建立的小车世界坐标系base_link与相机的世界坐标系zed2_link之间的转换关系矩阵H3×1的数值随相机与小车之间相对位姿的改变而改变。
6.根据权利要求1所述的基于人工势场法与实例分割的机器人智能避障方法,其特征在于:步骤3-5中根据里程计确定实时转向角θtime在长时间工作下会出现累计误差。
7.根据权利要求1所述的基于人工势场法与实例分割的机器人智能避障方法,其特征在于:步骤3-6中小车的初始坐标(x0,y0)会随着小车的重启而归零。
8.根据权利要求1所述的基于人工势场法与实例分割的机器人智能避障方法,其特征在于:步骤4-1中给定的线速度v与角速度ω的控制系数(kv,kω)应按照小车速度上限来确定。
9.根据权利要求1所述的基于人工势场法与实例分割的机器人智能避障方法,其特征在于:为保证速度控制的连续性与稳定性,步骤4-1中给定的线速度初值v0应尽可能的小,角速度初值ω0应设置为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210259535.5A CN114637295A (zh) | 2022-03-16 | 2022-03-16 | 一种基于人工势场法与实例分割的机器人智能避障方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210259535.5A CN114637295A (zh) | 2022-03-16 | 2022-03-16 | 一种基于人工势场法与实例分割的机器人智能避障方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114637295A true CN114637295A (zh) | 2022-06-17 |
Family
ID=81950452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210259535.5A Pending CN114637295A (zh) | 2022-03-16 | 2022-03-16 | 一种基于人工势场法与实例分割的机器人智能避障方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114637295A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115063541A (zh) * | 2022-08-18 | 2022-09-16 | 四川天启智能科技有限公司 | 一种大型机器人掩埋救援方法及系统 |
CN115480591A (zh) * | 2022-10-20 | 2022-12-16 | 广东电网有限责任公司云浮供电局 | 一种配电网设备环境巡检无人机安全避障方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109828267A (zh) * | 2019-02-25 | 2019-05-31 | 国电南瑞科技股份有限公司 | 基于实例分割和深度摄像头的变电站巡检机器人障碍物检测和测距方法 |
CN111967374A (zh) * | 2020-08-14 | 2020-11-20 | 安徽海博智能科技有限责任公司 | 基于图像处理的矿山障碍物识别方法、系统及设备 |
CN113064415A (zh) * | 2019-12-31 | 2021-07-02 | 华为技术有限公司 | 轨迹规划的方法、装置、控制器和智能车 |
-
2022
- 2022-03-16 CN CN202210259535.5A patent/CN114637295A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109828267A (zh) * | 2019-02-25 | 2019-05-31 | 国电南瑞科技股份有限公司 | 基于实例分割和深度摄像头的变电站巡检机器人障碍物检测和测距方法 |
CN113064415A (zh) * | 2019-12-31 | 2021-07-02 | 华为技术有限公司 | 轨迹规划的方法、装置、控制器和智能车 |
CN111967374A (zh) * | 2020-08-14 | 2020-11-20 | 安徽海博智能科技有限责任公司 | 基于图像处理的矿山障碍物识别方法、系统及设备 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115063541A (zh) * | 2022-08-18 | 2022-09-16 | 四川天启智能科技有限公司 | 一种大型机器人掩埋救援方法及系统 |
CN115063541B (zh) * | 2022-08-18 | 2022-12-02 | 四川天启智能科技有限公司 | 一种大型机器人掩埋救援方法及系统 |
CN115480591A (zh) * | 2022-10-20 | 2022-12-16 | 广东电网有限责任公司云浮供电局 | 一种配电网设备环境巡检无人机安全避障方法 |
CN115480591B (zh) * | 2022-10-20 | 2023-09-12 | 广东电网有限责任公司云浮供电局 | 一种配电网设备环境巡检无人机安全避障方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114384920B (zh) | 一种基于局部栅格地图实时构建的动态避障方法 | |
CN113450408B (zh) | 一种基于深度相机的非规则物体位姿估计方法及装置 | |
CN107741234B (zh) | 一种基于视觉的离线地图构建及定位方法 | |
CN110097553B (zh) | 基于即时定位建图与三维语义分割的语义建图系统 | |
CN111210518B (zh) | 基于视觉融合地标的拓扑地图生成方法 | |
CN108196453B (zh) | 一种机械臂运动规划群体智能计算方法 | |
CN108898063B (zh) | 一种基于全卷积神经网络的人体姿态识别装置及方法 | |
CN114637295A (zh) | 一种基于人工势场法与实例分割的机器人智能避障方法 | |
Peng et al. | Path planning and obstacle avoidance for vision guided quadrotor UAV navigation | |
CN108838991A (zh) | 一种自主类人双臂机器人及其对运动目标的跟踪操作系统 | |
CN111563415A (zh) | 一种基于双目视觉的三维目标检测系统及方法 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN112102403B (zh) | 用于输电塔场景下的自主巡检无人机的高精度定位方法及其系统 | |
CN110728751A (zh) | 一种室内3d点云语义地图的构建方法 | |
Ma et al. | Crlf: Automatic calibration and refinement based on line feature for lidar and camera in road scenes | |
CN111337943A (zh) | 一种基于视觉引导激光重定位的移动机器人定位方法 | |
Bao et al. | Vision-based horizon extraction for micro air vehicle flight control | |
CN117315025A (zh) | 一种基于神经网络的机械臂6d位姿抓取方法 | |
Niu et al. | Unmanned aerial vehicle (UAV)-assisted path planning for unmanned ground vehicles (UGVs) via disciplined convex-concave programming | |
CN117570960A (zh) | 一种用于导盲机器人的室内定位导航系统及方法 | |
Liu et al. | Research on security of key algorithms in intelligent driving system | |
Hong et al. | Real-time visual-based localization for mobile robot using structured-view deep learning | |
CN116403186A (zh) | 基于FPN Swin Transformer与Pointnet++ 的自动驾驶三维目标检测方法 | |
Lim et al. | MSDPN: Monocular depth prediction with partial laser observation using multi-stage neural networks | |
Hong et al. | Research of robotic arm control system based on deep learning and 3D point cloud target detection algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |