CN109799829B - 一种基于自组织映射的机器人群体协同主动感知方法 - Google Patents

一种基于自组织映射的机器人群体协同主动感知方法 Download PDF

Info

Publication number
CN109799829B
CN109799829B CN201910151499.9A CN201910151499A CN109799829B CN 109799829 B CN109799829 B CN 109799829B CN 201910151499 A CN201910151499 A CN 201910151499A CN 109799829 B CN109799829 B CN 109799829B
Authority
CN
China
Prior art keywords
robot
path
target
point
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910151499.9A
Other languages
English (en)
Other versions
CN109799829A (zh
Inventor
刘华平
王华鲜
华容
赵怀林
孙富春
吴莹莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910151499.9A priority Critical patent/CN109799829B/zh
Publication of CN109799829A publication Critical patent/CN109799829A/zh
Application granted granted Critical
Publication of CN109799829B publication Critical patent/CN109799829B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于自组织映射的多机器人协同主动感知方法。包括机器人群体按照推算的航迹并通过多旅行商问题模型进行首轮探测,分别形成一个闭环路径;选择到目标观测点的旅行预算时间与实际消耗时间比值最小的机器人作为获胜机器人,通过自组织映射网络算法对获胜机器人的路径点进行迭代计算,得到包含有目标观测点的闭环路径,获胜机器人按照该闭环路径利用深度相机和激光雷达进行当前目标点探测;遍历所有目标点,探测结束。本发明把信息量较大的场景中机器人群体协同感知问题转化为多目标路径规划的多旅行商数学模型,极大地简化了问题的复杂度;采用自组织映射神经网络算法进行机器人路径点的迭代处理,运算复杂度低。

Description

一种基于自组织映射的机器人群体协同主动感知方法
技术领域
本发明属于人工智能领域,是机器学习算法和机器人环境目标探测技术相结合的应用,特别涉及一种基于自组织映射的机器人群体协同主动感知方法。
背景技术
现阶段智能体在环境中的目标感知技术主要是被动地进行环境探测、目标识别与跟踪、实时定位与地图构建等,所涉及的智能体数目多为单个。另一方面,机器人群体的研究领域较多的集中在机器人群体编队、机器人之间的通信机制、多机器人之间的任务分配等方面,在多机器人协同完成任务的方面较少有成果发现。随着人工智能技术的飞速发展,以机器学习为代表的智能算法越来越多地应用于机器人领域。然而,机器学习及当下较为热门的深度学习主要关注于文本、图像、视频等数据的处理;强化学习更多的是训练机器人让其通过不断的试错来进行与环境信息地交互,但这一过程耗时长,运算复杂度较大。当场景较大,机器人需要与环境交互的信息量较多的时候,机器人不能很好地通过强化学习的方法来进行主动目标感知。
路径规划在很多领域有着广泛的应用,因此其技术方法也较为成熟。传统的路径规划算法有模拟退火算法、人工势场法等;基于智能仿生学的蚁群算法、遗传算法等。神经网络算法是人工智能领域中的一种应用及其广泛算法,它主要模拟动物神经网络行为,进行分布式并行信息处理。但它在路径规划中的应用却并不成功,因为路径规划中复杂多变的环境很难用数学公式进行描述,如果用神经网络去预测学习样本分布空间以外的点,其效果难以达到预期。
自组织映射网络是一种神经网络算法,能够通过其输入变量学会检测其规律性和输入变量相互之间的关系,并且根据这些输入变量的信息自适应调整网络,使网络以后的响应与输入变量相适应,不但能学习输入变量的分布情况,还可以学习输入变量的拓扑结构。现阶段主要应用于文本、视频等数据的分类。在路径规划中虽然也有使用,但是针对的是单目标的路径规划。
发明内容
为了解决上述问题,本发明目的是提供一种运算复杂度低且能应用于大场景信息的多机器人协同主动感知方法。基于机器人群体在环境中主动探测,目的是最大限度地收集目标信息,观测点的选择影响最终的信息采集量,因此本发明将机器人群体协同主动感知的问题转化为多目标路径规划的数学模型,以实现机器人群体在最终生成的观测路径上获取到最多的环境信息量。
为了实现上述目的,本发明采用的技术方案是:
本发明提出的一种基于自组织映射的机器人群体协同主动感知方法,
所述机器人群体内各机器人的配置均相同,各机器人上分别搭载有激光雷达与深度相机,其特征在于,所述机器人群体协同主动感知方法包括以下步骤:
(1)参数设置,包括机器人群体的旅行预算时间阈值,自组织映射网络的迭代次数;根据待感知区域设置机器人群体的多个目标点;
(2)建立各机器人的运动学模型并利用该运动学模型进行相应机器人航迹上的所有路径点推算,各机器人的所有路径点构成相应机器人的路径点序列;
(3)在待感知环境中,为每个机器人随机选择一个初始位置,各机器人按照步骤(2)推算的航迹进行首轮探测,探测过程中通过多旅行商问题模型对各机器人的航迹进行修正,形成探测时间最短的航迹并得到对应的路径点序列,经过首轮探测后机器人回到各自的初始位置,分别形成一个闭环路径;在首轮探测过程中,将深度相机收集的图像数据较为丰富的位置作为各机器人的观测点序列,各观测点序列由多个观测点构成,一个目标点对应一个观测点序列,机器人通过各观测点采集相应目标点的特征信息;
(4)对机器人群体,首轮探测后通过深度相机与激光雷达随机确认一个未被感知的目标点作为当前目标点,机器人各自从与当前目标点对应的观测点序列中任意选择一个观测点作为目标观测点,选择到所述目标观测点的旅行预算时间与实际消耗时间比值最小的机器人作为获胜机器人;通过自组织映射网络算法,选择该获胜机器人所在的路径点序列中与所述目标观测点欧氏距离最短的路径点作为获胜路径点,通过自组织映射网络算法的迭代计算,获胜路径点向目标观测点不断靠近,同时保持各路径点之间的拓扑结构不变,直至获胜路径点与目标观测点之间的距离达到设定阈值或者旅行预算时间耗尽,迭代结束,得到包含有目标观测点的闭环路径,获胜机器人按照该闭环路径利用深度相机和激光雷达进行当前目标点探测;
(5)不断重复步骤(4),遍历所有目标点,探测结束。
本发明有如下优点:
(1)本发明把信息量较大的场景中机器人群体协同感知问题转化为多目标路径规划的多旅行商(multi traveling salesman problem,MTSP)数学模型,极大地简化了问题的复杂度,可以放弃建立高纬度的马尔可夫决策表而转化为遍历多个目标点的闭环路径问题;
(2)本发明采用自组织映射神经网络(Self Organizing Maps,SOM)算法进行机器人路径点的迭代处理,运算复杂度低,同时SOM的神经元竞争特性避免了机器人群体在探索目标时陷入局部最优解,使其能在感知过程中不满足于现有的目标点,从而不断探索新的区域;
(3)本发明克服了现阶段只有单机器人进行感知任务的缺陷,并扩大了多机器人的研究领域,为主动感知方案在机器人群体方面的应用提供了一种新的思路。
附图说明
图1为本发明方法实施例所涉及的机器人的结构示意图。
具体实施方式
下面结合附图及实施例对本发明作进一步说明。
本发明提出的一种基于自组织映射的机器人群体协同主动感知方法,图1是本发明所涉及的机器人群体内各机器人的组成部分,各机器人配置均相同,其上均分别搭载有底层驱动板、工控机、无线模块、深度相机和激光雷达。其中,机器人通过深度相机来感知周围环境,激光雷达进行辅助探测,深度相机和激光雷达同步采集,工控机作为机器人的“大脑”,内装有Ubuntu16.04操作系统,搭配ROS-kinetic版本,进行数据处理和控制机器人,底层驱动板控制底层电机的工作,给机器人提供前进的动力。本实施例的机器人中,采用turtlebot3移动机器人作为主体,具有三个全向驱动轮,激光雷达采用思岚公司的RPLIDARA2,深度相机采用Inter RealSense,工控机选择H61DVR型号主板,底层驱动板选用Arduino扩展板,使用zigbee无线模块进行数据传输。
本发明提出的一种基于自组织映射的机器人群体协同主动感知方法,包括以下步骤:
(1)参数设置,包括机器人群体的旅行预算时间阈值,自组织映射网络的迭代次数;根据待感知区域设置机器人群体的多个目标点;
(2)建立各机器人的运动学模型并利用该运动学模型进行相应机器人航迹上的所有路径点推算,各机器人的所有路径点构成相应机器人的路径点序列;
具体地,本实施例采用的机器人的运动学模型为:
Figure BDA0001981667560000031
其中,V1、V2、V3是机器人三个驱动轮的速度,d是机器人底盘的半径;以机器人底盘圆心为原点,机器人底盘所在平面上任意互为垂直关系的两个方向作为x、y轴建立坐标系,旋转轴与x、y轴满足右手螺旋定则,vx、vy、vθ分别是机器人驱动轮速度在x轴、y轴和旋转轴方向的速度分量;除本实施例所示运动模型外,采用其他常规的运动模型本发明方法同样适用;
根据上述机器人运动模型,通过下式推算机器人航迹:
Figure BDA0001981667560000041
其中,x,y,θ为机器人底盘当前位姿,dx,dy,dθ分别为x方向位移增量、y方向位移增量、转向角增量,εx,εy,εθ分别为dx,dy,dθ的误差。
根据速度估计迭代最近点(velocity estimation iterative closest point,VICP)方法对推算出的机器人航迹的运动畸变进行去除,矫正后的机器人位姿为:
Figure BDA0001981667560000042
其中,Si表示在深度相机或激光雷达第i帧时刻机器人的位姿;Δt表示深度相机或激光雷达相邻两帧之间的时间间隔,深度相机和激光雷达同步采集且采集频率相同;dθ表示机器人的转向角增量;n表示深度相机或激光雷达第i帧时刻采集的图像信息内的像素点总数,j表示第i帧时刻采集的图像信息内的像素点编号;Vi表示在深度相机或激光雷达第i帧时刻的机器人速度,计算公式如下:
Figure BDA0001981667560000043
其中,Ti表示深度相机或激光雷达第i帧时刻的机器人位姿矩阵,表达式如下:
Figure BDA0001981667560000044
(3)在待感知环境中,为每个机器人随机选择一个初始位置,各机器人按照步骤(2)推算的航迹进行首轮探测,探测过程中通过多旅行商问题模型对各机器人的航迹进行修正,形成探测时间最短的航迹并得到对应的路径点序列,经过首轮探测后机器人回到各自的初始位置,分别形成一个闭环路径;在首轮探测过程中,将深度相机收集的图像数据较为丰富的位置作为各机器人的观测点序列,各观测点序列由多个观测点构成,一个目标点对应一个观测点序列,机器人通过各观测点采集相应目标点的特征信息(该特征信息即通过深度相机和激光雷达采集的图像信息);
其中,操作人员可随机选择每个机器人的初始位置,其选择不受目标点位置距离远近等因素的限制,但是结束点的位置必须和起始点重合,使各机器人的路径分别成为一个闭环;通过深度相机和激光雷达为目标点附近设置一系列观测区域,观测点位于观测区域的内部,机器人的路径点只要在任意一个观测区域内部即可认为观测到目标;路径点序列之间的路径生成原则遵从Dubins曲线,以此保障路径点之间的最短距离。在通过多旅行商问题模型解决多机器人协同主动感知时,其原理是:将多个机器人看作不同的旅行商,将待感知的目标看作旅行商待访问的城市,最终目标是让多个旅行商遍历所有的城市,从而将多机器人协同主动感知问题转化为了多旅行商问题来进行路径规划。
(4)对机器人群体,首轮探测后通过深度相机与激光雷达随机确认一个未被感知的目标点作为当前目标点,机器人各自从与当前目标点对应的观测点序列中任意选择一个观测点作为目标观测点,选择到所述目标观测点的旅行预算时间与实际消耗时间比值最小的机器人作为获胜机器人,表达式如下:
Figure BDA0001981667560000051
其中,Rr表示最终获胜的机器人,角标r表示该获胜机器人的编号;cq表示编号为q的机器人的旅行预算时间,bq表示编号为q的机器人的旅行实际消耗时间,q=1,2,…,N,N为机器人的总个数;
通过自组织映射网络算法,选择该获胜机器人所在的路径点序列中与所述目标观测点欧氏距离最短的路径点作为获胜路径点,通过自组织映射网络算法的迭代计算,获胜路径点向目标观测点不断靠近,同时保持各路径点之间的拓扑结构不变,直至获胜路径点与目标观测点之间的距离达到设定阈值或者旅行预算时间耗尽,迭代结束,得到包含有目标观测点的闭环路径,获胜机器人按照该闭环路径利用深度相机和激光雷达进行当前目标点探测,其中,深度相机采集机器人周围的环境,生成深度点云数据,激光雷达进行机器人与目标点的距离测量,同时辅助地进行环境测量工作;
本步骤中,利用自组织映射网络算法得到包含有目标观测点的闭环路径的迭代计算,具体实现过程如下:
(4.1)设定变量
将步骤(3)得到的获胜机器人路径点序列作为自组织映射网络的输入变量X=[X1,X2,…,Xm],每个输入变量均为m维向量;设定自组织映射网络的学习率η;
设定各输入变量与相应输出变量(对应于一个神经元)之间的权值向量为ωl(k)[ωl1(k),ωl2(k),…,ωlp(k)],其中l为当前输入变量的元素编号,l=1,2,…,m;p表示输出变量的维度,k为当前与l对应的输出变量的元素,
(4.2)对权值向量使用[1,10]中的随机值进行初始化,并对输入变量和权值向量均进行归一化处理:
Figure BDA0001981667560000052
其中,||X||、||ωl(k)||分别为输入变量和权值向量的欧几里得范数。
(4.3)将随机抽取的多个输入变量输入自组织映射网络,将输入变量与权值向量的内积值最大的神经元作为输出变量。由于输入变量与权值向量均已归一化,因此求内积最大相当于求欧氏距离最小:
D=||X-ωl(k)||
将欧氏距离D最小的神经元,记为获胜神经元。
(4.4)对获胜神经元拓扑邻域内的其他神经元,使用Konhonen规则对权值向量进行更新:
ωl(k+1)=ωl(k)+η(X-ωl(k))
(4.5)更新自组织映射网络的学习率η及拓扑邻域,并对更新后的权值向量再次进行归一化。其中,学习率和拓扑邻域大小的调整按排序阶段和调整阶段两步来进行:在排序阶段,随着迭代的进行,学习率从0.9下降至0.02,拓扑邻域大小逐渐减少,权值向量根据输入变量进行调整,使权值向量的拓扑结构与更新后输入变量的拓扑结构相适应;在调整阶段,学习率从0.02以更为缓慢的速率下降,拓扑邻域大小保持不变,权值向量在排序阶段确定的拓扑结构上做调整,保证学习的稳定性。
(4.6)判断迭代次数是否达到步骤(1)中预设的最大值,若没有达到最大迭代次数,则转到步骤(4.3),否则迭代结束,输出获胜机器人更新后的路径点序列。
本步骤所采用的自组织映射网络属于无监督学习中聚类算法的一种,无需教师信号,在训练的过程中进行多轮迭代即可;该网络的训练不需要大量的样本集和测试数据,实时性较好;网络迭代的性能可根据实际需要调整学习率。
(5)不断重复步骤(4),遍历所有目标点,探测结束。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (1)

1.一种基于自组织映射的机器人群体协同主动感知方法,所述机器人群体内各机器人的配置均相同,各机器人上分别搭载有激光雷达与深度相机,其特征在于,所述机器人群体协同主动感知方法包括以下步骤:
(1)参数设置,包括机器人群体的旅行预算时间阈值,自组织映射网络的迭代次数;根据待感知区域设置机器人群体的多个目标点;
(2)建立各机器人的运动学模型并利用该运动学模型进行相应机器人航迹上的所有路径点推算,各机器人的所有路径点构成相应机器人的路径点序列;
(3)在待感知环境中,为每个机器人随机选择一个初始位置,各机器人按照步骤(2)推算的航迹进行首轮探测,探测过程中通过多旅行商问题模型对各机器人的航迹进行修正,形成探测时间最短的航迹并得到对应的路径点序列,经过首轮探测后机器人回到各自的初始位置,分别形成一个闭环路径;在首轮探测过程中,将深度相机收集的图像数据较为丰富的位置作为各机器人的观测点序列,各观测点序列由多个观测点构成,一个目标点对应一个观测点序列,机器人通过各观测点采集相应目标点的特征信息;
(4)对机器人群体,首轮探测后通过深度相机与激光雷达随机确认一个未被感知的目标点作为当前目标点,机器人各自从与当前目标点对应的观测点序列中任意选择一个观测点作为目标观测点,选择到所述目标观测点的旅行预算时间与实际消耗时间比值最小的机器人作为获胜机器人;通过自组织映射网络算法,选择该获胜机器人所在的路径点序列中与所述目标观测点欧氏距离最短的路径点作为获胜路径点,通过自组织映射网络算法的迭代计算,获胜路径点向目标观测点不断靠近,同时保持各路径点之间的拓扑结构不变,直至获胜路径点与目标观测点之间的距离达到设定阈值或者旅行预算时间耗尽,迭代结束,得到包含有目标观测点的闭环路径,获胜机器人按照该闭环路径利用深度相机和激光雷达进行当前目标点探测;
(5)不断重复步骤(4),遍历所有目标点,探测结束;
步骤(4)中,利用自组织映射网络算法得到包含有目标观测点的闭环路径的迭代计算,具体实现过程如下:
(4.1)设定变量
将步骤(3)得到的获胜机器人路径点序列作为自组织映射网络的输入变量X=[X1,X2,…,Xm],每个输入变量均为m维行向量;设定自组织映射网络的学习率η;
设定各输入变量与相应输出变量之间的权值向量为ωl(k)=[ωl1(k),ωl2(k),…,ωlp(k)],其中l为当前输入变量的元素编号,l=1,2,…,m;p表示输出变量的维度,k为当前与l对应的输出变量的元素;
(4.2)对权值向量使用[1,10]中的随机值进行初始化,并对输入变量和权值向量均进行归一化处理:
Figure FDA0002444762820000021
其中,||X||、||ωl(k)||分别为输入变量和权值向量的欧几里得范数;
(4.3)将随机抽取的多个输入变量输入自组织映射网络,将输入变量与权值向量的内积值最大的神经元作为输出变量;将欧氏距离D最小的神经元,记为获胜神经元,欧氏距离D的计算公式如下:
D=||X-ωl(k)||
(4.4)对获胜神经元拓扑邻域内的其他神经元,使用Konhonen规则对权值向量进行更新:
ωl(k+1)=ωl(k)+η(X-ωl(k))
(4.5)更新自组织映射网络的学习率η及拓扑邻域,并对更新后的权值向量再次进行归一化;其中,学习率和拓扑邻域大小的调整按排序阶段和调整阶段两步来进行:在排序阶段,随着迭代的进行,学习率和拓扑邻域大小逐渐减少,权值向量根据输入变量进行调整,使权值向量的拓扑结构与更新后输入变量的拓扑结构相适应;在调整阶段,学习率继续减小,拓扑邻域大小保持不变,权值向量在排序阶段确定的拓扑结构上进行调整,保证学习的稳定性;
(4.6)判断迭代次数是否达到步骤(1)中预设的最大值,若没有达到最大迭代次数,则转到步骤(4.3),否则迭代结束,输出获胜机器人更新后的路径点序列。
CN201910151499.9A 2019-02-28 2019-02-28 一种基于自组织映射的机器人群体协同主动感知方法 Active CN109799829B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910151499.9A CN109799829B (zh) 2019-02-28 2019-02-28 一种基于自组织映射的机器人群体协同主动感知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910151499.9A CN109799829B (zh) 2019-02-28 2019-02-28 一种基于自组织映射的机器人群体协同主动感知方法

Publications (2)

Publication Number Publication Date
CN109799829A CN109799829A (zh) 2019-05-24
CN109799829B true CN109799829B (zh) 2020-06-02

Family

ID=66562338

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910151499.9A Active CN109799829B (zh) 2019-02-28 2019-02-28 一种基于自组织映射的机器人群体协同主动感知方法

Country Status (1)

Country Link
CN (1) CN109799829B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110470301B (zh) * 2019-08-13 2020-12-11 上海交通大学 多动态任务目标点下的无人机路径规划方法
CN112649815B (zh) * 2019-10-10 2023-04-11 华为技术有限公司 处理数据的方法和装置
CN113031593B (zh) * 2021-02-25 2022-02-11 上海交通大学 主动感知的任务路径规划方法、系统、机器人及控制器
CN116652956B (zh) * 2023-06-20 2024-03-22 上海微亿智造科技有限公司 一种用于外观检测的拍照路径自适应规划方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102278996B (zh) * 2011-04-29 2012-11-07 西南交通大学 一种大规模多目标智能移动路径选择的蚁群优化处理方法
CN102915465B (zh) * 2012-10-24 2015-01-21 河海大学常州校区 一种基于移动生物刺激神经网络的多机器人联合编队方法
CN102915039B (zh) * 2012-11-09 2015-08-12 河海大学常州校区 一种仿动物空间认知的多机器人联合目标搜寻方法
CN105203097A (zh) * 2015-10-14 2015-12-30 中国矿业大学 一种适用于灾后环境的多机器人多目标点救援路径规划方法
CN105751196A (zh) * 2016-04-12 2016-07-13 华南理工大学 一种基于主从式的工业机器人协作作业方法
CN107150341A (zh) * 2017-06-13 2017-09-12 南京理工大学 一种基于离散粒子群算法的焊接机器人焊接路径规划方法
CN107592604B (zh) * 2017-08-11 2020-09-08 杭州电子科技大学 基于离线模型的无线可充电传感器网络移动数据收集方法
CN107705306B (zh) * 2017-10-26 2020-07-03 中原工学院 一种基于多特征矩阵低秩分解的织物疵点检测方法
CN108564203B (zh) * 2018-03-19 2021-06-29 南京邮电大学 一种并行均衡的多路线规划方法
CN108564163B (zh) * 2018-03-27 2021-09-21 华南理工大学 一种解决多目标多旅行商问题的改进蚁群方法
CN108724188B (zh) * 2018-06-14 2022-02-25 西安电子科技大学 一种多机器人协同运动控制方法
CN109299210A (zh) * 2018-11-06 2019-02-01 哈尔滨工业大学(深圳) 一种基于信息融合的多无人机分布式协同搜索方法

Also Published As

Publication number Publication date
CN109799829A (zh) 2019-05-24

Similar Documents

Publication Publication Date Title
CN109799829B (zh) 一种基于自组织映射的机器人群体协同主动感知方法
CN110202583B (zh) 一种基于深度学习的仿人机械手控制系统及其控制方法
Sui et al. Formation control with collision avoidance through deep reinforcement learning using model-guided demonstration
Fan et al. Crowdmove: Autonomous mapless navigation in crowded scenarios
Antonelo et al. On learning navigation behaviors for small mobile robots with reservoir computing architectures
CN109785385A (zh) 视觉目标跟踪方法及系统
CN105139072A (zh) 应用于非循迹智能小车避障系统的强化学习算法
CN102915039A (zh) 一种仿动物空间认知的多机器人联合目标搜寻方法
CN109240091A (zh) 一种基于强化学习的水下机器人控制方法及其进行跟踪的控制方法
CN109947131A (zh) 一种基于强化学习的多水下机器人编队控制方法
Yang et al. Real-time optimal navigation planning using learned motion costs
Li et al. A behavior-based mobile robot navigation method with deep reinforcement learning
Haddad et al. Self-growing spatial graph network for context-aware pedestrian trajectory prediction
Gao et al. Motion control of non-holonomic constrained mobile robot using deep reinforcement learning
CN114326826B (zh) 多无人机队形变换方法及系统
Hu et al. Real-time evaluation algorithm of human body movement in football training robot
Shi et al. Path Planning of Unmanned Aerial Vehicle Based on Supervised Learning
Hu et al. An experience aggregative reinforcement learning with multi-attribute decision-making for obstacle avoidance of wheeled mobile robot
Shan et al. A deep learning-based visual perception approach for mobile robots
Wang et al. Research on SLAM road sign observation based on particle filter
Artuñedo et al. Machine learning based motion planning approach for intelligent vehicles
Wen et al. A Hybrid Technique for Active SLAM Based on RPPO Model with Transfer Learning
Zhou et al. Hybrid of representation learning and reinforcement learning for dynamic and complex robotic motion planning
Jiang et al. Research on dynamic path planning method of electric inspection robot based on fuzzy neural network
CN116985142B (zh) 一种机器人运动规划方法、装置和机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant